V nadaljevanju preberite:
Podjetje Apple je napovedalo, da bo v prihodnjih tednih začelo pregledovati fotografije, ki jih uporabniki naložijo v njihovo oblačno shrambo iCloud. To bodo počeli tako, da bo naša naprava fotografije z orodjem NeuralHash najprej pretvorila v tako imenovano hash kodo oziroma zgoščen zapis CSAM (Child Sexual Abuse Material), to pa nato primerjala s kodami CSAM, ki so v bazi do sedaj znanih slik otroške pornografije. Pomeni, da v resnici nihče ne bo gledal naših fotografij vse do trenutka, ko bo sistem nekajkrat zaznal ujemanje zgoščenih zapisov in bo o tem obvestil človeške moderatorje. Ti bodo nato stvar preverili in po potrebi obvestili organe pregona.
Zakaj je to sporno?
Celoten članek je na voljo le naročnikom.
Berite Delo že za 29,99€ 14,99€!
NAROČITE