Apple će nadgledati fotografije u telefonima zbog otkrivanja dečije pornografije

Apple je najavio da će u novoj verziji operativnog sistema za iPhone postojati funkcija „CSAM Scanning“, koja će služiti za otkrivanje materijala na uređaju koji sadrži elemente dečije pornografije.

Apple će nadgledati fotografije u telefonima zbog otkrivanja dečije pornografije

Foto: Pixabay
Ova najava zabrinula je mnoge korisnike jer će se njihove fotografije skenirati, a kontroverza je dodatno nastavljena informacijom da Apple, u ovu svrhu, još od 2019. godine skenira mejlove korisnika koji se skladište na iCloud, prenosi Euronews Srbija.
Do ovog „priznanja“ kompanije Apple došao je portal 9to5Mac, a iz tehnološkog giganta su dodali da, iako već dve godine skeniraju mejlove, fotografije i bekapi koji se nalaze na iCloud-u nisu obuhvaćeni.
Kako su objasnili, u borbi protiv dečije pornografije koja se skraćeno zove CSAM („Child Sexual Abuse Material“ – „Materijal koji sadrži seksualno zlostavljanje dece“), Apple skenira priloge u mejlovima, što je lako jer mejlovi nisu nikako enkriptovani.
Rekli su i da, iz istog razloga, skeniraju još neke podatke. Pritom nisu naveli koje, osim da je u pitanju „mala količina drugih podataka“.
Objašnjenje zbog čega je Apple odlučio da uvede funkciju CSAM skeniranja za iOS 15, bilo bi najbolje da se ilustruje prepiskom Erika Fridmana, osobe koja je u Apple kompaniji glavna kada je u pitanju procena rizika i borba protiv prevara, odnosno lažnih aplikacija.
U jednom trenutku, u prepisci o privatnosti do koje je došao The Verge i objavio je pre nekoliko dana, Fridman izjavljuje stvar koja je prilično šokantna, ukoliko se zna da dolazi od osobe sa visoke pozicije.
IZVOR:021.RS

Ostavite prvi komentar

Ostavite komentar

Vaša imejl adresa neće biti objavljena.


*