Decizia Apple de a nu lansa monitorizarea fotografiilor CSAM ar putea fi permanenta

Decizia Apple de a nu lansa monitorizarea fotografiilor CSAM ar putea fi permanenta

in luna august, Apple a anuntat ca va introduce o colectie de functii pe iPhone si iPad in incercarea de a limita raspandirea materialelor de abuz sexual asupra copiilor (CSAM). Odata cu noua actualizare iOS 15.2, Apple a lansat noile sale caracteristici de siguranta pentru copii, dar nu a lansat functia de monitorizare a fotografiilor CSAM.

Functia de monitorizare a fotografiilor CSAM a fost amanata de Apple in septembrie din cauza feedback-ului negativ primit. Declaratia care anunta acest lucru a fost postata pe pagina de siguranta pentru copii a Apple; cu toate acestea, toate informatiile despre instrumentul de monitorizare a fotografiilor CSAM al Apple si declaratia in sine au fost eliminate la un moment dat pe 10 decembrie sau dupa aceasta data, relateaza MacRumors.

Prin eliminarea de pe site-ul sau web a tuturor informatiilor despre instrumentul de urmarire a fotografiilor CSAM, este posibil ca Apple sa fi renuntat in mod deschis la aceasta functie.

Dupa anuntul facut in luna august, numeroase persoane si organizatii au criticat noile caracteristici anuntate de Apple pentru dispozitivele sale mobile.

Cea mai frecventa problema ridicata la adresa Apple a fost modul in care ar functiona functia sa de monitorizare a fotografiilor CSAM. Ideea Apple era de a utiliza inteligenta de pe dispozitiv pentru a se potrivi cu colectiile CSAM stocate in iCloud. in cazul in care Apple ar fi detectat astfel de materiale CSAM, ar fi marcat contul respectiv si ar fi furnizat informatii catre NCMEC (National Center for Missing and Exploited Children).

Potrivit cercetatorilor, Apple ar folosi o tehnologie similara cu cea de spionaj si ca aceeasi tehnologie este inutila pentru identificarea imaginilor CSAM. Testand functia de monitorizare a fotografiilor CSAM de la Apple, cercetatorii au afirmat ca cineva ar putea evita detectarea prin modificarea usoara a fotografiei.

Desi Apple a incercat sa asigure utilizatorii ca tehnologia functioneaza asa cum a fost conceputa si ca este complet sigura, dezacordul a ramas.

Odata cu actualizarea iOS 15.2, Apple a lansat unele dintre functiile sale de siguranta pentru copii. Cu iOS 15.2, iMessage poate acum sa avertizeze copiii atunci cand primesc sau trimit fotografii cu nuditate in ele. Atunci cand copilul primeste sau trimite un astfel de continut, fotografia va fi blurata, iar iMessage va afisa un avertisment.

in iOS 15.2, Apple a adaugat, de asemenea, indrumari suplimentare in Siri, Spotlight si Safari Search, oferind resurse suplimentare pentru a-i ajuta pe copii si pe parintii lor sa ramana in siguranta online.

Similar Posts

Lasă un răspuns

Adresa ta de email nu va fi publicată. Câmpurile obligatorii sunt marcate cu *