Pēc daudzām kritiķu un lietotāju atsauksmēm Apple atliek pret bērnu vardarbību vērstos pasākumus.
Augustā tehnoloģiju gigants sākotnēji paziņoja par jaunu politiku, kas izmanto tehnoloģiju, lai pamanītu potenciālus bērnu vardarbības attēlus pakalpojumā iCloud un Messages, taču tai sekoja bažas. Eksperti brīdināja, ka, lai gan Apple solīja lietotāju privātumu, tehnoloģija galu galā pakļaus riskam visus Apple lietotājus.
Piektdien Apple paziņoja, ka pilnībā aizkavēs šīs tehnoloģijas ieviešanu, lai veiktu uzlabojumus un pilnībā nodrošinātu lietotāju privātumu.
"Pamatojoties uz atsauksmēm no klientiem, aizstāvības grupām, pētniekiem un citiem, mēs esam nolēmuši turpmākajos mēnešos veltīt papildu laiku, lai apkopotu informāciju un veiktu uzlabojumus pirms šo ļoti svarīgo bērnu drošības līdzekļu izlaišanas," teikts Apple paziņojumā. atjaunināts paziņojums savā tīmekļa vietnē.
Bērnu seksuālas vardarbības materiālu noteikšanas tehnoloģijai bija jābūt pieejamai vēlāk šogad operētājsistēmas iOS 15 izlaišanas laikā, taču tagad nav skaidrs, kad un vai šī funkcija tiks debitēta.
Jaunā tehnoloģija darbotos divos veidos: pirmkārt, skenējot attēlu, pirms tas tiek dublēts pakalpojumā iCloud. Ja šis attēls atbilst CSAM kritērijiem, Apple saņems šos datus. Otra tehnoloģijas daļa izmanto mašīnmācīšanos, lai identificētu un aizmiglotu seksuāla rakstura attēlus, ko bērni saņem, izmantojot ziņojumus.
Tomēr pēc jaunās politikas paziņošanas privātuma aizstāvji un grupas paziņoja, ka Apple būtībā atver sētas durvis, kuras slikti aktieri varētu izmantot ļaunprātīgi.
Lai novērstu šīs bažas, Apple izdeva FAQ lapu neilgi pēc CSAM tehnoloģijas izziņošanas. Apple paskaidroja, ka tehnoloģija neskenēs visus ierīcē saglabātos fotoattēlus, nepārkāps īsziņu šifrēšanu un nepatiesi atzīmēs nevainīgus cilvēkus tiesībaizsardzības iestādēm.