Tādi lasītāji kā jūs palīdz atbalstīt MUO. Veicot pirkumu, izmantojot saites mūsu vietnē, mēs varam nopelnīt filiāles komisiju. Lasīt vairāk.

Apple 2021. gada augustā paziņoja par plāniem skenēt jūsu iCloud saturu, lai atrastu bērnu seksuālas izmantošanas materiālu (CSAM), lai pasargātu bērnus no plēsēju vardarbības.

Uzņēmums plānoja ieviest jaunu CSAM noteikšanas funkciju pakalpojumā iCloud Photos, kas skenētu šādu saturu un ziņotu par atbilstošiem attēliem Apple, vienlaikus saglabājot lietotāja privātumu.

Tomēr jaunā funkcija izraisīja dažādas reakcijas. Vairāk nekā gadu kopš sākotnējā paziņojuma Apple oficiāli atsakās no sava plāna skenēt iCloud fotoattēlus CSAM.

Apple atsakās no plāna skenēt iCloud, lai noteiktu materiālus, kas saistīti ar vardarbību pret bērniem

Saskaņā ar ziņojumu VADU, Apple atsakās no sava plāna skenēt jūsu iCloud, lai noteiktu saturu, kurā tiek izmantots vardarbība pret bērniem. Šis rīks skenēs iCloud saglabātos fotoattēlus, lai atrastu tos, kas atbilst zināmajiem CSAM attēliem, ko noteikušas bērnu drošības organizācijas. Pēc tam tā varētu ziņot par šiem attēliem, jo ​​CSAM attēlu glabāšana lielākajā daļā jurisdikciju, tostarp ASV, ir nelikumīga.

instagram viewer

Kāpēc Apple atcēla plānu skenēt iCloud fotoattēlus

Pēc sākotnējā paziņojuma 2021. gadā Apple saskārās ar pretreakciju no klientiem, grupām un personām, kas visā pasaulē iestājas par digitālo privātumu un drošību. iPhone parasti piedāvā lielāku drošību nekā Android ierīces, un daudzi to uzskatīja par soli atpakaļ. Lai gan tas bija bērnu drošības organizāciju ieguvums, vairāk nekā 90 politikas grupu vēlāk tajā pašā mēnesī uzrakstīja atklātu vēstuli Apple, aicinot uzņēmumu atcelt plānu.

Vēstulē tika apgalvots, ka, kamēr rīks plāno aizsargāt bērnus no vardarbības, to varētu izmantot, lai cenzētu runas brīvību un apdraudētu lietotāju privātumu un drošību. Pieaugošā spiediena dēļ Apple apturēja savus palaišanas plānus, lai apkopotu atsauksmes un veiktu nepieciešamās funkcijas pielāgojumus. Tomēr atsauksmes neatbalstīja Apple plānu skenēt iCloud fotoattēlus, tāpēc uzņēmums oficiāli atsakās no plāniem uz visiem laikiem.

Paziņojumā WIRED uzņēmums teica:

"Mums ir... nolēma neizmantot mūsu iepriekš piedāvāto CSAM noteikšanas rīku iCloud fotoattēliem. Bērnus var aizsargāt, uzņēmumiem nepārbaudot personas datus, un mēs turpināsim strādāt ar valdībām, bērnu aizstāvjiem un citiem uzņēmumiem, lai palīdzētu aizsargāt jauniešus, saglabātu viņu tiesības uz privātumu un padarītu internetu par drošāku vietu bērniem un mums viss."

Apple jaunais plāns bērnu aizsardzībai

Apple pārorientē savus centienus uzlabot saziņas drošības līdzekļus, par kuriem tika paziņots 2021. gada augustā un laists klajā tā paša gada decembrī.

Saziņas drošība nav obligāta, un to var izmantot vecāki un aizbildņi, lai aizsargātu bērnus gan no seksuāla rakstura attēlu sūtīšanas, gan saņemšanas pakalpojumā iMessage. Funkcija automātiski aizmiglo šādas fotogrāfijas, un bērns tiks brīdināts par ar to saistītajām briesmām. Tas arī brīdina ikvienu, ja viņi mēģina meklēt CSAM Apple ierīcēs.

Tā kā plāni ieviest CSAM noteikšanas rīku ir atcelti, uzņēmums cer turpināt uzlabot šo funkciju un paplašināt to, iekļaujot vairāk saziņas lietotņu.