Gigantul tehnologic american Apple și-a anunțat intenția de a scana toate telefoanele iPhone – deocamdată, doar cele deținute de americani – pentru a obține imagini care ar putea reprezenta cazuri de abuz sexual asupra copiilor, anunță agenția Associated Press.
Decizia companiei a stârnit deja mari dezbateri. Pe de o parte, a fost aplaudată cu entuziasm de către organizațiile de protecție a copilului, dar, pe de altă parte, a ridicat mari semne de întrebare în rândul cercetătorilor în domeniul securității cibernetice, care consideră că sistemul Apple ar putea fi utilizat în mod abuziv, inclusiv de către guverne din întreaga lume care își doresc să își supravegheze îndeaproape cetățenii.
Instrumentul conceput de inginerii Apple pentru a detecta imagini care ar putea constitui situații de abuz sexual asupra copiilor, numit ”neuralMatch”, va scana imaginile înainte de a fi încărcate pe iCloud. Dacă va identifica ceva suspect, imaginea va fi analizată și de un recenzor uman. Dacă pornografia infantilă este confirmată, contul utilizatorului va fi dezactivat și va fi notificat Centrul Național pentru Copii Dispăruți și Exploatați (National Center for Missing and Exploited Children – NCMEC).
Semnale de alarmă
În paralel, Apple intenționează să scaneze mesajele criptate ale utilizatorilor pentru a depista conținutul explicit sexual, tot ca măsură de siguranță a copiilor, ceea ce i-a alarmat și mai mult pe cei care militează pentru confidențialitatea datelor utilizatorilor.
Sistemul de detectare va semnaliza doar imaginile care se află deja în baza de date a NCMEC. Părinții care fac fotografii obișnuite copiilor lor, fără vreun conținut sexual sau sexualizabil, probabil că nu trebuie să își facă mari griji. Totuși, cercetătorii spun că instrumentul de potrivire – care nu ”vede” astfel de imagini, ci doar ”amprentele” matematice care le reprezintă – ar putea fi utilizat în scopuri maligne.
Matthew Green, unul dintre cei mai cunoscuți cercetători în domeniul criptografiei la Universitatea Johns Hopkins, a avertizat că sistemul ar putea fi folosit pentru a lua în vizor oameni nevinovați, trimițându-le imagini aparent inofensive, dar concepute cu dinadinsul tocmai pentru a declanșa avertizarea ”neuralMatch” pentru pornografie infantilă.
Algoritmul pus la punct de Apple funcționează astfel: fotografiile utilizatorilor sunt convertite într-un șir de numere printr-un proces cunoscut sub numele de “hashing”, iar acestea vor fi comparate cu cele din acea bază de date a NMCEC, care conține 200 de mii de imagini de abuz sexual asupra copiilor.
Un șir specific de numere integrate într-o poză ar putea păcăli algoritmul Apple și poate declanșa o alertă de conținut abuziv.
”Cercetătorii au reușit să facă acest lucru destul de ușor”, a spus Green despre posibilitatea de a păcăli astfel de sisteme automatizate.
Alte abuzuri ar putea cuprinde situațiile în care guvernele din întreaga lume ar putea decide supravegherea disidenților sau a protestatarilor.
”Ce se întâmplă dacă guvernul chinez se trezește să spună: «Uite aici, asta-i o listă de fișiere pe care dorim să le scanați»? Apple spune nu? Eu sper că vor spune nu, însă tehnologia lor nu va spune nu”, a continuat Green.
Companiile tehnologice, inclusiv giganții precum Microsoft, Google, Facebook, dar și alte companii mai mici, își partajează de ani de zile amprente digitale ale unor imagini cunoscute de abuz sexual asupra copiilor. Apple le-a folosit pentru a scana fișierele utilizatorilor pentru depistarea cazurilor de pornografie infantilă, stocate în serviciul său iCloud, care nu este criptat la fel de sigur ca datele sale de pe dispozitiv.
Apple se află sub presiunea guvernului federal de mult timp pentru a permite o supraveghere sporită a datelor criptate. Odată cu noile măsuri de securitate, Apple a trebuit să se poziționeze pentru menținerea acelui echilibru fragil între combaterea exploatării copiilor, păstrându-și în același timp angajamentul de înaltă protecție a confidențialității utilizatorilor săi.
Nu pare să fi reușit prea bine.
Electronic Frontier Foundation, o organizație americană de pionierat în domeniul luptei pentru confidențialitatea datelor utilizatorilor de servicii de internet, consideră că acest compromis pe care Apple a ales să-l facă în privința protecției confidențialității reprezintă ”un șoc pentru utilizatorii care și-au pus toată încrederea în conducerea companiei, care le promisese confidențialitate și securitate a datelor personale”.
Apple s-a trezit cu critici, deși nu atât de aspre, chiar și de unde s-ar fi așteptat mai puțin.
Hany Farid, inginerul care a inventat în urmă cu mai bine de un deceniu PhotoDNA, tehnologia utilizată de forțele de ordine pentru a identifica pornografia infantilă online, a recunoscut potențialul de abuz al sistemului Apple, dar a spus că lumea a depășit de multă vreme punctul în care imperativul luptei împotriva abuzului sexual asupra copiilor a devenit mai important.
“Este posibil? Desigur că da. Dar este ceva care mă îngrijorează? Nu”, a spus Hany Farid, cercetător la universitatea californiană Berkeley, care susține că o mulțime de alte programe și instrumente concepute pentru a proteja dispozitivele de diverse amenințări nu au căzut în capcana abuzurilor asupra confidențialității utilizatorilor.
El a dat drept exemplu serviciul WhatsApp, care le oferă utilizatorilor criptare end-to-end pentru a le proteja confidențialitatea, dar, în același timp, folosește un sistem de detectare a programelor malware și de avertizare a utilizatorilor să nu facă clic pe link-uri care ar putea să dăuneze dispozitivelor pe care le accesează.
Statul și nevoia lui de control asupra informației
Apple a fost una dintre primele companii importante care a adoptat tehnologia criptării ”end-to-end”, în care mesajele sunt criptate astfel încât numai expeditorii și destinatarii să le poată citi. Cu toate acestea, autoritățile naționale au pus presiune pe companie pentru a partaja accesul la unele dintre aceste informații, în cazurile în care erau necesare pentru investigarea unor infracțiuni precum terorismul sau exploatarea sexuală a copiilor.
Apple a declarat că ultimele modificări vor fi lansate anul acesta ca parte a actualizărilor software-ului său de operare pentru iPhone, Mac și Apple Watches.
”Politica extinsă de protecție a copiilor promovată de Apple schimbă tot jocul. Întrucât sunt atât de mulți cei care utilizează produsele Apple, aceste noi măsuri de siguranță sunt de natură să salveze viețile multor copii”, a declarat John Clark, președintele și CEO al Centrului Național pentru Copii Dispăruți și Exploatați, într-un comunicat prin care salută decizia Apple.
Julia Cordua, CEO al Thorn, o organizație internațională care luptă împotriva traficului de persoane și, în special, împotriva exploatării sexuale a copiilor, a declarat că tehnologia Apple echilibrează ”nevoia de confidențialitate cu siguranța digitală pentru copii”. Thorn, organizație non-profit fondată de Demi Moore și Ashton Kutcher, folosește tehnologia pentru a ajuta la protejarea copiilor împotriva abuzurilor sexuale, identificând victimele și colaborând cu platformele tehnologice pentru investigarea și ducerea în justiție a făptașilor.
Apple respinge criticile și subliniază scopul nobil pe care și-a fundamentat decizia
La polul opus, o reacție rapidă a Centrului pentru Democrație și Tehnologie din Washington, o organizație non-profit pentru apărarea libertăților cibernetice, a cerut Apple să abandoneze planurile anunțate, despre care a spus că distrug cu maximă eficiență garanția promisă de companie, de ”criptare end-to-end”. Scanarea mesajelor pentru conținutul explicit sexual pe telefoane sau computere distruge definitiv securitatea datelor, susține organizația.
Mai mult, precedentul Apple ar putea să crească presiunea asupra altor companii de a utiliza tehnici similare.
Deși sistemul este, pentru moment, instruit să identifice abuzurile sexuale asupra copiilor, acesta ar putea fi adaptat pentru a căuta orice alte imagini și texte vizate, de exemplu, semne antiguvernamentale la proteste, mai spun ei.
Organizația a pus la îndoială capacitatea tehnologiei Apple de a face diferența între conținutul cu adevărat periculos și ceva complet benign, precum diverse fotografii inofensive, caricaturi sau meme-uri. Este de notorietate că astfel de tehnologii sunt predispuse la erori, adaugă Centrul pentru Democrație și Tehnologie în reacția sa.
Apple neagă faptul că modificările pe care urmează să le aducă sistemului vor putea să degradeze securitatea criptării sale ”end to end”, adăugând că sistemul integrează inovații tehnologice de ultimă oră, care nu vor fi de natură să perturbe confidențialitatea utilizatorilor, ci, dimpotrivă, o vor proteja și mai bine.
Totodată, Apple a mai transmis că aplicația sa de mesagerie va folosi învățarea automată pe dispozitivele utilizatorilor, pentru a identifica și a estompa detaliile fotografiilor cu conținut sexual explicit de pe telefoanele copiilor și, de asemenea, va putea să îi avertizeze pe părinții celor mici prin mesaje text. De asemenea, compania susține că software-ul său va ”interveni” atunci când utilizatorii încearcă să caute pe internet subiecte legate de abuzuri sexuale asupra copiilor.
Pentru a primi avertismentele cu privire la imaginile cu conținut sexual explicite pe dispozitivele copiilor lor, părinții vor trebui să înregistreze telefoanele pe care le utilizează cei mici. De la vârsta de peste 13 ani, copiii vor putea să anuleze înregistrarea, ceea ce va însemna că părinții lor nu vor mai primi notificări.
Apple a mai dat asigurări că niciuna dintre caracteristicile noului sistem nu va compromite securitatea comunicațiilor private.