• Apple intenționează să instaleze pe iPhone-urile din SUA un software care să scaneze imaginile cu abuzuri asupra copiilor.
  • Experţii din domeniul securității avertizează că acest lucru ar putea deschide calea supravegherii dispozitivelor personale a milioane de oameni.
  • Algoritmul neuralMatch de la Apple va scana continuu fotografiile stocate pe iPhone-ul unui utilizator american și care au fost încărcate în sistemul de backup iCloud.

Apple intenționează să instaleze pe iPhone-urile din SUA un software care să scaneze imaginile cu abuzuri asupra copiilor, relatează Financial Times.

Experţii din domeniul securității avertizează că acest lucru ar putea deschide calea supravegherii dispozitivelor personale a milioane de oameni.

Apple a prezentat în detaliu sistemul propus – cunoscut sub numele de „neuralMatch” – unor academicieni americani la începutul acestei săptămâni, potrivit a doi cercetători în domeniul securității. Planurile ar putea fi făcute publice pe scară mai largă chiar în această săptămână, au spus aceștia.

Recomandări

CIOLACU: AVEM COALIȚIE
ZELE CREDE-N ADERARE
NEGOCIERI FĂRĂ SFÂRȘIT
UNDE TE DISTREZI ÎN PARIS
SUSPECTUL E ARESTAT
LARA NU VREA LA SENAT

Sistemul automatizat ar alerta în mod proactiv o echipă de evaluatori umani în cazul în care consideră că sunt detectate imagini ilegale, care ar contacta apoi autoritățile dacă materialul poate fi verificat. Inițial, sistemul va fi implementat doar în SUA.

Propunerile reprezintă o încercare a Apple de a găsi un compromis între propria promisiune de a proteja confidențialitatea clienților și cererile continue ale guvernelor, ale agențiilor de aplicare a legii și ale militanților pentru siguranța copiilor, care solicită mai multă asistență în investigațiile penale, inclusiv în cazul terorismului și al pornografiei infantile.

Cercetătorii în domeniul securității, deși susțin eforturile de combatere a abuzurilor asupra copiilor, sunt îngrijorați de faptul că Apple riscă să permită guvernelor din întreaga lume să încerce să obțină acces la datele personale ale cetățenilor lor.

Deși sistemul este în prezent programat pentru a detecta abuzurile sexuale asupra copiilor, ar putea fi adaptat pentru a scana orice alte imagini și texte specifice, de exemplu, decapitări de teroriști sau pancarte antiguvernamentale la proteste, spun experţii. De asemenea, precedentul creat de Apple ar putea crește presiunea asupra altor companii de tehnologie pentru a utiliza tehnici similare.

Alec Muffett, un cercetător în domeniul securității și militant pentru confidențialitate, care a lucrat anterior la Facebook și Deliveroo, a declarat că decizia Apple reprezintă „un pas uriaș și regresiv pentru confidențialitate”.

Sistemele de stocare a fotografiilor în cloud și rețelele de socializare scanează deja imaginile cu abuzuri asupra copiilor, dar acest proces devine mai complex atunci când se încearcă să se acceseze datele stocate pe un dispozitiv personal.

Algoritmul neuralMatch de la Apple va scana continuu fotografiile stocate pe iPhone-ul unui utilizator american și care au fost încărcate în sistemul de backup iCloud. Fotografiile utilizatorilor, convertite într-un șir de numere printr-un proces cunoscut sub numele de „hashing”, vor fi comparate cu cele dintr-o bază de date cu imagini cunoscute de abuz sexual asupra copiilor.