• Progresele în Inteligența Artificială sunt folosite de pedofili pentru a produce videoclipuri pornografice cu minori.
  • Majoritatea cazurilor observate de Internet Watch Foundation (IWF) implică manipularea materialului existent.
  • IWF a adăugat că imaginile CSAM realizate de A.I. au devenit mai foto-realiste în acest an.

Progresele în Inteligența Artificială sunt folosite de pedofili pentru a produce videoclipuri pornografice cu minori, care ar putea crește în volum pe măsură ce tehnologia se îmbunătățește, potrivit unei autorități de supraveghere, scrie The Guardian

Majoritatea cazurilor observate de Internet Watch Foundation implică manipularea materialului existent de abuz sexual asupra copiilor (CSAM) sau pornografie pentru adulți, cu chipul unui copil adăugat pe filmare. Câteva exemple implică videoclipuri realizate în întregime prin Inteligență Artificială, care durează aproximativ 20 de secunde, a spus IWF.

Organizația, care monitorizează CSAM în întreaga lume, a spus că este îngrijorată că ar putea apărea mai multe videoclipuri CSAM realizate de A.I., pe măsură ce instrumentele din spatele lor devin mai răspândite și mai ușor de utilizat.

Recomandări

UNDE TE DISTREZI ÎN PARIS
CIOLACU: AVEM COALIȚIE
SUSPECTUL E ARESTAT
LARA NU VREA LA SENAT
SUA NU ÎNCHIDE GUVERNUL
ÎNCEP CONSULTĂRILE

Dan Sexton, director de tehnologie la IWF, a declarat că dacă utilizarea instrumentelor video A.I. ar urma aceeași tendință ca și imaginile statice realizate de A.I., care au crescut în volum pe măsură ce tehnologia s-a îmbunătățit și a devenit mai disponibilă, ar putea apărea mai multe videoclipuri de genul acesta.

„Aș spune că dacă urmează aceleași tendințe, atunci vom vedea mai multe videoclipuri”, a spus el, adăugând că videoclipurile viitoare ar putea fi, de asemenea, de „o calitate și un realism mai mare”.

Analiștii IWF au spus că majoritatea videoclipurilor văzute de organizație pe un forum dark web folosit de pedofili au fost un deepfake parțial, în care modelele A.I. disponibile gratuit online sunt folosite pentru a impune chipul unui copil, inclusiv imagini cu victime cunoscute CSAM. IWF a spus că a găsit nouă de astfel videoclipuri.

Potrivit analiștilor, un număr mai mic de videoclipuri realizate în întregime prin Inteligență Artificială au fost de o calitate mai mare, dar ei au spus că acesta ar fi „mai rău” decât un videoclip complet sintetic.

IWF a adăugat că imaginile CSAM realizate de A.I. au devenit mai foto-realiste în acest an, comparativ cu 2023, când a început să vadă un astfel de conținut.

Studiul său instantaneu din acest an al unui singur forum web întunecat – care anonimizează utilizatorii și îi protejează de urmărire – a găsit 12.000 de imagini noi generate de A.I. Majoritatea acestor imagini au fost atât de realiste încât ar putea fi urmărite penal în conformitate cu aceleași legi britanice care acoperă CSAM, a spus IWF.

Organizația, care operează o linie telefonică pentru public pentru a raporta abuzul, a declarat că a găsit exemple de imagini CSAM realizate de A.I. vândute online de infractori.

Directorul executiv al IWF, Susie Hargreaves, a declarat: „Fără controale adecvate, instrumentele A.I. generative oferă un teren de joacă pentru prădătorii online pentru a-și realiza cele mai perverse și înfiorătoare fantezii. Chiar și acum, IWF începe să vadă mai multe. Acest tip de material fiind distribuit și vândut pe site-uri comerciale de abuz sexual asupra copiilor de pe internet.”

IWF face eforturi pentru modificări ale legii care vor criminaliza realizarea de ghiduri pentru a genera CSAM realizat de A.I., precum și realizarea de modele A.I. „ajustate” care pot produce astfel de materiale.

Kidron a depus un amendament la proiectul de lege propus pentru protecția datelor și informației digitale în acest an, care ar fi criminalizat crearea și distribuirea unor astfel de modele. Proiectul de lege a căzut pe margine după ce Rishi Sunak a convocat alegerile generale din mai.

Săptămâna trecută, The Guardian a raportat că CSAM creat de A.I. a copleșit capacitatea forțelor de ordine din SUA de a identifica și salva victimele din viața reală.