• Taylor Swift a fost victima unor activități deepfake. Imgini pornografice false cu ea au fost distribuite pe platforma de socializare X.
  • În general, femeile și copiii se numără printre victimele acțiunilor deepfake.
  • X a reușit să dea jos imaginile cu Taylor Swift după 17 ore.

Distribuirea imaginilor explicite și pornografice ale cântăreței Taylor Swift în această săptămână a scos la iveală capacitatea Inteligenței Artificiale de a crea imagini convingător de reale, dăunătoare și false, scrie CNN.

Dar conceptul este departe de a fi nou; oamenii au folosit acest tip de tehnologie împotriva femeilor de ani de zile. Și odată cu creșterea accesului la instrumentele AI, experții spun că situația este pe cale să se înrăutățească din ce în ce mai mult, pentru toată lumea, de la copiii până la adulți.

Unii liceeni din întreaga lume, au raportat că fețele lor au fost furate de AI și distribuite online de către colegii de clasă. Între timp, o tânără ce făcea stream pe Twitch a descoperit că imaginea ei a fost folosită într-un videoclip pornografic fals, explicit, care s-a răspândit rapid în comunitatea de jocuri online.

Recomandări

NEGOCIERI APROAPE GATA
SUSPECTUL E ARESTAT
AVION DOBORÂT ÎN MARE
LARA NU VREA LA SENAT
SUA NU ÎNCHIDE GUVERNUL
ÎNCEP CONSULTĂRILE

„Nu sunt doar celebrități”, a spus Danielle Citron, profesoară la Facultatea de Drept de la Universitatea din Virginia. „Sunt oameni obișnuiți. Sunt asistente, studenți la artă și drept, profesori și jurnaliști. Am auzit povești despre modul în care acest lucru îi afectează pe elevii de liceu și pe oamenii din armată. Îi afectează pe toți.”

Imaginile false cu Swift ar putea aduce mai multă atenție asupra problemelor tot mai mari din jurul imaginilor generate de AI. Fanii ei, numiți și „Swifties”, și-au exprimat indignarea pe rețelele sociale în această săptămână, aducând problema în prim-plan. 

Imaginile false ale lui Taylor Swift s-au răspândit predominant pe site-ul de socializare X, cunoscut anterior ca Twitter. Fotografiile care o arată pe cântăreață în poziții explicite au fost vizualizate de zeci de milioane de ori înainte de a fi eliminate de pe platformele sociale. Dar nimic de pe internet nu dispare cu adevărat pentru totdeauna și, fără îndoială, acestea vor continua să fie distribuite pe alte canale.

Tendința în creștere este echivalentul unei practici cunoscute sub numele de „porn revange”. Și devine din ce în ce mai greu de stabilit dacă fotografiile și videoclipurile sunt sau nu autentice.

Ceea ce este diferit de data aceasta, însă, este că fanii loiali ai lui Swift s-au unit pentru a folosi metodele de raportare pentru a elimina în mod eficient postările. „Atât de mulți oameni s-au implicat în acest efort, dar majoritatea victimelor sunt singure”, a spus Citron.

Deși a durat 17 ore pentru ca X să dea jos fotografiile, multe imagini false rămân postate pe site-urile de socializare. Potrivit lui Ben Decker, care conduce Memetica, o agenție de investigații digitale, companiile de social media „nu au cu adevărat planuri eficiente pentru a monitoriza în mod constant conținutul”.

La fel ca majoritatea platformelor de social media majore, politicile X interzic partajarea „conținutului media fals care poate înșela sau deruta oamenii și pot duce la vătămări”. Dar, în același timp, X și-a distrus în mare măsură echipa de moderare a conținutului și se bazează pe sistemele automate și pe raportarea utilizatorilor. (În UE, X este în prezent investigat cu privire la practicile sale de moderare a conținutului).

Alte companii de social media și-au redus, de asemenea, echipele de moderare a conținutului. Meta, de exemplu, a făcut concedieri în echipele sale care abordează dezinformarea și a coordonat campanii de troll și hărțuire pe platformele sale.

Decker a spus că ceea ce s-a întâmplat cu Swift este „un exemplu excelent al modului în care AI este dezlănțuită din multe motive nefaste, fără suficiente balustrade pentru a proteja piața publică”.

Întrebată vineri despre imagini, secretarul de presă al Casei Albe, Karine Jean-Pierre, a spus: „Este alarmant. Suntem îngrijorați de rapoartele pe care tocmai le-ați prezentat.”

Anul trecut, o elevă de liceu din New Jersey a lansat o campanie pentru legislația federală, pentru a aborda problema imaginilor pornografice generate de AI, după ce a spus că fotografiile cu ea și cu alte 30 de colege de clasă au fost furate și posibil distribuite online.

Francesca Mani, elevă la Westfield High School, și-a exprimat frustrarea față de lipsa recursurilor legale pentru a proteja victimele pornografiei generate de Inteligența Artificială. Mama ei a spus că „un băiat sau niște băieți” au creat imaginile fără acordul fetelor.

„Toate districtele școlare se confruntă cu provocările și impactul Inteligenței Artificiale și a altor tehnologii”, a declarat Dr. Raymond González, superintendent Westfield.

În februarie 2023, o problemă similară a lovit comunitatea de jocuri, atunci când un streamer de jocuri video masculin de profil înalt de pe Twitch a fost surprins uitându-se la videoclipuri deepfake ale unora dintre colegii săi de streaming. 

Creșterea și accesul la instrumentele generate de Inteligență Artificială a făcut mai ușor pentru oricine să creeze și aceste tipuri de imagini și videoclipuri. Și există, de asemenea, o lume mult mai largă de modele AI nemoderate, care nu sunt sigure pentru muncă, în platformele open source, potrivit Decker.

Reprimarea acestui lucru rămâne dură. Nouă state din SUA au în prezent legi împotriva creării sau partajării fotografiilor deepfake, imaginilor false create pentru a imita asemănarea cuiva, dar nu există niciuna la nivel federal. Mulți experți solicită modificări la Secțiunea 230 din „Actul de decență în comunicare”, care protejează platformele online de a fi răspunzătoare pentru conținutul generat de utilizatori.

Oamenii pot face câțiva pași mici pentru a se proteja de utilizarea identității lor în imagini false. Expertul în securitate informatică David Jones, de la compania de servicii IT Firewall Technical , spune că oamenii ar trebui să ia în considerare păstrarea profilurilor private și distribuirea fotografiilor numai cu persoane de încredere, deoarece „nu știi niciodată cine s-ar putea uita la profilul tău”.

Cu toate acestea, mulți oameni care participă la „porn revange” își cunosc personal ținta, așa că limitarea a ceea ce este împărtășit în general este calea cea mai sigură.

În plus, instrumentele folosite pentru a crea imagini explicite necesită, de asemenea, o mulțime de date brute și imagini care arată fețe din unghiuri diferite, așa că cu cât cineva trebuie să lucreze cu mai puține, cu atât mai bine. Jones a avertizat că sistemele AI vor devini mai eficiente în viitor și este posibil să fie necesară o singură fotografie pentru a crea o versiune deepfake a altei persoane.

Hackerii pot încerca, de asemenea, să își exploateze victimele obținând acces la fotografiile lor. „Dacă hackerii sunt determinați, aceștia pot încerca să vă spargă parolele, astfel încât să vă poată accesa fotografiile și videoclipurile pe care le distribuiți în conturile dumneavoastră”, a spus el. „Nu folosiți niciodată o parolă ușor de ghicit și nu o notați niciodată.”

Citește și