• OpenAI a afirmat că cercetătorii săi au găsit și interzis conturi asociate cu cinci operațiuni de influență sub acoperire.
  • Una dintre operațiuni a folosit un model OpenAI pentru a depana codul și a crea un robot care a postat pe Telegram.
  • Actorii iranieni au generat articole complete care atacau SUA și Israelul, pe care le-au tradus în engleză și franceză.

OpenAI a publicat joi primul său raport privind modul în care instrumentele sale de Inteligență Artificială sunt folosite pentru operațiuni de influență sub acoperire, dezvăluind că societatea a întrerupt campanii de dezinformare provenind din Rusia, China, Israel și Iran, anunță The Guardian.

Actorii rău intenționați au folosit modelele generative de Inteligență Artificială ale companiei pentru a crea și posta conținut de propagandă pe platformele de socializare și pentru a-și traduce conținutul în diferite limbi. Potrivit raportului, niciuna dintre campanii nu a câștigat tracțiune sau nu a atins audiențe mari.

Pe măsură ce inteligența artificială generativă a devenit o industrie în plină expansiune, cercetătorii și legiuitorii s-au arătat foarte îngrijorați de potențialul acesteia de a crește cantitatea și calitatea dezinformării online. Companiile de Inteligență Artificială, cum ar fi OpenAI, care produce ChatGPT, au încercat, cu rezultate mixte, să calmeze aceste îngrijorări și să pună limite de siguranță asupra tehnologiei lor.

Recomandări

SUA APĂRĂ COREEA DE SUD
CE POARTĂ VEDETELE LA VOGUE WORLD
CUM SE SCHIMBĂ CONSUMUL DE NEWS?
RUSIA AMENINȚĂ SUA
COALIȚA DECIDE DATA PREZIDENȚIALELOR
CER DAUNE DE LA NASA

Raportul de 39 de pagini al OpenAI este una dintre cele mai detaliate relatări din partea unei companii de Inteligență Artificială cu privire la utilizarea software-ului său pentru propagandă. OpenAI a afirmat că cercetătorii săi au găsit și interzis conturi asociate cu cinci operațiuni de influență sub acoperire în ultimele trei luni, care proveneau de la un amestec de actori statali și privați.

În Rusia, două operațiuni au creat și răspândit conținut care critica SUA, Ucraina și mai multe națiuni baltice. Una dintre operațiuni a folosit un model OpenAI pentru a depana codul și a crea un robot care a postat pe Telegram. Operațiunea de influență din China a generat texte în engleză, chineză, japoneză și coreeană, pe care agenții le-au postat apoi pe Twitter și Medium.

Actorii iranieni au generat articole complete care atacau SUA și Israelul, pe care le-au tradus în engleză și franceză. O firmă politică israeliană numită Stoic a gestionat o rețea de conturi false de socializare care a creat o serie de conținuturi, inclusiv postări care acuzau de antisemitism protestele studenților americani împotriva războiului Israelului din Gaza.

Raportul subliniază, de asemenea, modul în care inteligența artificială generativă este încorporată în campaniile de dezinformare ca mijloc de îmbunătățire a anumitor aspecte ale generării de conținut, cum ar fi realizarea unor postări mai convingătoare în limbi străine, dar că nu este singurul instrument de propagandă.

„Toate aceste operațiuni au folosit A.I. într-o anumită măsură, dar niciuna nu a folosit-o exclusiv”, se arată în raport. „În schimb, materialul generat de AI a fost doar unul dintre multele tipuri de conținut pe care le-au postat, alături de formate mai tradiționale, cum ar fi texte scrise manual sau meme-uri copiate de pe internet”.

Citește și