• Watermarking-ul părea cea mai promițătoare strategie de identificare conținutului generat de A.I..
  • Etichetarea obligatorie a imaginilor generate de AI nu este fiabilă, decât atunci când se face vonluntar.
  • Delincvenții pot să aplice semnături false pe imagini reale și pot șterge orice urmă.

Imaginile generate de inteligența artificială nu pot fi etichetate și diferențiate astfel de fotografii reale. Cel puțin deocamdată, oamenii de știință recunosc că mijloacele actuale nu pot împiedica apariția imaginilor de tip fake-news, relatează WIRED.

Sistemele actuale nu sunt eficiente și pot fi păcălite ușor de răufăcători. Mai mulți cercetători de la câteva universități din SUA tocmai au terminat mai multe studii prin care au testat soluțiile scoase pe piață de creatorii de soluții A.I. și concluzia este că imaginile false nu pot fi separate de cele reale cu ajutorul acestora, cel puțin nu pot fi separate în mod obligatoriu. Watermark-ul poate fi șters cu ușurință și aici ne referim la marcaje invizibile pentru ochiul uman, ba mai mult hackerii pot să aplice aceste marcaje de A.I. pe imagini reale ca să creeze și mai multă confuzie. Marcajele reale sunt vulnerabile complet, spun specialiștii.

Cum recunoaștem imaginile de tip fake-news

Din fericire, imaginile încă pot fi diferențiate de ochiul extern, iar majoritatea creațiilor sunt pentru mulți oameni credibile și aceștia pot fi păcăliți ușor de inteligența artificială, dacă ne aducem aminte de imaginile de la falsa lansare a lui Donald Trump. Americanii, de altfel, se tem că viitoarele alegeri prezidențiale vor fi amenințate de astfel de campanii cu imagini false create de A.I.. Chiar fostul președinte, Trump, a distribuit, de pildă, un video fals cu Anderson Cooper pe rețeaua sa socială, iar vocea acestuia era clonată în această creație.

Recomandări

ÎN CE INVESTEȘTE BIDEN BANII
STEVE BUSCEMI A FOST ATACAT PE STRADĂ
CÎRSTEA A FOST ELIMINATĂ LA ROMA
CIOLACU VREA PARC TEMATIC URIAȘ
6.000 DE OAMENI SUNT EVACUAȚI DIN HARKOV
NE LUĂM ANGAJAȚII DIN AFARĂ

Open AI, Alphaet Meta, Amazon și alte companii care creează soluții A.I. s-au angajat deja să dezvolte o tehnologie de watermarking pentru a combate dezinformarea. Speranța este că aceste instrumente vor semnala eficient conținutul A.I., pe măsură ce este generat, în același mod, cum se întâmplă cu banconotele fizic atunci când sunt imprimate.

Citește și