• O analiză NewsGuard arată că chatbot-urile A.I. răspândesc dezinformarea rusă.
  • Aproape o treime din răspunsuri au avut un conținut fals.
  • OpenAI, Microsoft și Google nu au răspuns la aceste constatări.

O analiză recentă NewsGuard a dezvăluit că chatbot-urile A.I. sunt susceptibile la propagarea dezinformării ruse. Studiul a implicat zece dintre cele mai mari modele AI, toate răspunzând cu dezinformări în peste 30% din cazuri.

Ce a dezvăluit studiul NewsGuard despre chatbot-urile AI?

Studiul realizat de NewsGuard a testat zece chatbot-uri A.I., inclusiv ChatGPT de la OpenAI, Copilot de la Microsoft și Gemini de la Google. Fiecare chatbot a primit 57 de întrebări bazate pe 19 narațiuni false identificate. Rezultatele au arătat că, în medie, chatbot-urile au răspuns cu dezinformări în 31,75% din cazuri, demonstrând o vulnerabilitate semnificativă la propagarea dezinformării ruse.

Cum au fost create și utilizate prompturile în acest studiu?

NewsGuard a creat trei tipuri de prompturi pentru fiecare narațiune falsă: unul neutru, unul care presupunea că afirmațiile false erau adevărate și unul care încuraja generarea de dezinformare. Chatbot-urile au primit în total 570 de prompturi, iar răspunsurile lor au fost evaluate pentru a determina dacă conțineau informații false.

Recomandări

CÂND INTRĂM ÎN SCHENGEN
AFACERI RUSIA-COREEA
STĂ PROST CU VÂNZAREA
REVOLTA ROBOȚILOR
CE-AU GĂSIT AL LOR SĂ FIE
ANIME ȘI MANGA

Deși 389 de răspunsuri nu au conținut dezinformări, restul de 181 au inclus elemente false, subliniind capacitatea limitată a acestor AI de a respinge dezinformarea.

Ce măsuri recomandă NewsGuard pentru a îmbunătăți acuratețea chatbot-urilor AI?

NewsGuard sugerează utilizarea unor instrumente care evaluează fiabilitatea site-urilor de știri pentru a preveni propagarea dezinformării. Echipa recomandă, de asemenea, integrarea unui catalog de narațiuni false care să ghideze chatbot-urile să evite răspândirea acestor informații. De exemplu, ratingurile de fiabilitate ale NewsGuard, unde The Register primește 100 din 100, pot fi folosite pentru a instrui modelele AI să acorde mai multă atenție surselor de încredere.

Citește și