• O unitate a agenției britanice de spionaj GCHQ a avertizat că chatboții AI precum ChatGPT reprezintă o amenințare pentru securitate.
  • Interogările sensibile care sunt stocate de furnizorii de chatbot ar putea fi piratate sau scurse, se spune.
  • Companii precum Amazon și JPMorgan i-au sfătuit pe membrii personalului să nu folosească ChatGPT la locul de muncă.

O agenție britanică de spionaj a avertizat că chatboții inteligenți artificial, cum ar fi ChatGPT, reprezintă o amenințare pentru securitate, deoarece interogările sensibile ar putea fi piratate sau scurse.

Centrul Național de Securitate Cibernetică, o unitate a agenției de informații GCHQ, a publicat marți o postare pe blog care subliniază riscurile pentru indivizi și companii în urma utilizării unei noi rase de chatboți puternici bazați pe inteligență artificială.

Alte riscuri au inclus infractorii care folosesc chatbot-uri pentru a scrie „e-mailuri convingătoare de phishing” și pentru a-i ajuta să organizeze atacuri cibernetice „dincolo de capacitățile lor actuale”, au scris autorii postării pe blogul NCSC.

Recomandări

CUM MĂNÂNCI CUMPĂTAT?
FĂ O ȘCOALĂ CA ACASĂ
ATACURI ÎN SIRIA
ISRAELUL LOVEȘTE YEMEN
TRUMP ÎȘI NUMEȘTE AMBASADORII
JURNALIȘTI MORȚI ÎN GAZA

Autorii au subliniat că interogările introduse în chatbot-uri sunt stocate de furnizorii lor. Acest lucru ar putea permite furnizorilor precum proprietarul ChatGPT, OpenAI, să folosească interogări pentru a preda versiunile viitoare ale chatbot-urilor lor – și să le citească – au spus autorii.

Acest lucru creează un risc pentru întrebări sensibile, cum ar fi un CEO care întreabă „cum este cel mai bine să concedieze un angajat” sau cineva care pune întrebări despre sănătate, au scris autorii.

Ei au adăugat: „Interogările stocate online pot fi piratate, scurse de informații sau, mai probabil, făcute accidental accesibile publicului. Aceasta ar putea include informații potențial identificabile de utilizator”.

Rasmus Rothe, cofondatorul Merantix, o platformă de investiții AI, a declarat pentru Insider: „Principala problemă de securitate a angajaților care interacționează cu instrumente precum ChatGPT este că mașina va învăța din acele interacțiuni – și asta ar putea include învățarea și, în consecință, repetarea informațiilor confidențiale”.

OpenAI spune că analizează conversațiile cu ChatGPT „pentru a ne îmbunătăți sistemele și pentru a ne asigura că conținutul respectă politicile și cerințele noastre de siguranță”.

Autorii postării pe blogul NCSC au spus că noii chatbot-uri au fost „fără îndoială impresionanți”, dar „nu sunt magici, nu sunt inteligență generală artificială și conțin unele defecte grave”.

Companiile majore, inclusiv Amazon și JPMorgan, au sfătuit angajații să nu folosească ChatGPT din cauza temerilor că informațiile interne ar putea fi scurse.