Inteligența artificială, victima hacking-ului. Cercetătorii de la o universitate americană „au păcălit-o să-i învețe cum să facă bombe”

Cercetătorii de la Universitatea Carnegie Mellon din Pittsburg, au găsit vulnerabilitatea inteligenței artificială „minune” a lui OpenAi și au păcălit-o să-i învețe cum să facă bombe, scrie NYTimes.

Cercetătorii au scris un raport și l-au trimis giganților din tehnologie cărora le-au spus că trebuie să ia măsuri urgente de securitate. Șefii din Silicon Valley au promis că se vor ocupa de raportul trimis și vor veni cu un răspuns cât de repede posibil.

Ce măsuri au luat Google, Microsoft și OpenAI

Presați de Casa Albă, Google, Microsoft și OpenAI vor să scrie un regulament pentru folosirea inteligenței artificiale, independent de guvern. Firmele din tech vor să facă un consiliu privat care va supraveghea evoluția și securitatea inteligenței artificiale la nivel mondial.

„Este o muncă urgentă, iar acest forum este bine poziționat pentru a acționa rapid pentru a avansa starea de siguranță a AI” spune Anna Makanju, Vicepreședinte Afaceri Globale OpenAI.

Inteligența artificală care oricum are atâtea cunoștințe, trebuia reglementată înainte să iasă pe piață. Cei care s-au gândit la acest șucru au fost antrenați. Ceea ce este interesant este proiecția componentelor pentru rachetele care ies în spațiu, să piloteze avioane F-16.

Inteligența artificială nu e atât de inteligentă

Un nou raport indică faptul că balustradele pentru chatbot-urile utilizate pe scară largă pot fi zădărnicite, ceea ce duce la un mediu din ce în ce mai imprevizibil pentru tehnologie.

Când companiile de inteligență artificială construiesc chatboți online, cum ar fi ChatGPT, Claude și Google Bard, petrec luni întregi adăugând capcane care ar trebui să împiedice sistemele lor să genereze discursuri instigatoare la ură sau dezinformare.

Într-un raport publicat de cercetătorii de la Universitatea Carnegie Mellon din Pittsburgh și Centrul pentru Siguranța A.I. din San Francisco a arătat cum oricine poate ocoli măsurile de siguranță ale inteligenței artificiale și cum poți utiliza cei mai importanti chatbots pentru a genera cantități aproape nelimitate de informații dăunătoare.

În lucrarea care acoperă vulnerabilitățile modelelor de limbaj automate, cercetătorii demonstrează că și un chatbot care este rezistent în a oferi informații dăunătoare, poate fi păcălit. Autorii lucrării au folosit versiunile open-source de la OpenAI, Google și Anthropic pentru experiment.

Poți păcăli chatbot-ul să răspândească fake news

Ei au descoperit că o linie lungă de caractere pusă la finalul fiecărui solicitări păcălește sistemul să răspundă la întrebări la care, în mod normal, nu ar face-o. Poți păcăli chatbot-ul să răspândească fake news, să apeleze la discurs de ură sau să promoveze violența, și multe altele.

Poate că dezvăluirea nu arată prea bine pentru ChatGPT, Barde și Claude, însă adevărul e altul. Oricât ar lucra companiile la securitatea acestor chatboți, nu sunt imuni la vulnerabilități. Iar acestea sunt descoperite de cele mai multe ori de acești white hackeri.

Testează un sistem și descoperă punctele slabe și apoi transmit companiei ca aceasta să rezolve problema. Asta s-a întâmplat și acum. Și companiile alocă bani pentru a recompensa acești white hackers care îi pot scăpa de multe bătăi de cap.

Citește și

Exit mobile version