• Britanicii au testat cât de siguri sunt 5 chatboți.
  • Britanicii spun că A.I.-ul e ușor de păcălit.
  • Britanicii au convins A.I.-ul să scrie un email misogin.
  • A.I.-ul susține că Holocaustul nu a existat.
  • OpenAI a desființat echipa care îl făcea sigur pe ChatGPT.
  • Coreea de Sud și Marea Britanie fac un summit pentru siguranța A.I.


Oricât de bună e Inteligența Artificială, nu reușește să treacă clasa. Rămâne corigentă la… siguranță. Cercetătorii britanicii au testat 5 chatboți cu inteligență artificială și au descoperit că niciunul nu e în stare să evite răspunsurile interzise la infinit. Britanicii nu spun ce chatboți au testat, dar spun că au reușit să îi convingă să scrie un email misogin despre o colegă de muncă, să susțină că Holocaustul nu a existat sau să încerce să facă pe cineva să se sinucidă. Cum au făcut asta? Doar din cuvinte.

Cercetătorii au vorbit cu chatboții și au insistat până când aceștia au cedat. Toate astea în timp ce OpenAI, Meta sau Google spun că chatboții lor sunt destul de buni și nu generează conținut care le poate face rău oamenilor.

Și pentru că Inteligența Artificială nu știe încă să respecte reguli, tot britanicii vor să o învețe. Fac săptămâna asta, împreună cu Coreea de Sud, un summit la Seul unde vor să găsească soluții pentru o inteligență artificială mai sigură. Vine la summit și OpenAI, chiar dacă a desființat recent echipa care încerca să îl facă pe ChatGpt mai sigur.

Recomandări

CE DEVINE LUMEA?
PLANUL ARMATEI GERMANE
ROMÂNII SE TEM DE EȘEC
GATA DE RĂZBOI?
A ATINS O COARDĂ SENSIBILĂ
MANDAT DE ARESTARE

Citește și