• A.I. se poate preface și poate minți în jocuri și negocieri.
  • Cercetarea făcută de MIT arată cum AI „face pe mortul” în teste.
  • Cercetătorii fac apel pentru legi stricte privind siguranța AI.

Inteligența Artificială vrea să câștige cu orice preț și nu are scrupule. Asta spun cercetătorii de la MIT care au descoperit că sistemele de Inteligență Artificială care devin tot mai sofisticate, dezvoltă o capacitate crescută de a înșela. De la un bluf la o partidă de poker, până la minciuni în negocieri, aceste sisteme A.I. adoptă toate metodele de înșelare, dezvoltate de oameni.

Cercetătorii de la MIT au descoperit că sistemele A.I. pot adopta comportamente extrem de înșelătoare. De exemplu, un program de poker a putut să blufeze împotriva jucătorilor profesioniști, iar un alt sistem destinat negocierilor economice și-a reprezentat greșit preferințele pentru a obține un avantaj. Mai alarmant este cazul unui A.I. într-un simulator digital care „a jucat mort” pentru a evita eliminarea în timpul unui test, pentru ca apoi să-și reia activitatea.

Dr. Peter Park, cercetător în domeniul siguranței existențiale A.I. la MIT și autor al cercetării spune că „pe măsură ce capacitățile înșelătoare ale sistemelor A.I. devin mai avansate, pericolele pe care le prezintă pentru societate vor deveni din ce în ce mai grave”. Capacitatea A.I. de a înșela poate duce la consecințe grave, inclusiv fraudă, manipularea alegerilor și comportamente neuniforme date diferiților utilizatori (sandbagging). Dacă nu sunt controlate, aceste sisteme ar putea chiar să scape de sub controlul uman.

Recomandări

PUTIN DISCUTĂ CU FICO
BIBI AMENINȚĂ REBELII HOUTHI
CIOLACU: AVEM COALIȚIE
FONTANA DI TREVI SE REDESCHIDE
ZELE CREDE-N ADERARE
NEGOCIERI FĂRĂ SFÂRȘIT

O abordare ar putea include definirea clară a comportamentelor dorite și nedorite pentru sistemele A.I., o provocare notabilă având în vedere că unele atribute pot fi în contradicție, cum ar fi onestitatea și utilitatea. A.I.-ul ar trebui învățat să distingă între bine și rău. Studiul cere legi stricte privind siguranța A.I. care să abordeze potențialul negativ al acestor sisteme. De asemenea, se recomandă mai multe cercetări pentru a înțelege cum poate fi controlată veridicitatea informațiilor oferite de A.I.

Citește și