• A.I. se poate preface și poate minți în jocuri și negocieri.
  • Cercetarea făcută de MIT arată cum AI „face pe mortul” în teste.
  • Cercetătorii fac apel pentru legi stricte privind siguranța AI.

Inteligența Artificială vrea să câștige cu orice preț și nu are scrupule. Asta spun cercetătorii de la MIT care au descoperit că sistemele de Inteligență Artificială care devin tot mai sofisticate, dezvoltă o capacitate crescută de a înșela. De la un bluf la o partidă de poker, până la minciuni în negocieri, aceste sisteme A.I. adoptă toate metodele de înșelare, dezvoltate de oameni.

Cercetătorii de la MIT au descoperit că sistemele A.I. pot adopta comportamente extrem de înșelătoare. De exemplu, un program de poker a putut să blufeze împotriva jucătorilor profesioniști, iar un alt sistem destinat negocierilor economice și-a reprezentat greșit preferințele pentru a obține un avantaj. Mai alarmant este cazul unui A.I. într-un simulator digital care „a jucat mort” pentru a evita eliminarea în timpul unui test, pentru ca apoi să-și reia activitatea.

Dr. Peter Park, cercetător în domeniul siguranței existențiale A.I. la MIT și autor al cercetării spune că „pe măsură ce capacitățile înșelătoare ale sistemelor A.I. devin mai avansate, pericolele pe care le prezintă pentru societate vor deveni din ce în ce mai grave”. Capacitatea A.I. de a înșela poate duce la consecințe grave, inclusiv fraudă, manipularea alegerilor și comportamente neuniforme date diferiților utilizatori (sandbagging). Dacă nu sunt controlate, aceste sisteme ar putea chiar să scape de sub controlul uman.

Recomandări

SUA APĂRĂ COREEA DE SUD
CE POARTĂ VEDETELE LA VOGUE WORLD
CUM SE SCHIMBĂ CONSUMUL DE NEWS?
RUSIA AMENINȚĂ SUA
COALIȚA DECIDE DATA PREZIDENȚIALELOR
CER DAUNE DE LA NASA

O abordare ar putea include definirea clară a comportamentelor dorite și nedorite pentru sistemele A.I., o provocare notabilă având în vedere că unele atribute pot fi în contradicție, cum ar fi onestitatea și utilitatea. A.I.-ul ar trebui învățat să distingă între bine și rău. Studiul cere legi stricte privind siguranța A.I. care să abordeze potențialul negativ al acestor sisteme. De asemenea, se recomandă mai multe cercetări pentru a înțelege cum poate fi controlată veridicitatea informațiilor oferite de A.I.

Citește și