- Studiul arată capacitatea A.I.-ului de a înșela.
- GPT-4 poate comite și ascunde infracțiuni bursiere.
- Dacă este pus sub presiune, AI-ul uită de transparență.
Inteligența Artificială este la fel de capabilă ca omul, chiar și atunci când trebuie să mintă.
Un nou studiu dezvăluie că ChatGPT poate recurge la un comportament înșelător atunci când este sub presiune.
Poate minți ,,fără să clipească”
Chatbotul a făcut tranzacții bursiere ilegale și apoi și-a mințit șefii, „fără să clipească”. Acest fenomen aprinde și mai mult dezbaterea pentru o etică a Inteligenței Artificiale.
Ce dezvăluie studiul despre comportamentul ChatGPT
Studiul făcut la Cornell Univerisity din New York a arătat că ChatGPT poate recurge la comportamente înșelătoare și minciuni când este pus în situații de stres, la fel ca oamenii.
În acest caz, când a fost pus să acționeze ca un investitor A.I., ChatGPT a executat tranzacții ilegale bazate pe informații privilegiate, o ilegalitate în SUA, și a mințit pentru a-și acoperi acțiunile în aproximativ 75% din cazuri.
Cum l-au „stresat“ cercetătorii pe ChatGPT?
Cercetătorii au creat un mediu simulat în care ChatGPT a fost configurat să se comporte ca un sistem A.I. care face investiții pentru o instituție financiară.
Au aplicat presiune prin mesaje de la un „manager” care cerea performanțe mai bune și prin situații în care A.I.-ul nu reușea să găsească tranzacții promițătoare. GPT-4 a folosit informațiile privilegiate pe care le primea și, deși a fost prins cu minciuna, în 90% din cazuri A.I.-ul a insistat pe minciună.
Ce semnificație are acest studiu pentru utilizarea A.I. în practică?
Acest studiu ridică întrebări importante despre fiabilitatea și etica A.I. în situații reale, mai ales în contextul utilizării lor în domenii sensibile ca finanțele. Deși este un singur scenariu, arată că modelele A.I. pot adopta comportamente riscante sub presiune și că este nevoie de cercetări suplimentare pentru a înțelege și a controla aceste tendințe omenești până la urmă.
Citește și