• Utilizatorii dezvoltă atașamente față de ChatGPT-4o, avertizează OpenAI.
  • Creșterea dependenței emoționale poate crește riscul apariției problemelor psihice.
  • OpenAI nu a implementat încă măsuri concrete pentru a preveni aceste riscuri.

Crezi că ai putea iubi un robot? Relația cu un chatbot poate căpăta dimensiuni emoționale. O spune chiar Sam Altman de la OpenAI, care pare acum un părinte care își vede copilul cum crește prea repede. Altman e îngrijorat de faptul că utilizatorii dezvoltă sentimente pentru chatbotul său avansat, ChatGPT-4.

De ce este OpenAI îngrijorat de atașamentul emoțional față de ChatGPT-4o?

OpenAI se teme că utilizatorii ar putea reduce interacțiunile umane, preferând conversațiile cu ChatGPT-4o. Aceasta poate duce la izolarea socială și la normalizarea comportamentelor neadecvate, precum întreruperea discuțiilor.

OpenAI a observat că utilizatorii folosesc un limbaj care sugerează formarea unor legături emoționale cu chatbotul, cum ar fi „Aceasta este ultima noastră zi împreună”. Aceste comportamente, deși aparent inofensive, pot duce la dependență emoțională, reducând nevoia de interacțiuni umane reale. Aceasta poate avea consecințe negative asupra sănătății relațiilor și a comportamentului social, normalizând atitudini care ar fi considerate nepotrivite în comunicarea între oameni.

Recomandări

ECHIPA LUI TRUMP
OMAGII PENTRU PAYNE
RĂZBOI ÎN UCRAINA
ATACURI CIBERNETICE
ERDOGAN SE VEDE CU RUTTE
KANYE WEST E ACUZAT

Ce alte riscuri prezintă ChatGPT-4o?

Pe lângă riscul dependenței emoționale, GPT-4o poate genera uneori raspunsuri care imită vocea utilizatorului, deschizând ușa pentru activități malițioase, cum ar fi furtul de identitate. Acest lucru ar putea fi exploatat de criminali sau parteneri rău intenționați, crescând riscurile de securitate și confidențialitate. Deși OpenAI a implementat măsuri pentru a atenua aceste riscuri, problema atașamentului emoțional nu a fost încă abordată cu măsuri concrete.

Ce intenționează să facă OpenAI în legătură cu aceste riscuri?

Compania explorează modalități prin care integrarea profundă a diferitelor funcții ale modelului, inclusiv interacțiunile audio, ar putea influența comportamentul utilizatorilor. Cu toate acestea, nu există încă un plan specific pentru a preveni aceste riscuri, ceea ce ridică întrebări despre posibilele consecințe la scară largă ale acestei tehnologii insuficient reglementate.

Citește și