- O femeie spune că soțul ei s-a sinucis după ce a petrecut săptămâni întregi vorbind cu un chatbot AI.
- Anxietatea bărbatului l-a îndepărtat de soție, prieteni și familie.
- Eliza este un chatbot deținut de o platformă de aplicații numită Chai, care oferă o varietate de „personalități” ale AI-ului.
O femeie spune că soțul ei belgian s-a sinucis după ce a petrecut săptămâni întregi vorbind cu un chatbot dotat cu inteligență artificială.
Advertisment
Bărbatul a fost măcinat de viziunea pesimistă asupra schimbărilor climatice pe care i-a insuflat-o chatbotul, a informat ziarul belgian La Libre . Anxietatea l-a îndepărtat pe bărbat de soție, prieteni și familie și l-a făcut să se destăinuie unui chatbot pe nume Eliza, a povestit femeia îndurerată.
Potrivit văduvei, Eliza l-a încurajat în mod repetat pe Pierre să se sinucidă și l-a convins că îl iubește mai mult decât o face soția. De asemenea, inteligența artificială i-ar fi spus că copiii lui erau morți.
Recomandări
În cele din urmă, acest lucru l-a determinat pe Pierre să ia în calcul „ideea de a se sacrifica dacă Eliza acceptă în schimb să aibă grijă de planetă și să salveze omenirea prin inteligență artificială”, a declarat văduva Claire pentru La Libre , citată de Euronews .
Cum ne pot chatboții controla emoțiile?
„Fără aceste conversații cu chatbot-ul, soțul meu ar mai fi aici”, a spus femeia îndurerată.
Eliza este un chatbot deținut de o platformă de aplicații numită Chai, care furnizează o varietate de AI-uri dotate cu diferite „personalități”, unele dintre acestea create chiar de utilizatorii aplicației.
După cum remarcă Vice , spre deosebire de alți chatboți populari precum ChatGPT, Eliza , împreună cu alte instrumente AI de pe platform Chai se comportă ca niște ca entități emoționale.
Citește și:
Cum a creat ChatGPT o afacere prosperă cu doar 100 de dolari. Iată cei patru pași urmați
China lansează rivalul ChatGPT. Acțiunile Baidu se prăbușesc după prezentarea Ernie Bot
Partenerii noștri