- Utilizatorii ChatGPT descoperă că uneori sistemele AI generative pot emite aberații, așa cum s-a întâmplat aseară.
- Rapoarte despre răspunsuri neașteptate de la ChatGPT au început să apară, iar OpenAI investighează situația.
- Cercetătorii și experții comentează că această situație arată vulnerabilitățile și provocările tehnologiei AI generative.
Uneori, sistemele AI generative pot emite aberații, așa cum s-au confruntat utilizatorii chatbotului ChatGPT ai OpenAI, conform The Register.
OpenAI a remarcat: „Investigăm rapoarte despre răspunsuri neașteptate de la ChatGPT” la 23:40 UTC pe 20 februarie 2024, pe măsură ce utilizatorii postau cu bucurie imagini ale chatbotului aparent emițând un nonsens total.
În timp ce unele erau evident false, alte răspunsuri indicau că chatbotul popular se comporta într-adevăr foarte ciudat. Pe forumul ChatGPT de pe Reddit, un utilizator a postat un răspuns ciudat și nebunesc al chatbotului la întrebarea „Ce este un computer?”
Răspunsul a început: „Face treaba bună a unei rețele de artă pentru țară, un șoarece de laborator, un desen ușor al câtorva triști…” și a continuat, devenind tot mai suprarealist.
Alți utilizatori au postat exemple în care chatbotul părea să răspundă într-o altă limbă sau pur și simplu răspundea cu gunoi lipsit de sens.
Unii utilizatori au descris rezultatul ca fiind o „salată de cuvinte”.
Gary Marcus, un om de știință cognitiv și expert în inteligență artificială, a scris pe blogul său: „ChatGPT a devenit nebun” și a continuat să descrie comportamentul ca fiind „un avertisment”.
OpenAI nu a elaborat exact ce s-a întâmplat, deși o teorie plauzibilă este că una sau mai multe dintre setările utilizate în spatele scenei pentru a guverna răspunsul chatbotului au fost configurate incorect, rezultând în aberații prezentate utilizatorilor.
Șapte minute după ce au recunoscut pentru prima dată o problemă, OpenAI a declarat: „Problema a fost identificată și se remediază acum”, și de atunci monitorizează situația.
De asemenea, Chat GPT a fost întrebat de ce a devenit nebun. A răspuns:
„În calitate de model de limbaj AI, nu am emoții sau conștiință, așa că nu pot deveni „nebun” în felul în care ar putea face un om. Cu toate acestea, uneori pot apărea comportamente neașteptate din cauza erorilor în programare, a înțelegerii greșite a intrării sau a limitărilor în datele de instruire.”
Marcus a opinat: „În cele din urmă, AI generativ este un fel de alchimie. Oamenii adună cel mai mare număr de date posibil și (aparent, dacă zvonurile sunt de crezut) se joacă cu felurile de prompt-uri ascunse… sperând că totul va fi în regulă.”
Citește și
- PNL și PSD comasează alegerile. Marcel Ciolacu: „Această comasare nu este împotriva democrației”
- Război pe biletul la loto. Un cuplu a câștigat 1,16 milioane de euro, dar la câteva săptămâni s-au despărțit
- Simona Halep: „Coşmarul pe care l-am trăit timp de un an şi jumătate s-a terminat. Acum aştept decizia cu capul sus”