• Utilizatorii ChatGPT descoperă că uneori sistemele AI generative pot emite aberații, așa cum s-a întâmplat aseară.
  • Rapoarte despre răspunsuri neașteptate de la ChatGPT au început să apară, iar OpenAI investighează situația.
  • Cercetătorii și experții comentează că această situație arată vulnerabilitățile și provocările tehnologiei AI generative.

Uneori, sistemele AI generative pot emite aberații, așa cum s-au confruntat utilizatorii chatbotului ChatGPT ai OpenAI, conform The Register.

OpenAI a remarcat: „Investigăm rapoarte despre răspunsuri neașteptate de la ChatGPT” la 23:40 UTC pe 20 februarie 2024, pe măsură ce utilizatorii postau cu bucurie imagini ale chatbotului aparent emițând un nonsens total.

În timp ce unele erau evident false, alte răspunsuri indicau că chatbotul popular se comporta într-adevăr foarte ciudat. Pe forumul ChatGPT de pe Reddit, un utilizator a postat un răspuns ciudat și nebunesc al chatbotului la întrebarea „Ce este un computer?”

Recomandări

ALEGERI 2024
MUSK TAIE POSTURI LA GUVERN
CONTROALE LA GRANIȚĂ
ȘTII DE VREME?
UCRAINA PIERDE 40% DIN KURSK
CINE CÂȘTIGĂ CODE KIDS

Răspunsul a început: „Face treaba bună a unei rețele de artă pentru țară, un șoarece de laborator, un desen ușor al câtorva triști…” și a continuat, devenind tot mai suprarealist.

Alți utilizatori au postat exemple în care chatbotul părea să răspundă într-o altă limbă sau pur și simplu răspundea cu gunoi lipsit de sens.

Unii utilizatori au descris rezultatul ca fiind o „salată de cuvinte”.

Gary Marcus, un om de știință cognitiv și expert în inteligență artificială, a scris pe blogul său: „ChatGPT a devenit nebun” și a continuat să descrie comportamentul ca fiind „un avertisment”.

OpenAI nu a elaborat exact ce s-a întâmplat, deși o teorie plauzibilă este că una sau mai multe dintre setările utilizate în spatele scenei pentru a guverna răspunsul chatbotului au fost configurate incorect, rezultând în aberații prezentate utilizatorilor.

Șapte minute după ce au recunoscut pentru prima dată o problemă, OpenAI a declarat: „Problema a fost identificată și se remediază acum”, și de atunci monitorizează situația.

De asemenea, Chat GPT a fost întrebat de ce a devenit nebun. A răspuns:

„În calitate de model de limbaj AI, nu am emoții sau conștiință, așa că nu pot deveni „nebun” în felul în care ar putea face un om. Cu toate acestea, uneori pot apărea comportamente neașteptate din cauza erorilor în programare, a înțelegerii greșite a intrării sau a limitărilor în datele de instruire.”

Marcus a opinat: „În cele din urmă, AI generativ este un fel de alchimie. Oamenii adună cel mai mare număr de date posibil și (aparent, dacă zvonurile sunt de crezut) se joacă cu felurile de prompt-uri ascunse… sperând că totul va fi în regulă.”

Citește și