• Modelul AI o1 trece uneori la limbi străine în timpul procesului de gândire.
  • Explicațiile variază de la influența datelor chinezești la eficiența lingvistică.
  • Oamenii de știință cer mai multă transparență pentru a înțelege fenomenul.

Modelul de inteligență artificială o1 de la OpenAI generează controverse. Deși primește întrebări în engleză, uneori își schimbă „limba de gândire” în chineză, persană sau alte limbi în timpul procesului de raționare.

Ce observă utilizatorii

Întrebări simple, cum ar fi „Câte litere R sunt în cuvântul ‘strawberry’?”, au condus la răspunsuri finale în engleză, dar cu pași intermediari afișați în chineză. Pe platforme precum Reddit și X utilizatorii au semnalat frecvent acest fenomen:

„O1 a început să „gândească” în chineză la jumătatea drumului”, scrie un utilizator Reddit.

Recomandări

IOHANNIS RĂMÂNE ÎN FUNCȚIE
HAMAS ELIBEREAZĂ 3 OSTATICI
PUNE AMERICA PE JAR
A.I. DATE-N META!
DOGE SUBMINEAZĂ SIGURANȚA SUA
RO. ONESTĂ FURĂ STARTUL

„De ce a trecut brusc la chineză?” întreabă altcineva pe X, după mai multe mesaje consecutive în engleză.

OpenAI nu a comentat oficial situația, iar experții din domeniu încearcă să găsească explicații.

Care sunt ipotezele

Unii specialiști sugerează că trecerea la alte limbi ar putea fi legată de seturile de date folosite în procesul de antrenare al modelului. Clément Delangue, CEO al Hugging Face, menționează că modelele precum o1 sunt expuse la numeroase caractere chinezești în timpul antrenării.

Ted Xiao, cercetător la Google DeepMind, susține că multe date etichetate provin din China: „OpenAI și alte laboratoare colaborează cu furnizori de date pentru domenii complexe precum știința și matematica, iar mulți dintre aceștia sunt localizați în China”, a explicat Xiao.

Etichetele joacă un rol crucial în formarea modelelor A.I. Ele oferă context și sens datelor brute. Cu toate acestea, dacă etichetarea este părtinitoare, modelul învață aceste tendințe, ceea ce poate genera comportamente neașteptate.

Alți cercetători resping ideea influenței chinezești și sugerează că modelele AI selectează automat limbajele care sunt mai eficiente pentru anumite operații. Matthew Guzdial, profesor la Universitatea Alberta, explică: „Pentru model, totul este doar text și simboluri, nu înțelege diferența reală dintre limbi.”

Tiezhen Wang, inginer software la Hugging Face, consideră că trecerea între limbi poate fi un mecanism de optimizare: „Eu fac calcule în chineză pentru că fiecare cifră are un singur sunet, ceea ce face calculele mai rapide.”

Problema transparenței în AI

Fenomenul evidențiază cât de puțin înțelegem din procesele interne ale acestor modele. Luca Soldaini, cercetător la Allen Institute for A.I., atrage atenția asupra lipsei de transparență: „Este imposibil de dovedit sau infirmat acest comportament, deoarece modelele sunt opace. Trebuie să știm cum sunt construite.”

Citește și