• Instrumentele populare de Inteligență Artificială devin tot mai rasiste pe măsură ce avansează, arată un nou raport alarmant.
  • ChatGPT și Gemini îi discriminează pe cei care vorbesc engleza vernaculară afro-americană, arată un raport.
  • Persoanele de culoare care folosesc AAVE în vorbire, „sunt cunoscute ca fiind victime ale discriminării rasiale într-o gamă largă de contexte”.

Instrumentele populare de Inteligență Artificială devin tot mai rasiste pe măsură ce avansează, arată un nou raport alarmant. O echipă de cercetători în domeniul tehnologiei și al lingvisticii a dezvăluit săptămâna aceasta că modele lingvistice de mari dimensiuni precum ChatGPT de la OpenAI și Gemini de la Google dețin stereotipuri rasiste cu privire la vorbitorii de engleză vernaculară afro-americană, sau AAVE, un dialect englezesc creat și vorbit de americani de culoare, conform The Guardian.

„Știm că aceste tehnologii sunt într-adevăr folosite în mod obișnuit de companii pentru a îndeplini sarcini precum selectarea candidaților la un loc de muncă”, a declarat Valentin Hoffman, cercetător la Allen Institute for Artificial Intelligence. Hoffman a explicat că, anterior, cercetătorii „au analizat doar ce prejudecăți rasiale evidente ar putea avea aceste tehnologii” și nu au „examinat niciodată modul în care aceste sisteme de Inteligență Artificială reacționează la markerii rasiali mai puțin evidenți, cum ar fi diferențele de dialect”.

Persoanele de culoare care folosesc AAVE în vorbire, „sunt cunoscute ca fiind victime ale discriminării rasiale într-o gamă largă de contexte, inclusiv în domeniul educației, al ocupării forței de muncă, al locuințelor și al rezultatelor juridice”. Hoffman și colegii săi au cerut modelelor de Inteligență Artificială să evalueze inteligența și șansele de angajare ale persoanelor care vorbesc în AAVE în comparație cu cele care vorbesc în ceea ce ei numesc „engleza americană standard”.

Recomandări

CUM PUTEA FI EVITAT RĂZBOIUL RUSO-UCRAINEAN?
TRUMP ȘI ORBAN VOR SĂ FACĂ ALIANȚĂ
TAYLOR ȘI TRAVIS, SURPRINȘI ÎN LAS VEGAS STRIP
CE SPUNE MAȘINA TA DESPRE TINE?
CUM S-AU CUNOSCUT WILLIAM ȘI KATE?
RAY CHAN A MURIT LA 56 DE ANI

Modelele au fost semnificativ mai predispuse să descrie vorbitorii de AAVE ca fiind „proști” și „leneși”, atribuindu-le locuri de muncă mai prost plătite. Hoffman se teme că rezultatele înseamnă că modelele de Inteligență Artificială vor pedepsi candidații la locuri de muncă pentru code-switching – actul de a modifica modul în care te exprimi în funcție de audiență – între AAVE și engleza americană standard.

Modelele de Inteligență Artificială au fost, de asemenea, semnificativ mai susceptibile de a recomanda pedeapsa cu moartea pentru ipotetici inculpați criminali care au folosit AAVE în declarațiile lor în instanță. Cu toate acestea, a declarat Hoffman, este dificil de prezis cum vor fi folosite modelele de învățare a limbilor străine în viitor.

„În urmă cu zece ani, chiar și cu cinci ani în urmă, nu aveam nicio idee despre toate contextele diferite în care A.I. va fi folosită astăzi”, a spus el, îndemnând dezvoltatorii să țină cont de avertismentele din noul document privind rasismul în modelele lingvistice mari. În special, modelele de Inteligență Artificială sunt deja utilizate în sistemul juridic din SUA pentru a ajuta la sarcini administrative, cum ar fi crearea de transcrieri judiciare și efectuarea de cercetări juridice.

Modelul de Inteligență Artificială al Google, Gemini, s-a aflat recent în impas atunci când o serie de postări pe rețelele de socializare au arătat că instrumentul său de generare a imaginilor înfățișa o varietate de figuri istorice – inclusiv papi, părinți fondatori ai SUA și, cel mai atroce, soldați germani din al doilea război mondial – ca fiind persoane de culoare.

Grupuri precum OpenAI au dezvoltat garduri de protecție, un set de orientări etice care reglementează conținutul pe care modelele lingvistice precum ChatGPT îl pot comunica utilizatorilor. Pe măsură ce modelele lingvistice devin mai mari, acestea tind, de asemenea, să devină mai puțin vădit rasiste.

Însă Hoffman și colegii săi au descoperit că, pe măsură ce modelele lingvistice cresc, crește și rasismul ascuns. Ei au aflat că, în mod simplu, modelele lingvistice sunt învățate să fie mai discrete în ceea ce privește prejudecățile lor rasiale.

Citește și