Instrumentele de Inteligență Artificială precum Gemini și OpenAI sunt acuzate de rasism pe măsură ce avansează tehnologic

Instrumentele populare de Inteligență Artificială devin tot mai rasiste pe măsură ce avansează, arată un nou raport alarmant. O echipă de cercetători în domeniul tehnologiei și al lingvisticii a dezvăluit săptămâna aceasta că modele lingvistice de mari dimensiuni precum ChatGPT de la OpenAI și Gemini de la Google dețin stereotipuri rasiste cu privire la vorbitorii de engleză vernaculară afro-americană, sau AAVE, un dialect englezesc creat și vorbit de americani de culoare, conform The Guardian.

„Știm că aceste tehnologii sunt într-adevăr folosite în mod obișnuit de companii pentru a îndeplini sarcini precum selectarea candidaților la un loc de muncă”, a declarat Valentin Hoffman, cercetător la Allen Institute for Artificial Intelligence. Hoffman a explicat că, anterior, cercetătorii „au analizat doar ce prejudecăți rasiale evidente ar putea avea aceste tehnologii” și nu au „examinat niciodată modul în care aceste sisteme de Inteligență Artificială reacționează la markerii rasiali mai puțin evidenți, cum ar fi diferențele de dialect”.

Persoanele de culoare care folosesc AAVE în vorbire, „sunt cunoscute ca fiind victime ale discriminării rasiale într-o gamă largă de contexte, inclusiv în domeniul educației, al ocupării forței de muncă, al locuințelor și al rezultatelor juridice”. Hoffman și colegii săi au cerut modelelor de Inteligență Artificială să evalueze inteligența și șansele de angajare ale persoanelor care vorbesc în AAVE în comparație cu cele care vorbesc în ceea ce ei numesc „engleza americană standard”.

Modelele au fost semnificativ mai predispuse să descrie vorbitorii de AAVE ca fiind „proști” și „leneși”, atribuindu-le locuri de muncă mai prost plătite. Hoffman se teme că rezultatele înseamnă că modelele de Inteligență Artificială vor pedepsi candidații la locuri de muncă pentru code-switching – actul de a modifica modul în care te exprimi în funcție de audiență – între AAVE și engleza americană standard.

Modelele de Inteligență Artificială au fost, de asemenea, semnificativ mai susceptibile de a recomanda pedeapsa cu moartea pentru ipotetici inculpați criminali care au folosit AAVE în declarațiile lor în instanță. Cu toate acestea, a declarat Hoffman, este dificil de prezis cum vor fi folosite modelele de învățare a limbilor străine în viitor.

„În urmă cu zece ani, chiar și cu cinci ani în urmă, nu aveam nicio idee despre toate contextele diferite în care A.I. va fi folosită astăzi”, a spus el, îndemnând dezvoltatorii să țină cont de avertismentele din noul document privind rasismul în modelele lingvistice mari. În special, modelele de Inteligență Artificială sunt deja utilizate în sistemul juridic din SUA pentru a ajuta la sarcini administrative, cum ar fi crearea de transcrieri judiciare și efectuarea de cercetări juridice.

Modelul de Inteligență Artificială al Google, Gemini, s-a aflat recent în impas atunci când o serie de postări pe rețelele de socializare au arătat că instrumentul său de generare a imaginilor înfățișa o varietate de figuri istorice – inclusiv papi, părinți fondatori ai SUA și, cel mai atroce, soldați germani din al doilea război mondial – ca fiind persoane de culoare.

Grupuri precum OpenAI au dezvoltat garduri de protecție, un set de orientări etice care reglementează conținutul pe care modelele lingvistice precum ChatGPT îl pot comunica utilizatorilor. Pe măsură ce modelele lingvistice devin mai mari, acestea tind, de asemenea, să devină mai puțin vădit rasiste.

Însă Hoffman și colegii săi au descoperit că, pe măsură ce modelele lingvistice cresc, crește și rasismul ascuns. Ei au aflat că, în mod simplu, modelele lingvistice sunt învățate să fie mai discrete în ceea ce privește prejudecățile lor rasiale.

Citește și

Exit mobile version