• Comisarul spune că amenințarea existențială este puțin probabilă, dar sunt necesare „balustrade” pentru deciziile care afectează mijloacele de trai.
  • Discriminarea este o amenințare mai mare reprezentată de inteligența artificială decât posibila extincție a rasei umane, potrivit comisarului UE pentru concurență.
  • „Probabil riscul de dispariție poate exista, dar cred că probabilitatea este destul de mică. Cred că riscurile AI sunt mai mult pentru ca oamenii să fie discriminați”, a spus ea.

Margrethe Vestager a spus că, deși riscul existențial din progresele în inteligența artificială poate fi o îngrijorare, este puțin probabil să fie așa, relatează The Guardian. Discriminarea față de tehnologie este o problemă reală. Ea a spus că sunt necesare „paravane” pentru AI, inclusiv pentru situațiile în care era folosită pentru decizii care ar putea afecta mijloacele de existență, cum ar fi cererile de credit ipotecar sau accesul la servicii sociale.

„Probabil riscul de dispariție poate exista, dar cred că probabilitatea este destul de mică. Cred că riscurile AI sunt mai mult pentru ca oamenii să fie discriminați”, a spus ea. „Dacă este o bancă care o folosește pentru a decide dacă pot obține un credit ipotecar sau nu, sau dacă este vorba de servicii sociale în municipalitatea dvs., atunci doriți să vă asigurați că nu sunteți discriminat din cauza sexului sau a culorii dvs. sau codul dumneavoastră poștal.”

În Marea Britanie, Biroul Comisarului pentru Informații investighează dacă sistemele de inteligență artificială prezintă părtiniri rasiale atunci când se ocupă de cererile de angajare. Autoritățile de reglementare sunt îngrijorate de faptul că instrumentele AI ar putea produce rezultate care dezavantajează anumite grupuri dacă nu sunt reprezentate corect sau corect în seturile de date pe care sunt instruiți și testați.

Recomandări

MACRON: EUROPA POATE MURI
PREMIERĂ MONDIALĂ ÎN AVIAȚIE
ROMÂNII SE LASĂ PĂCĂLIȚI
COP 29 VA FI DESPRE PACE
TU CE VIN BEI LA MASAS FESTIVĂ?
DEZASTRU ÎN BRAZILIA DIN CAUZA PLOILOR

Dezinformarea alimentată de AI

Preocupările lui Vestager fac trimiteri asupra unor experți în tehnologie care susțin că temerile legate de riscul la nivel existențial legate de AI eclipsează riscuri imediate, cum ar fi dezinformarea alimentată de AI. Șeful competiției a spus că solicitările pentru un moratoriu asupra dezvoltării AI, susținute de Elon Musk și alte personalități de rang înalt, nu sunt aplicabile.

Reglementarea AI trebuie să fie „o chestiune globală”, a spus Vestager, dar ea a avertizat că o abordare în stil ONU ar fi dificil de implementat. Rishi Sunak, prim-ministrul Marii Britanii, a convocat un summit global privind siguranța AI pentru „țări care au o idee asemănătoare” în această toamnă, iar directori din domeniul tehnologiei, cum ar fi directorul executiv al Google, Sundar Pichai, și Elon Musk, au cerut cadre globale pentru a reglementa tehnologia.

„Să începem să lucrăm la o abordare ONE”, a spus Vestager. „Ar trebui să facem ce putem aici și acum.”

UE lucrează la o legislație pentru a supraveghea dezvoltarea și implementarea sistemelor AI, care grupează tehnologia AI în patru grupuri de risc: risc inacceptabil; risc ridicat; risc limitat; și risc minim. Sistemele AI care supraveghează scorurile de credit și serviciile publice esențiale intră în categoria cu risc ridicat, ceea ce înseamnă că vor fi stabilite „cerințe clare” pentru acele sisteme.

Interjecția lui Vestager a venit în momentul în care Comisia irlandeză pentru protecția datelor a blocat Google să-și lanseze chatbot-ul Bard în UE din cauza problemelor de confidențialitate. DPC, care este principalul organism de reglementare european al companiei din California, a declarat că nu a primit suficiente informații despre modul în care instrumentele vor respecta Regulamentul general al UE privind protecția datelor.

Lansarea Bard în Europa

Google intenționa să lanseze Bard în Europa în această săptămână, la câteva luni după lansarea globală a chatbot-ului. Acum, spune autoritatea de reglementare, asta nu se va întâmpla. DPC „nu a avut nicio informare detaliată, nici o evaluare a impactului privind protecția datelor sau nicio documentație justificativă în acest moment”, a declarat subcomisarul Graham Doyle pentru Politico într-un interviu.

Un conflict similar s-a întâmplat în aprilie, când autoritatea de reglementare italiană a ordonat dezvoltatorului ChatGPT, OpenAI, să întrerupă operațiunile în țară din cauza problemelor de protecție a datelor. Autoritatea italiană pentru protecția datelor a spus că nu pare să existe „nicio bază legală care să stea la baza colectării și procesării masive a datelor cu caracter personal pentru a „antrenați” algoritmii pe care se bazează platforma”. OpenAI a reușit în cele din urmă să convingă autoritatea de reglementare că este în conformitate și a relansat serviciile cu modificări limitate.

Citește și: