• Cercetătorii cred că algoritmul A.I. poate fi manipulat politic.
  • Meta blochează postări despre războiul din Gaza și despre Trump.
  • Experții cer transparență în A.I. și folosirea algoritmilor open-source.

Algoritmii de Inteligență Artificială nu sunt perfecți. Unii experți în securitate cibernetică cred că pot fi manipulați de dezvoltatori, ceea ce poate duce la prejudecăți similare cu cele ale oamenilor.

La ce se referă experții când vorbesc despre manipularea algoritmilor A.I.?

Sercan Okur, directorul general al companiei de cybersecurity Pavo Group, din Turcia, menționează cum AI poate fi manipulat. El compară dezvoltarea A.I. cu „creșterea copiilor” li semnalează influențele asupra eticii algoritmilor.

Un exemplu dat de el este chatbot-ul Meta care evită întrebări despre tentativa de asasinare a lui Trump, dar oferă detalii despre campania Kamalei Harris. Acest lucru dezvăluie o prejudecată politică în algoritmi.

Recomandări

SUSPECTUL E ARESTAT
LARA NU VREA LA SENAT
SUA NU ÎNCHIDE GUVERNUL
ÎNCEP CONSULTĂRILE
UNDE MERGI LA BRUNCH
REVOLUȚIA AJUNGE ÎN CAPITALĂ

Și cum afectează Inteligența Artificială moderarea conținutului pe rețelele sociale?

AI este esențială pentru moderarea conținutului pe rețelele sociale. Algoritmii A.I. pot analiza și clasifica volume mari de date pentru a identifica conținut problematic, cum ar fi discursul de ură sau dezinformarea. De exemplu, A.I. folosește procesarea limbajului natural și recunoașterea imaginilor pentru a filtra conținutul. Aceasta ajută platformele să mențină un mediu sigur și inclusiv. Cu toate acestea, A.I. nu este infailibilă și poate face greșeli. De aceea, supravegherea umană este crucială pentru a asigura o moderare corectă și echitabilă.

Ce riscuri implică manipularea algoritmilor A.I. și ce soluții se discută?

Manipularea algoritmilor poate afecta fluxul informațional. De exemplu, algoritmii prioritizează conținutul pe baza interacțiunilor utilizatorilor, creând bule informaționale. Aceste bule limitează expunerea la perspective diverse. Un alt risc este amplificarea știrilor false, deoarece algoritmii prioritizează angajamentul. De exemplu, postările care primesc multe aprecieri sau comentarii pot fi false, dar sunt promovate datorită metricilor de angajament. Acest lucru poate influența opinia publică și submina sursele de încredere. Sercan Okur crede ca algoritmul folosește acum analiza emoțională pentru a decide ce conținut să elimine. De aceea, mulți experți recomandă folosirea A.I. open-source pentru transparență, pentru că algoritmii open-source permit verificarea publică a codului. Până una alta puține regiuni au o legislație pentru A.I., care să reglementeze industria.

Citește și