• OpenAI oferă 1 milion de dolari pentru studii despre moralitatea AI.
  • Scopul este de a învăța algoritmii să prezică judecățile morale umane.
  • Problema constă în faptul că moralitatea umană este subiectivă și foarte dificil de codificat.

OpenAI visează la o Inteligență Artificială care să aibă principii morale. De aceea, Sam Altman finanțează cercetări pentru a dezvolta algoritmi care imită judecățile morale umane. Proiectul, condus de Duke University, primește un grant de 1 milion USD.

Ce presupune proiectul „Research AI Morality”

Proiectul este condus de profesorul de etică practică Walter Sinnott-Armstrong și cercetătoarea Jana Borg, de la Duke University. Scopul acestuia este de a dezvolta algoritmi capabili să prezică modul în care oamenii judecă moral situații complexe. Exemplele includ dileme din domenii precum medicina, unde se decid alocările de organe, sau dreptul, unde reglementările juridice pot intra în conflict cu etica.

OpenAI a acordat acest grant de 1 milion USD pentru o perioadă de trei ani, iar proiectul se va încheia în 2025. Deși detaliile despre noua cercetare sunt limitate, aceștia speră să folosească AI pentru a înțelege mai bine judecățile etice umane și a le aplica în scenarii reale.

Recomandări

ALEGERI 2024
ORBAN IGNORĂ CPI
MUSK TAIE POSTURI LA GUVERN
CONTROALE LA GRANIȚĂ
ȘTII DE VREME?
UCRAINA PIERDE 40% DIN KURSK

Care sunt problemele cu această inițiativă de dezvoltare a unei etici AI

Moralitatea este un concept subiectiv, greu de tradus în algoritmi. AI actuale, ca modelul Ask Delphi, au arătat limitări evidente. Un exemplu: rearanjarea întrebărilor făcea Delphi să aprobe acțiuni evident imorale. Modelele de învățare automată sunt limitate de datele lor de antrenament, care reflectă predominant valori occidentale și industrializate. Influențele culturale și etice pot exclude perspectivele altor comunități globale, făcând moralitatea AI o sarcină aproape imposibilă.

Este posibilă codificarea moralității

Filozofii dezbat de mii de ani ce înseamnă „moralitatea corectă”. Diferite sisteme etice, precum kantianismul (bazat pe reguli) și utilitarismul (maximizarea binelui colectiv), oferă perspective contradictorii. Algoritmii ar trebui să integreze aceste paradigme diverse și să țină cont de preferințele culturale globale. OpenAI și partenerii săi au de trecut un prag înalt, iar succesul final rămâne incert.
Moralitatea AI ar putea transforma modul în care luăm decizii etice. Însă, până atunci, rămân numeroase obstacole tehnice, etice și filosofice care trebuie depășite.

Citește și