- OpenAI oferă 1 milion de dolari pentru studii despre moralitatea AI.
- Scopul este de a învăța algoritmii să prezică judecățile morale umane.
- Problema constă în faptul că moralitatea umană este subiectivă și foarte dificil de codificat.
OpenAI visează la o Inteligență Artificială care să aibă principii morale. De aceea, Sam Altman finanțează cercetări pentru a dezvolta algoritmi care imită judecățile morale umane. Proiectul, condus de Duke University, primește un grant de 1 milion USD.
Advertisment
Ce presupune proiectul „Research AI Morality”
Proiectul este condus de profesorul de etică practică Walter Sinnott-Armstrong și cercetătoarea Jana Borg, de la Duke University. Scopul acestuia este de a dezvolta algoritmi capabili să prezică modul în care oamenii judecă moral situații complexe. Exemplele includ dileme din domenii precum medicina, unde se decid alocările de organe, sau dreptul, unde reglementările juridice pot intra în conflict cu etica.
OpenAI a acordat acest grant de 1 milion USD pentru o perioadă de trei ani, iar proiectul se va încheia în 2025. Deși detaliile despre noua cercetare sunt limitate, aceștia speră să folosească AI pentru a înțelege mai bine judecățile etice umane și a le aplica în scenarii reale.
Recomandări
Care sunt problemele cu această inițiativă de dezvoltare a unei etici AI
Moralitatea este un concept subiectiv, greu de tradus în algoritmi. AI actuale, ca modelul Ask Delphi, au arătat limitări evidente. Un exemplu: rearanjarea întrebărilor făcea Delphi să aprobe acțiuni evident imorale. Modelele de învățare automată sunt limitate de datele lor de antrenament, care reflectă predominant valori occidentale și industrializate. Influențele culturale și etice pot exclude perspectivele altor comunități globale, făcând moralitatea AI o sarcină aproape imposibilă.
Este posibilă codificarea moralității
Filozofii dezbat de mii de ani ce înseamnă „moralitatea corectă”. Diferite sisteme etice, precum kantianismul (bazat pe reguli) și utilitarismul (maximizarea binelui colectiv), oferă perspective contradictorii. Algoritmii ar trebui să integreze aceste paradigme diverse și să țină cont de preferințele culturale globale. OpenAI și partenerii săi au de trecut un prag înalt, iar succesul final rămâne incert.
Moralitatea AI ar putea transforma modul în care luăm decizii etice. Însă, până atunci, rămân numeroase obstacole tehnice, etice și filosofice care trebuie depășite.
Citește și
- TikTok a devenit o platformă majoră în modelarea preferințelor de călătorie. Cum se transformă destinațiile necunoscute în unele de top
- STUDIU. Diferitele tipuri de iubire activează zone specifice din creier. Radu Leca: Dragostea parentală este intensă la orice vârstă
- Panda parenting este stilul de educație care îi oferă copilului încredere și siguranță. Consilier: „Învățarea prin expriențe este foarte valoroasă”