• OpenAI a creat o echipă de control pentru modelele superioare de A.I.
  • Experții vor să evite amenințări chimice, bilogice și radiologice.
  • Evoluția necontrolată a AI poate duce la auto-replicare și păcălirea oamenilor.

Inteligența Artificială va fi controlată mult mai atent, chiar de creatorii săi. OpenAI a anunțat că formează o nouă echipă pentru a calcula și preveni „riscurile catastrofale” ale A.I. Lista acestora inclide amenințări nucleare sau chiar posibilitatea ca Inteligența Artificială să-i păcălească pe oameni

OpenAI formează o nouă echipă pentru a atenua „riscurile catastrofale” asociate cu A.I. Într-un comunicat recent, OpenAI spune că echipa de prevenție va „urmări, evalua, prognoza și proteja” cu privire la problemele potențial majore cauzate de A.I, inclusiv amenințările nucleare.

Echipa va lucra, de asemenea, pentru a atenua „amenințările chimice, biologice și radiologice”, precum și „replicarea autonomă” sau actul de replicare a unei A.I. Alte riscuri pe care echipa de pregătire le va aborda includ capacitatea AI de a păcăli oamenii, precum și amenințările la adresa securității cibernetice.

Recomandări

UNDE SCHIEZI AZI?
BYE, BYE GALLIANO!
RIRI PRIMEȘTE AUTOGRAF
GEN Z SE SIMTE NEIUBITĂ
CREȘTE CONSUMUL INDIVIDUAL PER CAPITA
NU AJUNG ACASĂ!

De ce se teme OpenAI de inteligența artificială

OpenAI, creatorul modelului ChatGPT, considera ca vor apărea riscuri majore. „Credem că modelele AI de frontieră, care vor depăși capacitățile prezente în prezent în cele mai avansate modele existente, au potențialul de a beneficia întreaga umanitate”, scrie OpenAI în actualizare.

CEO-ul OpenAI, Sam Altman, a avertizat înainte despre potențialul de evenimente catastrofale cauzate de AI. În mai, Altman și alți cercetători proeminenti în domeniul inteligenței artificiale au emis o declarație conform căreia „atenuarea riscului dispariției umane din cauza inteligenței artificiale ar trebui să fie o prioritate globală”.

În timpul unui interviu la Londra, Altman a sugerat, de asemenea, că guvernele ar trebui să trateze inteligența artificială „la fel de serios” ca și armele nucleare.

Citește și: