• Liderii OpenAI cer reglementarea inteligentei artificiale „superinteligente” pentru a proteja umanitatea de riscul de a crea accidental ceva periculos.
  • Ei solicită un organism internațional de reglementare care să inspecționeze și să testeze sistemele A.I. conform standardelor de siguranță.
  • Pe termen scurt, liderii cer o coordonare între companiile de cercetare A.I., pentru a integra modele puternice în societate și a acorda prioritate siguranței.

Liderii dezvoltatorului ChatGPT OpenAI au cerut reglementarea inteligenței artificiale, argumentând că este nevoie de un echivalent cu Agenția Internațională pentru Energie Atomică pentru a proteja umanitatea de riscul de a crea accidental ceva cu puterea de a o distruge, relatează The Guardian.

Co-fondatorii Greg Brockman și Ilya Sutskever și directorul executiv, Sam Altman susțin că o reglementare a A.I.. ar trebui să includă inspecții, audituri și teste de conformitate cu standardele de siguranță, precum și impunerea de restricții asupra implementării și nivelurilor de securitate. Scopul este de a reduce riscurile existențiale asociate cu dezvoltarea și utilizarea sistemelor A.I. superinteligente.

„Este de imaginat că în următorii 10 ani, sistemele A.I. să depășească nivelul de calificare al experților în majoritatea domeniilor și să desfășoare la fel de multă activitate productivă ca una dintre cele mai mari corporații de astăzi”, spun ei.

Recomandări

MACRON CERE ARMĂ NUCLEARĂ PENTRU UE
CE FACEM CU POLUAREA?
CHINA AVERTIZEAZĂ SUA
BANII PENTRU UCRAINA RĂMÂN ÎN SUA
NO MORE EMMA?
SORANA MERGE ÎN TURUL 3 LA MADRID OPEN

Echipa OpenAI avertizează că în următorii 10 ani, sistemele AI ar putea depăși nivelul de expertiză umană și să devină extrem de productive într-o varietate de domenii. Ei subliniază că superinteligența poate fi atât o tehnologie cu potențiale avantaje remarcabile, cât și o amenințare semnificativă, comparabilă cu alte tehnologii cu impact major asupra umanității. Prin urmare, consideră necesară o abordare proactivă în gestionarea riscurilor.

„În ceea ce privește atât potențialele avantaje, cât și dezavantaje, superinteligența va fi mai puternică decât alte tehnologii cu care umanitatea a trebuit să se confrunte în trecut. Putem avea un viitor dramatic mai prosper, dar trebuie să gestionăm riscul pentru a ajunge acolo. Având în vedere posibilitatea riscului existențial, nu putem fi doar reactivi”.

În termen scurt, liderii OpenAI solicită coordonarea între companiile din domeniul cercetării A.I., pentru a se asigura că dezvoltarea sistemelor puternice este integrată în societate într-un mod sigur. Ei propun posibilitatea unei coordonări prin intermediul unui proiect condus de guvern sau prin acorduri colective care să limiteze expansiunea capacităților inteligenței artificiale.

Citește și: