- Documentul identifică două tipuri de sisteme A.I. pe care compania le consideră prea riscante.
- Atât sistemele cu „risc ridicat”, cât și cele cu „risc critic” sunt capabile să contribuie la securitatea cibernetică.
- În cazul în care riscurile sunt considerate „critice”, cadrul sugerează oprirea dezvoltării modelului.
Mark Zuckerberg, CEO al Meta, a promis că într-o zi Inteligența generală Artificială (AGI) – definită în linii mari ca Inteligența Artificială care poate îndeplini orice sarcină pe care o poate îndeplini un om – va fi disponibilă în mod deschis. Cu toate acestea, într-un nou document de politică, Meta sugerează că există anumite scenarii în care este posibil să nu facă public un sistem de Inteligență Artificială foarte performant pe care l-a dezvoltat intern, scrie TechCrunch.
Advertisment
Documentul, pe care Meta îl numește Frontier AI Framework, identifică două tipuri de sisteme A.I. pe care compania le consideră prea riscante pentru a fi publicate: sisteme cu „risc ridicat” și sisteme cu „risc critic”.
După cum le definește Meta, atât sistemele cu „risc ridicat”, cât și cele cu „risc critic” sunt capabile să contribuie la securitatea cibernetică și la atacurile chimice și biologice, cu diferența că sistemele cu „risc critic” ar putea avea un „rezultat catastrofal care nu poate fi atenuat în contextul de implementare propus”. Sistemele cu risc ridicat, în schimb, ar putea face un atac mai ușor de efectuat, dar nu la fel de fiabil sau de sigur ca un sistem cu risc critic.
Recomandări
Raportul conține evaluări ale riscurilor de la diverși experți din mai multe discipline, inclusiv inginerie, gestionarea produselor, conformitate și confidențialitate, juridic și politici și alți lideri ai companiei.
În cazul în care riscurile sunt considerate „critice”, cadrul sugerează oprirea dezvoltării modelului și restricționarea accesului la un număr mic de experți cu protecții de securitate. În cazul în care riscurile sunt considerate „ridicate”, modelul nu ar trebui să fie publicat, dar poate fi accesat de o echipă de cercetare de bază cu protecții de securitate. În cele din urmă, dacă riscurile sunt „moderate”, modelul poate fi lansat în conformitate cu cadrul.
Citește și
- Plănuiește Trump să cumpere TikTok? Președintele a semnat un ordin executiv pentru a crea un fond suveran de investiții în Statele Unite
- Scholz și Macron au anunţat că vor exista „contramăsuri europene” dacă SUA vor impune tarife pentru UE
- Cercetătorii au descoperit niveluri alarmante de microplastice în creierul uman în ultimii ani. Ce boli pot provoca acestea
Partenerii noștri