• OpenAI minimalizează riscul ChatGPT în bioterorism.
  • Studiu: GPT-4 oferă o creștere ușoară a riscului.
  • Experții: AI poate ajuta la planificarea atacurilor biologice.

Un raport recent OpenAI ne asigură că deocamdată tehnologia ChatGPT nu ajută prea mult la crearea armelor biologice. Dar, pe măsură ce AI evoluează, viitorul aduce noi provocări.

OpenAI a constatat că GPT-4 ar putea oferi cel mult o creștere ușoară a capacității de a crea arme biologice. Avertizează, însă, că modelele viitoare ar putea prezenta riscuri mai mari pentru cei rău intenționați. Studiul a implicat 100 de participanți, dintre care jumătate au avut acces la GPT-4, iar cealaltă jumătate la internet.

Participanții au fost evaluați în capacitatea lor de a răspunde la întrebări legate de sinteza virusului Ebola. Rezultatele au indicat o creștere minoră în precizie și detalii pentru grupul cu acces la GPT-4, dar fără semnificație statistică majoră care să indice o creștere reală a riscului.

Recomandări

VREM O ȘCOALĂ CA AFARĂ
URSULA CERE CONCURENȚĂ ECHITABILĂ CHINEI
BELLA IA PAUZĂ DE LA MODELING
CUM STĂM LA SPERANȚA LA VIAȚĂ
CÂND ÎNCEP COPIII SĂ FOLOSEASCĂ A.I.
JAPONIA PREZINTĂ TEHNOLOGIA 6G

Experții au exprimat îngrijorări în legătură cu faptul că inteligența artificială avansată, precum modelele de limbaj de mari dimensiuni (LLM), ar putea fi utilizate pentru a facilita atacurile teroriste biologice. Acest lucru ar fi posibil prin oferirea de asistență în crearea armelor biologice sau planificarea atacurilor. Un raport al Rand Corporation a subliniat că, deși LLM-urile nu pot furniza instrucțiuni specifice pentru crearea armelor biologice, pot contribui la planificarea atacurilor. Alți lideri din industrie, precum CEO-ul Anthropic, Dario Amodei, și Mark Zuckerberg de la Meta, au fost interpelați în legătură cu potențialul modelelor lor AI de a oferi instrucțiuni pentru arme biologice avansate.

Citește și: