- OpenAI minimalizează riscul ChatGPT în bioterorism.
- Studiu: GPT-4 oferă o creștere ușoară a riscului.
- Experții: AI poate ajuta la planificarea atacurilor biologice.
Un raport recent OpenAI ne asigură că deocamdată tehnologia ChatGPT nu ajută prea mult la crearea armelor biologice. Dar, pe măsură ce AI evoluează, viitorul aduce noi provocări.
Advertisment
OpenAI a constatat că GPT-4 ar putea oferi cel mult o creștere ușoară a capacității de a crea arme biologice. Avertizează, însă, că modelele viitoare ar putea prezenta riscuri mai mari pentru cei rău intenționați. Studiul a implicat 100 de participanți, dintre care jumătate au avut acces la GPT-4, iar cealaltă jumătate la internet.
Participanții au fost evaluați în capacitatea lor de a răspunde la întrebări legate de sinteza virusului Ebola. Rezultatele au indicat o creștere minoră în precizie și detalii pentru grupul cu acces la GPT-4, dar fără semnificație statistică majoră care să indice o creștere reală a riscului.
Recomandări
Experții au exprimat îngrijorări în legătură cu faptul că inteligența artificială avansată, precum modelele de limbaj de mari dimensiuni (LLM), ar putea fi utilizate pentru a facilita atacurile teroriste biologice. Acest lucru ar fi posibil prin oferirea de asistență în crearea armelor biologice sau planificarea atacurilor. Un raport al Rand Corporation a subliniat că, deși LLM-urile nu pot furniza instrucțiuni specifice pentru crearea armelor biologice, pot contribui la planificarea atacurilor. Alți lideri din industrie, precum CEO-ul Anthropic, Dario Amodei, și Mark Zuckerberg de la Meta, au fost interpelați în legătură cu potențialul modelelor lor AI de a oferi instrucțiuni pentru arme biologice avansate.
Citește și:
- SUA aprobă planul de a lovi ținte iraniene în Siria și Irak, potrivit unor oficiali
- E-waste, o piață lipsită de concurență. Cât câștigă start-up-urile din acest domeniu?
- VIDEO. Luna iubirii vine cu noi lansări. Ce filme și seriale vezi în februarie
Partenerii noștri