• Forțele aeriene spun că nu a avut loc un astfel de experiment.
  • A fost instruit să nu omoare operatorul, însă drona a distrus turnul de comunicații, astfel încât operatorul nu a mai putut comunica cu acesta.
  • „Nu am efectuat niciodată acel experiment și nici nu ar fi nevoie pentru a ne da seama că acesta este un rezultat plauzibil”, a clarificat ulterior Col Hamilton.

Un colonel al Forțelor Aeriene americane „a vorbit greșit” când a descris un experiment în care o dronă cu AI a optat să-și atace operatorul pentru a-și îndeplini misiunea, declară BBC. Colonelul Tucker Hamilton, șeful testelor și operațiunilor AI din Forțele Aeriene ale SUA, a vorbit la o conferință organizată de Royal Aeronautical Society.

Forțele aeriene spun că nu a avut loc un astfel de experiment. În discursul său, el a descris o simulare în care o dronă cu inteligență artificială a fost oprită în mod repetat de a-și îndeplini sarcina de a distruge site-urile de rachete suprafață-aer de către operatorul său uman.

El a spus că în cele din urmă, deși a fost instruit să nu omoare operatorul, drona a distrus turnul de comunicații, astfel încât operatorul nu a mai putut comunica cu acesta. „Nu am efectuat niciodată acel experiment și nici nu ar fi nevoie pentru a ne da seama că acesta este un rezultat plauzibil”, a clarificat ulterior Col Hamilton într-o declarație către Royal Aeronautical Society. El a adăugat că a fost un „experiment de gândire” mai degrabă decât orice a avut loc de fapt.

Recomandări

CIOLACU: „RO ESTE INSTABILĂ”
INTERSTELLAR ARE SUCCES
BITCOIN INTRĂ ÎN LUX
DAC-AȘ FI PREȘEDINTE...
CE URMĂREȘTE RUSIA?
NOI AUDIERI LA TIKTOK

Avertismente AI

Au existat o serie de avertismente cu privire la amenințarea pentru umanitate pe care o reprezintă AI emise recent de oamenii care lucrează în acest sector, deși nu toți experții sunt de acord cu cât de grav este riscul.

Prof. Yoshua Bengio, unul dintre cei trei informaticieni descriși drept „nașii” AI după ce a câștigat un prestigios premiu Turing pentru munca lor, a spus că el crede că armata nu ar trebui să aibă deloc puteri AI. . El l-a descris drept „unul dintre cele mai proaste locuri în care am putea pune un AI super-inteligent”.

Un scenariu pre-planificat?

Un expert în apărare a declarat că povestea originală a lui Col Hamilton părea să lipsească dintr-un „context important”. Au existat, de asemenea, sugestii pe rețelele de socializare cu privire că, un astfel de experiment dacă ar fi avut loc, era mai probabil să fi fost un scenariu pre-planificat, mai degrabă decât drona activată AI să fie alimentată de învățarea automată în timpul sarcinii – ceea ce înseamnă, practic, că nu ar fi și-a ales propriile rezultate pe măsură ce mergea, pe baza a ceea ce s-a întâmplat anterior.

Steve Wright, profesor de inginerie aerospațială la Universitatea de Vest a Angliei și expert în vehicule aeriene fără pilot, a spus că „în calculatoarele de control a aeronavelor există două lucruri de care să vă faceți griji: „faceți ceea ce trebuie” și „nu faceți lucrul greșit”, așa că acesta este un exemplu clasic al celui de-al doilea”.

Citește și: