• Inteligența artificială poate deja să fie mai inteligentă decât oamenii la șah și la poker.
  • Computerele de pe drone și rachetele moderne au algoritmi care pot detecta ținte și trage asupra lor cu mult mai multă precizie decât un operator uman.
  • Iron Dome din Israel este unul dintre cele câteva sisteme de apărare activă care pot ataca ținte fără supraveghere umană.

Inteligența artificială neutră a creat algoritmi sexiști și sisteme de moderare a conținutului inepte, în mare parte pentru că creatorii lor nu au înțeles tehnologia. În război, aceste tipuri de neînțelegeri ar putea ucide civili sau ar putea distruge negocierile.

De exemplu, un algoritm de recunoaștere a țintelor ar putea fi antrenat să identifice tancurile din imaginile din satelit. Dar ce se întâmplă dacă toate imaginile folosite pentru antrenarea sistemului prezintă soldați în formație în jurul tancului? Acesta ar putea confunda un vehicul civil care trece printr-o blocadă militară cu o țintă.

De ce este nevoie de arme autonome?

Civilii din multe țări, cum ar fi Vietnam, Afganistan și Yemen, au avut de suferit din cauza modului în care superputerile globale construiesc și utilizează arme din ce în ce mai avansate. Mulți oameni ar susține că acestea au făcut mai mult rău decât bine, cel mai recent arătând invazia rusă în Ucraina la începutul anului 2022.

Recomandări

PUTIN: VOM DOBORÎ TOATE AVIOANELE F-16 TRIMISE UCRAINEI
SBF PRIMEȘTE 25 DE ANI DE ÎNCHISOARE
ZIUA FEMEILOR DIN MUZICĂ
ȘTII DE VREME? VINE VARA-N TOATĂ ȚARA
MOLDOVA SE PREGĂTEȘTE DE ADERARE
ROTAȚIA PĂMÂNTULUI A ÎNCETINIT

În cealaltă tabără sunt oameni care spun că o țară trebuie să fie capabilă să se apere singură, ceea ce înseamnă să țină pasul cu tehnologia militară a altor națiuni. Inteligența artificială poate deja să fie mai inteligentă decât oamenii la șah și la poker. De asemenea, îi depășește pe oameni și în lumea reală. De exemplu, Microsoft susține că software-ul său de recunoaștere a vorbirii are o rată de eroare de 1%, față de rata de eroare umană de aproximativ 6%. Așadar, nu este deloc surprinzător faptul că armatele predau încet-încet frâiele algoritmilor.

Ce sunt armele autonome letale (LAW)?

Departamentul american al Apărării definește un sistem de armament autonom ca fiind: „Un sistem de arme care, odată activat, poate selecta și ataca țintele fără intervenția ulterioară a unui operator uman”.

Multe sisteme de luptă se încadrează deja în acest criteriu. Computerele de pe drone și rachetele moderne au algoritmi care pot detecta ținte și trage asupra lor cu mult mai multă precizie decât un operator uman. Iron Dome din Israel este unul dintre cele câteva sisteme de apărare activă care pot ataca ținte fără supraveghere umană.

Deși este conceput pentru apărarea împotriva rachetelor, Cupola de Fier ar putea ucide oameni din greșeală. Însă riscul este considerat acceptabil în politica internațională, deoarece, în general, Iron Dome are un istoric fiabil de protejare a vieților civile.

Regulile războiului

Acordurile internaționale, cum ar fi convențiile de la Geneva, stabilesc conduita pentru tratamentul prizonierilor de război și al civililor în timpul conflictului. Acestea reprezintă unul dintre puținele instrumente de care dispunem pentru a controla modul în care se poartă războaiele. Utilizarea armelor chimice de către SUA în Vietnam și de către Rusia în Afganistan demonstrează că aceste măsuri nu sunt întotdeauna eficiente.

Campania internațională pentru interzicerea minelor (ICBL) face lobby pe lângă politicieni încă din 1992 pentru a interzice minele și munițiile cu dispersie (care împrăștie la întâmplare bombe de mici dimensiuni pe o suprafață mare). În 1997, tratatul de la Ottawa a inclus interzicerea acestor arme, pe care 122 de țări l-au semnat. Dar SUA, China și Rusia nu au aderat.

Viitorul nostru

Campania pentru oprirea roboților ucigași enumeră nouă probleme cheie ale LAW-urilor, concentrându-se pe lipsa de responsabilitate și pe dezumanizarea inerentă a uciderii care vine cu aceasta.

Deși această critică este valabilă, o interzicere totală a LAW-urilor este nerealistă din două motive. În primul rând, la fel ca în cazul minelor, cutia Pandorei a fost deja deschisă. De asemenea, linia de demarcație dintre armele autonome, LAW și roboții ucigași este atât de neclară încât este dificil să se facă distincția între ele. Liderii militari ar fi întotdeauna capabili să găsească o portiță de scăpare în formularea unei interdicții și să introducă pe furiș roboți ucigași în serviciu ca arme autonome defensive. Ei ar putea chiar să facă acest lucru fără să știe.

Aproape sigur vom vedea mai multe arme cu inteligență artificială în viitor. Acest lucru nu înseamnă că trebuie să ne uităm în altă parte. Interdicții mai specifice și mai nuanțate ar ajuta la responsabilizarea politicienilor, a oamenilor de știință în domeniul datelor și a inginerilor noștri.