• Pentagonul folosește A.I. pentru identificarea și evaluarea amenințărilor.
  • Dezvoltatorii limitează utilizarea A.I. în aplicații care pot răni oameni.
  • Utilizarea A.I. lansează dezbateri globale despre etică, dar și despre utilizarea armelor autonome.

A.I. va redefini războiul așa cum îl știm astăzi. Dezvoltatorii de inteligență artificială, precum OpenAI și Anthropic, sunt puși astfel într-o situație delicată scrie TechCrunch. Pe de o parte, colaborează cu Pentagonul pentru a eficientiza procesele militare, dar pe de altă parte, aceștia refuză să permită utilizarea A.I. pentru a eficientiza violența și conflictul în mod direct.

Ce rol are AI în strategiile militare

Inteligența artificială oferă Departamentului Apărării un avantaj semnificativ în identificarea, urmărirea și evaluarea amenințărilor. Dr. Radha Plumb, Chief Digital and A.I. Officer la Pentagon, a explicat că A.I. contribuie la accelerarea procesului de „kill chain” – procesul militar de identificare, urmărire și neutralizare a amenințărilor.

„Nu folosim aceste tehnologii pentru arme autonome. În schimb, A.I. ajută la planificarea și aplicarea strategiei necesare pentru a lua decizii informate,” a precizat Plumb.

Recomandări

IOHANNIS DEMISIONEAZĂ
CIOLACU: NU AM ȘTIUT DE DEMISIE
CE SE ALEGE DE ROMÂNIA
HAMAS SUSPENDĂ ELIBERAREA OSTATICILOR
LA MULȚI ANI, MAESTRE!
CE FILME VEZI ÎN FEBRUARIE

În ciuda acestor asigurări, colaborările dintre companii de A.I. și Pentagon, cum ar fi cele dintre Anthropic și Palantir sau OpenAI și Anduril, au declanșat dezbateri etice.

Ce sunt armele autonome

Un subiect controversat este utilizarea armelor autonome – sisteme care ar putea lua decizii letale fără intervenție umană. CEO-ul Anduril, Palmer Luckey, a menționat că armata SUA folosește de zeci de ani sisteme autonome precum turela CIWS. Totuși, Plumb a negat categoric că Pentagonul ar achiziționa sau opera arme complet autonome.

„Ca principiu de etică și fiabilitate, decizia de a folosi forța va include mereu implicarea umană,” a declarat Plumb.

Ce poziție au dezvoltatorii A.I.

Companii precum Anthropic au adoptat politici stricte care interzic utilizarea modelelor A.I. pentru a provoca pierderi de vieți omenești. Dario Amodei, CEO-ul Anthropic, a explicat că echipa sa caută o cale de mijloc responsabilă: „Nu cred că ar trebui să permitem ca A.I. să fie utilizată pentru arme distrugătoare, dar nici să excludem complet A.I. din domeniul apărării și informațiilor.”

OpenAI, Meta și Cohere au adoptat politici similare, dar presiunea pentru relaxarea acestor restricții crește pe măsură ce AI se dovedește utilă în domeniul militar.

Unii cercetători, precum Evan Hubinger de la Anthropic, cred că implicarea în domeniul militar este inevitabilă. „Excluderea guvernului SUA din utilizarea A.I. nu este o strategie viabilă. Este esențial să colaborăm pentru a preveni riscurile catastrofale și utilizările greșite ale modelelor,” a scris Hubinger pe forumul LessWrong.

Totuși, acest lucru a generat reacții diverse. Protestele angajaților Google și Amazon, care au denunțat colaborările cu armata israeliană în 2024, evidențiază provocările etice ale acestor parteneriate.

AI, între colaborare și autonomie

Utilizarea AI de către Pentagon este prezentată ca o colaborare între om și mașină. Dr. Plumb a subliniat că nu există scenarii „science fiction” în care A.I. să ia decizii letale independent. „Nu există roboți care iau decizii singuri. Este o echipă om-mașină, unde liderii umani iau decizii active,” a spus aceasta.

Pe măsură ce tehnologia avansează, întrebările etice despre utilizarea A.I. în domeniul militar vor deveni tot mai evidente. Rămâne de văzut dacă Silicon Valley va reuși să mențină echilibrul între inovație și etică.

Citește și