RIVISTA ITALIANA DIFESA
Sistemi d'arma autonomi letali 28/07/2025 | Massimo Annati

Per gran parte delle persone il concetto di sistema d'arma autonomo letale coincide con le immagini di film come Star Wars o Terminator (nella foto, un "simil" Terminator creato dall'AI). Il punto, però, è che la realtà presente e futura è ben diversa, nonostante numerose organizzazioni tendano ad esagerare intenzionalmente le criticità. 

In questi ultimi anni c’è stata una crescente opposizione contro i sistemi d’arma autonomi, talvolta con toni apocalittici. Le denominazioni comprendono LAWS (Lethal Autonomous Weapon Systems), LAR (Lethal Autonomous Robotics), e soprattutto termini sensazionalistici come “Killer Robots” e “Slaughterbots” (cioè robot macellai).

Come di consueto, la mancanza di una definizione precisa e universalmente condivisa rende molto problematico capire di cosa si stia davvero parlando. Molto spesso si descrivono come sistemi d'arma in grado di scegliere autonomamente, senza intervento o supervisione umana, il bersaglio da colpire e di condurre l'attacco.

In particolare, molti allarmismi sono stati suscitati dall’introduzione dell’Intelligenza Artificiale (AI) che consente/consentirebbe al sistema d’arma di identificare e uccidere esseri umani senza l’intervento di un operatore umano. Secondo questa ipotesi, il sistema d’arma autonomo sarebbe programmato per eliminare un soggetto che corrisponda ad uno specifico “profilo bersaglio”. L’AI ricerca il soggetto che corrisponde a questo profilo utilizzando i sensori assegnati e, una volta individuato qualcuno che l’algoritmo percepisce come corrispondente a tale profilo, lo uccide.

Le accuse contro i sistemi d’arma autonomi riguardano 3 principali aspetti. Sono immorali, perché un algoritmo non è in grado di comprendere il valore della vita umana e quindi non dovrebbe essere in grado di decidere se uccidere o meno. A tale proposito, il Segretario Generale delle Nazioni Unite, António Guterres, ha recentemente affermato che “le macchine che possiedono la capacità e la discrezionalità di uccidere senza un coinvolgimento umano sono politicamente inaccettabili, moralmente ripugnanti, e dovrebbero essere proibite dalle leggi internazionali”.

Il secondo punto riguarda la minaccia alla sicurezza: le decisioni degli algoritmi consentono alle armi di seguire la stessa evoluzione del software, diventando sempre più veloci, potenti e poco costose. Questa situazione viene considerata da alcuni altamente destabilizzante a causa del rischio di proliferazione, escalation e imprevedibilità, specie se applicata alle armi di distruzione di massa. A tale proposito, è bene ricordare che dalla Russia è più volte trapelata la notizia secondo cui il Sistema Perimeter sarebbe ormai stato attivato: se fosse vero (ed è difficile a dirsi) si tratterebbe di un sistema di comando e controllo guidato da Intelligenza Artificiale che, qualora individuasse un’esplosione nucleare sul suolo russo e non ricevesse risposta dai centri di comando politico-militare, provvederebbe in automatico a ordinare il lancio di tutti gli ICBM contro gli Stati Uniti, causando in pratica la fine della civiltà umana su questo pianeta.

Infine, esiste il problema della mancanza di responsabilità: delegare ad una macchina la decisione di utilizzare forza letale crea il problema legale di definire con difficoltà chi debba rispondere per tale uso della forza, specialmente alla luce della potenziale imprevidibilità causata dall’impiego dell'AI, con istruzioni scritte dalla stessa macchina e in continua evoluzione.

L'articolo completo è pubblicato su RID 8/25, disponibile online e in edicola.


Condividi su:  
News Forze Armate
COMUNICATI STAMPA AZIENDE