Regolamentare l’AI nella Difesa: il Dovere delle Democrazie Liberali

Regolamentare l’AI nella Difesa: il Dovere delle Democrazie Liberali

Clausewitz osservava che più che un’arte o una scienza, la guerra è un’attività sociale. Come gran parte delle altre attività sociali, anche le guerre sfruttano i progressi tecnologici e scientifici delle società che le combattono e ne rispecchiano valori e disvalori. La ricerca sul nucleare e le bombe su Hiroshima e Nagasaki, e la distruzione indiscriminata e di massa che ne seguì, sono un buon esempio di questa relazione. Allo stesso tempo, la condotta in guerra di uno Stato è indicativa dei valori di una società e delle serietà con cui li rispetta e protegge. Non è un caso che le democrazie liberali occidentali siano nate e fiorite di pari passo con il diritto umanitario internazionale. Una democrazia che combatte con metodi terroristici fuori dai suoi confini non può dirsi tale; né i suoi cittadini possono essere sicuri che l’autorità che usa indiscriminatamente potere e forza fuori dai suoi confini, non finisca per fare lo stesso con i suoi cittadini.

Oggi, questa relazione di mutua influenza tra guerra (ma meglio dire difesa) e società trova un canale privilegiato nelle tecnologie digitali — computer, satelliti, data centre, fino all’intelligenza artificiale (AI) e ai sensori quantistici — che sono key capabilities, elementi cruciali, per le forze di difesa nazionali. La digitalizzazione della difesa non è nata ieri, se ne possono seguire le tappe nella Guerra del Golfo (1991),  gli attacchi cibernetici sull’Estonia (2007), legittimazione di cyber-rappresaglie dalla NATO (2014 e 2016), ma la vera svolta è molto recente e si è avuta con la guerra in Ucraina, che ha accelerato l’integrazione dell’AI in tutti i processi della difesa — logistica, intelligence, cybersecurity e operazioni cinetiche, fino all’identificazione dei target e alle armi autonome.

Questa trasformazione non è reversibile. Credo che una regressione non sia neanche desiderabile. Le società digitali producono vaste quantità di dati. Nel 2025, le stime indicano che produrremo circa 200 Zetabyte (una fila di 42 triliardi di DVD, per quelli di noi che ancora li ricordano). Tra questi dati si trovano informazioni cruciali, che possono aiutarci a capire meglio la realtà che ci circonda e per esempio ad intervenire più efficientemente per identificare rischi per la sicurezza nazionale, strategie e tattiche militari più efficaci, che riducano — almeno in teoria — i danni collaterali. Il punto è chi guida questa trasformazione. Il punto è guidare la trasformazione e non lasciarsi trascinare.

Il potenziale dell’AI nella difesa è legato a rischi etici e giuridici particolarmente severi. Ai rischi dovuti al bias, opacità dei sistemi AI, al loro impatto sull’autonomia umana, si sommano rischi concreti di violare i principi della teoria della guerra giusta — distinzione, proporzionalità, necessità – e con essi il diritto umanitario internazionale.

Questi rischi non nascono da scenari fantascientifici, ma dalla natura stessa dell’AI. Non stiamo parlado di sistemi AI che diventeranno intelligenti e sopraffarranno il genere umano, lasciamo queste idee alla fantascienza. I rischi etici e lagali sono dovuti alle caratteristiche tecniche di questa tecnologia. I sistemi AI sono macchine in grado d’interagire con l’ambiente che li circonda in modo autonomo e imparare da queste interazioni per migliorare le loro azioni.  La combinazione di autonomia e apprendimento fa sì che l’output di un sistema AI non sia prevedibile con assoluta certezza. È predictability problem. Il sistema può sviluppare comportamenti mai intesi (emergenti) da chi l’ha sviluppato o usato, e che possono essere problematici, immorali, socialmente inaccettabili e illegali. Peggio: questi comportamenti spezzano il nesso tra intenzione, azione e conseguenza, rendendo impossibile l’attribuzione di responsabilità morale agli individui coinvolti. 

Il rischio in questo case è quello di combattere guerre in cui gli esseri umani non possono essere ritenuti moralmente e personalmente responsabili delle azioni di guerra. Sarebbe gravissimo, i giudici del Processo di Norimberga ci ricordano che 

“I crimini contro il diritto internazionale sono commessi da uomini, non da entità astratte; solo punendo gli individui che li compiono è possibile garantire l’effettiva applicazione del diritto internazionale” (International Military Tribunal (Nuremberg), 1947, p. 221).

Questi rischi si possono mitigare — ma servono standard di predicibilità, soglie di errore, supervisione umana effettiva e meccanismi di responsabilità chiari. Invece, l’adozione dell’AI nella difesa avviene in un sostanziale vuoto normativo. È emblematica, in questo senso, l’esclusione delle applicazioni di difesa dal perimetro dell’AI Act europeo. Proprio nel settore che più fa uso del potere distruttivo dell’AI e in cui lo Stato può usare la forza, si ignorano i rischi e la necessità di limitarli attraverso la regolamentazione. 

Senza regole stringenti, l’AI nella difesa non renderà la guerra più umana; metterà a rischio i principi che permettono di distinguere un’operazione legittima da una barbarie, favorendo la forza sul diritto; lo stesso diritto che ha accompagnato le democrazie liberali per ottant’anni. 

I tentativi di regolamentazione fatti finora sono falliti, si veda per esempio. Questi fallimenti dimostrano la necessità di uno sforzo serio e coordinato. I valori che le fondano, impongono alle democrazie liberali di guidare e coordinare questo sforzo, definire trade-off, modalità e limiti per l’uso dell’AI nella difesa. Se dovessimo tirarci indietro, allora l’AI nella difesa sarà lo strumento con cui le democrazie liberali sconfiggeranno se stesse.

Maria Rosaria Taddeo, Professoressa di Digital Ethics and Defence Technologies presso l’Oxford Internet Institute, University of Oxford

Leave a Reply

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *