L’etica può fermare gli algoritmi della guerra?

Il mondo si sta rompendo
4 Marzo 2026
Il quadro che parlava
14 Marzo 2026
Terza pagina · 11 Marzo 2026 · ⏱ 4 min · ~824 parole

C’è un momento, nella storia, in cui una tecnologia smette di essere soltanto una tecnologia e diventa uno specchio. Non ci dice più solo cosa possiamo fare. Ci dice chi siamo.

L’intelligenza artificiale è arrivata a quel punto.

La notizia che ha riaperto la discussione è concreta. Una società americana, Anthropic, tra i protagonisti della nuova generazione di modelli di AI, ha imposto limiti severi all’uso dei propri sistemi in ambito militare: niente armi completamente autonome, niente sorveglianza di massa, niente utilizzi che possano trasformare l’algoritmo in una macchina di decisione letale.

Il Pentagono non l’ha presa bene.

Per l’esercito americano il principio è semplice: se una tecnologia è legale e utile alla sicurezza nazionale, lo Stato deve poterla usare. Senza che un’azienda privata decida dove passa il confine.

Ed ecco il cortocircuito del nostro tempo.

Da una parte lo Stato che rivendica il monopolio della forza.
Dall’altra un’impresa tecnologica che rivendica il diritto di porre un limite morale alla propria invenzione.

La domanda allora diventa inevitabile.

Chi decide l’etica della guerra quando la guerra diventa un algoritmo?

Per capire quanto la questione sia nuova, basta guardare indietro. Nel Novecento il problema morale della guerra riguardava soprattutto le armi: quanto sono distruttive, quali bersagli colpiscono, quali trattati ne limitano l’uso.

Con l’intelligenza artificiale cambia tutto.

Non stiamo più discutendo solo di strumenti. Stiamo discutendo di decisioni.

Un algoritmo non spara. Ma può indicare dove sparare.
Può analizzare quantità immense di dati.
Può individuare schemi invisibili all’occhio umano.
Può suggerire bersagli.

E può farlo in pochi secondi.

Molto più velocemente di quanto un essere umano possa verificare davvero ciò che sta accadendo.

Qui nasce il problema.

Quando una decisione passa attraverso una macchina, la responsabilità non scompare. Ma si diluisce. Il comandante si affida al sistema. Il sistema si basa sui dati. I dati vengono elaborati da modelli costruiti da ingegneri che spesso non hanno mai visto un campo di battaglia.

Chi risponde dell’errore?

Chi porta il peso morale di un bersaglio sbagliato?

Alcuni studiosi parlano di zona di assorbimento morale: il punto in cui la responsabilità si piega come la lamiera di un’auto dopo un incidente, disperdendosi tra uomo e algoritmo.

La posizione di Anthropic nasce proprio da qui. I modelli di intelligenza artificiale, sostengono i suoi sviluppatori, non sono ancora abbastanza affidabili per essere integrati in sistemi d’arma completamente autonomi. E l’uso per la sorveglianza di massa rischia di violare diritti fondamentali.

È una linea etica. Ma è anche una linea politica.

Per la prima volta nella storia una tecnologia decisiva per la guerra non nasce nei laboratori dello Stato ma in quelli di imprese private globali.

È un cambiamento enorme.

Per secoli il potere militare è stato controllato dai governi. Le industrie producevano le armi, ma la decisione restava pubblica.

Oggi gli algoritmi più avanzati nascono nella Silicon Valley.

Questo significa che la tecnologia più potente del nostro tempo non è interamente nelle mani degli Stati.

Ed è qui che nasce la tensione.

Il Pentagono teme che limiti etici imposti dalle aziende possano rallentare lo sviluppo militare americano mentre altri paesi — Cina in testa — stanno accelerando nell’AI applicata alla guerra.

È un ragionamento realistico. E inquietante.

Perché quando entra in gioco la sicurezza nazionale, l’etica tende a diventare un lusso.

È sempre stato così.

Anche la bomba atomica fu costruita con l’idea che fosse necessario arrivare primi. Anche allora si diceva che rinunciare avrebbe significato perdere la guerra.

Eppure proprio da quell’esperienza nacquero le prime grandi riflessioni morali degli scienziati sul proprio lavoro. Dopo Hiroshima, Robert Oppenheimer disse una frase che ancora oggi brucia: “I fisici hanno conosciuto il peccato.”

La domanda oggi è se gli ingegneri dell’intelligenza artificiale sentiranno lo stesso peso.

O se l’algoritmo renderà tutto più distante.

Perché questa è forse la vera novità dell’AI nella guerra: la distanza morale.

Quando una decisione letale passa attraverso una macchina, il gesto umano diventa meno visibile. Non c’è più il pilota che sgancia la bomba guardando il bersaglio. Non c’è il soldato che preme il grilletto.

C’è una catena di calcoli.

E quando la violenza diventa calcolo, la coscienza rischia di arretrare.

Il caso Anthropic è solo l’inizio.

Nei prossimi anni vedremo moltiplicarsi i conflitti tra governi e aziende tecnologiche su come usare l’intelligenza artificiale. Alcune società imporranno limiti. Altre li rifiuteranno. Alcuni paesi accetteranno regole. Altri le ignoreranno.

Il risultato potrebbe essere una nuova corsa agli armamenti.

Questa volta guidata dagli algoritmi.

Una corsa silenziosa, fatta di codice.

Ed è qui che la domanda torna, inevitabile.

Se lasciamo che siano le macchine ad accelerare le decisioni della guerra, dobbiamo trovare un modo per rallentare la coscienza.

Altrimenti il rischio non è soltanto quello di combattere guerre più veloci.

È quello di combatterle senza accorgerci davvero di ciò che stiamo facendo.

Armando.