LA COMBINAZIONE TRA DETERRENZA E INTELLIGENZA ARTIFICIALE: UN MIX ESPLOSIVO INCONTROLLABILE DA DISINNESCARE SUBITO
Una terza guerra mondiale non è razionalmente concepibile nell'"era atomica" anche se l'abisso si sta aprendo sotto i conflitti di piccola/media dimensione che disgraziatamente pullulano e si aggravano. Dovrebbe essere chiaro che la guerra generale unificante gli attuali "pezzetti" la perderemmo tutti, giocatori attivi e spettatori passivi, a partire da chi la innescasse. Hiroshima e Nagasaki da questo punto di vista più che da morale della seconda guerra conclusa dovrebbero farci da monito per la terza guerra che non deve iniziare.
La potenziale guerra atomica, rispetto ai tempi della Guerra Fredda e dell'incidente che risolse Petrov nel settembre 1983, registra delle novità, la principale delle quali è la combinazione della Bomba con l'intelligenza artificiale (AI). Qui siamo forse di fronte a un vero cambio di paradigma in direzione della meccanizzazione contro la Vita.
Trump, il 23 luglio 2025, ha varato un manifesto: "Vincere la gara. Piano di azione americano per l'intelligenza artificiale". L'esordio è secco e illuminante: "Gli Stati Uniti sono in gara per conseguire il dominio globale nell'intelligenza artificiale". Il documento, molto sensibile alle esigenze belliche, contiene ben 19 raccomandazioni specifiche al Pentagono.
Carlo Caracciolo, su Limes del luglio 2025, nell'editoriale intitolato: "Fiat mundus, pereat iustitia", fa interessanti osservazioni in proposito, che ci permettiamo di riportare a spizzichi e bocconi.
"L'algoritmo non dubita. Né si vergogna. (...) L'umana autocelebrazione degli umani ne ha modellato una idea troppo alta. La pretesa di definire intelligente l'intelligenza artificiale non depone a favore della nostra intelligenza. Eppoi, bomba atomica e AI le abbiamo inventate noi. (...) La psicosi atomica altera il senso del reale. Ce lo ricordava sessant'anni fa Franco Fornari nella sua attualissima Psicologia della guerra. (...) Fornari scopre la guerra dell'inconscio. Ce l'abbiamo dentro. Perciò è endemica. Non deriva tanto dall'istinto predatorio quanto dalla presenza già nel neonato di un fantasma cattivo, il "Terrificante interno", psiconemico intimo che la paranoia esteriorizza in nemico reale, da distruggere perché nel sogno è colpevole di aver ucciso l'oggetto del suo amore, mamma e papà. Tesi confermata da alcune singolarità simboliche. (...) La guerra pazzia d'amore prima che di odio. Istituzione sociale ritualizzata, destinata a placare le angosce depressive attive in ognuno di noi. (...) Paradosso. Una volta esportata questa interpretazione nel tempo della sintesi tra Bomba e AI, che Fornari tradurrebbe in gestione meccanica della paranoia, non possiamo più curare la psicosi con il rito della guerra come sfogo tra una tregua e l'altra. Salteremmo tutti per aria. Argomento per la "pace sporca" (quella fondata sui compromessi e non sulla giustizia - ndr). Necessitata dall'ingovernabilità della guerra nella supposta perfezione della pace giusta, che si svela trionfo della morte. Negazione del dovere umano di continuare a nascere".
Concordiamo con il direttore di Limes: l'urgere di oggi, a 80 anni da Hiroshima e Nagasaki, più che mai è "prevenire la terza guerra mondiale via sminamento progressivo e permanente dei suoi pezzi". Tra questi pezzi bisogna includere la corsa al riarmo in generale e al riarmo nucleare in particolare. E di questo riarmo componente oggi essenziale è la tendenza a sviluppare le "tecnologie della potenza", tra le quali l'AI senza limiti e controlli. Dobbiamo sviluppare argomentazioni efficaci per supportare la spinta di decisori intelligenti e di movimenti capaci di orientarli: i conflitti devono essere affrontati e risolti mobilitando i popoli e con i metodi costruttivi della nonviolenza.
_________________________
REPORT REDATTO DAI DISARMISTI ESIGENTI CON L'AIUTO DI GEMINI (4 agosto 2025)
La combinazione deterrenza-Intelligenza artificiale: una minaccia esplosiva che va subito disinnescata
I. Introduzione: l'"Era atomica" e il Nuovo Paradigma AI
L'ombra di una potenziale terza guerra mondiale incombe sull'era atomica, un'era in cui un conflitto generalizzato è razionalmente inconcepibile. Le tragiche lezioni di Hiroshima e Nagasaki si ergono non solo come monito sulla conclusione della Seconda Guerra Mondiale, ma come imperativo categorico affinché una terza guerra non abbia mai inizio. La consapevolezza che un tale conflitto porterebbe alla sconfitta universale, coinvolgendo attori e spettatori, a partire da chiunque lo inneschi, sottolinea la gravità della posta in gioco. In questo contesto di crescente tensione globale, la combinazione della potenza nucleare con l'intelligenza artificiale (AI) emerge come un "vero cambio di paradigma in direzione della meccanizzazione contro la Vita".
Questa fusione rappresenta un punto di svolta rispetto ai tempi della Guerra Fredda e degli incidenti critici, come quello risolto dal tenente colonnello Stanislav Petrov nel settembre 1983. L'avanzamento dell'AI nel dominio militare non è una semplice evoluzione tecnologica, ma una trasformazione fondamentale della natura stessa della guerra e, di conseguenza, della sopravvivenza umana. Il presente rapporto si propone di analizzare in profondità la minaccia intrinseca a questa combinazione esplosiva tra deterrenza e intelligenza artificiale. L'obiettivo è delineare una strategia articolata per disinnescare tale minaccia, tenendo conto delle considerazioni proposte e promuovendo un approccio che privilegi la prevenzione e la nonviolenza.
II. La deterrenza nucleare nell'era dell'AI: un mix esplosivo
Questa sezione approfondisce l'evoluzione storica della deterrenza nucleare, mettendo in contrasto i suoi principi tradizionali, incentrati sull'elemento umano, con il ruolo emergente dell'AI nelle operazioni militari. Successivamente, analizza l'intersezione pericolosa tra questi due ambiti, evidenziando come le caratteristiche dell'AI possano esacerbare i rischi esistenti e introdurre variabili nuove e incontrollabili, anche attraverso la lente delle intuizioni psicologiche.
2.1 Evoluzione della "Deterrenza"
La teoria della deterrenza, sebbene antecedente alla Guerra Fredda, ha trovato la sua articolazione più chiara e la sua massima internazionalizzazione durante quel periodo. Nata con l'obiettivo di prevenire l'aggressione, ha tratto insegnamenti da fallimenti come la politica di appeasement di Monaco, considerata sinonimo di ingenuità e debolezza. Già nel novembre 1945, il generale Curtis LeMay rifletteva sulla prossima guerra, sostenendo che, poiché "nessun attacco aereo, una volta lanciato, può essere completamente fermato", gli Stati Uniti necessitavano di una forza aerea capace di rappresaglia immediata per prevenire un attacco. La corsa agli armamenti nucleari tra Stati Uniti e URSS, con l'evoluzione di testate e sistemi di lancio, fu un esempio lampante di questa ricerca di deterrenza, a cui contribuirono anche le armi chimiche. Per una deterrenza nucleare efficace, Kenneth Waltz individuava tre requisiti fondamentali: una parte dell'arsenale nucleare deve essere in grado di sopravvivere a un primo attacco per una seconda rappresaglia, lo stato non deve rispondere a falsi allarmi, e deve mantenere il controllo e il comando.
Nonostante la sua centralità nella strategia di sicurezza del XX secolo, la teoria della deterrenza nucleare è stata ampiamente criticata come un tentativo profondamente imperfetto di giustificare l'esistenza delle armi più distruttive al mondo, basandosi sulla "minaccia del terrore" e avendo condotto l'umanità sull'orlo della catastrofe. La Corte Internazionale di Giustizia (CIG) nel 1996 ha stabilito che l'uso effettivo delle armi nucleari è "generalmente illegale". Il giudice Christopher Weeramantry ha sottolineato che la deterrenza non è un bluff, ma richiede una "reale intenzione di usarle," il che viola ogni principio noto del diritto umanitario. L'impatto di un "inverno nucleare," causato da enormi quantità di particolato che bloccherebbero la luce solare, rappresenta un'ulteriore conseguenza catastrofica. Esistono forti argomentazioni morali ed etiche contro la deterrenza nucleare, con appelli per un disarmo progressivo e il divieto di tutte le armi nucleari.
Il ruolo della decisione umana in momenti critici della deterrenza nucleare è stato storicamente determinante. Due episodi in particolare illustrano come la capacità umana di dubitare e di esercitare il giudizio abbia agito da freno contro l'escalation incontrollata.
Tabella 1: Incidenti Critici e il Ruolo della Decisione Umana nella Deterrenza Nucleare
| Incidente | Contesto | Decisione/Intervento Umano | Esito |
| Incidente di Stanislav Petrov (Settembre 1983) | Il sistema di allerta precoce sovietico (Oko) segnalò erroneamente il lancio di missili balistici intercontinentali statunitensi a causa di un raro allineamento della luce solare su nubi ad alta quota. | Il tenente colonnello Stanislav Petrov, l'ufficiale di turno, sospettò un errore del computer. Ragionò che un primo attacco avrebbe coinvolto centinaia di missili, non solo cinque, e sapeva che il sistema era nuovo e inaffidabile. Decise di attendere prove a conferma, che non arrivarono mai, prevenendo un attacco di rappresaglia. | Prevenuta una probabile guerra nucleare su vasta scala. |
| Crisi dei Missili di Cuba (Ottobre 1962) | Scoperta di missili nucleari sovietici a medio raggio a Cuba, che portò a un'intensa situazione di stallo tra Stati Uniti e URSS. | Il Presidente John F. Kennedy e il suo ExComm deliberarono per giorni, valutando vari fattori e opzioni, incluso un attacco militare. Nonostante le pressioni e una certa "isteria" tra i consiglieri, Kennedy optò per una quarantena navale e negoziati diplomatici, evitando un'azione militare immediata. La sua decisione fu influenzata dalla valutazione dell'efficacia potenziale della deterrenza e delle conseguenze catastrofiche di un primo attacco. | La crisi fu risolta pacificamente, evitando una guerra nucleare. |
Gli eventi di Stanislav Petrov e la Crisi dei Missili di Cuba dimostrano che la fallibilità e la capacità di dubbio intrinseche alla decisione umana, paradossalmente, sono state salvaguardie cruciali contro la guerra nucleare. A differenza di un algoritmo che "non dubita" (come evidenziato da Lucio Caracciolo su Limes del luglio 2025), gli operatori umani hanno mostrato la capacità di fermarsi, di interrogarsi e, in ultima analisi, di annullare errori di sistema o impulsi aggressivi. L'integrazione dell'AI, progettata per la velocità e la certezza, rischia di eliminare questo vitale "interruttore di sicurezza" umano. Ciò suggerisce una relazione diretta: il perseguimento della velocità e del "dominio decisionale" (decision dominance) guidato dall'AI si scontra con le lezioni storiche secondo cui la deliberazione umana e la capacità di non agire immediatamente sono state le chiavi per prevenire la catastrofe. Il rischio non è solo che l'AI commetta un errore, ma che l'AI elimini la capacità umana di prevenire o correggere un errore.
2.2 L'Intelligenza Artificiale nel Dominio Militare
L'intelligenza artificiale sta rapidamente trasformando il dominio militare, con profonde implicazioni per la pace e la sicurezza internazionale. Le sue applicazioni si estendono ben oltre i sistemi d'arma, permeando diverse funzioni militari.
I Sistemi d'Arma Letali Autonomi (LAWS), noti anche come "Slaughterbots" o "robot killer," sono armi che utilizzano l'AI per identificare, selezionare ed eliminare bersagli umani senza intervento umano. Sebbene i sistemi completamente autonomi non siano ancora ampiamente utilizzati in combattimento, sono stati segnalati casi di munizioni potenziate dall'AI che si guidano autonomamente verso i bersagli. La definizione di LAWS spesso si concentra sulla capacità di selezionare e ingaggiare bersagli senza intervento umano.
Nel Comando e Controllo (C2), l'AI svolge un ruolo sempre più significativo, dall'acquisizione e analisi dei dati alla presentazione delle informazioni e all'assistenza decisionale. L'esercito statunitense sta spingendo per soluzioni AI volte al "dominio decisionale" sul campo di battaglia, con l'obiettivo di analizzare enormi quantità di dati più rapidamente. Sebbene la sostituzione completa dei decisori umani sia ancora "lontana," gli strumenti AI sono già cruciali per ridurre il carico di lavoro e valutare le situazioni.
L'AI è impiegata anche nella raccolta e analisi dell'intelligence, nella logistica, nelle operazioni cibernetiche e nei veicoli militari autonomi. Il Project Maven, ad esempio, utilizza modelli di visione artificiale per scansionare ore di filmati di droni, riducendo il tempo necessario per identificare gli obiettivi da giorni a pochi secondi.
Le strategie nazionali in materia di AI riflettono questa accelerazione. Il "Winning the Race: American AI Action Plan," varato dall'amministrazione Trump il 23 luglio 2025, esordisce con l'obiettivo esplicito di "conseguire il dominio globale nell'intelligenza artificiale". Il documento, molto sensibile alle esigenze belliche, contiene ben 19 raccomandazioni specifiche al Pentagono. Il piano si articola su tre pilastri: accelerare l'innovazione, costruire l'infrastruttura AI americana e guidare la diplomazia e la sicurezza internazionale. Esso enfatizza l'aumento degli investimenti federali in ricerca e sviluppo, la promozione di partenariati pubblico-privato, l'esportazione di AI americana, la semplificazione dei permessi per i data center e la rimozione di "regolamentazioni federali onerose" che ostacolano lo sviluppo dell'AI. Un obiettivo chiave è garantire il dominio statunitense per rimanere la "potenza economica e militare leader".
La strategia esplicita di "vincere la corsa all'AI" per il dominio globale crea intrinsecamente un ambiente di intensa competizione geopolitica e una corsa agli armamenti AI. Questa posizione competitiva è ulteriormente accentuata dall'attenzione all'esportazione della "American AI Technology Stack" agli alleati e alla competizione con la Cina. La corsa stessa è un significativo moltiplicatore di rischio, spingendo gli stati verso sistemi più autonomi e potenzialmente incontrollabili nel tentativo di ottenere un vantaggio. La spinta verso la velocità e l'efficienza nelle applicazioni militari dell'AI all'interno di questo quadro competitivo può comprimere i tempi decisionali, aumentando il rischio di errori di calcolo e di escalation involontaria.
2.3 L'Intersezione pericolosa
L'integrazione crescente dell'AI nei sistemi militari, anche al di fuori dei sistemi d'arma nucleari, ha il potenziale di "comprimere i tempi decisionali," aumentando i "rischi di errori di calcolo durante una crisi". I sistemi AI possono analizzare enormi quantità di dati in pochi secondi, riducendo il ciclo OODA (osserva, orienta, decidi, agisci), il che potrebbe dare ai comandanti più tempo, ma rischia anche di spingere i decisori politici verso tempi di reazione più rapidi. La scarsità di dati reali da conflitti nucleari rende difficile l'addestramento dell'AI, aumentando la probabilità di errori o interpretazioni errate in una crisi.
Lucio Caracciolo, su Limes del luglio 2025, ha osservato che "L'algoritmo non dubita. Né si vergogna." Questa affermazione sottolinea la mancanza di facoltà morali ed emotive umane nell'AI. Franco Fornari, nella sua "Psicologia della guerra," ha rivoluzionato il pensiero psicoanalitico sulla guerra. Fornari sostiene che la guerra è una "elaborazione paranoica del lutto" e una difesa contro le "angosce depressive e persecutorie psicotiche" derivanti dal "Terrificante interno". La guerra, in questa prospettiva, è una "istituzione sociale ritualizzata, destinata a placare le angosce depressive attive in ognuno di noi". L'applicazione di questa tesi alla sintesi AI-nucleare è cruciale, secondo Caracciolo: "Una volta esportata questa interpretazione nel tempo della sintesi tra Bomba e AI, che Fornari tradurrebbe in gestione meccanica della paranoia, non possiamo più curare la psicosi con il rito della guerra come sfogo tra una tregua e l'altra. Salteremmo tutti per aria."
La teoria di Fornari implica che anche l'atto distruttivo della guerra ha, per l'umanità, svolto una perversa funzione psicologica come "sfogo" per conflitti interni e inconsci. Introducendo l'AI in questa dinamica, in particolare negli scenari nucleari ad alto rischio, ci si muove verso una "gestione meccanica della paranoia." Ciò significa che l'AI, che "non dubita né si vergogna," elimina i processi psicologici umani (dubbio, senso di colpa, conflitto interno) che, per quanto imperfetti, hanno agito come un freno all'annientamento totale. Se la guerra non è più un "rituale" per il rilascio psicologico umano, ma un processo puramente meccanico, allora la sua intrinseca "pazzia d'amore" si trasforma in un percorso freddo, efficiente e, in ultima analisi, incontrollabile verso l'autodistruzione.
I sistemi AI sono inoltre "imprevedibili, vulnerabili a forme uniche di manipolazione". I rischi includono hacking, manipolazione comportamentale da parte del nemico, interazioni inattese con l'ambiente, semplici malfunzionamenti o errori software. L'AI può essere utilizzata per scopi malevoli come attacchi informatici, creazione di deepfake e disinformazione. I deepfake, in particolare, possono diffondersi più velocemente di quanto i fact-checker possano reagire. Raccomandazioni opache da sistemi di supporto decisionale basati sull'AI possono indurre un decisore ad agire. La natura di "scatola nera" di molti algoritmi AI rende difficile comprendere come venga presa una decisione, e non può necessariamente essere replicata. Queste vulnerabilità introducono nuove vie per l'escalation accidentale o deliberata, soprattutto se combinate con i tempi decisionali compressi e l'alta posta in gioco delle armi nucleari.
III. Implicazioni etiche, legali e umane
Questa sezione esplora le profonde implicazioni etiche, legali e umane dell'integrazione dell'AI nei sistemi militari e nucleari, concentrandosi sulla questione critica del controllo umano, della responsabilità e dell'impatto sociale più ampio.
3.1 La questione del controllo umano
I Sistemi d'Arma Letali Autonomi (LAWS) sono progettati per selezionare e ingaggiare bersagli in modo indipendente, senza intervento umano. Si distinguono tra sistemi "human-on-the-loop" (autonomi supervisionati) e "human-out-of-the-loop" (completamente autonomi). Esiste un forte appello internazionale per il mantenimento di un "controllo umano significativo" sull'uso della forza (armata). Il Segretario Generale delle Nazioni Unite ha dichiarato che "le macchine che hanno il potere e la discrezione di togliere vite umane senza controllo umano sono politicamente inaccettabili, moralmente ripugnanti e dovrebbero essere vietate dal diritto internazionale". Anche la Cina sottolinea un "approccio incentrato sulle persone" in cui "l'essere umano è il soggetto finale della responsabilità e deve garantire che i sistemi d'arma pertinenti siano sotto controllo umano".
Il bias dell'automazione e la mediazione tecnologica possono "indebolire l'agenzia morale tra gli operatori dei sistemi di puntamento abilitati all'AI, diminuendo la loro capacità di prendere decisioni etiche". Il trasferimento delle decisioni di vita o di morte alle macchine solleva interrogativi fondamentali sulla dignità umana, sulla responsabilità e sulla natura stessa del conflitto.
3.2 Dilemmi etici e legali
I sistemi AI possono ereditare e persino amplificare i bias presenti nei loro dati di addestramento, portando a risultati ingiusti o discriminatori. Questo è un rischio umanitario primario, potendo potenzialmente identificare erroneamente civili come nemici o prendere di mira specifici gruppi di persone. Sono necessarie misure per ridurre il bias dannoso.
Determinare chi è responsabile quando un sistema AI commette un errore o causa un danno è difficile. La natura di "scatola nera" di molti algoritmi AI li rende difficili da comprendere o interpretare, mettendo a dura prova la trasparenza e la responsabilità. Alcuni sostengono che i LAWS "minerebbero ulteriormente la responsabilità dei perpetratori di violenza illegale".
L'opacità dei processi decisionali dell'AI crea un vuoto fondamentale di responsabilità. Quando i sistemi AI sono integrati in operazioni letali, in particolare nel comando e controllo nucleare, l'incapacità di risalire alla responsabilità di errori o azioni illegali a un agente umano mina le fondamenta stesse del diritto internazionale, dei diritti umani e della guerra etica. Ciò porta a una pericolosa normalizzazione della violenza automatizzata, dove la frase "il sistema ha deciso" potrebbe diventare uno scudo de facto per gli attori umani, erodendo l'agenzia morale e rendendo quasi impossibile fornire giustizia o risarcimento alle vittime. Questa è un'implicazione sistemica critica: le caratteristiche tecniche dell'AI minano direttamente i principi legali ed etici stabiliti, portando potenzialmente a un futuro in cui nessuno è veramente responsabile della distruzione di massa.
I sistemi d'arma autonomi che operano senza un controllo umano significativo potrebbero contravvenire ai diritti umani, inclusi i diritti alla vita, alla riunione pacifica e alla privacy. Il diritto internazionale umanitario (DIU), il diritto penale internazionale e il diritto internazionale dei diritti umani forniscono regole fondamentali, ma "le lacune in specificità e applicazione evidenziano la pressante necessità di un trattato internazionale dedicato". L'uso delle armi nucleari è generalmente illegale.
Infine, le risorse computazionali richieste per addestrare ed eseguire modelli AI hanno un impatto ambientale significativo, incluso il consumo energetico.
3.3 La Guerra come "pazzia d'amore": reinterpretare Fornari nell'era dell'AI
La tesi centrale di Franco Fornari, secondo cui "La guerra pazzia d'amore prima che di odio. Istituzione sociale ritualizzata, destinata a placare le angosce depressive attive in ognuno di noi", assume una nuova, inquietante rilevanza nell'era dell'AI. Fornari intendeva la guerra come un rito, un (perverso) meccanismo psicologico attraverso il quale l'umanità ha gestito le sue ansie interne, derivanti dal "Terrificante interno".
L'introduzione dell'AI nella sfera della deterrenza nucleare, che Caracciolo definisce "gestione meccanica della paranoia", rimuove questo "rito" della guerra come "sfogo" psicologico umano. Se l'AI, che "non dubita né si vergogna," assume decisioni vitali, essa priva l'umanità di quel meccanismo, per quanto distruttivo, che in passato ha permesso di elaborare i conflitti inconsci. Il paradosso è che eliminando questo rituale, l'umanità perde un meccanismo (perverso) per gestire i suoi conflitti interni, portando direttamente all'annientamento totale ("Salteremmo tutti per aria"). In un'era in cui la deterrenza abilitata dall'AI rischia un'escalation incontrollabile e dove i "freni" psicologici alla guerra vengono meccanizzati, la nonviolenza cessa di essere una mera posizione morale idealistica e diventa una necessità pragmatica per la sopravvivenza umana. La "pace sporca," fondata sui compromessi, suggerisce il riconoscimento che la "pace giusta" ottenuta attraverso la vittoria militare è ora un "trionfo della morte."
IV. Strategie per disinnescare la minaccia: verso una "Pace Possibile" necessitata
Questa sezione delinea una strategia multifattoriale per mitigare la minaccia AI-nucleare, combinando salvaguardie tecnologiche, una robusta governance internazionale, misure di rafforzamento della fiducia e un rinnovato impegno per il disarmo e la nonviolenza, riflettendo il concetto di "pace possibile".
4.1 Rafforzare il Controllo Umano e la Trasparenza
I sistemi di supporto decisionale dovrebbero essere progettati per sostenere l'efficacia delle decisioni umane, non per sostituirle. Gli strumenti AI dovrebbero ridurre il carico cognitivo e incoraggiare il pensiero critico fornendo informazioni oggettive. L'idea di sostituire completamente gli esseri umani in decisioni importanti è ancora "lontana," e gli strumenti AI sono attualmente cruciali per ridurre il carico di lavoro dei decisori. Non è emersa alcuna proposta seria che un computer, abilitato all'AI o meno, debba essere incaricato della decisione effettiva di lanciare armi nucleari.
Tabella 2: Principi Chiave per l'Integrazione Responsabile dell'AI nei Sistemi di Comando e Controllo Nucleare
| Principio | Descrizione | Rationale |
| Controllo Umano Significativo (Human-in-the-Loop / Human-on-the-Loop) | Assicurare che gli operatori umani mantengano la capacità di comprendere, valutare e intervenire nelle decisioni critiche, in particolare per quanto riguarda la selezione del bersaglio e l'applicazione della forza. Evitare sistemi completamente autonomi che operano senza autorizzazione o supervisione umana. | Risoluzione dell'Assemblea Generale delle Nazioni Unite, Segretario Generale delle Nazioni Unite, ICRC, "approccio incentrato sulle persone" della Cina, Campagna per Fermare i Robot Killer. Imperativo etico di delegare le decisioni di vita o di morte agli esseri umani. |
| AI come Supporto Decisionale, Non Decisore | Gli strumenti AI dovrebbero aumentare le capacità umane fornendo informazioni oggettive, pertinenti e accurate, riducendo il carico cognitivo e incoraggiando il pensiero critico. Non dovrebbero sostituire il giudizio umano o prendere decisioni finali di lancio. | Migliori pratiche dell'industria nucleare, analisti della difesa. Limitazioni intrinseche e imprevedibilità dell'AI in scenari ad alto rischio. |
| Trasparenza e Spiegabilità | Impegnarsi a rendere gli algoritmi AI più trasparenti e interpretabili ("scatola di vetro" anziché "scatola nera") per consentire agli operatori umani di comprendere come vengono prese le decisioni. La definizione pubblica dei termini AI e la dichiarazione delle dottrine AI-nucleari possono ridurre le tensioni. | Preoccupazioni etiche sui sistemi "scatola nera". Necessità di fiducia e responsabilità. |
| Robustezza e Resilienza | Progettare sistemi AI per essere resilienti contro attacchi informatici, manipolazioni ed errori. Impiegare più algoritmi AI addestrati su diversi set di dati e garantire fonti di verifica indipendenti per le conclusioni dell'AI. | Vulnerabilità identificate nelle applicazioni militari dell'AI. Mancanza di dati reali di crisi nucleari per l'addestramento. |
| Tempo per la Deliberazione | Gli strumenti AI dovrebbero essere sfruttati per creare più tempo per decisioni umane accurate e informate, piuttosto che comprimere i tempi decisionali. | Rischio di errori di calcolo dovuti a tempi compressi. Lezioni storiche dall'incidente di Petrov. |
| Mitigazione del Bias | Implementare misure per ridurre i bias potenzialmente dannosi nelle decisioni guidate dall'AI e condurre valutazioni regolari per rilevarli e affrontarli. | Rischio di risultati discriminatori e identificazione errata. Linee guida internazionali sull'AI responsabile. |
La scelta tra piena autonomia e "controllo umano" non è solo etica o legale, ma un imperativo strategico per la stabilità nell'era AI-nucleare. Data l'imprevedibilità dell'AI, la sua vulnerabilità alla manipolazione e la mancanza di dati reali sulle crisi nucleari , il processo decisionale nucleare completamente autonomo rappresenta un rischio inaccettabile. Le lezioni storiche (Petrov, Crisi dei Missili di Cuba) dimostrano che l'esitazione e il dubbio umani sono stati interruttori di sicurezza cruciali. Pertanto, progettare attivamente sistemi AI per creare più tempo per la deliberazione umana, per fornire informazioni diverse e verificabili e per prevenire il bias dell'automazione non riguarda solo l'etica; riguarda la costruzione della resilienza e la riduzione del rischio di escalation involontaria. Ciò implica un passaggio da una "corsa all'automazione" a una "corsa all'umanizzazione" dell'AI nelle applicazioni militari critiche.
4.2 Governance internazionale e regolamentazione
L'Assemblea Generale delle Nazioni Unite ha adottato una risoluzione sui LAWS nel dicembre 2024, riconoscendo l'ampia gamma di applicazioni militari dell'AI oltre i sistemi d'arma. C'è un crescente slancio per un nuovo trattato internazionale sui LAWS, con appelli per uno strumento legalmente vincolante entro il 2026. Un tale trattato potrebbe proibire i sistemi che operano senza un controllo umano significativo o quelli che prendono di mira le persone. Tuttavia, permangono sfide al consenso, in particolare da parte delle principali potenze militari come Stati Uniti, Russia e Cina, che hanno posizioni divergenti e hanno talvolta bloccato le proposte per strumenti legalmente vincolanti.
Nuove ricerche sollecitano l'adozione di un Codice di Condotta non vincolante sui Sistemi di Comando, Controllo e Comunicazione Nucleare (NC3) per prevenire lanci accidentali o illegali in mezzo alle minacce dell'AI. I sistemi NC3 comprendono persone, politiche, tecnologie e leggi che regolano il processo decisionale nucleare, dall'allerta precoce all'esecuzione del lancio. L'infrastruttura obsoleta e le capacità emergenti dell'AI stanno aumentando la pressione su questi sistemi. Un codice non vincolante, ispirato al Codice di Condotta dell'Aia, potrebbe essere adottato più rapidamente di un trattato, fornendo un quadro immediato per la cooperazione, la trasparenza e la moderazione. È inquadrato come "prevenzione delle crisi," non disarmo.
Questo evidenzia una tensione critica negli sforzi di governance internazionale: il divario tra la gravità esistenziale della minaccia AI-nucleare (che richiede una "legge dura" forte e legalmente applicabile) e la fattibilità politica di raggiungere tali accordi (che porta a una preferenza per una "legge morbida" più rapida e meno vincolante). Sebbene un Codice di Condotta offra benefici immediati come maggiore trasparenza e moderazione , la sua natura non vincolante ne limita intrinsecamente l'efficacia nel prevenire esiti catastrofici, soprattutto quando si tratta di sistemi AI opachi e di corse agli armamenti competitive. Ciò implica che affidarsi esclusivamente alla "legge morbida" è un compromesso pragmatico che potrebbe non essere sufficiente a "disinnescare" il "mix esplosivo," lasciando l'umanità vulnerabile ai rischi stessi che cerca di mitigare. La sfida è colmare questa lacuna, magari utilizzando la "legge morbida" come trampolino di lancio per quadri giuridici più robusti e vincolanti.
Infine, le iniziative per un'AI responsabile nel dominio militare stanno prendendo piede. Il Dipartimento della Difesa degli Stati Uniti (DoD) ha adottato principi etici per l'uso dell'AI nel 2020 e ha una Strategia per l'AI Responsabile (RAI). La Cina promuove un "approccio incentrato sulle persone" nell'AI militare, enfatizzando il controllo umano, il rispetto della dignità umana e i principi di "AI per il Bene". Propone anche un sistema di test e valutazione basato sui livelli di rischio dell'AI. Queste iniziative nazionali dimostrano una crescente consapevolezza tra le maggiori potenze della necessità di un'AI responsabile, anche all'interno di un quadro competitivo. Possono servire da base per norme internazionali più ampie.
4.3 Misure di rafforzamento della fiducia (CBMs) e canali di comunicazione
Le Misure di Rafforzamento della Fiducia (CBMs) mirano a correggere percezioni imprecise, evitare malintesi e promuovere la cooperazione. Le CBMs tradizionali includono sistemi di comunicazione diretta ("hotline"), notifica anticipata di esercitazioni militari e test missilistici, scambio di addetti militari e osservazione delle manovre. Nel contesto dell'AI, le CBMs potrebbero includere standard per la condivisione di informazioni e notifiche sui sistemi abilitati all'AI per rendere meno probabile un conflitto involontario.
I sistemi AI introducono nuove sfide: la loro natura di "scatola nera" rende opaco il loro processo decisionale, e la loro velocità comprime i tempi di risposta umani. Le CBMs esistenti sono insufficienti per l'era dell'AI perché affrontano principalmente l'intenzione umana e le azioni osservabili. Per i sistemi abilitati all'AI, le CBMs devono evolvere per includere la trasparenza riguardo al design, ai dati di addestramento, ai protocolli di test e ai principi etici dell'AI. Ciò significa andare oltre la semplice notifica dei movimenti delle truppe per condividere informazioni sulle capacità e limitazioni dei sistemi AI, specialmente quelli integrati nel NC3. La loro opacità e velocità intrinseche rendono necessaria una nuova generazione di CBMs incentrate sulla trasparenza algoritmica e sulla prevedibilità sistemica per prevenire errori di calcolo e costruire fiducia, piuttosto che solo sulla comunicazione umana delle intenzioni.
Le potenze nucleari dovrebbero rafforzare i canali di comunicazione di crisi incentrati sull'AI per contribuire a prevenire errori che potrebbero portare a conseguenze catastrofiche. La diplomazia e i colloqui sulla stabilità strategica sono cruciali, includendo discussioni sul ruolo dell'AI nei sistemi militari e nucleari. Il presidente della Cina Xi e l'ex presidente USA Biden hanno già concordato di tenere l'AI fuori dalle decisioni di lancio nucleare. La comunicazione aperta e il dialogo sono vitali per gestire le percezioni errate e ridurre il rischio di escalation involontaria in un panorama tecnologico in rapida evoluzione.
4.4 Disarmo progressivo (anche con atti unilaterali) e nonviolenza
I Disarmisti esigenti sostengono con forza la necessità di "prevenire la terza guerra mondiale via sminamento progressivo e permanente dei suoi pezzi," inclusa la corsa generale agli armamenti e il riarmo nucleare. Questo si allinea con gli appelli per un disarmo progressivo, facilitato dal metodo dei disarmi unilaterali, e il divieto di tutte le armi nucleari. Il Trattato di proibizione delle armi nucleari gioca un ruolo cruciale in questo contesto di percorsi orientati alla eliminazione effettiva delle armi nucleari. La sua generalizzazione rappresenta il nostro obiettivo finale, andando oltre la mitigazione del rischio per arrivare all'eliminazione fondamentale della minaccia. Un percorso per agevolare l'obiettivo è il collegamento tra la Campagna ICAN e la Campagna No First Use. Il No First Use va collegato a varie misure di prevenzione della guerra nucleare per errore. Una di esse è l'eliminazione dell'AI dai meccanismi di deterrenza.
I Disarmisti esigenti lavorano affinché che i conflitti siano affrontati e risolti "mobilitando i popoli e con i metodi costruttivi della nonviolenza." L'azione nonviolenta si concentra su come le persone comuni realizzano il cambiamento sociale. Le strategie includono tecniche di de-escalation, ascolto attivo, empatia e comunicazione chiara. Le organizzazioni di peacebuilding dovrebbero impegnarsi nella regolamentazione e limitazione dell'AI (da eliminare comunque subito dai sistemi di deterrenza) per promuovere la pace e mitigare i danni sociali.
In un'era in cui la deterrenza abilitata dall'AI rischia un'escalation incontrollabile e dove i "freni" psicologici alla guerra vengono meccanizzati, la nonviolenza cessa di essere una mera posizione morale idealistica e diventa una necessità pragmatica per la sopravvivenza umana. La "pace possibile" propugnata dai Disarmisti esigenti, fondata sui compromessi realistici e creativi, suggerisce il riconoscimento che la "pace perfetta" (pace giusta) attraverso la vittoria militare è ora un "trionfo della guerra e della morte." Pertanto, investire attivamente e promuovere meccanismi di risoluzione nonviolenta dei conflitti, e mobilitare la società civile, diventa la strategia più razionale e praticabile per "continuare a nascere" (siamo i "comuni natali", non i "comuni mortali", secondo l'intuizione filosofica fondamentale di Hannah Arendt) di fronte a un'apocalisse altrimenti inevitabile e accelerata dall'AI. Ciò implica una rivalutazione fondamentale delle priorità di sicurezza nazionale, spostandole dal dominio militare verso la costruzione della pace incentrata sull'essere umano.
In questo contesto, la Campagna Internazionale per l'Abolizione delle Armi Nucleari (ICAN) ha svolto un ruolo fondamentale. Dopo un decennio di advocacy, ICAN e i suoi partner hanno portato all'adozione del Trattato sulla Proibizione delle Armi Nucleari (TPNW) il 7 luglio 2017, entrato in vigore il 22 gennaio 2021. Questo trattato rappresenta il primo accordo internazionale legalmente vincolante che proibisce in modo completo le armi nucleari, colmando una lacuna significativa nel diritto internazionale. Il TPNW vieta alle nazioni di sviluppare, testare, produrre, fabbricare, trasferire, possedere, immagazzinare, usare o minacciare di usare armi nucleari, o di permettere che vengano stazionate sul loro territorio. Per gli stati che possiedono armi nucleari, il trattato prevede un quadro temporale per i negoziati volti alla loro eliminazione verificata e irreversibile.
Un'altra componente cruciale di questa strategia, da collegare con la Campagna ICAN, è la Campagna per il "No First Use" (NFU). Una politica di "No First Use" è un impegno formale da parte di una potenza nucleare a non usare armi nucleari per prima, se non come seconda risposta a un attacco con armi di distruzione di massa. Questa politica mira a chiarire che le armi nucleari sono intese solo per la deterrenza e non per il combattimento, riducendo l'ambiguità e il rischio di errori di calcolo. Alcuni stati, come la Cina e l'India, hanno già adottato politiche di NFU.
La combinazione della politica di "No First Use" con misure concrete di disarmo è essenziale per disinnescare la minaccia AI-nucleare:
- Deallertizzazione delle testate: La deallertizzazione implica l'introduzione di modifiche fisiche reversibili ai sistemi d'arma nucleari per rallentare il processo di lancio. Questo può includere la rimozione delle testate dai loro sistemi di lancio o l'implementazione di misure che richiedano un tempo significativo (ad esempio, più di 30 minuti) per riportare le armi allo stato di allerta massima. L'obiettivo è prevenire un lancio su allerta (Launch-on-Warning) e fornire tempo prezioso per i processi diplomatici di de-escalation in caso di falsi allarmi o errori di calcolo.
- Separazione delle testate dai vettori: Questa è una forma più profonda di deallertizzazione, che prevede la separazione fisica delle testate nucleari dai loro sistemi di lancio. Ciò rende molto più difficile e lento l'impiego immediato delle armi, aumentando il tempo necessario per una decisione e riducendo il rischio di un uso accidentale, per errore di calcolo o non autorizzato.
- Potenziamento delle ispezioni IAEA: L'Agenzia Internazionale per l'Energia Atomica (IAEA) svolge un ruolo indispensabile nella non-proliferazione nucleare attraverso i suoi sistemi di salvaguardia, che includono monitoraggio, ispezioni e analisi delle informazioni per verificare che le attività nucleari rimangano pacifiche. Il potenziamento delle ispezioni, anche attraverso l'adozione di protocolli aggiuntivi, aumenta la capacità dell'IAEA di rilevare programmi nucleari non dichiarati e di fornire garanzie sulla loro assenza, rafforzando la fiducia internazionale.
Esclusione dell'AI dal meccanismo della deterrenza: Tutte queste misure convergono verso un obiettivo cruciale: escludere l'intelligenza artificiale dal meccanismo decisionale della deterrenza nucleare. Il problema fondamentale è dare tempo alla decisione umana, non creare condizioni di fretta e di urgenza. L'AI, con la sua capacità di comprimere i tempi decisionali e la sua mancanza di prospettiva e sentimenti umani, rappresenta un rischio intrinseco di escalation involontaria. Misure come il "No First Use", la deallertizzazione e la separazione delle testate sono progettate per reintrodurre e massimizzare il tempo per la deliberazione umana, garantendo che le decisioni di vita o di morte rimangano saldamente nelle mani degli esseri umani, e non siano delegate a sistemi autonomi che potrebbero agire su falsi allarmi o interpretazioni errate.
I Disarmisti esigenti "esigono" esplicitamente che i conflitti siano affrontati e risolti "mobilitando i popoli e con i metodi costruttivi della nonviolenza." L'azione nonviolenta si concentra su come le persone comuni realizzano il cambiamento sociale. Le strategie includono tecniche di de-escalation, ascolto attivo, empatia e comunicazione chiara.
In un'era in cui la deterrenza abilitata dall'AI rischia un'escalation incontrollabile e dove i "freni" psicologici alla guerra vengono meccanizzati, la nonviolenza cessa di essere una mera posizione morale idealistica e diventa una necessità pragmatica per la sopravvivenza umana. La "pace possibile" che propugnamo, fondata sui compromessi, suggerisce il riconoscimento che la "pace perfetta" (pace giusta) attraverso la vittoria militare è ora un "trionfo della guerra e della morte." Pertanto, investire attivamente e promuovere meccanismi di risoluzione nonviolenta dei conflitti, e mobilitare la società civile, diventa la strategia più razionale e praticabile Ciò implica una riformulazione fondamentale delle priorità di sicurezza nazionale, da inquadrare nel concetto di "sicurezza comune", spostandole dal dominio militare verso la costruzione della pace incentrata sull'uomo.
La società civile svolge un ruolo cruciale in questo contesto. Le Conferenze Pugwash su Scienza e Affari Mondiali sono un'organizzazione internazionale che riunisce studiosi e figure pubbliche per ridurre il pericolo di conflitti armati e cercare soluzioni alle minacce alla sicurezza globale, in particolare il disarmo nucleare. Esse facilitano "dialoghi di traccia 1.5 e traccia II". La Campagna per Fermare i Robot Killer è una coalizione di ONG che sostiene uno strumento legalmente vincolante per proibire le armi completamente autonome, garantendo un controllo umano significativo sull'uso della forza. Conducono campagne di sensibilizzazione, advocacy politica e legale e ricerca. Queste organizzazioni agiscono come un contrappeso critico agli accumuli militari guidati dallo stato.
La società civile svolge un ruolo cruciale in questo contesto. Le Conferenze Pugwash su Scienza e Affari Mondiali sono un'organizzazione internazionale che riunisce studiosi e figure pubbliche per ridurre il pericolo di conflitti armati e cercare soluzioni alle minacce alla sicurezza globale, in particolare il disarmo nucleare. Esse facilitano "dialoghi di traccia 1.5 e traccia II". La Campagna per Fermare i Robot Killer è una coalizione di ONG che sostiene uno strumento legalmente vincolante per proibire le armi completamente autonome, garantendo un controllo umano significativo sull'uso della forza. Conducono campagne di sensibilizzazione, advocacy politica e legale e ricerca. Queste organizzazioni agiscono come un contrappeso critico agli accumuli militari guidati dallo stato.
V. Conclusione: un imperativo umano per la sopravvivenza
La combinazione della deterrenza nucleare con l'intelligenza artificiale ha creato un "mix esplosivo incontrollabile," caratterizzato da tempi decisionali compressi, opacità algoritmica e la potenziale perdita dei salvaguardie psicologiche umane che, per quanto imperfette, hanno storicamente impedito la catastrofe. L'accelerazione della corsa all'AI, come evidenziato dai piani nazionali per il "dominio globale," rischia di destabilizzare ulteriormente il fragile equilibrio strategico, spingendo verso sistemi sempre più autonomi e imprevedibili. La prospettiva di una "gestione meccanica della paranoia," come suggerito dalla rilettura del pensiero di Franco Fornari, rivela una dimensione esistenziale della minaccia: se l'AI rimuove il "rituale" della guerra come sfogo psicologico, l'umanità perde un meccanismo (perverso) di gestione dei propri conflitti interni, con la conseguenza ultima dell'annientamento.
Tuttavia, esistono opportunità concrete per disinnescare questa minaccia. La chiave risiede nel rafforzamento del controllo umano e della trasparenza, trattando l'AI come un supporto decisionale che amplifica le capacità umane, piuttosto che un sostituto. È imperativo che i decisori umani mantengano il controllo significativo sulle armi nucleari, con sistemi progettati per creare più tempo per la deliberazione, fornire informazioni verificabili e mitigare i bias. Quindi fuori l'AI dal sistema della deterrenza, sì invece al No First Use accompagnato a misure di deallertizzazione, separazione delle testate dai vettori, moltiplicati e potenziati controlli IAEA...
Sul piano della governance internazionale, è cruciale proseguire gli sforzi per un trattato legalmente vincolante sui Sistemi d'Arma Letali Autonomi (LAWS), che proibisca i sistemi privi di controllo umano significativo. In assenza di un consenso immediato su tali strumenti, l'adozione di un Codice di Condotta non vincolante per i Sistemi di Comando, Controllo e Comunicazione Nucleare (NC3) può offrire un quadro pragmatico per la cooperazione e la trasparenza. Le Misure di Rafforzamento della Fiducia (CBMs) devono evolvere per affrontare le specificità dell'AI, promuovendo la trasparenza algoritmica e la prevedibilità sistemica.
In definitiva, la strategia più sostenibile per la pace risiede nel disarmo progressivo, che includa il metodo di atti unilaterali, e nell'adozione dei metodi costruttivi della nonviolenza. In un'era in cui la guerra automatizzata rischia di eliminare ogni freno psicologico all'annientamento, la nonviolenza diventa non solo un ideale morale, ma una necessità pragmatica per la sopravvivenza umana. La mobilitazione dei popoli e il ruolo attivo di organizzazioni della società civile come le Campagne ICASN e NFU, le Conferenze Pugwash e la Campagna per Fermare i Robot Killer sono essenziali per orientare i decisori intelligenti e promuovere una cultura di pace.
L'imperativo odierno, a 80 anni da Hiroshima e Nagasaki, è più che mai "prevenire la terza guerra mondiale via sminamento progressivo e permanente dei suoi pezzi." Ciò include la corsa agli armamenti in generale e al riarmo nucleare in particolare, e di questo riarmo componente oggi essenziale è la tendenza a sviluppare le "tecnologie della potenza," tra le quali l'AI senza limiti e controlli. La sfida è grande, ma la responsabilità umana di assicurare la sopravvivenza e un futuro pacifico è ancora più grande. Come richiamato dal Manifesto Russell-Einstein, l'appello è agli esseri umani, affinché "Ricordino la loro umanità, e dimentichino il resto".

