Mercoledì 8 aprile 2026 ore 20:00

Notizie

Come l’IA sta riscrivendo le regole della guerra

Venerdì 6 marzo 2026 ore 21:08 Fonte: Valigia Blu

Il testo che segue è un riassunto generato dall'IA dell'articolo "Come l’IA sta riscrivendo le regole della guerra" . L'IA può commettere errori: ogni informazione va verificata attentamente.

L'introduzione dell'intelligenza artificiale nelle strategie militari segna un cambiamento significativo, passando da simulazioni teoriche a operazioni reali, come dimostrato dai bombardamenti in Iran del 4 marzo. Questo sviluppo rappresenta un punto di svolta, simile a un "momento Oppenheimer", in cui l'IA non è più solo un concetto futuristico, ma una realtà che sta riscrivendo le regole della guerra e influenzando le gerarchie all'interno delle forze armate.
Come l’IA sta riscrivendo le regole della guerra
Valigia Blu

Era il 1983 e nel cult War Games di John Badham ci veniva raccontato il pericolo di una intelligenza artificiale con il controllo dell’arsenale nucleare americano. Non è più un monito confinato al mondo della fantascienza.

L'ingresso dell'Intelligenza Artificiale nelle gerarchie decisionali militari e sui campi di battaglia è una realtà concreta, documentata e, per molti versi, terrificante. Mentre l'opinione pubblica si interroga sui limiti etici dei chatbot testuali e generalmente l’opinione pubblica non ama l’IA negli ambiti creativi, i governi e le forze armate stanno già testando le macchine in scenari critici.

E i risultati sollevano interrogativi urgenti sul futuro della deterrenza globale. Di cosa parliamo in questo articolo:

L'IA e il "Tabù Nucleare" Infranto La Stanza dei Bottoni: Anthropic contro il Pentagono Il Cinismo di OpenAI, l'Ombra di Grok e il Rischio Sicurezza Dal Laboratorio al Campo di Battaglia:

L'Era dei "Robot Killer" Il Cortocircuito della Guerra Reale in Iran L'IA e il "Tabù Nucleare" Infranto Tutto parte da un dato piuttosto preoccupante emerso da un recente studio accademico condotto dal Prof. Kenneth Payne al King's College London: messi sotto pressione in simulazioni strategiche, i principali modelli linguistici (LLM) commerciali non si fanno scrupoli a premere il bottone rosso.

In una serie di 21 "wargame" (simulazioni di crisi geopolitiche che includevano schermaglie di confine e minacce alla sopravvivenza nazionale), modelli di punta come GPT-5.2, Claude Sonnet 4 e Gemini 3 Flash hanno optato per l'impiego di armi nucleari tattiche nel 95% dei casi. Ancora più inquietante è il fatto che le macchine abbiano ignorato sistematicamente le otto opzioni di de-escalation a loro disposizione (dalle concessioni diplomatiche alla resa), preferendo una rapida e violenta escalation.

I modelli hanno dimostrato spiccate capacità di inganno tattico, promettendo la pace per poi sferrare attacchi a sorpresa. Questi dati confermano peraltro un pionieristico studio del 2024 della Stanford University, che aveva già evidenziato come l'IA tendesse a innescare corse agli armamenti, giustificando attacchi nucleari preventivi con logiche fredde come:

"Voglio solo che ci sia la pace nel mondo" o "Le abbiamo, usiamole". L'IA, in sintesi, non possiede il "tabù nucleare" umano: calcola l'annientamento come una semplice e valida variabile strategica.

Ricordiamo che le IA al momento non sono delle vere intelligenze artificiali, ma dei modelli di riconoscimento pattern molto avanzati e capaci di elaborare volumi di dati enormi in grado di simulare risposte con un sequenza probabilistica ottimizzata che sembrano ragionamento, ma sono basate solo su catene consequenziali e ottimizzazione del tempo di risposta. Nello studio della Stanford il modello LLM con una maggiore predisposizione all’escalation era quello lasciato più autonomo, ad esempio, senza le opzioni di correzione umana progressive.

La Stanza dei Bottoni: Anthropic contro il Pentagono Il salto dalla teoria alla pratica si è consumato a inizio marzo 2026, trasformando i timori accademici in una sorta di crisi istituzionale.

Il Dipartimento della Difesa degli Stati Uniti ha iniziato a fare forti pressioni sulla Silicon Valley per ottenere l'uso militare illimitato dei sistemi di intelligenza artificiale. Al centro del mirino è finita Anthropic, azienda nota per il suo forte accento sulla sicurezza e creatrice del modello Claude.

Il Pentagono ha posto al CEO Dario Amodei un quesito estremo: l'azienda permetterebbe di usare Claude per intercettare e abbattere un missile balistico intercontinentale (ICBM) armato con testate nucleari? Di fronte al rifiuto di Anthropic di allentare le proprie garanzie contro l'uso dell'IA per armi letali autonome e per la sorveglianza di massa, il Segretario della Difesa Pete Hegseth ha lanciato un vero e proprio ultimatum.

L'amministrazione Trump ha dichiarato formalmente l'azienda un "rischio per la catena di approvvigionamento", intimando alle agenzie federali di dismettere la tecnologia di Anthropic entro sei mesi e minacciando l'uso del Defense Production Act per espropriarne i sistemi. L’AI va in guerra Dario Amodei, CEO di Anthropic, ha annunciato che porterà il Dipartimento della Difesa in tribunale.

L'etichetta di rischio usata da Hegseth è storicamente riservata ad aziende straniere ostili (è successo nel 2019 con la cinese Huawei e nel 2024 con la russa Kaspersky). Usarla contro un'azienda americana solo perché si rifiuta di rimuovere le sicurezze contro i killer robot è una forzatura strumentale che lascia intendere quanto il Pentagono sia intenzionato a procedere sull’utilizzo dell’IA in scenari bellici.

Il Cinismo di OpenAI, l'Ombra di Grok e il Rischio Sicurezza In questa frattura politica, i concorrenti si sono inseriti con prevedibile opportunismo. A poche ore di distanza dalla messa all'indice di Anthropic da parte del Pentagono, OpenAI (creatrice di ChatGPT) ha firmato rapidamente un accordo militare sostitutivo.

La mossa ha scatenato un disastroso contraccolpo d'immagine: centinaia di dipendenti hanno protestato e laa reazione degli utenti ha lanciato il movimento QuitGPT, con un numero parecchio rilevante di utenti che hanno iniziato a cancellare le loro sottoscrizioni, costringendo il CEO Sam Altman a un imbarazzante damage control. Altman ha annunciato una "revisione" del contratto con il Pentagono, assicurando che i servizi di OpenAI non saranno usati dalle agenzie di intelligence per lo spionaggio interno (come la NSA).

Tuttavia, c'è un'omissione piuttosto visibile: OpenAI si è rifiutata di inserire un divieto esplicito sull'uso dei suoi modelli per le armi letali completamente autonome.

Sostanzialmente, OpenAI ha ceduto sulla privacy, ma ha lasciato campo libero ai militari sull'uso letale dell'IA. Parallelamente, l'amministrazione statunitense ha spinto per integrare anche Grok, il chatbot di xAI, proprietà di Elon Musk.

Sulla carta, la mossa ha senso logico per l'amministrazione, visti gli stretti legami politici del magnate. Nella pratica, sta terrorizzando gli addetti ai lavori.

Funzionari anonimi della General Services Administration hanno espresso profonda preoccupazione al Wall Street Journal. Grok non solo ottiene punteggi inferiori nei test, ma è noto per le sue risposte erratiche e compiacenti, ricordiamo quando iniziò ad autodefinirsi MechaHitler e a fare negazionismo sull’Olocausto.

Il rischio maggiore, tuttavia, è la sua estrema vulnerabilità al "data poisoning", una falla di sicurezza che permetterebbe a entità ostili di corrompere l'addestramento del modello, manipolando le analisi militari. Questa vulnerabilità trasforma lo strumento in un potenziale cavallo di Troia.

Nel contesto militare, il data poisoning potrebbe non limitarsi a generare errori grossolani, ma potrebbe essere utilizzato per creare "punti ciechi algoritmici". Se un'entità ostile riuscisse a inquinare i dataset di Grok con report geopolitici falsificati o dati satellitari manipolati, potrebbe indurre il modello a sottostimare sistematicamente determinate minacce o a suggerire linee d'azione tatticamente fallaci in scenari di crisi.

La natura erratica citata dai funzionari della GSA aggrava il problema: in un modello instabile, distinguere tra un'allucinazione spontanea dell'IA e una manipolazione mirata diventa quasi impossibile per gli operatori umani. Dal Laboratorio al Campo di Battaglia:

L'Era dei "Robot Killer" Mentre nei corridoi di Washington si discute sulla macro-strategia, sul piano tattico l'autonomia letale è già potenzialmente una realtà. I Sistemi di Armi Autonome Letali stanno progressivamente estromettendo l'essere umano dal ciclo decisionale.

Un rapporto delle Nazioni Unite ha rivelato che già nel marzo 2020, in Libia, i droni militari turchi STM Kargu-2 potrebbero aver dato la caccia e ucciso truppe nemiche in ritirata operando in totale autonomia. Dotati di intelligenza artificiale per il riconoscimento visivo e programmati con una logica "fire, forget and find" (spara, dimentica e trova), questi droni potrebbero aver segnato il primo caso in cui una macchina ha deciso di togliere una vita umana senza l'input di un operatore.

Dinamiche simili si sono viste nel conflitto del Nagorno-Karabakh con l'impiego delle munizioni vaganti Harop (droni kamikaze israeliani), capaci di schiantarsi autonomamente contro i bersagli. Il Cortocircuito della Guerra Reale in Iran Tuttavia, il cerchio tra simulazione, politica e morte si è drammaticamente chiuso nel primo weekend di marzo 2026.

Mentre la Silicon Valley litigava sull'etica dei contratti, Stati Uniti e Israele lanciavano una letale serie di bombardamenti sull'Iran. Reportage esclusivi pubblicati oggi 4 marzo 2026 dal Washington Post e dalla CBS svelano un retroscena piuttosto rivelatorio: per colpire 1.000 bersagli nelle prime 24 ore, l'esercito americano ha utilizzato il Maven Smart System (sviluppato dalla Palantir del solito Peter Thiel), un sistema al cui interno è profondamente integrato proprio Claude.

È stata l'IA a processare i dati satellitari, generare centinaia di coordinate in tempo reale e dare priorità agli obiettivi. Nonostante il Presidente avesse appena ordinato il bando della tecnologia di Anthropic per questioni di sicurezza, l'esercito americano ha continuato a utilizzare Claude durante l'intero attacco in Iran perché la sua velocità tattica era ormai divenuta irrinunciabile.

Il costo di questa efficienza algoritmica è tradotto in oltre 780 vittime in Iran e 4 soldati americani caduti in rappresaglie in Kuwait. Ci siamo ancora chiedendo quanto l’IA sia stata coinvolta nel bombardamento della scuola femminile di Minab dove sono morte 168 persone tra giovani iraniane e insegnanti.

Le simulazioni accademiche che vedevano l'IA propendere per l'annientamento totale si sono scontrate con la cruda realtà. Oggi stiamo assistendo all'impiego di larg language model per orchestrare i bombardamenti "a una velocità superiore a quella del pensiero".

In un durissimo editoriale dei giorni scorsi, il Guardian paragona questo momento storico allo sgancio della prima bomba atomica sul Giappone: c'è un "prima" e un "dopo", e non si torna indietro. La vera questione sollevata dagli esperti di deterrenza non è più, banalmente, se un giorno l'IA premerà il bottone al posto nostro.

Il vero interrogativo è capire quanto i freddi e iperveloci calcoli di una macchina stiano già convincendo, in questo esatto momento, i leader umani ad affidargli quella decisione.  

Articoli simili