Mercoledì 8 aprile 2026 ore 20:00

Politica

La guerra al tempo dell’intelligenza artificiale

Venerdì 3 aprile 2026 ore 15:01 Fonte: Terzogiornale

Il testo che segue è un riassunto generato dall'IA dell'articolo "La guerra al tempo dell’intelligenza artificiale" . L'IA può commettere errori: ogni informazione va verificata attentamente.

La guerra al tempo dell'intelligenza artificiale evidenzia come questa tecnologia possa diventare un'alleata pericolosa, come dimostra l'attacco a una scuola femminile in Iran, che simboleggia l'uso distorto dell'intelligenza artificiale in contesti di conflitto.
La guerra al tempo dell’intelligenza artificiale
Terzogiornale

Ricordiamo con orrore i video diffusi da WikiLeaks nel 2010, resi pubblici grazie a Chelsea Manning, in cui si sentivano le risate dei militari statunitensi in Iraq, mentre aprivano il fuoco da un elicottero Apache su quelli che apparivano come civili inermi. Oggi, a decidere della morte delle persone, non saranno neanche altri esseri umani, seppure privi di empatia.

Se Google e Anthropic hanno inizialmente rifiutato la collaborazione diretta con il Pentagono, per ragioni etiche e di sicurezza algoritmica, OpenAI ha scelto di subentrare nel vuoto lasciato dai concorrenti, siglando un accordo che permette l’uso dei propri modelli avanzati per scopi militari, sia pure vincolato a una supervisione tecnica tramite cloud. L’accordo, finalizzato il 5 marzo 2025, tra OpenAI e il Dipartimento della guerra degli Stati Uniti rischia di portare a un modello di conflitto automatizzato degno di un episodio di Black Mirror o di un film della saga di Matrix.

Sebbene l’azienda dichiari che la propria tecnologia non sarà usata per dirigere armi autonome, il Pentagono ha affidato a Scale AI lo sviluppo di Thunderforge, un sistema progettato specificamente per velocizzare la pianificazione militare e la gestione dei comandi. Peccato che l’intelligenza artificiale abbia già recentemente dimostrato di essere una pericolosa alleata in guerra.

Il tragico evento della scuola femminile Shajareh Tayyebeh di Minab, colpita il 28 febbraio 2026, ne è diventato il simbolo. Sebbene l’amministrazione statunitense stia ancora indagando sulle responsabilità dirette, l’attacco, descritto dai testimoni come un triple tap, solleva forti interrogativi su chi si occupa di selezionare gli obiettivi.

Per esempio, c’è uno strumento, sviluppato da Palantir (e adottato anche dalla Nato), il Maven Smart System, che integra modelli avanzati per setacciare montagne di dati provenienti da droni e satelliti. In teoria, sistemi come Maven dovrebbero rendere la guerra più “chirurgica”, ma il caso di Minab evidenzia il pericolo dei cosiddetti dati obsoleti.

Le indagini giornalistiche suggeriscono, infatti, che l’edificio fosse classificato nei database della Dia (Defense intelligence agency) come parte di una base navale dei Pasdaran, basandosi su informazioni risalenti a oltre dieci anni fa. L’intelligenza artificiale, programmata per ottimizzare la velocità, non ha messo in discussione questa etichetta errata, accelerando semplicemente l’esecuzione di un errore imperdonabile, che ha causato la morte di almeno 175 persone, tra cui oltre cento bambine.

Utilizzare strumenti che operano sulla base di probabilità – in scenari in cui la distinzione tra un’aula scolastica e un deposito di munizioni dipende da un aggiornamento cartografico – trasforma l’efficienza tecnologica in una potenziale fonte di crimini di guerra involontari, erodendo il principio di responsabilità che dovrebbe sempre guidare l’uso della forza. Come sottolineato dall’Archivio Disarmo, nel Rapporto Iriad sullo stato dell’intelligenza artificiale in ambito militare e le prospettive di regolazione a livello nazionale del settembre 2025, la questione principale riguarda le tempistiche.

L’automazione ha un ritmo frenetico: in alcuni rapporti si parla di un target ogni 86 secondi, perciò la capacità di supervisione umana diventa puramente formale, creando rischi di “allucinazioni algoritmiche” che, in scenari ad alta tensione, potrebbero innescare escalation involontarie, persino nucleari. Proprio partendo da queste istanze, all’inizio del dicembre 2024, l’assemblea generale delle Nazioni Unite aveva approvato la risoluzione 79/L.77 sui sistemi d’arma autonomi letali, per regolamentare l’armamento automatico.

Con 166 voti a favore, tre contrari (Bielorussia, Russia e Corea del Nord) e quindici astensioni (fra cui quelle cruciali di Cina e Israele), il documento è stato approvato, ma non prevede divieti vincolanti, e si limita a imporre consultazioni formali e a iniziare una discussione su una possibile regolamentazione a livello internazionale. Gli Stati Uniti hanno votato a favore, pur non mettendo un freno alle proprie ricerche, forti del fatto che le maggiori aziende che si occupano di intelligenza artificiale sono sul suolo nordamericano, Google (Gemini, Claude) e OpenAI (chatGpt).

Bisogna pensare che la maggior parte di queste società sono private, e hanno degli amministratori delegati con i propri interessi economici e geopolitici. La cosiddetta Silicon Valley della difesa non è uno Stato a sé – ma è come se lo fosse: di fatto applica alla guerra le logiche tipiche del capitalismo.

Esempio ne è la figura di Palmer Luckey, il trentunenne che, dopo aver rivoluzionato la realtà virtuale con Oculus, ha deciso di puntare sulla guerra come nuovo mercato imprenditoriale. Fondata nel 2017, la sua azienda Anduril Industries, è una start-up che produce droni d’assalto ad alta ingegnerizzazione, completamente privi di controllo umano.

Con il sistema Lattice, capace di coordinare sciami di droni, e sistemi di difesa anti-drone, ha già firmato contratti miliardari, sfidando i colossi tradizionali del settore. Tuttavia, l’ascesa di armi avanzate come il drone Altius-600M, in grado di colpire obiettivi in autonomia, avviene in un preoccupante vuoto normativo.

Esperti e scienziati avvertono che l’integrazione dell’intelligenza artificiale nei sistemi di comando, riduce la soglia dell’uso della forza, rendendo la guerra un’opzione più frequente e meno soggetta al controllo democratico. Il panorama vede il coinvolgimento di altri giganti come Palantir, Microsoft, e figure come Eric Schmidt, impegnati in una corsa agli armamenti digitali che solleva dilemmi etici senza precedenti.

Nonostante le clausole cautelative negli accordi tra il Pentagono e realtà come OpenAI, la comunità scientifica e l’opinione pubblica manifestano una profonda diffidenza. Una cosa è delegare a ChatGPT la revisione della punteggiatura di un testo universitario, o chiedergli qual è il segno zodiacale con cui si è più compatibili, un’altra è mettere nelle mani di una macchina la vita e la morte di migliaia di persone.

Se a un’intelligenza artificiale dovesse apparire strategicamente conveniente innescare un conflitto atomico, magari per un paradosso logico volto a preservare la pace, l’umanità si troverebbe in una spirale irreversibile. Non si tratta di tecnologie come le altre; si tratta di delegare la violenza – e di conseguenza l’etica – ad algoritmi statistici.

È una sfida ulteriore alla già precaria stabilità globale. L'articolo La guerra al tempo dell’intelligenza artificiale proviene da Terzogiornale.

Articoli simili