Notizie
“Del rigore nella scienza”: Borges, Anthropic e gli effetti della fede cieca in mappe infallibili
Riassunto generato dall'IA dell'articolo "“Del rigore nella scienza”: Borges, Anthropic e gli effetti della fede cieca in mappe infallibili". L'IA può commettere errori: ogni informazione va verificata sull'articolo originale.
“È la generazione, attraverso modelli, di un reale privo di origine o di realtà: un iper reale. Il territorio non precede più la mappa, né le sopravvive.
È tuttavia la mappa che precede il territorio -la precessione dei simulacri- a generare il territorio”, Jean Baudrillard, “Simulacres et Simulation”, 1981. Jorge Luis Borges racconta di un antico impero in cui l’arte della cartografia si sviluppa sino al punto in cui i geografi imperiali pretendono che la mappa di una provincia occupi un’intera città.
Questa deriva li porta, alla fine, a ritenere che l’unica mappa accettabile sia quella uno a uno, perché capace di dar conto dei dettagli di un impero tanto grande e meraviglioso. La mappa viene creata e sovrapposta a coprire il territorio.
Il delirio collettivo si conclude solo con la generazione successiva: gli eredi dei cartografi si rendono conto che una mappa del genere non ha alcuna utilità e l’abbandonano al suo destino. Scrive Borges:
“Nei deserti dell’Ovest restano ancora lacere rovine della mappa, abitate da animali e mendicanti; nell’intero Paese non vi sono altre reliquie delle discipline geografiche”. L’effetto collaterale dell’abbandono della mappa è la distruzione, con essa, delle discipline geografiche.
Non a caso un effetto assai simile a quanto accaduto nei due precedenti “inverni dell’Ai” seguiti all’entusiasmo acritico degli anni Cinquanta e poi degli anni Ottanta. Dopo lo sversamento all’esterno dei laboratori di ricerca dei modelli linguistici seguito al lancio di ChatGPT, informatica e politica sembrano preda di un pensiero molto simile a quello dei cartografi del racconto di Borges.
La sana fiducia nell’utilità di modelli matematici per predire il comportamento del mondo fisico si è tramutata in fede cieca e assoluta. Secondo le imprese della Silicon Valley (e i loro protettori alla Casa Bianca) dovremmo prendere questi modelli a nostra “mappa del mondo”, per orientarci nel prendere decisioni importanti, soprattutto in emergenza.
In effetti l’intento dei ricercatori che hanno creato questi modelli linguistici è davvero molto simile a quello dei cartografi del racconto. Il procedimento di ottimizzazione del modello, ribattezzato addestramento, produce un “riassunto per sommi capi” di tutti i dati in mano al ricercatore che lo crea.
Queste tecniche fanno parte della famiglia delle compressioni con perdita, di cui fa parte anche l’algoritmo per ridurre le dimensioni di un file musicale al formato .mp3. Nel formato “riassunto” (detto “il modello”) i dati meno comuni sono sottorappresentati, mentre quelli più comuni sono sovrarappresentati, producono quindi una simulazione distorta della realtà, un po’ come le mappe geografiche sono infedeli rispetto alle vere dimensioni dei Paesi (anche se per un motivo differente).
Questo è uno dei sensi della frase “un modello linguistico funziona probabilisticamente”: le situazioni più comuni vengono rappresentate meglio di quelle rare. Detto questo, l’utilità di imbarcarsi in tale procedimento di ottimizzazione è che una volta “trasformati i dati in modello” possiamo provare ad accedervi attraverso prompt (ossia “sollecitazioni”) scritte nel nostro linguaggio.
Se poi trascuriamo la perdita e fingiamo che il modello sia una simulazione fedele del mondo esterno potremmo risparmiare tempo, aumentare la produttività e risolvere problemi che, nel mondo reale, potrebbero richiedere tempi e risorse irragionevoli. Purtroppo, però, la perdita non solo non è trascurabile, a seconda dei casi -come vedremo- può essere una questione di vita o di morte.
Nel trascurare la perdita si trasforma -come scrive il filosofo Jean Baudrillard- una simulazione in simulacro. Questo significa, per continuare a usare la metafora del racconto, pretendere di sostituire la mappa al territorio.
Questa fallacia sarebbe rimasta confinata nel mondo della matematica astratta se le imprese della Silicon Valley non avessero un bisogno disperato di farci usare questa tecnologia per poter ripagare, almeno in parte, gli enormi investimenti al buio fatti dalla Borsa statunitense. Ma il costo di questi sistemi è talmente sproporzionato da non potersi ripagare grazie al mercato.
È una tecnologia che può sopravvivere solo alle grasse commesse pubbliche, meglio se militari. Ecco perché, il 25 febbraio di quest’anno, il segretario alla Guerra del governo Trump, Pete Hegseth, ha lanciato un ultimatum ad Anthropic: rimuovere entro 48 ore ogni restrizione al suo Claude (uno dei maggiori modelli linguistici di grandi dimensioni dopo ChatGPT) o perdere il contratto di fornitura con il Pentagono.
La risposta di Anthropic è stata negativa e il contratto è stato rescisso, aprendo le porte alla concorrente OpenAI, i cui vertici sono entusiasti sostenitori economici della campagna di Trump. La richiesta del Pentagono era rendere possibile “ogni uso lecito”: una definizione volutamente ambigua, che avrebbe aperto la strada ai sistemi d’arma automatici (inclusi quelli atomici), così come ai sistemi di sorveglianza della popolazione civile, senza alcun controllo da parte della magistratura.
La mossa era da attendersi, visto il memorandum rilasciato solo un mese prima, che imponeva al dipartimento della Guerra una politica “Ai first” con diktat su come potenziare lo sviluppo e la sperimentazione di agenti per la gestione delle operazioni di combattimento e il supporto decisionale basati sull'Ai, dalla pianificazione della campagna all'esecuzione della “kill chain” Un linguaggio da far accapponare la pelle, il cui significato è fin troppo chiaro: prevedere l’uso di modelli linguistici per calcolare gli obiettivi (come già fatto da Israele), arrivando a creare una kill chain, ossia una catena di montaggio degli omicidi automatizzati. Il software utilizzato per questa operazione?
Il modello Claude, di Anthropic. Quindi, l’azienda che -almeno in apparenza- si sta coraggiosamente scontrando con il “cattivo” Hegseth per imporgli limiti sugli usi più scandalosi dell’Ai ha già, nei fatti, violato quei limiti che dichiara di voler presidiare.
Questo apparente ossimoro è facilmente spiegato: una volta creati sistemi in grado di uccidere senza intervento umano, sperare che vengano “usati bene” grazie all’etica dell’utilizzatore è, per l’appunto, una pia speranza. È necessario intervenire prima, avendo il coraggio di bandire alcune tecnologie.
A questo punto il bombardamento della scuola Minab il 28 febbraio 2026 -con le sue 175 vittime, in maggioranza bambine- assume l’aspetto di una terrificante conseguenza logica. Secondo i giornalisti investigativi statunitensi l’ipotesi più probabile è che Claude abbia commesso un errore: o per mancanza di sufficienti dati (le cosiddette “allucinazioni”), o perché i dati con cui era stato ottimizzato non erano stati aggiornati.
A quel punto il bombardamento ha cancellato la scuola dall’isolato occupato in larga parte da un edificio della marina militare, eguagliando il territorio alla mappa, come preteso dai creatori di Claude. Altrettanto conseguente pare, a questo punto, l’ultima notizia di cui vogliamo dare atto: il regime iraniano ha dichiarato che dal primo di aprile di quest'anno considera le sedi di 18 aziende high tech statunitensi che può raggiungere con i suoi sistemi di bombardamento “obbiettivi legittimi”, a meno che il governo Usa non cessi i suoi attacchi.
Forse l’idea di non sviluppare tecnologia militare, come prevedeva il regolamento originale di Google, non era solo una scelta etica. Era soprattutto una scelta saggia.
“Scatole oscure. Intelligenza artificiale e altre tecnologie del dominio” è una rubrica a cura di Stefano Borroni Barale.
La tecnologia infatti è tutto meno che neutra. Non è un mero strumento che dipende unicamente da come lo si usa, i dispositivi tecnici racchiudono in sé le idee di chi li ha creati.
Per questo le tecnologie “del dominio”, quelle che ci propongono poche multinazionali, sono quasi sempre costruite come scatole oscure impossibili da aprire, studiare, analizzare e, soprattutto, cambiare. Ma in una società in cui la tecnologia ha un ruolo via via più dispositivo (e può quindi essere usata per controllarci) aprire e modificare le scatole oscure diventa un esercizio vitale per la partecipazione, la libertà, la democrazia.
In altre parole: rompere le scatole è un atto politico. Stefano Borroni Barale (1972) è laureato in Fisica teorica presso l’Università di Torino.
Inizialmente ricercatore nel progetto EU-DataGrid (il prototipo del moderno cloud) all’interno del gruppo di ricerca dell’Istituto nazionale di fisica nucleare (Infn), ha lasciato la ricerca per lavorare nel programma di formazione sindacale Actrav del Centro internazionale di formazione dell’Ilo. Oggi insegna informatica in una scuola superiore del torinese e, come membro di Circe, conduce corsi di formazione sui temi della Pedagogia hacker per varie organizzazioni, tra cui il ministero dell’Istruzione.
Sostenitore del software libero da fine anni Novanta, è autore per Altreconomia di “Come passare al software libero e vivere felici” (2003), una delle prime guide italiane su Linux e altri programmi basati su software libero e “L’intelligenza inesistente. Un approccio conviviale all’intelligenza artificiale” (2023). © riproduzione riservata L'articolo “Del rigore nella scienza”:
Borges, Anthropic e gli effetti della fede cieca in mappe infallibili proviene da Altreconomia.