top of page
ahida_background.png

scienza e politica

  • Immagine del redattore: Giorgio Griziotti
    Giorgio Griziotti
  • 9 ore fa
  • Tempo di lettura: 7 min

Giocare con il fuoco

Michael J. Maloney
Michael J. Maloney

Il testo prende avvio dalle riflessioni di Graham D. Burnett, docente alla Università di Princeton, che descrive l’intelligenza artificiale come una “nuova creatura” capace di competenze enciclopediche e di trasformare profondamente le scienze umane attraverso una co-produzione dinamica del sapere. Se da un lato l’IA accelera e densifica la ricerca, mettendo in discussione l’autorità epistemica dell’umano, dall’altro richiede una costante regia critica per evitare interferenze e dipendenze.

Il testo amplia poi lo sguardo agli ambiti scientifici e soprattutto politico-militari, denunciando l’uso dell’IA nei conflitti – dalla guerra in Ucraina alle operazioni di Israele – e il ruolo di aziende come Palantir Technologies. Ne emerge il rischio di una “necropolitica computazionale”, in cui l’IA diventa infrastruttura di dominio e automazione della violenza. A questi link è possibile trovare il primo, il secondo e il terzo articolo sul tema dell'intelligenza artificiale dello stesso autore.



La citazione che segue è tratta da un articolo intitolato Le scienze umane sopravviveranno all’intelligenza artificiale? di Graham D. Burnett1, storico delle scienze e saggista statunitense, che insegna all’Università di Princeton. Dopo aver sperimentato a lungo l’IA personalmente e averla fatta utilizzare ai suoi studenti in compiti in classe con risultati sorprendenti («Leggere i risultati, sul divano del mio soggiorno, si è rivelata l’esperienza più profonda della mia carriera di insegnante… ho avuto la sensazione di assistere alla nascita di un nuovo tipo di creatura»), Burnett arriva a questa considerazione:


Sono un essere umano che legge e scrive libri – formato in una quasi monastica devozione allo studio canonico della storia, filosofia, arte e letteratura. Ma già ora, le migliaia di volumi che riempiono il mio ufficio iniziano a sembrare reperti archeologici. Perché usarli per rispondere a una domanda? Sono così inefficienti, così eccentrici nei loro percorsi.

Ora posso avere una conversazione lunga e personalizzata su qualsiasi argomento mi interessi, dall’agnotologia alla zoosemiotica, con un sistema che ha effettivamente raggiunto la competenza da dottorato in ciascuno di essi. Posso costruire il «libro» che voglio in tempo reale, reattivo alle mie domande, centrato sul mio interesse, sintonizzato con lo spirito della mia ricerca. La cosa stupefacente è che la produzione di libri come quelli sugli scaffali – frutto di anni o decenni di lavoro – sta rapidamente diventando questione di prompt ben congegnati. Il punto non è più «possiamo scriverli?»; sì, possono essere scritti all’infinito, per noi. Il punto è: vogliamo ancora leggerli?


La testimonianza del professore «liberal», che non si fa alcuna illusione sulle finalità estrattive dell’IA, mette in evidenza come, negli scambi con i ricercatori di Scienze Umane, essa porti non solo una finezza linguistica nella manipolazione dei pattern, ma anche una portata enciclopedica. Burnett ne conclude che questo cambierà in profondità le Scienze Umane.

Impatti analoghi si osservano in innumerevoli campi di ricerca e attività umane. Un esempio significativo riguarda la biologia strutturale: l’IA ha permesso di determinare la struttura tridimensionale di centinaia di milioni di proteine in pochi anni, mentre con la cristallografia a raggi X in decenni se ne erano identificate solo decine di migliaia – un salto che ha implicazioni decisive per la comprensione dei meccanismi biologici e lo sviluppo farmaceutico2.

Tornando alle scienze umane, Burnett è meravigliato dal prodotto di questa nuova «creatura» nata dall’interazione fra le due entità, e al tempo stesso è un po’ preoccupato per la rimessa in discussione dell’autorità epistemica dell’umano nel suo campo di ricerca.

Ricercatori come Burnett e i suoi allievi, impegnati in ambiti altamente specializzati, riescono a co-produrre con l’IA risultati difficilmente ottenibili altrimenti, non solo per la finezza linguistica, ma anche per la capacità di mobilitare istantaneamente un patrimonio concettuale e terminologico che nessuna enciclopedia, nemmeno online, potrebbe fornire in modo altrettanto dinamico e situato. Il risultato è sempre l’esito di un’interazione, e specialmente in un contesto di ricerca, la co-produzione è in qualche modo equilibrata e può essere arricchente e proficua, perché negarlo?

Non si può analizzare una tecnologia come l’intelligenza artificiale senza averla sperimentata dall’interno. È nell’interazione che si producono i suoi effetti e la conoscenza stessa. Per questo ho scelto di impiegarla a fondo anche nella scrittura di questo saggio, mettendone alla prova funzionamento e limiti. L’esperienza conferma quanto detto: il chatbot si rivela efficace nel reperire informazioni e, in parte, nell’editing, per affinare il linguaggio, ma con la tendenza a generare ridondanze che richiedono continua vigilanza e pulizia. Il confine tra aiuto e interferenza resta sottile, e il lavoro di discernimento è insostituibile. Allo stesso tempo, quando l’interazione è guidata con istruzioni dettagliate e strutturate sui contenuti e sullo stile richiesto, l’IA non si limita a correggere o fornire dati: può accelerare e densificare un’intuizione già in atto, mettendola subito in gioco attraverso esempi pertinenti, variazioni argomentative e una notevole ampiezza espressiva. Qui emerge quello che potremmo chiamare un effetto Burnett: una capacità enciclopedica di rintracciare rapidamente riferimenti e connessioni che non sarebbero immediatamente accessibili, redigendole nello stile richiesto. Questo saggio è dunque una co-produzione, come qualsiasi altro artefatto. L’impressione che ne ricavo non è di aver risparmiato tempo e fatica, ma eventualmente di aver guadagnato in densità argomentativa – anche se il giudizio spetta ai lettori. Tutto questo vale però solo finché si è in grado di mantenere effettivamente la regia critica dell'interazione – ed è proprio questa capacità che non può essere data per scontata.

La situazione è diversa negli usi generalisti dell’IA, come quelli elencati in precedenza, destinati a diffondersi tra la maggioranza della popolazione. Oltre a funzionare come veri e propri giacimenti da cui le global platform continuano a estrarre il petrolio cognitivo, per loro stessa natura producono una forma di dipendenza individuale e collettiva ancora più profonda e pervasiva.

La questione però non si ferma all’estrazione di valore o alla dipendenza cognitiva. Quando sistemi algoritmici acquisiscono il potere di automatizzare decisioni su larga scala – su chi sorvegliare, chi escludere, chi designare come bersaglio – entriamo in un territorio radicalmente diverso: quello della necropolitica computazionale.

L’IA diventa infrastruttura letale della violenza politica e militare: droni autonomi che, già oggi nella guerra in Ucraina, nella fase finale dell’attacco operano senza connessione umana3, mine vaganti intelligenti, e sciami di dispositivi coordinati a cui viene delegato il diritto di vita e di morte.

Ci viene ripetuto che, oltre a fornire «comfort individuale», l’IA attuale rivoluzionerà tutti i campi della tecnoscienza, in particolare quelli legati alla vita e al vivente (biologia, medicina, ecc.). Ma ciò che vediamo avanzare, se non riusciremo a bloccarlo, non sono progressi per la cura e la conoscenza, bensì per la guerra e la morte.

Hitler e il nazismo avevano ideato e realizzato il genocidio di milioni di persone attraverso i mezzi pesanti del capitalismo industriale: dai treni della morte ai campi di sterminio, fino alle camere a gas. Oggi, un altro regime criminale – quello dello Stato di Israele – grazie soprattutto alle complicità attive dell’imperialismo statunitense e dei suoi vassalli dell’UE, ricorre sistematicamente all’intelligenza artificiale per attuare il genocidio del popolo palestinese. Sistemi d’IA come Lavender e Where’s Daddy? hanno registrato solo nei due primi anni di guerra almeno 37.000 palestinesi come sospetti militanti, trasformando le loro case in obiettivi per attacchi aerei4. Secondo ufficiali dell’intelligence israeliana coinvolti direttamente nell’uso di questi sistemi durante la guerra a Gaza, il personale umano fungeva solo da «timbro di approvazione», dedicando spesso solo 20 secondi a ciascun obiettivo prima di autorizzare un bombardamento. Dalle migliaia di cercapersone e dispositivi Hezbollah fatti esplodere in modo coordinato dal Mossad, all’automazione delle decisioni di morte che hanno prodotto decine di migliaia di vittime civili, emerge l’impiego genocidario dell’IA come vera e propria kill-chain algoritmicamente guidata.

Nel luglio scorso il Pentagono ha affidato a Palantir di Peter Thiel (un’ex start-up da più di 400 miliardi di dollari) un contratto da 10 miliardi, che delega irreversibilmente a un’azienda privata funzioni di comando, monitoraggio e analisi militare, segnando un vero trasferimento di sovranità alle logiche aziendali e algoritmiche. E non si tratta di un’azienda qualsiasi, Peter Thiel, grande elettore di JD Vance, è un ideologo del tecnofascismo per cui «la libertà non è più compatibile con la democrazia». Esiste ormai una cartografia5 che mostra come i techno-oligarchi statunitensi stiano investendo e infiltrando le istituzioni nazionali – dal «Ministero della guerra» alle polizie speciali come l’ICE – trasformandole in un complesso autoritario in cui l’intelligenza artificiale diventa strumento di repressione e, se necessario, di annientamento. Un’evoluzione resa ancora più inquietante dal fatto che l’amministrazione statunitense tende ormai a ridefinire come «terroristiche» le forze sociali e politiche antagoniste, integrando la guerra interna e quella esterna in un medesimo dispositivo algoritmico di dominio. Nelle mani dei regimi cybernazisti – come quello israeliano (Israele, nonostante l’esiguità di popolazione e territorio, è da tempo una delle prime potenze mondiali delle tecnologie dell’informazione e della comunicazione) e, soprattutto, degli Stati Uniti – queste megamacchine appaiono destinate non solo a governare le nuove modalità di estrazione di valore e l’organizzazione totalitaria del lavoro sociale, ma anche ad aprire la strada a forme di violenza strutturale e tecnologicamente mediate del tutto inedite: genocidi algoritmici e accelerazione del caos ecologico, che non solo si sommano ai mezzi distruttivi tradizionali, ma sono persino in grado di guidarli e potenziarli. Una violenza fondata su infrastrutture di sorveglianza, decisioni automatizzate e pratiche di deresponsabilizzazione umana, che proprio per questo diventa più «efficiente», replicabile e difficilmente imputabile.


1 Burnett, D. Graham, Will the Humanities Survive Artificial Intelligence?, «The New Yorker», 26 aprile 2025. Ringrazio Tiziana Terranova per avermi segnalato questo articolo, così come quello di Colin Fraser citato in precedenza.

2 Il riferimento è ad AlphaFold (DeepMind/Google), sistema basato su reti neurali per la predizione di strutture proteiche – non un’IA linguistica come i Large Language Models, ma un’IA specializzata in biologia molecolare. Ringrazio Gianfranco Pancino per questa segnalazione.

3 Ukraine: sur le champ de bataille, l’IA décuple la précision des frappes, «Le Monde», 14 novembre 2025, https://www.lemonde.fr/international/article/2025/11/14/ukraine-sur-le-champ-de-bataille-l-ia-decuple-la-precision-des-frappes_6653426_3210.html. L’articolo documenta come i droni militari dotati di IA diventino completamente autonomi nella fase finale dell’attacco, quando perdono la connessione con gli operatori umani, rendendo impossibile interrompere l’operazione letale.

4 Lavender identifica sospetti militanti, mentre Where’s Daddy? li localizza nelle loro abitazioni per assassinarli insieme alle famiglie – un nome di terribile cinismo che trasforma l’intimità domestica del «dov’è papà?» in algoritmo di sterminio familiare. L’influenza dell’IA è stata tale che i militari trattavano i risultati «come se si trattasse di una decisione umana». Cfr. I sistemi di intelligenza artificiale che dirigono i raid di Israele a Gaza, valori.it, 4 maggio 2024, https://valori.it/intelligenza-artificiale-gaza-israele/

bottom of page