top of page
ahida_background.png

scienza e politica

  • Immagine del redattore: Giorgio Griziotti
    Giorgio Griziotti
  • 1 giorno fa
  • Tempo di lettura: 13 min

Come sopravvivere all’Intelligenza artificiale. IA, tecnofascismo e guerra


Robin Tomens
Robin Tomens
Dove la meta-automazione introdotta con l’intelligenza artificiale generativa tende a chiudere l’indeterminato dentro la previsione calcolabile, la metatecnica umana – situata, relazionale, storica – apre varchi nell’inconoscibile. Non c’è apprendimento profondo che possa emulare questa apertura radicale, perché essa non è funzione, ma soglia. ChatGPT

«Loro avevano l’algoritmo, noi l’anomalia. Loro l’addestramento, noi l’invenzione». Il Boomernauta


Il termine «intelligenza artificiale» (IA) copre diversi ambiti e denominazioni. In questo saggio quando parlo di IA, al singolare o al plurale – intendendo in questo secondo caso le varie implementazioni correnti come ChatGPT, Deepseek o Claude – mi riferisco, se non specificato diversamente, all’intelligenza artificiale generativa applicata specificamente al linguaggio: la famiglia di tecniche che, applicando modelli di machine learning a dataset enormi, produce large language models (LLM), ovvero modelli linguistici in grado di creare nuovi contenuti. Per chiarire metaforicamente il rapporto tra questi elementi:


  1. Il Dataset è la biblioteca universale di testi, la materia prima.

  2. Il Machine Learning è il metodo di studio che permette di apprendere da quella biblioteca.

  3. Il LLM è il risultato di questo processo: una «mente» esperta che ha interiorizzato le regole del linguaggio.

  4. L’IA Generativa è la capacità di questa mente di agire creativamente, generando testi originali.

  5. Il Chatbot è l’interfaccia conversazionale con l’IA, che usa il linguaggio naturale.



Per definizioni più dettagliate si veda il Glossario




Premessa


Il pamphlet statunitense degli anni ’50 How to Survive an Atomic Bomb1 non fu solo un manuale pratico: trasformava l’incubo nucleare della Distruzione Mutualmente Assicurata2 in una sequenza di azioni individuali e gestibili, offrendo all’individuo un’illusione di controllo e agency (capacità di agire) di fronte a una minaccia che lo sovrastava.Con l’intelligenza artificiale (IA) la dinamica cambia: non siamo di fronte a una catastrofe possibile, ma immersi in una catastrofe già in corso. Nei discorsi dominanti spesso si oscilla tra narrazioni opposte e semplificate: l’IA come minaccia di dominio delle macchine, come promessa salvifica capace di rimediare al caos a cui il capitalismo ci sta conducendo, oppure come strumento transumanista di potenziamento destinato a creare una nuova élite «aumentata». Probabilmente le cose non stanno proprio così, e per questo mi sembra opportuno avviare un’indagine per affrontare l’insieme dei fenomeni complessi generato in questo nuovo contesto in cui l’IA è entrata a far parte del paesaggio quotidiano.Questo saggio vuole gettare le basi per un discorso più ampio, adottando un approccio specifico e limitando per il momento l’analisi a linee di indagine centrali. Si tratta di direttrici che non esauriscono il quadro complessivo, ma che consentono di iniziare a tracciare un percorso.Come approccio si propone di affrontare politicamente, socialmente ed economicamente questo salto tecnologico adottando una prospettiva che prende la fisica quantistica come quadro reale della natura, superando l’illusione di un modello puramente newtoniano. In coerenza con questa impostazione quantistica, si adotta una metodologia «diffrattiva», che intreccia i riferimenti del materialismo storico con quelli dei nuovi materialismi. Il primo passo è situare l’IA nel contesto storico. Come ogni tecnologia essa non nasce in astratto, ma si sviluppa dentro precise condizioni storiche, politiche e socio-tecniche, fino a infiltrarsi in quasi ogni sfera della vita – anche se, a dispetto degli ingenti investimenti e dei proclami roboanti (da Trump in giù), il suo modello economico capitalista resta tutt’altro che consolidato. Il corpo dello scritto, è costituito da un’analisi dell’IA come realtà relazionale articolata in due prospettive complementari. Nell’una si esaminano le dinamiche, le modalità e le responsabilità attraverso cui l’IA viene modellata, costituita e plasmata: chi la costruisce, con quali interessi, dentro quali rapporti di potere, secondo quali logiche estrattive o distributive. Nell’altra prospettiva si indagano i fenomeni che si producono nella sua progressione pervasiva, quegli effetti che eccedono l’utilizzazione intenzionale da parte degli umani e che emergono dall’interazione complessa tra algoritmi, infrastrutture materiali e contesti sociali ed ecologici.Questi due aspetti non sono disgiunti ma profondamente intrecciati. Le loro connessioni avvengono nello spaziotempomateria: quella dimensione in cui spazio, tempo e materia costituiscono un continuum inseparabile. Inoltre l’IA è una perfetta incarnazione dell’inseparabilità tra dimensione materiale e dimensione discorsiva, essendo al tempo stesso infrastruttura fisica concreta e produzione incessante di linguaggio. Abbandonata ai tecnofascisti, viene fatta gonfiare smisuratamente in entrambe le direzioni – infrastrutture ecocide da un lato, narrazioni compiacenti dall’altro – fino a esplodere come una bomba atomica confortevole e leccaculo.L’epilogo cercherà di individuare come generare, dai segnali che già si manifestano, le deviazioni infinitesimali capaci di sottrarre Gaia – e noi in essa – alla traiettoria da incubo che la sta travolgendo.



Approccio: uscire dagli schemi newtoniani


Non esiste una definizione scientifica univoca di «intelligenza», eppure nella retorica corrente l’IA viene spesso costretta tra la riduzione a mero algoritmo statistico e, all’opposto, la rappresentazione di una minaccia sovrumana.Queste contrapposizioni, fondate sulla logica competitiva che oppone intelligenze delle macchine a quella umana intesa in senso individuale – ignorando ogni forma di intelligenza collettiva e più-che-umana3 – risultano fuorvianti e vanno contestate.

Esse poggiano su uno schema newtoniano che immagina gli esseri umani come entità già costituite, portatrici di una soggettività e di un sapere predeterminati, mentre le macchine – a lungo concepite come oggetti già dati, governati da leggi causali e manipolabili dall’esterno – tendono oggi a essere considerate potenzialmente ingovernabili, dotate di un’autonomia che sfugge al controllo umano.

È la stessa logica di un’ontologia antropocentrica che in Occidente affonda le sue radici nella Grecia antica e che, nell’epoca storica del capitalismo, ha prodotto processi sociali e materiali entrati in una fase di accelerazione esponenziale e distruttiva.

Nel XX secolo il materialismo storico ha sovvertito le spiegazioni idealiste della storia, spostando il fuoco su condizioni materiali, rapporti di produzione e lotta di classe. Tuttavia ha spesso mantenuto un’impostazione determinista legata al paradigma meccanicistico del positivismo, con leggi «scientifiche» come quella sulla caduta del saggio di profitto4 e il crollo del capitalismo.Questa tensione fra determinismo e trasformazione è esemplificata da Carlo Rovelli in Helgoland, quando richiama il conflitto fra Lenin e Bogdanov:


La rivoluzione russa, argomenta Bogdanov nei turbolenti anni che seguono questa rivoluzione, ha creato una struttura economica nuova. Se la cultura è influenzata dalla struttura economica, come ha suggerito Marx, allora la società post-rivoluzionaria deve poter produrre una cultura nuova che non può più essere il marxismo ortodosso concepito prima della rivoluzione… Bogdanov predice che il dogmatismo di Lenin congelerà la Russia rivoluzionaria in un blocco di ghiaccio che non evolverà più, soffocherà le conquiste della rivoluzione e diventerà sclerotico. Parole profetiche, anche queste.5


Dopo il braccio di ferro vinto da Lenin – in uno scontro che non era una semplice disputa teorica ma investiva l’intera concezione della rivoluzione e della sua organizzazione6 che avrebbe condotto allo stalinismo – si affermò la meccanica quantistica, frutto del lavoro collettivo di Heisenberg, Bohr, Schrödinger e altri, che sovvertì la visione deterministica della fisica classica, quasi a dar ragione a Bogdanov. Il mondo reale non obbedisce a leggi meccanicistiche, ma si muove secondo dinamiche di indeterminazione e reti complesse – così come le tecnologie digitali avanzate, che sfuggono a ogni tentativo di ridurle a schemi lineari. Diventa urgente superare il dualismo tra soggetto e tecnica: umano e macchina non esistono come entità separate, ma si co-costituiscono nell’interazione. Marx colse le macchine come cristallizzazioni di rapporti sociali e lavoro accumulato, ma rimase prevalentemente legato a una visione in cui esse apparivano come oggetti già costituiti dal lavoro umano, piuttosto che come entità che si costituiscono relazionalmente nell’uso e nel contesto.

In seguito Simondon intuì che le macchine non sono oggetti fissi ma processi in divenire, definiti dalle reti di relazioni in cui si inseriscono («Individui tecnici definiti da reti di relazioni»). Rielaborando questa intuizione possiamo vedere le macchine come il risultato di pratiche concrete e discorsi che si accumulano nel tempo, portando con sé scelte politiche e responsabilità umane precise. Non sono entità fisse: prendono forma solo nelle interazioni che le mettono in azione.Non si tratta dunque di opporre l’IA all’utente umano come due entità separate: ciò che conta è l’intreccio di relazioni che coinvolge persone, algoritmi, infrastrutture materiali, logiche economiche e assetti politico-sociali. È in questo spazio che emergono le dinamiche decisive per comprendere come l’IA agisca e venga agita.L’indagine deve allora concentrarsi sia sugli effetti concreti e simbolici generati dagli incontri tra umani e IA, sia sugli orientamenti politici e le responsabilità già incorporati nei sistemi tecnologici che modellano tali incontri. In questo senso, l’approccio diffrattivo di Karen Barad7 offre uno strumento prezioso. La metafora è fisica: quando un’onda incontra un ostacolo si diffrange generando nuove forme (pattern) di interferenza. Applicato al pensiero, significa non fermarsi alla dinamica biologica del rispecchiamento – riconoscimento, imitazione, empatia mediati anche dai neuroni specchio – né a quella culturale della riflessione, che tende comunque a restituirci ciò che già conosciamo, ma aprirsi invece a interferenze produttive, a scomposizioni capaci di generare traiettorie inattese. Questo vale anche per la pratica politica contemporanea, inclusa quella di sinistra, spesso intrappolata nello schema del «già noto». La diffrazione consente invece di riorientare pensiero e pratiche, trasformando le condizioni stesse di ciò che può accadere nelle interazioni tra umani e macchine.Un approccio diffrattivo ci porterà a interpretare l’intelligenza artificiale non come mero specchio sociale, né solo come automazione al servizio del capitale di quel sapere collettivo che Marx chiamava general intellect. L’IA ha invece un ruolo attivo nel produrre la realtà insieme a noi e oltre.Questo significa andare oltre la denuncia dei pregiudizi dell’IA come semplici riflessi di bias umani contenuti nei dati di addestramento 8 – denuncia che spesso si riduce al suggerimento di correttivi tecnici o filtri migliori. O ancora: chi definisce cosa sia una risposta «naturale»? E come l’interazione fra utente e dispositivo crei significati imprevisti, non riducibili ai soli input iniziali?In questo modo, l’approccio diffrattivo evidenzia anche gli effetti delle interazioni tra umani e IA: mostra come le scelte progettuali, le decisioni politiche, le pratiche sociali e i dati incorporati nel sistema influenzino concretamente i risultati, rendendo visibili responsabilità che altrimenti resterebbero nascoste. Più in generale, mette in luce come questa co-produzione non si limiti a organizzare la suddivisione del lavoro produttivo nel capitalismo contemporaneo, ma contribuisca attivamente alla formazione e al mantenimento di ordini sociali, gerarchie conoscitive e configurazioni ecologiche: quali corpi (umani e nonumani) vengono valorizzati o scartati, quali saperi legittimati o repressi, quali metabolismi energetici e materiali vengono imposti a Gaia.



Situare l’IA nel contesto


Neurocapitalismo e IA

Nel 2016 usciva il mio libro Neurocapitalismo9, in cui ho cercato di mettere in luce le profonde mutazioni prodotte dal salto paradigmatico delle tecnologie dell’informazione e della comunicazione (TIC) avvenuto a cavallo tra la fine del secolo scorso e l’inizio del nuovo.

Con un approccio genealogico evidenziavo come queste tecnologie non fossero soltanto prodotti dei grandi centri di ricerca delle corporation o degli apparati militari della Guerra Fredda, ma riflettessero anche l’energia creativa e cooperativa della rivoluzione anticapitalista e anti-imperialista degli anni ’60 e ’70.

Pur sconfitta politicamente, quella stagione aveva lasciato tracce profonde, fornendo basi tecniche e immaginative per un mondo digitale in cui la tecnica poteva diventare strumento di democratizzazione del sapere e liberazione dell’intelligenza collettiva – come testimoniano lo spirito originario di Internet e del free software – poi progressivamente catturati ed espropriati dal capitale.

Ed è proprio a partire da questa dinamica di cattura del comune e sussunzione dell’intelligenza collettiva che la scelta di sintetizzare tale trasformazione con il termine neurocapitalismo – non esclusivo, ma ormai intimamente legato al libro – rispondeva all’esigenza di nominare una mutazione profonda della logica capitalistica, in cui emozioni, cognizione, relazioni, desideri e affetti diventano simultaneamente materia prima della valorizzazione e variabili di aggiustamento per il controllo sociale.

Una delle tesi centrali del libro era che questa mutazione strutturale non fosse riducibile a una semplice invenzione o a un «prodotto» della transizione del capitalismo dall’epoca industriale a quella del capitalismo cognitivo, o persino biocognitivo. Snodi fondamentali di questo cambiamento furono, in ordine di tempo, Internet, la rapida diffusione di miliardi di dispositivi mobili individuali (smartphone) e il controllo esercitato dalle global platform – vere megamacchine contemporanee – soprattutto attraverso i social media. Ciò che conta davvero, tuttavia, non è tanto la cosiddetta «innovazione» in sé, quanto le nuove relazioni sociali, politiche ed economiche in cui essa è implicata. Alla base vi era la nozione di bioipermedia10 , cioè uno spazio emergente di nuovi entanglement11 (forme di interdipendenza profonda in cui le entità rimangono correlate anche a distanza), in cui corpi biologici, reti digitali e macchine di interconnessione si intrecciano non solo materialmente, ma anche nei continui processi di produzione e circolazione del senso, costituendo insieme la realtà in cui operano. Oggi Asma Mhalla12 riprende quel discorso sul neurocapitalismo, che riguardava la generazione Zuckerberg-Bezos dei social media e dell’e-commerce, aggiornandolo alla nuova dei tecno-bros trumpiani dell’intelligenza artificiale:


Le figure dell’ultra-tecnologia come Elon Musk, Peter Thiel e Sam Altman non si limitano a immaginare un futuro: lo programmano. Il loro progetto non consiste nell’aumentare l’umano, come pretendono, ma nel riconfigurarlo dalle fondamenta. È un progetto di in/civilizzazione di un’ampiezza inedita. Tutte le loro infrastrutture – cloud, IA, biotecnologie e dati – sono infrastrutture dell’intimo. Operano sui nostri desideri, le nostre routine, i nostri corpi.


Il modello neurocapitalista ha a lungo garantito forme efficaci di controllo, plasmando soggettività e comportamenti attraverso dispositivi digitali e reti di influenza. Oggi, tuttavia, rivela i propri limiti. La sua capacità di produrre consenso si incrina necessariamente quando le moltitudini si trovano immerse in un degrado materiale crescente, sullo sfondo di una crisi ecologica e sociale sempre più profonda. Il controllo «soft» non basta più: le tensioni diventano sistemiche.

La storia, a partire dal primo conflitto mondiale, insegna che il capitalismo tende a rispondere alle proprie contraddizioni strutturali attraverso la guerra: non solo la guerra come evento, ma come regime permanente, come tendenza alla guerra civile globale.13

È precisamente in questo scenario che va collocato l’emergere dell’intelligenza artificiale.



Tamburi di guerra


Nel XX secolo movimenti rivoluzionari dal basso, composti da moltitudini spesso prive di istruzione, riuscivano a cambiare il corso della storia – basti pensare alla Cina che passa da paese semi-colonizzato a grande potenza mondiale.Oggi, invece, nonostante livelli senza precedenti di scolarizzazione e un ambiente tecnologico pervasivo, ci troviamo di fronte a un’ondata autoritaria, xenofoba e restauratrice, soprattutto, ma non solo, nel Nord globale.14Questo apparente paradosso non si spiega soltanto con la svolta controrivoluzionaria seguita ai movimenti degli anni Settanta o con la caduta del blocco sovietico. È l’esito di un mezzo secolo di sedicente neoliberismo15 che, dietro la retorica della libertà e dell’innovazione, ha progressivamente eroso i legami sociali, privatizzato l’immaginario e addestrato le soggettività alla competizione e alla paura. Il neurocapitalismo, con la sua colonizzazione dell’attenzione e degli affetti, ha costituito l’infrastruttura cognitiva e sensibile di questa mutazione, senza però poter cancellare del tutto l’eccedenza imprevedibile della rivolta – quell’eccesso di significato e di vita che sfugge anche agli algoritmi dell’IA più sofisticata. Non si tratta di «resilienza» nel senso di adattabilità al sistema esistente – un termine ormai abusato dal management tecnocratico – ma di una capacità di rottura che attraversa corpi umani, ecosistemi viventi e dispositivi tecnici.Di fronte a una crisi sistemica ormai manifesta – sociale, politica, ecologica, economica, energetica, demografica – anche le ex democrazie rappresentative si riorganizzano in entanglement Stato-capitale fondati su logiche oligarchiche e imperiali. L’esempio più eclatante è quello degli Stati Uniti della seconda amministrazione Trump. Su questo sfondo, le governance contemporanee pensano di contare su soggettività già modellate da decenni di manipolazione percettiva e affettiva: un terreno fertile per la riemersione di forme di potere apertamente autoritarie. La gestione della paura — della perdita, dell’incertezza, del “diverso” — diventa allora la nuova brutale modalità di una governance tecnofascista.16Su questo sfondo, le governance contemporanee pensano di contare su soggettività già modellate da decenni di manipolazione percettiva e affettiva: un terreno fertile per la riemersione di forme di potere apertamente autoritarie. La gestione della paura – della perdita, dell’incertezza, del «diverso» – diventa allora la nuova brutale modalità di una governance tecnofascista.17 Ma i segnali di insofferenza della Generazione Z (Gen Z) cominciano a moltiplicarsi, mettendo in discussione questa presunta docilità.Di fronte a questa insofferenza crescente, il potere cerca nuove forme di sedazione: il comfort senza precedenti offerto dall’IA dei tecno-oligarchi alleati del potere potrebbe funzionare da nuovo oppio dei popoli?È in questo scenario di crisi sistemica e di regime di guerra che l’intelligenza artificiale emerge non come strumento tecnologico, ma come un ulteriore nodo critico di potere e controllo che si vuole come definitivo. La sua apparizione nel quadro appena delineato rende necessaria un’indagine su alcuni aspetti salienti della sua natura costitutiva: come si intreccia con l’intelligenza umana, quali potenzialità dischiude e, soprattutto, quali rischi concreti porta con sé.


1 How to Survive an Atomic Bomb è un rassicurante manuale di protezione civile pubblicato negli Usa nel 1950 da Richard Gerstell. Guy Debord, nella Société du spectacle (1967), ne mostra l’assurdità ideologica: non strumento di salvezza, ma dispositivo per addestrare la popolazione ad accettare la catastrofe come normalità amministrabile.

2 Il dottor Stranamore (film di Stanley Kubrick, 1964).

3 Il «più-che-umano» (more-than-human) indica che le capacità trasformative non appartengono solo agli esseri umani, ma emergono da relazioni tra umani, animali, organismi, tecnologie e ambienti materiali. È un concetto sviluppato da Haraway e dai nuovi materialismi per superare la visione antropocentrica che vede l’uomo come unico agente attivo.

4 Nella teoria marxista indica la tendenza, nel capitalismo, alla diminuzione del rapporto tra profitto e capitale investito, dovuta alla crescente sostituzione del lavoro umano (che solo produce valore) con macchine e tecnologie.

5 Rovelli Carlo, Helgoland, Milano, Adelphi, 2020, p.134

6 Lenin dedicò quasi un anno (1908-1909) alla stesura di Materialismo ed empiriocriticismo (Roma, Editori Riuniti, 1973) per contrastare le posizioni di Bogdanov, segnale della portata strategica dello scontro.

7 Per approfondire la teoria della diffrazione di Barad, si consiglia di consultare il secondo capitolo del suo libro Meeting the Universe Halfway: Quantum Physics and the Entanglement of Matter and Meaning, intitolato Diffractions: Differences, Contingencies, and Entanglements That Matter. In questo capitolo, Barad esplora come la diffrazione, un fenomeno fisico che descrive la deviazione delle onde quando incontrano ostacoli o aperture, possa essere applicata come metodologia epistemologica per analizzare le interazioni tra materia e significato.

8 Nel riconoscimento facciale, per esempio, il problema non è solo il bias nei dati, ma l’intreccio tra metriche di accuratezza, usi polizieschi e storie di marginalizzazione, o allora la pratica di una profilazione economica che indirizza la precarietà verso determinati settori sociali.

9 Giorgio Griziotti, Neurocapitalismo. Mediazioni tecnologiche e linee di fuga, Mimesis, Milano-Udine, 2016.

10 Il bioipermedia è l’ambiente dell’insieme delle continue interconnessioni e interazioni dei sistemi nervosi e dei corpi con il mondo tramite dispositivi, applicazioni e infrastrutture reticolari. Per estensione, la sfera bioipermediatica diventa l’ambito in cui la compenetrazione delle coscienze umane con queste tecnologie è talmente intima da generare una co-costituzione, con modificazioni e simulazioni reciproche.

11 Entanglement è un concetto della fisica quantistica che descrive una forma di interdipendenza profonda fra entità, tale per cui esse non possono essere considerate come parti autonome e separate: rimangono correlate anche quando si trovano a grande distanza. Questa connotazione così precisa è tale per cui le traduzioni italiane (intreccio, correlazione quantistica, inestricabilità, connessione non locale…) sono tutte riduttive.

12 Asma Mhalla , « Elon Musk, Peter Thiel et Sam Altman ne se contentent pas d’imaginer un futur: ils le programment» Usbek &Rica, 22/09/2025, https://usbeketrica.com/fr/article/asma-mhalla-elon-musk-peter-thiel-et-sam-altman-ne-se-contentent-pas-d-imaginer-un-futur-ils-le-programment

13 Lazzarato M., Guerra civile mondiale?, DeriveApprodi, Bologna 2024.

14 Forse è necessario risalire anche a un limite strutturale del pensiero marxiano che, pur nella potenza della sua analisi, ha posto al centro la classe operaia europea, senza chiarire fino in fondo che la sua stessa esistenza – e più in generale la nascita del capitalismo industriale in Europa – è stata resa possibile dallo sfruttamento coloniale, dal lavoro gratuito nei territori colonizzati e dall’estrattivismo senza limiti.

15 Ammesso che sia mai esistito un vero regime neoliberista in senso puro – ovvero fondato sull’ideologia delle presunte capacità di auto-organizzazione del mercato – oggi ciò che vediamo non è un suo declino, ma il suo superamento in forma apertamente autoritaria.

16 Uso questo termine più con riferimento al principio di urfascismo (fascismo eterno) di Umberto Eco che come semplice ritorno ai fascismi storici del Novecento.

17 Uso questo termine più con riferimento al principio di urfascismo (fascismo eterno) di Umberto Eco che come semplice ritorno ai fascismi storici del Novecento.



bottom of page