top of page
ahida_background.png

scienza e politica

  • Immagine del redattore: Giorgio Griziotti
    Giorgio Griziotti
  • 20 gen
  • Tempo di lettura: 13 min

Aggiornamento: 22 gen

L’IA come realtà relazionale

Robin Tomens
Robin Tomens

Il testo analizza criticamente l’intelligenza artificiale contemporanea mettendola in relazione con la nozione di metatecnica, intesa come capacità umana di riflettere sulle tecniche e di rifondarle. Contro le narrazioni allarmistiche sull’autonomia dell’IA, l’autore distingue la metatecnica umana dalla meta-automazione del machine learning, che automatizza il processo stesso di progettazione senza possedere agentività reale. Viene discusso il fenomeno delle <<allucinazioni>> come limite strutturale dei modelli generativi, legato alla loro natura statistica e non percettiva. L’IA emerge così non come intelligenza autonoma, ma come tecnologia-mondo inserita in un ecosistema tecnico-industriale dominato da oligopoli, con forti implicazioni politiche, economiche ed ecologiche. A questo link è possibile trovare il primo articolo del comparto di Giorgio Griziotti dedicato all'Intelligenza Artificiale.




La nozione di «intelligenza» è da tempo oggetto di controversie e ridefinizioni, tanto in ambito tecnoscientifico quanto nella speculazione filosofica e nelle scienze umane. Si tratta di una questione cruciale, che meriterebbe un’analisi a sé – ben oltre lo spazio e l’obiettivo di questo intervento – e che qui non possiamo che evocare senza addentrarci nelle sue implicazioni più profonde. I tentativi storici di formalizzare l’intelligenza umana, come nel caso del quoziente d’intelligenza (QI), elaborato all’inizio del XX secolo nell’ambito della psicometria1, si sono rivelati strumenti parziali e normativi, che rispondevano, tra l’altro, a esigenze di classificare e ordinare le capacità cognitive secondo criteri di efficienza funzionale e adattamento all’organizzazione del lavoro capitalista dell’era industriale.Piuttosto che assumere due blocchi distinti – l’intelligenza «umana» da un lato e quella «artificiale» dall’altro – qui mi interessa seguire come emergano configurazioni differenti quando si incontrano e si intrecciano: da un lato la metatecnica come forma propria dell’attività umana, dall’altro la meta-automazione come caratteristica dell’intelligenza artificiale generativa. Non si tratta di contrapporre due essenze, ma di analizzare ciò che emerge dalla loro interazione, dalle relazioni concrete che producono insieme. Questo aiuta anche a comprendere meglio dove si colloca l’IA contemporanea nella lunga storia della technè.Innanzitutto, occorre ridimensionare i numerosi discorsi sui presunti pericoli legati all’autonomia dell’intelligenza artificiale – che un giorno potrebbe agire indipendentemente dall’umano e prenderne il controllo – mettendo invece in evidenza quelli effettivi e verificabili nella realtà contemporanea. Affermazioni pseudo-divulgative diffuse in libri popolari sostengono che la principale preoccupazione dei ricercatori sarebbe che le macchine possano non solo superarci, ma distaccarsi da noi2. Mi sembrano argomentazioni fuorvianti, volte a distogliere l’attenzione dalle vere motivazioni della ricerca che, soprattutto nella sua dimensione applicativa, è spesso nelle mani di laboratori finanziati dal mostro bicefalo Big Tech–Big State e orientati più al profitto che a ideali conoscitivi; al tempo stesso proiettano sull’IA l’immaginario competitivo e antropocentrico del neurocapitalismo, occultandone le funzioni effettive. La vera pericolosità di uno strumento come l’IA sta altrove e soprattutto nelle modalità in cui essa è concepita, centralizzata e gestita come vedremo. Già alcuni decenni fa Donna Haraway, con la figura del cyborg femminista, indicava una via per dissolvere la falsa dicotomia tra umano e macchina. Seguendo quella traccia si tratta di assumere come oggetto d’indagine i fenomeni relazionali e ibridi che emergono dall’incontro fra intelligenza umana e artificiale.

Veniamo ora ai due aspetti chiave della metatecnica e della meta-automazione cui accennavo. La metatecnica è al centro della riflessione del Boomernauta, il personaggio concettuale protagonista del mio ultimo libro3.

La metatecnica – intesa come l’abilità cognitiva di creare nuove tecniche o migliorare quelle esistenti – coinvolge la capacità di riflettere criticamente sulle tecniche, identificare i loro punti di forza e debolezza, e sviluppare nuove modalità di pensiero e approcci per affrontare i problemi complessi (Griziotti, 2023, p. 324).


Questa facoltà, per ora esclusivamente umana, distingue la metatecnica dalle tecniche, anche sofisticate, possedute da altri agenti biologici non umani, i quali pur sviluppando strumenti e pratiche complesse, non hanno mai oltrepassato la soglia critica che separa l’uso della tecnica dalla speculazione sulla tecnica stessa – quella capacità propriamente umana di creare non solo strumenti, ma sistemi per pensare e generare gli strumenti.

Il concetto di «automazione dell’automazione» (meta-automazione) come definizione del machine learning lo troviamo invece nel libro di Pasquinelli (Pasquinelli 2025, p. 237).


In conclusione, il machine learning può essere visto come il progetto di automatizzare il processo stesso di progettazione delle macchine e di creazione di modelli, ovvero l’automazione della stessa «teoria dell’automazione del lavoro». In questo senso il machine learning e in particolare i grandi modelli fondativi rappresentano una nuova definizione della Macchina universale, grazie alla loro capacità non solo di eseguire compiti computazionali ma anche di imitare il lavoro e comportamenti collettivi su larga scala.

La svolta che il machine learning ha finito per rappresentare non è soltanto «l’automazione della statistica», come il machine learning è talvolta descritto, ma l’automazione dell’automazione, portando questo processo alla scala della conoscenza collettiva e del patrimonio culturale. Inoltre, il machine learning può essere considerato come una prova tecnica dell’integrazione graduale tra automazione del lavoro e governance sociale (Pasquinelli 2025, p. 237).


Sebbene nel suo libro Pasquinelli si concentri soprattutto sul ruolo dell’IA rispetto al lavoro nella produzione capitalista, il passo coglie una trasformazione importante. Il machine learning è una forma di automazione di secondo ordine, o «meta-automazione» che emerge come una soglia critica dell’automazione contemporanea: un processo che non si limita a eseguire compiti o a meccanizzare il lavoro cognitivo umano, ma punta a inglobare e scalare il processo stesso di ideazione, fino ad automatizzare la creazione di strumenti. Insomma la meta-automazione mira a integrare ed estendere la capacità umana di dare vita a nuove tecniche.

Tuttavia, l’IA contemporanea resta vincolata a un impianto tecnico-industriale ben preciso, fondato su regimi di addestramento e su infrastrutture di controllo e sorveglianza dai costi ecologici proibitivi per il dispendio di calcolo ed energia, oggi concentrate negli oligopoli tecnico-finanziari. Per quanto estesi siano i dataset e sofisticate le correlazioni statistiche prodotte, il suo operare rimane confinato entro un perimetro definito. La sua apparente versatilità non deve trarre in inganno: l’IA non possiede agentività reale. Non può ridefinire i propri obiettivi, introdurre valori autonomi o generare contesti genuinamente nuovi. La loro «meta-competenza» – l’abilità di generare nuove soluzioni e procedure – resta quindi un fenomeno interno alla griglia dei dati, mentre la metatecnica umana trasforma attivamente i confini del possibile, introducendovi elementi radicalmente nuovi e non confinati in quel sistema.

Un sistema di intelligenza artificiale può analizzare migliaia di film e produrre narrazioni e sceneggiature, ma non la rivoluzione operata dalla Nouvelle Vague francese alla fine degli anni Cinquanta. Quando Godard, Truffaut e altri spezzarono la continuità narrativa, fecero parlare i personaggi allo spettatore e trasformarono il film in riflessione critica sul medium stesso, non stavano ottimizzando il cinema hollywoodiano ma rifondando cosa significhi «fare cinema» introducendo interrogativi esistenziali sull’autorialità, sull’autenticità e sul rapporto tra finzione e realtà.

L’IA può calcolare dentro la fisica newtoniana, ma non avrebbe mai concepito relatività o meccanica quantistica: rotture che richiedevano l’abbandono delle categorie stesse attraverso cui si comprendeva la realtà. Questa capacità di rifondare emerge dalla relazione tra singolarità e moltitudine: gesti che diventano trasformativi quando entrano in risonanza con pratiche collettive, conflitti materiali, trasformazioni di ciò che diventa possibile fare quando cambiano tecnologie, istituzioni e relazioni sociali.

Se, come già avviene sui social, tali oligopoli possono ricavare informazioni ancor più rilevanti su di noi, non per questo le IA apprendono davvero da noi. Il loro apprendimento rimane confinato entro i limiti del dataset e delle logiche di ottimizzazione che lo governano. Le corporation utilizzano i nostri prompt per perfezionare modelli futuri, ma i sistemi con cui interagiamo non apprendono realmente dalla conversazione: non possono modificare la propria struttura o ridefinire i criteri interpretativi.

Occorre dunque sfatare un luogo comune, spesso rilanciato anche da osservatori critici: l’idea che l’IA generativa impari dinamicamente e autonomamente dalle nostre domande. In realtà, i modelli non sono in grado di sedimentare conoscenza a partire dalle interazioni con gli umani. Al contrario, questi ultimi sono capaci di imparare dalle risposte dell’IA, pur subendone inevitabilmente l’influenza. L’apprendimento dei modelli invece è sempre mediato da dati preesistenti e supervisioni umane, e il loro funzionamento è fortemente vincolato da limiti tecnici e strutturali. Attualmente non esistono modelli in grado di superare questi limiti, né indizi che ciò possa accadere nel breve periodo.



Tutto è allucinazione


Dopo aver distinto la meta-automazione dell’IA dalla metatecnica propria della soggettività umana, e restando nell’ottica di un’indagine dei fenomeni che scaturiscono dalle loro interazioni piuttosto che di un confronto tra intelligenze, c’è a mio parere un nodo importante che può aiutarci a evidenziare i limiti tecno-politici dell’IA: le cosiddette «allucinazioni».

Mentre l’allucinazione umana designa una percezione sensoriale vissuta come reale in assenza di uno stimolo esterno corrispondente, nel caso dell’IA generativa il termine assume un significato diverso. Nei Large Language Model si parla di allucinazione per indicare produzioni linguistiche che risultano insensate dal punto di vista umano: affermazioni scorrelate dal contesto, semanticamente fuorvianti rispetto agli input, o semplicemente errate pur essendo formulate in modo apparentemente coerente e plausibile.

La questione solleva un interrogativo: se anche le macchine «allucinano», dove si colloca la differenza? La distinzione fondamentale risiede nella capacità di riconoscere l’errore. L’essere umano può interrogarsi sulla validità della propria percezione, confrontarla con altre esperienze, metterla in discussione. L’allucinazione della macchina è invece una disfunzione statistica: una correlazione probabilistica che produce output linguisticamente plausibili ma semanticamente vuoti, senza alcuna capacità di riconoscere autonomamente l’errore. Le nostre allucinazioni si misurano rispetto a un mondo condiviso e possono essere corrette dall’interno; quelle delle IA sono artefatti computazionali che richiedono verifiche esterne. Forse, secondo l’interessante ipotesi di Colin Fraser4, sarebbe più appropriato affermare che tutto ciò che produce un chatbot è frutto di allucinazione o «sogno», poiché non deriva dalla percezione di una realtà esterna, ma da calcoli statistici basati su testi umani nei quali prendono forma i nostri significati e interpretazioni del mondo sedimentati in rete. Fraser sostiene che «tutte le risposte degli LLM sono allucinazioni»5 perché il sistema «pensa» di ricostruire un documento esistente ma in realtà ne genera uno nuovo. Da questa prospettiva tecnica, non esisterebbe una distinzione intrinseca tra risposte sensate e «allucinazioni», ma solo output più o meno desiderabili rispetto al contesto d’uso specifico.

La tesi è quindi che il modello stia facendo esattamente quello per cui è stato progettato: generare un testo plausibile attraverso un calcolo probabilistico applicato a dataset sempre più estesi. Questo può funzionare nella maggior parte dei casi, ma non sempre, specie quando abbiamo bisogno non di plausibilità ma di precisione. In questi casi rimproveriamo alla macchina di produrre risposte inesatte e inverosimili («allucinare»), invece di riconoscere che stiamo utilizzando uno strumento probabilistico anche per compiti di natura deterministica. Torneremo su questo punto.Questo premesso, le «allucinazioni» dell’IA non hanno tutte lo stesso statuto. Alcune sono errori fattuali incontrovertibili. Altre invece presentano un carattere più ambiguo: ciò che viene percepito come «allucinazione» dipende anche dal giudizio dell’utente e dal contesto interpretativo. In queste situazioni, ciò che in un caso appare come un errore, in un altro può rivelarsi coerente. In fondo, ogni produzione dell’IA è il risultato di un processo relazionale tra modello, dati e interpretazioni umane. Alla sua genesi concorrono, da un lato, il nostro modo di interrogare, di stabilire corrispondenze e di valutare – talvolta esercitando una pressione contestuale o un’influenza di altro tipo – e, dall’altro, il modo in cui l’IA recepisce la richiesta e genera sequenze di parole che, statisticamente, tendono a seguire il contesto dato. In un certo senso l’IA generativa è «stupida» nel suo funzionamento, poiché si fonda su un numero pressoché infinito di ripetizioni dello stesso calcolo statistico, eseguito alla massima velocità. Il principio di base è quello della previsione della parola (o simbolo) successiva6 a partire da una sequenza precedente, sulla base delle probabilità apprese durante l’addestramento su enormi quantità di dati.Come osserva Fraser, non sorprende che un grande modello, addestrato su dataset enormi, possa predire la parola successiva di un testo. Ciò che risulta quasi miracoloso è che, reimmettendo ciascun output del modello come input per il passo successivo in un loop, esso riesca alla fine a generare testi coerenti, spesso utili e talvolta sofisticati. Anche per suoi creatori, questo risultato fu inaspettato rispetto agli obiettivi originari di predizione di sequenze. Tuttavia tale effetto non costituisce una «scoperta scientifica», al massimo potremmo definirlo un risultato tecnico di notevole portata. È un evento che si colloca sul piano dell’ingegneria, non su quello dell’epistemologia scientifica, e che perciò si potrebbe paragonare alla tecnica elaborata da Brunelleschi per costruire la cupola di Santa Maria del Fiore senza impalcature7: un’innovazione costruttiva eccezionale per la sua epoca, ma non assimilabile a una scoperta teorica della scienza.Proprio qui, però, si rivela la portata filosofica dell’evento. Se da un lato non siamo di fronte a una scoperta scientifica, dall’altro stiamo assistendo all’emergere di qualcosa di più di una semplice protesi tecnologica. Non ci troviamo più di fronte a uno «strumento», per quanto complesso, che estende una singola facoltà umana. Ciò che gli LLM (Modello Linguistico di Grandi Dimensioni (LLM) è una tecnologia AI avanzata incentrata sulla comprensione e sull'analisi del testo) e l’IA generativa stanno creando è una vera e propria «tecnologia-mondo»8, un ecosistema informativo e semiotico che ci avvolge e ridefinisce i nostri spazi di conoscenza, relazione e percezione. È un nuovo sistema di pensiero, un codice culturale che la tecno-oligarchia sta configurando invertendo la relazione tradizionale: non più la scienza che orienta la tecnologia, ma la tecnologia ingegneristica che determina il corso della scienza. È il mondo artificiale che stanno costruendo per noi e ora detta le regole al modo in cui conosciamo il mondo naturale e umano.



Hardware auto-organizzante


Le «allucinazioni» macchiniche sono tra i principali ostacoli alla strategia di una governance algoritmica totalizzante, che richiede colossali investimenti. Non si tratta solo di un problema tecnico che comunque analizzeremo qui di seguito: esse contribuiscono soprattutto a rendere incerta la redditività, facendo intravedere il rischio dello scoppio di una bolla finanziaria9 soprattutto ben più imponente di quella delle dot-com dei primi anni Duemila.10Alla base di tali investimenti, soprattutto concentrati negli Stati Uniti, vi è infatti il mito dell’Intelligenza Artificiale Generale (Artificial General Intelligence-AGI), concepita come un leviatano capace di risolvere qualsiasi compito. Un fine ormai apertamente perseguito dai GAFAM (Google, Apple, Facebook, Amazon, Microsoft) e dai nuovi tecno-oligopoli – in cui emergono i produttori di hardware dell’IA, ai quali si affiancano i loro concorrenti cinesi ecc. – e veicolato dai sistemi di IA generativa oggi dominanti. Per esempio: Anthropic (Claude) riceve miliardi di dollari da Amazon e Google, mentre OpenAI (ChatGPT) parte integrante dell’ecosistema Microsoft, ora, con il nuovo investimento di cento miliardi da parte di Nvidia – leader della produzione di chip GPU, indispensabili per far funzionare questi modelli – una parte consistente dei fondi tornerà alla stessa Nvidia sotto forma di acquisti. Il risultato è un gigantesco circuito finanziario autoreferenziale, in cui il capitale si alimenta da solo. L’intreccio tra queste start-up, le global platform, i nuovi oligopoli dell’hardware con alla base il supporto del Big State trumpiano non fa che rafforzare la narrazione di una presunta evoluzione verso un’intelligenza universale, funzionale a giustificare la corsa agli investimenti. La novità principale è che, oggi, l’hardware detta legge nel funzionamento di questi sistemi. Questo richiede l’uso di enormi quantità di chip specializzati (GPU) ad alte prestazioni, ospitati in data center immensi ed estremamente energivori.Per dare un’idea delle dimensioni nel prossimo futuro si sta pianificando di costruire un centro ad «Abilene, nelle pianure ventose del Texas, che consumerà 1,2 GW [di potenza installata] –equivalente del consumo [elettrico continuo] di una città di un milione d’abitanti – e utilizzerà circa 400.000 chip Nvidia GB200 (Blackwell) su oltre 350 ettari».11

Le previsioni sono che il consumo di elettricità dei data center a livello mondiale potrebbe triplicare entro il 2030 e potrebbe provocare una penuria di elettricità negli Stati uniti12. Le conseguenze ecologiche di questa esplosione di consumo sono drammatiche. Negli Usa, infatti, questo aumento sarà prodotto tramite energie fossili, essenzialmente gas, e a medio-lungo termine tramite energia nucleare, come dimostrano gli accordi strategici tra i GAFAM e i costruttori di centrali nucleari. In termini finanziari quindi più che il software, ciò che richiede davvero enormi risorse sono i dataset giganteschi e le infrastrutture necessarie per addestrarli. Da qui il fatto che i produttori di tali chip siano diventati le nuove potenze economiche, e che Nvidia13, il leader, in pochi anni sia balzato tra le prime capitalizzazioni mondiali.In questo senso si può parlare di un ritorno a una configurazione che richiama l’epoca pioneristica dei computer mainframe degli anni Sessanta e Settanta, quando il valore commerciale era concentrato nell’hardware e il software applicativo era incluso. Pur non essendo identica, la struttura odierna dell’IA ripropone, su scala inimmaginabile all’epoca, una gerarchia simile, in cui l’hardware riacquista centralità: ciò che prevale è una gigantesca infrastruttura materiale che ne condiziona l’efficacia e le possibilità.


1 Si veda a proposito: Matteo Pasquinelli, Nell’occhio dell’algoritmo. Storia e critica dell’intelligenza artificiale Roma, Carocci Editore, 2025. P. 218. Versione originale: The Eye of the Master: A Social History of Artificial Intelligence, London, Verso Books, 2023.

2 «La domanda che guida la ricerca sull’intelligenza artificiale non è più se le macchine possono essere intelligenti, ma se possono superarci in questo. La paura è che non si fermino a quel punto, distaccandoci», Cristianini, Nello. Sovrumano. Oltre i limiti della nostra intelligenza, il Mulino, Bologna 2025, p. 13.

3 G. Griziotti, Cronache del Boomernauta, Mimesis, Milano, 2023.

4 Colin Fraser, «Hallucinations, Errors, and Dreams», Medium, disponibile all'indirizzo: https://medium.com/@colin.fraser/hallucinations-errors-and-dreams-c281a66f3c35 (ultima consultazione: 23 ottobre 2025).

5 Un esempio citato da Fraser è quello in cui ChatGPT afferma che un elefante asiatico di nome Kami – o Jumbo, in test successivi – avrebbe nuotato attraverso la Manica nel 1981 per raccogliere fondi per il WWF: un evento ovviamente mai accaduto.

Posso aggiungere un caso personale: ho chiesto a DeepSeek chi fossi, e la risposta è stata un lungo resoconto articolato e pienamente plausibile della mia presunta carriera musicale come tastierista, arrangiatore, direttore d’orchestra e compositore italiano. Il testo si concludeva così:

“Giorgio Griziotti non è semplicemente un musicista, ma è stato il vero e proprio architetto del suono dietro a una parte importantissima della musica italiana degli anni ’60 e ’70. Senza i suoi arrangiamenti, molti successi che amiamo oggi avrebbero un volto completamente diverso.”Ciò che colpisce è che un’allucinazione così dettagliata non deriva da alcun appiglio reale vista la mia totale estraneità alla produzione musicale: il modello può generare biografie totalmente inventate semplicemente seguendo traiettorie linguistiche statisticamente frequenti, con piena autorità stilistica ma senza alcun legame con la verità.

Tre altri LLM, alla stessa domanda, hanno invece fornito risposte corrette e non allucinate.

6 In realtà si parla di un “token” alla volta — cioè un frammento di testo, come una parola o parte di parola.

7 Devo a Libero Maesano l'osservazione sulla natura ingegneristica (e non scientifica) dell'IA generativa, e la pertinente metafora della cupola di Brunelleschi.

8 Ringrazio Giuliano Spagnul per avermi segnalato sia l’articolo di Antonio Caronia Tecnologie: dalla protesi al mondo Tutto da capo», n. 1, novembre 2003), in cui il concetto di «tecnologia-mondo» era già stato teorizzato, sia l’inversione del rapporto tradizionale tra scienza e tecnologia.

9 Solo negli Stati Uniti, la capitalizzazione complessiva del settore IA si colloca nell’ordine di decine di trilioni (migliaia di miliardi) di dollari. Eppure, a fronte di queste valorizzazioni vertiginose, i risultati economici reali appaiono minimi: nel 2024 OpenAI (ChatGPT) ha generato circa 3,7 miliardi di dollari di ricavi, a fronte di costi infrastrutturali e computazionali stimati attorno ai 5 miliardi, e una perdita netta di circa altri 5 miliardi. Nessuna profittabilità è prevista prima del 2029, con perdite cumulate stimate attorno ai 44 miliardi di dollari fra il 2023 e il 2029.

10 La bolla dot-com nei primi anni 2000 quando enormi capitali affluirono verso imprese prive di modelli economici sostenibili, generando una rapida inflazione dei valori azionari seguita da un crollo altrettanto repentino. Quella IA se scoppiasse secondo valutazioni approssimative sarebbe diciassette volte più estesa. https://ilmanifesto.it/intelligenza-artificiale-la-bolla-circolare

11 «Le Monde», 23/9/2025, «Nvidia, parrain de la révolution de l’IA et moteur de l’économie Trump» https://www.lemonde.fr/economie/article/2025/09/23/aux-etats-unis-nvidia-parrain-de-la-revolution-de-l-ia-et-moteur-de-l-economie-trump_6642493_3234.html

13 Il 29 ottobre 2026, Nvidia è diventata la prima azienda al mondo a raggiungere i 5000 miliardi di dollari di valore di mercato, un valore superiore al Pil della Germania, terza economia mondiale.

bottom of page