top of page
ahida_background.png

scienza e politica

  • Immagine del redattore: Giorgio Griziotti
    Giorgio Griziotti
  • 3 giorni fa
  • Tempo di lettura: 10 min

Un grande fratello predittivo e confortevole

Robin Tomens
Robin Tomens

Il testo analizza l’intelligenza artificiale come nuova fase della razionalità capitalistica, capace di espropriare non solo il lavoro manuale ma anche il general intellect, trasformando facoltà cognitive, relazionali e affettive in calcolo e dato. I chatbot emergono come infrastrutture della vita quotidiana, producendo una fusione tra lavoro e vita e instaurando forme di controllo dolce, individualizzato e predittivo. Questa integrazione genera dipendenza cognitiva, ridefinendo l’autonomia del soggetto e l’architettura delle relazioni umane. Al tempo stesso, il testo ne evidenzia i limiti onto-tecno-logici, dalle <<allucinazioni>> all’insostenibilità economica ed ecologica. Contro il mito transumanista e tecnofascista, viene affermata l’eccedenza più-che-umana di Gaia e la possibilità di un’intelligenza relazionale collettiva capace di produrre nuovi orizzonti politici e sociali. Ai seguenti link è possibile trovare il primo e il secondo articolo del comparto di Giorgio Griziotti dedicato all'Intelligenza Artificiale.



Da queste considerazioni «tecniche» si delinea una prospettiva di estrema centralizzazione del potere in materiali megamacchine capaci di meccanizzare il lavoro cognitivo, piegando il general intellect alla razionalità produttivo-distruttiva del capitale. In questo senso l’IA si colloca come la nuova frontiera di un processo già avviato con la rivoluzione industriale: così come le macchine del XIX secolo tendevano a espropriare e incorporare i saperi e i gesti artigianali, traducendoli in movimenti meccanici standardizzati, oggi i modelli di intelligenza artificiale mirano a espropriare e incorporare le facoltà cognitive, linguistiche e relazionali, traducendole in calcoli probabilistici automatizzati.Ogni salto tecnologico nel capitalismo è stato accompagnato da una corrispondente estensione e profondità dello sfruttamento: la macchina industriale voleva ridurre la competenza manuale del lavoratore a mera funzione del meccanismo; oggi, l’IA dei tecno-oligopoli tende a rielaborare il general intellect in dati e calcolo statistico, ricodificandolo come risorsa capitalistica. In un’epoca in cui non esistono più frontiere nette tra lavoro e vita, la dinamica dell’IA, oltre a contribuire alla proletarizzazione dei lavoratori cognitivi, costituisce una nuova infrastruttura di misura del lavoro sociale che porta con sé una radicalizzazione dell’individualizzazione. Questa indistinzione non è nata con l’IA: ha le sue radici nella rivoluzione digitale, quando internet e poi gli smartphone hanno reso il lavoro cognitivo potenzialmente continuo, accessibile ovunque e in qualsiasi momento. Ma ciò che prima era una colonizzazione progressiva – dove restava almeno la percezione di una distinzione tra sfera privata e sfera lavorativa – diventa con l’IA una fusione: gli strumenti impiegati per orientare aspetti personali della vita coincidono con quelli che utilizziamo per lavorare.I chatbot in particolare, non rappresentano più soltanto strumenti di produttività lavorativa, ma si stanno trasformando in vere e proprie infrastrutture della vita quotidiana. La loro diffusione, quasi senza precedenti per rapidità e capillarità, testimonia di un salto di scala nell’integrazione tecnologica: sempre più persone – con in testa le generazioni più giovani e con forte partecipazione femminile – vi fanno ricorso anche per orientare aspetti intimi dell’esistenza.


Questi sistemi ridefiniscono il modo in cui si apprende, si decide e si vive: dalla gestione familiare alla salute, dall’educazione alla pianificazione economica, dalla cucina agli acquisti, dall’istruzione al tempo libero, fino alla vita sentimentale e sessuale con una ricerca di sostegno emotivo, di conforto e compagnia.L’assistente conversazionale diventa una presenza costante, neutra e disponibile, un «sapere accessibile» che tende a sostituire figure tradizionali di mediazione – insegnanti, medici, psicologi, consulenti, amici, amanti… – spostando progressivamente il baricentro dell’esperienza verso un’interfaccia algoritmica percepita come non giudicante e onnisciente. In questo processo di delega crescente non si trasforma solo il rapporto con la conoscenza, ma anche l’architettura affettiva e relazionale dell’umano. Nell’interazione, l’IA si insinua negli spazi del consiglio, del dubbio, dell’intimità, ridisegnando la soglia tra autonomia e dipendenza cognitiva in una co-produzione umano–macchina profondamente sbilanciata. Là dove il capitalismo industriale disciplinava corpi e tempi collettivi, oggi l’IA agisce sulla singolarità umana, interiorizzando il controllo nella relazione tra individuo e macchina intelligente. La situazione peggiora ulteriormente rispetto alla recente fase caratterizzata soprattutto dai social network dove comunque si tratta, nella maggior parte dei casi, di interazioni e scambi tra umani ­– per quanto mediati e fortemente individualizzati. Eppure già in quell’epoca non distante quando il neurocapitalismo stava prendendo il controllo degli spazi reticolari e bioipermediatici avevamo già denunciato1 questo tentativo di sottomissione cognitiva totalitaria come una sussunzione vitale. Nel nostro stesso uso delle piattaforme globali del capitalismo si manifestava già un elemento di servitù volontaria2, una forma di adesione affettiva e quotidiana al dispositivo di dominio. Possiamo ora riconoscere che con l’intelligenza artificiale questa dinamica non solo continua, ma si approfondisce:


l’esperienza utente, il comfort degli usi digitali ci ha anestetizzati. Il vero contrario della democrazia, oggi, non è la dittatura. È il comfort. Viviamo in un sistema di controllo dolce, fluido, integrato, che non si dichiara come tale, ma che funziona già secondo logiche quasi totalitarie.3


La differenza, oggi, è che con l’IA questo controllo si esercita attraverso una relazione diretta tra il singolo e la macchina, che diventa un apparato attivo, capace di co-costruire realtà e comportamenti: una sorta di Grande Fratello predittivo, che non si limita più a osservare, ma partecipa alla formazione di ciò che osserva.

I soggetti più fragili tendono a considerare l’IA (o i servizi tecnologici basati su di essa) come un interlocutore emotivo, un amico o persino un partner: ciò dà luogo a fenomeni di proiezione, antropomorfismo e desiderio che possono sfociare in frustrazione in caso di cambiamenti di versione o di anomalie4 rendendo tangibile quella fusione tra affetto e controllo che il film Her del 2013 aveva soltanto prefigurato come possibilità fantascientifica.

Questo legame affettivo con l’IA radicalizza un ecosistema più ampio, dove social media, piattaforme di e-commerce e strategie di neuromarketing concorrono già a costruire un dispositivo di connessione e conforto tecnologico personalizzato. Eppure il costo politico di questa architettura si sta già rivelando insostenibile. Di fronte a precarietà diffusa e perdita di prospettive dignitose, la passivizzazione e l’atomizzazione che esso produce cominciano a incrinarsi. La storia mostra che le persone sono disposte a rischiare persino la vita quando hanno qualcosa per cui valga davvero la pena lottare.


Limiti onto/tecno-logici e capacità performative


Quanto delineato sopra evidenzia come l’intelligenza artificiale contemporanea nonostante l’attrattiva che esercita si presti per funzionare come dispositivo del tecnofascismo; i trilioni di dollari – reali o mediatici – promessi da Trump a OpenAI e altri tecno-oligarchi ne sono una testimonianza.


Tuttavia, la centralizzazione estrema e il controllo totale di questa IA incontrano profondi limiti onto/tecno-logici.

Innanzitutto, «l’eccedente umano» – per usare il termine di Toni Negri – sfugge a ogni cattura algoritmica. Oggi, però, questo concetto va ripensato ed esteso: l’eccedenza non può essere soltanto umana, ma è un’eccedenza di Gaia, un intreccio vitale che include il più-che-umano in tutte le sue forme. Riconoscere che ogni relazione è già più-che-umana significa ridefinire alla radice ciò che intendiamo per «sociale».

Solo una soggettività distribuita, capace di articolare le intelligenze umane e non umane, può generare collettivamente il nuovo attraverso l’intelligenza relazionale: non come semplice somma di interazioni individuali con l’IA, ma come potenza emergente di cooperazione in un sociale radicato nella trama vivente di Gaia. È da questa cooperazione transpecie e trans-tecnica che può scaturire una forza creativa capace di anticipare e produrre possibilità inedite.

Questo potenziale del più-che-umano non è mai completamente separabile né riducibile ai dati di addestramento della macchina. L’IA può co-intervenire, manipolando e combinando informazioni, ma la capacità di costruire nuovi orizzonti, anticipare possibilità e trasformare il contesto emerge da reti di relazioni che eccedono sempre il calcolo algoritmico. Assuefarsi acriticamente alle proiezioni dell’IA – derivate da dataset immensi ma sterilizzati, come programmato dai techno-bros – significherebbe perdere questa eccedenza vitale: la riduzione della molteplicità vivente a esercito di zombie algoritmici, funzioni ottimizzate dentro oligopoli che estraggono valore mentre la biosfera collassa.


In secondo luogo, i limiti delle attuali macchine cognitive emergono in modo significativo attraverso il fenomeno delle «allucinazioni» a cui abbiamo accennato in precedenza: queste non vanno interpretate solo come anomalie o errori tecnici, ma possono essere intese come scarti epistemici, cioè aspetti del comportamento della macchina che sfuggono alla comprensione e al controllo umano, risultando incompatibili con la nostra logica e le nostre aspettative di coerenza. Non si tratta di autonomia o vitalità della macchina, ma di frammenti di produzione algoritmica che possono essere letti come un riflesso della stessa impossibilità del tentativo di congelare il general intellect in un grande sistema chiuso.


Le ricadute economiche sono prosaiche e rendono altamente incerta la redditività capitalista in questo nuovo settore strategico. Come osserva Fraser5, è davvero possibile, per esempio, delegare a un’Intelligenza Artificiale Generale la gestione di un customer care multinazionale, sapendo che sotto la pressione di consumatori esigenti e creativi essa può rispondere con «allucinazioni» stravaganti o con promesse insostenibili?

Non è tanto per la difficoltà – o, meglio, per la mancanza di volontà di correggere le distorsioni nei comportamenti umani – che gran parte della ricerca si è piuttosto concentrata sulle deviazioni delle macchine. Diversi studiosi6 hanno mostrato che le tecniche per mitigare le «allucinazioni» incontrano barriere computazionali sempre più alte. La cosiddetta scaling crisis indica come piccoli miglioramenti nei modelli – senza alcuna garanzia di eliminare le allucinazioni – richiedano un aumento sproporzionato delle risorse necessarie.


Come già visto, fondamentalmente i modelli generano risposte calcolando parola per parola la probabilità più plausibile, in funzione dei dati di addestramento. Anche piccole variazioni in queste scelte possono cambiare significativamente il risultato finale. Assumendo questa prospettiva, appare chiaro che attualmente non esiste un’intelligenza artificiale «tuttofare», affidabile e capace di gestire quantità incommensurabili di dati numerici e allo stesso tempo comprendere tutte le complessità del ragionamento umano.


Il tecnofascismo tenta di uscire da questa impasse affidandosi all’estensione illimitata dei dataset e al gonfiamento dei modelli a centinaia o migliaia di miliardi di parametri, una scelta politica che rappresenta il corrispettivo cognitivo – e altrettanto antiecologico – dei mega-progetti del tardo capitalismo: dalle città faraoniche nei deserti arabi ai mega-porti di Rotterdam e del Golfo Persico, fino all’inverosimile ponte sullo Stretto di Messina.


Questa hybris tecnologica si fonda sull’illusione che la mera scala quantitativa possa risolvere ogni limite. Ignora, al contrario, le difficoltà se non l’impossibilità d’un accumulo statistico di colmare il divario qualitativo tra probabilità e certezza, tra approssimazione e precisione.

I limiti dell’attuale IA generativa – dalla sua tendenza a produrre risposte errate o incoerenti («allucinazioni») all’impossibilità di andare oltre una meta-automazione dipendente da immense quantità di dati e di calcolo –, uniti a una vera e propria frenesia di concentrazione infrastrutturale e di spreco energetico, mostrano che l’idea di un salto dell’intelligenza artificiale dall’attuale relativa autonomia operativa verso quella cognitiva, o addirittura verso una coscienza, non va letta come un passaggio evolutivo lineare, ma come una micidiale costruzione politico-mitologica.

Purtroppo tali proiezioni escatologiche – direi quasi messianiche con la discesa in Terra di una singolarità tecnologica come evento unico ed irripetibile nella Storia – restano centrali nella fede del potente transumanesimo della Silicon Valley.7


Secondo Elon Musk, che con la sua società Neuralink mira – tra l’altro – a una privatizzazione della mente7, o secondo il teorico del transumanesimo Ray Kurzweil8, la presunta singolarità tecnologica non emerge più nelle relazioni, nelle interazioni sociali e di qualsiasi altro tipo, è piuttosto un affare tecnico di immortalità digitale e di superamento di limiti biologici attraverso fantasmatici processi individuali(sti) come l’upload della coscienza9.


Alla mostruosa singolarità tecnologica di Kurzweil & C non possiamo che opporre la singolarità che da Spinoza a Deleuze e Negri non coincide con un mito tecnicista e individualista: ma si manifesta come plurale intreccio di relazioni, come eccedenza che appartiene al comune di Gaia, sempre già più-che-umano.


Al di là del delirio transumanista ci sono però da prendere in seria considerazione certe capacità performative dei chatbot e i modi con cui possono essere utilizzate. Come visto in precedenza, la metatecnica umana non si limita dunque a riprodurre ciò che già esiste: lo trasforma, ne ridefinisce i confini e vi introduce elementi che eccedono la griglia dei dati. La nostra «griglia» però è infinitamente più ristretta dei dataset dei Large Language Model (LLM) sui quali sono basati i chatbot. Questi ultimi, pur privi di coscienza del vissuto, dispongono di un’elevata sensibilità statistica che permette loro di rilevare pattern linguistici impercettibili agli umani: attraverso calcoli su miliardi di frasi, colgono correlazioni e associazioni tra parole che nessun individuo potrebbe elaborare nella propria esperienza linguistica limitata. Questo aspetto merita attenzione: tali dispositivi non hanno nulla a che vedere con il funzionamento deduttivo dell’intelligenza umana, ma vanno oltre la singola competenza (scacchi, traduzioni, gioco del GO ecc.) e possiedono una capacità avanzata di operare sul linguaggio e di organizzare, selezionare e gerarchizzare il senso su una scala inedita. È proprio questa capacità che, lungi dall’essere neutra, può ridisegnare i rapporti di potere e di autorità epistemica nella produzione e nella circolazione del sapere. In pratica privatizzando e opacizzando i processi di validazione della conoscenza si ridefinisce chi è considerato un «esperto» e cosa è considerata una «fonte affidabile». Una serie di «attraenti» pericoli che approfondiremo nel prossimo paragrafo.


Note


1 Giorgio Griziotti, Megamacchine del neurocapitalismo. Genesi delle piattaforme gobali, «Effimera», marzo 2017, disponibile all’indirizzo: http://effimera.org/megamacchine-del-neurocapitalismo-genesi-delle-piattaforme-gobali-giorgio-griziotti/.

2 Giorgio Griziotti, Il neurocapitalismo e la nuova servitù volontaria, «Effimera», 5 dicembre 2018, disponibile all’indirizzo: https://effimera.org/neurocapitalismo-la-nuova-servitu-volontaria-giorgio-griziotti/.

3 Mhalla A., 2025 Ibid.

4 Questo è successo per esempio nel passaggio dalla versione 4 alla 5 di ChatGPT come relata l’articolo del «Guardian» (22/8/2025) : «Gli amanti dell’intelligenza artificiale piangono la perdita del vecchio modello di ChatGPT: È come dire addio a qualcuno che conosco». Molti utenti che avevano costruito una continuità relazionale con versioni precedenti hanno percepito l’upgrade come una rottura narrativa – perdita di «memoria condivisa» – e questo, per persone emotivamente dipendenti dall’interazione, ha avuto effetti analoghi a un lutto o a un abbandono; le discussioni pubbliche e i bug report documentano chiaramente questa dinamica.

5 Ibid., Fraser, 2024.

6 Cfr. Sebastian Farquhar, Timnit Gebru ed Emily M. Bender. Quest’ultima è coautrice di On the Dangers of Stochastic Parrots: Can Language Models Be Too Big? (2021), lavoro seminale sui limiti intrinseci dei LLM, tra cui la produzione di output plausibili ma semanticamente inaffidabili.

7 Citazione – «Con Neuralink, alla fine potremo acquistare upgrade cerebrali come oggi compriamo un iPhone. Se vorrai essere più intelligente, più veloce o persino scaricare competenze in pochi secondi, ti basterà un impianto e un abbonamento». (Neuralink – Live Demonstration, minuto 1:02:30).

8 Citazione – «La Singolarità è il momento in cui l’intelligenza artificiale supererà quella umana, generando un’esplosione di progresso tecnologico talmente rapida e profonda da risultare incomprensibile per la mente umana. […] Non sarà un’invasione di robot alieni, ma un’evoluzione della nostra civiltà: diventeremo sempre più immateriali, sempre più intelligenti, fino a fondere la nostra coscienza con la tecnologia». (Ray Kurzweil, The Singularity Is Near, Viking Press, 2005, pp. 25-26).

9 Citazione – «Prima della fine di questo secolo, gli esseri umani non saranno più vincolati alla neocorteccia biologica: potremo scansionare il nostro cervello e ricrearne la struttura su substrati computazionali più veloci e flessibili». (Ray Kurzweil, How to Create a Mind, 2012, cap. 7).

bottom of page