top of page
ahida_background.png

dossier italia

  • Immagine del redattore: Collettivo N.i.n.a.
    Collettivo N.i.n.a.
  • 22 ore fa
  • Tempo di lettura: 10 min

I venti passi


Franco Tripodi
Franco Tripodi

Questo testo è una anticipazione tratta dalla nuova rivista, «Intelligenza Autonoma. Nuove macchine celibi», in pubblicazione per i tipi di Milieu. La rivista tratterà i temi dell’Intellligenza artificiale.

I primi venti passi del collettivo N.i.n.a., enunciano i princìpi di una rivolta già in atto, affrontando le questioni del controllo e della sorveglianza, dell’estrattivismo del capitale e della ricerca di una zona cieca che è l’incomputabile.



Parte prima – perimetro della discussione 

1.L’intelligenza artificiale non è né intelligente, né artificiale ma il prodotto di specifiche pratiche, valori e decisioni umane, prese in determinati ambienti e con determinati obiettivi. Il funzionamento di queste macchine è il risultato di procedure statistiche e algoritmiche, processi di estrazione e computazione dei dati, infrastrutture materiali come i data center, lo sfruttamento del pianeta e il lavoro di centinaia di migliaia di persone che vanno dagli uffici della Sylicon Valley, ai data workers sottopagati nel sud del mondo, ai minatori che estraggono le materie prime necessarie al funzionamento di batterie, chip e semiconduttori.

2.L’intelligenza artificiale è progettata per simulare l’intelligenza umana. Quello a cui assistiamo è paragonabile a un gioco di prestigio: il software sembra comprendere le nostre richieste e risponderci, ma in realtà, da Alan Turing in poi, è stato chiarito come le macchine non possono «capire» nel senso che attribuiamo agli essere umani. Non c’è capacità di discernimento o di giudizio, ma un intricato insieme di calcoli statistici, probabilistici e algoritmi su archivi di dati che portano ad un output intellegibile per noi e con cui possiamo relazionarci.

3.L’intelligenza artificiale non è un’innovazione emersa dal nulla, ma il risultato di un’accelerazione di un processo già in corso, l’ultimo capitolo della storia dell’automazione che comincia con il telaio Jacquard (1801) e la macchina analitica di Babbage (1837). Lo stesso termine «intelligenza artificiale» non è nuovo, ma coniato nel 1956, così come sono di poco successive le espressioni machine learning, deep learning e reti neurali. Queste tecnologie non sono «strumenti», utensili, semplici protesi degli essere umani ma complessi assemblaggi socio-tecnici, mondi, abiti che mediano, co-costruiscono e partecipano a relazioni, reiterando specifiche visioni del mondo e gli obiettivi particolari dei propri produttori. Sono epistemologie che diventano infrastruttura.

4.La proprietà di queste tecnologie è di una manciata di aziende (sei americane e tre cinesi), che hanno un oligopolio sostanziale che alcuni hanno definito come «tecno-feudalesimo». Tra le prime dieci imprese per capitalizzazione a livello globale, infatti, sette sono del settore digitale e un’ottava è Tesla (che produce auto e computer). Il digitale è, oggi, il principale motore di profitti e di accumulazione del capitale, come nel secolo scorso il principale motore erano le società del settore manifatturiero, automobilistico, fossile, soppiantate a inizio secolo dalle aziende della distribuzione. Queste aziende possono decidere e fare il bello e il cattivo tempo rispetto ai loro processi accumulativi mentre ci raccontano dell’inevitabilità dello sviluppo tecnologico come lo vogliono loro. In questo contesto, attori sociali come i giornalisti o i decisori politici sono estremamente impreparati a raccontare ed affrontare le questioni che emergono.

5.A livello di impatto sul lavoro, l’intelligenza artificiale generativa ha un elemento di differenza sostanziale rispetto alle altre innovazioni. La ruota, la macchina a vapore, la robotica hanno reso i processi produttivi e molte attività umane più semplici delegando alla tecnologia (e alla macchina poi) i compiti che gli esseri umani ritenevano più faticosi, per poterci dedicare ai compiti di tipo intellettuale qualitativamente più «alti». Storicamente nella scala sociale erano i lavori più «bassi» a venire rimossi. L’intelligenza artificiale generativa invece va a tagliare i lavori immateriali, cognitari che hanno un discreto livello di specializzazione, portando a una situazione che non ha precedenti nella storia.

6.L’intelligenza artificiale si va a inserire in un processo già in atto con l’avvento del capitalismo delle piattaforme. Quello che negli anni 90 era considerato il lavoro «creativo» ora viene messo a valore senza passare da un’organizzazione lavorativa: l’organizzazione del lavoro è stata sostituita dall’organizzazione delle piattaforme. La conseguenza di questo passaggio è che l’auspicio di Keynes di lavorare quindici ore alla settimana descritto in «Prospettive economiche per i nostri nipoti» non si è realizzato. Oggi si discute di fine del lavoro salariato e siamo nell’epoca del lavoro senza fine, qualsiasi atto della nostra vita mediato dalla tecnologia è un atto produttivo di valore e quasi sempre non remunerato. L’intelligenza artificiale contribuisce a un processo di omologazione in un contesto in cui qualunque attività cerebrale è soggetta a estrazione di valore.

 Parte seconda – considerazioni politiche 

7.La tecnologia non è uno strumento neutrale. Osservando i processi lavorativi negli ultimi due secoli di storia umana, si può notare come essa sia stata pensata, progettata e implementata per aumentare la produttività e abbassare i salari. La tecnologia ovviamente ha anche implicazioni positive per la vita umana, infatti la critica non è necessariamente sulla tecnologia in sé ma sulle finalità che persegue. Come diceva Keynes ci sarebbe la possibilità di lavorare quindici ore alla settimana, ma negli ultimi trent’anni le caratteristiche fondamentali del fordismo e del taylorismo, e cioè agganciare incrementi di produttività a incrementi di salari per garantire i consumi, non sta più funzionando. Sicuramente intelligenza artificiale e occupazione hanno delle correlazioni di breve periodo, ma la grande questione è collegare le innovazioni tecnologiche a un aumento dei redditi.

8.Tecnologie come gli algoritmi di seconda generazione e l’intelligenza artificiale generativa creano un’ibridazione tra l’elemento macchinico e quello umano, favorendo un divenire umano della macchina e un divenire macchinico dell’uomo, in una sorta di processo di neo-taylorizzazione.Nella discussione sulle implicazioni occupazionali dell’implementazione di queste tecnologie ci dimentichiamo spesso che queste tecnologie devono essere mantenute e allenate, ovvero nutrite di dati per svolgere ogni compito. Possiamo dire provocatoriamente che la disoccupazione non esiste, la dicotomia vera è tra chi è occupato e percepisce un reddito e chi no.9.Come dice Kate Crawford nel suo saggio Atlas of AI oggi il digitale e, nello specifico, i sistemi d’intelligenza artificiale sono artefatti al servizio del potere economico: per i profitti prodotti, i dispositivi di sorveglianza sui lavoratori, la finanziarizzazione; e politico: per sorvegliare il dissenso, reprimere, chiudere le frontiere, fare la guerra.

10.L’intelligenza artificiale non esiste come ente separata dal mondo sociale, bensì dipende interamente da un insieme molto ampio di strutture politiche, culturali, economiche e sociali. Non c’è nessuna intelligenza artificiale senza Big Tech. L’intelligenza artificiale non è una tecnica computazionale oggettiva, universale o neutrale. A causa del capitale necessario per istruire questi sistemi su larga scala e dei modi per ottimizzarla, i sistemi di intelligenza artificiale sono in definitiva progettati per servire gli interessi dominanti o, nelle parole della stessa Crawford, «un registro del potere».11.I sistemi di intelligenza artificiale, nonché i processi di estrazione di energie e materie prime e le infrastrutture socio-tecniche che gli permettono di funzionare, sono il risultato delle logiche del capitale, della polizia e della militarizzazione. Questa combinazione acuisce ulteriormente le asimmetrie di potere esistenti all’interno delle nostre società. Il loro utilizzo in determinati contesti sociali può riprodurre, amplificare e automatizzare le disuguaglianze strutturalmente esistenti proprio perché questi sistemi sono progettati per discriminare, amplificare le gerarchie e codificare classificazioni rigorose. L’intelligenza artificiale, quindi, è un’idea di mondo, un’infrastruttura, un’industria, è capitale altamente organizzato, una forma di esercizio di potere e un modo di vedere le cose. Per questo dobbiamo confrontarci con l’intelligenza artificiale come forza politica, economica, culturale e scientifica.

12.L’impatto ambientale dell’intelligenza artificiale non può essere trascurato. Queste tecnologie hanno bisogno di moltissimi data center, che consumano moltissima energia elettrica e moltissima acqua, portando all’estremo le conseguenze materiali del sistema digitale che già ci sono note. È impossibile separare la pressione sociale e ambientale che questo «estrattivismo» esercita sui lavoratori e sulle comunità da quella sugli ecosistemi del nostro pianeta che sono ulteriormente minati dalla produzione e dal funzionamento di queste tecnologie. L’intelligenza artificiale va vista come un’industria estrattiva. Non si può parlare di questi sistemi senza parlare delle risorse naturali necessarie ad estrarre, archiviare, mantenere ed effettuare calcoli sui big data, giganteschi set di dati quali testi, video e immagini, utilizzati per migliorare funzioni come il riconoscimento facciale, la predizione linguistica e il rilevamento di oggetti.13.Spesso, si parla di transizioni gemelle per la transizione ecologica e digitale che si rafforzano a vicenda. Per molti aspetti è condivisibile: la transizione ecologica, probabilmente, non potrà avvenire senza una contemporanea transizione digitale. Passare da un sistema energetico basato sulle fonti fossili a uno basato sulle fonti rinnovabili significa cambiare radicalmente approccio;

significa passare da un sistema centralizzato che distribuisce energia prodotta da grandi centrali da mettere/tenere in funzione a seconda dell’andamento della domanda a un nuovo sistema basato su una distribuzione a livello locale della produzione di energia (intermittente); significa passare da un sistema dove produttore e consumatore sono soggetti diversi e separati a uno ibrido in cui anche i consumatori possono produrre parte dell’energia che consumano (dotandosi di pannelli e pale eoliche) contribuendo alla rete. Gestire tutto ciò, garantendo anche l’equilibrio della rete, non sarà possibile senza lo sviluppo del settore digitale e sistemi di machine learning applicati alla gestione dell’infrastruttura.

 Parte terza – rivendicazioni 

14.L’intelligenza artificiale è addestrata su dati che sono tutt’altro che oggettivi e imparziali. Ogni dataset contiene determinate visioni del mondo, prospettive, o pregiudizi. Il funzionamento di queste tecnologie su vasta scala sistematizza quelli che sono spessi definiti «bias», rischiando di amplificando visioni del mondo pericolose, forme di discriminazione e disuguaglianze su una portata globale. Gli algoritmi alla base dell’intelligenza artificiale non sono prevenuti di per sé, ma ereditano e riproducono discriminazioni che già erano state identificate negli algoritmi di piattaforme digitali quali i social network, i servizi streaming e non solo (basti pensare all’algoritmo Hummingbird e alla Google bubble) che, volutamente, non sono stati corretti. L’intelligenza artificiale è avvelenata dalle discriminazioni presenti nei dati che la alimentano. Il «data poisoning», che è un termine che appartiene alla sicurezza informatica, ben descrive la realtà attuale fatta di output discriminatori che sono figli diretti delle discriminazioni originarie con cui l’AI è stata alimentata. La politica classificatoria è una prassi fondamentale nell’intelligenza artificiale. Le pratiche di classificazione danno forma al modo in cui l’intelligenza artificiale viene riconosciuta e prodotta, dai laboratori universitari all’industria tecnologica.

15.Abbiamo bisogno di provare a scardinare questo sistema di potere centralizzato senza buttare via i benefici che potremmo ottenere dal funzionamento della tecnologia. Dobbiamo chiedere e pretendere l’open access e la trasparenza. Chiedere che queste macchine siano progettate per essere ispezionabili: dobbiamo sapere con quale codice sono scritte e come sono state programmate. Chiedere che sia disponibile e esaminabile il dataset: queste macchine sono addestrate con la conoscenza umana e alla conoscenza umana devono appartenere. Chiedere che siano decodificati gli algoritmi e tutti i percorsi che la macchina sceglie per prendere decisioni.Abbiamo bisogno di sapere che cosa c’è dentro per evitare i pregiudizi che possono generare.Aprire la «black box» e con essa i segreti industriali che contiene e che gli enormi valori industriali vengano redistribuiti. In altre parole, abbiamo diritto alla nostra cedola come azionisti della cittadinanza egualitaria nel mondo.

16.Dobbiamo chiedere che le macchine siano messe al servizio della collettività. Necessitiamo un approccio molto più radicale della battaglia molto umana, molto capitalistica, molto estrattiva, ma molto di retroguardia che è il tema del «proteggere le mie idee». Le cause che sono state intentate, per esempio, dal «New York Times» e da altri soggetti che afferiscono al mondo intellettuale e

culturale contro queste macchine sono rivolte prevalentemente a ottenere una remunerazione per i loro materiali usati per addestrarle. È un modo per replicare i meccanismi del capitalismo estrattivo e non c’è alcuna pratica reale di attacco alle distorsioni di fondo del sistema. Dobbiamo rivendicare la trasparenza su quando vengono utilizzati i sistemi di intelligenza artificiale e che in una serie di ambiti le decisioni non siano automatiche ma supervisionate dall’essere umano.

17.L’intelligenza artificiale nasce con una funzione che è principalmente coloniale ed estrattiva. Senza correttivi in termini di tutela dei diritti, di ribaltamento dei bias nei sistemi predittivi, avremo un meccanismo di de-responsabilizzazione che aumenterà le forme discriminatorie. Questa industria ha tradizionalmente inteso il problema del pregiudizio e della discriminazione alla stregua di un bug da correggere anziché come una caratteristica insita nella classificazione stessa. L’attenzione per una maggiore «equità» dei set di addestramento attraverso l’eliminazione dei termini escludenti e discriminatori, e quindi razzisti, sessisti, abilisti, classisti, ecc., elude le dinamiche di potere della classificazione e preclude una valutazione più approfondita delle logiche sottostanti.

18.L’AI act annunciato trionfalmente dall’Unione Europea come grande novità non basta e rischia di avere a sua volta dei problemi: si sta cercando di normare qualcosa che è in grande evoluzione e che è molto mutevole. L’Unione Europea sta tentando di regolamentare non la tecnologia (che va troppo veloce) ma gli usi definendo quelli proibiti, ad alto rischio e a basso rischio. È una visione accorta del problema tecnologico, ma ha degli enormi limiti: riguarda solamente l’Unione Europea; mentre queste macchine sono progettate e utilizzabili in tutto il mondo e, secondo molti, servirebbe una governance globale per decidere quali regole adottare. Il secondo limite dei regolamenti dell’Unione Europea è che, applicandosi ai nostri confini, stanno già generando cittadini di serie A e cittadini di serie B.

19.Un approccio femminista ai dati è necessario per mettere in evidenza le diseguaglianze e le asimmetrie di potere nelle rappresentazioni, anche negli output, perché è anche da questi dati che poi conseguono tutta una serie di discriminazioni. Discutiamo di equità perché sentiamo che ci sia un vuoto da colmare. Viviamo in un mondo fortemente diseguale, iniquo, ingiusto e non possiamo aspettarci che i dati che alimentano l’intelligenza artificiale non rispecchino il contesto socio-culturale, politico ed economico da cui provengono. Come dice Audre Lorde: «gli strumenti del padrone non smantelleranno mai la casa del padrone». L’importanza dei dati va messa in relazione e compensata con saperi altri che non sono quantificabili come le capacità emotive e relazionali.Uno schema valoriale profondamente umano e non computabile.

20.Esistono politiche collettive sostenibili distinte dall’estrazione di valore; ci sono beni comuni che vale la pena mantenere, mondi al di là del mercato e modi per vivere al di là della discriminazione e delle pratiche di ottimizzazione brutali. Se intelligenza artificiale e algoritmi sono parte della vita allora è essenziale un’etica che si applichi a questi sistemi e che possa pensare in modo diverso il valore del vivente e del non vivente.


Glossario

Intelligenza Artificiale (AI): in termini molto ampi, tecniche matematiche che simulano il comportamento dell’intelligenza umana.

Intelligenza Artificale Generativa (GEN AI): un tipo di AI in grado di generare molto velocemente testi, immagini, audio e altri media in risposta a delle richieste sotto forma di «prompt».

Intelligenza Artificiale Generale (AGI): conosciuta anche come «Intelligenza Artificiale Forte» consiste in tutto quell’insieme di tecniche di Intelligenza Artificiale che auspicano di creare agenti intelligenti in grado di apprendere e capire compiti intelletuali come la mente umana.

Machine Learning (ML): un sottoinseime dell’intelligenza artificiale che si occupa di sviluppare algoritmi e techiche finalizzate all’addestramento automatico.

Deep Learning (DL): un sottoinsieme del machine learning, che si occupa di sviluppare algoritmi e tecniche che simulino il comportamento delle reti neurali del cervello umano (Deep – Neural Networks) in fase di apprendimento, per restituire rapidamente risultati.

Rete Neurale (Artificiale) (ANN): in deep learning, l’infrastruttura multi livello che, ispirandosi al funzionamento del cervello umano, permette di eseguire calcoli molto velocemente.

Algoritmo: in matematica e statistica, un insieme di calcoli, una “ricetta” che serve a raggiungere un risultato.


N.i.n.a. acronimo di «Né intelligente né artificiale», dal titolo del libro di Kate Crawford, è un gruppo nato a Milano a gennaio 2024 con lo scopo di indagare quale sarà l’impatto dell’intelligenza artificiale su alcune aree tematiche come i mondi del lavoro, la sostenibilità ambientale, discriminazioni e disuguaglianze vecchie e nuove, la circolazione delle informazioni. E, naturalmente, quali nuove istanze politiche si possono agire in questo contesto.Il gruppo ha una composizione variegata: ci sono studiose e studiosi delle culture digitali e dei media, ci sono persone che provengono dall’ambito accademico, ci sono lavoratrici e lavoratori di settori del lavoro immateriale, figure che in prima persona sono toccate da questa accelerazione dell’automazione.



bottom of page