di Francesco D’Isa
Abstract. Il libro L’inganno dell’intelligenza artificiale di Emily Bender e Alex Hanna (2025) rappresenta la sintesi più organica del negazionismo sull’intelligenza artificiale: la tesi che i modelli linguistici non funzionino, che siano pura truffa, che l’intera industria dell’AI sia un inganno orchestrato dalle Big Tech. Questo articolo analizza le contraddizioni strutturali di quella posizione, che sostiene simultaneamente che la tecnologia non produca nulla di utile e che stia devastando il mondo del lavoro, dell’informazione e della cultura. La critica si estende al saggio di Kate Crawford sull’AI slop e alla profezia del collasso dei modelli. L’obiettivo non è difendere l’industria dell’AI, ma mostrare che il negazionismo impedisce di affrontare i veri problemi etici e politici di questi strumenti, a partire dalla necessità di un’intelligenza artificiale pubblica e aperta.
I moralisti e i peccatori
Il 2026 mi sembra l’anno in cui i critici più agguerriti dell’intelligenza artificiale hanno cominciato a scrivere le proprie critiche con l’aiuto dell’intelligenza artificiale. Lo noto perché la usano maldestramente e limano poco il risultato, ma potrei sbagliarmi – l’impressione però mi ha fatto riflettere su come sia cambiato l’approccio all’utilità percepita delle AI negli anni.
A guardare le statistiche sulla cosiddetta Shadow AI, d’altronde, il fenomeno non sorprenderebbe. Secondo un report UpGuard del 2025, oltre l’80% dei lavoratori dichiara di usare strumenti di AI non autorizzati dal proprio datore di lavoro, e circa la metà lo fa con regolarità; i dirigenti senior risultano addirittura più inclini degli altri a servirsene di nascosto.
Quest’uso clandestino segna la fine di una fase del dibattito pubblico. Per anni una forma di negazionismo piuttosto diffusa ha sostenuto che i modelli linguistici non funzionassero realmente, che producessero solo allucinazioni, che fossero per definizione inutili o dannosi. Era una posizione che poteva avere una sua logica due anni fa, quando si guardava con un po’ di miopia a strumenti ancora grezzi; adesso è diventata semplicemente insostenibile.
L’inganno dell’intelligenza artificiale
Le radici intellettuali di questo negazionismo hanno dei nomi. La tesi dei «pappagalli stocastici», formulata da Emily Bender e Timnit Gebru nel 2021, ha generato un’intera fazione convinta che i modelli linguistici fossero meri manipolatori di forma linguistica, privi di comprensione e talvolta di valore comunicativo. Nel libro The AI Con (2025, in italiano L’inganno dell’intelligenza artificiale, Fazi 2026), scritto con Alex Hanna, Bender consolida questa posizione in una tesi sistematica: l’intera industria dell’AI è una truffa, un inganno orchestrato dalle Big Tech per vendere un prodotto che non fa ciò che promette. Le autrici propongono di ribattezzare i modelli linguistici «macchine per l’estrusione di testo sintetico», un’immagine che insiste sull’assenza di mente dietro l’output testuale, paragonando il processo alla produzione industriale di plastica.
Il libro ha dei meriti che sarebbe scorretto ignorare. I capitoli sul lavoro e sulla precarizzazione indotta dall’automazione (capitolo 3) offrono un’analisi ben documentata di come l’AI venga usata per frammentare le professioni creative e abbattere il costo del lavoro intellettuale. L’analisi dei servizi pubblici (capitolo 4) è forse la parte più riuscita: Bender e Hanna mostrano come l’hype sull’AI funzioni da copertura ideologica per ulteriori tagli ai servizi, e come la promessa del dottore-robot o dell’insegnante-robot presupponga e normalizzi l’assenza di risorse umane adeguate. La domanda che pongono è giusta: perché non ci sono abbastanza soldi per gli ospedali pubblici, per l’assistenza psicologica e per le scuole? È convincente anche la critica al catastrofismo dell’AI nel capitolo 6, con l’analisi del complesso ideologico TESCREAL e del modo in cui catastrofisti ed entusiasti finiscono per essere due facce della stessa medaglia.
Il problema è che The AI Con non si limita a queste analisi settoriali; un suo argomento portante è che i modelli linguistici non funzionano in alcun senso cognitivamente rilevante. Le autrici scrivono: «ciò che viene attualmente sviluppato come “IA” non funziona e non è d’aiuto alla stragrande maggioranza della popolazione che vive oggi sulla Terra». In linea con questa idea, in una conferenza alla Harvey Mudd College nel novembre 2024, Bender ribadiva che quando l’output di un LLM è corretto lo è per puro caso, e che tanto varrebbe consultare una Magic 8 Ball. La posizione è chiara: nessuna utilità cognitiva, nessuna emergenza funzionale, nessun valore autonomo dell’output.
Se sono “solo cazzate”, perché fanno tanti danni?
Ma il libro stesso smentisce questa premessa. Bender e Hanna dedicano centinaia di pagine a documentare i danni concreti prodotti dagli strumenti che dichiarano inutili: il 26% di autori, traduttori e illustratori britannici che ha perso lavoro a causa dell’AI generativa (p. 173); gli studi cinematografici che sostituiscono concept artist con Midjourney; le testate giornalistiche che licenziano redattori per riempire le pagine di testo sintetico; la rivista Clarkesworld costretta a sospendere le submissions perché intasata da racconti generati con ChatGPT. Tutto il capitolo 3, quello sul lavoro precario, presuppone in ogni pagina che la tecnologia funzioni abbastanza da sostituire lavoratori qualificati agli occhi dei committenti.
È un fenomeno da verificare, perché è spesso difficile distinguere quando si tratta di “Ai washing”, ovvero un licenziamento che i datori di lavoro mascherano per causato da AI in modo da deresponsabilizzarsi. In ogni caso, se l’output fosse davvero spazzatura come sostengono le autrici, nessuno lo comprerebbe. Forse il livello non è così lontano da quello umano? Dobbiamo davvero illuderci che gli umani non abbiano prodotto e producono spazzatura? La storia sembra dare una risposta netta a questa domanda – e non a nostro favore.
Quando si tratta di negare valore cognitivo ai modelli AI, le autrici dichiarano che sono «intrinsecamente inaffidabili, dato che sono state progettate per inventare cazzate» (p. 276). Quando si tratta di documentare i danni, presuppongono implicitamente che i modelli funzionino abbastanza da essere adottati su scala industriale, da sottrarre commissioni a professionisti, da inquinare l’ecosistema dell’informazione, da prendere decisioni con conseguenze reali sulla vita delle persone. Le due tesi richiedono premesse incompatibili; il libro le alterna a seconda della convenienza retorica senza mai riconoscere la tensione.
La risposta implicita delle autrici, quando la si ricostruisce, sembra essere che il problema siamo noi: proiettiamo significato dove non ce n’è, ci lasciamo ingannare dalla fluenza superficiale del testo sintetico. Ma se l’AI non funziona e noi siamo semplicemente troppo creduloni per accorgercene, il problema non è l’AI: è che l’intera specie è cognitivamente inadeguata, il che rende piuttosto superfluo scrivere un libro per avvertirla del pericolo. Se invece ammettiamo che almeno una parte degli utenti è in grado di distinguere un output utile da uno inutile e che lo fa regolarmente selezionando, scartando, correggendo, allora l’utilità dei modelli è un dato empirico e la tesi che «non funzionano» cade. Sarei curioso di proporre alle autrici un esperimento: dieci testi sullo stesso argomento, cinque umani e cinque sintetici, tutti rivisti con la stessa cura editoriale. Se riescono a distinguerli, è un punto a loro favore. Se non ci riescono — e la letteratura sperimentale suggerisce che non ci riuscirebbero con regolarità — devono scegliere: o il testo umano è anch’esso spazzatura, oppure il testo sintetico fa qualcosa di più che estrudere plastica linguistica.
Baudelaire, ancora
Il capitolo sull’arte e la scienza (capitolo 5) è il più debole del libro. Bender e Hanna definiscono i generatori di immagini «algoritmi probabilistici addestrati su grandi quantità di lavori rubati alle persone creative» e riassumono l’intera questione nella formula delle «tre C» — citazione, consenso, compenso. La questione dei diritti degli artisti è senza dubbio importante (da prima delle AI), ma il capitolo non la discute; la enuncia e basta, come se il furto esaurisse tutto ciò che c’è da dire su una tecnologia che apre anche possibilità creative inedite. Manca qualunque distinzione tra usi predatori e usi esplorativi, tra sostituzione del lavoro creativo e amplificazione di pratiche artistiche già in corso. L’analisi è un manifesto più che una riflessione critica.
La lacuna è tanto più grave in quanto ignora quanto il pattern sia antichissimo e riconoscibilissimo. La paura di Baudelaire davanti alla fotografia suona identica, quasi parola per parola, a quella che Bender e Hanna nutrono davanti ai modelli generativi: la facilità di realizzazione moltiplica le opere dozzinali, la nuova industria distrugge ciò che di divino resta nello spirito, la moltitudine è troppo stupida per resistere. Le stesse obiezioni sono state rivolte alla stampa a caratteri mobili, alla litografia, al cinema, al web. Il torto di Baudelaire non era nel diagnosticare la moltiplicazione della mediocrità — aveva ragione — ma nel credere che questo strumento non potesse dare luogo a opere d’arte; e si sbagliava perché non era un fotografo. Ormai sappiamo bene che non basta una macchina fotografica per fare un fotografo, così come non basta un prompt per fare un artista.
Bender e Hanna scrivono che «i fatti che gli strumenti per la produzione sintetica di testo e immagini possano scrivere o disegnare qualcosa che sembra credibile viene presentato come creatività. Ma questi strumenti non riflettono la condizione umana» (p. 221). L’argomento è identico a quello dell’epoca contro la fotografia: non riflette l’anima, la macchina non può raggiungere l’impalpabile e l’immaginario. Ma la storia dell’arte insegna il contrario. Le avanguardie del Novecento hanno da tempo slegato l’arte da qualunque forma di capacità artigianale o intervento diretto dell’autore: dal readymade di Duchamp alle serigrafie di Warhol, dall’arte concettuale alla Merda d’artista di Manzoni, il canone si è ripetutamente ampliato per includere mezzi e procedure che al momento del loro ingresso sembravano indegni. Cercare un elemento che decreti l’impossibilità di fare arte con le AI generative è un compito ingrato, che ignora un secolo di precedenti. Le critiche delle autrici avrebbero più forza se non fossero così totalizzanti e si fossero informate anche sul lavoro dei tanti professionisti creativi ed artisti che le AI le usano.
Lo slop e il doppio standard
Kate Crawford ha tracciato una traiettoria diversa ma convergente. Il suo saggio Eating the Future: The Metabolic Logic of AI Slop, pubblicato su e-flux nel settembre 2025, descrive l’AI come un sistema metabolico che divora la cultura per riprodurla in forma degradata: un ciclo di ingestione e rigurgito destinato a concludersi nel collasso dei modelli, dell’ecologia e della cognizione. La metafora è efficace e le preoccupazioni infrastrutturali che cita, come il consumo di energia e acqua e lo spostamento delle esternalità su comunità svantaggiate, sono senza dubbio legittime. Ma la profezia dell’autodistruzione si scontra con la prassi e con la ricerca più recente: uno studio pubblicato all’ICLR 2025 (Gerstgrasser et al.) ha dimostrato che il model collapse si verifica solo quando i dati sintetici rimpiazzano integralmente e senza revisione umana quelli reali; quando si mescolano, come accade nella pratica, il fenomeno non si manifesta.
C’è poi la questione dello slop. Come ho argomentato altrove (The Idea of “AI Slop” Is Slop, The Philosophical Salon, dicembre 2025), l’idea che l’AI produca per sua natura un residuo culturale senza valore collassa nel momento in cui si guarda alla storia. La maggioranza della produzione umana è sempre stata slop. Il canone che veneriamo, composto da alcune migliaia di opere nei musei e nei manuali, è la punta di un immenso iceberg di creazioni dimenticate, derivative o semplicemente noiose. Ogni volta che uno strumento diventa accessibile, la produzione si moltiplica — e con essa la mediocrità. Ma dalla mediocrità di massa emergono, ogni volta, nuove forme di eccellenza.
Crawford, come Bender, applica all’AI un metro morale che non viene applicato ad altre tecnologie. Quasi tutte le nostre tecnologie poggiano su sistemi analoghi di estrazione, consumo e inquinamento, spesso su scala enormemente più ampia; eppure raramente applichiamo lo stesso rigore critico al volo intercontinentale, allo streaming video o al rendering 3D, che possono consumare tanta o più energia di una sessione con AI generativa. Il doppio standard è evidente e Crawford non lo affronta, mentre la sua visione di un collasso dell’AI è una profezia che non si sta avverando.
Il rifiuto e il vuoto
La conclusione di The AI Con rivela il limite strutturale dell’intero approccio. Bender e Hanna propongono il «rifiuto strategico» come orizzonte politico: dire no all’AI, ispirandosi ai movimenti luddisti, femministi e alle lotte per i diritti dei dati. «Non bisogna mai sottostimare il potere di dire no», scrivono a p. 307. L’invito è suggestivo, ma la domanda che resta inevasa è: rifiutare a favore di cosa? Se l’AI è una tecnologia che, come il libro stesso documenta, sta già ridisegnando il lavoro, la sanità, l’educazione e la produzione culturale, il rifiuto senza un progetto alternativo rischia di essere un gesto simbolico che lascia il campo libero a chi queste tecnologie le governa e utilizza. Bender e Hanna scrivono che non sono contro la tecnologia e immaginano strumenti specifici, a ambito ristretto, progettati con le comunità coinvolte; ma questa visione è molto al ribasso e non si confronta con la possibilità che i modelli linguistici generali abbiano già prodotto utilità diffuse, imperfette e migliorabili, che una politica del rifiuto puro e semplice finirebbe per consegnare interamente a chi si pone meno limiti. Un boicottaggio che diventa autosabotaggio insomma – certo, non se continui a illuderti che siano strumenti inutili.
Per un’AI pubblica
La posizione che continuo a sostenere è che questi strumenti hanno potenzialità concrete, e che proprio per questo la battaglia politicamente rilevante riguarda chi li controlla e come sono governati. Il negazionismo della prima ora ha ritardato questa discussione, nell’illusione che si tratti solo di un fenomeno effimero e sopravvalutato. È il momento di abbandonare quella che Benjamin Bratton ha chiamato la prima fase del lutto verso le AI, la negazione.
Ciò significa pretendere intelligenze artificiali pubbliche, aperte e open source, i cui codici e pesi siano ispezionabili e modificabili dalla collettività; significa regolamentazione internazionale sull’uso bellico, trasparenza sui consumi energetici, tassazioni ad hoc alle aziende tech, tutele reali per i lavoratori, percorsi educativi per evitare corsie preferenziali. Dobbiamo anche criticare le AI usando le AI, senza dubbio, ma senza più nasconderlo.



