A.Dina
Geoffrey Hinton, una delle poche figure nel panorama dell’intelligenza artificiale che merita ancora il titolo di coscienza critica, ha recentemente ribadito un punto ormai quasi banale nella sua prevedibilità: l’AI rappresenta un rischio esistenziale in due forme, quella dell’abuso umano e quella della superiorità cognitiva delle macchine. Due categorie rassicuranti nella loro linearità, quasi eleganti nella loro semplicità; abbastanza chiare da essere digerite dai media, abbastanza drammatiche da alimentare conferenze, policy paper e qualche miliardo di dollari in finanziamenti pubblici.
Il problema, come spesso accade nelle rivoluzioni tecnologiche, non è ciò che viene discusso apertamente, ma ciò che rimane fuori dalla conversazione. Le vere discontinuità non arrivano mai con il fragore degli annunci, ma con il silenzio delle trasformazioni invisibili. Esiste infatti una terza minaccia, più sottile, meno cinematografica, e proprio per questo infinitamente più pericolosa: la progressiva erosione della condizione umana.
Non si tratta di una rivolta delle macchine, né di algoritmi che prendono il controllo dei sistemi nucleari. Si tratta di qualcosa di più banale e quindi più devastante: la delega sistematica della nostra capacità di pensare, decidere, immaginare e, in ultima analisi, esistere come soggetti autonomi.
La storia tecnologica è costellata di esempi in cui l’uomo ha esternalizzato funzioni cognitive. La scrittura ha sostituito la memoria orale, la stampa ha democratizzato la conoscenza, il motore di ricerca ha ridotto la necessità di ricordare informazioni. Ogni passaggio ha generato panico tra gli intellettuali dell’epoca, spesso con toni apocalittici che oggi fanno sorridere. Socrate temeva che la scrittura avrebbe distrutto la memoria; probabilmente avrebbe avuto un attacco di panico davanti a un modello linguistico generativo.
Eppure, questa volta il salto qualitativo è diverso. Non si tratta più di strumenti che amplificano le capacità umane, ma di sistemi che iniziano a sostituirle in modo sistemico. L’AI non è una semplice protesi cognitiva; è un surrogato decisionale.
Il punto critico non è che l’intelligenza artificiale possa diventare più intelligente di noi, ma che noi possiamo smettere di esercitare la nostra intelligenza. La differenza è sottile ma fondamentale. Nel primo caso, il rischio è esterno. Nel secondo, è interno. Ed è sempre il rischio interno quello che vince.
L’economia offre una lente utile per comprendere questo fenomeno. Quando un’attività diventa automatizzabile a basso costo, il mercato tende a sostituire il lavoro umano con la macchina. È successo nella manifattura, nella logistica, nei servizi. Ora sta accadendo nel dominio cognitivo. Il costo marginale del pensiero, grazie all’AI, tende a zero.
Quando il costo di qualcosa si azzera, il suo valore percepito segue la stessa traiettoria. Se generare un’idea, un testo, un’analisi diventa istantaneo e gratuito, la domanda implicita non è più “posso farlo?” ma “perché dovrei farlo?”.
Qui emerge la vera frattura. L’essere umano non è definito solo dalla sua capacità di produrre output, ma dal processo attraverso cui li genera. Pensare non è un mezzo; è una forma di esistenza. Delegarlo completamente equivale a delegare una parte della propria identità.
La Silicon Valley, con la sua consueta miscela di ingenuità e arroganza, tende a interpretare ogni problema come un problema di efficienza. Se qualcosa può essere automatizzato, deve essere automatizzato. È una logica industriale applicata alla sfera cognitiva, con risultati che iniziano a mostrare crepe evidenti.
La creatività diventa ottimizzazione statistica. Il giudizio critico si riduce a selezione tra opzioni generate da un modello. L’immaginazione viene sostituita da combinazioni probabilistiche di dati esistenti. In questo scenario, l’essere umano rischia di trasformarsi da agente a supervisore, da autore a editor, da pensatore a validatore.
Non è una distopia futuristica. È una dinamica già in atto. Basta osservare come vengono utilizzati i sistemi di AI generativa nel lavoro quotidiano. Documenti scritti da modelli e leggermente modificati, decisioni supportate da raccomandazioni algoritmiche, strategie costruite su analisi automatizzate. Il tempo guadagnato non viene necessariamente reinvestito in pensiero più profondo; spesso viene semplicemente consumato.
Esiste una parola che descrive questo fenomeno con precisione chirurgica: atrofia. Come un muscolo che non viene utilizzato, la capacità cognitiva si indebolisce quando non viene esercitata. L’AI non distrugge l’intelligenza umana; la rende opzionale.
Il paradosso è evidente. Più gli strumenti diventano potenti, meno siamo incentivati a usarli per espandere le nostre capacità. L’abbondanza tecnologica genera scarsità cognitiva.
A questo punto, il riferimento agli esperti di AI diventa quasi ironico. Il problema non è tecnico, è filosofico. Non riguarda cosa le macchine possono fare, ma cosa noi scegliamo di non fare più. Ed è qui che l’assenza di una riflessione esistenziale diventa pericolosa.
La filosofia, disciplina spesso relegata ai margini del dibattito tecnologico, torna improvvisamente centrale. Non per fornire risposte operative, ma per porre le domande giuste. Cosa significa essere umani in un contesto in cui il pensiero può essere simulato? Qual è il valore dell’errore, dell’incertezza, della lentezza? Quanto siamo disposti a sacrificare sull’altare dell’efficienza?
Le risposte non sono comode. Implicano una revisione profonda del nostro rapporto con la tecnologia. Non si tratta di rifiutarla, un’opzione tanto romantica quanto impraticabile, ma di ridefinirne il ruolo.
Un’analogia utile è quella con la finanza. L’automazione del trading ha portato a mercati più efficienti, ma anche a nuove forme di rischio sistemico. Flash crash, volatilità estrema, comportamenti emergenti difficili da prevedere. L’AI applicata alla cognizione umana potrebbe generare un fenomeno simile: un sistema apparentemente più efficiente, ma intrinsecamente più fragile.
La fragilità nasce dalla dipendenza. Più deleghiamo, più diventiamo vulnerabili. Non solo a eventuali malfunzionamenti tecnici, ma a una perdita progressiva di autonomia. È una dipendenza elegante, quasi invisibile, mascherata da comodità.
Qualcuno potrebbe obiettare che l’umanità ha sempre evoluto i propri strumenti e che questa è semplicemente la fase successiva. È un’osservazione corretta, ma incompleta. La differenza non è quantitativa, è qualitativa. Non stiamo automatizzando il lavoro, stiamo automatizzando il pensiero.
Una civiltà che smette di pensare è una civiltà che smette di evolvere. Può continuare a funzionare, a produrre, persino a crescere economicamente, ma perde la sua capacità di reinventarsi. Diventa statica, prevedibile, vulnerabile a shock esterni.
In questo contesto, la figura del tecnologo assume un ruolo ambiguo. Da un lato, è il motore dell’innovazione. Dall’altro, rischia di essere cieco rispetto alle implicazioni più profonde del proprio lavoro. Non per mancanza di intelligenza, ma per un bias strutturale: la tendenza a vedere il mondo come un insieme di problemi risolvibili.
La terza minaccia dell’AI non è un problema da risolvere. È una condizione da comprendere.
Richiede un cambio di paradigma che difficilmente emergerà dai laboratori di ricerca o dai board delle grandi aziende tecnologiche. Richiede un dialogo tra discipline, una contaminazione tra tecnologia, filosofia, economia, psicologia. Richiede, in ultima analisi, una certa dose di umiltà.
L’ironia finale è che, mentre ci preoccupiamo di macchine che potrebbero diventare troppo intelligenti, ignoriamo il rischio molto più concreto di diventare noi meno umani. Non meno efficienti, non meno produttivi, ma meno umani.
Ed è una perdita che nessun algoritmo sarà in grado di compensare.



