Più l’intelligenza artificiale diventa sofisticata, accessibile, persuasiva, più il pensiero umano rischia di diventare pigro. Non è un fallimento tecnologico. È un successo e proprio per questo è pericoloso. L’AI funziona così bene da indurre un comportamento che ogni epistemologo riconoscerebbe come una resa silenziosa dell’autonomia cognitiva. Il tema centrale non è se gli algoritmi siano accurati. È chi decide, come decide e soprattutto chi smette di decidere quando l’output appare autorevole, fluido, rassicurante.
Significa mantenere il controllo sui processi di formazione del giudizio in ambienti saturi di automazione. Significa saper distinguere tra supporto decisionale e delega epistemica. Significa non confondere la velocità con la verità, la coerenza sintattica con la validità scientifica, l’efficienza computazionale con la comprensione.
Nelle scienze della vita l’AI ha già cambiato tutto. Diagnostica per immagini, progettazione proteica, drug discovery, analisi genomica, documentazione clinica, sintesi della letteratura. Il valore è reale, misurabile, straordinario. Ma proprio qui emerge il primo corto circuito cognitivo. Quando un sistema funziona bene, l’essere umano tende a fidarsi. Quando funziona quasi sempre bene, tende a smettere di verificare. È il classico bias dell’automazione, documentato da decenni negli studi di human factors, oggi amplificato da interfacce conversazionali che parlano come colleghi brillanti e non come macchine statistiche.
L’automazione bias non è un errore individuale. È un fenomeno sistemico. In ambienti ad alta pressione come ospedali, laboratori, centri di ricerca, la delega all’algoritmo diventa una strategia di sopravvivenza cognitiva. Il carico informativo cresce, il tempo si riduce, l’output AI arriva prima della riflessione umana. Il risultato è una forma di delega epistemica strutturale. L’algoritmo non suggerisce più. Decide implicitamente. L’umano ratifica.
Qui la sovranità cognitiva inizia a erodersi. Non perché qualcuno sia ingenuo. Ma perché il contesto incentiva la fiducia non calibrata. La fiducia, in ingegneria cognitiva, non è una virtù morale. È una variabile di progetto. Deve essere calibrata, dinamica, proporzionata al rischio. Nei sistemi generativi moderni accade l’opposto. La fluidità linguistica aumenta la percezione di autorità epistemica anche quando l’incertezza è alta. Il cervello umano, progettato per fidarsi del linguaggio coerente, cade in una trappola perfetta.
Nelle life sciences questo produce effetti profondi. Ricercatori che accettano sintesi generate senza tornare alle fonti primarie. Clinici che seguono raccomandazioni algoritmiche perché appaiono consistenti con il quadro generale. Manager che approvano decisioni operative basate su dashboard predittive senza interrogarsi sui dati sottostanti. Non è malafede. È comfort cognitivo. Ed è esattamente il problema.
La sovranità cognitiva si perde quando il pensiero critico diventa un costo e non un valore. Quando il dubbio rallenta. Quando la verifica è vista come inefficienza. In questo scenario emerge quella che potremmo chiamare la trappola della sovranità. L’utente confonde la padronanza dell’interfaccia con la padronanza epistemica. Sa usare il sistema, quindi crede di capire ciò che il sistema produce. È un’illusione sofisticata.
Nel campo della biologia computazionale il fenomeno è evidente. Modelli come AlphaFold o piattaforme di design molecolare generano strutture plausibili con una velocità che vent’anni fa sarebbe sembrata fantascienza. Ma plausibile non significa vero. Significa statisticamente coerente con i dati di addestramento. Esperimenti recenti mostrano che questi modelli possono produrre strutture formalmente corrette anche quando violano vincoli fisico chimici fondamentali. Se il ricercatore non esercita sovranità cognitiva, l’errore passa inosservato e viene incorporato nel ciclo successivo. L’AI non sbaglia da sola. Sbaglia perché nessuno la ferma.
Qui entra in gioco un altro concetto chiave per la SEO semantica e per la realtà operativa: supervisione umana significativa. Non basta essere human in the loop sulla carta. Serve capacità reale di intervento. Servono competenze mantenute vive. Servono incentivi organizzativi che premiano chi verifica e non solo chi produce output. Senza questo, la supervisione è una fiction regolatoria.
Non a caso le autorità stanno cercando di intervenire. L’AI Act europeo introduce l’obbligo di progettare sistemi che tengano conto del rischio di bias dell’automazione e impongano meccanismi di controllo umano. La FDA americana parla di credibilità contestuale e di monitoraggio continuo. L’EMA e l’OMS insistono su human centered design e responsabilità. Ma c’è un limite strutturale. Nessuna norma può imporre il pensiero critico. Può solo creare le condizioni perché non venga soffocato.
Ed è qui che la sovranità cognitiva diventa una strategia aziendale, non un principio etico astratto. Le organizzazioni che delegano troppo all’AI ottengono efficienza nel breve periodo e fragilità nel medio termine. Perdono competenze. Perdono capacità di intervento quando il sistema fallisce. Perdono accountability. Quando qualcosa va storto, nessuno sa più spiegare perché. Il rischio non è solo tecnico. È reputazionale, legale, sistemico.
Esiste anche un effetto meno visibile ma più corrosivo. La deskilling progressiva. Studi clinici mostrano che l’uso continuativo di sistemi di supporto diagnostico può ridurre le capacità non assistite dei professionisti. Il paradosso è crudele. Più l’AI aiuta, meno l’umano sa fare senza AI. Nel momento dell’errore raro ma inevitabile, la capacità di recupero è compromessa. È come avere piloti che volano sempre in automatico e poi si trovano impreparati quando l’autopilota si disattiva.
La sovranità cognitiva serve esattamente a questo. A mantenere una mente fortificata, capace di tollerare l’incertezza, riconoscere i limiti dell’output, distinguere tra correlazione e causalità. Non è una battaglia contro l’AI. È una battaglia contro l’uso pigro dell’AI. Le tecnologie spiegabili aiutano, ma non risolvono. Le spiegazioni possono aumentare la persuasività senza aumentare la verità. Anche qui serve giudizio.
C’è un’ironia sottile in tutto questo. L’AI nasce per aumentare l’intelligenza umana e rischia di ridurla se usata male. Non perché rende stupidi, ma perché rende superfluo l’esercizio del dubbio. E il dubbio è il motore della scienza. Senza dubbio non c’è progresso, solo iterazione automatica.
Nel lungo periodo, la vera differenza competitiva non sarà chi usa più AI, ma chi mantiene più sovranità cognitiva mentre la usa. Chi costruisce processi in cui l’output algoritmico è un punto di partenza e non una sentenza. Chi investe in formazione critica, non solo in prompt engineering. Chi capisce che la vera intelligenza aumentata è quella che rende l’umano più responsabile, non più passivo.
In un mondo in cui le macchine parlano sempre meglio, la capacità di pensare contro di esse diventa un asset strategico. La sovranità cognitiva non è un lusso per filosofi. È una necessità per chiunque prenda decisioni che contano. E nelle scienze della vita, le decisioni contano sempre.
A.D.
Paper di Francesco Branda
Assistant professor at Unit of Medical Statistics and Molecular Epidemiology | Fortune Italy 40under40 2024; Magna Grecia Awards 2024



