di Francesco Branda, Unità di Statistica Medica ed Epidemiologia Molecolare, Università
Campus Bio-Medico di Roma
Per lungo tempo l’intelligenza artificiale è stata descritta come uno strumento a supporto del pensiero umano. Tuttavia, questa rappresentazione appare oggi sempre meno adeguata. Con la diffusione dei sistemi generativi, degli algoritmi di raccomandazione e delle piattaforme digitali, l’AI non si limita più ad assistere il ragionamento umano: contribuisce sempre più a modellare le condizioni entro cui il pensiero prende forma.
Questa trasformazione può essere letta alla luce di una lunga tradizione filosofica. Già Martin Heidegger osservava che la tecnologia non è mai un semplice mezzo, ma un modo di “disvelare” il mondo, una cornice che orienta ciò che può apparire significativo [1]. Più recentemente, Michel Foucault ha mostrato come i dispositivi di sapere e potere strutturino i campi del dicibile e del pensabile [2]. L’intelligenza artificiale contemporanea può essere interpretata come una nuova forma di dispositivo epistemico: non solo produce risposte, ma contribuisce a definire le domande stesse che riteniamo rilevanti.
Negli ultimi anni, diversi studiosi hanno sottolineato questa trasformazione. I sistemi di intelligenza artificiale non possono più essere considerati strumenti neutri, ma veri e propri artefatti epistemici, capaci di influenzare i quadri interpretativi attraverso cui la conoscenza viene organizzata, valutata e resa credibile [3]. In questo senso, l’AI non modifica soltanto la velocità o l’efficienza del ragionamento, ma interviene sull’ambiente cognitivo stesso in cui il ragionamento avviene. Un primo passo per comprendere questa dinamica è rappresentato dal concetto di System 0 [4]. Con questa espressione si indica un livello non biologico di elaborazione dell’informazione che precede e modula sia la cognizione intuitiva sia quella riflessiva. Prima ancora che l’individuo inizi a deliberare consapevolmente, sistemi algoritmici hanno già filtrato le informazioni disponibili, determinando non solo quali dati raggiungono la mente, ma anche in quale forma e con quale gerarchia di rilevanza.
Dal punto di vista ingegneristico, questo “filtro” è tutt’altro che astratto. Nei motori di ricerca, algoritmi di ranking come PageRank ordinano i risultati sulla base di reti di collegamenti e segnali di autorevolezza [5], ma oggi integrano centinaia di feature: segnali comportamentali, contesto geografico, cronologia utente, modelli semantici. Nei social network, i modelli di raccomandazione non si limitano a “suggerire contenuti”, ma operano attraverso pipeline tecniche ben definite. A partire dai dati di interazione (click, like, tempo di visualizzazione, scroll), i sistemi costruiscono rappresentazioni numeriche dense, i cosiddetti embedding, che descrivono sia gli utenti sia i contenuti nello stesso spazio vettoriale. Tecniche come il collaborative filtering apprendono similarità implicite tra utenti (chi ha comportamenti simili tende a vedere contenuti simili), mentre modelli di deep learning più avanzati integrano segnali eterogenei: testo, immagini, rete sociale, contesto temporale. Questi modelli vengono addestrati su larga scala per ottimizzare funzioni obiettivo precise, come la probabilità di clic (click-through rate), il tempo di permanenza (watch time) o la probabilità di condivisione. In pratica, per ogni contenuto candidato, il sistema stima in tempo reale un punteggio di rilevanza per ciascun utente, utilizzando modelli predittivi che possono includere reti neurali profonde, sistemi a due stadi (candidate generation e ranking) e aggiornamenti continui basati su feedback online. Il risultato è che il feed non è una semplice sequenza cronologica, ma una costruzione dinamica, una classifica personalizzata generata istante per istante, in cui ciò che appare “interessante” è il prodotto di un’ottimizzazione matematica su larga scala. In questo senso, il sistema non si limita a riflettere le preferenze dell’utente, ma le inferisce, le anticipa e progressivamente le rinforza, contribuendo a stabilizzare specifici pattern di attenzione e comportamento.
Architetture moderne basate su modelli Transformer [6] hanno ulteriormente ampliato questo paradigma, rendendo possibile non solo selezionare informazioni, ma sintetizzarle, riformularle e generarle dinamicamente. Il passaggio da sistemi di ranking a sistemi generativi segna un salto qualitativo: l’AI non si limita più a ordinare il mondo informativo, ma contribuisce a costruirlo.
Il System 0 non si limita quindi ad ampliare le capacità cognitive, ma funziona come una vera e propria infrastruttura del pensiero. In termini filosofici, potremmo dire che agisce come una forma di “a priori tecnico”, riecheggiando le riflessioni di Immanuel Kant, ma spostando le condizioni della conoscenza dall’ambito trascendentale a quello socio-tecnico [7]. A differenza dell’a priori kantiano, tuttavia, questo livello non è universale né stabile: è dinamico, adattivo, spesso opaco, e governato da attori economici e istituzionali.
Tuttavia, l’esperienza contemporanea mostra che l’intelligenza artificiale opera ormai su una scala ancora più ampia. Non si tratta più soltanto dell’interazione tra un individuo e un singolo algoritmo. L’AI è sempre più integrata in ambienti socio-tecnici complessi che strutturano l’attenzione collettiva, la formazione delle credenze e i processi decisionali di intere comunità. Per descrivere questa dimensione più ampia possiamo introdurre il concetto di Thinkframe [8]. Il Thinkframe può essere inteso come un’architettura cognitiva collettiva: una configurazione composta da agenti umani, sistemi di intelligenza artificiale, infrastrutture digitali e vincoli istituzionali che insieme organizzano il flusso delle informazioni e orientano la costruzione della conoscenza condivisa. Qui il parallelo con la nozione di “mente estesa” proposta da Andy Clark è evidente: la cognizione non è confinata nel cervello, ma distribuita tra strumenti, ambienti e interazioni [9]. Tuttavia, il Thinkframe introduce un elemento ulteriore: non solo estensione, ma anche orchestrazione della cognizione su scala collettiva.
I Thinkframe assumono forma concreta in molti contesti della vita contemporanea. Sui social network, pipeline ingegneristiche complesse, che combinano sistemi di ranking, modelli di engagement prediction, tecniche di A/B testing continuo e infrastrutture di real-time data processing, determinano quali contenuti ottengono visibilità. Questi sistemi operano su scala massiva, aggiornando continuamente le priorità informative in base al comportamento collettivo degli utenti. Ogni interazione dell’utente diventa un segnale che retroalimenta il sistema, in un ciclo continuo di ottimizzazione. Questo introduce una dinamica circolare: i sistemi non si limitano a riflettere le preferenze degli utenti, ma contribuiscono a plasmarle nel tempo, creando forme di co-evoluzione tra comportamento umano e logiche algoritmiche. Analogamente, nel contesto della ricerca scientifica, motori semantici e strumenti di raccomandazione accademica utilizzano embedding ad alta dimensionalità per mappare concetti, articoli e comunità di ricerca. Questo consente di navigare lo spazio della conoscenza in modo inedito, ma introduce anche bias sistemici: ciò che è già connesso tende a diventare più visibile, mentre ciò che è periferico rischia di rimanere invisibile. In ambito istituzionale, sistemi di supporto alle decisioni integrano modelli predittivi, simulazioni e dashboard interattive. Qui il Thinkframe assume una forma particolarmente critica: non solo organizza l’informazione, ma struttura direttamente i percorsi decisionali, influenzando quali scenari vengono considerati plausibili, quali rischi vengono evidenziati e quali opzioni appaiono razionali. In ambito sanitario o finanziario, sistemi di supporto alle decisioni utilizzano modelli predittivi costruiti con pipeline di machine learning orchestrate su piattaforme cloud come Amazon Web Services. Le dashboard con cui interagiscono i professionisti non sono semplici interfacce: sono condensazioni operative di modelli statistici, scelte di design e priorità epistemiche.
In tutti questi casi emerge una caratteristica fondamentale: il pensiero umano non opera più su un campo informativo neutro, ma all’interno di ambienti già modellati, ottimizzati e continuamente aggiornati da sistemi artificiali. Il Thinkframe non è quindi soltanto un’estensione della cognizione, ma una vera e propria infrastruttura epistemica collettiva, in cui il confine tra produzione, selezione e interpretazione della conoscenza diventa sempre più sfumato.

Questa trasformazione offre opportunità straordinarie, ma introduce anche nuove sfide.
Il rischio di omogeneizzazione epistemica richiama le preoccupazioni di Jürgen Habermas sulla qualità del dibattito pubblico [10]: quando l’attenzione collettiva è mediata da logiche algoritmiche orientate alla performance, cioè engagement, retention, viralità, il pluralismo tende a ridursi non per censura esplicita, ma per effetto di dinamiche di ottimizzazione. I sistemi di raccomandazione, infatti, amplificano contenuti già performanti, generando meccanismi di feedback positivo che concentrano visibilità e attenzione su un insieme ristretto di narrazioni. In termini ingegneristici, questo fenomeno può essere letto come una forma di exploitation bias nei sistemi di apprendimento: ciò che funziona viene continuamente ri-selezionato, a scapito dell’esplorazione di alternative epistemiche.
La delega metacognitiva può essere letta attraverso la lente di Herbert Simon e della sua nozione di razionalità limitata [11]: l’essere umano delega perché non può elaborare tutto, ma l’automazione spinge questa delega a livelli senza precedenti. Oggi non deleghiamo solo il calcolo o la memoria, ma anche la selezione delle fonti, la sintesi delle informazioni, la generazione di ipotesi. Nei sistemi basati su modelli linguistici avanzati, questa delega si estende fino alla produzione di argomentazioni plausibili, introducendo una nuova forma di “outsourcing cognitivo” in cui la distinzione tra supporto e sostituzione diventa sempre più sfumata.
La compressione della deliberazione, infine, è amplificata da architetture tecniche progettate per la latenza minima e la risposta in tempo reale. L’efficienza computazionale diventa così un fattore che incide direttamente sulla qualità epistemica. La velocità non è neutrale: riduce il tempo disponibile per la riflessione critica e favorisce forme di decisione rapide, spesso basate su segnali sintetici piuttosto che su analisi approfondite. In questo senso, l’architettura tecnica introduce una sorta di “bias temporale” nella conoscenza: ciò che è immediato tende a prevalere su ciò che è accurato.
A queste dinamiche si aggiunge un ulteriore elemento: l’opacità algoritmica. I modelli contemporanei, soprattutto quelli basati su deep learning, sono spesso difficili da interpretare anche per gli stessi sviluppatori. Questo introduce un trade-off tra performance e comprensibilità: sistemi sempre più efficaci, ma sempre meno trasparenti. In contesti ad alta rilevanza, come sanità, giustizia, politiche pubbliche, questa opacità può tradursi in una riduzione della responsabilità epistemica: le decisioni vengono prese sulla base di output difficilmente spiegabili, rendendo più complesso il controllo critico.
Ed è proprio in questo contesto che il dibattito sull’Artificial General Intelligence assume un significato più profondo.
Spesso l’AGI viene descritta come il momento in cui una macchina raggiungerà o supererà le capacità cognitive umane. Tuttavia, questa rappresentazione rischia di essere fuorviante se continua a focalizzarsi su un singolo sistema isolato. L’evoluzione dei Thinkframe suggerisce una prospettiva alternativa: l’intelligenza generale potrebbe emergere non come proprietà di un’entità, ma come dinamica di un ecosistema.
In termini ingegneristici, questo implica uno spostamento verso sistemi multi-agente, architetture modulari e reti di modelli interconnessi (model orchestration, tool use, agent frameworks), in cui diverse componenti, cioè modelli linguistici, sistemi di retrieval, motori simbolici, interfacce umane, collaborano per risolvere problemi complessi. In queste architetture, nessun singolo elemento possiede una “intelligenza generale”, ma il sistema nel suo insieme manifesta comportamenti che si avvicinano a essa.
Un’analogia utile è quella delle reti distribuite: Internet non “risiede” in un nodo, ma emerge dall’interconnessione di milioni di dispositivi e protocolli. Allo stesso modo, l’intelligenza collettiva uomo-macchina potrebbe emergere dall’interazione tra agenti umani e artificiali, mediata da infrastrutture digitali. In questa prospettiva, i Thinkframe rappresentano una fase evolutiva intermedia, un’infrastruttura cognitiva distribuita che amplifica progressivamente le capacità collettive di analisi, previsione e coordinamento.
Questo sposta radicalmente la domanda sull’AGI: non più “quando arriverà?”, ma “come stiamo costruendo le condizioni della sua emergenza?”. E soprattutto: quali proprietà sistemiche stiamo incorporando in queste architetture? Robustezza o fragilità? Pluralismo o convergenza? Trasparenza o opacità?
Se l’intelligenza generale dovesse emergere all’interno di ecosistemi distribuiti, la questione centrale diventa quella della governance. Chi controlla gli algoritmi di ranking? Chi definisce le metriche di ottimizzazione? Chi decide quali dati alimentano i modelli e quali vengono esclusi? Ma anche: quali incentivi economici guidano queste scelte? Quali forme di accountability sono possibili in sistemi così complessi?
La governance dei Thinkframe richiede quindi nuovi strumenti concettuali e istituzionali. Non si tratta solo di regolamentare singoli algoritmi, ma di intervenire sulle architetture complessive: definire standard di trasparenza, introdurre meccanismi di audit indipendente, progettare sistemi che incorporino esplicitamente obiettivi di pluralismo informativo e diversità epistemica. In questo senso, la progettazione tecnica diventa inseparabile dalla progettazione normativa.
Comprendere e progettare consapevolmente queste architetture significa intervenire non solo sulla tecnologia, ma sulle condizioni stesse della conoscenza. Significa decidere se costruire sistemi che rafforzano il pluralismo epistemico o che lo comprimono, che amplificano l’autonomia cognitiva o che la delegano, che mantengono aperto lo spazio della deliberazione o che lo accelerano fino a renderlo opaco.
L’intelligenza artificiale sta diventando parte dell’infrastruttura del pensiero umano, una sorta di “strato cognitivo” che si interpone tra gli individui e il mondo. Non è più soltanto uno strumento, ma un ambiente.
La domanda fondamentale non è soltanto se riusciremo a costruire macchine sempre più intelligenti.
La domanda decisiva è quale architettura cognitiva collettiva vogliamo costruire e quali valori vogliamo inscrivere nei sistemi che contribuiranno a plasmare il modo in cui le società del futuro penseranno, conosceranno e prenderanno decisioni.
References
- Heidegger M. La questione della tecnica. Con un saggio di Federico Sollazzo. Goware; 2017 Feb 8.
- Foucault M. L’archeologia del sapere. Bur; 2013 Jan 24.
- Floridi L. The philosophy of information. OUP Oxford; 2013 Jan 10.
- Chiriatti M, Ganapini M, Panai E, Ubiali M, Riva G. The case for human–AI interaction as system 0 thinking. Nature Human Behaviour. 2024 Oct;8(10):1829-30.
- Brin S, Page L. The anatomy of a large-scale hypertextual web search engine. Computer networks and ISDN systems. 1998 Apr 1;30(1-7):107-17.
- Ashish V. Attention is all you need. Advances in neural information processing systems. 2017;30:I.
- Kant I. Critica della ragion pura. Gius. Laterza & Figli Spa; 2019 Sep 24.
- Branda F. When artificial intelligence shapes the way we think. Philosophy & Technology. 2026 Mar;39(1):42.
- Clark A. Supersizing the Mind: Oxford University Press. Philosophica l Studies. Oxford, UK. 2008;152:413-6.
- Habermas J. Storia e critica dell’opinione pubblica (1962). Laterza, Roma-Bari. 1988:194-239.
- Herbert S. Administrative behavior. Nova Iorque: The Macmil-Ian Company. 1947;2.



