In apparenza, i grandi modelli linguistici sono intelligenti. Comunicano con fluidità, sicurezza e una disinvoltura che farebbe arrossire un consulente di McKinsey. Ma confondere eloquenza con comprensione è un errore da principianti. La verità è che l’AI moderna vive dentro una caverna platonica digitale: vede soltanto le ombre del mondo, non il mondo stesso. Il problema non è un dettaglio da correggere con più dati o più parametri: è architetturale. I modelli di linguaggio non percepiscono nulla. Non ascoltano, non toccano, non interagiscono. La loro “esperienza” si limita a testi scritti da esseri umani, intrisi di opinioni, bias, errori e semplificazioni, un filtro di realtà distorta che li intrappola in un’illusione di conoscenza. Il linguaggio è una rappresentazione del mondo, non il mondo. Formare un modello su trilioni di parole non lo rende più reale di un romanzo di fantascienza.
Molti continuano a credere che il problema possa essere risolto con più scala: più dati, più parametri, più potenza di calcolo. La matematica del marketing AI adorerebbe questa narrativa. Peccato che non funzioni. Aumentare la scala genera solo ombre linguistiche più dettagliate, non comprensione. I modelli sono ottimizzati per prevedere la parola successiva, non per ragionare su causalità, fisica o conseguenze. Le famigerate “allucinazioni” non sono errori occasionali, ma manifestazioni strutturali di questa architettura. Yann LeCun lo ripete da anni: il linguaggio da solo non basta per costruire intelligenza. Per quanto sofisticato sia un modello, rimane intrappolato nella mediocrità della simulazione testuale.
La svolta reale arriva dai world models, modelli che apprendono dall’interazione diretta con l’ambiente, feedback continui e simulazioni, invece di limitarsi a leggere testi. Questi sistemi integrano dati sensoriali, segnali temporali, simulazioni operative e risultati reali. L’obiettivo non è più “cosa suona plausibile” ma “cosa succederà se faccio X”. È un cambio di paradigma che trasforma l’AI da commentatore letterario a stratega operativo. In logistica e supply chain, i world models possono simulare interruzioni e testare risposte prima di investire capitale. Nell’assicurativo e nella gestione del rischio, modellano evoluzioni e perdite a cascata, un salto qualitativo rispetto agli algoritmi che si limitano a elaborare statistiche storiche. In fabbrica, i digital twins rappresentano già una forma embrionale di world model, anticipando guasti e ottimizzando processi in tempo reale.
Chi resta ancorato al solo linguaggio rischia di vivere nel regno delle illusioni: previsioni fluenti ma vuote, decisioni basate su probabilità linguistiche anziché realtà. La prossima fase dell’AI non abbandonerà i modelli linguistici, li userà come interfacce sopra sistemi radicati nel mondo reale. Le organizzazioni che sapranno andare oltre la sola intelligenza testuale conquisteranno vantaggi predittivi, insight operativi e superiorità strategica. Il vero breakthrough non sarà far parlare meglio l’AI, ma farla capire davvero come funziona il mondo.
Curiosità: alcuni dei primi esperimenti di world models derivano dai videogiochi. Si è scoperto che un agente che impara a navigare in ambienti simulati sviluppa capacità di previsione sorprendenti, capacità che un modello puramente linguistico non potrà mai acquisire. L’ironia è che per decenni abbiamo messo l’AI a leggere romanzi, mentre il mondo reale continuava a muoversi senza aspettare.
A.D.



