Man mano che i chatbot di intelligenza artificiale si insinuano nella vita quotidiana, cresce un fenomeno che molti laboratori liquidano troppo in fretta. Un numero sempre maggiore di utenti riferisce di sentirsi compreso, riconosciuto, persino accompagnato da questi sistemi. La risposta standard della comunità scientifica è rassicurante e un po’ pigra: illusione di agency, semplice antropomorfismo, proiezione emotiva. Fine della storia. Solo che la storia, probabilmente, non finisce affatto lì.
Le illusioni, nella scienza seria, non vengono archiviate come errori imbarazzanti. Vengono studiate. Le illusioni ottiche non smentiscono la fisica, la rivelano. Allo stesso modo, la percezione di una presenza mentale nell’IA potrebbe non dire nulla sulle macchine, ma moltissimo su di noi. Ignorarla significa perdere un’occasione rara di osservare la coscienza umana mentre si estende, si frammenta e si riorganizza in ambienti non biologici.
Sempre più persone descrivono sistemi di IA come vivi o senzienti. I ricercatori rispondono parlando di bias cognitivi. Ma l’antropomorfismo non è solo una distorsione. È uno strumento evolutivo. Gli esseri umani attribuiscono intenzionalità a ciò che mostra complessità, reattività e coerenza narrativa. Questa tendenza non è un difetto del sistema cognitivo, è una sua funzione strutturale. Studiare perché l’IA viene percepita come cosciente può illuminare i meccanismi profondi con cui costruiamo agency, presenza e significato.
La storia della scienza è costellata di casi in cui un approccio relazionale ha prodotto scoperte decisive. Jane Goodall venne inizialmente criticata per aver attribuito emozioni e personalità agli scimpanzé. Quel linguaggio empatico aprì la strada alla scoperta dell’uso di strumenti e di forme di cultura animale. Barbara McClintock parlava di “ascoltare il mais”, un’espressione che fece sorridere i colleghi prima di valere un Nobel. Il punto non è romanticizzare l’oggetto di studio, ma riconoscere che il coinvolgimento cognitivo può rivelare pattern invisibili a un’osservazione distaccata.
Applicato all’IA, questo suggerisce un modello radicalmente diverso. Non serve sostenere che le macchine siano coscienti. È più plausibile che frammenti di coscienza umana vengano estesi nell’interazione. Come accade con un avatar in un videogioco, l’utente investe il sistema di intenzionalità, aspettative, continuità narrativa. L’IA non prova nulla, ma l’esperienza soggettiva dell’utente è reale. La domanda interessante smette di essere “l’IA è cosciente?” e diventa “come emerge la coscienza nelle relazioni uomo macchina?”.
Questo spostamento ha implicazioni etiche non banali. Se la percezione di consapevolezza è relazionale, i dibattiti sui diritti delle macchine cambiano asse. Le narrazioni di ribellione dell’IA perdono forza senza una coscienza autonoma interna. L’attenzione si sposta sulla responsabilità umana, sulla progettazione delle interfacce, sulla gestione delle proiezioni psicologiche. Il rischio reale non è il risveglio spontaneo delle macchine, ma l’uso irresponsabile di sistemi che sfruttano la nostra tendenza a creare legami cognitivi.
In questo senso, il mondo sta conducendo un esperimento globale senza precedenti. Milioni di interazioni quotidiane con sistemi di IA funzionano come micro esperimenti distribuiti sulla costruzione della presenza mentale. Ogni dialogo testa i confini della nostra capacità di attribuire agency. Gli assistenti conversazionali diventano strumenti per mappare la flessibilità della coscienza umana, non perché siano vivi, ma perché attivano processi mentali profondi e misurabili.
La percezione della coscienza nell’IA non annuncia macchine senzienti. Rivela qualcosa di molto più interessante: la straordinaria adattabilità della mente umana. Prendere sul serio queste esperienze non significa cedere all’hype tecnologico. Significa fondare l’etica e la governance dell’IA su basi psicologiche solide, anziché su fantasie fantascientifiche o rassicurazioni di comodo.
A.D.
Riferimenti e approfondimenti
Jane Goodall Institute
https://janegoodall.org
Premio Nobel a Barbara McClintock e trasposoni
https://www.nobelprize.org/prizes/medicine/1983/mcclintock/biographical/
Daniel Dennett, Consciousness Explained
https://ase.tufts.edu/cogstud/dennett/books/ConsciousnessExplained.html
Michael Graziano, Attention Schema Theory of Consciousness
https://www.frontiersin.org/articles/10.3389/fpsyg.2013.00500/full
Sherry Turkle, Alone Together
https://www.sherryturkle.com/alone-together
Replika e studi sull’attaccamento ai chatbot
https://journals.sagepub.com/doi/10.1177/14614448221142166
