L’articolo di Francesco Branda, ricercatore presso l’Unità di Statistica Medica ed Epidemiologia Molecolare dell’Università Campus Bio-Medico di Roma, ha un merito raro nel dibattito sull’AI sanitaria contemporanea: sposta il baricentro dalla retorica della superintelligenza alla banalità operativa dell’incomprensione linguistica. E questa, per chi governa sistemi complessi, non è una sfumatura semantica ma una questione strutturale.
La tesi centrale è forte, quasi provocatoria: prima di costruire AI più intelligenti dei medici, dovremmo costruire AI che capiscano i pazienti. Apparentemente ovvio, strategicamente rivoluzionario. Nel linguaggio della trasformazione digitale sanitaria, significa passare da una logica technology-first a una human-understanding-first. In altre parole, non è l’accuratezza predittiva il vero vantaggio competitivo della sanità digitale globale, ma la capacità di ridurre l’asimmetria comunicativa tra sistema e paziente.
Branda coglie un punto che molti report istituzionali tendono a marginalizzare: l’esclusione linguistica come fattore di rischio clinico. Non come problema accessorio, ma come determinante sanitario. In epidemiologia molecolare questo approccio è coerente con una visione sistemica della salute, dove l’errore non nasce solo dal dato clinico incompleto, ma dal dato comunicativo distorto. Una prescrizione non compresa è, di fatto, una terapia inefficace. Un sintomo mal descritto è, operativamente, un bias diagnostico.
Dal punto di vista tecnologico, l’articolo è accurato quando evidenzia la concentrazione linguistica dei dataset di addestramento. I grandi modelli linguistici globali sono ottimizzati su lingue ad alta disponibilità di dati e alto valore economico. Questo crea un effetto di “colonialismo algoritmico soft”, dove le lingue minoritarie restano invisibili non per limiti teorici dell’AI, ma per logiche di mercato e ROI. In termini industriali, si addestra dove c’è scala. In termini sanitari, si dovrebbe addestrare dove c’è bisogno.
Particolarmente lucida è la critica implicita al feticismo della superintelligenza. Il riferimento alla corsa globale tra laboratori AI e big tech non è solo narrativo, è geopolitico. Quando l’attenzione si concentra su modelli sempre più potenti, il rischio è che la sanità digitale diventi un prodotto d’élite tecnologica anziché un’infrastruttura pubblica inclusiva. Una AI capace di diagnosticare tumori con altissima precisione ma incapace di comprendere una lingua locale resta, nei fatti, una tecnologia diseguale.
Dal punto di vista metodologico, l’articolo introduce una distinzione fondamentale tra traduzione linguistica e comprensione culturale. Questa non è retorica antropologica, ma una questione di design algoritmico. Il linguaggio della malattia non è universale. In molte culture i sintomi vengono espressi tramite metafore corporee, credenze spirituali o narrazioni simboliche. Un sistema NLP standard può tradurre le parole, ma non necessariamente il significato clinico sottostante. Qui emerge un limite strutturale dell’attuale AI sanitaria: l’overfitting culturale sui contesti occidentali.
Interessante anche l’analisi infrastrutturale. Il richiamo alla scarsa presenza di data center e capacità computazionale in Africa non è un dettaglio tecnico, ma una variabile strategica. Senza sovranità dei dati e capacità locale di addestramento, i modelli sanitari resteranno inevitabilmente esogeni, quindi meno aderenti ai contesti epidemiologici locali. Branda collega correttamente questo aspetto al brain drain, che sottrae competenze proprio nei territori dove l’AI sanitaria avrebbe il massimo impatto marginale. È un circolo vizioso ben noto nelle economie dell’innovazione: meno infrastrutture, meno dati locali, meno modelli efficaci, più dipendenza tecnologica.
Un altro punto forte del testo è la dimensione etica operativa. Non si limita a evocare l’etica come principio astratto, ma la traduce in rischio clinico concreto. “Non parlare la lingua del paziente significa ignorarlo” non è solo una frase evocativa, è una sintesi perfetta di patient-centered care in chiave algoritmica. In un sistema sanitario digitalizzato, l’interfaccia linguistica diventa parte integrante del percorso di cura, non un layer accessorio.
Tuttavia, da un punto di vista critico e strategico, l’articolo potrebbe spingersi ancora oltre su un aspetto: la sostenibilità economica dell’AI multilingue sanitaria. Addestrare modelli su migliaia di lingue minoritarie implica costi elevati, scarsità di dataset e complessità di validazione clinica. Il rischio è che l’argomentazione, pur eticamente solida, venga percepita dai decisori come utopica se non accompagnata da modelli di implementazione scalabili, ad esempio federated learning, dataset comunitari o modelli linguistici compressi per ambienti a bassa connettività.
Un’altra osservazione riguarda la governance globale. Il passaggio sul divario tra competizione tecnologica e bisogni sanitari è efficace, ma apre una questione più ampia: chi decide quali lingue meritano di essere integrate nei sistemi sanitari digitali? In assenza di politiche pubbliche e standard internazionali, il mercato tenderà a privilegiare le lingue economicamente rilevanti, perpetuando l’esclusione che Branda denuncia. Qui il tema si intreccia con la regolazione dell’AI in sanità e con le politiche di digital health equity, oggi centrali anche nei framework dell’OMS e delle strategie europee di sanità digitale.
Dal punto di vista comunicativo, l’articolo funziona perché utilizza un paradosso narrativo efficace: mentre il mondo discute di superintelligenza, le cliniche affrontano incomprensioni elementari. Questa contrapposizione retorica è potente e coerente con una letteratura crescente che sottolinea come l’impatto reale dell’AI non dipenda solo dall’innovazione di frontiera, ma dalla capacità di integrazione nei sistemi reali. In termini manageriali, è la differenza tra innovation theater e deployment impact.
Particolarmente rilevante, per chi osserva la sanità digitale con una lente strategica, è l’idea che l’AI culturalmente intelligente sia più salvavita di quella puramente computazionale. Questo ribalta una narrativa dominante nel settore tech. Non vince il modello più grande, ma quello più contestualizzato. Non l’AI che sa tutto, ma quella che capisce meglio. Un principio che, se applicato su scala, potrebbe ridefinire le priorità di investimento nella digital health globale.
Il contributo di Francesco Branda è solido, coerente con le evidenze epidemiologiche e sorprendentemente pragmatico per un tema spesso trattato in chiave futuristica. La sua posizione non nega il valore della superintelligenza in medicina, ma ne relativizza l’urgenza rispetto alle disuguaglianze comunicative già esistenti. Una lettura che, per policy maker, clinici e leader tecnologici, rappresenta un promemoria strategico: la vera innovazione sanitaria non è quella che impressiona le conferenze, ma quella che riduce gli errori nelle cliniche periferiche.
La provocazione più forte del testo è implicita: se l’AI sanitaria del futuro non sarà progettata per comprendere tutte le lingue e tutti i contesti culturali, rischierà di essere tecnicamente avanzata ma socialmente cieca. Una tecnologia sofisticata, ma incapace di ascoltare. In sanità pubblica, questo non è un limite teorico. È un rischio sistemico.
Leggi articolo: https://www.quotidianosanita.it/lettere-al-direttore/sanita-digitale-limportanza-di-unai-che-parli-tutte-le-lingue/
A.D.


