di Leonardo Becchetti (Università Tor Vergata)
Abstract: Negli ultimi decenni abbiamo costruito regole sofisticate per garantire pluralismo nei media tradizionali, ma abbiamo trascurato il nuovo spazio in cui si forma realmente l’opinione pubblica: le piattaforme digitali. Gli algoritmi che selezionano e amplificano i contenuti non sono neutri e incidono profondamente sulla qualità della democrazia, favorendo polarizzazione, disinformazione e sfiducia nelle istituzioni. In questo contesto, la libertà di espressione rischia di diventare puramente formale, se non accompagnata da condizioni che garantiscano un confronto informato e non manipolato. L’articolo propone un cambio di paradigma: non limitare l’innovazione tecnologica, ma governarla attraverso trasparenza, responsabilità delle piattaforme, accesso ai dati e tutela dello spazio pubblico digitale. In gioco non c’è solo la regolazione della tecnologia, ma la difesa stessa della democrazia. Di qui un manifesto che tutti possono sottoscrivere.
Regoliamo con precisione millimetrica le tribune elettorali, i tempi di parola nei telegiornali, gli spazi dei partiti durante le campagne. Abbiamo costruito negli anni un sistema sofisticato per garantire equilibrio e pluralismo nell’arena pubblica tradizionale. Eppure, non ci siamo accorti che il terreno su cui si forma davvero l’opinione pubblica si è progressivamente spostato altrove. Ci siamo trovati a chiudere la stalla quando i buoi erano già scappati, sorpresi da una trasformazione che non abbiamo compreso fino in fondo, lasciando senza regole proprio gli strumenti che oggi incidono più profondamente sulle nostre scelte, percezioni e convinzioni: gli algoritmi delle piattaforme digitali.
È un paradosso evidente, ma ancora sottovalutato. La democrazia contemporanea non si gioca più soltanto nelle piazze, nei parlamenti o nei media tradizionali. Sempre di più si costruisce — o si deforma — negli spazi digitali, dove ciò che vediamo non è il risultato di una selezione neutrale, ma di processi automatizzati che filtrano, ordinano e amplificano i contenuti in base a logiche spesso opache. In questo nuovo ecosistema, l’accesso all’informazione non è più semplicemente garantito: è mediato, orientato, talvolta distorto.
Le piattaforme digitali non sono più semplici strumenti di comunicazione. Sono diventate vere e proprie infrastrutture del dibattito pubblico. Attraverso algoritmi di raccomandazione e sistemi avanzati di profilazione determinano quali contenuti emergono e quali scompaiono, quali voci vengono amplificate e quali restano marginali. Questo potere non è neutro e non è irrilevante perché incide direttamente sulla qualità della democrazia.
Come ammesso pubblicamente da Elon Musk nel caso di X, i modelli economici su cui queste piattaforme si fondano tendono a privilegiare ciò che cattura attenzione immediata. Non la qualità dell’argomentazione, non la verifica delle fonti, ma l’intensità emotiva. Indignazione, conflitto, polarizzazione diventano così leve strutturali del sistema. Non necessariamente perché vi sia un’intenzione esplicita di manipolare, ma perché l’engagement — il tempo di permanenza, l’interazione — è il principale indicatore di successo economico.
Le conseguenze sono ormai evidenti. Cresce la polarizzazione sociale, si indebolisce la fiducia nelle istituzioni, si deteriora la qualità del confronto pubblico. Il dibattito si frammenta, si radicalizza, si semplifica. Le posizioni intermedie scompaiono, mentre quelle più estreme guadagnano visibilità. In questo contesto, la manipolazione non avviene principalmente attraverso la censura, ma attraverso l’amplificazione selettiva e l’opacità dei meccanismi che regolano la circolazione delle informazioni.
La disinformazione, in questo scenario, non è più un’anomalia ma una componente strutturale. Non si tratta solo di notizie false isolate, ma di un ecosistema che rende difficile distinguere tra fatti e opinioni, tra informazione e propaganda. Le istituzioni vengono spesso rappresentate come nemiche, le fonti autorevoli come sospette, il sapere come opinabile. L’obiettivo non è sempre convincere qualcuno di una verità alternativa, ma logorare la fiducia, generare disorientamento, alimentare il cinismo. Quando tutto appare relativo, quando prevale l’idea che “tanto sono tutti uguali”, la democrazia perde il suo carburante fondamentale: il consenso informato.
In tal senso, la questione degli algoritmi non è semplicemente tecnologica o economica. È una questione profondamente politica e costituzionale. Tocca principi essenziali come la sovranità popolare, l’uguaglianza, la libertà di espressione, la dignità della persona. Se l’accesso all’informazione è distorto, anche la capacità dei cittadini di formarsi un’opinione libera e consapevole risulta compromessa.
È importante chiarire un punto decisivo: non si tratta di limitare la libertà di espressione. Al contrario, si tratta di difenderla. La libertà non è solo poter parlare, ma poter partecipare a un confronto che non sia manipolato, distorto o artificialmente polarizzato. Una libertà puramente formale, svuotata dalle condizioni reali in cui si esercita, rischia di diventare un’illusione.
Per questo il manifesto che abbiamo elaborato assieme a diversi colleghi (e che può essere firmato su Change.org al seguente indirizzo https://www.change.org/p/habeas-mentem-habeas-faciem-per-una-democrazia-libera-dalla-manipolazione-digitale-3fb23703-32ec-479c-a7db-7b0598eacd8c?utm_medium=custom_url&utm_source=share_petition&recruited_by_id=2b344010-1962-11f1-9b0b-d9fa5d5a0a60) propone un cambio di paradigma. Non si tratta di bloccare l’innovazione tecnologica, ma di governarla. Non di ostacolare lo sviluppo dell’intelligenza artificiale, ma di orientarlo in modo coerente con i principi democratici. La sfida è costruire un quadro di regole che renda queste tecnologie compatibili con la qualità della vita pubblica.
Le proposte vanno in questa direzione e delineano un percorso concreto. Serve anzitutto trasparenza sugli algoritmi che determinano la visibilità dei contenuti: sapere come funzionano, quali criteri utilizzano, quali effetti producono. È necessaria una responsabilità effettiva delle piattaforme, che oggi svolgono di fatto un ruolo editoriale senza assumerne pienamente le conseguenze. Occorre garantire accesso ai dati per la ricerca indipendente, affinché sia possibile valutare con strumenti scientifici l’impatto di questi sistemi sul dibattito pubblico.
È poi fondamentale una tutela reale dei minori, con standard verificabili e sanzioni proporzionate. Così come diventa sempre più urgente introdurre forme di identità riconoscibile nelle interazioni pubbliche digitali, per contrastare manipolazioni sistematiche, bot e uso distorto dell’anonimato. Allo stesso modo, è necessario rendere chiaramente distinguibili le interazioni umane da quelle artificiali nei chatbot e nei sistemi di intelligenza artificiale, per evitare che il confronto pubblico venga alterato da presenze non trasparenti.
A tutto questo si devono affiancare politiche antitrust efficaci, capaci di contrastare concentrazioni eccessive di potere che riducono pluralismo e concorrenza, e un investimento serio nell’educazione digitale, perché cittadini consapevoli sono il primo presidio di una democrazia sana. Si tratta di un insieme coerente di interventi che non mirano a limitare, ma a qualificare lo spazio pubblico digitale.
Se lo Stato di diritto moderno è nato con il principio dell’habeas corpus, cioè la tutela della libertà personale contro l’arbitrio del potere, oggi siamo di fronte a una nuova frontiera. Serve un “habeas mentem”: una tutela della libertà della mente, della formazione delle opinioni, della possibilità stessa di orientarsi nella realtà. Perché nell’era digitale il rischio non è solo essere limitati nelle azioni, ma essere condizionati nelle percezioni.
Non è un caso che dinamiche di questo tipo abbiano inciso profondamente anche sui processi politici più rilevanti a livello globale. Non è tanto il problema dell’esistenza di leadership divisive, quanto delle condizioni che rendono possibile la loro affermazione in ecosistemi informativi alterati. Quando lo spazio pubblico è distorto, anche le scelte collettive lo diventano.
La posta in gioco, dunque, è alta. Riguarda la qualità stessa della nostra convivenza democratica.
Si discute molto in questi giorni delle scelte e delle caratteristiche psicologiche del presidente americano Donald Trump. Il problema non è l’esistenza di persone simili in una popolazione, ma come sia possibile che diventino presidenti degli Stati Uniti. E la risposta ha a che fare con quello che stiamo provando a spiegare in quest’articolo.
La democrazia vive di informazione affidabile, di fiducia reciproca, di confronto tra idee diverse. Se lo spazio in cui questo confronto avviene diventa opaco, polarizzato e manipolabile, l’intero sistema si indebolisce progressivamente.
Per questo serve un salto di qualità. Nelle regole, certo, ma anche nella consapevolezza pubblica e nella responsabilità condivisa tra istituzioni, piattaforme e società civile. Non possiamo limitarci a osservare questa trasformazione: dobbiamo governarla. La domanda decisiva, in fondo, è semplice: chi decide le regole dello spazio pubblico digitale? Se non lo facciamo noi, come comunità democratica, lo faranno — implicitamente — gli algoritmi e chi li progetta. E a quel punto, la democrazia rischia davvero di trasformarsi in un Far West, in cui la libertà formale soprav



