Come l'Unione europea può combattere la disinformazione: a Tallinn la riunione Inform EU

Come l'Unione europea può combattere la disinformazione: a Tallinn la riunione Inform EU
22 giugno 2025, ore 13:11
A margine della riunione della rete di comunicatori europei il dialogo con la professoressa Fabiana Zollo dell'Università Ca' Foscari su responsabilità ed hate speech
Una corretta, libera e completa informazione è il fondamento di qualsiasi sistema democratico. In un mondo in continuo cambiamento però i rischi in questo senso si moltiplicano con la stessa velocità con cui cambiano, nascono e muoiono nuove piattaforme di comunicazione e di informazione. Spesso - così è stato per molti social network come Facebook, X o anche Instagram - le prime diventano le seconde, pur non essendo quello lo scopo con cui erano state create. Succede infatti che X diventi una macchina al pari di una agenzia di stampa, con una penetrazione decisamente maggiore, però. E se sono le stesse fonti di informazione (la politica, anzitutto) a non rilasciare più dichiarazioni alla stampa o tramite interviste ma con un post su Facebook (o su Truth, ultimamente), è chiaro che il ruolo di quelle stesse piattaforme diventa sempre più cruciale e anche sempre più delicato. In questa cornice si inseriscono i rischi di cui sopra, i rischi di un sistema che non nasce con lo scopo di informare, che in certi casi non è gestito da operatori dell'informazione e che quindi nemmeno agisce da filtro per gli utenti come fanno (o almeno dovrebbero fare) gli organi di stampa tradizionali e regolati. Ecco che tra i rischi più attuali di questi anni c'è quello di esposizione a notizie incomplete o inattendibili, se non quando addirittura false. È il fenomeno fake news, un problema che i governi dell'Unione europea in particolare si sono ripromessi di affrontare e risolvere. Anche all'interno e con l'aiuto di Inform EU, la rete europea di esperti di comunicazione che lavorano alle operazioni finanziate dall'Unione Europea e dagli Stati membri in regime di gestione condivisa che concerne diversi ambiti e fondi dell'Unione europea. L'ultima riunione di Inform EU si è tenuta a Tallinn, in Estonia, con un focus dedicato proprio a disinformazione e fake news.
L'incontro di Tallinn
L'obiettivo di Inform EU è quello di promuovere le competenze degli Stati membri e delle regioni nel campo della comunicazione, della visibilità e della trasparenza dell'Unione. La rete facilita la cooperazione e connessione tra la Commissione e i programmi dell'UE e mira a rafforzare la visibilità dell'azione dell'UE a livello nazionale, regionale e locale. All'interno dell'edizione di quest'anno anche un panel dedicato a comunicazione, disinformazione e fiducia da parte dei cittadini curato dalla professoressa Fabiana Zollo, professoressa associata di informatica all'Università Ca' Foscari di Venezia, che a margine dell'evento ha parlato ai microfoni di RTL 102.5 dei rischi che corrono oggi i cittadini europei e soprattutto di quali strumenti debbano dotarsi per essere correttamente informati. "I dati ci dicono che ci sono forti meccanismi di segregazione e polarizzazione" nel tenersi informati tramite social, spiega. Tendenze che in alcuni casi "vengono rafforzate dagli stessi meccanismi di funzionamento delle piattaforme, che comunque non sono nate per fare informazione. Se una piattaforma basa se stessa su un meccanismo di like, cioè di indirizzamento verso contenuti che piacciono all'utente", è facile spiegare come polarizzazione e segregazione abbiano spazio.
Hate speech e polarizzazione
Zollo spiega che non c'è contraddizione tra esternazioni di odio via social e tendenza al confronto solo con persone di una certa opinione (tendenzialmente vicina alla propria): "Le due cose convivono perché le interazioni con l’altra parte (di pubblico di altra opinione, ndr) sono limitate e rare, e in queste occasioni di scambio quando c’è forte polarizzazione si osserva tanta tossicità, quando lo scambio c’è". La buona notizia è che ce n'è comunque meno di quanto si pensi, anche se, ancora dai dati osservati, una volta innescata una discussione aumenta la sua durata senza che i protagonisti la abbandonino, con conseguente aumento della tossicità dei contenuti e dei modi. "La tossicità, incluso l’hate speech, è strettamente legata alla polarizzazione, ma non alla disinformazione. Gli utenti hanno questo tipo di comportamento sia con notizie affidabili sia con notizie non vere".
Quali responsabilità per gli utenti?
La professoressa Zollo continua ricordando l'importanza dell'essere consapevoli che tali strumenti non nascono come strumenti di informazione. Avendo in mente ciò, è bene ricordare che "non si tratta di quanto ci sia esposti alla disinformazione e di quanta ce ne sia, piuttosto di dare a ciascuno gli strumenti per distinguerla". Tema che nei prossimi anni sarà ancora più cruciale con il diffondersi (anche) di notizie generate dall'AI. “Come utenti iniziamo ad avere la nostra piccola parte di responsabilità”, e con l'occasione si crei un legame tra piattaforma e utente finale utile a comprendere i meccanismi che si mettono in atto.
Responsabilità delle piattaforme e anonimato
Cosa deve (o dovrebbe) fare quindi una piattaforma? Con il Digital service act sono stati introdotti obblighi più forti, ma resta un tema di libertà di espressione quando si parla di moderazione dei contenuti, di cui però qualcuno dovrà pur essere responsabile. "Non si può pensare solo di rimuovere contenuti o di fare moderazione dall’alto", continua Zollo, che parla di tre rischi principali. Il primo è quello di "rimuovere troppo": se la piattaforma è totalmente responsabile, per sicurezza o per cautela potrebbe scegliere di rimuovere dei contenuti leciti ritenendola comunque la scelta più saggia. Il rischio si acuisce ancor di più se la moderazione è automatica e/o non contestualizzata. E se anche non fosse automatica, chi decide cosa è lecito e cosa no quando si è nel campo delle opinioni? Il secondo rischio riguarda l'affidamento delle decisioni sui contenuti alle piattaforme, che utilizzano i propri termini di servizio, non le leggi. È vero che esistono regolamentazioni che dicono alla piattaforma di agire in certi termini, ma come nel concreto quegli stessi termini vengano messi in pratica è un altro discorso. Terza questione: prima ancora di pensare a rimuovere un contenuto (o a non farlo) esiste un tema di ranking dei contenuti stessi. Se anche non vengono rimossi, in che modo viene deciso - e chi lo dice - quali debbano essere a maggiore visibilità e quali a meno? Tutte domande su cui i comunicatori (e la politica) europei dovranno interrogarsi, tenendo a mente un ultimo aspetto rilevante legato al tema della responsabilità, ossia come gestire l'anonimato. Se è vero che in molti casi è lo scudo che abilita taluni a permettersi di utilizzare modi di dire e di fare non consoni, serve ricordare che non tutti i Paesi in cui queste piattaforme sono presenti sono uguali. In alcuni di questi infatti è stato proprio l'anonimato a garantire al dissenso di potersi esprimere più o meno liberamente. Un fatto rilevante.