CORDIS - Risultati della ricerca dell’UE
CORDIS

FAke News discovery and propagation from big Data ANalysis and artificial intelliGence Operations

Article Category

Article available in the following languages:

I fact checker in aiuto alla lotta contro le notizie false

Negli ultimi anni è cresciuta la preoccupazione sull’impatto delle «fake news» sui nostri processi democratici, sulla coesione sociale e sulla stabilità economica. Un progetto pionieristico finanziato dall’UE ha dimostrato come l’intelligenza artificiale può aiutare i professionisti dei mezzi di comunicazione a riconoscere tale cattiva informazione.

Economia digitale icon Economia digitale

Lanciato nel gennaio 2018, il progetto FANDANGO, finanziato dall’UE, ha sperimentato in prima persona la proliferazione e l’evoluzione della disinformazione dei media. Eventi come le recenti elezioni americane, le conseguenze del referendum sulla Brexit nel Regno Unito e, naturalmente, la pandemia di COVID hanno sottolineato le sfide che le «fake news» rappresentano per la nostra comprensione di eventi complessi. «Definire la disinformazione dei media è di per sé estremamente complicato», spiega Francesco Saverio Nucci, coordinatore del progetto FANDANGO e direttore delle ricerche applicative presso i laboratori di R&S di Engineering, in Italia. «Anche il significato del termine stesso è cambiato, dato che spesso viene utilizzato per fini più politici.» Un’altra sfida riguarda l’interpretazione di ciò che costituisce disinformazione dei media, che può variare da persona a persona. E se è difficile per gli esseri umani essere d’accordo anche solo su un riferimento di base per identificare la disinformazione dei media, chiaramente applicare algoritmi di intelligenza artificiale per identificare le notizie false non è un esercizio semplice.

Combattere la disinformazione dei media

Ciononostante, era proprio questo l’obiettivo principale del progetto FANDANGO. «Il nostro scopo era provare a testare e convalidare vari strumenti di intelligenza artificiale che potrebbero essere usati per individuare la disinformazione», aggiunge Nucci. Alcuni dei temi presi in esame includevano i cambiamenti climatici, le politiche europee e l’immigrazione. In primo luogo, il team del progetto ha applicato strumenti di apprendimento automatico per identificare immagini «false» e i cosiddetti video «deep fake», cioè video che sono stati manipolati. L’IA e l’elaborazione del linguaggio naturale sono stati applicati anche al testo, per aiutare a riconoscere eventuali elementi sospetti. «Abbiamo realizzato una serie di scoperte», racconta Nucci. «Innanzitutto, abbiamo accertato che in un contesto del genere non è possibile eliminare l’elemento umano. L’IA può essere d’aiuto, ma alla fine del processo deve esserci sempre un professionista dei mezzi di comunicazione. L’intelligenza artificiale è utile, ma non può risolvere il problema delle notizie false da sola.» In secondo luogo, secondo quanto scoperto dal team non è sufficiente che un software avverta un giornalista in merito all’eventuale «falsità» di una fonte di informazione. Il giornalista vorrà sapere perché un’immagine o un testo sono sospetti. Il team del progetto ha anche impiegato strumenti di apprendimento automatico per capire meglio in che modo la cattiva informazione si diffonde attraverso le reti. Nucci ritiene che un altro elemento importante del progetto sia stata la stretta collaborazione tra i ricercatori nel campo della tecnologia e quelli attivi nelle scienze sociali. «Nella mia squadra ci sono dei tecnici che ora sono diventati esperti di alfabetizzazione mediatica», osserva. «D’altro canto, abbiamo visto quanto sia fondamentale che i giornalisti inizino a comprendere come l’IA possa aiutare a risolvere la sfida della disinformazione.»

Sviluppare l’alfabetizzazione mediatica

Da questa ricerca è stata sviluppata una piattaforma modulare, che comprende strumenti di apprendimento automatico tra cui l’elaborazione del linguaggio per il testo e l’indagine dei dati per le fonti. Le attività del progetto sono ancora in una fase iniziale, tuttavia Nucci prevede che la piattaforma possa essere ulteriormente sviluppata ed eventualmente commercializzata alle società di media. «Per migliorare questi strumenti, abbiamo bisogno di più dati», aggiunge. «Più dati si hanno a disposizione, meglio funzioneranno gli algoritmi.» Il progetto ha anche ribadito la necessità di formare i professionisti dei media nell’alfabetizzazione dei dati, affinché li possano gestire meglio. Un esempio: il fraintendimento delle statistiche relative alla percentuale di pazienti COVID che sono stati vaccinati ha contribuito ad alimentare lo scetticismo sui vaccini. «Oltre a migliorare l’apprendimento automatico, continueremo a osservare una serie di aspetti legati alla ricerca», afferma Nucci. «Questi includono l’alfabetizzazione dei media e il modo in cui le «fake news» vengono propagate nei social network.»

Parole chiave

FANDANGO, media, disinformazione, politico, IA, algoritmi, giornalisti, cattiva informazione

Scopri altri articoli nello stesso settore di applicazione