Skip to main content
Aller à la page d’accueil de la Commission européenne (s’ouvre dans une nouvelle fenêtre)
français français
CORDIS - Résultats de la recherche de l’UE
CORDIS

Article Category

Article available in the following languages:

Relever les défis de la désinformation en ligne

Hypertrucages, algorithmes biaisés: la désinformation en ligne semble omniprésente. Que peut-on faire?

Les dernières avancées dans la course complexe visant à identifier et à lutter contre la désinformation en ligne

Le contenu peut mener à des crimes de haine et à d’autres formes de violence, mais de nombreuses autorités policières européennes ne disposent pas d’outils ou de technologies spécialisés pour s’attaquer à ce problème – comment peut-on les aider? En tant qu’individus, comment pouvons-nous savoir si nous sommes manipulés? Nous sommes de plus en plus exposés à l’information/la désinformation en ligne, soit de manière passive, à travers les flux des médias sociaux, soit de manière active, en utilisant des moteurs de recherche et des sites web spécifiques qui nous guident vers des sites qui renforcent nos partis pris et construisent des murs de préjugés. Les entreprises s’efforcent d’identifier et de supprimer les sites de fausses informations et de minimiser la diffusion de la désinformation sur les médias sociaux, mais qu’en est-il des moteurs de recherche eux-mêmes? Les robots d’indexation pourraient-ils constituer un moyen innovant de nous aider à auditer leur activité? La diffusion de la désinformation en ligne menace nos valeurs démocratiques. Face à l’augmentation de la désinformation, l’IA, et les technologies du langage en particulier, jouent un rôle crucial pour la détecter. L’apprentissage automatique et l’IA s’appuient sur de grands modèles de langage, mais qu’en est-il des langues qui ont une plus petite empreinte en ligne, celles qui sont moins fréquemment utilisées? Comment renforcer l’IA pour lutter contre la désinformation dans les langues dites «peu dotées»? Découvrez comment ces risques et d’autres cyberrisques sont abordés avec l’aide du financement de la recherche de l’UE. Owen Conlan(s’ouvre dans une nouvelle fenêtre), est membre du Trinity College(s’ouvre dans une nouvelle fenêtre), Dublin, et professeur à l’École d’informatique et de statistique(s’ouvre dans une nouvelle fenêtre). Il est également codirecteur du Centre des sciences humaines numériques du Trinity(s’ouvre dans une nouvelle fenêtre). Owen s’intéresse beaucoup au contrôle de l’utilisateur sur les systèmes personnalisés pilotés par l’IA, qu’il a étudié dans le cadre du projet VIGILANT. Joana Gonçalves de Sá(s’ouvre dans une nouvelle fenêtre) est chercheuse au laboratoire Nova de sciences informatiques et d’informatique(s’ouvre dans une nouvelle fenêtre) et au laboratoire d’instrumentation et de physique des particules expérimentale(s’ouvre dans une nouvelle fenêtre), à Lisbonne, où elle dirige le groupe de recherche sur la physique sociale et la complexité. Elle se concentre sur les biais humains et algorithmiques, en utilisant les fausses informations comme système modèle, le sujet de son projet FARE_AUDIT. Marián Šimko(s’ouvre dans une nouvelle fenêtre) est chercheur expert à l’Institut Kempelen des technologies intelligentes(s’ouvre dans une nouvelle fenêtre) en Slovaquie. Ses recherches portent sur le traitement du langage naturel, l’extraction d’informations, le traitement des langues peu dotées et l’interprétabilité des modèles neuronaux. Le projet DisAI s’est intéressé au développement de nouvelles approches pour le traitement du langage afin d’améliorer les performances des grands modèles d’apprentissage de langage pour les langues moins fréquemment utilisées.

Vos retours sont les bienvenus!

Si vous avez des commentaires, nous serons toujours heureux que vous nous en fassiez part! Envoyez-nous vos commentaires, questions ou suggestions à l’adresse suivante: editorial@cordis.europa.eu.

Mon livret 0 0