European Commission logo
français français
CORDIS - Résultats de la recherche de l’UE
CORDIS

Computational Propaganda: Investigating the Impact of Algorithms and Bots on Political Discourse in Europe

Article Category

Article available in the following languages:

Des armées secrètes de robots sapent la démocratie

Des gouvernements et des groupes d’intérêts spécifiques utilisent des réseaux de comptes automatisés sur les réseaux sociaux pour initier les dissidences, répandre la désinformation et subvertir leurs opposants.

Société icon Société
Sécurité icon Sécurité

Financé dans le cadre d’une subvention du Conseil européen de la recherche (CER), le projet COMPROP (Computational Propaganda: Investigating the Impact of Algorithms and Bots on Political Discourse in Europe) a entrepris d’étudier les réseaux de comptes automatisés sur les réseaux sociaux et leur rôle dans la formation de l’opinion publique. Les chercheurs, dirigés par Philip Howard, le chercheur principal du projet, ont produit une définition codifiée des «informations poubelles», une expression qui désigne la propagande intentionnellement erronée et trompeuse, prétendant être une réelle actualité. L’équipe a ensuite examiné des millions de publications sur les réseaux sociaux afin de comprendre comment ces messages étaient produits et diffusés. Initialement concentrée sur Twitter, l’équipe du Programme de l’Université d’Oxford sur la démocratie et la technologie a finalement découvert des traces de propagande informatique — des algorithmes mis au service d’un agenda politique — sur Facebook, Instagram, Telegram, YouTube et même sur l’application de rencontres Tinder. «Nous ne nous attendions pas à ce que le problème s’aggrave autant au cours du projet», note Philip Howard. «Nous pouvons voir comment certains gouvernements, lobbyistes, membres de l’extrême droite et suprémacistes blancs utilisent tous ces réseaux pour manipuler les démocraties.» Le projet COMPROP s’est fortement concentré sur la désinformation liée à la COVID qui, selon Philip Howard, provenait principalement de trois sources: les médias russes, les médias chinois et l’ancien président américain Donald Trump. Alors que la désinformation de Trump était liée à la politique intérieure des États-Unis, la Russie et la Chine ont mis en avant trois grands thèmes destinés au public étranger: «premièrement que la démocratie ne peut pas nous aider et que les élus sont trop faibles pour prendre des décisions», indique Philip Howard. «Deuxièmement que les scientifiques russes ou chinois vont recevoir le vaccin en premier, et troisièmement que la Russie ou la Chine mènent des efforts d’aide humanitaire.»

Sous l’influence

Ces campagnes de désinformations précèdent toutefois la pandémie de COVID-19. «Lorsque le Vol 17 de Malaysia Airlines a été abattu au-dessus de l’Ukraine, plusieurs histoires ridicules expliquant cet événement sont apparues — l’avion aurait été abattu par les défenseurs de la démocratie, par les troupes américaines, par un char perdu de la Seconde Guerre mondiale sorti de la forêt», ajoute Philip Howard. En diffusant plusieurs récits contradictoires, les régimes autoritaires empêchent leurs citoyens de savoir lequel est juste. Cette stratégie s’est finalement tournée vers l’extérieur, pour saper les mouvements sociaux et déstabiliser les nations étrangères. «Parfois, les campagnes portent sur une crise ou une personne spécifique, mais souvent, l’objectif consiste à saper la confiance dans la justice, la police, les journalistes, la science ou le gouvernement dans son ensemble», explique Philip Howard. Il ajoute que le public cible de ces robots ne représente peut-être que de 10 à 20 % de la population, généralement des adultes mécontents, à tendance conservatrice et politiquement actifs. Dans un pays fortement polarisé, le balancement de 10 % de l’électorat peut avoir un impact retentissant. Philip Howard explique que ces campagnes sont particulièrement néfastes pour le rôle des femmes et des minorités dans la vie publique: «les féministes, les femmes journalistes et les politiciennes sont visées par de graves attaques et de violentes formes de désinformation sur les réseaux sociaux. Il est beaucoup plus facile de chasser une femme de la vie publique qu’un homme.»

Intervention du gouvernement

Philip Howard explique que les efforts pour contenir ces réseaux de propagande doivent être développés. «Nous avons dépassé le stade de l’autoréglementation par l’industrie. Si les entreprises technologiques s’intensifiaient et que les gouvernements imposaient des amendes aux politiciens qui commandent ces programmes, cet ensemble d’initiatives pourrait aller très loin.» Il s’est pourtant avéré complexe d’identifier quels comptes de réseaux sociaux sont automatisés. «Un rédacteur de bots en Allemagne a déclaré que son équipe lirait nos documents méthodologiques et ajusterait ses algorithmes juste au dessous de notre pare-feu», fait remarquer Philip Howard. «Nous avons noué une sorte de dialogue avec ces programmeurs.» Le groupe a également reçu la subvention de preuve de concept afin de développer un agrégateur d’informations poubelles, un outil qui affiche de manière interactive des articles provenant de sources non fiables, à mesure qu’ils se propagent sur Facebook. Philip Howard et son équipe se concentrent maintenant sur la façon dont la technologie d’apprentissage automatique alimentera une nouvelle génération de propagande informatique. «Si quelqu’un peut s’emparer de votre flux de réseaux sociaux et de vos données comportementales, et proposer des messages politiques auxquels vous répondrez, il le fera», conclut-il. «C’est la prochaine grande menace.»

Mots‑clés

COMPROP, informatique, propagande, bot, réseaux sociaux, politique, COVID, algorithme, apprentissage automatique, Russie, Chine, Trump

Découvrir d’autres articles du même domaine d’application