CORDIS - Resultados de investigaciones de la UE
CORDIS

Computational Propaganda: Investigating the Impact of Algorithms and Bots on Political Discourse in Europe

Article Category

Article available in the following languages:

Los ejércitos secretos de robots luchan para socavar la democracia

Los gobiernos y los grupos de interés especial utilizan redes de cuentas automatizadas en las redes sociales para sembrar discrepancias, divulgar desinformación y quebrantar a sus oponentes.

Sociedad icon Sociedad
Seguridad icon Seguridad

Financiado a través de una subvención del Consejo Europeo de Investigación (CEI), el proyecto COMPROP (Computational Propaganda: Investigating the Impact of Algorithms and Bots on Political Discourse in Europe) se propuso investigar las redes de las cuentas automatizadas de redes sociales y su papel en la conformación de la opinión pública. Los investigadores dirigidos por Philip Howard, el investigador principal, elaboraron una definición codificada de «noticias basura» que hacía referencia a la propaganda engañosa e incorrecta producida deliberadamente y que pretendía ser una noticia real. Después, el equipo examinó millones de publicaciones en las redes sociales para ver cómo se producían y difundían estos mensajes. Aunque en un principio se centraron en Twitter, el equipo del Programa sobre Democracia y Tecnología de la Universidad de Oxford descubrió propaganda computacional —algoritmos al servicio de una agenda política— en Facebook, Instagram, Telegram, YouTube e, incluso, la aplicación de citas Tinder. «Durante el proyecto, no esperábamos que el problema fuera tan grande», destaca Howard. «Podemos ver cómo algunos gobiernos, grupos de presión, la extrema derecha y los supremacistas blancos los utilizan para manipular democracias». El proyecto COMPROP se centró fundamentalmente en la información errónea sobre la COVID-19 que, según destaca Howard, proviene de tres fuentes: los medios de comunicación rusos, los medios de comunicación chinos y el presidente estadounidense Donald Trump. Aunque la desinformación de Trump estaba relacionada con la política interior de los Estados Unidos, tanto Rusia como China impulsaron tres temas generales dirigidos al público extranjero. «El primero era que la democracia no puede ayudarnos, ya que los líderes elegidos son demasiado débiles para tomar decisiones», comenta Howard. «El segundo mensaje era que los científicos chinos o rusos obtendrían antes la vacuna y, el tercero, que China o Rusia lideraban las labores de asistencia humanitaria».

Bajo la influencia

Sin embargo, estas campañas de información errónea son anteriores a la pandemia de COVID-19. «Cuando el vuelo 17 de Malaysia Airlines fue derribado en Ucrania, se publicaron muchas historias absurdas sobre lo que sucedió: que los defensores de la democracia lo derribaron, que lo hizo el ejército estadounidense o que un tanque desaparecido de la Segunda Guerra Mundial salió del bosque y lo derribó», añade Howard. Al exponer muchas historias contradictorias, los regímenes autoritarios evitan que los ciudadanos sepan a qué narrativa reaccionar. Finalmente, se desveló esta estrategia, que pretende socavar movimientos sociales y desestabilizar países extranjeros. «A veces las campañas tratan sobre personas o crisis específicas, pero normalmente el objetivo es socavar la confianza en los tribunales, la policía, el periodismo, la ciencia o el gobierno en general», explica Howard. Añade que el público objetivo de dichos bots quizás representa solo entre el 10 y el 20 % de la población, habitualmente adultos descontentos y de tendencia conservadora que están activos políticamente. En un país muy polarizado, influir en el 10 % de los electores puede tener una repercusión importante. Howard explica que esas campañas son especialmente malas para el papel de la mujer y las minorías en la vida pública: «Las feministas, las periodistas y las políticas sufren una forma desagradable de ataque y desinformación en las redes sociales. Es mucho más fácil sacar de la vida pública a una mujer que a un hombre».

La intervención del gobierno

Howard afirma que se necesitan más acciones para contener esas redes de propaganda. «Hemos superado la etapa de autorregulación por parte de la industria. Si las empresas tecnológicas dieran un paso adelante y los gobiernos impusieran multas a los políticos que encargan dichos programas, ese conjunto de iniciativas supondría un gran avance». Sin embargo, incluso identificar qué cuentas en las redes sociales están automatizadas ha resultado difícil. «Un desarrollador de bots en Alemania dijo que su equipo leería nuestros artículos sobre la metodología y adaptaría sus algoritmos justo por debajo de nuestro límite de detección», señala Howard. «Entablamos una especie de diálogo con esos programadores». El grupo también recibió una subvención de prueba de concepto para desarrollar el agregador de noticias basura, una herramienta que muestra de forma interactiva artículos de fuentes poco fiables a medida que se difunden en Facebook. Howard y su equipo ahora se centran en cómo la tecnología del aprendizaje automático potenciará una nueva generación de propaganda computacional. «Si alguien puede tomar los datos conductuales y el flujo de noticias de tu red social y elaborar mensajes políticos ante los que reaccionarías, lo harán», concluye. «Esa es la nueva gran amenaza».

Palabras clave

COMPROP, computacional, propaganda, bot, redes sociales, político, COVID-19, algoritmo, aprendizaje automático, Rusia, China, Trump

Descubra otros artículos del mismo campo de aplicación