Es posible rastrear las campañas de desinformación en tiempo real

Redacción

Un equipo de investigación dirigido por la Universidad de Princeton ha desarrollado una técnica para rastrear en línea las campañas de desinformación extranjera en tiempo real, que podría ayudar a mitigar la interferencia exterior en las elecciones estadounidenses de 2020.

Los investigadores desarrollaron un método para usar el aprendizaje automático para identificar cuentas de Internet maliciosas, o trolls, basándose en su comportamiento pasado. Presentado en la revista Science Advances, el modelo investigó las supuestas pasadas campañas de desinformación que China, Rusia y Venezuela habrían realizado contra los Estados Unidos antes y después de las elecciones de 2016.

El equipo identificó los patrones que siguieron estas campañas analizando las publicaciones en Twitter y Reddit y los hipervínculos o URLs que incluyeron. Después de realizar una serie de pruebas, encontraron que su modelo era efectivo para identificar los mensajes y cuentas que formaban parte de una campaña de influencia extranjera, incluyendo aquellos de cuentas que nunca habían sido utilizadas antes.

Esperan que los ingenieros informáticos puedan aprovechar su trabajo para crear un sistema de vigilancia en tiempo real para delatar la influencia extranjera en la política estadounidense (y en cualquier otra del mundo).

“Lo que nuestra investigación significa es que se podría estimar en tiempo real cuántos hay ahí fuera y de qué están hablando”, dijo Jacob N. Shapiro, profesor de política y asuntos internacionales de la Escuela de Asuntos Públicos e Internacionales de Princeton. “No es perfecto, pero obligaría a estos actores a ser más creativos y posiblemente a detener sus esfuerzos”.

Shapiro y el investigador asociado Meysam Alizadeh llevaron a cabo el estudio con Joshua Tucker, profesor de política en la Universidad de Nueva York, y Cody Buntain, profesor asistente de informática en el Instituto de Tecnología de Nueva Jersey.

[fusion_builder_container hundred_percent=

(Foto: Egan Jimenez, Princeton University)

El equipo comenzó con una simple pregunta: Utilizando solo características basadas en el contenido y ejemplos de actividades de campañas de influencia conocidas, ¿podrían mirarse otros contenidos y decir si un determinado mensaje formaba parte de una campaña de influencia?

Eligieron investigar una unidad conocida como “par postURL”, que es simplemente un post con un hipervínculo. Para tener una influencia real, las operaciones coordinadas requieren un intenso intercambio de información entre humanos y bots. El equipo teorizó que con el tiempo pueden aparecer frecuentemente posts similares en distintas plataformas.

Combinaron datos sobre campañas de trolls de Twitter y Reddit con un rico conjunto de datos sobre publicaciones de usuarios políticamente comprometidos y usuarios promedio recopilados a lo largo de muchos años por el Centro de Medios Sociales y Política de la Universidad de Nueva York (CSMaP). Los datos de los trolls incluían datos disponibles públicamente en Twitter y Reddit de trolls chinos, rusos y venezolanos que sumaban un total de 8.000 cuentas y 7,2 millones de posts desde finales de 2015 hasta 2019.

Según Tucker, “usamos los datos para entrenar el modelo para distinguir entre los tweets de las campañas de influencia coordinadas y los de los usuarios ordinarios”.

El equipo consideró las características del propio post, como el tiempo, el número de palabras, o si el dominio de la URL mencionada era un sitio web de noticias. También examinaron lo que llamaron “metacontenido”, o cómo el mensaje de un post se relacionaba con otra información compartida en ese momento (por ejemplo, si una URL estaba entre los 25 principales dominios políticos compartidos por los trolls).

“La visión de Meysam sobre el metacontenido fue clave”, dijo Shapiro. “Vio que podíamos usar la máquina para replicar la intuición humana de que ‘algo de este post parece fuera de lugar’. Tanto los trolls como la gente normal a menudo incluyen URLs de noticias locales en sus posts, pero los trolls tendían a mencionar diferentes usuarios en tales posts, probablemente porque están tratando de llamar la atención de su audiencia en una nueva dirección. El metacontenido permite al algoritmo encontrar tales anomalías”.

El equipo probó su método extensamente, examinando el rendimiento mes a mes en cinco tareas de predicción diferentes a través de cuatro campañas de influencia. A través de casi todas las 463 pruebas, quedó claro qué posts formaban parte y cuáles no de una operación de influencia, lo que significa que las características basadas en el contenido pueden, de hecho, ayudar a encontrar campañas de influencia coordinadas en los medios sociales.

En algunos países, los patrones eran más fáciles de detectar que en otros. Los trolls venezolanos solo retwitearon ciertas personas y temas, lo que los hace fáciles de detectar. Los trolls rusos y chinos eran mejores para hacer que su contenido pareciera orgánico, pero también podían ser encontrados. A principios de 2016, por ejemplo, los trolls rusos a menudo se conectaban a URLs de extrema derecha, lo cual era inusual dados los otros aspectos de sus mensajes, y a principios de 2017, se conectaban a sitios web políticos de maneras extrañas.

En general, la actividad de los trolls rusos se hizo más difícil de encontrar a medida que pasaba el tiempo. Es posible que los grupos de investigación u otros se hayan dado cuenta de la información falsa, marcando los posts y obligando a los trolls a cambiar sus tácticas o su enfoque, aunque los rusos también parecen haber producido menos en 2018 que en años anteriores.

Si bien la investigación muestra que no hay un conjunto estable de características que permitirán encontrar intentos de influencia, también muestra que el contenido de los trolls casi siempre será diferente en formas detectables. En un conjunto de pruebas, los autores muestran que el método puede encontrar cuentas nunca antes utilizadas que son parte de una campaña en curso. Y si bien las plataformas de medios sociales eliminan regularmente cuentas asociadas a campañas de desinformación en el extranjero, los hallazgos del equipo podrían llevar a una solución más efectiva.

“Cuando las plataformas prohíben estas cuentas, no solo se dificulta la recolección de datos para encontrar cuentas similares en el futuro, sino que se señala al actor de la desinformación que debe evitar el comportamiento que llevó a la eliminación”, dijo Buntain. “Este mecanismo permite [a la plataforma] identificar estas cuentas, aislarlas del resto de Twitter, y hacer que les parezca a estos actores como si estuviesen compartiendo aún su material de desinformación”.

[/fusion_builder_column][/fusion_builder_row][/fusion_builder_container]

Noticias

Síguenos en redes