La inteligencia artificial (IA), que permite generar millones de mensajes en pocas horas y discusiones falsas en foros, multiplica a un coste menor el impacto de la desinformación y de las operaciones de injerencia extranjera, advierten expertos.
En plenas elecciones en la Unión Europea, “hay una masificación general” de contenidos procedentes del extranjero y la IA “es una nueva etapa en la cadena de automatización de esas publicaciones [que] permite masificar la producción”, explica a AFP Valentin Chatelet, del laboratorio de análisis digital de Atlantic Council (DFRLab).
Según los datos –analizados por AFP– del colectivo Antibot4Navalny, que rastrea las operaciones de influencia digital vinculadas a Rusia, miles de bots (cuentas automáticas) se utilizan diariamente para propaganda prorrusa en la red social X.
Tras la masacre del Crocus City Hall, cerca de Moscú el 22 de marzo, el grupo contabilizó más de 2 millones de mensajes en X en menos de 24 horas que acusaban a Ucrania y a las potencias occidentales de haber facilitado el atentado y la huida de los asaltantes.
Esa hipótesis fue desarrollada inicialmente por las propias autoridades rusas, pese a que el atentado había sido reivindicado por la organización Estado Islámico (EI).
“Durante la duración de cada episodio [acontecimiento de importancia mundial], se interrumpe el funcionamiento diario regular: todos los bots (…) se dedican completamente al episodio en cuestión”, observó Antibot4Navalny.
ChatGPT
OpenAI, creadora de ChatGPT, indicó a finales de mayo que grupos de influencia rusos, chinos, iraníes y una “empresa comercial de Israel” utilizaron sus programas para intentar manipular la opinión pública en otros países.
Los contenidos producidos abarcaban una “amplia gama de temas, entre ellos la invasión de Ucrania, el conflicto de Gaza (o) las elecciones indias” e incluían “principalmente texto y a veces imágenes, como dibujos” satíricos, según OpenAI.
La IA puede, por ejemplo, traducir un artículo falso a numerosos idiomas y publicarlo automáticamente en multitud de cuentas y páginas.
Según Antibot4Navalny, la IA también permite que los bots no sean detectados por las instancias de moderación de las redes sociales, gracias a la multiplicación de mensajes de contenido similar pero no idénticos.
Otra de las tácticas consiste en retransmitir masivamente artículos de prensa reales, pero acompañarlos de mensajes políticos.
“Como usuario, puedes tener la impresión de que estos puntos de vista son apoyados mayoritariamente por personas radicadas” en su país, “cuando no es necesariamente así”, desvela Alexandre Alaphilippe, director ejecutivo de la oenegé europea EU DisinfoLab.
“Puedes entrar en un foro, ver a gente hablado entre sí, pero en realidad toda esa conversación fue generada por IA”, añade.
Expertos, servicios de inteligencia y gobiernos occidentales consideran que Rusia es el país más activo en cuanto a injerencias en el extranjero a través de Internet, aunque también señalan a países como Azerbaiyán, Irán o China.
En los últimos meses salieron a la luz varias operaciones, como Doppelgänger (imitación de medios de comunicación occidentales para difundir bulos) u Olympiya, dirigida contra los Juegos Olímpicos de París 2024.
Largo plazo
Alexandre Alaphilippe considera que esas operaciones “no se detendrán el 9 de junio”, cuando terminen las elecciones legislativas de la UE, ya que “están diseñadas para durar a largo plazo”.
Las elecciones presidenciales estadounidenses del 5 de noviembre también serán un acontecimiento crucial.
Según datos de Antibot4Navalny, bots publicaron a fines de mayo en la red social X al menos dos millones de mensajes que critican al presidente y candidato demócrata a la reelección Joe Biden, en pleno juicio contra su predecesor y rival republicano Donald Trump.
“Lo que hace que estas elecciones -y las que están por venir en Estados Unidos- sean únicas es que se producen en un momento en el que a Rusia le interesa estratégicamente debilitar el apoyo occidental a Ucrania”, afirma John Kennedy, investigador de defensa y seguridad del centro de estudios Rand.
AFP