Skip to content

El auge de los ataques de desinformación con IA en 2024

El auge de los ataques de desinformación con IA en 2024

Este es un resumen del excelente artículo de Esther Paniagua en el Órden Mundial:

‘Trolls’, odio y propaganda: así está la inteligencia artificial incendiando las redes y la democracia

En 2024, los ataques de desinformación con inteligencia artificial (IA) se están volviendo casi diarios, marcando el inicio de una escalada significativa. Esta predicción proviene de un estudio reciente publicado en la revista científica PNAS Nexus, que destaca cómo esta tecnología ya está en uso para manipular la opinión pública. Este fenómeno ocurre en un año electoral crucial, con elecciones en países como Estados Unidos, Francia, Reino Unido e India, lo que plantea serias preocupaciones sobre la integridad electoral y la estabilidad democrática.

Con la IA la desinformación es de todos los días.

La desinformación corrige errores y mejora con la IA

La desinformación impulsada por IA no es un problema menor. Con la capacidad de generar y distribuir contenido falso de manera masiva y convincente, estos ataques pueden influir en la opinión pública, polarizar sociedades y alterar resultados electorales. La IA generativa, como los modelos avanzados de lenguaje, permite crear textos y multimedia realistas que son difíciles de identificar como falsos. Además, la interconexión entre diferentes plataformas digitales amplifica el alcance de estos contenidos, pudiendo llegar a miles de millones de personas.

Las principales operaciones y sus actores

El estudio de la Universidad George Washington mapea las dinámicas entre comunidades maliciosas en plataformas digitales. Aunque se podría pensar que las grandes plataformas como Facebook y Twitter son los principales campos de batalla, el estudio revela que plataformas más pequeñas y especializadas juegan un papel clave en la propagación de desinformación. Estos sitios, como Telegram, Rumble, Bitchute, Gab y Minds, permiten que los grupos extremistas se formen y persistan debido a una moderación más laxa.

Los actores detrás de estas operaciones son variados. Se incluyen grupos extremistas que buscan difundir contenido polarizante, así como estados nacionales que intentan influir en la política internacional. Operaciones como Bad Grammar de Rusia, Spamouflage de China, y campañas vinculadas a Irán y operadores comerciales de Israel, son ejemplos destacados de cómo se utiliza la IA para crear y difundir desinformación.

El impacto en el año electoral más grande de la historia

El uso de IA en desinformación tiene implicaciones especialmente preocupantes en un año con múltiples elecciones críticas. La capacidad de estos ataques para manipular la opinión pública puede tener consecuencias significativas en los resultados electorales en países clave. El estudio de PNAS Nexus advierte que la IA generativa podría elevar las escaladas vistas durante la pandemia y la invasión rusa de Ucrania a nuevos niveles, utilizando técnicas como astroturfing y granjas de clics y trolls para crear la apariencia de movimientos sociales genuinos.

La hipótesis de la Reina Roja sugiere que estos grupos maliciosos están en constante evolución para evitar ser detectados y eliminados por las herramientas de moderación de contenido. Este ciclo de mejora continua significa que los ataques no solo serán más frecuentes, sino también más sofisticados y difíciles de detectar.

De la teoría a la práctica

Los informes recientes del Servicio Europeo de Acción Exterior (SEAE) y de OpenAI confirman que la desinformación impulsada por IA ya es una realidad. Ejemplos incluyen videos alterados para desestabilizar políticamente, audios falsos de políticos y avatares de IA utilizados para mejorar la imagen de figuras controvertidas. Además, en las elecciones al Parlamento Europeo de 2023, un análisis de la Fundación Maldita encontró que el contenido generado por IA representó el 2,2% de la desinformación en plataformas como TikTok, YouTube, Facebook e Instagram.

¿Cómo afrontar este desafío?

La escalada de ataques de desinformación con IA es un desafío significativo que requiere atención y acción urgente. Para mitigar estos riesgos, es esencial implementar medidas efectivas de moderación de contenido, aumentar la transparencia de los algoritmos y fomentar la colaboración internacional para enfrentar las amenazas de desinformación. Las plataformas digitales deben invertir en mecanismos de detección avanzados y ser responsables de eliminar contenido falso y cuentas maliciosas de manera rápida y eficiente. Además, los usuarios deben estar mejor informados y ser más críticos con el contenido que consumen y comparten.

La amenaza de la desinformación impulsada por IA es real y creciente. Solo mediante una acción coordinada y proactiva se puede proteger la integridad de nuestros sistemas democráticos y la estabilidad de nuestras sociedades.

Salir de la versión móvil