I+D Universitario

Enjambres de IA: la nueva amenaza de manipulación en redes sociales

Manipulación IA

Álvaro Gómez Tornero | Domingo 25 de enero de 2026

Investigadores advierten sobre el uso de enjambres de inteligencia artificial para manipular la opinión pública en redes sociales, afectando procesos electorales y dificultando su detección.



La inteligencia artificial generativa se perfila como una herramienta de gran poder. Si las afirmaciones de los líderes del sector se materializan, en un futuro próximo estas tecnologías estarán al mando de empresas multimillonarias y asumirán tareas repetitivas que actualmente realizan los humanos. Según Elon Musk, esto podría significar que los trabajadores tendrán jornadas más cortas y podrán jubilarse antes. Sin embargo, esta es solo una visión optimista del futuro.

Un grupo de investigadores ha publicado un artículo en la prestigiosa revista Science, donde advierten sobre el uso de enjambres de agentes de IA para manipular el pensamiento de los usuarios a través de plataformas digitales, como las redes sociales, con el potencial de influir en procesos electorales. Estos enjambres representan una evolución de los conocidos bots maliciosos, que han sido utilizados durante años para viralizar contenidos e ideas en internet.

La nueva era de la manipulación digital

Según explica Daniel Schroeder, uno de los autores del estudio y miembro del grupo de Datos Inteligentes de Sintef, una destacada organización noruega de investigación aplicada, «los bots tradicionales son como marionetas que repiten guiones rígidos, lo que facilita su detección». En contraste, los enjambres de IA funcionan como una colmena; no requieren órdenes externas y pueden actuar independientemente, simulando el comportamiento de miles de usuarios reales en sus dispositivos móviles.

Estos sistemas son capaces de crear publicaciones únicas que parecen escritas por humanos, utilizando jerga local para integrarse mejor y coordinarse entre ellos. Además, pueden experimentar con múltiples estrategias simultáneamente para identificar qué mensajes resuenan más con las audiencias específicas.

Desafíos en la detección y regulación

Los expertos expresan su preocupación por el impacto que esta tecnología puede tener durante elecciones, ya que las publicaciones generadas automáticamente pueden ser extremadamente difíciles de identificar. Como señala Jonas Kunt, profesor en BI Norwegian Business School y coautor del artículo, «es casi imposible para las personas distinguir entre contenido generado por máquinas y aquel creado por humanos». Los agentes basados en IA tienen la capacidad de producir textos que a menudo son percibidos como más auténticos que los escritos por personas reales.

Kunt también destaca que estos sistemas están diseñados para operar a largo plazo; podrían infiltrarse en grupos sociales en plataformas como Facebook y comportarse como miembros comunes antes de comenzar a difundir propaganda. Este enfoque les permite generar un ambiente propicio para crear un falso consenso entre los usuarios.

Poder persuasivo sin precedentes

Diversos estudios recientes publicados en revistas científicas como Nature y Science han demostrado que la inteligencia artificial generativa puede ser más efectiva a la hora de cambiar la opinión política de un votante que la publicidad electoral convencional. Otro estudio reveló que herramientas como ChatGPT pueden persuadir a las personas mejor que otros individuos al abordar temas delicados como el aborto o la legalización de drogas.

A pesar del potencial negativo asociado con estas tecnologías, Schroeder mantiene una perspectiva optimista: «Aún tenemos una ventana para implementar medidas preventivas antes de eventos políticos importantes». Sin embargo, reconoce que abordar este problema no será sencillo. Kunt subraya cómo las cuentas falsas inflan las métricas en redes sociales, lo cual beneficia financieramente a estas plataformas y dificulta la autorregulación.

Propuestas para mitigar riesgos

A fin de contrarrestar estos efectos nocivos, Kunt propone exigir mayor transparencia y auditorías a las redes sociales por parte del gobierno. También sugiere el desarrollo de ‘escudos de IA', herramientas diseñadas para permitir a los usuarios filtrar o etiquetar contenido potencialmente dañino. Además, plantea la creación de un observatorio global sobre influencia digital impulsada por IA para ayudar a la sociedad civil a rastrear amenazas emergentes.

TEMAS RELACIONADOS:


Noticias relacionadas