Actualidad

La IA como herramienta de daño: un desafío ético y legal

Inteligencia Artificial

José Enrique González | Martes 20 de enero de 2026

La inteligencia artificial plantea riesgos en la vulneración de la intimidad al facilitar la creación de imágenes no consentidas. Se requiere un enfoque ético y educativo para abordar este problema.



La evolución de la inteligencia artificial ha traído consigo un nuevo desafío en el ámbito de la intimidad. Actualmente, existen herramientas accesibles que permiten crear o modificar imágenes para representar a personas desnudas sin su consentimiento, lo que ya está teniendo repercusiones legales, sociales y psicológicas significativas. Aunque el foco mediático se ha centrado en modelos como Grok, el problema es más amplio y plantea interrogantes sobre cómo la tecnología amplifica impulsos humanos preexistentes, para los cuales aún no contamos con respuestas efectivas.

Para comprender mejor este fenómeno y sus implicaciones legales, conversamos con Susana González Ruisánchez, experta en gestión de riesgos tecnológicos, compliance y ciberseguridad en el Grupo SAMCA. Su diagnóstico es claro: las medidas actuales son necesarias, pero claramente insuficientes. “El verdadero problema no radica en la inteligencia artificial, sino en la capacidad humana de utilizar esta tecnología como una herramienta para causar daño”, señala, enfatizando que la IA no genera imágenes por sí sola; responde a solicitudes humanas.

La distancia moral y sus consecuencias

Según González Ruisánchez, esta transferencia de autoría tiene un impacto psicológico crucial: quienes generan este tipo de contenido a menudo no se ven a sí mismos como autores de una agresión grave, sino simplemente como usuarios de una tecnología. Esta distancia moral, advierte, representa uno de los mayores riesgos asociados a la automatización del daño. Ya ocurrió con Internet y las redes sociales, que democratizaron el acceso a la información pero también facilitaron nuevas formas de acoso masivo y despersonalizado. La inteligencia artificial generativa no ha creado este problema, pero sí lo ha hecho inmediato, escalable y casi invisible.

A nivel técnico y normativo, los filtros y bloqueos establecidos por las plataformas presentan limitaciones evidentes. “Estos mecanismos pueden ser eludidos; se aplican en entornos internacionalmente opacos y carecen de transparencia sobre quién decide qué contenido se elimina y por qué”, señala González Ruisánchez. Además, existe un conflicto estructural: mientras que la tecnología opera a escala global, la regulación sigue siendo nacional o regional, dejando espacios grises donde la protección efectiva de las víctimas se diluye.

Reflexiones sobre ética y responsabilidad digital

¿Debería entonces centrarse el debate en restringir la inteligencia artificial? Para González Ruisánchez, esa no es la solución completa. Ella argumenta que el enfoque debería ampliarse hacia una reflexión más profunda sobre ética, educación y responsabilidad digital. El problema es cultural y educativo: se ha normalizado el consumo de imágenes ajenas, poniendo énfasis casi exclusivamente en sanciones a través de procedimientos largos y costosos que dificultan identificar al autor original de la agresión. “Siempre habrá un conflicto entre quien quiere ejercer poder sobre la intimidad de una persona y quien intenta prevenirlo”, resume esta especialista.

En el ámbito legal, la Unión Europea está reforzando su marco normativo frente a los deepfakes y el uso no consentido de imágenes, incluidos contenidos sexuales. En línea con estas directrices europeas, España se encuentra preparando reformas para proteger derechos fundamentales como el honor y la intimidad personal. Sin embargo, González Ruisánchez advierte sobre una contradicción persistente: la regulación es local mientras que el daño es global.

Dificultades legales para las víctimas

¿Qué opciones tienen hoy las víctimas en España? Existen varias vías disponibles aunque todas presentan limitaciones. “La difusión de imágenes íntimas sin consentimiento constituye un delito”, afirma González Ruisánchez, quien lleva más de diez años especializada en la intersección entre derecho e Internet. Se puede solicitar directamente a las plataformas que eliminen dicho contenido; sin embargo, no hay garantía de poder rastrear su difusión o eliminarlo completamente de otras plataformas o usos comerciales no digitales. Asimismo, se pueden reclamar indemnizaciones por daños morales o materiales debido a vulneraciones del derecho a la intimidad o al honor; pero para ello es necesario poder denunciar a un autor específico, algo complicado cuando interviene la inteligencia artificial.

Añadiendo complejidad al asunto, España carece actualmente de un mecanismo específico similar al Take It Down Act estadounidense que obliga a retirar contenido íntimo dentro de plazos mucho más ágiles. Aunque el sistema legal español avanza hacia la transposición de normas europeas pertinentes, González Ruisánchez critica su eficacia real: a pesar de tipificarse nuevas conductas, los procedimientos siguen siendo lentos y poco adaptados a la velocidad con que se propagan estos daños en línea.

Un futuro incierto ante los desafíos tecnológicos

El fenómeno relacionado con los desnudos no consentidos generados por inteligencia artificial deja una conclusión inquietante: no basta con perfeccionar tecnologías ni endurecer leyes. Mientras exista una capacidad inmediata para causar daño casi anónimamente, junto con respuestas lentas y fragmentadas desde el ámbito legal, nuestra intimidad seguirá siendo uno de los terrenos más vulnerables en esta era digital. Comprender esta brecha entre lo que permite la tecnología y lo que nuestra sociedad puede proteger es fundamental para comenzar a cerrarla.

TEMAS RELACIONADOS:


Noticias relacionadas