iymagazine.es

Privacidad IA

Riesgos y beneficios de la IA agentiva en la privacidad
Ampliar

Riesgos y beneficios de la IA agentiva en la privacidad

Por José Enrique González
x
jenriqueiymagazinees/8/8/19
viernes 24 de abril de 2026, 08:15h

La inteligencia artificial agentiva presenta riesgos y oportunidades para la privacidad, según expertos en un debate sobre seguridad. Puede aumentar el intercambio de información o mejorar la gestión de permisos.

    La inteligencia artificial agentiva, un tema de creciente relevancia en el ámbito tecnológico, ha sido objeto de un intenso debate entre expertos internacionales en regulación, seguridad e investigación sobre privacidad. Durante una mesa redonda titulada “Seguridad y privacidad en la IA”, se abordaron las **dos caras** de esta tecnología: por un lado, su capacidad para incrementar los riesgos de privacidad debido al *exceso de intercambio de información* y a la falta de conciencia del usuario; por otro, su potencial para mejorar la privacidad mediante asistentes personales que faciliten la gestión de permisos y la comprensión de políticas complejas.

    Este encuentro fue parte del taller SPRINT, centrado en los desafíos relacionados con la seguridad y privacidad en inteligencia artificial, especialmente en lo que respecta a sistemas de IA generativa y agentiva. Organizado por el Laboratorio de Seguridad, Ética y Privacidad de la IA Centrada en el Ser Humano (HASP) del CSIC-UPV y el Instituto Universitario Valenciano de Investigación en Inteligencia Artificial (VRAIN), el evento forma parte del proyecto “SPRINT: Seguridad y Privacidad en Sistemas con Inteligencia Artificial”, respaldado por los Fondos Next Generation-EU.

    Perspectivas sobre la Privacidad

    Entre los participantes destacados se encontraban figuras como Josep Domingo-Ferrer, catedrático de Informática en la Universitat Rovira i Virgili; Simone Fischer-Hübner, catedrática en Suecia; Daniel Mercader Rodríguez, adjunto al director de Innovación y Tecnología de la Agencia Española de Protección de Datos; y Ruba Abu-Salma, profesora asociada del King’s College de Londres. La moderación estuvo a cargo de Rongjun Ma, investigadora posdoctoral en VRAIN.

    Un aspecto crucial discutido fue que los riesgos para la privacidad asociados a la IA han evolucionado. Ya no se centran exclusivamente en los datos utilizados para entrenar modelos, sino que ahora también involucran los datos generados durante las interacciones con estos sistemas. Aunque los modelos modernos son robustos frente a ataques tradicionales, los sistemas generativos presentan nuevos riesgos al procesar información continuamente.

    Nuevas Dinámicas en el Uso de Datos

    Los usuarios han pasado a ser *contribuyentes activos* de datos sensibles durante su interacción con estas tecnologías, lo que complica aún más el panorama actual. La falta de comprensión sobre cómo se reutilizan o conservan esos datos plantea serios desafíos para la privacidad.

    El debate abarcó cuatro temáticas clave: los riesgos inherentes a la IA generativa; las amenazas amplificadas por el auge de la IA agentiva; las partes responsables y sus obligaciones; así como las orientaciones futuras necesarias para garantizar tanto la seguridad como la privacidad desde el diseño.

    Retos Regulatorios y Propuestas Futuras

    Desde una perspectiva regulatoria, los expertos coincidieron en que el crecimiento de agentes inteligentes presenta retos inmediatos. La Agencia Española de Protección de Datos ha advertido que muchas empresas están adoptando estas tecnologías sin comprender plenamente sus implicaciones. Por ello, es esencial promover una adopción informada respaldada por nuevas directrices.

    A medida que se concluyó este encuentro, quedó claro que **la privacidad ya no es solo una característica puntual**, sino un proceso continuo que requiere auditorías constantes y concienciación entre usuarios. Esta evolución es fundamental para garantizar una protección efectiva ante un entorno tecnológico cambiante.

    Estrategias Nacionales en Ciberseguridad

    En paralelo, INCIBE trabaja para fortalecer las capacidades cibernéticas tanto a nivel social como económico. Desde 2018, ha impulsado programas destinados a fomentar el conocimiento y su transferencia al sector productivo. Recientemente, se lanzó una invitación pública para colaborar en proyectos estratégicos enfocados en ciberseguridad dentro del marco del Plan Nacional de Recuperación.

    Estos proyectos buscan ofrecer soluciones concretas ante desafíos científicos y tecnológicos contemporáneos, promoviendo una colaboración activa entre ciudadanía y sectores productivos.

Preguntas sobre la noticia

¿Cuáles son los riesgos de la inteligencia artificial agentiva en términos de privacidad?

Los expertos destacan que la IA agentiva puede aumentar los riesgos de privacidad al fomentar el exceso de intercambio de información y actuar sin que el usuario sea plenamente consciente, lo que difumina los límites legales como el consentimiento establecido por el RGPD.

¿Cómo puede la inteligencia artificial agentiva mejorar la privacidad?

La IA agentiva también puede ser una herramienta para mejorar la privacidad, actuando como asistentes personales que ayudan a los usuarios a navegar por políticas complejas de privacidad y gestionar permisos.

¿Qué aspectos se deben considerar para garantizar la seguridad y privacidad en la IA?

Es fundamental realizar auditorías constantes, supervisión y concienciación de los usuarios, ya que la privacidad en la IA no es solo un diseño puntual, sino un proceso continuo que requiere adaptaciones a medida que los sistemas evolucionan.

Valora esta noticia
0
(0 votos)
¿Te ha parecido interesante esta noticia?    Si (0)    No(0)

+
0 comentarios