Expertos debaten en la Universidad de Cádiz sobre los desafíos jurídicos y organizativos de la inteligencia artificial en ciberseguridad, destacando riesgos y oportunidades para prevenir cibercrímenes.
La Universidad de Cádiz ha sido el escenario esta semana de una jornada dedicada a explorar los desafíos jurídicos y organizativos que plantea la inteligencia artificial en el ámbito de la ciberseguridad. Este evento, titulado Inteligencia artificial y ciberseguridad: retos jurídicos y organizativos, se llevó a cabo en el Salón de Actos del Instituto Universitario de Investigación para el Desarrollo Social Sostenible (INDESS) como parte del proyecto de investigación PR2024-040.
Dicha iniciativa tiene como objetivo desarrollar normativas y herramientas basadas en inteligencia artificial para la detección y prevención de cibercrímenes en Andalucía. Durante la jornada, un grupo de especialistas, liderados por la investigadora principal del proyecto, Mariana Solari Merlo, compartió sus conocimientos sobre las oportunidades y riesgos que estas tecnologías presentan en el campo de la seguridad.
Entre los participantes también se encontraban Luis Ruiz Rodríguez, Antonio Díaz Fernández y Manuel Ruiz Morales, quienes aportaron diversas perspectivas sobre el uso de la inteligencia artificial en contextos relacionados con la seguridad. Las intervenciones abarcaron tanto experiencias prácticas como cuestiones vinculadas a la investigación prospectiva.
Los expertos discutieron los principales retos que enfrenta la incorporación de sistemas inteligentes en los procesos destinados a detectar y prevenir el cibercrimen. Se prestó especial atención a las implicaciones jurídicas y organizativas que emergen con su implementación.
Uno de los puntos más destacados fue la identificación de diversos riesgos asociados al uso de estas tecnologías, tales como la vigilancia algorítmica, la opacidad de los sistemas y la posible reproducción de sesgos. Estos factores tienen un impacto significativo en las garantías del debido proceso penal, lo que subraya la necesidad urgente de establecer marcos normativos adecuados para regular su utilización.
A partir del trabajo realizado, los investigadores han desarrollado un marco conceptual que busca delimitar las condiciones de legitimidad jurídica para el uso de inteligencia artificial en el ámbito de la ciberseguridad. Este enfoque enfatiza la importancia de integrar principios fundamentales como legalidad, proporcionalidad, supervisión humana y rendición de cuentas desde las fases iniciales del diseño de estos sistemas.
La jornada no solo sirvió como un espacio para compartir conocimientos, sino también como un foro para reflexionar sobre el futuro desarrollo normativo y organizativo relacionado con la inteligencia artificial aplicada a la seguridad. Se destacó así la necesidad imperiosa de avanzar hacia modelos que permitan equilibrar la innovación tecnológica con el respeto a los principios del Estado de Derecho, asegurando un uso responsable y ético de estas herramientas.