La Universitat Politècnica de València (UPV) se ha sumado a un ambicioso proyecto europeo destinado a salvaguardar los sistemas de inteligencia artificial (IA) contra ciberataques. Este esfuerzo, conocido como CPAID, tiene como objetivo principal mejorar la seguridad de la IA frente a los denominados adversarial attacks, que representan una amenaza significativa para la integridad de estos sistemas.
Los ataques adversarios son tácticas diseñadas para engañar a la IA, haciéndola interpretar datos maliciosos como si fueran legítimos. Según el investigador Salvador Cuñat, del grupo SATRD de la UPV, estos ataques son especialmente preocupantes en áreas críticas como la seguridad informática, la visión por computador y el procesamiento de lenguaje natural (NLP).
Impacto de los ataques adversarios en la IA
Las implicaciones de estos ataques pueden ser severas. Por ejemplo, pueden alterar el código de un malware para que un antivirus lo clasifique erróneamente como seguro, o modificar correos electrónicos con ligeros cambios para evadir detectores de phishing y spam. Asimismo, pueden manipular huellas digitales sintéticas para burlar sistemas de control de acceso o alterar textos mínimamente para engañar a detectores de discursos de odio o noticias falsas.
"Estos ataques pueden resultar en problemas menores, como un modelo de IA que confunde un animal; sin embargo, también tienen el potencial de causar accidentes graves, fraudes y filtraciones de seguridad", advierte Cuñat. Esta realidad subraya la necesidad urgente de desarrollar herramientas innovadoras para contrarrestar tales amenazas.
Nuevas herramientas y objetivos del proyecto CPAID
Entre las metas del proyecto CPAID se destaca la creación de una plataforma robusta que fortalecerá los sistemas de IA frente a este tipo de ciberataques. Además, se propone implementar la herramienta Cyber Ranges, diseñada para capacitar a profesionales en el ámbito de la ciberseguridad aplicada a la inteligencia artificial.
El proyecto está orientado principalmente hacia desarrolladores de IA y analistas de datos, así como empresas y organizaciones que integran inteligencia artificial en sus operaciones diarias. También se busca involucrar asociaciones industriales y proveedores especializados en ciberseguridad, junto con la comunidad científica.
"La iniciativa pretende ofrecer mayor protección y resiliencia a los sistemas de IA frente a los adversarial attacks, al tiempo que introduce nuevas herramientas que aseguren tanto la seguridad como la privacidad en el uso de esta tecnología", concluye Cuñat. Además, se espera que contribuya a fomentar una mayor confianza y adopción más amplia de la inteligencia artificial en Europa.
Financiado por la Unión Europea bajo el programa Horizon Europe (HORIZON-CL3-2023-CS-01), el proyecto CPAID está coordinado por Uni Systems Luxembourg Sàrl y tiene previsto concluir en septiembre de 2027.