Investigadores de la UPV lideran un estudio internacional para mitigar riesgos en soluciones clínicas basadas en inteligencia artificial
Un equipo del Biomedical Data Science Laboratory (BDSLAB), parte del Instituto ITACA de la Universitat Politècnica de València, ha encabezado un innovador estudio que establece las bases para el desarrollo de sistemas de inteligencia artificial (IA) seguros y éticamente responsables en el ámbito sanitario. Este trabajo, publicado en la revista científica Artificial Intelligence in Medicine, propone un marco técnico que incluye 14 requisitos de diseño de software, orientados a minimizar los riesgos asociados con estas soluciones clínicas.
Un marco práctico frente a riesgos reales
La investigación, liderada por Juan Miguel García-Gómez, Vicent Blanes y Ascensión Doñate, aborda una problemática cada vez más presente: el impacto de la IA en la atención sanitaria. Esta tecnología se utiliza en áreas como el diagnóstico y la monitorización, pero su implementación también plantea serios desafíos éticos y técnicos.
"El Servicio de Estudios del Parlamento Europeo ha identificado siete grandes riesgos que la IA puede entrañar para los pacientes", señala García-Gómez. Estos incluyen errores en predicciones, mala praxis, sesgos y falta de transparencia, entre otros. Para abordar estos retos, los investigadores han formulado un conjunto de requisitos técnicos que se complementan con las directrices éticas promovidas por la Comisión Europea.
"Nuestro objetivo es mitigar el riesgo de daños potenciales que el software médico basado en IA pueda causar", enfatiza García-Gómez. La propuesta se centra en cuatro ejes clave: confiabilidad, transparencia, trazabilidad y responsabilidad.
Validación sectorial: consenso entre profesionales
Con el fin de validar la aplicabilidad del marco propuesto, el equipo del BDSLAB realizó una encuesta entre 216 profesionales del sector TIC médico entre marzo y junio de 2024. Los resultados revelaron un amplio consenso sobre la relevancia de los requisitos planteados.
A pesar del consenso general, se observaron diferencias significativas entre los enfoques clínicos y técnicos. Mientras los clínicos priorizan aspectos como la calidad de los datos y la seguridad, los perfiles técnicos valoran más las cuestiones regulatorias relacionadas con la IA.
"Esta propuesta llena el vacío existente entre principios éticos generales y su aplicación concreta en el desarrollo de software médico con IA", añade Doñate. Se presenta como una hoja de ruta práctica alineada con las exigencias regulatorias europeas y enfocada en proteger los derechos de los pacientes.
Un marco alineado con el nuevo reglamento europeo de IA
Este estudio cobra especial importancia tras la reciente aprobación del Reglamento Europeo de Inteligencia Artificial (AI Act), que clasifica a los sistemas médicos basados en IA como de alto riesgo. Esto implica que deben cumplir con estrictos requisitos relacionados con dispositivos médicos y garantizar trazabilidad y supervisión humana.
Los investigadores consideran que su marco puede servir como guía tanto para desarrolladores como para evaluadores y autoridades reguladoras que buscan asegurar la seguridad y fiabilidad de las herramientas clínicas basadas en inteligencia artificial.
"Aunque existen marcos éticos internacionales que abordan los desafíos planteados por la IA en medicina, las recomendaciones prácticas para minimizar daños a pacientes son escasas", concluye Vicent Blanes. Este trabajo es pionero al traducir esos principios éticos en requisitos técnicos concretos dirigidos a asegurar un desarrollo responsable y centrado en el paciente.