iymagazine.es

Inteligencia artificial

Investigadores de la UPV proponen un marco para la IA segura en salud

Investigadores de la UPV proponen un marco para la IA segura en salud

jueves 04 de septiembre de 2025, 09:35h

Investigadores de la UPV lideran un estudio internacional que establece 14 requisitos técnicos para garantizar sistemas de inteligencia artificial seguros y éticos en el ámbito sanitario, minimizando riesgos para los pacientes.

Investigadores de la UPV lideran un estudio internacional para mitigar riesgos en soluciones clínicas basadas en inteligencia artificial

Un equipo del Biomedical Data Science Laboratory (BDSLAB), parte del Instituto ITACA de la Universitat Politècnica de València, ha encabezado un innovador estudio que establece las bases para el desarrollo de sistemas de inteligencia artificial (IA) seguros y éticamente responsables en el ámbito sanitario. Este trabajo, publicado en la revista científica Artificial Intelligence in Medicine, propone un marco técnico que incluye 14 requisitos de diseño de software, orientados a minimizar los riesgos asociados con estas soluciones clínicas.

Un marco práctico frente a riesgos reales

La investigación, liderada por Juan Miguel García-Gómez, Vicent Blanes y Ascensión Doñate, aborda una problemática cada vez más presente: el impacto de la IA en la atención sanitaria. Esta tecnología se utiliza en áreas como el diagnóstico y la monitorización, pero su implementación también plantea serios desafíos éticos y técnicos.

"El Servicio de Estudios del Parlamento Europeo ha identificado siete grandes riesgos que la IA puede entrañar para los pacientes", señala García-Gómez. Estos incluyen errores en predicciones, mala praxis, sesgos y falta de transparencia, entre otros. Para abordar estos retos, los investigadores han formulado un conjunto de requisitos técnicos que se complementan con las directrices éticas promovidas por la Comisión Europea.

"Nuestro objetivo es mitigar el riesgo de daños potenciales que el software médico basado en IA pueda causar", enfatiza García-Gómez. La propuesta se centra en cuatro ejes clave: confiabilidad, transparencia, trazabilidad y responsabilidad.

Validación sectorial: consenso entre profesionales

Con el fin de validar la aplicabilidad del marco propuesto, el equipo del BDSLAB realizó una encuesta entre 216 profesionales del sector TIC médico entre marzo y junio de 2024. Los resultados revelaron un amplio consenso sobre la relevancia de los requisitos planteados.

A pesar del consenso general, se observaron diferencias significativas entre los enfoques clínicos y técnicos. Mientras los clínicos priorizan aspectos como la calidad de los datos y la seguridad, los perfiles técnicos valoran más las cuestiones regulatorias relacionadas con la IA.

"Esta propuesta llena el vacío existente entre principios éticos generales y su aplicación concreta en el desarrollo de software médico con IA", añade Doñate. Se presenta como una hoja de ruta práctica alineada con las exigencias regulatorias europeas y enfocada en proteger los derechos de los pacientes.

Un marco alineado con el nuevo reglamento europeo de IA

Este estudio cobra especial importancia tras la reciente aprobación del Reglamento Europeo de Inteligencia Artificial (AI Act), que clasifica a los sistemas médicos basados en IA como de alto riesgo. Esto implica que deben cumplir con estrictos requisitos relacionados con dispositivos médicos y garantizar trazabilidad y supervisión humana.

Los investigadores consideran que su marco puede servir como guía tanto para desarrolladores como para evaluadores y autoridades reguladoras que buscan asegurar la seguridad y fiabilidad de las herramientas clínicas basadas en inteligencia artificial.

"Aunque existen marcos éticos internacionales que abordan los desafíos planteados por la IA en medicina, las recomendaciones prácticas para minimizar daños a pacientes son escasas", concluye Vicent Blanes. Este trabajo es pionero al traducir esos principios éticos en requisitos técnicos concretos dirigidos a asegurar un desarrollo responsable y centrado en el paciente.

Valora esta noticia
0
(0 votos)
¿Te ha parecido interesante esta noticia?    Si (0)    No(0)

+
0 comentarios