Salud

MIT desarrolla IA "humilde" para mejorar diagnósticos médicos

Inteligencia Artificial

Gonzalo Gómez-del Estal | Martes 24 de marzo de 2026

Un equipo del MIT desarrolla inteligencia artificial "humilde" para diagnósticos médicos, promoviendo la colaboración y la transparencia sobre incertidumbres, lo que mejora la toma de decisiones clínicas.



El desarrollo de la inteligencia artificial (IA) promete revolucionar el diagnóstico médico y la personalización de tratamientos. Sin embargo, un equipo internacional de científicos liderado por el MIT advierte sobre los riesgos que presentan los sistemas de IA actuales, que pueden llevar a los médicos a tomar decisiones erróneas debido a su exceso de confianza.

Para mitigar estos errores, los investigadores proponen programar sistemas de IA que sean más “humildes”. Estos sistemas deberían ser capaces de expresar su falta de confianza en diagnósticos o recomendaciones y fomentar que los usuarios busquen información adicional cuando haya incertidumbre en el diagnóstico.

“Actualmente estamos utilizando la IA como un oráculo, pero podemos emplearla como un entrenador. Podríamos usarla como un verdadero copiloto. Esto no solo aumentaría nuestra capacidad para recuperar información, sino también nuestra autonomía para conectar los puntos”, afirma Leo Anthony Celi, científico investigador senior en el Instituto de Ingeniería Médica y Ciencias del MIT y médico en el Beth Israel Deaconess Medical Center.

Nueva forma de colaboración entre humanos e IA

Celi y su equipo han desarrollado un marco que orienta a los desarrolladores de IA en la creación de sistemas que muestren curiosidad y humildad. Este enfoque permitiría una colaboración efectiva entre médicos y sistemas de IA, evitando que la inteligencia artificial influya excesivamente en las decisiones médicas.

Celi es el autor principal del estudio publicado hoy en BMJ Health and Care Informatics, con Sebastián Andrés Cajas Ordoñez como autor principal, quien es investigador en MIT Critical Data.

Incorporando valores humanos en la IA

Según el equipo del MIT, los sistemas de IA sobreconfidentes pueden provocar errores en entornos médicos. Investigaciones previas han demostrado que los médicos tienden a confiar en sistemas de IA que consideran fiables, incluso cuando su intuición les indica lo contrario. Tanto médicos como pacientes son más propensos a aceptar recomendaciones incorrectas cuando estas provienen de una fuente considerada autoritaria.

Los investigadores sugieren que las instalaciones sanitarias deberían contar con sistemas de IA que colaboren más estrechamente con los clínicos, en lugar de ofrecer consejos excesivamente seguros pero potencialmente incorrectos.

"Estamos tratando de incluir a los humanos en estos sistemas humano-IA, facilitando la reflexión colectiva y la reimaginación, en lugar de tener agentes aislados que lo hacen todo. Queremos que los humanos se vuelvan más creativos mediante el uso de la IA", explica Cajas Ordoñez.

Estructura innovadora para mejorar diagnósticos

Para crear un sistema efectivo, el consorcio ha diseñado un marco que incluye varios módulos computacionales integrables en sistemas existentes. Uno de estos módulos exige al modelo de IA evaluar su propia certeza al realizar predicciones diagnósticas. Desarrollado por Janan Arslan y Kurt Benke, del University of Melbourne, el Epistemic Virtue Score actúa como un chequeo de autoconciencia, asegurando que la confianza del sistema esté ajustada a la incertidumbre inherente y complejidad de cada escenario clínico.

Con esta autoconciencia implementada, el modelo puede adaptar su respuesta según la situación. Si detecta que su confianza supera lo respaldado por la evidencia disponible, puede pausar y señalar esa discrepancia, solicitando pruebas específicas o historia clínica adicional para resolver la incertidumbre o recomendando consultar a un especialista. El objetivo es contar con una IA que no solo brinde respuestas sino también indique cuándo esas respuestas deben ser tratadas con cautela.

"Es como tener un copiloto que te diría que necesitas buscar una segunda opinión para entender mejor a este paciente complejo", señala Celi.

Afrontando sesgos y promoviendo inclusión

Este estudio forma parte de un esfuerzo mayor por parte del equipo liderado por Celi para desarrollar sistemas de IA diseñados por y para las personas más afectadas por estas herramientas. Muchos modelos se entrenan con datos disponibles públicamente desde Estados Unidos, lo cual puede introducir sesgos hacia ciertas formas de abordar problemas médicos mientras excluyen otras perspectivas.

Añadir más puntos de vista es crucial para superar estos sesgos potenciales. “Cada miembro del consorcio global aporta una perspectiva única a una comprensión colectiva más amplia”, enfatiza Celi.

Además, muchos sistemas existentes suelen entrenarse con registros electrónicos de salud no destinados originalmente para ese propósito, lo cual significa que carecen del contexto útil necesario para hacer diagnósticos precisos. Muchos pacientes tampoco están representados en esos conjuntos de datos debido a barreras como la falta de acceso en áreas rurales.

Talleres colaborativos para redefinir la IA médica

En talleres organizados por MIT Critical Data, grupos compuestos por científicos de datos, profesionales sanitarios y pacientes trabajan juntos para diseñar nuevos sistemas de IA. Antes de comenzar, todos son invitados a reflexionar sobre si los datos utilizados capturan todos los factores relevantes para sus predicciones, evitando así codificar inequidades estructurales existentes.

"Les hacemos cuestionar el conjunto de datos: ¿están seguros sobre sus datos? ¿Piensan que hay pacientes excluidos intencionadamente o no? ¿Cómo afectará eso al modelo?", dice Celi. "No podemos detener ni retrasar el desarrollo de la IA; sin embargo, debemos ser más deliberados y reflexivos sobre cómo lo hacemos".

La investigación fue financiada por el Proyecto Innovador Boston-Corea a través del Instituto Coreano para el Desarrollo Industrial Sanitario.

TEMAS RELACIONADOS:


Noticias relacionadas