iymagazine.es

Investigación MIT

Investigación del MIT sobre riesgos de memorización en IA clínica
Ampliar

Investigación del MIT sobre riesgos de memorización en IA clínica

Por José Enrique González
x
jenriqueiymagazinees/8/8/19
miércoles 07 de enero de 2026, 12:02h
Última actualización: miércoles 07 de enero de 2026, 13:10h

Investigadores del MIT analizan el riesgo de memorizar datos de pacientes en modelos de inteligencia artificial, destacando la importancia de evaluar la privacidad en el contexto sanitario para prevenir filtraciones.

La privacidad del paciente es un tema crucial en el ámbito médico. El Juramento Hipocrático, uno de los textos éticos más antiguos y reconocidos en la medicina, establece: “Lo que vea o escuche en la vida de mis pacientes, ya sea en relación con mi práctica profesional o no, lo mantendré en secreto, considerando todo ello como privado”. Esta premisa se vuelve aún más relevante en una era donde los algoritmos ávidos de datos y los ciberataques amenazan la confidencialidad.

En este contexto, un reciente estudio realizado por investigadores del MIT ha puesto de relieve cómo los modelos de inteligencia artificial (IA) entrenados con registros médicos electrónicos desidentificados pueden memorizar información específica de los pacientes. Este trabajo fue presentado en la Conferencia sobre Procesamiento de Información Neural (NeurIPS) 2025 y propone un riguroso sistema de pruebas para garantizar que las solicitudes dirigidas no puedan revelar información sensible. Los autores enfatizan que cualquier posible filtración debe evaluarse dentro del contexto sanitario para determinar si compromete realmente la privacidad del paciente.

Riesgos asociados a la IA en salud

Los modelos fundamentales que utilizan registros electrónicos deberían, en teoría, generalizar el conocimiento para realizar mejores predicciones al basarse en múltiples historias clínicas. Sin embargo, cuando ocurre la “memorización”, el modelo puede recurrir a un único registro del paciente para generar su respuesta, lo cual plantea serias preocupaciones sobre la privacidad. Cabe destacar que estos modelos son conocidos por ser propensos a filtraciones de datos.

Sana Tonekaboni, investigadora postdoctoral en el Centro Eric y Wendy Schmidt del Instituto Broad de MIT y Harvard y primera autora del estudio, señala: “El conocimiento en estos modelos de alta capacidad puede ser un recurso valioso para muchas comunidades, pero atacantes malintencionados pueden inducir a un modelo a extraer información sobre los datos de entrenamiento”. Dada la posibilidad de que estos modelos memoricen datos privados, Tonekaboni subraya que este trabajo es un paso hacia asegurar que existan pasos prácticos de evaluación antes de liberar dichos modelos.

Nuevas metodologías para evaluar riesgos

Para investigar el riesgo potencial que representan los modelos EHR (registros electrónicos de salud) en el ámbito médico, Tonekaboni colaboró con el profesor asociado del MIT Marzyeh Ghassemi, quien lidera el Centro Abdul Latif Jameel para Aprendizaje Automático en Salud. Ghassemi también forma parte del Departamento de Ingeniería Eléctrica y Ciencias de la Computación del MIT y dirige el grupo Healthy ML, enfocado en el aprendizaje automático robusto aplicado a la salud.

El equipo investigador desarrolló una serie de pruebas diseñadas para establecer una base sólida para futuras evaluaciones sobre privacidad. Estas pruebas miden distintos tipos de incertidumbre y evalúan su riesgo práctico para los pacientes al considerar varios niveles posibles de ataque. Ghassemi explica: “Si un atacante necesita conocer la fecha y valor de una docena de pruebas laboratoriales para extraer información, hay muy poco riesgo de daño. Si ya tengo acceso a esos datos protegidos, ¿por qué necesitaría atacar un gran modelo fundamental?”

Aumento en las violaciones de datos sanitarios

A medida que avanza la digitalización de los registros médicos, las violaciones de datos se han vuelto más comunes. En los últimos 24 meses, el Departamento de Salud y Servicios Humanos de EE.UU. ha registrado 747 violaciones relacionadas con información sanitaria que afectan a más de 500 individuos, siendo la mayoría clasificadas como incidentes informáticos.

Tonekaboni advierte sobre la vulnerabilidad particular de los pacientes con condiciones únicas: “Incluso con datos desidentificados, depende mucho del tipo de información que se filtre”. Los investigadores encontraron que cuanto más conocimiento tiene un atacante sobre un paciente específico, mayor es la probabilidad de filtración por parte del modelo. Además, diferenciaron entre casos donde se generaliza información del modelo y aquellos donde se produce memorización a nivel individual.

Consideraciones finales sobre privacidad médica

El estudio también destaca que algunas filtraciones son más perjudiciales que otras; por ejemplo, revelar la edad o demografía podría considerarse menos dañino comparado con exponer diagnósticos sensibles como VIH o abuso de alcohol. La investigación planea expandirse hacia enfoques interdisciplinarios incorporando clínicos y expertos legales junto a especialistas en privacidad.

Tonekaboni concluye: “Hay una razón por la cual nuestros datos sanitarios son privados. No hay motivo para que otros lo sepan”. Este esfuerzo cuenta con el apoyo del Centro Eric y Wendy Schmidt del Instituto Broad y varias instituciones y fundaciones dedicadas a fomentar investigaciones innovadoras en este campo.

Valora esta noticia
0
(0 votos)
¿Te ha parecido interesante esta noticia?    Si (0)    No(0)

+
0 comentarios