Un sistema de inteligencia artificial, creado por el académico Claudio Tapia y su equipo en la Facultad de Medicina de la Universidad de Chile, permite que personas con parálisis severa se comuniquen a través de gestos faciales captados por una cámara web. Esta innovadora iniciativa tiene como objetivo mejorar la autonomía y calidad de vida de los pacientes, contando con financiamiento de la Superintendencia de Seguridad Social (SUSESO).
En un hospital, un paciente completamente inmovilizado —incapaz de moverse o hablar— se queda solo por unos minutos mientras su cuidadora se ausenta brevemente. De pronto, algo falla: el tubo que le permite respirar se obstruye. En otra época, esta escena podría haber terminado en tragedia. Pero esta vez, un leve gesto del rostro del paciente activa una alerta. Gracias a una cámara web y un sistema de inteligencia artificial, el personal médico acude a tiempo y el paciente sobrevive.
Sistema innovador para la comunicación
El sistema que permitió detectar la emergencia corresponde a una interfaz humano-máquina desarrollada por el doctor Claudio Tapia, académico del Departamento de Kinesiología y director de Openics, el Ecosistema de Innovación en Ciencias de la Salud de la Facultad de Medicina de la Universidad de Chile, en el marco del proyecto “Implementación de plataforma integrada video-analítica para mejorar la eficiencia en procesos de cuidados de pacientes con discapacidad motora severa crónica hospitalizadas en centros de salud y domicilio”.
La iniciativa, financiada por SUSESO en su convocatoria 2024 para proyectos de investigación e innovación en prevención de accidentes y enfermedades profesionales, permite que personas con discapacidad motora severa crónica puedan comunicarse e interactuar con su entorno mediante gestos faciales, captados por una simple cámara web.
Evolución tecnológica desde la pandemia
El origen de esta tecnología se remonta a la pandemia de Covid-19, cuando el equipo del doctor Tapia comenzó a investigar algoritmos de visión computacional enfocados en el reconocimiento de patrones de movimiento facial: “Trabajamos en identificar gestos voluntarios, especialmente aquellos que las personas realizan intencionalmente para comunicarse, que pudieran ser utilizados por personas que no pueden hablar ni moverse”, explicó el líder del proyecto.
A partir de esta exploración, el equipo identificó puntos clave en la anatomía facial que permitieron construir una malla matemática capaz de detectar movimientos gestuales sin comprometer la identidad biométrica del paciente: “El resultado es un sistema video-analítico que permite a los pacientes activar funciones del entorno —como prender la luz o solicitar ayuda al personal médico— mediante gestos faciales simples, como el movimiento de una ceja o labios”, detalló el académico.
Aumento en la calidad de vida y autonomía
Esta malla matemática actúa como un puente entre el gesto facial y la acción, permitiendo que personas con discapacidad motora severa puedan comunicarse con su entorno independientemente. La eficacia del sistema fue comprobada durante etapas previas del estudio; así lo afirmó el doctor Claudio Tapia: “Nuestro foco actual está puesto en conectar el sistema a una plataforma integrada”. Este avance permitirá monitorear en tiempo real las necesidades del paciente y registrar datos clave sobre su interacción con el entorno.
El sistema también recopilará información valiosa sobre el estado emocional del paciente: “Para alguien que necesita ayuda incluso para rascarse la cara o afeitarse, encender la luz representa un cambio enorme. Estas pequeñas acciones mejoran su calidad de vida y ayudan a prevenir cuadros depresivos”, subrayó Tapia. “Estas acciones no solo fomentan la autonomía, sino que también son indicadores del bienestar emocional y cognitivo”, añadió.
Nueva forma de cuidar a los pacientes
La nueva plataforma contempla dos tipos diferentes de visualización: “Una interfaz técnica para médicos y otra diseñada para pacientes y sus familias. Esto facilita decisiones clínicas sobre si alguien necesita un cuidador 24/7 y ofrece un acompañamiento más cercano”, describió Tapia.
La implementación comenzó en marzo 2025 y abarca un periodo estimado de 12 meses. Los participantes corresponden a pacientes afiliados a Mutualidad y personas hospitalizadas bajo la Ley de Accidentes del Trabajo.
La investigación cuenta con colaboración académica adicional, incluyendo al profesor Gonzalo Rivera, así como a otros expertos en Kinesiología y Neurociencias.
Tecnología como herramienta dignificante
Aparte del monitoreo clínico mejorado, este proyecto proporciona herramientas concretas para dignificar el cuidado: “Esta iniciativa está alineada con el Eje 5 —Funcionamiento y Discapacidad— dentro de los Objetivos Sanitarios al 2030, promoviendo soluciones destinadas a mejorar la calidad vida para quienes tienen dependencia severa”, afirmó Tapia.
"Lo que estamos haciendo es construir una nueva forma de cuidar", enfatizó. Durante estos 12 meses se buscará demostrar cómo este sistema puede escalarse hacia implementaciones masivas futuras.
La implementación extensiva apunta a optimizar recursos humanos: "Las personas con discapacidad severa han sido históricamente humano-dependientes", lo cual genera altos costos operativos. Este tipo herramientas ayudarán a aliviar esas cargas significativas.” El equipo también proyecta mejoras continuas incorporando nuevas funcionalidades como el reconocimiento emocional mediante IA.
Cuidado humano complementado por tecnología
A pesar del avance tecnológico, Tapia recalca que esto no reemplaza el cuidado humano: “Con esta iniciativa llevamos investigación directamente a aplicaciones prácticas en salud”. Esto puede marcar una diferencia crucial entre dependencia total y poder decir: ‘Aquí estoy, ayúdenme’”.
No solo ampliamos las posibilidades autónomas para personas con discapacidad motora severa; también nos proyectamos hacia un modelo más eficiente, digno y humano.
"Estamos entregando una nueva forma asistencia; estamos salvando vidas,” concluyó el doctor Claudio Tapia.