iymagazine.es

Detección Suicida

Desarrollan un modelo para detectar señales de alerta en redes sociales

Por José Enrique González
x
jenriqueiymagazinees/8/8/19
domingo 08 de febrero de 2026, 12:20h

Investigadores de FUNIBER desarrollan un modelo de aprendizaje automático para detectar ideación suicida en redes sociales, logrando una precisión del 94%, superando métodos tradicionales.

La Dra. Mónica Gracia, directora internacional de Admisiones de la Fundación Universitaria Iberoamericana (FUNIBER), junto con el Dr. Eduardo Silva, director ejecutivo de la Fundación en Guatemala, se han unido a un estudio internacional que busca desarrollar un innovador modelo de aprendizaje automático. Este modelo tiene como objetivo detectar la ideación suicida en publicaciones de redes sociales, logrando una precisión superior a los métodos tradicionales.

El estudio, titulado "Suicide Ideation Detection Using Social Media Data and Ensemble Machine Learning Model", ha sido publicado recientemente en la revista International Journal of Computational Intelligence Systems de Springer. Esta investigación aborda una problemática crítica en el ámbito de la salud pública: la dificultad para identificar tempranamente a personas en riesgo mediante evaluaciones clínicas convencionales, que suelen ser lentas y requieren la intervención directa de expertos.

Un enfoque automatizado para identificar riesgos

Dada la creciente utilización de plataformas digitales como medio para expresar malestar emocional, este estudio propone una solución automatizada que analiza el lenguaje utilizado en foros para detectar señales de alarma. Para ello, los autores han diseñado el Modelo de Conjunto de Votación Suave (SVEM), que no se basa en un único algoritmo, sino que integra tres clasificadores robustos: Random Forest, Regresión Logística y Descenso de Gradiente Estocástico.

A diferencia de otros enfoques que dependen únicamente de una decisión individual, el modelo utiliza un mecanismo de "votación suave", lo que permite calcular el promedio de las probabilidades predichas por cada uno de los algoritmos y llegar a una conclusión final más equilibrada. Esto reduce significativamente el margen de error que podría presentar un solo algoritmo.

Entrenamiento y análisis del modelo

Para entrenar el modelo, se utilizaron datos extraídos de la plataforma Reddit, elegida por su anonimato, lo que favorece discusiones más sinceras sobre salud mental en subforos como "Suicide Watch" y "Depression". El modelo procesa el texto mediante una ingeniería de características híbrida: analiza la frecuencia de palabras clave (TF-IDF) y aplica el modelo de "bolsa de palabras" para identificar patrones lingüísticos asociados al riesgo inminente.

Los resultados obtenidos revelan que el modelo SVEM alcanzó una precisión del 94%, superando incluso a enfoques más complejos como las Redes Neuronales Convolucionales (CNN) y las redes LSTM, que lograron precisiones del 91% y 92%, respectivamente. Además, destaca por su menor complejidad computacional, lo cual facilita su implementación en sistemas de monitoreo en tiempo real sin necesidad de superordenadores.

Explicabilidad y validación clínica

Un aspecto fundamental del estudio es la incorporación de LIME (Local Interpretable Model-agnostic Explanations), una técnica que proporciona "explicabilidad" al modelo. Esta herramienta resulta esencial en la práctica clínica ya que permite entender qué palabras o fragmentos específicos del mensaje activaron la alerta. Por ejemplo, términos como "inútil", "acabar con todo" o "carga" pueden ser identificados como indicadores críticos.

Esto brinda a psiquiatras y psicólogos la posibilidad de validar los diagnósticos generados por la máquina, entendiendo mejor el contexto y tomando decisiones informadas basadas en esta información.

Valora esta noticia
0
(0 votos)
¿Te ha parecido interesante esta noticia?    Si (0)    No(0)

+
0 comentarios