iymagazine.es

Investigación digital

FUNIBER desarrolla herramienta para detectar noticias falsas en medios digitales

lunes 15 de diciembre de 2025, 09:10h
Última actualización: lunes 15 de diciembre de 2025, 10:13h

Investigadores de FUNIBER desarrollan una herramienta innovadora que utiliza aprendizaje automático para detectar noticias falsas, mejorando la precisión y adaptabilidad en entornos digitales.

La Dra. Mónica Gracia, directora internacional de Admisiones de la Fundación Universitaria Iberoamericana (FUNIBER), junto al Dr. Eduardo Silva, director ejecutivo de la misma Fundación en Guatemala, han unido esfuerzos con otros expertos para desarrollar una herramienta innovadora destinada a mejorar la detección automática de noticias falsas mediante el uso de aprendizaje automático. Este estudio presenta un enfoque híbrido y multivista que promete revolucionar el análisis de contenidos informativos en entornos digitales.

En un contexto donde la desinformación se ha propagado rápidamente a través de redes sociales y medios digitales, es crucial contar con herramientas que permitan identificar y detener la difusión de contenido engañoso. Las noticias que entrelazan verdades con mentiras afectan las conversaciones públicas, erosionan la confianza y complican la toma de decisiones, especialmente durante periodos electorales o crisis sanitarias como la pandemia del COVID-19.

Las soluciones existentes hasta ahora se han centrado en analizar únicamente el texto o han empleado modelos complejos que, aunque avanzados, enfrentan dificultades para adaptarse a nuevos contextos y explicar sus decisiones. Muchas veces, estos modelos tienden a simplificar toda la información en un único bloque, lo que ocasiona la pérdida de matices importantes del lenguaje y del tema tratado.

Un nuevo enfoque para detectar noticias falsas

El estudio presentado propone una metodología diferente: examinar cada noticia desde tres perspectivas complementarias antes de combinar las "opiniones" resultantes. En primer lugar, se analiza el texto (palabras y expresiones frecuentes); luego, se evalúa su redacción (comprensibilidad, tono emocional, uso de nombres propios y estructura gramatical); finalmente, se determina el tema central y el significado general del contenido. Para cada uno de estos enfoques se entrena un modelo especializado que permite al final un "árbitro" reunir las tres visiones para lograr una decisión más precisa.

Para validar su propuesta, el equipo utilizó decenas de miles de artículos previamente clasificados como verdaderos o falsos. La evaluación rigurosa incluyó diez rondas distintas de entrenamiento y prueba para evitar resultados aleatorios. Además, se analizó si el sistema mantenía su estabilidad ante pequeñas alteraciones en los textos (como cambios en el orden o eliminación de palabras) y si podía aplicar lo aprendido a otro conjunto compuesto por frases políticas breves.

Resultados prometedores en la lucha contra la desinformación

Los resultados obtenidos son impresionantes. En el conjunto principal evaluado, el sistema alcanzó una precisión del 99.94%, superando tanto a modelos que consideraban solo una perspectiva como a aquellos que integraban todo en un único paso. Asimismo, demostró ser superior a un modelo muy potente basado en redes neuronales profundas. Cuando se probó con frases cortas, mantuvo un alto nivel de acierto cercano al 97%, lo que indica su capacidad para generalizar incluso con diferentes tipos de texto. Durante las pruebas de resistencia, la precisión permaneció por encima del 97%, sugiriendo que si una perspectiva pierde información, las otras dos pueden compensarlo efectivamente.

Esta propuesta no solo destaca por su efectividad sino también por su bajo costo computacional: mejora métricas clave sin requerir infraestructuras pesadas, facilitando así su implementación en entornos con recursos limitados.

Valora esta noticia
0
(0 votos)
¿Te ha parecido interesante esta noticia?    Si (0)    No(0)

+
0 comentarios