iymagazine.es

Inteligencia Artificial

Estudiantes de MIT impulsan la evolución de la inteligencia artificial hacia modelos más confiables y eficientes
Ampliar

Estudiantes de MIT impulsan la evolución de la inteligencia artificial hacia modelos más confiables y eficientes

Por José Enrique González
x
jenriqueiymagazinees/8/8/19
viernes 07 de noviembre de 2025, 13:33h

Estudiantes de doctorado del MIT-IBM Watson AI Lab desarrollan herramientas de IA más flexibles y confiables, mejorando la eficiencia y precisión en diversas aplicaciones mediante innovaciones en modelos y técnicas de razonamiento.

La evolución de la inteligencia artificial: un enfoque hacia la confianza y eficiencia

La adopción de nuevas herramientas y tecnologías se produce cuando los usuarios las consideran fiables, accesibles y una mejora respecto a los métodos disponibles. Un grupo de cinco estudiantes de doctorado del programa de verano del MIT-IBM Watson AI Lab está trabajando para hacer que las herramientas de inteligencia artificial sean más flexibles, eficientes y fundamentadas en la verdad. Estos investigadores están abordando puntos críticos en el desarrollo de IA y creando nuevas funcionalidades para promover su utilidad y despliegue.

Las investigaciones abarcan desde aprender a confiar en modelos predictivos hasta mejorar el razonamiento sobre bases de conocimiento. El trabajo conjunto entre los estudiantes y sus mentores forma una línea coherente donde la investigación práctica y técnicamente rigurosa conduce a modelos más fiables y valiosos en diversos dominios.

Investigaciones centradas en la confianza

Uno de los estudiantes, Andrey Bryutkin, se centra en la confiabilidad de los modelos. Su investigación busca estructuras internas dentro de problemas complejos, como ecuaciones que rigen un sistema, para aprovecharlas y producir soluciones más robustas. Junto con Veronika Thost e Marzyeh Ghassemi, Bryutkin ha explorado el concepto de “incertidumbre de la incertidumbre” en grandes modelos de aprendizaje (LLMs).

A través del uso de redes neuronales pequeñas llamadas "probes", entrenadas junto a los LLMs, el equipo puede identificar respuestas poco fiables del modelo mayor. Sin embargo, estas clasificaciones pueden generar falsos negativos, lo que limita su eficacia. La investigación se centra en utilizar pares de etiquetas y estados ocultos para medir la fiabilidad del modelo, un aspecto crítico dado que la confianza en los sistemas de IA depende completamente de la calidad de los datos etiquetados.

Aumentando la precisión mediante bases de conocimiento externas

Para asegurar respuestas confiables a partir de LLMs, es fundamental complementarlas con bases de conocimiento externas. Un grupo liderado por Jinyeop Song, junto con investigadores como Yada Zhu y Julian Shun, ha desarrollado un marco innovador que utiliza aprendizaje por refuerzo para optimizar la interacción entre LLMs y gráficos de conocimiento (KGs). Este sistema permite al agente LLM realizar acciones específicas para recuperar información relevante, mejorando así tanto la precisión como la eficiencia.

El diseño incluye un servidor API que alberga KGs como Freebase y Wikidata, facilitando una comunicación más efectiva entre el modelo y las fuentes externas. Esto no solo incrementa la transparencia sino también reduce costos computacionales al optimizar el proceso.

Eficiencia computacional en modelos avanzados

La rapidez y completitud en las respuestas son tan importantes como su precisión. Por ello, Songlin Yang, junto a Rameswar Panda y Yoon Kim, está reingenierizando lo que los modelos pueden manejar durante cada paso del proceso inferencial. Se enfocan en las limitaciones actuales de los transformadores utilizados en LLMs.

Los transformadores enfrentan dos limitaciones clave: alta complejidad computacional al modelar secuencias largas y expresividad limitada debido al sesgo inductivo débil del codificador posicional rotatorio (RoPE). Para abordar estos desafíos, el equipo investiga algoritmos eficientes desde un punto teórico pero aplicables a hardware real.

Nuevas visiones para el análisis visual

Dentro del ámbito visual, dos estudiantes han estado explorando cómo interpretar datos visuales utilizando modelos visión-lenguaje (VLMs). Jovana Kondic, bajo la tutela de Aude Oliva e investigadores de IBM Research, ha trabajado en comprensión visual documental centrada en gráficos. Su proyecto busca crear un conjunto sintético amplio para entrenar modelos capaces de entender elementos complejos dentro de gráficos.

A través del prototipo denominado ChartGen, han desarrollado un sistema capaz de generar pares únicos entre gráficos y sus códigos correspondientes mediante un proceso iterativo que mejora continuamente el código generado. Esta iniciativa tiene aplicaciones significativas en informes financieros y científicos.

Leonardo Hernandez Cano, otro estudiante involucrado en esta área, se enfoca en la generación visual para aplicaciones CAD mediante un sistema que aprende a refinar código automáticamente basado en descripciones dadas por usuarios. Este enfoque promete revolucionar cómo se crean texturas digitales al permitir al sistema buscar nuevas soluciones basadas en datos generados por él mismo.

A medida que estos proyectos avanzan, queda claro que están impulsando una inteligencia artificial más robusta y práctica. Al abordar desafíos fundamentales relacionados con la fiabilidad, eficiencia y razonamiento multimodal, este trabajo allana el camino hacia sistemas inteligentes más poderosos y costefectivos aplicables a contextos empresariales y científicos reales.

Valora esta noticia
0
(0 votos)
¿Te ha parecido interesante esta noticia?    Si (0)    No(0)

+
0 comentarios