EnCompass, un marco desarrollado por MIT y Asari AI, optimiza el uso de modelos de lenguaje en agentes de IA, permitiendo retrocesos automáticos y múltiples intentos para mejorar la eficiencia en programación.
La inteligencia artificial está revolucionando el mundo laboral, convirtiéndose en una herramienta esencial para profesionales de diversas áreas. Desde científicos que buscan nuevas ideas de investigación hasta CEOs que desean automatizar tareas en recursos humanos o finanzas, los agentes de IA están demostrando ser aliados inesperados. Estos sistemas semiautónomos son capaces de invocar inteligencia artificial en momentos clave para resolver problemas y llevar a cabo tareas específicas.
Los agentes de IA destacan especialmente cuando utilizan modelos de lenguaje grandes (LLMs), gracias a su potencia, eficiencia y adaptabilidad. Para programar esta tecnología, se puede describir en código lo que se desea que el sistema realice, incluyendo cuándo debe utilizar un LLM. Por ejemplo, si una empresa de software busca modernizar su código antiguo para optimizarlo y hacerlo más seguro, podría crear un sistema que utilice un LLM para traducir el código archivo por archivo, probando cada uno a medida que avanza.
No obstante, ¿qué sucede si los LLM cometen errores? Es fundamental que el agente retroceda y realice otro intento, aprendiendo de sus fallos anteriores. Implementar esta lógica puede ser tan laborioso como desarrollar el agente original; si el sistema para traducir un código contiene miles de líneas, se requeriría modificar o añadir miles de líneas más para soportar la lógica del retroceso ante errores de los LLM.
Para aliviar esta carga sobre los programadores, investigadores del Laboratorio de Ciencias de la Computación e Inteligencia Artificial (CSAIL)