ACTUALIDAD

Nueva herramienta mejora la eficiencia de agentes de IA al optimizar búsquedas en modelos de lenguaje

Redacción | Domingo 08 de febrero de 2026

Investigadores del MIT han desarrollado EnCompass, un marco que optimiza el uso de modelos de lenguaje grandes (LLMs) en agentes de inteligencia artificial. Este sistema permite a los programadores implementar estrategias de búsqueda y retroceso sin necesidad de modificar extensamente su código, ahorrando hasta un 80% en esfuerzo de codificación. EnCompass facilita la experimentación con diferentes enfoques para mejorar el rendimiento de los agentes, lo que resulta especialmente útil en tareas complejas como la traducción de código y la gestión de bibliotecas masivas. A medida que la inteligencia artificial se integra más en el desarrollo de software, herramientas como EnCompass son esenciales para maximizar su eficiencia y efectividad.



La inteligencia artificial está revolucionando la forma en que los profesionales abordan sus tareas diarias, desde científicos que buscan ideas para investigaciones hasta directores ejecutivos que desean automatizar procesos en recursos humanos y finanzas. En este contexto, muchos están aprovechando las capacidades de sistemas de software semi-autónomos conocidos como agentes de IA, que utilizan inteligencia artificial en momentos clave para resolver problemas y completar tareas.

Estos agentes son especialmente efectivos cuando emplean modelos de lenguaje grandes (LLMs), gracias a su potencia, eficiencia y adaptabilidad. La programación de estas tecnologías implica describir en código lo que se desea lograr (el “flujo de trabajo”), incluyendo cuándo debe utilizarse un LLM. Por ejemplo, una empresa de software podría modernizar su antiguo código utilizando un LLM para traducir archivos uno a uno, probando cada archivo durante el proceso.

Desafíos y soluciones en la programación

No obstante, surgen interrogantes cuando los LLM cometen errores. Es fundamental que el agente retroceda para intentar nuevamente, incorporando lecciones aprendidas de fallos anteriores. Sin embargo, codificar esta lógica puede ser tan laborioso como implementar el agente original; si el sistema de traducción cuenta con miles de líneas de código, las modificaciones necesarias también serán extensas.

Para aliviar esta carga a los programadores, investigadores del Laboratorio de Ciencias de la Computación e Inteligencia Artificial (CSAIL) del MIT y Asari AI han desarrollado un marco denominado “EnCompass”. Este innovador sistema permite que los programadores no tengan que realizar estas modificaciones manualmente. Al ejecutar un programa con EnCompass, este automáticamente retrocede ante errores cometidos por los LLMs y puede crear clones del entorno de ejecución para hacer múltiples intentos en paralelo en busca de la mejor solución.

Facilitando la experimentación

Con EnCompass, los usuarios solo necesitan anotar las ubicaciones donde desean permitir retrocesos o clonaciones del entorno de ejecución, así como registrar información útil para la estrategia utilizada al explorar diferentes caminos posibles del agente. Además, se puede especificar una estrategia de búsqueda —ya sea una proporcionada por EnCompass o una personalizada— facilitando así la experimentación con diferentes enfoques.

Zhening Li ’25, MEng ’25, autor principal y estudiante de doctorado en ingeniería eléctrica y ciencias computacionales del MIT, destaca: “Con EnCompass hemos separado la estrategia de búsqueda del flujo de trabajo subyacente del agente de IA. Nuestro marco permite a los programadores experimentar fácilmente con distintas estrategias para encontrar la más efectiva.”

Eficiencia en el desarrollo

La implementación de EnCompass ha demostrado ser notablemente eficiente; redujo el esfuerzo necesario para implementar estrategias de búsqueda hasta en un 80% en varios agentes. Por ejemplo, se utilizó EnCompass en un agente diseñado para traducir repositorios de código y descubrir reglas de transformación en redes digitales. Los resultados mostraron una reducción significativa en las líneas de código requeridas al implementar búsquedas.

Los investigadores aplicaron EnCompass a un agente que traduce código desde Java a Python y encontraron que esto implicaba 348 líneas menos (aproximadamente un 82%) comparado con hacerlo manualmente. Además, lograron identificar que una estrategia óptima fue un algoritmo de búsqueda tipo beam a dos niveles, logrando mejoras significativas en precisión.

Mirando hacia el futuro

A medida que los modelos LLM se integran más profundamente en el desarrollo software cotidiano, es crucial comprender cómo construir eficientemente herramientas que maximicen sus fortalezas mientras se navega por sus limitaciones. Armando Solar-Lezama, coautor y profesor del MIT, señala: “EnCompass es un paso importante hacia esa dirección.”

El equipo planea extender EnCompass a marcos más generales para agentes IA y probar su sistema en tareas complejas para refinarlo para usos reales. También están evaluando cómo ayuda a los agentes a colaborar con humanos en tareas como diseño hardware o traducción de bibliotecas grandes. Así pues, EnCompass se perfila como una herramienta poderosa que facilita la interacción entre humanos y agentes IA mejorando su rendimiento.

Yiming Yang, profesor en Carnegie Mellon University y ajeno al estudio realizado, comenta: “EnCompass llega en un momento oportuno mientras los agentes impulsados por IA comienzan a remodelar flujos laborales en ingeniería software.” Esta separación clara entre la lógica programática del agente y su estrategia de búsqueda ofrece una base sólida para enfoques más sistemáticos y confiables dentro del desarrollo software.

La noticia en cifras

Descripción Cifra
Reducción del esfuerzo de codificación para implementar búsqueda Hasta un 80%
Reducción en líneas de código al implementar búsqueda con EnCompass 348 líneas (aproximadamente 82%)
Mejora en la precisión al usar una estrategia de búsqueda específica Entre 15% y 40%
Presupuesto de búsqueda utilizado 16 veces las llamadas LLM realizadas por el agente sin búsqueda

TEMAS RELACIONADOS: