Un nuevo enfoque desarrollado por investigadores del MIT promete revolucionar la forma en que los ingenieros abordan problemas complejos de diseño, desde la optimización de redes eléctricas hasta el diseño de vehículos. Este método, que se basa en una técnica conocida como optimización bayesiana, permite encontrar soluciones óptimas entre 10 y 100 veces más rápido que las metodologías convencionales.
Los desafíos en ingeniería a menudo se reducen a un problema común: demasiados parámetros a ajustar y pocas oportunidades para probarlos. Por ejemplo, al diseñar un automóvil seguro, los ingenieros deben integrar miles de componentes, donde cada decisión puede influir en el rendimiento del vehículo durante una colisión. Las herramientas clásicas de optimización pueden resultar ineficaces al buscar la mejor combinación de variables.
Una nueva perspectiva en la optimización
El equipo del MIT ha reimaginado cómo aplicar la optimización bayesiana para resolver problemas con cientos de variables. Utilizando un modelo base entrenado con datos tabulares, esta técnica identifica automáticamente cuáles son los factores más relevantes para mejorar el rendimiento, refinando continuamente el proceso para alcanzar soluciones cada vez más efectivas.
Este modelo no necesita ser reentrenado constantemente mientras busca una solución, lo que aumenta la eficiencia del proceso de optimización. Además, ofrece mejoras significativas en problemas complejos, lo que lo convierte en una herramienta valiosa para aplicaciones exigentes como el desarrollo de materiales o la investigación farmacéutica.
Transformación en el diseño ingenieril
“La inteligencia artificial moderna y los modelos de aprendizaje automático pueden cambiar fundamentalmente la manera en que ingenieros y científicos crean sistemas complejos”, afirma Rosen Yu, estudiante graduado en ciencias computacionales e ingeniería y autor principal de un estudio sobre esta técnica. “Desarrollamos un algoritmo que no solo resuelve problemas de alta dimensión, sino que también es reutilizable, permitiendo su aplicación a diversos problemas sin necesidad de empezar desde cero”.
Yu está acompañado en este trabajo por Cyril Picard, exinvestigador postdoctoral del MIT, y Faez Ahmed, profesor asociado de ingeniería mecánica y miembro clave del Centro de Ciencia e Ingeniería Computacional del MIT. Este avance será presentado en la Conferencia Internacional sobre Aprendizaje Representacional.
Optimización bayesiana mejorada
Cuando los científicos enfrentan problemas multifacéticos pero cuentan con métodos costosos para evaluar resultados —como las pruebas de choque para determinar la eficacia de un diseño— suelen recurrir a la optimización bayesiana. Este método iterativo busca la mejor configuración mediante un modelo sustituto que estima qué explorar a continuación considerando la incertidumbre de sus predicciones.
No obstante, este modelo sustituto debe ser reentrenado tras cada iteración, lo cual puede volverse inviable computacionalmente cuando el espacio de soluciones es extenso. Además, se requiere construir un nuevo modelo desde cero cada vez que se aborda un escenario diferente.
Eficiencia y precisión en el diseño
Para superar estas limitaciones, los investigadores del MIT han integrado un sistema generativo conocido como modelo base tabular dentro del algoritmo de optimización bayesiana. “Un modelo base tabular es como un ChatGPT para hojas de cálculo”, explica Yu. “La entrada y salida son datos tabulares, mucho más comunes en ingeniería que el lenguaje”.
Al igual que otros modelos avanzados como ChatGPT o Claude, este sistema ha sido preentrenado con grandes volúmenes de datos tabulares, lo que le permite abordar diversos problemas predictivos sin requerir reentrenamiento adicional.
Resultados prometedores y futuro potencial
A medida que los investigadores probaron su método frente a cinco algoritmos avanzados en 60 problemas benchmark —incluyendo situaciones realistas como el diseño de redes eléctricas y pruebas de choque vehicular— su enfoque demostró consistentemente ser entre 10 y 100 veces más rápido al encontrar soluciones óptimas.
Aunque su método no superó a todos los algoritmos comparativos en todos los casos —como en planificación robótica— esto podría señalar que ese escenario específico no estaba bien definido dentro del conjunto de datos utilizado para entrenar el modelo.
Mira hacia adelante: los investigadores planean investigar métodos adicionales para mejorar aún más el rendimiento de estos modelos tabulares y aplicar su técnica a problemas con miles o millones de dimensiones, como el diseño naval. “Este trabajo indica un cambio más amplio: utilizar modelos base no solo para percepción o lenguaje, sino como motores algorítmicos dentro de herramientas científicas e ingenieriles”, concluye Ahmed.