Un nuevo robot desarrollado en la Universidad Técnica de Múnich puede localizar objetos perdidos mediante un modelo de lenguaje y una cámara 3D, mejorando la eficiencia en la búsqueda.
El nuevo dispositivo, diseñado en el Laboratorio de Sistemas de Aprendizaje y Robótica de la TUM bajo la dirección de la profesora Angela Schoellig, se asemeja a un palo de escoba motorizado, equipado con una cámara en su extremo superior. Este robot no solo integra la comprensión visual, sino que también la utiliza para cumplir tareas específicas.
Para encontrar, por ejemplo, unas gafas extraviadas en la cocina, el robot debe explorar el área y construir una imagen tridimensional del espacio. Inicialmente, la cámara proporciona imágenes bidimensionales que incluyen información sobre profundidad, lo que permite crear un modelo espacial preciso y actualizado constantemente. Un ordenador portátil complementa esta información al identificar qué objetos aparecen en las imágenes y su relevancia para los humanos.
“Hemos enseñado al robot a comprender su entorno”, afirma la profesora Schoellig. La visión que guía a esta experta es desarrollar robots capaces de orientarse autónomamente en cualquier ambiente. Esto es crucial para robots humanoides que operan en fábricas o aquellos diseñados para asistir en el cuidado personal, ya que requieren una comprensión fundamental del espacio que les rodea, especialmente en entornos dinámicos.
El robot reconoce que ciertos lugares como mesas o alféizares son adecuados para dejar las gafas, mientras que otros como fogones o fregaderos no lo son. “El modelo lingüístico establece relaciones entre los objetos y traducimos esa información al lenguaje del robot”, explica Schoellig. En el mapa tridimensional del entorno, pequeñas cifras indican continuamente la probabilidad de encontrar el objeto buscado en diferentes ubicaciones. Así, el robot puede explorar estos lugares con un 30% más de eficiencia comparado con una búsqueda aleatoria.
Una característica adicional del robot es su habilidad para recordar imágenes anteriores y compararlas con nuevas vistas del entorno. Si aparece un objeto nuevo en la cocina, puede identificar este cambio con un 95% de precisión y marcar esas áreas como “altamente probables” para futuras búsquedas.
En su próximo desarrollo, la investigadora planea enseñar al robot a buscar objetos ocultos dentro de cajones o detrás de puertas. Para ello, no solo utilizará datos disponibles en Internet; el robot necesitará interactuar físicamente con su entorno. Esto implica que sus brazos y manos robóticas deberán abrir armarios y discernir cómo funcionan diferentes tipos de cerraduras.