iymagazine.es

Aprendizaje guiado

Red de neuronas 'inutilizables' pueden aprender con ayuda de otra red
Ampliar

Red de neuronas "inutilizables" pueden aprender con ayuda de otra red

Por José Enrique González
x
jenriqueiymagazinees/8/8/19
jueves 18 de diciembre de 2025, 16:00h
Última actualización: viernes 19 de diciembre de 2025, 13:23h

Investigadores del MIT han demostrado que redes neuronales consideradas "inentrenables" pueden aprender eficazmente con la ayuda de otra red, mejorando su rendimiento y evitando problemas de sobreajuste.

Investigadores del Laboratorio de Ciencias de la Computación e Inteligencia Artificial del MIT (CSAIL) han realizado un descubrimiento sorprendente: **redes neuronales** que antes se consideraban “no entrenables” pueden aprender de manera efectiva si reciben la orientación adecuada. Este enfoque, denominado *guía*, consiste en alinear brevemente dos redes neuronales, lo que puede mejorar significativamente el rendimiento de arquitecturas que se pensaban inadecuadas para tareas modernas.

Los hallazgos sugieren que muchas redes consideradas “ineficaces” podrían simplemente estar comenzando desde puntos de partida poco ideales. Con una breve intervención, estas redes pueden colocarse en una posición que facilita su aprendizaje. El método de guía fomenta que una red objetivo imite las representaciones internas de una red guía durante el entrenamiento. A diferencia de métodos tradicionales como la *destilación del conocimiento*, que se centra en replicar las salidas de un maestro, la guía transfiere conocimientos estructurales directamente entre redes. Esto permite que la red objetivo aprenda cómo la guía organiza la información en cada capa, en lugar de simplemente copiar su comportamiento.

Resultados sorprendentes en el aprendizaje

Vighnesh Subramaniam, estudiante de doctorado y autor principal del estudio, expresó su asombro ante estos resultados: “Es impresionante que hayamos podido utilizar la similitud representacional para hacer que estas redes tradicionalmente ‘malas’ funcionen”. La investigación plantea interrogantes sobre si la guía debe mantenerse durante todo el proceso de entrenamiento o si su efecto principal es proporcionar una mejor inicialización.

Para investigar esto, los científicos realizaron un experimento con redes neuronales completamente conectadas (FCNs). Antes de enfrentarse a problemas reales, estas redes practicaron con otra red utilizando ruido aleatorio, similar a un calentamiento antes del ejercicio. Los resultados fueron notables: las redes que normalmente sobreajustaban permanecieron estables y lograron menores pérdidas durante el entrenamiento, evitando así la degradación clásica del rendimiento observada en FCNs estándar.

Nuevas perspectivas sobre las arquitecturas neuronales

El estudio también comparó el método de guía con la destilación del conocimiento. Cuando la red maestra estaba sin entrenar, esta última fallaba por completo debido a que sus salidas carecían de señales significativas. En cambio, la guía generó mejoras significativas al aprovechar las representaciones internas en lugar de las predicciones finales. Este resultado subraya un hallazgo clave: incluso las redes no entrenadas ya codifican sesgos arquitectónicos valiosos que pueden orientar a otras redes hacia un aprendizaje efectivo.

Más allá de los resultados experimentales, estos hallazgos tienen amplias implicaciones para comprender la arquitectura de las redes neuronales. Los investigadores sugieren que el éxito o fracaso depende menos de los datos específicos de cada tarea y más de la posición de la red en el espacio paramétrico. Al alinearse con una red guía, es posible separar las contribuciones de los sesgos arquitectónicos del conocimiento aprendido.

Transformando lo ineficaz en eficaz

Este trabajo demuestra que las redes “no entrenables” no están condenadas al fracaso. Gracias a la guía, se pueden eliminar modos de fallo y evitar el sobreajuste, logrando así que arquitecturas previamente ineficaces alcancen estándares modernos de rendimiento. El equipo del CSAIL planea investigar qué elementos arquitectónicos son responsables de estas mejoras y cómo estos conocimientos pueden influir en futuros diseños de redes.

Leyla Isik, profesora asistente en ciencias cognitivas en Johns Hopkins University y ajena a esta investigación, comentó: “Este emocionante estudio muestra que un tipo de red puede heredar ventajas de otra arquitectura sin perder sus capacidades originales”. La investigación introduce una forma novedosa y concreta para añadir diferentes sesgos inductivos a las redes neuronales, lo cual es crucial para desarrollar inteligencia artificial más eficiente y alineada con los humanos.

Subramaniam trabajó junto a colegas del CSAIL: Brian Cheung; David Mayo; Colin Conwell; Boris Katz; Tomaso Poggio; y Andrei Barbu. Su trabajo recibió apoyo parcial del Centro para Cerebros, Mentes y Máquinas; la Fundación Nacional de Ciencia; y otros organismos gubernamentales y académicos.

Valora esta noticia
0
(0 votos)
¿Te ha parecido interesante esta noticia?    Si (0)    No(0)

+
0 comentarios