La red Deep Residual Learning es una red muy intrigante que fue desarrollada por investigadores de Microsoft Research. Los resultados son bastante impresionantes ya que recibió el primer lugar en la clasificación de imágenes ILSVRC 2015. La red que usaron tenía 152 capas, una impresionante 8 veces más profunda que una red VGG comparable. Esta es una instantánea del documento: http://arxiv.org/pdf/1512.03385v… que compara su red con una red de convolución VGG de construcción similar:
Sin embargo, la afirmación de Jurgen Schmidhuber es que es lo mismo que un LSTM sin puertas. (ver: Microsoft gana ImageNet 2015 a través de Feedforward LSTM sin puertas). Lo que parece exacto si observa cómo se ve un nodo LSTM:
- ¿Python es mejor para la IA?
- ¿Qué lenguaje de programación debo saber si quiero desarrollar inteligencia artificial?
- ¿Pueden las computadoras hacer preguntas?
- ¿En qué áreas podrían ser realmente útiles los robots humanos?
- ¿Cuáles son las críticas efectivas, si las hay, del 'Principio de optimismo' de David Deutsch: que todo mal proviene de la falta de conocimiento?
En otras palabras, las entradas de una capa inferior se ponen a disposición de un nodo en una capa superior. La diferencia, por supuesto, es que la Red residual de Microsoft cuando se aplica a las tareas de clasificación de imágenes emplea capas de procesamiento de convolución en su construcción. El grupo de investigación de Schmidhuber ha publicado los resultados de “Highway Networks”: http://arxiv.org/pdf/1507.06228v… con profundidades de hasta 100 capas.
Sin embargo, a pesar de las similitudes entre LSTM y Highway Networks con Residual Network, los resultados son bastante impresionantes, ya que muestra resultados de vanguardia para una red neuronal muy profunda de 152 capas. Un artículo reciente del Instituto de Ciencias Weizmann http://arxiv.org/pdf/1512.03965…. tiene una prueba matemática que revela la utilidad de tener redes más profundas que la de redes más anchas. La implicación de estos tres resultados es que el progreso futuro de Deep Learning conducirá al desarrollo de redes aún más profundas.
GoogleNet de Google tiene 22 capas, esto se publicó a fines de 2014. Dos generaciones más tarde, Google mencionó su red Inception 7 que tenía más de 50 capas.
En todas las redes de Residual, Carretera e Inicio, notará que las mismas entradas viajan a través de caminos y diferentes números de capas.
La tendencia es bastante clara. Las redes neuronales más profundas no solo son más precisas, sino que además requieren menos pesos.
Actualización : Dos artículos recientes han demostrado que (1) las redes residuales son equivalentes a RNN y (2) las redes residuales actúan más como conjuntos en varias capas.