¿Cuál es la diferencia entre skip, mirilla y conexiones residuales en redes neuronales?

ResNet y sus bloques residuales constituyentes obtienen sus nombres del ‘residual’, la diferencia entre los valores predichos y los objetivos. Los autores de ResNet utilizaron el aprendizaje residual de la forma H (x) = F (x) + x. Simplemente, esto significa que incluso en el caso de no residual, F (x) = 0, aún conservaríamos un mapeo de identidad de la entrada, x. El residual aprendido resultante permite que nuestra red no haga peor teóricamente (que sin ella).

Las conexiones residuales y las conexiones de salto se usan indistintamente . Estos tipos de conexiones pueden omitir varias capas (consulte la página 4 del documento original de ResNet), no solo una. En resumen, las conexiones residuales se utilizan para hacer que las redes más profundas sean más fáciles de optimizar. [1]

Las conexiones de mirilla redirigen el estado de la celda como entrada a las puertas de entrada, salida y olvido de LSTM. Puede explorarlos en detalle leyendo los documentos originales del profesor Felix Gers [2] [3]. Estas conexiones se utilizan para aprender tiempos precisos.

Notas al pie

[1] https://arxiv.org/pdf/1512.03385…

[2] http://www.jmlr.org/papers/volum…

[3] http: // ftp: //ftp.idsia.ch/pub/ju…

Una conexión de omisión en una red neuronal es una conexión que omite una capa y se conecta a la siguiente capa disponible.

Una conexión residual es aquella que se conecta a la capa anterior.