¿Cuáles son los ejemplos de redes neuronales profundas extremas (más de 150 capas)?

[1512.03385] El aprendizaje residual profundo para el reconocimiento de imágenes puede superar miles de capas al tiempo que evita el “problema de gradiente de fuga”, que fue el principal problema que limitaba la profundidad de la red en primer lugar. Sin embargo, pasar de 150 capas a 1000 capas aumenta la precisión solo un poco y no es una compensación factible.

Por lo tanto, no es deseable ya que los parámetros numéricos aumentan muy rápidamente a medida que aumenta la profundidad. En cambio, hay arquitecturas más amplias que ofrecen una mayor precisión con la misma profundidad:

[1605.07146] Redes residuales anchas

Más recientemente, estos modelos fueron diagnosticados como ‘conjuntos de redes menos profundas’:

[1605.06431] Las redes residuales son conjuntos exponenciales de redes relativamente poco profundas

Es una indicación de que ‘profundidad’ no debe ser la dirección del progreso, sino más bien una multitud de otros aspectos de las redes.

Para agregar a la respuesta de atila, ResNets es la cuota actual para cnns profundas, pero es posible lograr redes muy profundas con puntos de referencia coincidentes sin el uso de Conexiones Residuales.

Vea aquí Redes neuronales ultra profundas sin residuos

Hubiera pensado el cerebro … pero tal vez no (y no comparable), pero mira:

La respuesta de Páll Haraldsson a ¿Por qué exactamente las redes neuronales necesitan múltiples capas (aprendizaje profundo)? Por favor proporcione un ejemplo real.

donde cito 10 capas para la visión en el cerebro … y tal vez se necesitan menos …