ResNet es solo una prueba de concepto. Solo demuestra cómo la idea del mapeo de identidad, es decir, la conexión residual, aumenta el procedimiento de aprendizaje al mejorar el flujo de información en redes más profundas.
Por ejemplo, Google introdujo los módulos ‘Inception’ en ILSVRC 2014 y ganó la competencia con una prueba de concepto GoogLeNet. Por supuesto, no se hicieron con la idea del inicio. Tenían Inception.v2, Inception.v3 con conceptos adicionales. Finalmente, implementaron conexiones residuales en sus redes de inicio y descubrieron que las conexiones residuales reducían significativamente el tiempo de convergencia. Las conexiones residuales son ahora una herramienta para el diseño de redes en lugar de una sola red (ResNet).
Si desea obtener más información sobre las aplicaciones recientes de conexiones residuales, le sugiero que lea esta respuesta. La primera parte explica cómo las conexiones residuales funcionan intuitivamente y la parte de edición contiene las implementaciones:
- ¿Es el aprendizaje profundo 'IA real'?
- ¿Son los chatbots las nuevas aplicaciones?
- ¿Es esencial aprender C ++ como estudiante de visión por computadora?
- ¿Podemos imitar artificialmente las señales eléctricas enviadas por nuestros nervios?
- ¿Dónde y cómo debo acercarme al capital si tengo una muy buena pieza de IA que produce 1-3% diario en Forex?
¿Qué aún no puede hacer el aprendizaje automático?
Nota: El módulo de inicio se lleva al extremo de separar correlaciones cruzadas y espaciales y nace un nuevo concepto:
Xception: convoluciones separables en profundidad
https://arxiv.org/pdf/1610.02357…
% 94.5 precisión de top 5,% 79 precisión de top 1 en el conjunto de datos de Imagenet