Una red neuronal profunda típica (DNN) como una red neuronal convolucional (convNet) normalmente usa una capa completamente conectada en el extremo de salida.
¿Por qué se hace eso?
El convNet se puede ver como hecho de dos etapas.
- ¿Es obligatoria la experiencia de aprendizaje automático para conseguir un trabajo con Google? ¿Es realmente un tema importante en las universidades?
- ¿Cuál es la diferencia entre almacenar datos en HDF5 frente al formato TFRecord de TensorFlow?
- ¿Qué significa realmente la matriz de covarianza de la estimación de máxima verosimilitud de la distribución normal multivariante?
- ¿Qué pensaría BF Skinner del aprendizaje automático?
- Redes neuronales convolucionales: ¿Cuáles son algunos posibles proyectos de cursos de aprendizaje automático de nivel de posgrado que utilizan CNN? Específicamente en el límite de PNL y CV.
clasificador de extracción de características [math] \ rightarrow [/ math]
La etapa de extracción de características consiste en alternar capas totalmente convolucionales (conv) entrenables que aprenden características de alto nivel, mientras que la parte del clasificador, que es la capa completamente conectada, se ocupa de diferentes combinaciones de esas características para tomar las decisiones finales.
Sin embargo, cada capa totalmente conectada se puede convertir en una capa convolucional.
¿Cómo?
Esto se debe a que la capa completamente conectada se puede ver como un clasificador deslizante que se desliza sobre el mapa de entidades conv. Es solo que en la mayoría de los casos, la salida es normalmente [matemática] 1 × 1 [/ matemática] tamaño espacial. Por lo tanto, cada red neuronal convolucional puede verse como completamente convolucional.
Dada una imagen de entrada de tamaño [matemática] m × n [/ matemática], se puede ver que la convNet con una capa completamente conectada al final emite una salida de tamaño [matemática] 1 × 1 [/ matemática]. ¿Cuál será el resultado si le damos una imagen [matemática] km × kn [/ matemática]? Podemos convertir las últimas capas completamente conectadas en capas convolucionales deslizando la red completamente conectada sobre la capa conv final para obtener una salida de tamaño [matemático] k × k [/ matemático]. Por lo tanto, al convertir cada capa totalmente conectada como una capa más, podemos manejar imágenes de entrada de tamaño variable.
Por eso es mucho más útil visualizar cada capa como convolucional. La red totalmente conectada puede verse como otro núcleo convolucional complicado.
Espero que esto ayude.