Se puede tener una idea sobre cualquier activación en la primera capa de convolución visualizando directamente los filtros correspondientes en la primera capa de convolución. Sin embargo, para cualquier capa más allá de la primera capa de no linealidad (RELU), visualizar los pesos del filtro directamente no ofrecerá nada significativo (ya que estos filtros funcionan en una versión de la imagen transformada no linealmente). Por lo tanto, para estas capas, necesitamos usar otras técnicas como las capas deconvolucionales mencionadas por Eren.
Eche un vistazo a este documento deconvnet: [1] https://www.cs.nyu.edu/~fergus/p…
En este artículo, los autores alimentan las activaciones de las capas intermedias de una red convolucional a una red de deconvolución, para asignar las activaciones al espacio de píxeles. La red deconvolucional puede considerarse como la aplicación de los pasos inversos de filtrado y agrupación, para asignar las características de nuevo al espacio de píxeles.
- Cómo detectar si una imagen contiene uno o más rostros humanos
- ¿Dónde entran en juego las funciones de activación en una red neuronal de convolución?
- ¿Por qué la traducción automática neuronal a nivel de caracteres es más difícil que la traducción automática neuronal a nivel de palabra?
- ¿Cuánto del aprendizaje automático es en realidad solo optimización?
- ¿Cómo se usa el aprendizaje automático para los datos de EEG?
Aquí hay una figura de [1] que describe la arquitectura deconvnet: