Si echamos un vistazo a la aritmética de convolución transpuesta a través de la perspectiva espacial, ¿qué hace? ¿Y cómo se ve el paso hacia atrás de una capa de convolución? Un paso hacia atrás de las capas parece que “coloca cada mosaico de filtro en la salida” modificado por la entrada, por supuesto). Tenga en cuenta que la convolución transpuesta se puede emular como una convolución normal mediante la inserción de ceros entre la entrada. (Tenga en cuenta que esto es distinto de la convolución atroz / dilatada donde se insertan ceros en los filtros )
Mira este enlace, es extremadamente útil: vdumoulin / conv_arithmetic
También puede pensar en la convolución como una operación de multiplicación de matrices al “desenrollarla” en una matriz de Topelitz o una matriz de doble circulación (para 2D). En ese caso, el paso hacia atrás se convierte en una transposición de la matriz . Espero que puedan ver ahora por qué se llama “convolución transpuesta” y por qué es equivalente al paso hacia atrás de una capa de convolución normal.
- Cómo ejecutar una sesión de tensorflow en un solo proceso y núcleo
- ¿Qué es el preprocesamiento de audio?
- ¿En qué se diferencia el método de agrupamiento en el aprendizaje automático de disparar una consulta SQL 'select' para agrupar personas u objetos? ¿Cuáles son las diferencias y necesidades reales?
- ¿Cómo detectamos las anamolias que causan la caída de la máquina y la pérdida de producción en la fabricación?
- ¿Cuáles son los pros y los contras del aprendizaje en línea y fuera de línea? ¿En qué escenarios son útiles cada uno?
Mira este video que explica este concepto: