¿Qué parte del autoencoder realmente representa las características aprendidas?

Si desea inicializar una red neuronal para la clasificación utilizando estos pesos para el ajuste, use la parte del codificador. (Eso es hasta el momento en que la Altura / Ancho disminuyen y los canales aumentan). Luego puede seguirlo más Convs / FCLayers (o incluso usar la salida como característica y poner un SVM encima). La razón es simple: cuanto menor sea el número de dimensiones en los datos que desea clasificar, más fácil será entrenar el algoritmo.

Para la segmentación (que es algo que no haría en MNIST, en la que funciona la implementación que realiza su sitio, pero en caso de que quiera usar un algoritmo en otro conjunto de datos), es posible que incluso quiera usar una o más capas de decodificador. Esto ayudaría a reducir parte del ruido antes de transferir el aprendizaje / ajuste.

Todas las capas aprenden características. Los codificadores aprenden características que ayudarán a reducir bien la dimensionalidad (por lo que son útiles para la clasificación / indexación, etc.) y los decodificadores amplían bien la imagen reducida (pero la mayoría de los decodificadores están vinculados a un codificador específico, por lo tanto, casos de uso menores).