Si desea inicializar una red neuronal para la clasificación utilizando estos pesos para el ajuste, use la parte del codificador. (Eso es hasta el momento en que la Altura / Ancho disminuyen y los canales aumentan). Luego puede seguirlo más Convs / FCLayers (o incluso usar la salida como característica y poner un SVM encima). La razón es simple: cuanto menor sea el número de dimensiones en los datos que desea clasificar, más fácil será entrenar el algoritmo.
Para la segmentación (que es algo que no haría en MNIST, en la que funciona la implementación que realiza su sitio, pero en caso de que quiera usar un algoritmo en otro conjunto de datos), es posible que incluso quiera usar una o más capas de decodificador. Esto ayudaría a reducir parte del ruido antes de transferir el aprendizaje / ajuste.
Todas las capas aprenden características. Los codificadores aprenden características que ayudarán a reducir bien la dimensionalidad (por lo que son útiles para la clasificación / indexación, etc.) y los decodificadores amplían bien la imagen reducida (pero la mayoría de los decodificadores están vinculados a un codificador específico, por lo tanto, casos de uso menores).
- ¿Cómo se explica el aprendizaje automático y la inteligencia artificial a un niño de 5 años?
- Cómo leer esta arquitectura de red neuronal convolucional
- ¿Cuáles podrían ser las características posibles para detectar fraude en transacciones en cajeros automáticos?
- ¿Cuáles son algunos de los beneficios y desventajas de los modelos discriminativos y generativos?
- ¿Cuáles son los requisitos previos para aprender Machine Learning?