Autoencoder (AE) no es una varita mágica y necesita varios parámetros para su ajuste adecuado. El número de neuronas en las neuronas de la capa oculta es uno de esos parámetros. AE básicamente comprime la información de entrada en la capa oculta y luego descomprime en la capa de salida, st la entrada reconstruida es similar a la entrada original. Dos números de neuronas ocultas es muy probable que se ingrese una cantidad demasiado pequeña de información y luego se explote nuevamente para reconstruir el original. El ajuste excesivo solo ocurrirá si el error de reconstrucción es muy pequeño para las secuencias de entrenamiento y para las secuencias de prueba es demasiado grande. Sin embargo, en su caso, puede que no haya suficiente aprendizaje para aprender el concepto en sí mismo, por lo que este parece ser un caso de desajuste para mí.
Supongo que debe probar diferentes arquitecturas y variantes de AE para descubrir el mejor conjunto de parámetros para su problema.
¿Puede un autoencoder sobreajustar cuando tiene una cantidad mucho menor de neuronas de capa oculta que la capa de entrada y también se usa la deserción?
Related Content
¿Es Theano (biblioteca de Python ML) una buena biblioteca si quiero crear una aplicación comercial?
¿Qué es un codificador / decodificador en aprendizaje profundo?
¿Cómo se aplica el aprendizaje profundo en el reconocimiento de imágenes?
¿Por qué no probar y usar autoencoders de eliminación de ruido? Empíricamente, funciona mucho mejor que la deserción en autoencoders.
More Interesting
¿Cómo debo comenzar con las redes neuronales recurrentes?
¿Por qué se congelan los pesos en el discriminador de GAN durante el entrenamiento?
¿Qué es el aprendizaje automático en términos simples?
¿Qué deben saber todos los ingenieros de software sobre el aprendizaje automático?
¿Hay algún paquete de código abierto para aplicar ML a las publicaciones de Twitter?
¿Cuál es el mejor enfoque para medir la "calidad de las características" en una red neuronal?
¿Por qué los clasificadores Naive Bayes se consideran relativamente inmunes al sobreajuste?
¿Existen motores / algoritmos que puedan equiparar el significado de dos oraciones?
¿Cuál es mejor LMS o descenso más empinado?