¿Puede un autoencoder sobreajustar cuando tiene una cantidad mucho menor de neuronas de capa oculta que la capa de entrada y también se usa la deserción?

Autoencoder (AE) no es una varita mágica y necesita varios parámetros para su ajuste adecuado. El número de neuronas en las neuronas de la capa oculta es uno de esos parámetros. AE básicamente comprime la información de entrada en la capa oculta y luego descomprime en la capa de salida, st la entrada reconstruida es similar a la entrada original. Dos números de neuronas ocultas es muy probable que se ingrese una cantidad demasiado pequeña de información y luego se explote nuevamente para reconstruir el original. El ajuste excesivo solo ocurrirá si el error de reconstrucción es muy pequeño para las secuencias de entrenamiento y para las secuencias de prueba es demasiado grande. Sin embargo, en su caso, puede que no haya suficiente aprendizaje para aprender el concepto en sí mismo, por lo que este parece ser un caso de desajuste para mí.
Supongo que debe probar diferentes arquitecturas y variantes de AE ​​para descubrir el mejor conjunto de parámetros para su problema.

¿Por qué no probar y usar autoencoders de eliminación de ruido? Empíricamente, funciona mucho mejor que la deserción en autoencoders.