Posible, pero no a través de la contratación de autoencoder.
Se puede usar un codificador automático disperso, donde el número de nodos en la capa oculta puede ser mayor que el número de nodos en la capa de entrada.
Los extractos de autoencoder dispersos se presentan de una manera diferente que la contratación de autoencoder. Aunque el número de dimensiones del espacio de características es alto en comparación con el espacio de entrada, el autoencoder disperso obligó a las muestras individuales a mapearse dentro de un número restringido de dimensiones a través de la divergencia KL, que proporciona un codificador disperso.
- ¿Cómo debo prepararme para Shogun Machine Learning Toolbox en GSoC? ¿Es difícil ser seleccionado en Shogun?
- ¿Qué debo hacer cuando tengo una cita con las características NULL?
- ¿Cómo decidimos entre usar la factorización a priori o matriz para el filtrado colaborativo?
- ¿En qué técnicas de aprendizaje automático se puede confiar para identificar (y posiblemente tratar) la deriva del concepto?
- ¿Wesleyan tiene un buen departamento de química / bioquímica?
Hay más información sobre el codificador automático disponible en la respuesta de Debiprasad Ghosh a ¿Es necesaria la retropropagación al extraer funciones mediante el codificador automático? o la respuesta de Debiprasad Ghosh a ¿Por qué una capa oculta del codificador automático aprendería características útiles?
El codificador automático apilado es cuando muchos de estos codificadores automáticos se apilan uno tras otro. Entonces, la respuesta anterior es igualmente aplicable al autoencoder apilado también, donde gradualmente podemos aumentar la dimensión de la transformación.