Hay algunos hallazgos generales de aplicaciones particulares que pueden resultar útiles. Con la eliminación de ruido de la imagen, en situaciones de poco ruido, un autoencoder de eliminación de ruido de 4 capas ocultas ha superado a una máquina de Boltzmann profunda Gaussian-Bernoulli (GDBM) con el mismo número de capas ocultas. Sin embargo, cuando el ruido era alto, un GDBM de 2 capas ocultas, así como un Gaussian-Bernoulli RBM (GRBM) de una sola capa, superaron al autoencoder de eliminación de ruido de 4 capas (Página en arxiv.org).
En el reconocimiento de voz, se probó una red de creencias profundas (DBN; RBM apiladas) contra un codificador automático profundo creado a partir de DBN y posteriormente se ajustó. El autoencoder logró el doble de reducción en la distorsión espectral logarítmica (error en la representación del habla) en comparación con el DBN (Página en toronto.edu).
También se pueden usar ambos métodos en conjunto, como se hizo con la autocodificación temporal RBM (Página en arxiv.org). En ese ejemplo, se utilizó un autoencoder profundo para inicializar los pesos temporales de un RBM. Al hacerlo, se produjo un aumento significativo del rendimiento en el modelado de un conjunto de datos de video.
- ¿Cuál es un buen libro para estadísticas como una consideración de ML para principiantes?
- Cómo mejorar en Machine Learning y PNL
- Cómo escribir un buen artículo sobre aprendizaje profundo o reforzar el aprendizaje sin la ayuda de un supervisor profesional
- ¿Qué es el LSTM?
- ¿Cuál es una explicación intuitiva para el equilibrio de sesgo-varianza?
Los hallazgos anteriores se obtuvieron por experimento y podrían muy bien ser específicos de los conjuntos de datos utilizados. Por lo tanto, debe experimentar para determinar qué método (s) son capaces de aprender la mejor representación de alto nivel de su conjunto de datos dado con la menor cantidad de tiempo de entrenamiento.