¿Cuándo debo usar un autoencoder frente a un RBM?

Hay algunos hallazgos generales de aplicaciones particulares que pueden resultar útiles. Con la eliminación de ruido de la imagen, en situaciones de poco ruido, un autoencoder de eliminación de ruido de 4 capas ocultas ha superado a una máquina de Boltzmann profunda Gaussian-Bernoulli (GDBM) con el mismo número de capas ocultas. Sin embargo, cuando el ruido era alto, un GDBM de 2 capas ocultas, así como un Gaussian-Bernoulli RBM (GRBM) de una sola capa, superaron al autoencoder de eliminación de ruido de 4 capas (Página en arxiv.org).

En el reconocimiento de voz, se probó una red de creencias profundas (DBN; RBM apiladas) contra un codificador automático profundo creado a partir de DBN y posteriormente se ajustó. El autoencoder logró el doble de reducción en la distorsión espectral logarítmica (error en la representación del habla) en comparación con el DBN (Página en toronto.edu).

También se pueden usar ambos métodos en conjunto, como se hizo con la autocodificación temporal RBM (Página en arxiv.org). En ese ejemplo, se utilizó un autoencoder profundo para inicializar los pesos temporales de un RBM. Al hacerlo, se produjo un aumento significativo del rendimiento en el modelado de un conjunto de datos de video.

Los hallazgos anteriores se obtuvieron por experimento y podrían muy bien ser específicos de los conjuntos de datos utilizados. Por lo tanto, debe experimentar para determinar qué método (s) son capaces de aprender la mejor representación de alto nivel de su conjunto de datos dado con la menor cantidad de tiempo de entrenamiento.

Depende de la aplicación y parece que todavía no hay suficiente conocimiento sobre cuándo exactamente uno es mejor que el otro.
A veces, un autoencoder desagradable funciona mejor en un conjunto de datos, mientras que un RBM funcionaría mejor en otro.