Esto parece una de sus diapositivas de Coursera, un curso infernal, debo decir.
Así es como lo interpreto:
Cada RBM es un pequeño codificador en sí mismo, por lo que está tratando de modelar la entrada en su salida. Cuando se le da un conjunto de entradas, intenta extraer una distribución de probabilidad que podría haber causado que ocurriera este conjunto de entradas. (Técnicamente entrenar buenos pesos para maximizar el producto de probabilidad de cada entrada).
Ahora, esta distribución de probabilidad que aprende podría no estar bien relacionada con el mundo real y podría perder detalles más pequeños, pero es más fácil modelar con mayor precisión si se alimenta como otra GBR.
Estos RBM apilados constituyen una Red de creencias profundas cuando se combinan.
Entonces, cuando estamos aprendiendo solo características que un RBM puede ver en la información durante el aprendizaje codicioso, ¿cómo nos aseguramos de que estamos aprendiendo características del mundo real? La respuesta es que combinamos el aprendizaje codicioso con la propagación hacia atrás. La capa superior de DBN es tal que produce una salida de la misma dimensión que la entrada (es decir, todo el DBN actúa como un autoencoder). Esta capa se compara con los datos del mundo real y se realiza una retropropagación de error en todas las capas RBM debajo de ella. Todo el proceso se repite muchas veces para aprender una buena representación de los datos de entrada.
Máquina de Boltzmann restringida (RBM): ¿Cómo se podría reformular (y / o explicar) las dos tareas en la siguiente diapositiva de una charla de Geoffrey Hinton?
Related Content
¿Qué es la mente profunda de Google?
¿Cuál es la diferencia entre un clasificador Naive Bayes y AODE?
More Interesting
¿Cómo lidian las personas con visión artificial con el sobreajuste?
Cómo hacer un bot que pueda ser entrenado para jugar juegos simples usando Python
¿Puede una red neuronal convolucional tener pesos negativos?
¿Cuál es la forma más fácil de entender el análisis de componentes principales?
¿Puede Naive Bayes alcanzar algún rendimiento con suficientes datos?
¿Qué tema es importante para la ingeniería integrada, las redes neuronales o la automoción moderna?
¿Es Kafka la mejor solución para crear una aplicación de visión por computadora?
¿Cómo podemos estimar múltiples parámetros de un clasificador?