Una vez realicé un experimento en el conjunto de datos MNIST donde, después del entrenamiento, puse al azar el 30% de los píxeles. Luego le di la imagen corrupta al RBM entrenado y Gibbs-Sampled por unos pocos pasos. Así es como se ve la salida después del procedimiento de muestreo:
Tenga en cuenta que el 6 producido por el RBM no se parece en nada al 6 corrupto que se mostró originalmente. Sin embargo, fue capaz de asociar uno con el otro (¡aunque uno estaba muy dañado!)
¿Por qué hace esto la RBM? imaginemos que el RBM asocia el valor oculto ‘110’ cada vez que se muestra un dígito de 6. Si usamos este ‘110’ para la muestra de Gibbs de la red, siempre le mostrará diferentes tipos de 6. Los RBM están entrenados intencionalmente para hacerlo.
- ¿Qué algoritmo utiliza AutoDraw de Google para asociar nuestro dibujo con uno existente?
- En PWR, ¿por qué las barras de control están dispuestas en grupos?
- ¿Qué saben los profesionales del aprendizaje automático y los científicos de datos de la industria sobre el análisis, la probabilidad basada en la teoría de la medida y el álgebra lineal numérica?
- Cómo realizar un proyecto de predicción relacionado con la salud utilizando big data y machine learning
- ¿Cuáles son los inconvenientes de usar RL con funciones de aproximación en altas dimensiones? ¿Cómo aprender la función de recompensa 0-1 (regresión logística)?
Un RBM es un ‘modelo energético’. Lo que hace durante el entrenamiento es reducir la energía libre conjunta de los nodos de entrada ([matemáticas] v [/ matemáticas]) y ocultos ([matemáticas] h [/ matemáticas]). Esto es para que, en el momento de la prueba, cuando el RBM muestre un nuevo valor [math] v_ {new} [/ math] en la entrada, intente activamente encontrar una configuración de [math] h [/ math] tal que el la energía libre sobre [math] h [/ math] y [math] v_ {new} [/ math] es mínima.
Está asociando efectivamente [math] v_ {new} [/ math] con [math] h [/ math] simplemente porque su energía libre se definió de esa manera durante el entrenamiento.