Ayako y Alexandre lo han explicado muy bien.
1, sí, aproximadamente, la “red neuronal con muchas capas ocultas” puede tratarse como aprendizaje profundo o red neuronal profunda. Que “muchas capas ocultas” significa “profundo”, literalmente.
2. Para entrenar como una red profunda (es decir, hacer que haga su “aprendizaje profundo”), se debe utilizar la propagación inversa.
- ¿La idea de inteligencia artificial está desactualizada u obsoleta?
- ¿Cómo es hablar con Quora similar a AI?
- ¿Qué significa que un programa de IA avanzado sea un 'billón de veces más inteligente' que un ser humano?
- ¿Podrían los robots de súper inteligencia hacer algo?
- ¿Por qué necesitamos inteligencia artificial si hará que casi todos los trabajos queden obsoletos? ¿Cómo sobreviviremos sin trabajos?
3. Sin embargo, la propagación hacia atrás en sí misma no es suficiente para entrenar bien. El algoritmo Back-pro entrena la red como un todo, lo que puede ser demasiado difícil cuando todo esto es demasiado grande (problemas como demasiado lento, desvanecimiento de gradiente, caer en un mínimo local malo, etc.). Por lo tanto, algunas técnicas de entrenamiento de una sola capa, como RBM o auto-codificador, se utilizan para entrenar cada capa individual por separado y luego apilarlas juntas.
Es similar usar RBM para dar una buena “inicialización” o un buen “inicio” para toda la red profunda. Luego, la propagación hacia atrás se utiliza para “ajustar” la red.
No es una buena idea comparar RBM con backpropogation, cuando trabajan juntos en un proyecto como “paso 1 y paso 2”.