El aprendizaje profundo es justo cuando aumenta el número de capas ocultas.
Como cada capa es una activación, por ejemplo
a (3) (capa de salida) = g (z (3)) donde z (3) = peso (2) a (2)
- ¿Cómo puedo usar las redes neuronales convolucionales recurrentes (RCNN) para correcciones tipográficas de OCR?
- ¿Hay proyectos de inteligencia artificial que se centren en personas con discapacidad?
- ¿Cuál es una buena idea para un proyecto de inteligencia artificial?
- ¿Cómo deberían pensar los investigadores del aprendizaje automático sobre pasar a un rol de aprendizaje automático aplicado en la industria?
- Soy nuevo en programación, ¿qué significa entrenar una red neuronal?
Y a (2) = g (z (2))
Z (2) = peso (1) a (1)
Y a (1) = características de entrada.
Sé que todo esto es confuso, ahora vea, todos los enteros 1,2,3 aquí significan capas, por lo que a (3) es la activación para 3 rd, que resulta ser mi salida. La capa de salida es sigmoide (z (2)).
Así que aquí tengo una capa oculta. A (1) -capa 1
una (2) capa oculta.
una capa de salida (3).
Puede apilar tantas capas como desee, lo que hace que una red neuronal sea profunda.
Ahora en el aprendizaje profundo tenemos cnn’s y rnn’s (se usan para tareas nlp como traducción de idiomas y predicciones de la siguiente palabra, cualquier cosa que pueda aprender de resultados anteriores) que además tienen lstm’s y gru’s.
Rnn son redes neuronales profundas que no se alimentan hacia adelante, pero utilizan la salida de la capa como retroalimentación junto con el peso de la capa anterior.
Puedes ver stanford cs224n para una mejor comprensión. Es muy difícil explicar claramente estos temas, aquí. Son un tema completo en sí mismo.
Para una mejor comprensión, lea
¿Cómo funciona el aprendizaje profundo y en qué se diferencia de las redes neuronales normales aplicadas con SVM? ¿Cómo se comienza a entenderlos (artículos / blogs / artículos)?