Centrarse en la palabra “recurrente” aclararía la comprensión mejor. “Recurrente” significa algo que ocurre a menudo o repetidamente . Entonces, lo que hace que los RNN sean “recurrentes” es esencialmente el hecho de que comparte los mismos pesos en varios pasos de tiempo.
Ahora, según su figura, puede ver que W , V y U son los mismos en todos los pasos de tiempo que denotan la naturaleza recurrente de la red. En otras palabras, esto significa que la red comparte repetidamente los mismos pesos en varios pasos de tiempo. Y, también puede notar que todas las otras cosas están cambiando: las entradas (x) , los estados ocultos y las salidas (o) ; Es por eso que tienen un subíndice asociado con ellos (t), la variable de tiempo, que está cambiando.
Espero que esto aclare tu comprensión! Si no, como siempre, le recomendaría la biblia del aprendizaje profundo, Capítulo 10: http://www.deeplearningbook.org/…. ¡Todo lo mejor!
- ¿Es posible compilar una función NumPy para TensorFlow como PyAutoDiff para Theano?
- ¿Cómo debo aprender el aprendizaje automático? ¿Puede proporcionar una hoja de ruta específica desde un principiante hasta un experto?
- ¿Cuál es la diferencia entre análisis de datos, análisis de datos, minería de datos, ciencia de datos, aprendizaje automático y Big Data?
- ¿Cómo funciona la función predict () en R?
- Visión por computadora: ¿Cuáles son algunos problemas de investigación abierta en la recuperación de imágenes basada en contenido?