Es más una “Aplicación basada en la comprensión de los principios”.
Google tiene uno bueno en este archivo pdf . Demuestran el uso de LSTM asociativo (una extensión holográfica de LSTM), unidades recurrentes bloqueadas y codificación de entropía. Todo esto se implementa en una arquitectura RNN compartida.
La gente de la Universidad de Cornell tiene algunos libros blancos sobre la compresión de texto sintácticamente informada con redes neuronales recurrentes , compresión de imagen de velocidad variable con redes neuronales recurrentes , compresión de imagen de resolución completa con redes neuronales recurrentes .
- ¿Cómo se puede aplicar RL (método de gradiente de política) al problema de selección de subconjunto, donde cada prueba consiste en seleccionar un subconjunto de elementos de un conjunto más grande?
- ¿Cuál es actualmente la mejor GPU para el aprendizaje profundo?
- ¿Cómo cambio de una carrera de software integrado a una carrera en aprendizaje automático?
- ¿Cuáles son las ideas principales detrás de los principales algoritmos de clasificación de búsqueda?
- ¿Cuántas imágenes necesita un buen sistema de aprendizaje automático para aprender un nuevo concepto?
Si todavía tiene ganas de leer más, también puede echar un vistazo a este libro de Fundamentos , que analiza el uso de un RNN tipo Weiner para la compresión de datos y hace bastante justicia a las teorías que necesita comprender para maximizar las redes neuronales y Otras tecnologías avanzadas.