Es difícil probar algo para LSTM y RNN debido a la función de activación no lineal.
Los enfoques simples se ocupan de la linealización en el punto de operación (principalmente 0). Luego puede transformar el sistema en un sistema LSI y utilizar todos los algoritmos desarrollados para estos sistemas (consulte Redes de estado de eco o sistemas LSI)
Si lo deja no lineal, puede usar la teoría de los sistemas dinámicos y usar el exponente de Lyapunov para probar la estabilidad.
- ¿Cuáles son algunos de los documentos fundamentales sobre el aprendizaje profundo?
- ¿Facebook utiliza el aprendizaje automático?
- ¿Cuáles son algunas aplicaciones actuales de las redes neuronales convolucionales además del análisis de imagen, video y discurso?
- Cómo desarrollar una aplicación que reproduzca música de acuerdo a tu estado de ánimo
- ¿Pueden las redes neuronales profundas resolver problemas NP-Hard?
Otro enfoque es truncar el gradiente en las conexiones recurrentes ponderadas. Entonces uno puede probar algo para LSTM. En [1412.2620] Células en redes neuronales recurrentes multidimensionales hicimos esto y definimos algunas propiedades de “células” (LSTM es una “célula”) y desarrollamos algunas células nuevas. Este artículo se publicará en Journal of Machine Learning Research en el Vol. 17 o 18 .
Los LSTM se usan en Theano y TensorFlow como operación Vector / Tensor. Solo eche un vistazo al código fuente.