Creo que no está saturado e incluso su popularidad se está haciendo cada vez más grande. Hay muchos temas en espera de explicaciones, nuevos métodos en espera de descubrimiento. Puede encontrar cuáles son las ideas comunes implementadas con éxito por la academia desde cualquier lugar relacionado con ML. También puede consultar mi blog, sección sobre DL para leer y ver más.
Sin embargo, si pregunta qué es más, supongo que ahora un problema fundamental es fusionar redes supervisadas y no supervisadas trabajando juntas para resolver estúpidos conceptos erróneos de los modelos entrenados. Puede seguir estos dos artículos para este caso;
Redes Adversarias Generativas [ArXiv] [Código / hiperparámetros]
Ian J. Goodfellow , Jean Pouget-Abadie, Mehdi Mirza, Bing Xu, David Warde-Farley, Sherjil Ozair, Aaron Courville, Yoshua Bengio
NIPS 2014
- ¿Las compañías de tecnología que promueven la IA como el camino a seguir también tienen la obligación de volver a capacitar a nuestra fuerza laboral para hacer frente a la próxima interrupción del trabajo?
- Cómo escribir AI para agregar dos números en Python
- ¿Serán útiles los antecedentes en estadística matemática y matemática pura en la investigación de IA?
- ¿Cuál es la mejor manera de entrar en la robótica?
- ¿Qué proyectos interesantes, incluida la programación distribuida y la inteligencia artificial, deben hacer y demostrar que son bastante buenos?
Propiedades intrigantes de las redes neuronales [ArXiv]
Christian Szegedy, Wojciech Zaremba, Ilya Sutskever, Joan Bruna, Dumitru Erhan, Ian Goodfellow , Rob Fergus
ICLR 2014
G. Hinton hizo otra cosa, a saber, The Dark Matter of Deep Learning. La idea es comprimir un NN grande a NN más pequeño sin pérdida de rendimiento. Incluso, como él dijo, su trabajo es rechazado por las conferencias desde el punto de vista de su presentación, vi una muy buena intuición para el trabajo y creo que vendrá más.