Para comenzar, Representation Learning realmente debería estar allí. La conferencia recién iniciada ICLR trata de abordar esto, principalmente desde una perspectiva DL.
A continuación, creo que las conexiones entre varias estructuras de datos probabilísticas y la geometría de la información. Citando de la geometría de la información en nLab:
Un aspecto útil de la geometría de la información es que proporciona un medio para probar resultados sobre modelos estadísticos, simplemente considerándolos como objetos geométricos con buen comportamiento. Por ejemplo, es básicamente una tautología decir que una variedad no está cambiando mucho en la vecindad de los puntos de baja curvatura, y está cambiando en gran medida cerca de los puntos de alta curvatura. Dicho de manera más precisa, y luego traducido nuevamente al lenguaje probabilístico, ¿esto se convierte en la desigualdad Cramer-Rao ?, ¿que la varianza de un estimador de parámetros es al menos el recíproco de la información de Fisher?
- ¿Cuáles son algunas aplicaciones de muestreo de importancia en Deep Learning?
- ¿Quién inventó las redes neuronales de convolución?
- Sin considerar el costo del conjunto de validación, ¿necesito muchos datos para reducir el costo del tren en la Red neuronal profunda?
- ¿Dónde puedo encontrar un conjunto de datos satelitales espaciales?
- ¿Qué está haciendo Wavii con el aprendizaje automático para redefinir cómo se realiza la búsqueda en la web?
Además, la programación probabilística es otra área que parece muy prometedora. Por supuesto, esta lista sigue y sigue …