¿Cuáles son algunos avances interesantes sobre las matemáticas del aprendizaje profundo?

En mi opinión, una de las preguntas más interesantes sobre el aprendizaje profundo es cómo podemos enmarcarlo desde una perspectiva probabilística / generativa. En ese sentido, ha habido una oleada de investigaciones fantásticas.

Uno de estos hilos son los desarrollos recientes en codificadores automáticos variacionales (VAE) [1], [2] y sus variantes [3], [4], etc. La parametrización del lado generativo y de la inferencia del aprendizaje con redes neuronales (profundas) y la realización de la inferencia bayesiana (aproximada) nos ha permitido mejorar el poder de representación de las distribuciones con las que podemos trabajar, así como amortizar la inferencia de variables latentes con redes de inferencia . Esto ha llevado a una oleada de avances emocionantes, y uno de los aspectos más emocionantes de esto (en mi opinión) es que abre muchas puertas para aprovechar el aprendizaje profundo en entornos no supervisados ​​de una manera basada en principios.

Otro hilo (relacionado) es el tratamiento adecuado de las Redes Adversarias Generativas (GAN). Las GAN han llamado mucho la atención últimamente y pueden lograr un excelente rendimiento como modelos generativos (además de ser realmente geniales). Sin embargo, son notoriamente difíciles de entrenar y diagnosticar, por lo que es muy difícil trabajar con ellos. Algunos estudios recientes han comenzado a arrojar luz sobre cómo podemos abordar el entrenamiento GAN de manera más rigurosa [5], y estas ideas tienen un gran potencial para aliviar algunas de las dificultades de trabajar con estos modelos.

Por supuesto, el aprendizaje profundo se está desarrollando rápidamente y es de gran interés para la comunidad de ML. La mejor manera de mantenerse actualizado es revisar los últimos artículos en NIPS / ICML / AISTATS / ICLR, que se inclinan en gran medida hacia los documentos de aprendizaje profundo.

[1] – [1312.6114] Bayes variacionales de codificación automática

[2] – [1401.4082] Backpropagación estocástica e inferencia aproximada en modelos generativos profundos

[3] – [1505.05770] Inferencia variacional con flujos de normalización

[4] – [1602.05473] Modelos Generativos Profundos Auxiliares

[5] – [1701.07875] Wasserstein GAN

He hecho un poco en el uso de algoritmos de aprendizaje automático como funciones de mapeo, así como la posibilidad de redes neuronales amplias con funciones de mapeo de aprendizaje automático: https://www.slideshare.net/Colle