En mi opinión, una de las preguntas más interesantes sobre el aprendizaje profundo es cómo podemos enmarcarlo desde una perspectiva probabilística / generativa. En ese sentido, ha habido una oleada de investigaciones fantásticas.
Uno de estos hilos son los desarrollos recientes en codificadores automáticos variacionales (VAE) [1], [2] y sus variantes [3], [4], etc. La parametrización del lado generativo y de la inferencia del aprendizaje con redes neuronales (profundas) y la realización de la inferencia bayesiana (aproximada) nos ha permitido mejorar el poder de representación de las distribuciones con las que podemos trabajar, así como amortizar la inferencia de variables latentes con redes de inferencia . Esto ha llevado a una oleada de avances emocionantes, y uno de los aspectos más emocionantes de esto (en mi opinión) es que abre muchas puertas para aprovechar el aprendizaje profundo en entornos no supervisados de una manera basada en principios.
Otro hilo (relacionado) es el tratamiento adecuado de las Redes Adversarias Generativas (GAN). Las GAN han llamado mucho la atención últimamente y pueden lograr un excelente rendimiento como modelos generativos (además de ser realmente geniales). Sin embargo, son notoriamente difíciles de entrenar y diagnosticar, por lo que es muy difícil trabajar con ellos. Algunos estudios recientes han comenzado a arrojar luz sobre cómo podemos abordar el entrenamiento GAN de manera más rigurosa [5], y estas ideas tienen un gran potencial para aliviar algunas de las dificultades de trabajar con estos modelos.
- ¿Cuáles son las ventajas de la distancia euclidiana y la distancia coseno, respectivamente?
- ¿Las computadoras cuánticas mostrarían una aceleración para el aprendizaje automático?
- ¿Cuándo recomendaría los modelos gráficos sobre el aprendizaje profundo?
- Cómo aplicar PCA para la reducción de dimensionalidad y SVM para agrupar y clasificar los patrones usando C ++ OpenCV
- ¿Cómo se logra la detección de afirmaciones en el procesamiento del lenguaje natural?
Por supuesto, el aprendizaje profundo se está desarrollando rápidamente y es de gran interés para la comunidad de ML. La mejor manera de mantenerse actualizado es revisar los últimos artículos en NIPS / ICML / AISTATS / ICLR, que se inclinan en gran medida hacia los documentos de aprendizaje profundo.
[1] – [1312.6114] Bayes variacionales de codificación automática
[2] – [1401.4082] Backpropagación estocástica e inferencia aproximada en modelos generativos profundos
[3] – [1505.05770] Inferencia variacional con flujos de normalización
[4] – [1602.05473] Modelos Generativos Profundos Auxiliares
[5] – [1701.07875] Wasserstein GAN