Cómo distinguir el Aprendizaje profundo de los anteriores análogos en las composiciones de funciones, más específicamente el trabajo reciente sobre el “proceso gaussiano profundo”

A diferencia de los modelos tradicionales de aprendizaje profundo, los GP profundos son modelos completamente bayesianos (probabilísticos). De manera similar a los médicos de cabecera regulares, definen un previo apropiado en el espacio de funciones, y la inferencia bayesiana le dice cómo realizar una inferencia posterior con la introducción de datos.

De manera similar a la DL tradicional, las funciones que pueden aproximar son arbitrariamente complejas y pueden dar cuenta de nociones como no estacionariedad, heterocedasticidad y otras características de función que generalmente son difíciles de capturar con modelos menos complejos.

A diferencia de la DL tradicional, en lugar de buscar una estimación puntual y una estimación ML simple, utilizan la inferencia posterior para el entrenamiento y la predicción. La inferencia de vanguardia actualmente implica inferencia aproximada utilizando métodos como EP [1], o más recientemente inferencia variacional [2].

Hay otras diferencias más matizadas, pero en general diría que los DGP son un subcampo de DL (en la intersección con GP e inferencia bayesiana) de la misma manera que las redes de densidad de mezcla, máquinas de Boltzmann restringidas, LSTMS, VAE y GAN, etc ‘son.

Permítanme también decir que encuentro la necesidad de distinguir lo que es y lo que no es DL tonto, y se pierde el punto. En lugar de preocuparse por las palabras de moda, es mejor leer documentos, comprender las matemáticas e implementar modelos para tener una idea de las diferencias, fortalezas y debilidades de los diferentes modelos.

[1] – [1602.04133] Procesos gaussianos profundos para la regresión usando la propagación de expectativas aproximadas

[2] – [1511.06455] Procesos Gaussianos Profundos Variables Auto-codificados

More Interesting

¿Cómo se pueden usar las redes neuronales en el análisis de sentimientos árabes?

¿Cuál es el significado de la optimización convexa en el aprendizaje automático?

¿Cómo puede alguien que es muy débil en matemáticas aprender el aprendizaje automático y el aprendizaje profundo?

¿Es el modelo de análisis factorial una versión multivariada del modelo de mezcla gaussiana?

¿Cómo puede una red neuronal ser capaz de razonamiento simbólico? ¿Cómo puede unir variables?

¿Qué algunos documentos sobre desafíos en predicción financiera con técnicas de aprendizaje automático?

Si solo aumento el número de capas de Neural Net simple con alguna función de activación, ¿lo convierte en Deep Learning?

¿Cómo funciona el CAPTCHA 'No soy un robot'?

¿Dónde puedo aprender sobre los conceptos básicos de la inteligencia artificial?

Cómo convencer a mi gerente de que conozco el aprendizaje automático

¿Puedo tomar el curso de aprendizaje automático de Andrew Ng siendo un estudiante de secundaria con algo de experiencia en programación y sin conocimientos avanzados de matemáticas?

¿La correlación entre dos variables cuenta como evidencia débil de un vínculo causal entre ellas?

¿Cómo aprendiste el aprendizaje automático? ¿Por qué?

¿Las empresas de reconocimiento de imágenes / servicios API utilizan solo modelos neuronales profundos y nada más?

¿Hay alguna prueba de que no hay una solución algebraica para ajustar las redes neuronales con una (o más) capa (s) oculta (s)?