A diferencia de los modelos tradicionales de aprendizaje profundo, los GP profundos son modelos completamente bayesianos (probabilísticos). De manera similar a los médicos de cabecera regulares, definen un previo apropiado en el espacio de funciones, y la inferencia bayesiana le dice cómo realizar una inferencia posterior con la introducción de datos.
De manera similar a la DL tradicional, las funciones que pueden aproximar son arbitrariamente complejas y pueden dar cuenta de nociones como no estacionariedad, heterocedasticidad y otras características de función que generalmente son difíciles de capturar con modelos menos complejos.
A diferencia de la DL tradicional, en lugar de buscar una estimación puntual y una estimación ML simple, utilizan la inferencia posterior para el entrenamiento y la predicción. La inferencia de vanguardia actualmente implica inferencia aproximada utilizando métodos como EP [1], o más recientemente inferencia variacional [2].
- Entre la agrupación y la clasificación, ¿cuál requiere más experiencia?
- ¿Cuáles son los fundamentos programáticos del procesamiento del lenguaje natural?
- Yoshua Bengio: ¿Será el aprendizaje profundo un paso hacia la IA consciente?
- ¿Cuáles son los primeros usos de la regresión logística?
- ¿En qué se diferencia la teoría del "cuello de botella de información" del aprendizaje profundo del ejemplo conocido de tener una capa oculta de dimensión reducida en un codificador automático?
Hay otras diferencias más matizadas, pero en general diría que los DGP son un subcampo de DL (en la intersección con GP e inferencia bayesiana) de la misma manera que las redes de densidad de mezcla, máquinas de Boltzmann restringidas, LSTMS, VAE y GAN, etc ‘son.
Permítanme también decir que encuentro la necesidad de distinguir lo que es y lo que no es DL tonto, y se pierde el punto. En lugar de preocuparse por las palabras de moda, es mejor leer documentos, comprender las matemáticas e implementar modelos para tener una idea de las diferencias, fortalezas y debilidades de los diferentes modelos.
[1] – [1602.04133] Procesos gaussianos profundos para la regresión usando la propagación de expectativas aproximadas
[2] – [1511.06455] Procesos Gaussianos Profundos Variables Auto-codificados