Existen múltiples perspectivas para comprender un proceso gaussiano:
1. Como una variable aleatoria gaussiana de dimensión infinita con una estructura de covarianza especificada. Esta vista le dice qué es y cuáles son sus propiedades. Pero esto no explica cómo las personas hacen uso de los modelos de procesos gaussianos.
2. Vista del espacio de peso : las predicciones de un proceso gaussiano son promedios ponderados de los valores objetivo de entrenamiento. Sin embargo, el esquema de ponderación no es simple como en el caso de la regresión ponderada localmente. Para obtener más información sobre esto, consulte el documento de Sollich.
3. La perspectiva del espacio de funciones : esta es una pregunta difícil para los no iniciados. Un proceso gaussiano es una distribución sobre funciones. Los gaussianos de dimensiones finitas son distribuciones sobre vectores de dimensiones finitas. Los gaussianos de dimensiones infinitas (procesos gaussianos) son distribuciones sobre vectores de dimensiones infinitas (o, de manera equivalente, funciones).
Por ejemplo, la figura a continuación es un gráfico de cinco muestras de un proceso gaussiano anterior (consulte ¿Por qué los gráficos de procesos gaussianos no se parecen a un grupo de gaussianos? Para obtener una explicación de cómo trazar una muestra de un proceso gaussiano):
- ¿Qué es mejor para mí como estudiante? ¿Debería codificar los modelos de aprendizaje automático (donde pueda) o debería usar la biblioteca tanto como pueda?
- ¿Cuáles son los pros y los contras de las diferentes técnicas de factorización matricial: rango bajo, SVD y NMF? ¿Cuáles son algunos ejemplos prácticos de cada uno?
- ¿Por qué un algoritmo evolutivo es un método inapropiado para usar cuando se busca una clave para descifrar un mensaje codificado cuando solo hay una respuesta correcta?
- Aprendizaje profundo: ¿Una versión suave de unidades lineales rectificadas funciona mejor o peor que una no lineal?
- ¿Qué es mejor para el aprendizaje profundo: TensorFlow o Chainer?
Las observaciones de datos condicionan el GP anterior y producen el GP posterior. Como se muestra en los siguientes gráficos, estas observaciones provocan que las muestras GP posteriores resultantes se vean obligadas a pasar cerca de los puntos de datos observados. La línea de puntos es la función media, que es la estimación de regresión más probable. Las muestras del GP posterior pueden interpretarse como otras estimaciones de regresión menos probables.
Después de observar un punto de datos:
Después de observar dos puntos de datos:
Para una versión intuitiva de mostrar y contar de esta explicación, vea mi demostración interactiva de GP Regression. Esta perspectiva de GP ofrece una buena comprensión de los intervalos de confianza de predicción y la covarianza conjunta de predicciones.