En mi opinión, el profesional más importante de la regresión GP es que da muy buenos resultados incluso si no tienes idea de cómo funciona bajo el capó. Los médicos de cabecera vienen con una forma muy ordenada de sintonizar hiperparámetros al maximizar la probabilidad marginal. Esto tiende a dar consistentemente muy buenos ajustes sin necesidad de validación cruzada. Antes de usar GP para la regresión, utilicé redes neuronales y me resultó bastante doloroso seleccionar la arquitectura de red, el número de unidades, el esquema de regularización, etc. Unos minutos con la caja de herramientas gpml fueron suficientes para darme cuenta de lo poderosos que son los GP. ¡Estaba tan impresionado que decidí hacer un doctorado en procesos gaussianos!
El inconveniente más importante de la regresión GP es, sin duda, el tiempo de cálculo. El tiempo de cálculo para la regresión GP de vainilla se escala cúbicamente en el número de puntos de datos. Esto significa que en la práctica es difícil trabajar con más de unos pocos miles de puntos. Sin embargo, existen varias técnicas de GP dispersas que se pueden utilizar para reducir en gran medida el tiempo de cálculo. ¡Los GP escasamente probados FITC (también conocido como SPGP) se pueden usar con grandes conjuntos de datos y, a veces, tiene un mejor rendimiento que la regresión GP vainilla! También hay técnicas más modernas para GP dispersos que se basan en inferencia variacional, paralelización y / o entrenamiento usando mini lotes de datos.
- ¿Por qué el aprendizaje automático a menudo perpetúa el sesgo?
- ¿Cómo implementa una red neuronal de retroalimentación la propagación inversa?
- ¿Cuáles son los algoritmos estándar para la inferencia en redes bayesianas?
- ¿Dónde puedo aprender a hacer predicciones básicas con RapidMiner?
- ¿Cómo se eligieron las palabras sesgo y varianza (Machine Learning)?