Cómo aprender un pozo bayesiano no paramétrico

Mucho depende de lo que quieras hacer con él. Aquí está la perspectiva de un viejo tipo de aprendizaje automático.

Si desea lo real, como lo enseñaron los muchachos BNP (no paramétricos bayesianos), debe desarrollar toda la teoría estadística, cosas como procesos de Poisson, subordinadores, procesos de Levy, funcionales de Laplace, distribuciones aditivas, etc.

Un artículo de revisión que enumera muchas de las teorías relevantes es:

A. Lijoi y yo. Prünster. Modelos más allá del proceso de Dirichlet. En NL Hjort, C. Holmes, P. Müller y SG Walker, editores, Bayesian Non parametrics , páginas 80–135. Cambridge University Press, 2010.

Ahora no aprenderá de esto, necesitará encontrar algunos textos apropiados. Desafortunadamente, la comunidad BNP tiende a enseñar cosas con detalles sangrientos, por lo que puede ser “demasiada información” en mi opinión. Aprendí mucho de esto de las conferencias de Jim Pitman (UCB) anteriores del segundo año, publicadas alrededor de 2005, que ahora parecen estar fuera de línea. Estos fueron “perfectos” en las palabras inmortales de Ricitos de Oro, no demasiado suaves (no faltan todos los detalles clave como el tratamiento estándar de Machine Learning), y no demasiado difíciles (con demasiada teoría de la medida y esotérica, ala Billingsley, Durrett o otros textos venerables).

La cuestión es que la teoría anterior no es tan difícil, ¡solo se enseña de esa manera! Si quieres demostrarlo desde los primeros principios absolutos, es difícil. Si quieres entenderlo y leer las matemáticas, no es tan difícil. Pitman dio “bocetos de prueba” de los principales resultados que lo ayudaron a comprenderlo.

Algunos documentos interesantes que cubren aspectos particulares de la teoría son de Lancelot James, como:

LF James. Cálculo bayesiano de Poisson para el modelado de características latentes a través de procesos de buffet indio generalizados anteriores. The Annals of Statistics , 2016. Aceptado el 1 de septiembre de 2016.

LF James, A. Lijoi y I. Prünster. Análisis posterior para medidas aleatorias normalizadas con incrementos independientes. Scandinavian Journal of Statistics , 36 (1): 76–97, 2009.

Esto le dará una comprensión mucho más profunda de los modelos y su análisis, sin embargo, se vuelven bastante difíciles de leer. Lea esto para comprender realmente los IBP, los DP, etc. Aunque muchas de las gemas anteriores están escritas por Jim Pitman, y más recientemente Yee Whye Teh tiene un trabajo perspicaz, en parte porque hace tanto Machine Learning como Estadísticas.

Ahora, si desea usar estas técnicas, entonces realmente necesita comenzar con una comprensión sólida de la computación bayesiana y todos sus muchos y variados algoritmos. Además, no hace falta decir que necesitará un buen nivel de estadísticas del segundo año, como Casella y Berger. Los chicos de BNP tienden a no hacer cálculos inteligentes, y no muchas cosas jerárquicas. Sin embargo, si no lees su trabajo, que es fascinante y hermoso, ¡no entenderás qué tipo de cosas deben calcularse!