No estoy seguro de a qué estimación de densidad de probabilidad se refiere.
Los problemas de inferencia en bayesiano son poco diferentes de los del enfoque clásico. Mientras que las ofertas clásicas con la estimación puntual, como las estimaciones de máxima verosimilitud (MLE) para el parámetro ‘w’ en cuestión, el enfoque bayesiano comienza con una densidad de probabilidad p (w) para w. Que p (w) se conoce de un estudio previo, empíricamente o por suposición. Entonces, w varía con esta densidad de probabilidad “anterior” p (w) dentro de un cierto rango de variación. Luego, se necesita saber qué sucede con esa densidad después de tomar una muestra de tamaño n de la variable x, en estudio, y tratar de encontrar la estimación de ese parámetro. Obviamente, una estimación puntual no será aplicable en base a la idea de que w es una cantidad fija. Por lo tanto, uno debe tener otro criterio para definir qué tipo de estimación, w * sería aceptable. Aquí es donde entra en juego el concepto de ‘Función de pérdida’. Hay varios tipos de funciones de pérdida que están en uso. La más común es la función de pérdida “Error cuadrado”. Una estimación que proporciona la función de pérdida mínima esperada es la estimación deseable. Entonces, minimizar la función de pérdida esperada en lugar de maximizar la probabilidad. La función de pérdida esperada también se conoce como el riesgo de Baye. La expresión final de Baye’s Risk debe ser minimizada, por la regla del cálculo, igualando su primer diferencial a cero.
Hay pasos en el enfoque bayesiano. El primer paso es tener la Densidad de probabilidad previa p (w), y este ha sido un área de debate difícil durante mucho tiempo. ¿Cómo asumir un previo apropiado? Debido a que para avanzar en la estimación, también necesitará la densidad posterior p (w) # donde se usará la regla de Bayes para derivarla usando la p (w). Si se trata de una variable continua, estos pasos implicarán algunas integraciones. Solo, entonces puede estimar el parámetro. Se ha trabajado mucho para simplificar las complejidades matemáticas que uno enfrenta. Por lo tanto, le aconsejaría que comience a leer sobre conceptos bayesianos.
- ¿Cómo estimar la divergencia KL si no se conoce el posterior? En inferencia variacional, KL se utiliza para encontrar una distribución que se aproxime al verdadero posterior, pero el KL requiere conocer el posterior mismo. ¿Cómo se trata esto?
- ¿Es el curso de aprendizaje automático de Andrew Ng en Coursera una versión simplificada del curso CS 229: aprendizaje automático que enseñó en Stanford?
- ¿Qué tan bueno debería ser para inscribirme en un Master Machine Learning?
- ¿Qué es una explicación intuitiva de los modelos de proceso gaussianos?
- ¿Cuál es la diferencia entre TensorFlow y TensorFlow lite?
Estoy excluyendo algunos conceptos más que uno necesitará, tales como “Estadísticas suficientes”, Prioridades invariantes y la familia de las distribuciones conjugadas naturales. Además, hay muchas más caracterizaciones de las estimaciones bayesianas en términos de límites de confianza y otros criterios.