A2A.
En cuanto a la pregunta en el subtexto, creo que el uso de estadísticas bayesianas se vio obstaculizado principalmente por problemas computacionales. No fue sino hasta la aplicación de la cadena de Markov Monte Carlo (MCMC) en los años 80 y 90 que fue posible ajustar los modelos bayesianos, excepto los pequeños parámetros con antecedentes analíticamente convenientes. Desde este período, otros métodos de inferencia bayesiana computacional también han despegado además de MCMC, como la inferencia variacional. Antes de eso, los principales problemas habían sido (y han sido) objeciones filosóficas al uso de estadísticas bayesianas, centradas principalmente en la interpretación, elección y subjetividad de una distribución de probabilidad previa.
Aquí hay dos buenos documentos, cada uno con referencias adicionales, que revisan el uso y desarrollo de MCMC en inferencia bayesiana:
- Cómo calcular un proceso de red neuronal artificial
- ¿Hay algún conjunto de datos o API que proporcione una lista de palabras poco frecuentes?
- Cómo integrar el marco Tensorflow con XGBoost
- ¿Es posible aplicar la localización de objetos sin tener regiones de caja en la verdad básica?
- ¿El uso de memoria aumenta a medida que aumentan los datos de entrenamiento en redes neuronales profundas?
Del EM al aumento de datos: el surgimiento de la computación bayesiana MCMC en la década de 1980
Una breve historia de Markov Chain Monte Carlo: recuerdos subjetivos de datos incompletos
Y más recientemente, una revisión de inferencia variacional para estadísticos:
Una revisión para los estadísticos
Espero que esto ayude.