Si [math] p (x) [/ math] es su previo y [math] D [/ math] es la información observada, entonces de acuerdo con la regla del producto [math] p (x | D) \ propto p (D | x) p (x) [/ matemáticas]. Esta es la inferencia bayesiana estándar en la variable aleatoria desconocida [matemáticas] x [/ matemáticas].
De ello se deduce que si [math] p (x) [/ math] es cero en algunos lugares, no importa cuán ” fuertes ” sean los datos ([math] p (D | x) [/ math]), [ matemáticas] p (x | D) [/ matemáticas] seguirá siendo cero en esos mismos lugares. Esto es lo que otro respondedor llamó un “prior dogmático”. Sin embargo, otro respondedor dio la función delta de Dirac como un ejemplo especial de esto.
La moraleja de la historia es asegurarse de que haya una masa de probabilidad distinta de cero para todos los posibles / razonables [matemática] x [/ matemática] para que, al menos en el límite, los datos puedan determinar la estimación [matemática] p (x | D) [/ matemáticas].
- ¿Usarías un mejor cuaderno Jupyter?
- ¿Por qué cada filtro aprende diferentes características en una red neuronal convolucional?
- ¿Cuál es la diferencia entre TensorFlow y Grep? ¿Cuál es el más adecuado para el aprendizaje automático? ¿Por qué o por qué no?
- ¿Puedo terminar en trabajos de aprendizaje automático si tengo una maestría en neurociencia?
- ¿Cuáles son los mejores recursos disponibles en línea para aprender a pensar en diseño?