Todas las distribuciones tienen supuestos diferentes, y deberían aplicarse a los casos en que sean aplicables. Por ejemplo, un bernaulli tiene una probabilidad de éxito fija y evalúa la próxima prueba, mientras que bionomial tiene una probabilidad de éxito fija pero evalúa los conteos de éxito, mientras que la distribución geométrica con una probabilidad de éxito fija evalúa las pruebas en espera hasta el éxito. El mismo supuesto subyacente, pero tres distribuciones diferentes para resolver tres tipos diferentes de problemas.
La parte de su pregunta, “En general, veo personas que usan distribución gaussiana en algoritmos de aprendizaje automático” es que no estoy seguro de que sea cierto. Si bien una razón es que la salida de probabilidad de “cualquier” modelo de clasificación ML puede tratarse como parámetros de alguna distribución discreta y los parámetros de cualquier distribución tienden a comportarse como Gaussianos por el Teorema del límite central, y por lo tanto los parámetros de estas probabilidades de salida (parámetros de Modelo de ML, es decir, parámetros de parámetros de distribución discreta) pueden modelarse como un Gaussiano anterior / posterior. (Efectivamente, qué es un proceso gaussiano).
Dicho esto, puede modelar muchas cosas como Bernaulli, Poisson y categóricas y, por lo tanto, también necesitaría sus distribuciones anteriores conjugadas Beta, Gamma y dirichlet.
- ¿Por qué es importante el aprendizaje no supervisado?
- ¿Qué tan similares son los problemas en los diversos campos del análisis de datos (aprendizaje automático, estadísticas, procesamiento de señales, optimización, teoría de la información, etc.)?
- ¿Debo usar TensorFlow o Caffe2 para comenzar a aprender el aprendizaje automático y el aprendizaje profundo?
- ¿Cuáles son sus 5 mejores técnicas empíricas para detectar BS?
- ¿Cuál es el algoritmo detrás de LinkedIn Pulse?