¿Qué temas debo aprender en estadística para el aprendizaje automático?

Aprender la parte de estadísticas por sí solo no lo llevará a ningún lado en ML. Si desea comenzar con el aprendizaje automático, debe saber que las cosas más básicas se basan en estadísticas, probabilidad, cálculo diferencial, vectores y álgebra matricial.

Para comenzar con el aprendizaje estadístico, puede pasar por:

  1. Probabilidad condicional / probabilidad de Baye
  2. Media y distribución
  3. Error cuadrático medio, mínimos cuadrados
  4. Regresión (para predicción)
  5. Vecinos más cercanos (para clasificación)
  6. Teoría de decisión estadística
  7. Modelo estadístico para la distribución de unión – Pr (A | B) Probabilidad de A dado B

Esto debería ayudarlo a comenzar y puede probar estas técnicas utilizando Sci-Kit Learn en Python. Si desea estudiar más técnicas de estadísticas relacionadas con el LD, puede leer este libro: Los elementos del aprendizaje estadístico – Standford.edu

Espero que esto ayude.

Hay dos cosas importantes que debes saber: estadística descriptiva y teoría de la probabilidad .

Algunos de los conceptos clave incluyen distribuciones de probabilidad, significación estadística, interpretaciones, pruebas de hipótesis y regresión.

También deberías aprender el pensamiento bayesiano. El pensamiento bayesiano es el proceso de actualización de creencias a medida que se recopilan datos adicionales, y es el motor detrás de muchos modelos de aprendizaje automático. Incluye conceptos como probabilidad condicional, anteriores y posteriores, y máxima verosimilitud.

Debe comprender (para poder relacionarse cómodamente con el resultado del aprendizaje automático)

  • Teorema del límite central y propiedades de la distribución normal / distribución t
  • Distribución muestral de medias, proporción
  • Evaluación de la hipótesis
  • Regresión lineal y estimaciones de mínimos cuadrados ordinarios
  • Estadísticas de chi cuadrado
  • ANOVA unidireccional

Algunas estadísticas aplicadas como

  • Regresión logística
  • Estimaciones de máxima verosimilitud

Puedes echar un vistazo al enlace a continuación

Estadísticas simplificadas por ejemplo para análisis / ciencia de datos

Algunas de las Teorías estadísticas y de probabilidad fundamentales necesarias para ML son Combinatoria, Reglas y axiomas de probabilidad, Teorema de Bayes, Variables aleatorias, Variación y expectativa, Distribuciones condicionales y conjuntas, Distribuciones estándar (Bernoulli, Binomial, Multinomial, Uniforme y Gaussiano), Momento Funciones generadoras, Estimación de máxima verosimilitud (MLE), Estimación previa y posterior, Estimación máxima a posteriori (MAP) y Métodos de muestreo.