¿Qué temas de estadística y probabilidad se deben conocer antes de comenzar el aprendizaje automático?

* A2A *

He enumerado algunos libros aquí [1] que supuestamente son sugerencias de Michael Jordan. Como puede observar, muchos tienen que hacer probabilidad y estadísticas. La cantidad que puede leer y comprender y cuánto está dispuesto a pasar tiempo depende de su propia discreción. Le daría una lista de jergas comunes que necesita saber y espero que sea una guía lo suficientemente buena:

  1. Muestra de espacio y eventos
  2. Espacio de probabilidad y variable aleatoria
  3. PDF / CDF
  4. La probabilidad condicional
  5. IID e independencia condicional
  6. Regla de Bayes
  7. Probabilidad
  8. Estimación de máxima verosimilitud
  9. Previo, Evidencia, Posterior
  10. Estimación máxima a posteriori
  11. Modelos generativos, modelos discriminativos
  12. Expectativa de población / varianza / covarianza
  13. Muestra de expectativa / varianza / covarianza
  14. Ley de grandes números
  15. Sesgo de estimación
  16. Momentos limitados
  17. Estimación de densidad
  18. Muestreo
  19. Sesgo de muestreo: muestreo de importancia, muestreo estratificado
  20. Cadenas de Markov y métodos de Monte Carlo
  21. Metrópolis Hasting
  22. Modelos paramétricos y no paramétricos

Esta lista no está completa, pero debe cubrir la mayoría de las jergas comunes que encontrará en los documentos de ML.

[1] La respuesta de Arun Iyer a ¿Cuáles son mis próximos pasos en Machine Learning después de aprender Estadística y Álgebra Lineal?

A2A.

No creo que haya temas específicos en estadística y probabilidad que uno deba estudiar antes de comenzar el aprendizaje automático. Como he sugerido en otra respuesta, debe repasar los conceptos básicos de probabilidad y estadística, y luego comenzar con el aprendizaje automático. Cuando encuentre conceptos matemáticos que no haya encontrado antes, regrese y estudie las matemáticas relevantes.

Sugiero hacerlo de esta manera porque el aprendizaje automático es muy amplio. Entonces, si bien un tema como PGM requerirá una comprensión de las probabilidades condicionales y la teoría del aprendizaje estadístico requerirá que conozca las desigualdades de concentración, los temas como SVM y aprendizaje profundo requieren que no sepa ninguno de estos. Por lo tanto, no tiene sentido pasar mucho tiempo estudiando las matemáticas que no serán útiles para su subárea en el aprendizaje automático.

Ninguna. Aprender el aprendizaje automático también es una excelente manera de recoger estadísticas básicas.

Si lo piensa, el aprendizaje automático es solo una forma sofisticada de estadísticas que se automatiza mediante el uso de algoritmos. Con las computadoras modernas, puede iterar sobre millones de modelos diferentes en conjuntos de datos gigantes. Esa es la única diferencia fundamental de las estadísticas tradicionales.

Si está aprendiendo sobre aprendizaje automático, eso también significa que está aprendiendo sobre estadísticas computacionales, lo que a su vez significa que está aprendiendo sobre estadísticas tradicionales.

Si aún desea comenzar leyendo algunos conceptos en estadística, le sugiero estos:

  • Correlación (y cómo no implica causalidad)
  • La distribución normal (gaussiana) y las desviaciones estándar
  • Sesgo y varianza
  • Pruebas de hipótesis como las pruebas t de Student y las pruebas z
  • Validación cruzada (holdout y k-fold)
  • La diferencia entre las estadísticas frecuentistas y bayesianas

El libro de reconocimiento de patrones Bishop tiene un capítulo sobre eso antes del libro. Además, el libro de aprendizaje profundo tiene una sección bastante buena sobre las matemáticas necesarias para el aprendizaje automático. Pruebe cualquiera de los libros de ML o uno de esos, estoy seguro de que cualquiera de ellos está bien.

Particularmente encuentro el libro de Bishop difícil de leer, incluso después de terminar una maestría en ML y bastante experiencia y pasión por las matemáticas, pero creo que solo soy yo. Estoy seguro de que está bien.