Aquí están mis libros favoritos de ML (aproximadamente en orden de nivel introductorio):
- “Aprendizaje automático: una perspectiva probabilística”, Kevin Murphy
- “Reconocimiento de patrones y aprendizaje automático”, Chris Bishop
- “Modelos gráficos probabilísticos: principios y técnicas”, Daphne Koller y Nir Friedman
- “Procesos gaussianos para el aprendizaje automático”, Carl Rasmussen
- “Aprendizaje profundo“, Ian Goodfellow, Yoshua Bengio y Aaron Courville
- “Modelos gráficos, familias exponenciales e inferencia variacional”, Martin Wainwright y Michael Jordan
Los dos primeros son libros introductorios que cubren los conceptos básicos y fundamentales del aprendizaje automático, y luego entran en detalles sobre temas más avanzados. Los últimos cuatro tienen más matices y deben abordarse después de lograr una comprensión básica de LD y de acuerdo con los intereses / necesidades.
Por supuesto, no hay reemplazo para los trabajos académicos, ¡ahí es donde están sucediendo todas las cosas realmente interesantes!
- ¿Cuál es la mejor demostración de Machine Learning realizada en R para sorprenderlo?
- ¿Cómo es tomar 6.004 (estructuras de cómputo) en el MIT?
- ¿Quién puede decirme el método paso a paso para comenzar a aprender el aprendizaje automático desde cero, comenzar a trabajar independientemente y convertirlo como mi trabajo a tiempo completo?
- ¿Qué le sugerirás a un estudiante de segundo año de CSE para sus vacaciones de invierno?
- ¿La mayoría de los lenguajes de programación son contraintuitivos y están mal diseñados?