1. Álgebra lineal : todo en ML es en términos de vectores y matrices. Es importante comprender las propiedades de las matrices, los métodos de descomposición, SVD, vectores propios y la idea de subespacios entre otros.
2. Probabilidad y estadística : ¡deberá comprender la idea de los PDF, las transformaciones de PDF, las probabilidades condicionales, el teorema de Bayes, los procesos aleatorios, el teorema del límite central y mucho más!
3. Teoría de la estimación : los modelos de aprendizaje automático basados en parámetros, como GMM y HMM, se definen en términos de, bueno, parámetros. Estimar estos parámetros es la esencia del modelo de entrenamiento. Este curso manejará diferentes técnicas de estimación como la estimación de máxima verosimilitud (MLE), la estimación máxima a posteriori (MAP) entre otras.
- ¿Cuál es la banda de transición máxima permitida del filtro de paso bajo utilizado en el núcleo de reconstrucción para un CD con una frecuencia de voz máxima de 4 kHz?
- ¿Por qué la mayoría de los informáticos tienen un título en matemáticas?
- Teóricamente, ¿se puede implementar algún algoritmo en el marco de MapReduce?
- ¿Cuáles son algunos problemas abiertos importantes o interesantes en la teoría de la codificación?
- Cómo hacer un simulador de máquina de turing para realizar la suma binaria
4. Análisis funcional : este curso generaliza el álgebra lineal en el espacio funcional.
5. Optimización convexa : ML se trata de optimizar una función de costo. Este curso le enseñará cómo encontrar las minimas y maximas, si la función de costo es de naturaleza convexa
6. Procesamiento de señal digital : ayudará en la ingeniería de características.
Para la optimización convexa, consulte el curso del profesor Stepheh Boyd: EE364a: videos de conferencias
Álgebra lineal, refiérase al curso Prof. Gilbert Strang: Video Conferencias | Álgebra Lineal | Matemáticas | MIT OpenCourseWare