Hay dos ramas de las matemáticas con las que debería estar familiarizado.
- Álgebra lineal
- Cálculo multivariable
El álgebra lineal es la base de cómo funcionan estos modelos. La multiplicación de vectores matriciales es la base de cómo se representan los datos y los pesos, por lo que es importante comprender cómo multiplicar matrices y vectores.
El cálculo es para el lado de optimización de las cosas (es decir, el backprop). Tomar derivadas y gradientes parciales es fundamental para el funcionamiento de backprop. Comprender la regla de la cadena también es crucial para comprender la backprop en su totalidad. Backprop es esencialmente una aplicación muy grande de la regla de la cadena en muchas operaciones más pequeñas. Esto nos da gradientes de nuestra pérdida final con respecto a los pesos en varios pasos de nuestro modelo, lo que nos permite utilizar métodos de optimización basados en gradientes estándar para actualizar nuestros parámetros.
- ¿Es el "grado de libertad" en el aprendizaje automático igual al número de variables independientes o el número de parámetros?
- Cómo optimizar la clasificación de varias clases si ya conozco el número de ocurrencias de cada clase en el conjunto de datos de prueba
- ¿Cuáles son algunos buenos recursos para aprender sobre el control y la optimización de procesos sin modelos?
- Si el aprendizaje automático está de moda en este momento, ¿qué crees que seguirá?
- Cómo obtener colores 'visualmente distinguibles' de las imágenes
Hay muchos recursos en línea para aprender algo de álgebra lineal básica y cálculo multivariable. La mejor de las suertes