En lo que respecta a ML, he escrito sobre cómo puedes leer los temas más importantes en ~ 10 días [La respuesta de Prasoon Goyal a ¿Cómo aprendo Machine Learning en 10 días?]:
Día 1:
- Terminología básica:
- Configuraciones más comunes: configuración supervisada, configuración no supervisada, configuración semi-supervisada, aprendizaje de refuerzo.
- Problemas más comunes: Clasificación (binaria y multiclase), Regresión, Agrupación.
- Preprocesamiento de datos: normalización de datos.
- Conceptos de conjuntos de hipótesis, error empírico, error verdadero, complejidad de conjuntos de hipótesis, regularización, compensación de sesgo-varianza, funciones de pérdida, validación cruzada.
Dia 2:
- ¿Es difícil aprender las redes neuronales?
- ¿Qué es la poda neural? ¿Cómo sucede?
- ¿Se puede desarrollar AI para ayudar a codificar programas y juegos con la dirección de un humano?
- ¿Cuáles son los proyectos de inteligencia artificial más inteligentes y secretos del gobierno que no conocemos?
- ¿Qué tan bueno debe ser un programador para codificar la inteligencia artificial?
- Conceptos básicos de optimización:
- Terminología y conceptos básicos: optimización convexa, lagrangiana, problemas primarios-duales, gradientes y subgraduados, [math] \ ell_1 [/ math] y [math] \ ell_2 [/ math] funciones objetivo regularizadas.
- Algoritmos: descenso de gradiente por lotes y descenso de gradiente estocástico, descenso de gradiente coordinado.
- Implementación: escriba código para el descenso de gradiente estocástico para una función objetivo simple, ajuste el tamaño del paso y obtenga una intuición del algoritmo.
Día 3:
- Clasificación:
- Regresión logística
- Máquinas de vectores de soporte: intuición geométrica, formulaciones primarias-duales, noción de vectores de soporte, truco del núcleo, comprensión de hiperparámetros, búsqueda en cuadrícula.
- Herramienta en línea para SVM: juegue con esta herramienta SVM en línea (desplácese hacia abajo hasta “Interfaz gráfica”) para tener una idea del algoritmo.
Día 4:
- Regresión:
- Regresión de cresta
- Agrupación:
- algoritmo k-means y Expectation-Maximization.
- Agrupación jerárquica de arriba hacia abajo y de abajo hacia arriba.
Dia 5:
- Métodos bayesianos:
- Terminología básica: Prioridades, posteriores, probabilidad, estimación de máxima probabilidad e inferencia máxima a posteriori.
- Modelos de mezcla gaussiana
- Asignación de Dirichlet latente: El modelo generativo y la idea básica de la estimación de parámetros.
Día 6:
- Modelos gráficos:
- Terminología básica: redes bayesianas, redes de Markov / campos aleatorios de Markov.
- Algoritmos de inferencia: eliminación de variables, propagación de creencias.
- Ejemplos simples: Modelos ocultos de Markov. Modelo ising.
Días 7–8:
- Redes neuronales:
- Terminología básica: neurona, función de activación, capa oculta.
- Redes neuronales convolucionales: capa convolucional, capa de agrupación, retropropagación.
- Redes neuronales basadas en memoria: redes neuronales recurrentes, memoria a corto y largo plazo.
- Tutoriales: estoy familiarizado con este tutorial de la antorcha (querrá consultar el directorio [math] \ texttt {1_supervised} [/ math]). Puede haber otros tutoriales en otros marcos de aprendizaje profundo.
Día 9:
- Temas varios:
- Árboles de decisión
- Sistemas de recomendación
- Procesos de decisión de Markov
- Bandidos multi-armados
Día 10: (día de presupuesto)
- Puede usar el último día para ponerse al día con lo que queda de días anteriores, o aprender más sobre cualquier tema que le parezca más interesante / útil para su trabajo futuro.
He escrito sobre muchos de estos temas en Quora y, en consecuencia, he vinculado los más relevantes en la lista anterior.
Una vez que haya hecho eso, puede profundizar más tomando cursos en línea, revisando libros, etc. He aquí algunos consejos al respecto: la respuesta de Prasoon Goyal a ¿Cómo aprendo el aprendizaje automático?