Gracias por A2A.
El curso de Andrew le dio una idea de qué algoritmos existen y, lo que es más importante, los procedimientos / métodos generales para el aprendizaje automático, esto incluye el preprocesamiento de datos, el giro de hiperparámetros, etc.
El siguiente paso es decidir en qué te gustaría enfocarte. Voy a dar algunos que creo que son interesantes de seguir, pero de ninguna manera abarcan todo lo que está sucediendo en el campo en este momento.
- ¿Keras es mejor que Tensorflow para el aprendizaje profundo?
- ¿Qué es un buen algoritmo de recomendación de películas?
- ¿Hay alguna empresa de software en Bangladesh que trabaje con ciencia de datos / ML / ANN / Visión por computadora?
- Cómo construir un motor de recomendación en tiempo real
- Cómo probar un conjunto de datos no se puede clasificar
- Visión por computadora : si le gusta construir sistemas de visión, ya sea para fotos o videos, un buen lugar para comenzar a aprender es sobre las redes neuronales convolucionales de última generación. El curso de Standford aquí es un excelente recurso para comenzar. CS231n Redes neuronales convolucionales para reconocimiento visual. le enseña los conceptos básicos y hasta las redes, así como le ayuda a configurar la instancia de GPU en AWS. Después de este curso, puede pasar a cosas más interesantes como el etiquetado de escenas mediante la combinación con redes neuronales recurrentes como LSTM.
- Procesamiento del lenguaje natural: para traducción automática, preguntas y respuestas, análisis de sentimientos, etc. Puede consultar otra clase de Stanford de David Socher (fundador de MetaMind) aquí: CS224d: Aprendizaje profundo para el procesamiento del lenguaje natural. Esto lo introduce a partir de lo básico (incrustación de palabras (word2vec, GLove) hasta llegar a LSTM bidireccionales para traducción, etc.).
- Red de Memoria / Preguntas y Respuestas : Esto probablemente puede caer bajo la PNL, pero pensé en dar su propia sección. El trabajo reciente en la combinación del mecanismo de atención en redes neuronales recurrentes LSTM con memoria externa grabable ha significado un trabajo interesante en la construcción de sistemas que pueden comprender, almacenar y recuperar información en un estilo de preguntas y respuestas. Esta área de investigación comenzó en el laboratorio de IA de Facebook del Dr. Yann Lecun en NYU, aquí está el artículo original: [1410.3916] Redes de memoria. Hay muchas variantes de investigación, conjuntos de datos, puntos de referencia, etc. que se han derivado de este trabajo, por ejemplo, la red de memoria dinámica de Metamind (Redes de memoria dinámica para el procesamiento del lenguaje natural)
- Aprendizaje de refuerzo profundo : si te gusta construir proyectos geniales como el trabajo realizado por Google Deepmind, deberías considerar aprender sobre el aprendizaje de refuerzo. Recientemente hay una gran cantidad de intereses en combinar redes neuronales profundas con varios algoritmos RL. Solo eche un vistazo a la sección de publicaciones de Deepmind para ver su trabajo: Publicaciones | Google DeepMind. Algunos aspectos destacados del trabajo incluyen el juego Atari (control discreto) con aprendizaje profundo de Q, control continuo con Deep Actor-Critic y los proyectos recientes de AlphaGo). El libro del profesor Rich Sutton debe ir a un lugar para comenzar a aprender RL (: Libro) y complementarlo con las conferencias en video de David Silver (investigador destacado en Google Deepmind) UCL aquí: Temas avanzados: RL.
Personalmente, considero que el área de investigación de aprendizaje de refuerzo profundo es un campo muy emocionante y todavía relativamente nuevo.
Espero que ayude.