¡Te recomiendo que estudies modelos gráficos probabilísticos! Claro, las redes neuronales (o “aprendizaje profundo”) son divertidas de estudiar, pero si las ve desde una sólida base matemática, sacará más provecho de la experiencia e incluso podría llegar a tener algunas ideas interesantes. Además, aprender cómo funcionan los modelos gráficos y cómo se aprenden sus parámetros lo abrirá a una clase mucho más amplia de algoritmos de aprendizaje que si simplemente se sumerge en redes neuronales (es decir, diferenciación automática + alguna forma de descenso de gradiente, que es simple al final, como habrás visto de primera mano de la serie de conferencias de Hugo).
Las redes neuronales artificiales (ANN) se pueden ver como una clase de modelo gráfico, pero digamos el tipo de modelo gráfico que realmente no se puede interpretar (los nodos y los bordes no necesariamente tienen significados intuitivos como los de una red bayesiana). Ahora, si quieres hundir tus dientes en lo que considero las rodillas de la abeja (autoencoders variacionales (VAE)), entonces ven armado con algún conocimiento de probabilidad / estadística bayesiana y una comprensión de los modelos gráficos. Si bien los VAE tampoco tienen una arquitectura que se pueda interpretar limpiamente como un modelo gráfico intuitivo, sí representan una clase de modelos neuronales que se construyen desde una perspectiva de principios =]
- ¿Por qué estudiar el procesamiento del lenguaje natural?
- ¿Por qué las personas usan Keras en el back-end de TensorFlow y no solo en TensorFlow?
- La mayoría de los profesionales del aprendizaje automático parecen entusiasmarse con el término "aprendizaje profundo". ¿Cuáles son algunas de las aplicaciones prácticas del aprendizaje profundo?
- ¿Qué tan difícil es aprender TensorFlow?
- Como el sistema de recomendación está relacionado con el aprendizaje automático, ¿cuál será la próxima moda en los sistemas de recomendación?