En realidad, la pregunta debería ser la opuesta. ¿Por qué el aprendizaje profundo es perfecto para crear un modelo a partir de una gran cantidad de datos?
La mayoría de los algoritmos de aprendizaje automático son iguales e incluso mejores que DL para una pequeña cantidad de datos. Sin embargo, ¿los algoritmos tradicionales de ML no se escalan bien para una gran cantidad de datos? Por qué ? Debido a la complejidad algorítmica. Por supuesto, lo mejor que puede hacer es una dependencia lineal de la cantidad de datos para la creación de un modelo que sea razonablemente bueno. DL hace exactamente eso. El tamaño del modelo suele ser mucho menor en comparación con los datos de entrenamiento. Las innovaciones arquitectónicas sobre el modelo base (Redes neuronales convolucionales, Redes neuronales recurrentes) ayudan a obtener lo mejor de ciertos tipos de datos (imagen / video / voz / documento, etc.).
- ¿Cómo funciona el algoritmo de clasificación de páginas de Google?
- ¿Cuál es el uso práctico de los árboles de búsqueda binarios?
- ¿Cuál es la forma más sencilla de resolver una relación de recurrencia?
- Cómo resolver SPOJ.com - Problema GERGOVIA en SPOJ
- Cómo mostrar un problema es NP completo