El aprendizaje profundo (DL) es un concepto en aprendizaje automático basado en el apilamiento de muchas capas de procesamiento simples una encima de la otra. Cada capa se alimenta de la capa de abajo y produce una salida para la capa de arriba y así sucesivamente.
Esto crea representaciones cada vez más abstractas de manera jerárquica. Las primeras capas inferiores aprenden características primitivas simples, mientras que las capas superiores posteriores aprenden características abstractas.
Estos sistemas de aprendizaje profundo se pueden entrenar utilizando métodos sin gradiente, como las estrategias de evolución reciente (ES) o métodos basados en gradiente, como el descenso de gradiente estocástico (SGD).
- ¿Qué algoritmos de optimización son buenos candidatos para la paralelización con MapReduce?
- ¿Qué máquina es mejor para clasificar imágenes, SVM u otra? ¿Por qué?
- ¿Cuáles son los pros y los contras comparativos de usar Python, MATLAB / Octave y R para el análisis de datos y el aprendizaje automático?
- ¿Qué papel juega la función logística en el algoritmo de regresión logística en el aprendizaje automático?
- ¿Qué cursos debería tomar para especializarse en aprendizaje automático, ciencia de datos e IA como estudiante de MS CS en USC?
Para utilizar SGD u otros métodos basados en gradientes, las derivadas de peso deben calcularse con respecto a la función objetivo. La retropropagación de errores o el algoritmo de retropropagación en resumen se usa para la computación rápida de tales gradientes de peso con respecto a la función objetivo. Por lo tanto, el backprop es un componente muy importante de los algoritmos de optimización basados en gradiente para sistemas DL.
Espero que esto ayude.