Hay dos capítulos en el libro que son relevantes, el capítulo 4 y el capítulo 8. El capítulo 4 describe algunos de los problemas numéricos, como el error de redondeo y las matrices de Hesse mal condicionadas, que surgen en todo tipo de problemas de optimización. Tenga en cuenta que la optimización se usa para muchas cosas diferentes en la investigación de aprendizaje profundo, como la construcción de ejemplos adversos (mencionados brevemente en el capítulo 7) y la inferencia en modelos gráficos (capítulo 19). El uso principal de la optimización en el aprendizaje profundo es entrenar un modelo, y eso se describe principalmente en el capítulo 8.
El Capítulo 8 es muy completo y cubre todo lo que necesita saber sobre algoritmos de entrenamiento para redes neuronales.
El Capítulo 4 es apenas suficiente para asegurarse de que está pensando en problemas numéricos mientras depura su código de red neuronal. Si desea obtener más información sobre cuestiones numéricas en general, no estoy seguro de qué es lo mejor. Sobre todo aprendí sobre estos temas de la clase CS205 de Ron Fedkiw en Stanford. Creo que CS205A (Métodos matemáticos para robótica, visión y gráficos) es similar, pero tal vez no enfatice el estudio de los errores cometidos por estos métodos tanto como solía hacerlo.
- ¿Es posible usar bibliotecas de aprendizaje automático OpenCV para aplicaciones que no son de visión por computadora?
- ¿Qué idioma debo usar para tensorflow?
- ¿Por qué hay una disminución en el rendimiento de los modelos pre-entrenados?
- ¿Cómo funciona la función predict () en R?
- ¿Cuál es la fortaleza y la debilidad del departamento de CS de Caltech, especialmente en el área de Machine Learning?