Todos los marcos apuntan a ser fáciles de comenzar. Puede hacer un par de tutoriales y pensar que ha terminado de explorar Tensorflow.
Ese no es el caso. Lo primero que hay que entender es que TF no se trata de Python en absoluto, solo tiene una API de Python para secuencias de comandos. Debe saber que nada de lo que codifique significará algo hasta que cree una sesión para ejecutarlo en el código central subyacente (que no está en Python).
En segundo lugar, probablemente le llevará 15 minutos poder construir un gráfico y entrenarlo en MNIST para obtener una precisión arbitraria. Cuando decide mezclar cosas y hacer, por ejemplo, segmentación de instancias con Entrenamiento Adversarial Virtual en N gpus paralelos y gradientes de monitoreo en una sesión de depuración para ver en qué capa la pérdida de lds se convierte en NaN … entonces probablemente tenga 2–3 meses de prueba-error, problemas de github, stackoverflow, quora viajes por delante …
- ¿Cómo se transmitirán los datos en el microprocesador?
- ¿Cómo incorporaron las grandes empresas el aprendizaje automático y el HPC (por ejemplo)?
- ¿Cómo afectaría la ciencia de datos y el aprendizaje automático al diseño de software?
- ¿Cuál es una buena fuente para comprender la física de cómo funcionan las computadoras?
- No puedo resolver los problemas del juego en las competiciones de CodeChef, ¿hay algo que necesito saber que pueda ayudarme en tales problemas?
La más fácil en términos de modularidad y facilidad de creación de prototipos es Keras. Recientemente se convirtió en la API oficial de alto nivel para Tensorflow (uno de sus motores de fondo ya era TF)