Existen múltiples métodos para alimentar datos al gráfico en tensorflow. Una de las metodologías utiliza múltiples hilos que trabajan juntos para leer / decodificar, preprocesar y producir lotes de datos. Llamemos a esta configuración completa Pipeline de entrada.
La canalización de entrada descrita anteriormente consta de múltiples subprocesos (creados por QueueRunners y cerrados con la ayuda de coordinadores). Un hilo puede llenar las colas de nombre de archivo, el otro se quita de esto y procesa el archivo (aquí es precisamente donde se puede hacer el aumento de datos) y lo coloca en otra cola y otro hilo se quita de aquí y se pone en una cola de lote de datos que puede ser utilizado para alimentar el modelo gráfico. Ahora, todos estos hilos que se ejecutan en la Canalización de entrada siguen ejecutándose infinitamente hasta que se utiliza un Coordinador para terminarlos.
Por lo tanto, puede ver que el aumento de datos (que necesariamente forma parte del paso de procesamiento de datos en la tubería) sigue ejecutándose en uno de los hilos mientras su “entrenamiento en GPU” se realiza en paralelo.
- ¿Vale la pena el curso sobre aprendizaje automático en Coursera por la Universidad de Stanford?
- ¿Cuáles son los pasos básicos del procesamiento de texto en el procesamiento del lenguaje natural para la similitud de texto?
- ¿Cuál es la explicación detallada de Autoencoder apilado (Denoising)?
- ¿El análisis discriminante lineal funciona para distribuciones que no sean gaussianas?
- ¿Es posible darle a una computadora millones de imágenes de varios objetos, y se da cuenta de que hay cosas como animales, platos de cocina, montañas, etc. sin que nosotros lo digamos, y cómo se hace esto exactamente?
Eche un vistazo a esto para más detalles: Leer datos | TensorFlow