Puede ajustar algunas opciones de paralelismo de CPU dentro de un tf.ConfigProto()
:
config = tf.ConfigProto ()
config.intra_op_parallelism_threads = 1
config.inter_op_parallelism_threads = 1
sess = tf.Session (config = config)
¡Con esta configuración, el cálculo usará 1 hilo!
Consulte la documentación para obtener más detalles sobre este enfoque.
- ¿Cuáles son algunos trabajos de investigación que puedo publicar en el campo del procesamiento / generación de lenguaje natural, aprendizaje automático y minería de datos?
- ¿Es posible comenzar la investigación académica en matemáticas / aprendizaje automático sin la ayuda de un asesor? Está ocupado con su propuesta de subvención.
- ¿Cómo es el estado de ML en Palantir?
- ¿Por qué los modelos acústicos DNN / HMM son mejores que GMM / HMM?
- ¿Cuáles son las mejores técnicas para crear vectores de oraciones para el procesamiento del lenguaje natural?
O puede ejecutar su script dentro de un contenedor Docker, con recursos limitados.
Si te ubican en un repositorio con el script `cifar10_train.py`:
docker run -it --cpuset-cpus=0 -v "$PWD"/:/notebooks tensorflow/tensorflow:1.3.0-py3 python cifar10_train.py
¡Con este ejemplo, el contenedor tendrá acceso a 1 hilo!
Con estos dos enfoques, obtuve actuaciones similares:
-
tf.ConfigProto()
: ~ 92 ejemplos / seg - Docker: ~ 91 ejemplos / seg.
Usé este script como punto de referencia: tensorflow / models
- Cómo limitar los recursos de Docker: limitar los recursos de un contenedor
- Rendimiento de la CPU TensorFlow: Guía de rendimiento | TensorFlow