Alquile una máquina virtual Linux con GPU en un proveedor de la nube.
Proveedores de nube populares con instancias de GPU:
- Tipos de instancia de Amazon EC2 – Amazon Web Services (AWS)
Consulte “Computación acelerada” - Unidades de procesamiento de gráficos (GPU) | Google Cloud Platform
- Tamaños de máquina virtual Linux de Azure: GPU
Es posible que pueda encontrar una imagen proporcionada por la comunidad que ya esté preparada con el software requerido, pero estos generalmente están desactualizados y las bibliotecas mencionadas a continuación se están moviendo bastante rápido en estos días.
- ¿Cuáles son las formas de ingresar a Stanford para obtener una maestría en informática o una maestría en aprendizaje automático e inteligencia artificial?
- MLconf 2015 Seattle: ¿Cuándo uso la normalización de varianza media / unidad cero frente a la normalización de unidad L1 / L2?
- ¿Puede el aprendizaje profundo predecir los dígitos de Pi?
- Sin considerar el costo del conjunto de validación, ¿necesito muchos datos para reducir el costo del tren en la Red neuronal profunda?
- ¿Los analistas de datos serán reemplazados por aprendizaje automático e inteligencia artificial pronto?
Lo mejor para preparar tu propia imagen:
- Cree la instancia más pequeña (más barata) con GPU para la configuración inicial.
- Inicialícelo con una imagen Ubuntu 16.04 LTS de 64 bits.
- Para la informática de GPU, debe instalar Anaconda, CUDA, cuDNN, TensorFlow y Keras en este orden. Comience con la instalación de la última versión de Anaconda en Python 3. Luego, siga las instrucciones de instalación de TensorFlow y elija versiones compatibles de CUDA y cuDNN. Finalmente instale Keras.
- Pruebe su configuración ejecutando el clásico ejemplo de reconocimiento de dígitos MNIST. Asegúrese de ejecutarlo en la GPU. Puede monitorear la actividad de la GPU con este comando, idealmente en un shell separado:
watch nvidia-smi
- Realice una instantánea de la máquina virtual en funcionamiento y almacene la imagen en la nube, para que pueda crear nuevas instancias a partir de ella. Asegúrese de detener (o destruir) la instancia cuando no la necesite, de lo contrario continuará quemando dinero.
Consejo: es mejor usar una instancia a pedido para la configuración inicial. Luego, intente usar los descuentos (como las instancias de spot de Amazon EC2) para un entrenamiento de larga duración. Guarde el modelo y los resultados intermedios con frecuencia, para que pueda controlar si el proveedor de la nube le quita la instancia. Puede haber diferencias de precios según la región geográfica, asegúrese de encontrar la opción más barata.
En la Documentación de Keras puede encontrar ejemplos de modelos de aprendizaje profundo que pueden ejecutarse en la GPU. No todos los tutoriales y el código de ejemplo funcionarán con las últimas versiones de la biblioteca. (Esté preparado para los frecuentes cambios de API).
¡Buena suerte!