Tuve una computadora portátil con Windows 10 y una GTX 1060, así que decidí hacer una pequeña prueba de velocidad.
Aquí están las especificaciones de mis procesadores:
UPC
Intel Core i7-6700 de cuatro núcleos a 2,60 GHz
- Con la introducción de la inteligencia artificial, ¿podrán las computadoras tener un alto coeficiente intelectual?
- ¿Cómo se puede modelar la interacción Radar y Jammer a través del aprendizaje automático?
- ¿Se pueden usar los árboles de decisión para encontrar atributos de variables latentes de una muestra?
- ¿Cómo es el estado de ML en Palantir?
- ¿Cómo determinaría si el error de cuando ejecuta su algoritmo de aprendizaje automático es de alto sesgo o alta varianza (también conocido como corte o sobreajuste)?
GPU
NVIDIA GTX 1060 6GB GDDR5 @ 8.1 Gbps, 1920 núcleos CUDA, reloj de 1809 MHz
Para el experimento, utilicé la biblioteca CNTK de Microsoft en el conjunto de datos MNIST de enteros escritos a mano, que es un punto de referencia bien conocido. Utilicé una red de feedforward simple que está predefinida en uno de los tutoriales que se envían con CNTK.
Topología de la red
Entrada: 784 características (28 × 28 píxeles)
Capas ocultas: 400 neuronas para cada capa
Salida: 10 neuronas (una por cada dígito)
El conjunto de entrenamiento tiene 60 000 muestras. Hice 10 barridos sobre el conjunto de entrenamiento en mini lotes de 64 muestras para un total de 600 000 muestras en 9375 mini lotes. Aquí están los tiempos de entrenamiento con diferentes números de capas ocultas.
2 capas ocultas
CPU: 40 segundos
GPU: 10 segundos (4 veces más rápido)
4 capas ocultas
CPU: 59 segundos
GPU: 12 segundos (5 veces más rápido)
10 capas ocultas
CPU: 115 segundos
GPU: 19 segundos (6 veces más rápido)
MNIST no es un conjunto de datos muy grande. Tampoco la red era particularmente profunda. Sin embargo, es un aprendizaje profundo, y creo que el experimento muestra que la GTX 1060 puede ser una herramienta efectiva para ese propósito.
Por cierto, la red con 2 capas ocultas logró una tasa de error del 1,7% en el conjunto de prueba. Bastante bueno para un modelo que tardó 10 segundos en entrenar.