¿Cuál es la mejor tarjeta gráfica para tareas de aprendizaje automático / Big Data?

Rendimiento sabio Creo que la próxima GPU Pascal de Nvidia y JetsonX1 deberían ser las que mejor vean los números (para entrenar y desplegar redes neuronales, respectivamente). Nvidia Pascal se lanzará en 2016 con 10 veces el rendimiento de Maxwell: cuenta con 16 nm, memoria 3D, NV-Link y precisión mixta y la supercomputadora NVIDIA® Jetson ™ TX1 en módulo impulsa la próxima ola de máquinas autónomas. Para el entrenamiento, Deepnets Pascal se puede usar adhoc y dispositivos similares a Jetson para desplegar estas redes neuronales en sistemas pequeños.
La mayoría de nuestras redes neuronales en ParallelDots están entrenadas usando Theano en el dispositivo Nvidia Kepler (Tesla K10) en una nube. Tiene múltiples núcleos y mucha RAM (8 Gb), por lo que muchas veces ni siquiera necesitamos cargar en lotes para pequeños conjuntos de datos. Entonces puedo responder por los dispositivos Tesla en función de mi experiencia personal.
Si lo está usando solo para la creación de prototipos, GTX 780 es bastante bueno (y barato) por lo que he leído en varias discusiones (no lo he usado yo mismo).
Hasta ahora solo he discutido los procesadores NVidia, eso es porque la mayoría de las bibliotecas de Deep Learning (Theano / Torch y ahora TensorFlow) usan el lenguaje CUDA que compila solo para procesadores Nvidia. Si desea trabajar en otros procesadores (por ejemplo, AMD o algún dispositivo Intel de alto rendimiento), debe estar preparado para escribir una gran cantidad de código de bajo nivel en openCL, ya que son muy pocas bibliotecas con alta abstracción disponible para dichos dispositivos.

Todo depende de tu presupuesto

No hay una “mejor” tarjeta gráfica para ninguna tarea, pero definitivamente debes usar NVIDIA. Los marcos como pylearn2 cafe y cuda-convnet se implementan con CUDA o CuDNN, que son solo de NVIDIA.

Muchos núcleos funcionan bien en la mayoría de los problemas de aprendizaje automático, ya que generalmente pueden ser paralelizados realmente bien. También es posible que necesite bastante VRAM. Si está utilizando redes neuronales profundas, por ejemplo, en pylearn2, necesitará grandes cantidades de memoria de video continua.

Todo depende de tu presupuesto realmente. Por 300-370 euros está la GeForce GTX 770, tiene 1536 núcleos CUDA, que es bastante y tiene 2 GB o 4 GB de VRAM. En contraste, mi macbook pro retina 15 “del año pasado con la actualización de la tarjeta gráfica tiene NVIDIA GeForce 750M que tiene 384 núcleos CUDA y 2GB de VRAM. A veces desearía tener más VRAM porque se queda sin memoria para algunas tareas si mis lotes Los SGD son grandes, aunque todavía funciona bastante bien para muchas tareas de aprendizaje automático.

Por 550 euros, la GeForce GTX 980 tiene 2048 núcleos CUDA y 4GB de VRAM.

Si su presupuesto nos cuesta un par de miles de euros, mire los aceleradores de GPU Tesla K40 y K80 para servidores. Son muy rapidos. El primero de ellos tiene 2880 núcleos de 12 GB de VRAM. El K80 es básicamente dos GPU K40.

Es difícil sugerir la mejor tarjeta, porque cualquier tarjeta podría ser la mejor en su situación. De hecho, no tener GPU podría ser su mejor apuesta. De todos modos, antes de buscar comprar la ‘mejor’ GPU, considere lo siguiente

  • Dinero en el gatito: ¿tienes el presupuesto, cuánto tienes? $ 50, $ 500, $ 5000?
  • Requisito: ¿Cuán intensivas son / serán las tareas en cuanto a recursos / memoria?
  • Compatibilidad: ¿la nueva GPU será compatible con su hardware / software actual?

Luego vaya al sitio web de NVIDIA (Líder mundial en tecnologías de computación visual) y elija la ‘mejor’ GPU, dadas sus limitaciones. Creo que las GPU de las series GeoForce y Tesla son buenas.

Desde este enlace, puede observar que tener GTX 980 o Titan (ambos puntaje 5.2) es tan bueno como puede obtener, pero tenga en cuenta que si está comprando una tarjeta gráfica solo para fines de Data Science, Nvidia tiene una respuesta profesional y uso académico llamado Tesla: es solo una caja de computación, lejos de la tarjeta gráfica (¡ni siquiera tiene puertos de pantalla!) que cuesta desde 3k $ para K20, hasta 5k $ para el modelo K80 y es un Monster:

Una comparación rápida (CC significa Capacidad de cómputo):

  • Tesla K20: para computadoras de escritorio, vistazo para flotador: 3.52 Tflops, 5 GB, 2496 núcleos CUDA, 2.9 k $, CC: 3.5
  • Tesla K40: para computadoras de escritorio, vistazo para flotante: 4.29 Tflops, 12 GB, 2880 núcleos CUDA, 3.1k $, CC: 3.5
  • Tesla K80: para servidores, vistazo para flotante: 8 Tflops, 24 GB, 4992 núcleos CUDA, 5k $, CC: 3.7

y tarjetas gráficas de grado de cliente, más populares y nuevas:

  • GTX960: para computadoras de escritorio, vistazo para flotante: 2.3 Tflops, 2 o 4 GB, 1024 núcleos CUDA, 200 $, CC: 5.2
  • GTX980: para computadoras de escritorio, vistazo para flotante: 4.61 Tflops, 4 GB, 2048 núcleos CUDA, 500 $, CC: 5.2
  • Titan X: para computadoras de escritorio, vistazo para flotador: 6.1 Tflops, 12 GB, 3072 núcleos CUDA, 1000 $, CC: 5.2

No creo que se necesite una tarjeta gráfica para ninguno de dichos dominios, a menos que trabaje mucho en el procesamiento de imágenes, en cuyo caso cualquier tarjeta de NVIDIA con soporte CUDA es una buena opción … En mi lugar de trabajo adquirimos una de esas máquinas para nuestras necesidades de procesamiento de imágenes y Me complace decir que ofrece …

este artículo podría ayudar a Best Graphics Card 2016 para su computadora de juego