Compre un GTX Titan X. Un GTX Titan X es aproximadamente un 50% más rápido que el GTX 980 y el paralelismo con dos GTX 980 solo escalará bien en redes convolucionales y solo para algunas bibliotecas de software (la antorcha 7 tiene una paralelización fácil, pero el rendimiento podría ser mejor).
Ni los núcleos ni la memoria tienen nada que ver con la velocidad con la que una GPU procesa algoritmos de aprendizaje profundo. Todos los cálculos en el aprendizaje profundo están vinculados al ancho de banda, lo que significa que lleva más tiempo leer la memoria que hacer los cálculos. Si desea tener lecturas rápidas de memoria, necesitará un gran ancho de banda de memoria. El GTX Titan X tiene un ancho de banda de 336 GB / s, mientras que el GTX 980 tiene 224 GB / s. Si bien no puede comparar directamente el ancho de banda a través de la arquitectura (no puede comparar el ancho de banda de las series GTX 900 y GTX 700), hacerlo para la misma arquitectura casi se traducirá uno a uno en rendimiento. Entonces, el GTX Titan X es un 50% más rápido que el GTX 980.
Trabajé en la paralelización del aprendizaje profundo durante casi un año y es difícil lograr buenas aceleraciones. Para redes convolucionales, tendrá una aceleración del 70-90% para las capas convolucionales. No tendrá aceleración para capas densas o redes densas a menos que use paralelismo de modelo o paralelismo de datos con cuantificación de un bit y medio lote que agrega complicaciones adicionales. Rodarás mucho mejor con una sola GPU rápida.
- ¿Qué es la conciencia y en qué se diferencia de la inteligencia?
- ¿Cuál es una instancia de la relación entre la visión por computadora (es decir, OpenCV) y el aprendizaje automático?
- ¿Deberían los robots y otras IA tener un estatus humano?
- ¿Cómo se ha utilizado el aprendizaje automático para mejorar la eficiencia del procesamiento de reclamos en el negocio de seguros?
- ¿Cuál es el mejor lenguaje para usar mientras aprende el aprendizaje automático por primera vez? Voy a tomar un curso sobre aprendizaje automático este trimestre y tengo la opción de elegir entre usar C, C ++, Java, Haskell, Lisp, Python o Matlab / Octave.
Además, si su objetivo es entrenar redes convolucionales grandes, entonces la memoria de 12 GB en el GTX Titan será importante. Con el paralelismo de datos en capas convolucionales, estará limitado dramáticamente por los 4 GB en la GTX 980 (no tendrá 8 GB para redes, ya que cada GPU necesita realizar un seguimiento del mismo modelo).
Si desea leer más sobre esto en detalle, puede leer las publicaciones relevantes en mi blog timdettmers.com.