¿Cuál es la mejor configuración de hardware para entrenar frameworks de aprendizaje profundo como Caffe, Theano y Tensorflow?

Una CPU decente y preferiblemente varias GPU NVIDIA robustas.

En casa, tengo una computadora portátil con un procesador Intel i5 (decente) pero una tarjeta Intel Integrated Graphics (mala y difícil de configurar). Elegí esta configuración solo porque la computadora portátil era liviana y barata, y de todos modos es ineficiente hacer un aprendizaje profundo en una computadora portátil. Comenzaré proyectos ejecutando algunas iteraciones con datos pequeños en mi computadora portátil y luego implementaré en un servidor.

En el trabajo y la escuela, he tenido acceso a servidores con al menos una GPU NVIDIA. Honestamente, no puedo recordar lo que estaba usando en la escuela, pero estoy usando GTX 980 Ti en este momento, y estoy buscando actualizarme a dos GEForce Titan X por nodo pronto.

He trabajado con TensorFlow y Caffe, y aunque hay formas extrañas de configurarlas con otras marcas de GPU, se instalan mucho más fácilmente con CUDA.

Hay un gran sitio web (Gráficos de referencia de tarjetas de video (GPU)) que realiza pruebas de referencia de todo tipo de GPU, desde las más avanzadas hasta las que se encuentran en el rango de precios de un aficionado.

Además, aunque no es una configuración de hardware, todos los sistemas que he usado se ejecutan en Ubuntu 14.04 o 16.04. 16.04 ha sido un poco más difícil de configurar en este momento solo porque es tan nuevo: 14.04 ha existido por un tiempo y la mayoría de los errores para configurar uno de los entornos populares de aprendizaje profundo son fácilmente compatibles con Google. Pero imagino que eso cambiará en los próximos 1 a 2 años, y 16.04 será el sistema operativo elegido.

Una GPU fuerte es suficiente para comenzar.

Diablos, comencé a entrenar cosas en CIFAR10 en mi computadora portátil con una Geforce GTX 960M.

Estas son sus opciones, que dependen bastante de su conjunto de datos y presupuesto:

  1. Al hacer una investigación básica de aprendizaje profundo, le sugiero que obtenga una computadora con el recientemente presentado NVIDIA geforce 1080ti. A un precio de $ 700 es un factor decisivo en el mercado, puede obtener 2 por el precio de 1 Titan X.
  2. Si desea ampliar, le recomiendo considerar la computación en la nube:
  1. Un servidor Tesla pasa de aproximadamente $ 1 / hora para una sola máquina de GPU a $ 5 / hora para una máquina de 4 GPU con GPU de primera línea. Y hay más opciones de gama alta si tiene la capacidad y el presupuesto.
  2. En pocas palabras, si necesita un servidor de gama alta durante unas horas o unos días, no está fuera de su alcance.
  3. Como nota final, si usted es un estudiante o un personal docente que realiza una investigación de aprendizaje profundo, puede solicitar créditos gratuitos en la nube para su investigación, no es difícil, la mayoría de los proveedores de la nube tienen dichos programas.
  • Si necesita algo más grande para la capacitación en las instalaciones, este no es su primer proyecto de aprendizaje profundo y tiene algo de dinero para gastar. Pero sugiero mirar el NVIDIA DGX-1 o algo similar, cuesta alrededor de $ 130K por pop …
  • Hoy en día, las GPU de mayor rendimiento provienen de NVIDIA, pero todavía hay opciones abiertas: ¿es mejor comprar un TITAN X Pascal nuevo o podemos optar por un TITAN X Maxwell usado barato y qué tal un GTX 1080?

    Aquí encontrará nuestros primeros puntos de referencia de GPU diseñados específicamente para aplicaciones de aprendizaje profundo.

    Hasta ahora acabamos de comparar el GTX 1080 con el TITAN X (Pascal + Maxwell).

    Pronto probaremos una estación de trabajo Xeon de alto rendimiento completa equipada con un Tesla K40c

    Luego, planeamos verificar aún más sistemas x86 y OpenPOWER con mejor rendimiento equipados con dos GPU K80.

    Consulte los BENCHMARKS aquí: http://bit.ly/GPUbench

    More Interesting

    ¿Cuál es el equipo de detección de sonar más pequeño posible?

    ¿Cómo aprender análisis de datos con aprendizaje automático / minería de datos? ¿Están relacionadas la minería de datos y el aprendizaje automático?

    ¿Cuáles son algunos de los algoritmos importantes utilizados en Machine Learning?

    ¿Por qué las redes neuronales son tan poderosas y versátiles para resolver problemas dado que las matemáticas detrás de las redes neuronales son decepcionantemente simples?

    ¿Cuál es la diferencia entre multiprogramación, multitarea, multiprocesamiento y ejecución múltiple?

    ¿Cuál es la explicación intuitiva de Learning to Rank y algoritmos como RankNet, LambdaRank y LambdaMART? ¿En qué tipos de datos / variables se pueden usar estas técnicas? ¿Cuáles son sus puntos fuertes y limitaciones?

    ¿Hay alguna diferencia entre las arquitecturas de los procesadores Intel Core i3, i5 e i7?

    ¿Cuál sería el límite de velocidad de procesamiento teórico en una computadora construida completamente con componentes discretos?

    ¿Qué formato de archivo para documentos es el más universal y atemporal?

    Cómo asegurarme de que mi red de computadoras esté segura

    ¿Qué opinas sobre la tecnología blockchain y su uso futuro?

    Si pudiéramos programar los quarks y todo lo que pueden hacer, y decir, el poder de procesamiento y la memoria disponible está cerca del infinito, ¿podríamos crear otra variación del universo, o lo que la gente llama un universo paralelo?

    ¿Es posible comenzar con el aprendizaje automático sin conocimientos previos en IA, o la IA debería estudiarse primero en general?

    ¿Qué tipo de algoritmos usan los solucionadores SAT?

    ¿Habrá otra arquitectura convencional después de x86 y ARM?