Prácticamente todos los centros de datos usan Intel Xeons en este momento, porque son mucho más eficientes que los chips AMD. La eficiencia energética no solo ahorra costos de energía (que es una parte muy grande del costo operativo de un centro de datos), sino que también reduce los requisitos de refrigeración, lo que también requiere energía y espacio (y, por lo tanto, dinero). Esto puede o no cambiar cuando sale AMD Zen.
Para el aprendizaje automático, NVIDIA es la única opción para las GPU, porque muchos marcos de aprendizaje automático solo admiten CUDA, o tienen un soporte CUDA mucho mejor que OpenCL.
No hay tal cosa como “a prueba de futuro” cuando se trata de hardware, especialmente si desea ser rentable. Cada generación de GPU NVIDIA es un 30-50% más rápida que la generación anterior, por lo que no importa lo que compre, quedará obsoleta en 2 a 3 años (obsoleta ya que la eficiencia energética es tan baja que ya no vale la pena ejecutarlas) ) Compre lo que necesita AHORA. Compre más cuando necesite más, y no antes.
- ¿Cómo se pueden extender los codificadores automáticos a tamaños de imagen realistas como 640 x 480 o más?
- ¿Dónde caen los sistemas de recomendación en los enfoques de aprendizaje automático?
- En la curva ROC, cualquier punto es resultado del modelo en un parámetro particular. No estoy claro por qué el adivinador aleatorio está en x = y y no siempre (0.5, 0.5). ¿También cómo interpretar el área bajo la curva?
- ¿Cómo puede motivar a un estudiante de CS para que aprenda Machine Learning?
- ¿Qué algoritmos de aprendizaje automático utilizan servicios como wit.ai y api.ai?