La mayoría de las personas con las que he hablado sobre Machine Learning están trabajando en proyectos basados en CPU en lugar de proyectos basados en GPU.
Dicho esto, gran parte del aprendizaje profundo que he visto en GPU se basa en el uso del sistema CUDA de Nvidia, por lo que buscaría una tarjeta Quadro razonable que se ajuste a su presupuesto.
Una nota final: la mayoría de las discusiones de construcción de aprendizaje profundo que he leído mencionan la necesidad de cantidades significativas de RAM. Algunas personas están contentas con ejecutar X79 (o el próximo X99 que se lanzará en septiembre) para que puedan usar 64 GB de RAM (Z87 / Z97 tiene un límite de 32 GB). X79 / X99 lo lleva a la Intel Extreme Edition de procesadores con más núcleos y más hilos que los procesadores de grado de consumo. Alternativamente, podría usar procesadores Xeon que le permitirían usar RAM ECC que pueden ser beneficiosos, dependiendo de su proyecto.
- ¿Podría un dispositivo de IA hacer preguntas realmente interesantes y significativas sobre Quora para aumentar el interés de las personas en un tema?
- ¿Cómo funciona el slackbot, el chatbot automatizado de Slack?
- ¿Qué pasará con el valor de la moneda cuando la IA y los robots se hagan cargo de la economía?
- ¿Sabes dónde puedo encontrar un robot similar a Robi?
- En el futuro, ¿los robots reemplazarán a los humanos para la programación?
Nota: Soy un fanático del hardware, pero no he trabajado en Machine Learning y con mucho gusto aceptaría más aportes de personas que sí. En general, la mayoría de mis conversaciones con personas que trabajan en Machine Learning han involucrado la entrega de hardware a las necesidades específicas de su proyecto.