Absolutamente no si tiene la intención de entrenar modelos en la máquina, y no tiene que pagar por el uso del servidor en la nube. Actualmente tengo el mismo problema: tengo un Macbook Pro con GPU Nvidia, que es bueno para trabajar con marcos de IA como Tensorflow, pero los nuevos Macbooks usan GPU AMD que no pueden ejecutar el código CUDA, que es la tecnología dominante para acelerar el ML aplicaciones.
Es bueno tener la RAM, aunque si está usando la aceleración de GPU (como debería ser, ya que es cientos o en algunos casos miles de veces más rápido), entonces la RAM no es tan importante como la velocidad de RAM / SSD de la GPU.
Además, aunque he usado mi Macbook para esto, el trabajo de ML hace que la máquina funcione DURO, ya sea usando la CPU lenta o la GPU mucho más rápida. Después de unos minutos de entrenamiento, mi computadora portátil se calienta mucho, y esto seguramente ha acortado su vida útil. Tal vez esto no sea una preocupación para usted, pero obviamente una PC de torre no tendría este problema. Una PC de torre también puede tener múltiples GPU, y dado que gran parte del trabajo de IA es de naturaleza muy paralela, esto puede dar como resultado un proyecto completamente irreal, que se vuelve viable sin necesidad de alquilar un servidor en la nube con GPU.
- Quiero comprar una PC de segunda mano decente para comenzar con el aprendizaje profundo comprando una GeForce GTX 1070, ¿qué características me deberían interesar?
- ¿Cómo 'Diagonal BiLSTM' calcula los estados diagonales a la vez y qué es diagonal?
- ¿Es el aprendizaje automático y el aprendizaje profundo una carrera mejor que el desarrollo web ahora?
- ¿Cuál es la relación entre física y aprendizaje automático / IA?
- Cómo comenzar a aprender ciencia de datos y convertirse en un maestro en ello
Entonces, a menos y hasta que Apple vuelva a usar las GPU Nvidia, diría un “no”: probablemente sea la peor opción para usted.