Hay 2 formas de interpretar esta pregunta, así que escribiré una respuesta para ambas.
- Las GPU son dispositivos de hardware multipropósito optimizados para tareas con muchos subprocesos paralelos. Las aplicaciones más comunes son los juegos (donde hay una serie de cálculos poligonales paralelos para renderizar los gráficos) y ahora el aprendizaje profundo (donde las redes neuronales se benefician enormemente de los hilos paralelos de las GPU)
- Las GPU no son la única herramienta de hardware utilizada para entrenar modelos de aprendizaje automático. De hecho, ¡puedes usar cualquier hardware para entrenarlos! La parte más difícil hoy en día para implementar el aprendizaje automático es configurar las dependencias y el hardware, pero resulta que la mayoría de las bibliotecas admiten CPU y no requieren soporte de GPU. Y para algoritmos que no requieren cálculos complejos, es decir, la mayoría del aprendizaje automático (excluyendo el aprendizaje profundo / aprendizaje de refuerzo), esto funciona bastante bien.
Si desea ejecutar un modelo de aprendizaje automático usted mismo, puede hacerlo con Datmo. Puede elegir un modelo, clonarlo y ejecutar una tarea en su máquina sin configurar las dependencias, sin importar los recursos que tenga su máquina.
$ datmo clone shabazp / numerai-model
La tarea $ datmo ejecuta “python example_model.py”
- ¿La equivalencia es computable sobre el conjunto de funciones recursivas primitivas?
- ¿Cuál es el uso de la teoría del Grupo de Renormalización fuera de la física cuántica?
- ¿Es posible sincronizar datos en un clúster informático con la nube?
- ¿Qué hace que un curso de CS de 3 o 4 años sea valioso?
- Teóricamente, ¿es posible crear un sistema de almacenamiento informático que imite el de un cerebro?
El aprendizaje automático se puede hacer en cualquier lugar. Tener una GPU no es un requisito.
Espero que esto ayude 🙂