Cómo utilizar una GPU en mis algoritmos de aprendizaje automático de R

Puede obtener mucha información sobre esto visitando Computación con GPU en R. En resumen, instala el paquete RPUD, como se describe en GPU Computing with R, y luego sigue las “recetas” y otros detalles y sugerencias en los dos enlaces. páginas Hay suficiente para que comiences, e incluso suficiente para que conozcas los detalles. Siga las referencias de enlaces allí para una discusión adicional. No es exactamente trivial, pero tampoco es “ciencia espacial” … 🙂

Revelación completa: no lo he hecho yo mismo con R, ya que no soy un “R guru”, pero he hecho este tipo de cosas con Python y C ++ usando la interfaz CUDA presente en las tarjetas gráficas NVIDIA modernas. Otros fabricantes de tarjetas tienen interfaces de computación vectoriales / matriciales similares, pero menos desarrolladas o fáciles / convenientes de usar.

Sugerencias / Sugerencias:

  • Intente obtener la mejor GPU compatible con CUDA que pueda pagar, tanto en velocidad, cantidad de núcleos y memoria.
  • El soporte para su tarjeta puede variar entre sistemas operativos y versiones. Windows y Linux son compatibles con CUDA, pero siempre verifique con las personas que han usado esa GPU en particular para la aceleración ANN.
  • Hay muchos artículos, sitios web y páginas wiki sobre las experiencias de CUDA y ANN. Lee esos. Para comenzar, aquí hay un par de URL de búsqueda para usted: Google 1 y Google 2.

Disfruta la experiencia. Su experiencia puede ser diferente. 🙂

  1. si
  2. Bueno, necesitas Cuda o un marco que se vincule a Cuda para usar el gpu. También se recomienda encarecidamente obtener una gpu si planea usar una 😉
  3. ¿Por qué no usar python?