¿Son necesarias las GPU cuando se trabaja con modelos gráficos probabilísticos?

Esa es una pregunta difícil. Si hablamos de una necesidad estricta, la respuesta es No, las GPU no son necesarias para los modelos gráficos. Ya se trate de modelos de mezcla bayesiana, métodos de muestreo o inferencia variacional, las personas han trabajado con éxito en estos modelos sin GPU. Pero dado el paralelismo masivo que ofrecen las GPU (miles de núcleos por GPU), ayudan a acelerar las cosas de una forma u otra. Al aprovechar las funciones eficientes de GPU, es definitivamente posible paralelizar algunos de los algoritmos que no pertenecen a la familia vergonzosamente paralela, pero de ninguna manera son necesarios.

Si no me equivoco, la mayoría de los modelos de muestreo, inferencia y mezcla ya tienen implementaciones exitosas de GPU con aceleraciones impresionantes. Por ejemplo, hay trabajos en modelos de mezcla bayesiana paralela que utilizan MCMC en GPU, LDA paralela, EM paralela y muchos más. Aunque no son naturalmente paralelas factibles, podemos encontrar una manera de aprovechar el paralelismo de datos o modelos siempre que la comunicación entre el host y la GPU no sea demasiado alta más allá del ancho de banda umbral. ¡Después de todo, el éxito del aprendizaje profundo y los datos de aplicaciones masivas ilustran la gran complejidad y la importancia de los modelos que pueden equiparse con GPU!

No, pero … si tiene un modelo grande, las GPU pueden hacer que el sistema funcione más rápido.

Las GPU están diseñadas para operar en matrices rápidamente y en paralelo.

Dependiendo de su nivel de habilidad, puede ser un poco difícil aprender a programar GPU.