Esa es una pregunta difícil. Si hablamos de una necesidad estricta, la respuesta es No, las GPU no son necesarias para los modelos gráficos. Ya se trate de modelos de mezcla bayesiana, métodos de muestreo o inferencia variacional, las personas han trabajado con éxito en estos modelos sin GPU. Pero dado el paralelismo masivo que ofrecen las GPU (miles de núcleos por GPU), ayudan a acelerar las cosas de una forma u otra. Al aprovechar las funciones eficientes de GPU, es definitivamente posible paralelizar algunos de los algoritmos que no pertenecen a la familia vergonzosamente paralela, pero de ninguna manera son necesarios.
Si no me equivoco, la mayoría de los modelos de muestreo, inferencia y mezcla ya tienen implementaciones exitosas de GPU con aceleraciones impresionantes. Por ejemplo, hay trabajos en modelos de mezcla bayesiana paralela que utilizan MCMC en GPU, LDA paralela, EM paralela y muchos más. Aunque no son naturalmente paralelas factibles, podemos encontrar una manera de aprovechar el paralelismo de datos o modelos siempre que la comunicación entre el host y la GPU no sea demasiado alta más allá del ancho de banda umbral. ¡Después de todo, el éxito del aprendizaje profundo y los datos de aplicaciones masivas ilustran la gran complejidad y la importancia de los modelos que pueden equiparse con GPU!
- Cómo convertirme en un "fantasma" en Internet y eliminar todos mis datos en línea
- En ajedrez, ¿por qué es tan ventajoso jugar al blanco?
- ¿Cuáles son los requisitos para los estudios de posgrado en ciencias de gestión como la gestión de operaciones y las ciencias de decisión?
- ¿Cuáles son las herramientas utilizadas por un analista de sistemas para organizar los datos recopilados durante el proceso de análisis?
- ¿Qué es mejor: zipfian o información para el campo de entrenamiento de ciencia de datos?