¿Se puede usar la GPU para optimizar los algoritmos gráficos?
Sí, de hecho, la mayoría del algoritmo gráfico se ha implementado para optimizaciones de rendimiento en GPU. Mucha investigación ha proporcionado evidencia de una mejora significativa en el rendimiento de los algoritmos gráficos utilizando GPU en comparación con la CPU. Algunos de los trabajos de investigación recientes que utilizan el poder computacional de la GPU para diferentes algoritmos de gráficos son
- Empresa: Breveth-First Graph Traversal en GPU [1]
- iBFS: búsqueda simultánea de amplitud primero en GPU [2]
- Métodos de GPU paralelos eficientes en el trabajo para rutas más cortas de fuente única [3]
- Todos los pares de rutas más cortas para gráficos grandes en la GPU [4]
- Descomposición eficiente de componentes fuertemente conectados en GPU [5]
- Coincidencia rápida de subgráficos en gráficos grandes utilizando procesadores gráficos [6]
- Triángulo rápido contando con la GPU [7]
- Cálculo de PageRank paralelo usando GPU [8]
¿La GPU es naturalmente adecuada para optimizar algoritmos de gráficos?
- ¿Qué algoritmos básicos debe saber un programador promedio?
- ¿Es más difícil probar la corrección de algoritmos codiciosos que probar la corrección de cualquier otra clase de algoritmos?
- ¿Cuáles son las aplicaciones de la programación en C?
- ¿Hay algún conocimiento de programación que pueda utilizar / ayudaría a aprender ajedrez?
- ¿Cuál es el libro perfecto sobre CPP y algoritmos?
NO, por varias razones
- Desequilibrio de carga : la mayor parte del gráfico del mundo real sigue la distribución de la ley de potencia, lo que significa que hay algunos nodos muy conectados y muchos nodos de grado pequeño. Eso hace que la mayoría de los algoritmos de gráficos paralelos sean muy difíciles de utilizar recursos máximos no solo en la GPU sino también en cualquier otro marco paralelo
- Algoritmos estrictamente en serie: algunos algoritmos, como la primera búsqueda en profundidad, deben seguir el estricto enfoque en serie, lo que significa que no hay forma de utilizar múltiples recursos informáticos.
- Grandes tamaños de gráficos: la mayor parte del gráfico del mundo real surge de la web y las redes sociales, que son de alrededor de mil millones a billones de bordes, lo que significa que la mayoría de las GPU actuales no son capaces de mantener el gráfico en sí, y mucho menos resultados intermedios súper lineales y en ocasiones exponenciales.
¡¡Espero eso ayude!!
Notas al pie
[1] http://delivery.acm.org/10.1145/…
[2] http://hang-liu.com/publication/…
[3] Métodos de GPU paralelos eficientes en el trabajo para rutas más cortas de una sola fuente
[4] http://repository.upenn.edu/cgi/…
[5] Descomposición eficiente de componentes fuertemente conectados en GPU
[6] Coincidencia rápida de subgráficos en gráficos grandes utilizando procesadores gráficos
[7] http://delivery.acm.org/10.1145/…
[8] http://delivery.acm.org/10.1145/…