Las GPU se usan más ampliamente porque esencialmente son ASIC de procesamiento masivo en paralelo que se producen en grandes volúmenes (y, por lo tanto, económicas). Son excelentes para manejar tareas de procesamiento en paralelo, como representación gráfica, búsqueda, procesamiento de imágenes, tareas de cálculo relacionadas con biociencias, etc. Puede programarlas en C y no necesita aprender un lenguaje de descripción de hardware que es lo que usan como planos a un microchip (ASIC o FPGA). El único inconveniente es que, con respecto al costo, probablemente no tengan tanto impacto como un FPGA. La implementación en hardware probablemente proporcionará mejoras de rendimiento para aplicaciones de subprocesos masivos. Es probable que esto no sea rentable para una aplicación típica, pero Microsoft está trabajando actualmente en un proyecto para sus centros de datos que está haciendo exactamente eso: usar FPGA en lugar de GPU. Esto es lo que están haciendo:
Microsoft Supercharges Bing Search con chips programables | CABLEADO
- Estoy persiguiendo BE-ECE de la Universidad de Thapar. Buscando MS en Comp. Engg. (Hardware) .GRE-167Q 158V, GPA-7.1. ¿Es probable que las universidades de los Estados Unidos me acepten?
- ¿Por qué alguien tendría una placa base con doble CPU?
- Quiero hacer "cosas" en la web, es un BsC. en Computadoras necesarias?
- ¿Cómo difiere la seguridad informática entre la ingeniería informática y la informática?
- ¿Qué necesito aprender para poder construir un sistema de detección de carril?