Voy a ser descarado y decir que será cuando la ley de Moore se ponga al día.
La verdadera respuesta es que no lo harán, al menos no sin un cambio masivo en la tecnología de fabricación de CPU.
El GTX 970 tiene miles de millones de transistores. Es un chip muy grande. Compite con los chips más grandes de Intel solo en tamaño de matriz . También produce una cantidad masiva de calor, muy por encima de la envolvente de diseño térmico de potencia para la que están diseñados los chips de Intel y AMD. Como resultado, es capaz de lotes computacionales muy grandes de cargas de trabajo paralelas masivas.
- ¿Por qué preferimos un ciclo while en sistemas embebidos?
- ¿Cuándo superarán los gráficos integrados de la CPU el rendimiento de una GTX970?
- ¿Es IoT un nombre elegante de un producto integrado basado en Linux?
- ¿Deberían usarse robots en la guerra?
- ¿Cuál es la diferencia entre una instrucción y una directiva en lenguaje ensamblador?
Todo eso empaquetado en el paquete de una CPU no deja mucho espacio para la CPU no tan paralela, y eso anula el propósito de tener gráficos integrados.
Intel trató de demostrar que era posible llevar gráficos integrados para que coincidan con las GPU dedicadas con su arquitectura Larrabee. Fue una falla técnica masiva. Intel había apostado la granja por los gráficos con trazado de rayos, e incluso con las ventajas de la técnica, simplemente no podían igualar el rendimiento de referencia de una GPU de gama baja, y mucho menos una GPU de gama alta en ese momento.