¿Cuál es la diferencia entre RAM y velocidad de reloj para una tarjeta gráfica en términos de juegos?

El número de GB es solo la cantidad. En una tarjeta gráfica, significa cuántos detalles puede contener el modelo 3D a la vez, cuántos materiales se pueden mantener allí donde se proyectarán sobre las superficies. Si es muy poco, la apariencia del juego se verá afectada al reducir la calidad y / o la velocidad de fotogramas, ya que necesitaría obtener datos adicionales de vez en cuando desde la RAM general más lejana (y más lenta) (o incluso desde el disco mucho más lento) ) Si hay más de lo necesario, no dará ningún beneficio. Entonces, dependiendo de si el juego requiere más de 2 GB de RAM de gráficos (algo poco probable para la mayoría de los juegos), sería un error elegir la tarjeta de 2 GB y no tendrá más remedio que elegir los 4 GB.

La velocidad de reloj en Hz es literalmente “cuántas veces sucede algo por segundo”. Eso es todo lo que es. Si es la velocidad del reloj de la memoria, significa cuántas veces se pueden leer / escribir datos en la memoria cada segundo. Números más altos son obviamente mejores. Pero también es solo una parte de la imagen. No dice nada acerca de la cantidad de datos que se pueden transferir a la vez (ancho de banda), ni tampoco dice cuánto tiempo demora entre el procesador que solicita los datos y el primer conjunto de datos que se devuelve desde la memoria (latencia). Esos tienden a tener un impacto mucho mayor en el rendimiento que la velocidad del reloj.

Si la latencia y el ancho de banda son similares en ambas tarjetas, entonces la que tenga mayor velocidad de reloj probablemente sería mejor. Si solo mira las velocidades de transferencia de RAM.

Desafortunadamente, esa es probablemente la menor de sus preocupaciones al elegir una tarjeta gráfica. Aún más importante que la latencia y el ancho de banda es el número de sombreadores, es decir, cuántos núcleos hay en el procesador (GPU) en esa tarjeta y qué tan rápido calculan cada fórmula matemática para cambiar el modelo electrónico en 3D en imágenes 2D. La transferencia entre esto y la memoria es solo una parte de la imagen, ni siquiera la parte más grande.

¿Supongo que te refieres a la diferencia entre la velocidad de la memoria de video y la velocidad de los núcleos gráficos? Es muy similar a la diferencia entre la velocidad de la CPU y la memoria del sistema.

La velocidad del procesador (reloj de la GPU en este caso) se refiere a la carga de trabajo real y al procesamiento de los datos, generalmente la representación y el procesamiento de sombreadores, junto con hacer cosas como OpenCL / CUDA. Mientras que la velocidad de la memoria se trata de la rapidez con la que la memoria obtendrá información. Tenga en cuenta que la latencia, al menos para la RAM del sistema, tiene un mayor impacto que el reloj de memoria para el rendimiento de la memoria.

No puede comparar el hardware mirando las velocidades de reloj. Tenía sentido en los años 90, pero ya no tiene mucho sentido.

Busque en la web esas dos tarjetas en cuestión y encuentre reseñas que las comparen o den cifras de rendimiento comparables.
Esa es realmente la única forma de saber cuál es más rápido.