Aquí es una suposición: las computadoras de 64 bits pueden manejar enteros de 64 bits en una instrucción, pero la mayoría de los enteros en programas comunes son de 32 bits o incluso de 16 bits. Quiero decir, 32 bits te permite usar números hasta 2147483648. Por lo tanto, la gran ganancia en los sistemas de 64 bits es la capacidad de direccionar más de 2 GB de RAM. Ese es un factor importante para las supercomputadoras, pero aún se puede procesar mucho en 2GB antes de que todos tengan 14 pestañas de navegador abiertas a la vez, lo que genera megabytes de mapa de bits cada una.
Pero 8 bits no fueron suficientes para hacer nada en absoluto. Necesitaría 2 bytes para representar un número entero de 16 bits, y eso significaba que necesitaría alrededor de 5 instrucciones solo para agregarlas, y más para multiplicarlas. Las CPU antiguas tampoco tenían unidades de coma flotante, por lo que calcular de 1/7 a 8 lugares decimales requeriría cientos de instrucciones. Pasar a 16 bits significaba que podía hacer sumas y restas al menos 5 veces más rápido a la misma velocidad de reloj y dirigir más memoria. Además, los procesadores de 8 bits se limitaron a una instrucción de bifurcación de 8 bits; un condicional solo puede saltar a una dirección dentro de 128 bytes. Para ir más lejos, se requería una instrucción de salto más larga con un argumento de 2 bytes, que requería más ciclos de reloj para cargar. Nuevamente, 16 bits lo hicieron todo más fácil: las personas ya estaban ejecutando software que no cabía en 8 bits sin muchos compromisos, y de repente no necesitaban comprometerse.
- ¿Por qué Intel no puede copiar la arquitectura de ARM y hacer chips con bajos requisitos de energía?
- ¿Cuántas computadoras diferentes de las grandes empresas tienen el mismo diseño de CPU?
- ¿Es el final de mis sueños?
- ¿Cuáles son las opciones para cursos de ciencia de datos en Delhi?
- ¿Es Giga Flops una forma confiable de comparar la velocidad de los procesadores de la computadora (no le interesa la potencia u otros parámetros)?