¿Por qué es que 1 byte es igual a 8 bits?

Las matemáticas

Esencialmente, un poco es la unidad de almacenamiento más pequeña en su computadora. Almacena dos valores posibles: 0 o 1 .

Entonces, 1 bit puede usarse para representar 2 valores diferentes. – 0 o 1.

Si tengo 2 bits, el primer bit puede tener dos valores, el segundo también puede tener dos valores.

por lo tanto, 2 x 2 = 4, se pueden representar diferentes valores usando 2 bits.

Si tenemos 3 bits, entonces 2 x 2 x 2 = 8 combinaciones diferentes son posibles.

Entonces, la regla genérica es que si tienes N bits, entonces puedes tener 2x2x2… .. N veces los valores posibles que pueden representarse por – 2 a la potencia N, es decir, [matemática] 2 ^ N [/ matemática]

La historia

En las computadoras representamos caracteres como: alfabetos, dígitos, signos de puntuación y símbolos usando arreglos de bits de 0 y 1.

Inicialmente, muchos sistemas de hardware comenzaron con unidades de 5 bits, pero solo podían atender a 32 caracteres. Algunos se trasladaron a sistemas de 6 bits hasta que, ASCII – Código estándar estadounidense para el intercambio de información definió un conjunto de caracteres de 7 bits.

Dado que los sistemas de hardware estaban acostumbrados a lidiar con todo en el poder de dos, no les importaba agregar un bit extra a la unidad de almacenamiento para hacer una unidad de almacenamiento estándar de 8 bits y lo llamaron un byte, también un juego de palabras sobre la mordida que indica cuánto las computadoras de datos se unirían a la vez.

Un conjunto de caracteres de 8 bits dio como resultado la posibilidad de 256 caracteres diferentes numerados del 0 al 255. Estos números se llamaron código ASCII para caracteres.

Estos podrían acomodar: 26 alfabetos en minúscula + 26 alfabetos en mayúscula + 10 dígitos + muchos signos de puntuación y símbolos especiales con facilidad. ¡Fue lo suficientemente bueno por años!

¿Fue suficiente?

Ciertamente no. A medida que el mundo se volvió digital, 256 caracteres no fueron suficientes para representar símbolos de otros idiomas y símbolos especiales utilizados para anotaciones científicas y matemáticas.

Entonces se decidió que tendremos otro estándar de caracteres que tomará 16 bits.

Así es como la mayoría de los sistemas modernos usan para representar personajes. En lugar de romper los sistemas de hardware y software existentes, se decidió que no se realizaría ningún cambio en el tamaño de un byte, sino que un carácter ocuparía dos bytes.

Esto todavía tiene vacantes para muchos personajes diferentes. Incluso los nuevos emojis que se han vuelto comunes en Internet se representan como caracteres de 16 bits con fuentes que dictan cómo se “ven” en una plataforma.

Comencé a escribir una respuesta y luego me detuve y robé lo siguiente de Wikipedia porque eso es lo que habría escrito:

El byte es una unidad de información digital que generalmente consta de ocho bits. El mordisco consta de cuatro bits.

Históricamente, el byte era el número de bits utilizados para codificar un solo carácter de texto en una computadora y, por esta razón, es la unidad de memoria direccionable más pequeña en muchas arquitecturas de computadora. El tamaño del byte ha dependido históricamente del hardware y no existían estándares definitivos que exigieran el tamaño: se sabe que los tamaños de byte de 1 a 48 bits se usaron en el pasado.

El estándar de facto moderno de ocho bits, como se documenta en ISO / IEC 2382-1: 1993, es una potencia conveniente de dos que permite los valores de 0 a 255 para un byte. El estándar internacional IEC 80000-13 codificó este significado común.

Muchos tipos de aplicaciones usan información representable en ocho bits o menos y los diseñadores de procesadores optimizan para este uso común. La popularidad de las principales arquitecturas informáticas comerciales ha ayudado a la aceptación ubicua del tamaño de ocho bits.

Es una razón histórica.

Byte

Históricamente, el byte era el número de bits utilizados para codificar un solo carácter de texto en una computadora [1] [2] y por esta razón es la unidad de memoria direccionable más pequeña en muchas arquitecturas de computadora. El tamaño del byte ha dependido históricamente del hardware y no existían estándares definitivos que exigieran el tamaño . El estándar de facto de ocho bits es una potencia conveniente de dos que permite los valores de 0 a 255 para un byte

El estándar C requiere que el tipo de datos integral char sea capaz de contener al menos 256 valores diferentes y esté representado por al menos 8 bits (cláusula 5.2.4.2.1). Diversas implementaciones de C y C ++ reservan 8, 9, 16, 32 o 36 bits para el almacenamiento de un byte. [10] [11] El número real de bits en una implementación particular se documenta como CHAR_BIT tal como se implementa en el archivo limits.h.

1964 : Museo de Historia de la Computación

Las nuevas computadoras System 360 de IBM salen al mercado y establecen el estándar mundial de facto del byte de 8 bits, lo que hace que las máquinas de palabras de 12 y 36 bits queden casi instantáneamente obsoletas.

Históricamente, se utilizaron 8 bits para codificar un solo carácter de texto en la computadora y, por lo tanto, se convirtió en un byte o la memoria direccionable más pequeña.

Mi antigua tarjeta de código Telex de 5 bits, de los años 60 🙂 Museal … 😛

Encontré un simulador de golpe Telex. En los años 70 escribí los programas de conversión Telex, ASCII, BCD, EBCDIC:

El primer código fue de 5 bits. (Código télex) Pero con esto, la combinación solo 31. Por lo tanto, necesitaban una letra CapsLock, un número + carácter de CapsLock de especificación. Esto fue suficiente para ~ 60 caracteres. Las primeras computadoras comerciales tenían un código de 6 bits (IBM1401, Honeywell200, PDP8) Y en Telecom-s, el sistema Datex usaba 7 bits + paridad (código ASCII) Las primeras minicomputadoras tenían palabras de 12 bits, luego palabras de 16 bits. Se necesitan caracteres en minúscula y mayúscula, símbolos especiales y caracteres nacionales. IBM inventó el “byte”, un código de 8 bits, y un conjunto de códigos EBCDIC (familia IBM360) Pero luego llegaron las computadoras y PC-s domésticas, y ganó ASCII. (Las primeras PC usaron teletipos y papepetes ASCII ASR33) (Como sé, IBM todavía usa EBCDIC) Y más tarde 8 bits no fueron suficientes. Imagine chino y otras letras especiales. Entonces, hoy hay un idioma Babel y un conjunto de códigos Babel nuevamente 😛 Los conjuntos de códigos de hoy son de 8 bits y múltiplos de 8. El inglés tiene suerte con 26 caracteres ABC 🙂

Un teletipo MITS ALTAIR y ASRI 33 ASCII. Bill Gates comenzó con ellos.

  • Históricamente, las versiones anteriores de los procesadores podían abordar tan poco como 8 bits, es decir, la unidad direccionable más pequeña para memoria, 1 byte.
  • Ocho bits es una potencia conveniente de 2, ([matemática] 2 ^ 8 [/ matemática]) que permite un rango de 0 a 255 (total de 256 caracteres como en ASCII)
  • El direccionamiento de 8 bits fue introducido por primera vez por IBM en 1956 para el proyecto Stretch ( http://archive.computerhistory.org/resources/text/IBM/Stretch/pdfs/Buchholz_102636426.pdf )

De manera conveniente, 8 bits equivalen a 1 byte.

¿Cuál es la historia de por qué los bytes son ocho bits?

¿Por qué es que 1 byte es igual a 8 bits?

Creo que la respuesta simple es que se definió de esa manera. Como otros dichos tamaños de palabras de computadora han variado de 4 (Intel 4004) a 8, 12, 16, 32 (mainframes IBM), 36 (mainframes serie Univac 1100), 48 (unidades militares UYK-44) hasta 60 o quizás 64 en los mainframes de los CDC. El byte de 8 bits era útil para caracteres alfanuméricos basados ​​en latín.

Ya he discutido aquí Unicode | ¿Qué y por qué?

Todo se basa en el sistema de numeración binario. El código ASCII tenía 256 caracteres y 256 en binario es 1111 1111, 8 dígitos de largo. entonces ocho dígitos binarios es un byte …