Las matemáticas
Esencialmente, un poco es la unidad de almacenamiento más pequeña en su computadora. Almacena dos valores posibles: 0 o 1 .
Entonces, 1 bit puede usarse para representar 2 valores diferentes. – 0 o 1.
- ¿Cuáles son algunos de los exámenes de certificación de Cloud Computing aprobados a nivel mundial?
- ¿Cómo aprender análisis de datos con aprendizaje automático / minería de datos? ¿Están relacionadas la minería de datos y el aprendizaje automático?
- ¿Puedes convertir una consola de juegos en una computadora?
- ¿Cómo pueden los métodos bayesianos ayudar a acelerar el entrenamiento de las redes neuronales profundas?
- ¿Qué es la red de datos con nombre?
Si tengo 2 bits, el primer bit puede tener dos valores, el segundo también puede tener dos valores.
por lo tanto, 2 x 2 = 4, se pueden representar diferentes valores usando 2 bits.
Si tenemos 3 bits, entonces 2 x 2 x 2 = 8 combinaciones diferentes son posibles.
Entonces, la regla genérica es que si tienes N bits, entonces puedes tener 2x2x2… .. N veces los valores posibles que pueden representarse por – 2 a la potencia N, es decir, [matemática] 2 ^ N [/ matemática]
La historia
En las computadoras representamos caracteres como: alfabetos, dígitos, signos de puntuación y símbolos usando arreglos de bits de 0 y 1.
Inicialmente, muchos sistemas de hardware comenzaron con unidades de 5 bits, pero solo podían atender a 32 caracteres. Algunos se trasladaron a sistemas de 6 bits hasta que, ASCII – Código estándar estadounidense para el intercambio de información definió un conjunto de caracteres de 7 bits.
Dado que los sistemas de hardware estaban acostumbrados a lidiar con todo en el poder de dos, no les importaba agregar un bit extra a la unidad de almacenamiento para hacer una unidad de almacenamiento estándar de 8 bits y lo llamaron un byte, también un juego de palabras sobre la mordida que indica cuánto las computadoras de datos se unirían a la vez.
Un conjunto de caracteres de 8 bits dio como resultado la posibilidad de 256 caracteres diferentes numerados del 0 al 255. Estos números se llamaron código ASCII para caracteres.
Estos podrían acomodar: 26 alfabetos en minúscula + 26 alfabetos en mayúscula + 10 dígitos + muchos signos de puntuación y símbolos especiales con facilidad. ¡Fue lo suficientemente bueno por años!
¿Fue suficiente?
Ciertamente no. A medida que el mundo se volvió digital, 256 caracteres no fueron suficientes para representar símbolos de otros idiomas y símbolos especiales utilizados para anotaciones científicas y matemáticas.
Entonces se decidió que tendremos otro estándar de caracteres que tomará 16 bits.
Así es como la mayoría de los sistemas modernos usan para representar personajes. En lugar de romper los sistemas de hardware y software existentes, se decidió que no se realizaría ningún cambio en el tamaño de un byte, sino que un carácter ocuparía dos bytes.
Esto todavía tiene vacantes para muchos personajes diferentes. Incluso los nuevos emojis que se han vuelto comunes en Internet se representan como caracteres de 16 bits con fuentes que dictan cómo se “ven” en una plataforma.