¿Para qué se usan los bits, bytes y mordiscos?

Poco

La unidad de datos más pequeña en una computadora se llama Bit (Binary Digit). Un bit tiene un solo valor binario, 0 o 1. En la mayoría de los sistemas informáticos, hay ocho bits en un byte. El valor de un bit generalmente se almacena por encima o por debajo de un nivel designado de carga eléctrica en un solo condensador dentro de un dispositivo de memoria.

Picar

Medio byte (cuatro bits) se llama mordisco.

Byte

En la mayoría de los sistemas informáticos, un byte es una unidad de datos que tiene ocho dígitos binarios de longitud. Un byte es una unidad que la mayoría de las computadoras usan para representar un carácter como una letra, número o símbolo tipográfico (por ejemplo, “g”, “5” o “?”). Un byte también puede contener una cadena de bits que deben usarse en una unidad más grande de propósitos de aplicación (por ejemplo, la secuencia de bits que constituyen una imagen visual para un programa que muestra imágenes o la cadena de bits que constituye el código de máquina de un programa de computadora).

En algunos sistemas informáticos, cuatro bytes constituyen una palabra, una unidad que un procesador de computadora puede diseñarse para manejar de manera eficiente a medida que lee y procesa cada instrucción. Algunos procesadores de computadora pueden manejar instrucciones de dos bytes o de un solo byte.

Un byte se abrevia con una “B”. (Un bit se abrevia con una pequeña “b”). El almacenamiento de la computadora generalmente se mide en bytes múltiples. Por ejemplo, un disco duro de 820 MB contiene 820 millones de bytes nominales, o megabytes, de datos. Los múltiplos de bytes se basan en potencias de 2 y comúnmente se expresan como un número decimal “redondeado”. Por ejemplo, un megabyte (“un millón de bytes”) es en realidad 1,048,576 bytes (decimales).

Octeto

En algunos sistemas, el término octeto se usa para una unidad de ocho bits en lugar de byte. En muchos sistemas, cuatro bytes u octetos de ocho bits forman una palabra de 32 bits. En tales sistemas, las longitudes de las instrucciones a veces se expresan como palabras completas (32 bits de longitud) o medias palabras (16 bits de longitud).

Kilobyte

Un kilobyte (kb o kilobytes) es aproximadamente un millar de bytes (en realidad, 2 a la décima potencia, o decimal 1.024 bytes).

Megabyte

Como medida del almacenamiento del procesador de la computadora y la memoria real y virtual, un megabyte (MB abreviado) es de 2 a 20 bytes de potencia o 1,048,576 bytes en notación decimal.

Gigabyte

Un Gigabyte (pronunciado Gig-a-bite con G’s duro) es una medida de la capacidad de almacenamiento de datos de la computadora y es “aproximadamente” un billón de bytes. Un gigabyte es dos a la potencia 30 o 1.073.741.824 en notación decimal.

Terabyte

Un terabyte es una medida de la capacidad de almacenamiento de la computadora y es de 2 a la potencia 40 de 1024 gigabytes.

Petabyte

Un petabyte (PB) es una medida de memoria o capacidad de almacenamiento y es de 2 a 50 bytes de potencia o, en decimal, aproximadamente mil terabytes (1024 terabytes).

Exabyte

Un Exabyte (EB) es una gran unidad de almacenamiento de datos de la computadora, dos a la sexagésima bytes de potencia. El prefijo exa significa mil millones, o en quintillones, que es un término decimal. Dos a la sexagésima potencia es en realidad 1.152.921.504.606.846.976 bytes en decimal, o algo más de un quintillón (o diez a la decimoctava potencia) bytes. Es común decir que un Exabyte es aproximadamente un quintillón de bytes. En términos decimales, un Exabyte es mil millones de gigabytes.

Zettabyte

Un Zettabyte (ZB) es igual a un sextillón de bytes. Se abrevia comúnmente ZB. En este momento, ninguna computadora tiene un Zettabyte de almacenamiento. Tiene 1024 Exabytes.

Yottabyte

Un Yottabyte es igual a un septillón de bytes. Se abrevia comúnmente YB. En este momento, ninguna computadora tiene un Zettabyte de almacenamiento. Tiene 1024 Zettabytes.

Otras respuestas cubren la mayoría de las cosas, pero me gustaría dar más detalles sobre los bocados.

Se puede usar un mordisco para almacenar un dígito hexadecimal, pero también era bastante común almacenar números decimales en mordiscos y realizar aritmética decimal en lugar de aritmética binaria. Ver BCD = decimal codificado en binario.

La memoria era cara y también los ciclos del procesador eran caros. Usando BCD cada byte podría contener dos dígitos decimales, por lo tanto, un número de diez dígitos podría almacenarse en 5 bytes. Los microprocesadores no tenían instrucciones para la división y el módulo que se necesitan para la conversión de binario a decimal: fueron emulados e intensivos en el procesador. Con los números BCD, la conversión de números a texto fue trivial: simplemente agregue el desplazamiento del carácter cero.

La mayoría de los procesadores de 8 bits tenían una bandera de medio arrastre que indicaba que una adición causaba que el mordisco inferior excediera 9 compensaciones necesarias.

Otra ventaja es que si se usa BCD para fracciones, la computadora se redondeará de la misma manera que los humanos. El decimal 0.2 no se puede representar exactamente en binario, pero dará como resultado una expansión binaria infinita 0.001100110011 … Esto sucede, por ejemplo, con flotantes y no se puede confiar, por ejemplo, 10.0 * 0.1 para que sea exactamente 1.0. En decimal tenemos el mismo problema con 1/3 * 3 = 0.333333 … * 3 = 0.999999 …, pero con BCD al menos la computadora tendrá los mismos errores que en el cálculo manual.

Los dígitos BCD se han utilizado desde alrededor de 1960, mucho antes que los microprocesadores, especialmente en los mainframes de IBM. De hecho, la codificación de caracteres EBCDIC específica de IBM es una extensión de BCD, que tiene dígitos que comienzan en el desplazamiento cero con letras y símbolos codificados en 8 bits (en ASCII el carácter cero está en el desplazamiento 48).

El inconveniente de BCD es, por supuesto, que reduce el rango que puede representar con un cierto número de bits. El uso de 2 bytes BCD puede representar el rango 0 … 9999, mientras que la representación binaria pura puede representar los números 0 … 65535. Además, los cálculos se vuelven un poco más complicados con BCD, pero muchos sistemas simplemente almacenan y recuperan muchos números. Por ejemplo, las fechas, los números de seguro social, los números de teléfono, etc., nunca se calculan, pero deben analizarse e imprimirse mucho.

Un bit (abreviatura de dígito binario) es la unidad de datos más pequeña en una computadora. Un bit tiene un solo valor binario, ya sea 0 o 1. Aunque las computadoras generalmente proporcionan instrucciones que pueden probar y manipular bits, generalmente están diseñadas para almacenar datos y ejecutar instrucciones en múltiplos de bits llamados bytes .

Un mordisco (pronunciado NIHB-uhl; a veces deletreado nybble) son cuatro dígitos binarios o la mitad de un byte de ocho bits. Un mordisco se puede representar convenientemente con un dígito hexadecimal

Los bits son enteros individuales que se usan en el lenguaje informático base. Un bit es (generalmente) un 1 o un 0. Binario. (Explicaré la excepción más adelante si tengo la oportunidad).

Los bytes son cadenas de ocho bits. Estos representan caracteres individuales en lenguaje informático base.

Los mordiscos son bastante extraños. Son la mitad de un byte. Sin embargo, se pueden usar para representar caracteres hexadecimales (un mordisco para un carácter hexadecimal). No sé cómo un mordisco (cuatro bits) podría ser igual a un carácter hexadecimal, pero supongo que alguien más estaría más informado al respecto.

(Editar: ‘Un número hexadecimal tiene 1 de 16 valores. Dado que 2 ^ 4 = 16, se necesitan 4 bits para representar 1 dígito hexadecimal.’ – Doug Smith (¡Gracias, Doug!))

La excepción a los bits que son 1 o 0 se representa en una computadora cuántica. Para simplificar, imagínelo como si el bit fuera un imán y hubiera un flujo magnético que lo mantuviera de manera que positivo (cero) siempre apuntara hacia abajo y negativo (uno) siempre apuntara hacia arriba. Con bastante fuerza, puede cambiarlo de modo que lo positivo apunte hacia arriba y lo negativo apunte hacia abajo. Pero con una fuerza sostenida de cierta manera, podría mantener el imán equilibrado en el punto medio. Eso agrega otra posibilidad, lo que significa que no es binario. Las computadoras cuánticas se usan en circunstancias excepcionales porque pueden realizar cálculos a velocidades mucho más rápidas que las computadoras estándar basadas en binarios.

Esta respuesta está relacionada con la electrónica digital para ser precisos, los bits son unidades lógicas mapeadas en dispositivos físicos en una memoria semicondutor, al comienzo de la electrónica, 4 bits se empaquetaron lógicamente como un mordisco, 8 bits se empaquetan en un byte que almacena hasta 256 (incluido el cero) combinaciones (2 ^ 8), cuando el procesador se volvió más potente, se dirigieron a más memoria para que pudieran manejar 2 bytes a la vez, por lo que tiene un total de 2 ^ 16 combinaciones, luego 2 ^ 32 empaquetando 4 bytes juntos, en resumen, son unidades lógicas para almacenar datos en forma de 1 y 0.

Pregunta perfecta …

Solo piense en la evolución del sistema informático.

inicialmente era de 4 bits, hoy en día 64 bits es común, ya que el procesamiento se vuelve más rápido. Entonces, el formato de entrada de datos cambió de bit a byte, byte a mordisco.

La intención es procesar grandes datos en poco tiempo.

De manera simple, el bebé se convierte en monstruo