Hay una serie de codificaciones de 8 bits que anteriormente se usaban ampliamente, que pueden representar tanto el alfabeto latino como otro (por ejemplo, latín y griego, latín y cirílico, latín y árabe). Por ejemplo, MS-DOS y Microsoft Windows usaron tales páginas de códigos.
También hay una serie de codificaciones de 16 bits que anteriormente se usaban ampliamente, que están optimizadas para representar secuencias de comandos de Asia oriental como el chino, japonés o coreano (“CJK”, a veces extendido con vietnamita como escrito en caracteres chinos a “CJKV” ); Por lo general, también pueden mostrar latín, griego y cirílico, utilizando la misma cantidad de bits para todos los caracteres.
Hoy en día, sin embargo, el conjunto de caracteres más común es Unicode, y la codificación más común es probablemente UTF-8, que requiere un número variable de bytes para codificar un carácter dependiendo del punto de código numérico (los números más bajos necesitan menos bytes para codificar).
- ¿Cuánto cuesta la mejor computadora portátil a partir de 2017 y por qué es la mejor?
- ¿Qué computadora portátil se puede comprar por menos de 30k?
- ¿Por qué Dell no vende computadoras portátiles de la serie Latitude en los puntos de venta de Dell?
- ¿Qué es más importante en una computadora: el disco duro o la unidad central de procesamiento?
- ¿Cuál de estos portátiles es mejor: Lenovo Y510P o ASUS N56JR?
En cuanto a por qué el latín llena los primeros 128 caracteres de Unicode y, por lo tanto, obtiene la menor cantidad de bytes por carácter … probablemente porque las computadoras y las redes básicamente provienen de Estados Unidos.
(También hay otras codificaciones de Unicode donde cada carácter usa la misma cantidad de bytes, como UTF-32, donde cada personaje usa 4 bytes, o el UTF-16 que Joseph Boyle mencionó si se limita al primer 65536 Unicode caracteres.)