Hablemos de la codificación de caracteres:
En informática, una codificación de caracteres se utiliza para representar un repertorio de caracteres mediante algún tipo de sistema de codificación.
Dependiendo del nivel de abstracción y el contexto, los puntos de código correspondientes y el espacio de código resultante pueden considerarse patrones de bits, octetos, números naturales, impulsos eléctricos, etc.
- ¿Cuál es la mejor ciudad o país para iniciar un inicio de aprendizaje automático / IA?
- ¿Cómo describirías la evolución de la inteligencia artificial programada en los videojuegos desde su lanzamiento hasta hoy?
- ¿Qué requisitos previos son necesarios para comprender completamente Node.js?
- ¿Puede una computadora ser lo suficientemente rápida como para detectar una bala en tiempo real? Imagine un círculo en el suelo y se dispara una bala desde fuera del círculo hacia él. ¿Sería una computadora lo suficientemente rápida como para detectar la bala dentro de un par de nanosegundos?
- ¿Debo sumergirme en el aprendizaje automático y la inteligencia artificial o seguir creciendo en la empresa?
Para codificar caracteres, debe hacer algún tipo de diccionario para representar tanto los caracteres como la forma binaria.
En ASCII (que es una codificación de caracteres antigua), usan 7 bits para representar todas las letras del alfabeto, números del 0 al 9 y algunos otros caracteres especiales como corchetes.
Luego, cuando quieren codificar la letra A, solo tienen que usar su valor binario, que en realidad es 100 0001 y, por lo tanto, para los otros caracteres.
Según Wikipedia, esos valores binarios fueron propuestos por el ANSI.
Esta imagen ayudará:
Entonces, si quiero codificar “ADRIAN” tengo algo como esto:
1000001 1000100 1010010 1001001 1000001 1001110
Esa es una breve descripción de cómo funciona.
Espero eso ayude.