Es el orden en que los 0 y 1 se agrupan y procesan lo que los convierte de 0 y 1 al azar en instrucciones que la CPU puede llevar a cabo. Una CPU está programada para comprender una serie de instrucciones (un “conjunto de instrucciones”) para llevar a cabo funciones básicas como “tomar estos dos números y agregarlos, y almacenar el resultado en este registro”, o “mover este número a este registro”. “, y así. Operaciones básicas de datos.
Esas operaciones predefinidas se representan, a nivel de lenguaje de máquina, como códigos de operación binarios como “00001010 00001011 00010110”, por ejemplo. Para ti, eso parece una serie aleatoria de 0s y 1s, pero para la CPU podría representar una instrucción como “Mueve el número 11 al registro AX” (no … Solo lo estoy inventando como ilustración).
Los programas que desarrolle se representan en última instancia en la memoria como una serie de instrucciones que llevan a cabo operaciones comprendidas por la CPU de destino. Cuando se compilan los programas, traducen el código fuente legible por humanos que usted escribe a un lenguaje de máquina comprendido por la CPU que ejecuta su programa ejecutable. Así es como su código fuente eventualmente se convierte en una serie de 0s y 1s.
- ¿Qué algoritmo deberíamos usar para maximizar el CTR y predecir el CTR al mostrar un anuncio?
- ¿Cuál es el propósito de construir un árbol de expansión mínimo?
- ¿Qué es el retroceso en un diseño de algoritmo?
- Procesamiento de lenguaje natural: ¿Cuál es la mejor manera de detectar si un fragmento de texto es interrogativo?
- ¿Debo comenzar a aprender algoritmos y estructura de datos si solo tengo algunos conocimientos básicos de programación Java?
Y a un nivel muy bajo, estos 0s y 1s se representan como voltajes off (0s) y on (1s), como se señala en otras respuestas.