Bueno Ashish, la respuesta a tu pregunta es porque las computadoras están hechas para trabajar con números binarios Ie 0 y 1. Esto significa que puede entender un máximo de 2 números. En términos de electrónica, 2 voltajes, uno es más alto (1) que el otro (0).
Ahora, dado que una señal analógica está compuesta prácticamente por un número infinito de voltajes, no puede diferenciar entre una señal de 4v y una 4.2v, pero puede considerar ambas como 1 en comparación con una tensión más baja, digamos 0.5v, que identificará como 0 .
Ahora la pregunta es ¿por qué no puede hacerlo?
Una de las muchas explicaciones posibles es que la capacidad de diferenciar entre niveles de voltaje está limitada por varios tipos de ruidos y la resolución limitada de los dispositivos sensores.
- ¿Debo confiar en los servicios de respaldo en línea?
- ¿Cómo se ven otros lenguajes humanos en la abstracción visual (en binario)?
- ¿Por qué la copia de datos de una computadora a un disco flash tarda tanto?
- ¿Se necesita tener experiencia en codificación para aprender y trabajar en el procesamiento de big data o Hadoop?
- ¿Cómo se usan las supercomputadoras?
Espero que ahora tengas una idea de por qué las computadoras no pueden funcionar con datos analógicos.