¿Cuál es el significado de precisión en la computadora?

Si está hablando de precisión numérica, entonces, básicamente, el problema es uno de lo que se puede hacer con un número finito de patrones de bits que intentan representar un número infinito de números. Para los enteros, las máquinas actualmente usan 64 bits, por lo que tiene 2 ^ 64 números (aproximadamente 1 con 20 ceros a continuación). Grande, pero ciertamente no infinito. Para los no enteros, las máquinas usan números de coma flotante de 32 o 64 bits: desafortunadamente, con números reales, hay un número infinito de ellos entre dos diferentes, por lo que puede ver que habrá problemas para representarlos con precisión (desde entonces, uno tiene 2 ^ 32 o 2 ^ 64 patrones de bits diferentes). La representación estándar es el estándar IEEE 754 (ver IEEE 754: Estándar para aritmética de punto flotante binario): esto es bastante complicado y esencialmente trata de proporcionar la mejor precisión posible dentro de los límites del número de patrones diferentes disponibles. El artículo de wikipedia IEEE coma flotante: Wikipedia es bastante bueno para explicarlo.