Bueno, así es como funciona la compresión. La computadora identifica un patrón y especifica la regla en lugar de almacenar toda la información. Pero a menudo no es muy eficiente con datos altamente aleatorios.
Para su ejemplo específico con pi, sabemos pi hasta un billón de dígitos. El problema es que no hay suficientes dígitos para almacenar “datos grandes” si estuviéramos buscando el punto en la expansión decimal de pi que contenía esos datos. Además, incluso suponiendo que pueda encontrar ese punto, aún tendría que calcular pi a esa cantidad de dígitos cada vez que lea esos datos. No hace falta decir que es una tarea extremadamente intensa.
EDITAR: se me ocurrió cuantificar mi explicación sobre pi. En teoría, un billón de dígitos no es suficiente para contener todas las combinaciones posibles de 11 dígitos. Un billón es [matemática] 10 ^ {12} [/ matemática], hay combinaciones [matemática] 10 ^ {11} [/ matemática] de 11 dígitos, y esa cantidad de combinaciones multiplicada por once dígitos por combinación llega a 1.1 billones de dígitos. Y, por supuesto, la probabilidad de que cada uno de esos conjuntos de 11 sea distinto es increíblemente pequeña.
- ¿Cuánto afecta, si es que lo hace, la calidad del archivo fuente a la salida de un códec, suponiendo que el primero sea mayor?
- ¿Cómo es hacer un largo viaje en un súper yate? ¿Cómo se compararía con tomar un crucero?
- ¿Cuál es la diferencia entre el primer turno CS y el segundo turno CS en el Instituto de Tecnología Maharaja Surajmal, GGSIPU?
- ¿Cuál es la mayor influencia que ha tenido la neurociencia en la visión por computadora y viceversa?
- Si el mundo tal como lo observamos fuera realmente una simulación interactiva (como se sugiere en ciertas películas de ciencia ficción), ¿qué tipo de potencia informática se necesitaría para ejecutarlo? ¿Cuánto poder dibujaría?