¿Cómo cambiaría el mundo digital si pudieras comprimir cualquier archivo al 0.001% de su tamaño original para archivos de al menos 1 KB de tamaño?

En primer lugar, es posible comprimir tanto … ¡PERO!

Si algún archivo se puede comprimir (no importa mucho), qué es lo que le impedirá comprimir un archivo por segunda vez. Es decir, comprimirlo una vez para obtener 0.001%, luego comprimirlo para reducirlo a 0.00000001%, y una y otra vez … es decir, eventualmente todos los archivos tendrán como máximo 1 bit de longitud (es decir, uno o cero y nada más).

El problema es … comprimir no es la parte difícil. La descompresión (restauración a la original) es donde se establecen los límites. Por ejemplo, si comprimió “cualquier archivo” a ese bit … ¿podría volver a mostrar el contenido original? Y es por eso que tal afirmación es simplemente una imposibilidad física.

De hecho, tan pronto como diga “cualquier archivo”, no hay forma de comprimirlo, ni siquiera para que pueda descomprimirse más tarde. El acto mismo de compresión / descompresión se basa en el supuesto de que la mayoría de los archivos tienen muchas partes redundantes, secciones repetitivas y / o patrones en ellos. Para un archivo verdaderamente aleatorio, la compresión es simplemente imposible; de ​​hecho, probablemente se agrandaría debido a los gastos generales al guardar en su estado “comprimido”.

Todos los programas de compresión (TODOS) funcionan bajo la premisa de que la mayoría de los archivos no son completamente aleatorios. La mayoría tiene cierta cantidad de repeticiones y / o patrones en ellos. La única diferencia entre dos programas de compresión es cómo intentan encontrar esas repeticiones y / o patrones. Y, por lo tanto, el que encuentre la mayoría de estos entre la mayor cantidad de archivos que le envíe le dará la mejor relación de compresión; desafortunadamente, envíele un archivo con solo repeticiones y / o patrones mínimos e incluso puede fallar al comprimirlo en absoluto. O incluso simplemente envíele un archivo con repeticiones y / o patrones espaciados de una manera diferente, y su método para encontrarlos ahora falla, reduciendo nuevamente su posible capacidad de compresión.

Entonces esta es, en el mejor de los casos, una pregunta filosófica. Y está muy en los reinos de la fantasía, tal vez incluso más allá de eso en la ilusión.

En segundo lugar, ignoremos la imposibilidad

¿La compresión / descompresión va tan rápido como escribir / leer el original? Si es así, no nos preocuparíamos por el tamaño de las unidades y el ancho de banda de la red. Todo sería una señal de encendido / apagado (solo una, nada más). Es decir, puede enviar toda la Enciclopedia Británica (todos sus volúmenes) a alguien al otro lado de un valle simplemente encendiendo una antorcha UNA VEZ … eso es todo, sin necesidad de una modulación “especial” en el haz de esa antorcha, sin necesidad de algún código como Morse, solo el que enciende la luz lo significa todo.

Lo que significa que incluso nosotros los humanos dejaríamos de hablar entre nosotros. Un simple levantamiento de su dedo diría todo lo que diría a lo largo de su vida. Solo ese acto, solo hecho una vez y nunca repetido, resume toda tu vida. De hecho, resume la existencia de todo el universo. Es decir, has reducido todo a nada.

Si dicha compresión / descompresión lleva mucho tiempo (días / semanas / años / etc.), la mayoría lo ignoraría, es poco práctico y, de hecho, bastante inútil. Solo se puede usar para archivar a largo plazo (si lleva algunas horas). Si son varios minutos, puede ser propicio para copias de seguridad a corto plazo. Si solo son unos segundos, puede usarse en algunos casos para enviar a través de una red.

No hay problema para comprimir un archivo tanto como desee. El problema es recuperar el archivo original del comprimido.

Si desea una compresión no destructiva, entonces hay una prueba simple de que si tiene una función que comprime algunos archivos, entonces DEBE haber otros archivos que hayan pasado por su “compresor” serán más grandes que el archivo original. Por lo tanto, es teóricamente imposible lograr una compresión tan no destructiva para todos los archivos.

Depende principalmente de qué tan rápida sea esta compresión. Digamos que es en tiempo real, entonces simplemente mataría al mercado por un mayor ancho de banda para Internet.

Si no es tan rápido, acabaría con el mercado de discos duros y espacios de servidor más grandes.

Si es demasiado lento, entonces no cambiaría mucho

More Interesting

¿Vale la pena la escuela de verano Wolfram si no te gusta el libro "Un nuevo tipo de ciencia"?

En teoría, ¿podría una máquina Turing de inteligencia sobrehumana no ser un desarrollo de un solo hombre? ¿Podría ser construido solo por varias personas juntas?

¿Qué tan difícil es crear una aplicación como Snapchat?

¿Existe una simulación por computadora para cuestiones económicas y sociales?

¿Cuáles son ejemplos de computadoras híbridas?

¿Es la realidad virtual la próxima gran cosa?

¿Qué equipos indios participarán en las finales mundiales de ACM-ICPC 2016-2017?

¿Qué pasa si usando una máquina del tiempo, dejo un teléfono inteligente nuevo el 1 de enero de cada año a partir de 1950? ¿Cuál es el primer año en que ese teléfono puede ser diseñado con ingeniería inversa antes del 31 de diciembre?

¿Cómo es tener posiciones académicas e industriales conjuntas en imágenes médicas, visión por computadora, gráficos por computadora o aprendizaje automático?

Cómo aplicar el aprendizaje automático al desafío Vindinium AI

¿Por qué Intel no puede copiar la arquitectura de ARM y hacer chips con bajos requisitos de energía?

¿Puedo ingresar a CMU MSCF con un puntaje GRE de 335, un recuento de un ex alumno de CMU MSCF, pero un GPA medio de pregrado en informática de Swarthmore College y poca experiencia laboral?

Cómo aprender independientemente la teoría de la complejidad computacional

¿Qué tipo de problemas generalmente enfrentamos cuando hacemos aprendizaje automático?

Tengo que imprimir esta secuencia para 3 procesos: P, Q, R. PQQRR usando solo semáforo. ¿Cómo hago esto?