Llevo más de un año investigando sobre compresión de datos, y también soy un gran fanático de la serie de televisión “Silicon Valley”, por lo tanto, creo que puedo responder a su pregunta: En resumen, “NO, es simplemente ficticio” . Aunque la serie de televisión presta atención a los detalles técnicos del programa, es solo por diversión y así es como debe ser. Sigue una respuesta relativamente larga:
Richard Hendricks, el protagonista de la serie, presenta su increíble algoritmo de compresión, ” El algoritmo intermedio “, que gana el TechCrunch Disrupt y supera el límite teórico ficticio : un puntaje Weissman de 2.9 (creo que el intermedio) El algoritmo tiene una puntuación de Weissman de alrededor de 5.2) como se muestra en el programa. Ahora, Richard’s Company, ” Pied Piper ” utiliza este algoritmo de compresión no solo para la compresión de video en 2-D sino también para la compresión de video en 3-D, y su algoritmo permite una transmisión de datos súper rápida que de acuerdo con el programa no sería posible de otra manera. Una mirada más cercana al algoritmo y sus capacidades le dirá por qué prácticamente no es posible:
- El “algoritmo intermedio” es un algoritmo de compresión sin pérdidas , que se parece al algoritmo de compresión LZW (aunque el algoritmo exacto no se discute en el programa) generalmente utilizado en archivos zip.
- Puntuación de Weissman: la puntuación de Weissman es un límite de compresión ficticio formulado por Tsachy Weissman, profesor de la Universidad de Stanford y su ex alumna Vinith Misra. Tenga en cuenta que esto es solo un límite ficticio, que es solo la relación entre la cantidad de compresión lograda y la cantidad de tiempo necesario para la compresión, ambas normalizadas con respecto a algún algoritmo de compresión estándar conocido. El puntaje de Weissman, W, se define como: [matemáticas] W = \ alpha \ frac {r} {\ tilde {r}} \ log {\ frac {\ tilde {T}} {T}} [/ matemáticas] donde está [matemática] r [/ matemática], [matemática] T, [/ matemática] son la relación de compresión y el tiempo necesario para la compresión por el algoritmo de interés respectivamente, y [matemática] \ tilde {r}, \ tilde {T} [ / math] son los mismos factores para cualquier algoritmo de compresión estándar. Aunque esta puntuación proporciona una buena estimación del rendimiento de cualquier algoritmo de compresión en términos de la cantidad de compresión lograda y de la rapidez con la que se realiza, el único límite teórico de la compresión sin pérdida es la entropía de los datos . Cada dato tiene su propio límite de compresión sin pérdidas, y los algoritmos que alcanzan dichos límites para cualquier dato grande se denominan algoritmos de compresión universal, por ejemplo, LZW.
- El punto más importante sobre por qué es simplemente ficticio es el hecho de que Pied Piper, la compañía de Richard, lo usa para la compresión de video en 3-D porque nunca usamos algoritmos de compresión sin pérdida en datos perceptualmente activos como videos, imágenes o sonido. La razón es que la compresión sin pérdida asegura que no se pierda ni un solo bit de los datos (por lo tanto, sin pérdidas 🙂 y se puede usar mientras se envían mensajes cifrados o mensajes de texto, donde la pérdida de un solo bit puede cambiar todos los datos), sin embargo, para los enormes datos almacenados en forma de imágenes y sonidos, no es necesario almacenar todos los bits, ya que los seres humanos no pueden percibir la mayoría de los datos de sonido e imagen que se les presentan, por lo tanto, uno prefiere algoritmos de compresión con pérdida como JPG y MPEG, que proporciona valores de compresión altos sin generar demasiados diferencia a la percepción humana de los datos. Además, los algoritmos de compresión sin pérdida generalmente dan un tamaño comprimido de aproximadamente la mitad del tamaño de los datos (“generalmente”, también cada dato tiene un límite teórico que no puede ser superado sin pérdida), sin embargo, la compresión con pérdida prácticamente no tiene límite teórico, es altamente depende de la percepción humana, por ejemplo, una compresión con pérdida puede darle una compresión de 10-20x sin ningún efecto en la calidad de la percepción. Por lo tanto, tener un algoritmo de compresión sin pérdidas para comprimir un video 3-D y poder transmitir solo debido a dicho algoritmo es ilógico (pero el entretenimiento nunca debe ser lógico 😛).
- Tiene una lista vinculada en la que cada nodo es otra lista vinculada. ¿Cómo encuentra el elemento Kth más exclusivo entre todos los nodos en el momento más óptimo?
- ¿Algún consejo para estudiar la complejidad del espacio para programar entrevistas? ¿Cuáles son algunos buenos recursos para aprender sobre la complejidad del espacio?
- ¿Qué es NP-hard y NP-complete?
- ¿Qué es el algoritmo SURF en el procesamiento de imágenes?
- ¿Qué algoritmo se usa para escanear?