Creo que la pregunta podría ser una codificación confusa para la compresión de datos y una codificación para la corrección de errores.
La matemática subyacente es el teorema de Shannon-Hartley, que para los canales sujetos al ruido gaussiano blanco aditivo es
[matemáticas] C = B lg (1 + S / N) [/ matemáticas]
- ¿PostgreSQL es bueno o malo para Big Data?
- ¿Cuál es una excelente manera de aprender a usar las funciones en paquetes como Ggplot2 y Pandas en R y Python?
- ¿Cuál es exactamente el concepto de big data?
- ¿Cuál es el mejor instituto de formación en Dehradun para Data Science?
- ¿Cómo es suficiente Python para la ciencia de datos? ¿Tenemos que aprender R y Python?
Donde C es la llamada capacidad de canal en bits por segundo, B es el ancho de banda del canal en hercios y S / N es la relación señal / ruido o SNR. lg es el logaritmo en la base 2. Como puede ver, más o menos, duplicar la SNR duplica la capacidad del canal una vez que se aleja de las SNR cercanas a 1. Con SNR == 1 obtiene 1 bit por segundo por ancho de banda de Hertz. Con SNR == 3 obtienes 2 bits por segundo por ancho de banda de Hertz.
El ruido blanco gaussiano aditivo es el tipo de silbido que se escucha en un receptor FM cuando no hay estación. (algo así como).
La capacidad del canal es una especie de límite garantizado que no debe exceder el número de bits que puede rellenar a través de un canal con tasas de error tan bajas como desee. Se necesitarán códigos de corrección de errores bastante extensos para acercarse a este límite.
Una vez que tenga un canal con corrección de errores, puede enviar los correos electrónicos de su MP3, y así sucesivamente, con o sin compresión de datos, según lo desee.
La corrección de errores le permite enviar bits a través de un canal ruidoso, quizás acercándose a la capacidad del canal. La compresión de datos le permite enviar la información que le interesa con menos bits. La corrección de errores tiene mucho que ver con SNR. La compresión de datos no tiene nada que ver con SNR.
Otros tipos de canales además del canal AWGN tienen diferentes tipos de límites de capacidad.
PD Claude Shannon fue el creador de la moderna teoría de la información, contemporáneo de Alan Turing, aunque no exactamente en el mismo campo.