En la compresión de datos, ¿cómo ayuda la mejora de la SNR a aumentar la tasa?

Creo que la pregunta podría ser una codificación confusa para la compresión de datos y una codificación para la corrección de errores.

La matemática subyacente es el teorema de Shannon-Hartley, que para los canales sujetos al ruido gaussiano blanco aditivo es

[matemáticas] C = B lg (1 + S / N) [/ matemáticas]

Donde C es la llamada capacidad de canal en bits por segundo, B es el ancho de banda del canal en hercios y S / N es la relación señal / ruido o SNR. lg es el logaritmo en la base 2. Como puede ver, más o menos, duplicar la SNR duplica la capacidad del canal una vez que se aleja de las SNR cercanas a 1. Con SNR == 1 obtiene 1 bit por segundo por ancho de banda de Hertz. Con SNR == 3 obtienes 2 bits por segundo por ancho de banda de Hertz.

El ruido blanco gaussiano aditivo es el tipo de silbido que se escucha en un receptor FM cuando no hay estación. (algo así como).

La capacidad del canal es una especie de límite garantizado que no debe exceder el número de bits que puede rellenar a través de un canal con tasas de error tan bajas como desee. Se necesitarán códigos de corrección de errores bastante extensos para acercarse a este límite.

Una vez que tenga un canal con corrección de errores, puede enviar los correos electrónicos de su MP3, y así sucesivamente, con o sin compresión de datos, según lo desee.

La corrección de errores le permite enviar bits a través de un canal ruidoso, quizás acercándose a la capacidad del canal. La compresión de datos le permite enviar la información que le interesa con menos bits. La corrección de errores tiene mucho que ver con SNR. La compresión de datos no tiene nada que ver con SNR.

Otros tipos de canales además del canal AWGN tienen diferentes tipos de límites de capacidad.

PD Claude Shannon fue el creador de la moderna teoría de la información, contemporáneo de Alan Turing, aunque no exactamente en el mismo campo.

SNR se relaciona con la capacidad de un canal para transportar datos sin errores. Cuantos menos errores, más tiempo se gasta en mover o almacenar datos.