¿Por qué las muestras se toman con 8 bits en PCM?

No estoy seguro de dónde se encontró con esto, pero su fuente está lamentablemente desactualizada. ¿Estás leyendo un libro escrito en los años 90? Las muestras de PCM de 8 bits eran una compensación de baja calidad entre almacenamiento, potencia informática y fidelidad, y se eliminaron gradualmente a medida que el almacenamiento y la potencia informática aumentaron exponencialmente en los años 90. La introducción del software de audio de CD de 16 bits para PC alrededor de 1993 fue un factor importante para impulsar otro software. Para el año 2000, era imposible encontrar un nuevo software o juego que todavía usara audio de 8 bits; el formato estaba esencialmente muerto.

Si desea una demostración clara de la diferencia, consulte: Prueba de audición ciega de 16 bits v / s de 8 bits, Parte 2. El fuerte silbido fácilmente emite un sonido de 8 bits.

Stan Hanks tiene una excelente respuesta de por qué se tomaron muestras con 8 bits en la Edad Media. Una pregunta más interesante es ¿por qué muchos sistemas todavía toman muestras a 16 bits, cuando 24 bits y más han sido técnicamente factibles durante años? La respuesta es que el rango de decibelios de 16 bits acomoda casi el rango completo de la audición humana, y el nivel de ruido (donde los valores se vuelven aleatorios) generalmente está en o justo debajo de él. Los códecs modernos, como MP3, AAC, Vorbis y Opus tampoco son necesariamente de 16 o 24 bits, pueden decodificarse con cualquier fidelidad y sonarán casi igual.

Esa es la misma razón por la que DVD Audio, SACD y Pono fallaron; casi todos los consumidores no pueden notar ninguna diferencia, y muy pocos de los que realmente pueden preocuparse lo suficiente como para gastar diez veces más por una diferencia de un minuto. Los lanzamientos de álbumes en FLAC o ALAC sin pérdida son comunes, pero en 24 bits aún son raros, porque a las personas les importa mucho más la fidelidad al ruido sin pérdidas que incrementalmente mejor. La diferencia entre MP3 y sin pérdida es enorme en comparación con la diferencia entre 16 y 24 bits.

En caso de que no esté claro, esto incluye comunicación de voz. Micrófonos y software de teleconferencia, todos estandarizados en 16 bits hace décadas.

Como han señalado otras respuestas, es porque los cuantos de línea de base para los datos es el byte, que es de 8 bits.

Eso es … menos que satisfactorio. ¿Por qué ocho bits? ¿Por qué no 12? o 10? o 17?

La historia se remonta a lo profundo de la historia de la informática. Las primeras computadoras digitales funcionaban en decimal codificado en binario, donde los dígitos literales de los números arábigos se codificaban en el flujo de datos. Eso resultó en el uso de cuantos de cuatro bits por dígito, y era conveniente agrupar dos de ellos.

La palabra “byte” se utilizó por primera vez en la documentación del IBM 7030 Stretch en 1956, y se deletreaba deliberadamente con una “y” para evitar problemas de confusión, ya que la diferencia entre “bit” y “mordida” está a solo un error tipográfico. del desastre

El cambio real ocurrió cuando AT&T comenzó a experimentar con la telefonía digital en la década de 1960 y tomó la decisión de utilizar la codificación de la ley μ de 8 bits. Se usó la ley Mu porque el habla humana tiene un rango dinámico muy amplio, y existe el potencial de hacer mucha compresión al mismo tiempo que se logra un gran rechazo de ruido usando este algoritmo particular. La verdadera victoria fue que casi todo el ruido inyectado estaba en la línea de transporte después de la codificación, y como resultado, podría eliminarse fácilmente al descomprimir en el extremo receptor.

8 bits resultaron ser los cuantos más pequeños en los que se podía codificar fácilmente el rango completo de la voz humana. Y eso tuvo la coincidencia fortuita de ser también un tamaño de uso común debido al cálculo de BCD y, por lo tanto, se convirtió en el estándar de facto.

Una vez que fue el estándar, todo lo demás cambió debido a los argumentos de economía de escala. Si quería construir una computadora digital, y había alguna posibilidad de que fuera utilizada para BCD o voz digital, terminó trabajando en múltiplos de 8 bits. Eso condujo a microprocesadores de 8 bits, luego de 16 bits, hasta las arquitecturas actuales de 64 bits.

Y eso es más o menos por qué todo es de 8 bits. Sigue siendo el quanta más pequeño en el que puede comprimir la voz humana y obtener buenas relaciones de señal a ruido, y es “el estándar”.

G.711 es un estándar ITU-T para la comparación de audio. Se utiliza principalmente en telefonía. El estándar se lanzó para su uso en 1972. Su nombre formal es Modulación de código de pulso ( PCM ) de frecuencias de voz . Es un estándar requerido en muchas tecnologías, por ejemplo en las especificaciones H.320 y H.323. También se puede utilizar para la comunicación por fax a través de redes IP (como se define en la especificación T.38). G.711, también conocido como Pulse Code Modulation (PCM), es un códec de forma de onda muy utilizado. G.711 es un códec de audio de banda estrecha que proporciona audio de calidad de peaje a 64 kbit / s. G.711 pasa señales de audio en el rango de 300–3400 Hz y las muestrea a una velocidad de 8,000 muestras por segundo, con una tolerancia de 50 partes por millón (ppm). La cuantificación no uniforme (logarítmica) con 8 bits se utiliza para representar cada muestra, lo que resulta en una velocidad de bits de 64 kbit / s. Hay dos versiones ligeramente diferentes: la ley μ, que se usa principalmente en América del Norte, y la ley A, que se usa en la mayoría de los otros países fuera de América del Norte.

Fuente: G.711 – Wikipedia

Buena pregunta Ken. Solo para agregar a todas las publicaciones excelentes.

El discurso comercial tiene un rango de 300-3400Hz (ancho de banda de frecuencia). Los sistemas PCM fueron diseñados alrededor de este rango de frecuencia. Como se destaca en las otras publicaciones, se utiliza una ley de comparación. La frecuencia de muestreo (8000Hz), la codificación (8 bits) y el sistema PCM de 32 canales han demostrado ser una forma muy confiable de asignar voz analógica a una representación digital (A / D).

Puede muestrear en cualquier cantidad de bits que desee, pero tradicionalmente los sistemas digitales han usado múltiplos de 8 bits para manejar datos. 8 bits es lo mínimo que puede usar para obtener algo que se parezca a un audio útil, el audio de CD es de 16 bits porque necesita una mejor definición y 16 bits proporciona una calidad suficientemente buena para la música. Algunos sistemas profesionales o de alta gama utilizan 24 bits de audio.

Es un estándar porque 8 bits es un byte y esa suele ser la unidad más pequeña de almacenamiento de datos digitales. Como recuerdo, los teléfonos celulares usaron un algoritmo de ley de μ de 8 bits para obtener una mejor calidad de 8 bits al enfatizar los bits menos significativos (por lo tanto, proporcionalmente menos ruido de muestreo en sonidos más silenciosos). Cuando la memoria y el poder de la computadora se volvieron más baratos, las aplicaciones pasaron a usar más bits para una mejor precisión. Los CD de audio utilizados, creo, 13 bits y el audio digital (archivos WAV) suelen utilizar estéreo de 16 bits (es decir, 32 bits por muestra).