¿Cómo tiene un ojo un rango dinámico tan grande en comparación con una cámara?

Para empezar, el ojo es una cámara muy buena. Tiene una retina que tiene un promedio de más de 1,000 mm ^ 2. Un sensor de fotograma completo de 35 mm es 864 mm ^ 2. En ese sensor, tenemos unos 6 megapíxeles dedicados a la recolección de color (conos) y 120 millones dedicados a la luminancia (barras). Tan solo 6 fotones absorbidos por las proteínas fotorreceptoras de la barra pueden disparar la barra … y tenga en cuenta que esto sucede casi de manera continua. Esto se llama fototransducción visual … es complejo, puede leer más aquí: Fototransducción visual.

En la mayoría de las cámaras, tiene una matriz de color RGB que esencialmente hace que cada sensor sea un “cono” … están cortando 2/3 de la luz visible que va a cada sensor. El sensor en sí está compuesto por una serie de fotodiodos. Un fotón que golpea un fotodiodo hará que un electrón fluya en el circuito de ese píxel. Sin embargo, también hay ruido con el que lidiar. Cada sistema eléctrico tiene un ruido térmico inherente, solo la excitación aleatoria de los electrones debido al calor a temperatura ambiente. Y cada sistema eléctrico real también tiene algo de ruido inherente de su propia operación. Y los fotodiodos tienen una “corriente oscura” … algo de corriente pequeña fluye incluso cuando no hay luz (curiosamente, el ojo también tiene una especie de corriente oscura, el estado en el que estará un fotorreceptor sin luz no está estrictamente “apagado” ) Por lo tanto, la cámara generalmente toma una imagen “oscura”, luego la imagen real que se toma de manera cuantificada: una toma a 1/125 segundos o lo que sea. La imagen oscura se usa para poner a cero la corriente de cada fotodiodo. Obviamente, necesita suficiente corriente de los fotones para exceder el ruido aleatorio en el sistema para obtener cualquier imagen, y aún más para sacar esa imagen del ruido.

Así que ese es el ojo para cada uno. Luego está el cerebro. El cerebro humano es computacional, para cosas como el procesamiento de imágenes, el procesamiento de velocidad, las cosas que las redes neuronales hacen muy bien y las computadoras … no tanto … nuestros cerebros son más rápidos en este tipo de cosas que la supercomputadora más rápida. Tal vez unas pocas salas llenas de unos pocos miles de procesadores que trabajen juntos coincidan con el cerebro humano en los próximos 10 años, es bastante probable. Pero eso no estará en su Nikon en el corto plazo.

Entonces, el cerebro está constantemente muestreando e integrando la salida del ojo. También está ejecutando una gran variedad de algoritmos de reconocimiento, todos simultáneamente (red neuronal = computadora paralela grande), por lo que detecta líneas horizontales y verticales, detecta movimiento, detecta caras, etc. Pero significativamente, está integrando la imagen que percibe con el tiempo, y también compara eso con sus recuerdos. Entonces, lo que ves es la salida de múltiples “fotos” combinadas, así como referencias a lo que sabes sobre lo que estás viendo.

El procesamiento de imágenes de tu cámara … bueno, si disparas en bruto, no mucho. Si está filmando en JPEG, puede hacer muchas cosas, como nitidez de bordes, reducción de ruido, cosas que puede hacer usted mismo más tarde en Photoshop si es un tirador en bruto. Pero nada como lo que hace tu cerebro. Algunas cámaras tienen un “modo nocturno” especial que fusionará varias fotos de diferentes maneras … y esos son los primeros pasos para hacer lo que hace el ojo. Mi Canon 6D tiene un modo que promediará o sumará el resultado de varias fotos. Por lo tanto, puede obtener un rango dinámico mejorado, pero también eliminar el ruido. Recuerde, el ruido en sí es aleatorio, por lo que a medida que suma diferentes muestras de la misma imagen, ese ruido comienza a desaparecer. Estadísticamente, con muchas muestras, desaparecerá por completo, pero incluso cuatro disparos ayudarán.

Además de las otras excelentes respuestas, tenga en cuenta que su DLSR probablemente esté capturando más rango dinámico de lo que normalmente está viendo. Las imágenes JPEG están limitadas a 8 bits de color para cada uno de los tres canales de color (rojo, verde y azul); sin embargo, los sensores de la cámara generalmente capturan 12, 14 o incluso 16 bits por canal, y muchos (especialmente DLSR) pueden generar esos datos, sin procesar, como un archivo RAW. Además del detalle de color más fino que esto permite, también permite que la cámara capture un rango mucho más dinámico.

Para generar un JPEG, gran parte de ese detalle simplemente es descartado por el procesador … por lo general, algunos de los primeros y últimos del rango, aunque los procesadores más avanzados pueden tomar decisiones más inteligentes.

Sin embargo, si disparas en RAW y trabajas con esos archivos RAW, puedes ver y manipular el rango dinámico completo que la cámara es capaz de hacer. Algunos softwares pueden usar un proceso conocido como HDR (High Dynamic Range), que traerá esos reflejos y áreas oscuras más dentro del rango utilizable, imitando parte del procesamiento del cerebro (como describe Michael T. Lauer) antes de emitir un JPEG.

El uso de RAW aún no está cerca de las capacidades del ojo humano, pero es una mejora definitiva en comparación con solo disparar JPEG.

Hay algunos buenos ejemplos de las diferentes profundidades de bits, RAW vs. JPEG y procesamiento HDR en este artículo: Profundidad de bits explicada en profundidad – Tuts + Photo & Video Article

Tenga en cuenta que la mayoría de las cámaras compatibles con RAW también tienen la opción de guardar archivos RAW y JPEG simultáneamente, para que pueda tener el mayor rango de RAW, así como la comodidad de JPEG, con cada disparo.

Su cerebro tiene un sistema de procesamiento de imágenes mucho mejor que su cámara. Es capaz de proporcionarle una relación aparentemente equilibrada entre la iluminación exterior y la iluminación interior a pesar de que la iluminación exterior es varias veces más brillante. La cámara camufla un solo momento en el tiempo y no conoce un área sombreada de un objeto que resulta ser más oscuro. Por lo tanto, no es que el ojo tenga un rango dinámico más amplio, sino que el procesamiento de imágenes de su cerebro sea lo suficientemente inteligente como para saber la diferencia y compensar para presentar al resto de su cerebro una imagen altamente procesada.

El rango dinámico del ojo humano depende de la distancia angular entre los objetos. Para cosas que están tan cerca que están en contacto, el rango dinámico es de 150: 1 a 200: 1. Si hay una separación angular de 4 grados, entonces es de aproximadamente 10,000: 1. Para ángulos mayores, podemos ir más alto. Una razón por la que podemos hacer esto es porque hay más de un millón de neuronas en cada ojo. Realizan muchos preprocesamientos de imagen, incluido el ajuste de contraste. Cada uno de los más de 100 millones de barras y conos está equipado con control de brillo independiente.

Además de eso, el cerebro tiene un estudio de diseño gráfico completo que repinta automáticamente cada fotograma desde cero en un estilo de arte fotorrealista.

Esto podría interesarte: nuestros ojos frente a la cámara

Nuestra sensibilidad a la luz es exponencial, la cámara es lineal. Por eso vemos mejor en la oscuridad y la cámara no.
El ojo humano funciona realmente diferente en comparación con el chip CMOS.