¿Cómo lee y limpia la cámara la imagen en el sensor?

Es complicado. Recién estoy comenzando a sondear la complejidad del procesamiento del sensor de imagen.

Si bien su concepto es simple, los sensores de imagen son cosas bastante sorprendentes: una matriz de píxeles, cada uno puede tener solo 1 µm x 1 µm (aunque más grande es mejor), hay millones de ellos (por ejemplo, un sensor de imagen de sensor / píxel 4096 x 3072 tiene 12 megapíxeles), y de alguna manera podemos medir la cantidad de luz que ingresa a cada píxel, y enviar esa información para cada píxel varias decenas, o incluso varios cientos o varios miles (para cámaras ‘de cámara lenta’ de alta velocidad) veces por segundo . Las tasas de datos son aterradoras enormes.

Primero, el sensor de imagen tiene uno o más ADC, convertidores analógicos a digitales, que toma la carga fotónica acumulada en cada píxel durante el período de exposición y la convierte en un número entre 0 (negro, sin luz) a Máximo (una cantidad de luz por encima de la cual el sensor no puede medir), por ejemplo, digamos que el ADC está emitiendo 8 bits de datos para cada píxel, por lo que son números entre 0 y 255. El ADC lee cada píxel en secuencia, enviando la lectura a un (típicamente) alto- velocidad de conexión de datos en serie.

Cuanto mayor sea la resolución y mayor sea la velocidad máxima de fotogramas del sensor, es más probable que los diseñadores dividan la matriz 2D de píxeles en varias áreas y dediquen múltiples ADC a manejar cada área, con cada envío de ADC. sus resultados en una conexión en serie de alta velocidad: divide y vencerás, básicamente.

Entonces, ¿qué haces con todos esos múltiples flujos de datos seriales de alta velocidad que salen del sensor? Depende de cuánto dinero tenga y cuántas cámaras pretenda fabricar. Si no es una empresa multinacional que vende millones de cámaras por año que puede permitirse diseñar sus propios chips de silicio para hacer exactamente lo que necesita, entonces otro enfoque común es utilizar un FPGA, que, a diferencia de los microprocesadores típicos, es ideal para hacerlo múltiples cosas simultáneamente, como recibir todas esas conexiones en serie de alta velocidad y volver a ensamblarlas en un mapa coherente de datos 2D reconocible de píxeles. Voila: ¡ahora tienes los datos del sensor de imagen convertidos en una imagen visualizable por humanos!

Pero en esta etapa, probablemente te decepcionarán tus resultados iniciales:

¡Tu Taj Mahal podría parecerse más a un elaborado mosaico de baño!

Esto es “ruido”, puede provenir de una variedad de fuentes, desde una distribución desigual de los fotones recibidos en cada píxel (distribución de Poisson), ruido eléctrico en el amplificador o ADC, que también puede exacerbarse al aumentar el amplificador para lograr configuraciones ISO más altas e incluso píxeles adyacentes que influyen en el píxel que se está leyendo (convertido por ADC). Algunos de estos pueden corregirse matemáticamente, algunos mediante diferentes técnicas de construcción del sensor (por ejemplo, iluminación posterior), pero en última instancia, a menudo conduce a una compensación de reducción de ruido frente a la posibilidad de filtrar detalles legítimos de la imagen.

Si coloca la tapa del objetivo y toma una fotografía, particularmente con un tiempo de exposición prolongado, y espera ver una imagen completamente negra, es posible que vea:

¡No es exactamente un marco negro!

Entonces, otra técnica es, durante el proceso de calibración de fábrica, tomar varias imágenes en un rango de tiempos de exposición, almacenarlas en la memoria permanente de la cámara y luego restar una de ellas que corresponda más al tiempo de exposición del sujeto real recién capturado . O algunas cámaras tienen una función, “Reducción de ruido de larga duración” donde primero tomarán la foto, y luego la seguirán tomando una segunda foto con el obturador cerrado por la misma cantidad de tiempo, y luego restarán ese fotograma oscuro de la primera tiro real Esto aumenta significativamente el contraste y reduce la granulación y las manchas de color, y puede ser bastante útil para la astrofotografía. Sin embargo, otros sensores de imagen tienen varias columnas reservadas en el borde más alejado del sensor (que no forma parte de la imagen visible prevista) que son “negras ópticas” (la parte superior de cada píxel está bloqueada a la luz entrante), y algunas que son “eléctricas” negro “, donde la entrada analógica al ADC se mantiene a un potencial de tierra de 0 voltios, de modo que el ruido generado por el resto de los circuitos amplificados y ADC se puede medir y restar de la imagen.

Pero no se detiene allí, hay muchos más problemas para corregir. El diseño de matriz 2D de los sensores de imagen significa que puede obtener artefactos visibles correlacionados con filas o columnas, porque los datos se leen de hecho al habilitar una fila (o parte de una fila) y leer los valores de píxeles para cada fila; pero eso puede afectar una fila adyacente. O columnas.

También puede haber falta de uniformidad de la sensibilidad de píxeles a través del sensor; quizás un poco más sensible en el lado izquierdo, un poco menos en el derecho. Entonces, toma un cuadro de ‘campo plano’, un sujeto que está iluminado de manera uniforme (durante la calibración de fábrica), y resuelve la diferencia matemática entre el más claro y el más oscuro en toda la imagen, y compensa eso contra el disparo real, por píxel.

Píxeles muertos Es una realidad de la fabricación de semiconductores. Cuanto menos pague por un sensor, más probabilidades tendrá de tenerlo; o en otras palabras, cuanto más pagas por el sensor / cámara, más dispuesto está el fabricante a darte ese 1 sensor de la oblea que contiene docenas, que por suerte, no tiene absolutamente ninguna falla; El llamado modelo de lujo en la gama de productos.

Todavía hay más problemas, con las soluciones correspondientes:

  • Distorsión de la lente.
  • Viñeteado óptico.
  • Viñeteado de píxeles.
  • Abberación cromática.
  • Balance de blancos.
  • Diversas técnicas de debayering / demosaicing (para sensores de color).
  • Conversión de espacio de color.
  • Corrección gamma.
  • Submuestreo de croma.
  • Compresión.

En realidad, es alucinante cuánto se gasta en las cámaras modernas y, en realidad, cuánto damos por sentado en el rendimiento a menudo superior de nuestros propios ojos humanos.

El sensor de imagen de la cámara consta de una matriz de píxeles. Cada píxel convierte la luz a su voltaje de píxel. El proceso de toma de fotografías comienza con un reinicio de todos los píxeles en el sensor de imagen. Esto establece el voltaje dentro de cada píxel en un valor predefinido para todos los píxeles. Tan pronto como se suelta el reinicio, comienza la exposición de la imagen, lo que hace que el voltaje en los píxeles baje. Mientras más luz brille en el píxel, más rápido baja su voltaje. La exposición se realiza cuando se mide el voltaje de píxeles. La reducción del voltaje del píxel es proporcional tanto a la intensidad de la luz en el píxel, que corresponde a la escena fotografiada, como al tiempo de exposición. Cuanto más tiempo transcurra entre el restablecimiento de píxeles y la medición del voltaje de píxeles, mayor será el tiempo de exposición. Cuando se lee el voltaje del píxel para cada píxel en el sensor de imagen, la matriz de píxeles está lista para reiniciarse y puede comenzar la siguiente exposición, se puede tomar la siguiente imagen.