¿Por qué los sensores CCD todavía se usan en astrofotografía?

Hay algunas razones aquí, dependiendo de lo que estás preguntando.

Para comprender las razones generales, es útil comprender exactamente lo que hace un sensor de imagen digital. En un nivel fundamental, son contadores de fotones. Cuando un sensor detecta un fotón de luz, aumenta la carga un minuto. La cantidad total de carga determina la intensidad de la señal, que es una medida del brillo de la fuente. Un sensor de imagen en cualquier cámara será una cuadrícula de sensores individuales llamados píxeles. Cada sensor de píxeles cuenta la cantidad de luz que golpea ESE píxel.

Cuando se completa la exposición, el nivel de carga de cada píxel se lee y se escribe en el archivo de imagen.

Participa en este proceso una medida conocida como Eficiencia Cuántica, o Qe. Qe mide qué tan eficientemente el sensor de imagen registra fotones. En pocas palabras, ningún sensor de imagen es perfecto, por lo que ningún sensor tiene una Qe del 100%. Se pierden algunos fotones aquí y allá. Los porcentajes varían según la calidad y la sensibilidad del sensor, y también varían de longitud de onda a longitud de onda de luz. Cuando encuentra cifras de Qe, normalmente las encuentra informando el pico de Qe, o el nivel más alto de Qe (y algunas veces incluso a qué longitud de onda se produce el pico de Qe). La mayoría de los sensores de cámara DSLR son bastante pobres aquí, capturando menos del 50% de la luz que los golpea. Sin embargo, en su mayor parte esto no es un problema, ya que tienen una enorme cantidad de luz para trabajar, ya sea a través de la luz solar, la iluminación de la habitación o la iluminación con flash de fotografía. Esto solo sería un problema para un disparo DSLR en condiciones de muy poca luz, como la astrofotografía. Una unidad CCD o CMOS para astrofotografía o imágenes científicas será mucho más sensible. Mientras que algunos tienen un Qe pico por debajo del 50%, la gran mayoría se encuentra en los años 50 y 60 superiores o más. He visto algunos en el rango medio a superior del 90%. Cuanto mejor es el Qe, más luz se acumula (bueno, contada). Si tiene un sensor que tiene un pico de Qe alrededor del 30% y uno alrededor del 60%, pero todos los demás factores son iguales, el sensor más sensible puede recoger la misma cantidad de luz en la mitad del tiempo. Para los astrofotógrafos que ya están haciendo exposiciones largas, este es un beneficio significativo.

Ahora, cuando se trata de por qué los CCD todavía se usan …

Si te refieres a una DSLR, bueno, la sensibilidad es una gran parte de ella. Además, el ruido.

Una vez más, una cámara réflex digital u otra cámara estándar está diseñada para situaciones bien iluminadas. Sin embargo, el ruido de la señal es un problema importante para la astronomía. El ruido de la señal parece estático o borroso en la imagen. Esto es causado por la carga de un píxel que se ve afectado por la energía externa, con mayor frecuencia el calor. Cuanto más cálido es un sensor de imagen, más ruido generará. La mayoría de las cámaras para imágenes astronómicas utilizan algún método para enfriar el sensor de imagen. En las cámaras de gama baja, esto podría ser solo un disipador de calor, en otras puede haber un ventilador para alejar el calor, y en otras se utiliza un componente conocido como dispositivo de enfriamiento termoeléctrico Peletier. Muchas cámaras usan más de una y las buenas usan las tres. Juntos, estos pueden reducir la temperatura del sensor de imagen en 20, 30 o más grados (centígrados). Esto puede reducir drásticamente el ruido. Además, la mayoría de las réflex digitales tienen un procesamiento y amplificación de señal a bordo que introduce ruido donde una cámara astronómica no lo hace.

Como alguien más dijo, los sensores CMOS son inherentemente más ruidosos que los sensores CCD debido a la cantidad de electrónica utilizada. A medida que avanza la tecnología, la brecha está disminuyendo, pero este sigue siendo el caso en este momento. Los sensores CMOS, sin embargo, son más baratos y fáciles de fabricar. Esto ha llevado a mucha motivación para mejorar su diseño para reducir el ruido.

Por último, si está preguntando por qué un CCD MONOCROMO versus color, la razón es, nuevamente, la sensibilidad.

Para producir color con un CCD monocromo, debe capturar imágenes a través de filtros. Un filtro restringe la cantidad de luz que llega al sensor y solo permite la luz que está filtrando. Por ejemplo, si está utilizando un filtro rojo, solo permitirá la luz en un rango de longitudes de onda asociadas con el color rojo. Por lo general, este es un rango bastante amplio de longitudes de onda (aunque no conozco el rango preciso). Una gran cantidad de astrofotografía se realiza a través de lo que llamamos filtros de banda estrecha. Estos son filtros que permiten un rango muy pequeño de frecuencias de luz. Por ejemplo, puede obtener un filtro conocido como Hydrogen Alpha o H-alpha). Esto permite que solo pase la luz alrededor de la longitud de onda de 656.28 nanómetros. Dependiendo de la calidad del filtro, puede permitir la luz con una longitud de onda de unos pocos nm por encima o por debajo de 656.28, pero no permite que la luz entre significativamente diferente. Cuando usa un filtro de banda estrecha, puede saber qué elementos hicieron la luz que está capturando; en este caso, se produce cuando el electrón en un átomo de hidrógeno cae de su segundo estado de energía más alto a su tercer más alto. Cuando eso sucede, se emite un solo fotón a 656,28 nm. Independientemente del tipo de filtro que use, restringe todo menos la luz por la que desea pasar. Las imágenes tomadas a través de múltiples filtros se pueden combinar en software para producir una imagen final.

Muchos astrofotógrafos hacen lo que se conoce como procesamiento LRGB. En este proceso, captura una imagen con la mejor resolución (detalle) sin filtro. Por ejemplo, a menudo intentaré hacer una exposición de 5 minutos de esta manera. Si tuviera que procesar esto solo, obtengo una bonita imagen en escala de grises que me muestra todos los detalles, pero sin color. Cada píxel se define simplemente como el valor de brillo para esa parte de la imagen. Luego, capturaría imágenes separadas a través de filtros rojo, verde y azul. Estos obtendrían una resolución más baja, a menudo 1/2 o 1/3 de la resolución. Si hago esto, básicamente trato los grupos de 2 × 2 o 3 × 3 píxeles como píxeles individuales, por lo que puedo capturar más luz (4 o 9 veces más) durante el mismo tiempo de exposición dado, pero con menos detalles. Cuando los leo en el software de procesamiento, se ven como imágenes en escala de grises, pero la luz registrada es solo roja, verde o azul, dependiendo del filtro que use. Asigno un color a cada uno y luego los combino para crear una imagen en color con mucho menos detalle que la imagen de luminancia. Luego superpongo esta imagen, redimensioné para que coincida con la capa de luminancia, y le digo a la computadora que use la capa de luminancia para proporcionar valores de brillo y la imagen de color para proporcionar valores de color. De esta manera, estoy coloreando el marco de luminancia, lo que me da una imagen más detallada. Dado que los marcos de color no necesitan tantos detalles o exposición, puedo enfocar el proceso de captura en la imagen de luminancia y obtener una imagen más clara en general. También me da un mejor control sobre el equilibrio de color.

Para producir una imagen en color en una cámara réflex digital o lo que todos somos una cámara de un solo color (OSC), la cámara en sí tiene los filtros. Una cámara a color tendrá una cuadrícula de filtros montados directamente sobre el chip de imagen llamado matriz de Bayer. Por lo general, la cuadrícula separará el sensor en paquetes de 2 × 2 píxeles, con un píxel en cada cuatro rojo, uno azul y dos verdes. Dependiendo de la cámara, generalmente promedian los valores verdes o usan otra técnica para equilibrarlos. Cuando los valores de la señal se leen desde el sensor, el firmware de la cámara sabe qué píxeles son de qué color y los guarda en el archivo de imagen con esos datos. Pero esto significa que CADA píxel en la cámara se filtra, lo que significa que no se obtiene tanta luz en general con el sensor. Por lo tanto, debe aumentar la duración de la exposición para obtener el mismo nivel de datos, y no tiene un producto final tan bueno en general. Por supuesto, en manos de un buen astrofotógrafo, aún se pueden crear imágenes excelentes, pero una cámara mono puede producir mejores imágenes en general.

Entonces, ya sea procesamiento de color, ruido o sensibilidad, los CCD todavía tienen un buen lugar en Astrofotografía.

Las señales en astronomía son a menudo muy bajas, y los tiempos de exposición son largos, por lo que una lectura más rápida es una prioridad más baja. Los dispositivos CMOS tienen más componentes electrónicos por píxel, por lo que introducen más ruido. La fotografía de consumo requiere una lectura rápida a altos niveles de luz y un mayor ruido es aceptable. Al seleccionar un detector para un instrumento, anote docenas de parámetros del detector y elija el detector que mejor se adapte a sus necesidades. Generalmente, pero no siempre, los detectores CMOS han perdido. No me sorprendería si eso cambiara en el futuro.

Seleccionar un detector para un instrumento en un telescopio grande es un proceso muy difícil. Puede ser un proceso de muchos meses o incluso muchos años. El detector y el controlador del detector se evalúan por separado y como un par. Necesita un detector con buen rendimiento cuántico, ruido de lectura muy bajo, junto con lectura rápida y respuesta de longitud de onda amplia. Debe hacer coincidir el tamaño de píxel con la resolución del telescopio.

Tienes que considerar las compensaciones; por ejemplo, cuanto más rápido lea el detector, más ruido de lectura tendrá que manejar. Debe considerar si el detector debe usarse en el IR cercano o en el UV cercano. (Los detectores especiales [“matrices IR”] se utilizan para detectores IR puros). Usted hace preguntas como “¿Puede vivir con un detector con una mayor eficiencia cuántica general pero con una respuesta roja deficiente?”

Las características especializadas y los chips personalizados también son una consideración. Por ejemplo, algunos CCD pueden cambiar la carga hacia adelante y hacia atrás y hacia arriba y hacia abajo para ayudar a estabilizar las imágenes.

Los sensores CCD todavía se utilizan en la fotografía astronómica, ya que estos sensores de dispositivos acoplados cargados son excelentes para obtener imágenes de alta calidad con un nivel de detalle mínimo. Cada celda de píxeles de los sensores CCD actúa como un dispositivo analógico para convertir electrones en una señal de voltaje. Además, los sensores CCD son menos ruidosos en comparación con los sensores CMOS y la uniformidad de salida también es muy alta para producir imágenes de alta calidad.

Referencia:

¿Qué es una cámara CMOS? – Tecnologías de visión emergente