Corríjame si me equivoco, pero mi comprensión limitada de los sensores de imagen CCD y CMOS es que todos son monocromáticos en su nivel más básico. El color se produce mediante el uso de filtros de color para producir señales separadas de rojo, verde y azul. Dependiendo del sensor, a menudo también se eliminan los rayos UV e IR. Usar cualquier filtro óptico es esencialmente eliminar la luz no deseada. Con menos luz para trabajar, cualquier ruido tendría un efecto aparente mayor. Este es un ejemplo de SNR aparente o relación señal / ruido. La palabra aparente se usa como si es color o monocromo, el ruido sigue ahí. Cuando el ruido se compara con la intensidad combinada de la luz de todos los espectros en un sensor monocromo, parece menos.
Muchos de estos filtros están integrados ópticamente en el sensor y también “reducen su resolución espacial en un tercio”. Se debate ya que, espacialmente, cada píxel RGB requiere un promedio de elementos de 3 o 6 píxeles para obtener un píxel RGB. La densidad de píxeles está aumentando rápidamente, por lo que este es un debate menor. Además, algunos píxeles pueden informarse directamente como solo rojo, verde o azul y, por lo tanto, conservan la resolución espacial. Estoy seguro de que se hace mucho en la magia del postprocesamiento.
Las aplicaciones de alta sensibilidad a menudo optan por sensores monocromos y sacrifican el color.
- Dada la disponibilidad de sensores y rastreadores de automóviles, ¿por qué los semáforos todavía mantienen los automóviles en rojo para dar tiempo a los carriles vacíos?
- ¿Cómo usar el sensor acelerómetro como sensor de vibración? Y cómo convertir la rabia de salida de v / g a Hz
- ¿Hay algún dispositivo o sensor que pueda detectar agua subterránea?
- ¿Cuáles son los sensores utilizados en nuestro teléfono inteligente? ¿Cómo trabajan?
- ¿Cuál es la mejor manera de detectar electrónicamente las posiciones relativas de dos micro UAV (quadrotors) que vuelan en un espacio ópticamente abarrotado si el dinero / tiempo / ingeniería no es un problema?