¿Hay cámaras disponibles que utilicen más de tres sensores de color?

No hay muchas cámaras hechas hoy que hagan esto de forma inmediata. Pero creo que es más interesante discutir los detalles del color en los sistemas, porque incluso entender cómo se relaciona el RGB con la gama de visión típica del color humano es bastante interesante. ¿Tenemos incluso un uso para más colores?

Espacios de color

La visión del color humano se ha estudiado formalmente durante mucho, mucho tiempo. Hay alrededor de 120 millones de células de barra, sensibles solo a la luminancia, y 6 millones de células de cono, que responden al color con respuesta a las frecuencias máximas en corto (420 nm – 440 nm), medio (530 nm – 540 nm) y largo (560 nm – 580 nm) longitudes de onda de luz: azul, verde, rojo. Esas longitudes de onda específicas definen la amplitud de la visión del color humano. Aquí hay un gráfico de ese gráfico (representativo: probablemente no pueda ver la cosa real en su pantalla, aunque mi visualización de puntos cuánticos aquí probablemente se acerca mucho).

Este gráfico en realidad tiene un nombre: el espacio de color CIE 1931. Esto fue creado como un modelo estándar de visión del color humano. Ahora, es importante tener una idea sobre qué es realmente un espacio de color . Puedes decir “RGB” … pero no estás siendo muy descriptivo. ¿Qué rojo, verde y azul estás usando exactamente? ¿Cómo define con precisión el blanco neutro? ¿O incluso está utilizando RGB, en lugar de alguna otra forma de codificar el color? La mayoría de los espacios de color construidos artificialmente aparecerán como un triángulo apropiado, ya que son básicamente construcciones matemáticas en lugar de sistemas sensoriales biológicos peculiares.

Aquí está el espacio de color REC709 (también conocido como ITU-R BT.709) que se muestra en negro sobre el espacio de color CIE 1931. Esto se usa para HDTV y otros sistemas digitales (D65 representa el punto blanco). La codificación real no es RGB en absoluto, sino YCbCr, la gama es pequeña (cubre solo el 35.9% de CIE 1931), y algo de eso es intencional. Esto se define para el color de 8 bits y 10 bits, lo que significa que cada componente puede tener 8 o 10 bits. Pero según algunos traspasos históricos del color analógico, el componente Y solo puede ejecutarse desde 16..235, y los componentes Cb / Cr se ejecutan cada uno desde 16..240. Restringir el rango de la gama conduce a un menor problema con las bandas de color: los colores adyacentes están más cercanos entre sí que si la gama hubiera sido más grande. Cambiar las coordenadas de color base en el gráfico controla la gama: el rango completo del espacio de color. Aumentar la profundidad de bits utilizada aumenta la resolución de los colores, la suavidad de un degradado, pero no afecta la extensión de la gama.

La mayoría de los monitores de computadora y cámaras digitales usan el espacio de color sRGB, que es similar al espacio de color REC709. Ambos espacios de color utilizan una función gamma complicada en lugar del valor fijo habitual para un espacio de color.

Y ruedas de colores

Entonces, ahora que sabemos qué color tiene un sistema digital, veamos la pregunta exacta, al revés. Ha habido una serie de sistemas de visualización que utilizan más de tres colores de píxeles. Algunas pantallas LCD incluyen un amarillo además del RGB. La mayoría de la última generación de televisores DLP domésticos, por ejemplo, usaba un sistema aparentemente primitivo para generar color: una rueda de colores. Las micropantallas DLP usan millones de espejos para dirigir o bloquear la luz, y pueden cambiar decenas de miles de veces por segundo o más.

La rueda multicolor tiene algún sentido dado que la conversión de YPbPr a RGB solo puede redondearse como errores de color, y también, los colores primarios muy bien definidos pueden verse diferentes para diferentes personas según los detalles de sus ojos. Agregar primarios adicionales aquí refuerza los mismos colores con diferentes filtros (por ejemplo, cian + verde = azul, etc.), haciéndolos más consistentes. Este tipo de TV es una especie de artefacto del pasado: DLP todavía se usa en proyectores de cine, pero un chip para cada color RGB en la mayoría de los casos.

Pero mucho antes de esto, hubo un proceso de película llamado Technicolor, presentado en la década de 1930. Específicamente, el Proceso Cuatro de Technicolor, o el proceso de tres tiras, usaba una cámara personalizada con un prisma diacróico que dividía la luz entrante de tres maneras, en tres rollos independientes de película en blanco y negro. Utilizaron un proceso de tinte para crear vívidas películas de tres colores para su proyección en equipos de cine normales. Más tarde, esta misma idea básica de prisma se utilizó para videocámaras de gama alta. Al igual que las primeras películas, los sensores de silicio no tienen sentido (sic) de color, sino lo que se filtra. Entonces, en un sentido real, cualquiera de este tipo de cámaras podría haberse utilizado con bases de color adicionales o diferentes.

En 1986 NewTek, Inc. introdujo una cosa llamada DigiView para la computadora personal Amiga 1o00. Puede conectar una señal de video NTSC normal a su A1000 y digitalizar una sola imagen en blanco y negro. Sin embargo, Newtek proporcionó una rueda de color, solo RGBW (W = “blanco” o transparente). Y la digitalización tuvo lugar a través del puerto paralelo. Bien ubicado para muchos trípodes. Dentro de los límites de una típica cámara en blanco y negro, esto podría usarse con diferentes bases de color, aunque lo más probable es que necesite algún software personalizado.

Y lo mismo es cierto para cualquier cámara en blanco y negro: la mayoría de las cámaras digitales se pueden convertir en cámaras en blanco y negro quitando el filtro Bayer sobre el sensor. No es fácil. Así que solo compra uno.

Nuevos colores … desde el espacio?

A medida que avanzaba la fotografía digital, la gente llegó al límite del espacio de color sRGB. Entonces se crearon varios nuevos.

El espacio de color Adobe RGB (1998) cubre el 52.1% de CIE 1931, una mejora considerable sobre sRGB. Es una anomalía curiosa que el espacio de color Adobe RGB haya sido creado accidentalmente. Adobe había agregado lo que pensaban que era un espacio de color estándar de gama más amplia en algunas versiones de Photoshop, pero se equivocaron. Es bastante común encontrar Adobe RGB como una opción en las cámaras en estos días. Eso funciona porque internamente, las cámaras de gama alta ya están usando una gama más amplia, junto con píxeles de mayor resolución de los que necesitarías para JPEG. JPEG estándar utiliza codificación YPgPr similar a la de los estándares de televisión, con color de 8 bits. Pero una buena réflex digital está muestreando cada píxel de 14 bits.

Otro espacio de color RGB es el espacio de color ProPhoto RGB. Eso en realidad cubre la mayor parte del espacio de color CIE 1931, pero además, incluye colores “artificiales” que los humanos no podemos ver correctamente, si fueran visualizables. Tanto esto como el espacio de color de Adobe son mejores con 16 bits que con 8 bits. Pero mi interés es señalar aquí que es posible codificar cualquier cosa que podamos ver en RGB, si elegimos el RGB correcto.

Sensores no RGB, ¿alguien?

Ha habido algunas cámaras hechas con matrices Bayer no RGB. De hecho, poseía uno de estos, y probablemente todavía lo tengo en alguna parte, la Canon Powershot Pro90IS.

Esta cámara utiliza un sensor de 3 Mpixel (2.6 Mpixel efectivo) con un filtro tipo Bayer, como la mayoría de las cámaras digitales. Pero en lugar de usar RGB, está usando un filtro CYGM (cian, amarillo, verde, magenta).

La ventaja de este tipo de sensor es una mejor precisión y sensibilidad de luminancia, un mejor rango dinámico, pero menos precisión de color. Para hacer un filtro para un píxel rojo, digamos que está creando un filtro que es una pila de dos filtros, uno para bloquear el azul y otro para bloquear el verde. Entonces, solo 1/3 de la luz que atraviesa esa fotosita pasa. Para un filtro CYGM, cada filtro está bloqueando su color: el C bloquea el cian, el Y bloquea el amarillo, etc. Así que 2/3 de la luz llega a cada sensor. La matemática necesaria para obtener su RGB es, por supuesto, un poco más compleja, pero bastante fácil de imaginar. Estos se han utilizado en varias cámaras, pero han caído en desgracia en los tiempos actuales.

Pero sobre esos colores que no podemos ver …

No hay mucho sentido en la grabación de “color” que no podemos ver como color que no podemos ver. Pero los astrónomos lo hacen todo el tiempo, solo registran colores que no podemos ver y usan un software de computadora genial para crear imágenes de colores falsos.

Para meterse con las cosas usted mismo, el enfoque habitual es eliminar el filtro IR en una cámara digital de su elección (Cómo convertir su DSLR en una ‘súper cámara’ de espectro completo | ExtremeTech). A partir de aquí, todo lo que hace es agregar IR a su matriz de color existente, lo que puede no ser tan interesante. Y, por supuesto, tendrá un alias de color: algunos IR se filtrarán a los canales R, G y / o B, dependiendo de cuál sea el rendimiento fuera de banda de cada uno de los filtros Bayer (p. Ej. , estos no están diseñados para bloquear IR, por lo que lo que bloquean / pasan no es necesariamente predecible).

El siguiente paso sería eliminar la propia matriz de Bayer. Esto puede resultar difícil, pero también se puede hacer. Por supuesto, estas modificaciones van solo en un sentido, así que no en la buena cámara de papá, ¿eh? Una vez que se quita el filtro Bayer, tiene una cámara monocroma.

Ok, tal vez no la Leica Monochom (que es una cámara de $ 7,500 que solo dispara en monocromo), sino una que básicamente hace lo mismo. Puede crear o perder el tiempo con los filtros para decidir qué se obtiene para una toma determinada … incluso jugar con múltiples bases de colores, etc. Solo comprenda que las cosas que desea lograr pueden no ser prácticas sin un software personalizado.

Una cosa que cada uno hace es disparar a través de los filtros R, G y B, luego aplicarlos a los canales de imagen R, G y B en Photoshop … un poco como el modo “Contrata” en mi Olympus OM-D E-M5II. Sin desbarbar, pero no es útil para tomas de movimiento rápido … especialmente si está cambiando los filtros en una cámara modificada. Y, por supuesto, podría usar cualquiera de los tres filtros, incluidos los que bloquean toda la luz visible, y asignar esas imágenes monocromáticas resultantes a uno de los canales de color RGB estándar.

Hay limites. El vidrio normal es opaco a la luz ultravioleta de longitud de onda más corta. Tendría que ir a una lente UV muy costosa o a un agujero de tapa de lente para ver mucho en el espectro UV.

Lo anterior es el espectro de luz invisible y visible, que muestra la sensibilidad relativa del ojo humano. Los picos ilustran los picos de sensibilidad de los receptores de cono B, G y R. El típico fotodiodo de silicio utilizado en una cámara tiene buena sensibilidad desde longitudes de onda de 400 nm hasta 1100 nm, más o menos. Por supuesto, es posible construir un sensor que responda sobre otras bandas, o incluso que esté muy centrado en una sub-banda específica, pero esto es lo que encontrará en casi todas las cámaras, excepto para fines especiales. Entonces, hay una buena sensibilidad en el IR cercano (es más barato filtrar ese IR que construir un sensor que lo rechace), pero está perdiendo sensibilidad rápidamente cuando entra en las bandas UV.

Sí, más o menos … Si me permite ser ingeniero por un segundo …

La mayoría de las cámaras en el mercado hoy en día no usan “sensores de tres colores”. Usan un solo “sensor de tres colores”. Es un sensor único que recolecta fotones, y hay un filtro de patrón Bayer en frente del sensor que solo permite que bandas específicas de luz pasen a cada sitio del sensor. Un patrón de Bayer se ve así:

Los sensores CMOS y CCD utilizados en las cámaras digitales son sensibles a las frecuencias superiores a la visión humana, lo que se denomina luz ultravioleta (UV). Convierten los rayos UV, junto con el espectro visible, en una señal eléctrica.

Debido a que los sensores CCD / CMOS también detectan la luz UV, y los filtros Bayer no son perfectos, las lentes generalmente tienen un filtro que bloquea la luz UV. Si estas frecuencias pasan al sensor, se convierten en luz visible, porque el sensor no sabe qué frecuencia de luz está recibiendo, solo la cantidad. Como los humanos no ven los rayos UV, la luz ultravioleta que incide en el sensor causa distorsión del color (aumento de la intensidad azul y verde)

A la gente no le gusta el aspecto de las fotos con colores distorsionados, por lo que la mayoría de las cámaras tienen un filtro UV. Sin embargo, las cámaras baratas, como algunas cámaras web, no tienen filtros UV para reducir los costos.

Entonces, ¿cómo puede saber si una cámara tiene un filtro UV y cómo puede usarlo para ver cosas que los humanos normalmente no ven?

Apunte a un control remoto universal. La mayoría de los controles remotos usan luz UV para transmitir información. Los humanos normalmente no pueden verlo, pero al usar la cámara con un filtro UV para traducir la luz UV al espectro visible, verás algo como esto:

Entonces, aparte de ver los códigos de control remoto, ¿qué más puedes ver que los humanos normalmente no pueden ver? La mayoría de las veces, la luz UV en las fotografías se ve mal para los humanos, pero hay algunas cosas en la naturaleza que tienen patrones UV que los humanos nunca verían de otra manera. Tenga en cuenta que estas imágenes han combinado la luz visible y la luz UV, pero para hacer esto con una cámara digital con el filtro UV eliminado, necesitará un filtro de luz visible y control sobre el tiempo de exposición. También necesitará una fuente de luz ultravioleta fuerte, pero afortunadamente tenemos nuestro sol.

Visible – Combinado – UV (las abejas ver UV por cierto)

En resumen … Sí. Tengo un ejemplo en el primer párrafo. Sin embargo, si desea hacer algo con la cámara, ese ejemplo no es una respuesta útil ya que no tiene ninguna aplicación en la lista. Cámaras como estas no son útiles para crear imágenes bonitas consumibles humanamente; sin embargo, son excepcionalmente útiles cuando los datos se procesan correctamente para determinar lo que esté buscando.

Ejemplo: esta cámara tiene 16 colores que van desde la luz de 450 nm hasta la luz de 950 nm (VIS-NIR): cámara de imágenes espectrales de video de movimiento completo SOC716.

Si desea encontrar otras cámaras de uso general: investigue las cámaras que están diseñadas para el procesamiento multiespectral o hiperespectral. Sin embargo, este no es realmente un buen uso de su tiempo … porque … hay mucha información disponible en varias longitudes de onda de luz que no podemos “ver” y procesar con el ojo humano, sino un análisis y extracción por computadora datos de. Realmente necesita tener una mejor idea de para qué desea utilizar la cámara que simplemente “imágenes de máquina”. Un sensor óptico para verificar si todo el pelado de las papas tendrá diferentes longitudes de onda óptimas que la detección de la salud del cultivo de las condiciones de sequía para el maíz. Le sorprendería la especificidad de las cámaras diseñadas para diversas aplicaciones de procesamiento de máquinas. Tampoco puede explotar adecuadamente una cámara de uso general si no sabe lo que quiere hacer con ella.

Además, solo como un consejo si este es el tipo de respuesta que estaba buscando. Cuando investigue estas cosas, piense en el color como una longitud de onda de luz que se puede separar, no azul o verde como lo vemos. Ejemplos: un láser tricolor escupe rayos láser a 3 longitudes de onda distintas que pueden corresponder o no a un color en el espectro visible. Una cámara de doble color puede detectar MWIR y LWIR que no son visibles o puede detectar dos longitudes de onda de lo que sea.

Tienes razón en que la motivación es reproducir imágenes para el ojo humano, pero incluso eso podría usar algunos componentes más.

Echa un vistazo a esta imagen (de http://en.wikipedia.org/wiki/RGB

El triángulo representa los colores que puede mostrar el modelo RGB. El área gris más grande representa el rango de colores que puede ver el ojo humano.

Claramente hay margen de mejora. ¿Por qué no se hace? No lo se exactamente. Sony tiene una cámara que usa una matriz de sensores RGBE que usa un color “esmeralda” adicional. Realmente no sé cómo resultó, pero como solo ha habido una de esas cámaras, supongo que no es lo suficientemente buena.

Gracias por el A2A.

Solía ​​haber sensores con matrices de filtros de color no RGB (aquí hay un ejemplo: Sony Cybershot DSC-F828 Review), pero han caído en desgracia desde hace mucho tiempo ya que ~ 99.9999% de los usuarios no notaron / apreciaron la diferencia y cuándo está creando un dispositivo de consumo comercial, desea algo que se dirija al menos al 1% de su base de clientes potenciales.

Mencionaste

Algunas personas nacen con conos de cuatro colores y pueden ver muchos más colores que la persona promedio. Si esta mutación se propaga, las generaciones futuras querrían la información de color adicional, para que puedan ver nuestro mundo tal como era.

¿Por qué se propagaría esta mutación? No soy un experto en evolución, pero afaik no es una ventaja de selección para poder ver más colores (es decir, tenerlo no mejora sus posibilidades de tener más hijos que también heredarán el gen), por lo que hay pocas posibilidades de que aumentará en la población. Como tal, no hay razón para hacer una cámara para un cliente que no existe ahora (en cantidades razonables) y que probablemente nunca existirá. A pesar de que…

Por que el camarón mantis es mi nuevo animal favorito: la avena

Dicho esto, las cámaras de investigación científica a menudo registran datos en más de tres filtros de color porque, como dice su robot (es decir, dispositivos de control de computadora), pero a menudo no es necesario (¿puede darme tres situaciones en las que la misma cámara necesita ¿Ser capaz de hacerlo a través de un color fuera de la gama que RGB pueda reproducir en el uso del consumidor? Solo puedo pensar en cámaras infrarrojas y ultravioletas, pero en ese caso es mucho mejor que todo el sensor sea un filtro único (es decir, monocromático) para mejorar la sensibilidad a la luz. Cada vez que agrega un color a la matriz de filtros, creo que está disminuyendo la capacidad del sensor para registrar la luminancia. Eso es lo que los perros, gatos, ratones y conejos tienen una visión de color muy pobre, porque es más ventajoso tener una visión nocturna superior.

No hay ninguno disponible.

¿A qué uso le pondrías exactamente un sistema de sensor de cuatro colores? ¿De qué sirven los “colores” que el ojo humano no puede percibir cuando mira un objeto con un sistema computarizado? (En contraste con los sistemas que en realidad solo perciben en el espectro IR o UV, monocromáticamente).

Curiosamente, la película negativa Fujicolor introdujo una cuarta capa de emulsión sensible al cian (con las otras rojas, verdes y azules) para lograr mejores colores en todas las condiciones de iluminación, pero especialmente en la iluminación fluorescente en algún momento de la década de 1990 (ver https: // www .fujifilmusa.com / shar …). He visto algunas patentes que exploran sensibilidades similares en sensores en desarrollo pero que aún no están disponibles. No recuerdo haber visto ninguno todavía en funcionamiento.