No hay muchas cámaras hechas hoy que hagan esto de forma inmediata. Pero creo que es más interesante discutir los detalles del color en los sistemas, porque incluso entender cómo se relaciona el RGB con la gama de visión típica del color humano es bastante interesante. ¿Tenemos incluso un uso para más colores?
Espacios de color
La visión del color humano se ha estudiado formalmente durante mucho, mucho tiempo. Hay alrededor de 120 millones de células de barra, sensibles solo a la luminancia, y 6 millones de células de cono, que responden al color con respuesta a las frecuencias máximas en corto (420 nm – 440 nm), medio (530 nm – 540 nm) y largo (560 nm – 580 nm) longitudes de onda de luz: azul, verde, rojo. Esas longitudes de onda específicas definen la amplitud de la visión del color humano. Aquí hay un gráfico de ese gráfico (representativo: probablemente no pueda ver la cosa real en su pantalla, aunque mi visualización de puntos cuánticos aquí probablemente se acerca mucho).
- ¿Dónde puedo encontrar una cámara de cine barata de 35 mm?
- ¿Cuánto más pueden mejorar las cámaras de los teléfonos inteligentes?
- ¿Cuál es la mejor cámara DSLR económica para hacer un video de canto y después de la cámara qué presupuesto debo usar para hacer un video profesional?
- ¿Cómo aprender a usar los modos Manual y AV en una cámara DSLR? ¿Cuáles son algunos consejos para recordar cómo usar cada modo?
- Fotoperiodistas con experiencia: dada la opción, ¿recomendaría Panasonic GH4 u Olympus EM5-II para los estudiantes que ingresan al campo?
Este gráfico en realidad tiene un nombre: el espacio de color CIE 1931. Esto fue creado como un modelo estándar de visión del color humano. Ahora, es importante tener una idea sobre qué es realmente un espacio de color . Puedes decir “RGB” … pero no estás siendo muy descriptivo. ¿Qué rojo, verde y azul estás usando exactamente? ¿Cómo define con precisión el blanco neutro? ¿O incluso está utilizando RGB, en lugar de alguna otra forma de codificar el color? La mayoría de los espacios de color construidos artificialmente aparecerán como un triángulo apropiado, ya que son básicamente construcciones matemáticas en lugar de sistemas sensoriales biológicos peculiares.
Aquí está el espacio de color REC709 (también conocido como ITU-R BT.709) que se muestra en negro sobre el espacio de color CIE 1931. Esto se usa para HDTV y otros sistemas digitales (D65 representa el punto blanco). La codificación real no es RGB en absoluto, sino YCbCr, la gama es pequeña (cubre solo el 35.9% de CIE 1931), y algo de eso es intencional. Esto se define para el color de 8 bits y 10 bits, lo que significa que cada componente puede tener 8 o 10 bits. Pero según algunos traspasos históricos del color analógico, el componente Y solo puede ejecutarse desde 16..235, y los componentes Cb / Cr se ejecutan cada uno desde 16..240. Restringir el rango de la gama conduce a un menor problema con las bandas de color: los colores adyacentes están más cercanos entre sí que si la gama hubiera sido más grande. Cambiar las coordenadas de color base en el gráfico controla la gama: el rango completo del espacio de color. Aumentar la profundidad de bits utilizada aumenta la resolución de los colores, la suavidad de un degradado, pero no afecta la extensión de la gama.
La mayoría de los monitores de computadora y cámaras digitales usan el espacio de color sRGB, que es similar al espacio de color REC709. Ambos espacios de color utilizan una función gamma complicada en lugar del valor fijo habitual para un espacio de color.
Y ruedas de colores
Entonces, ahora que sabemos qué color tiene un sistema digital, veamos la pregunta exacta, al revés. Ha habido una serie de sistemas de visualización que utilizan más de tres colores de píxeles. Algunas pantallas LCD incluyen un amarillo además del RGB. La mayoría de la última generación de televisores DLP domésticos, por ejemplo, usaba un sistema aparentemente primitivo para generar color: una rueda de colores. Las micropantallas DLP usan millones de espejos para dirigir o bloquear la luz, y pueden cambiar decenas de miles de veces por segundo o más.
La rueda multicolor tiene algún sentido dado que la conversión de YPbPr a RGB solo puede redondearse como errores de color, y también, los colores primarios muy bien definidos pueden verse diferentes para diferentes personas según los detalles de sus ojos. Agregar primarios adicionales aquí refuerza los mismos colores con diferentes filtros (por ejemplo, cian + verde = azul, etc.), haciéndolos más consistentes. Este tipo de TV es una especie de artefacto del pasado: DLP todavía se usa en proyectores de cine, pero un chip para cada color RGB en la mayoría de los casos.
Pero mucho antes de esto, hubo un proceso de película llamado Technicolor, presentado en la década de 1930. Específicamente, el Proceso Cuatro de Technicolor, o el proceso de tres tiras, usaba una cámara personalizada con un prisma diacróico que dividía la luz entrante de tres maneras, en tres rollos independientes de película en blanco y negro. Utilizaron un proceso de tinte para crear vívidas películas de tres colores para su proyección en equipos de cine normales. Más tarde, esta misma idea básica de prisma se utilizó para videocámaras de gama alta. Al igual que las primeras películas, los sensores de silicio no tienen sentido (sic) de color, sino lo que se filtra. Entonces, en un sentido real, cualquiera de este tipo de cámaras podría haberse utilizado con bases de color adicionales o diferentes.
En 1986 NewTek, Inc. introdujo una cosa llamada DigiView para la computadora personal Amiga 1o00. Puede conectar una señal de video NTSC normal a su A1000 y digitalizar una sola imagen en blanco y negro. Sin embargo, Newtek proporcionó una rueda de color, solo RGBW (W = “blanco” o transparente). Y la digitalización tuvo lugar a través del puerto paralelo. Bien ubicado para muchos trípodes. Dentro de los límites de una típica cámara en blanco y negro, esto podría usarse con diferentes bases de color, aunque lo más probable es que necesite algún software personalizado.
Y lo mismo es cierto para cualquier cámara en blanco y negro: la mayoría de las cámaras digitales se pueden convertir en cámaras en blanco y negro quitando el filtro Bayer sobre el sensor. No es fácil. Así que solo compra uno.
Nuevos colores … desde el espacio?
A medida que avanzaba la fotografía digital, la gente llegó al límite del espacio de color sRGB. Entonces se crearon varios nuevos.
El espacio de color Adobe RGB (1998) cubre el 52.1% de CIE 1931, una mejora considerable sobre sRGB. Es una anomalía curiosa que el espacio de color Adobe RGB haya sido creado accidentalmente. Adobe había agregado lo que pensaban que era un espacio de color estándar de gama más amplia en algunas versiones de Photoshop, pero se equivocaron. Es bastante común encontrar Adobe RGB como una opción en las cámaras en estos días. Eso funciona porque internamente, las cámaras de gama alta ya están usando una gama más amplia, junto con píxeles de mayor resolución de los que necesitarías para JPEG. JPEG estándar utiliza codificación YPgPr similar a la de los estándares de televisión, con color de 8 bits. Pero una buena réflex digital está muestreando cada píxel de 14 bits.
Otro espacio de color RGB es el espacio de color ProPhoto RGB. Eso en realidad cubre la mayor parte del espacio de color CIE 1931, pero además, incluye colores “artificiales” que los humanos no podemos ver correctamente, si fueran visualizables. Tanto esto como el espacio de color de Adobe son mejores con 16 bits que con 8 bits. Pero mi interés es señalar aquí que es posible codificar cualquier cosa que podamos ver en RGB, si elegimos el RGB correcto.
Sensores no RGB, ¿alguien?
Ha habido algunas cámaras hechas con matrices Bayer no RGB. De hecho, poseía uno de estos, y probablemente todavía lo tengo en alguna parte, la Canon Powershot Pro90IS.
Esta cámara utiliza un sensor de 3 Mpixel (2.6 Mpixel efectivo) con un filtro tipo Bayer, como la mayoría de las cámaras digitales. Pero en lugar de usar RGB, está usando un filtro CYGM (cian, amarillo, verde, magenta).
La ventaja de este tipo de sensor es una mejor precisión y sensibilidad de luminancia, un mejor rango dinámico, pero menos precisión de color. Para hacer un filtro para un píxel rojo, digamos que está creando un filtro que es una pila de dos filtros, uno para bloquear el azul y otro para bloquear el verde. Entonces, solo 1/3 de la luz que atraviesa esa fotosita pasa. Para un filtro CYGM, cada filtro está bloqueando su color: el C bloquea el cian, el Y bloquea el amarillo, etc. Así que 2/3 de la luz llega a cada sensor. La matemática necesaria para obtener su RGB es, por supuesto, un poco más compleja, pero bastante fácil de imaginar. Estos se han utilizado en varias cámaras, pero han caído en desgracia en los tiempos actuales.
Pero sobre esos colores que no podemos ver …
No hay mucho sentido en la grabación de “color” que no podemos ver como color que no podemos ver. Pero los astrónomos lo hacen todo el tiempo, solo registran colores que no podemos ver y usan un software de computadora genial para crear imágenes de colores falsos.
Para meterse con las cosas usted mismo, el enfoque habitual es eliminar el filtro IR en una cámara digital de su elección (Cómo convertir su DSLR en una ‘súper cámara’ de espectro completo | ExtremeTech). A partir de aquí, todo lo que hace es agregar IR a su matriz de color existente, lo que puede no ser tan interesante. Y, por supuesto, tendrá un alias de color: algunos IR se filtrarán a los canales R, G y / o B, dependiendo de cuál sea el rendimiento fuera de banda de cada uno de los filtros Bayer (p. Ej. , estos no están diseñados para bloquear IR, por lo que lo que bloquean / pasan no es necesariamente predecible).
El siguiente paso sería eliminar la propia matriz de Bayer. Esto puede resultar difícil, pero también se puede hacer. Por supuesto, estas modificaciones van solo en un sentido, así que no en la buena cámara de papá, ¿eh? Una vez que se quita el filtro Bayer, tiene una cámara monocroma.
Ok, tal vez no la Leica Monochom (que es una cámara de $ 7,500 que solo dispara en monocromo), sino una que básicamente hace lo mismo. Puede crear o perder el tiempo con los filtros para decidir qué se obtiene para una toma determinada … incluso jugar con múltiples bases de colores, etc. Solo comprenda que las cosas que desea lograr pueden no ser prácticas sin un software personalizado.
Una cosa que cada uno hace es disparar a través de los filtros R, G y B, luego aplicarlos a los canales de imagen R, G y B en Photoshop … un poco como el modo “Contrata” en mi Olympus OM-D E-M5II. Sin desbarbar, pero no es útil para tomas de movimiento rápido … especialmente si está cambiando los filtros en una cámara modificada. Y, por supuesto, podría usar cualquiera de los tres filtros, incluidos los que bloquean toda la luz visible, y asignar esas imágenes monocromáticas resultantes a uno de los canales de color RGB estándar.
Hay limites. El vidrio normal es opaco a la luz ultravioleta de longitud de onda más corta. Tendría que ir a una lente UV muy costosa o a un agujero de tapa de lente para ver mucho en el espectro UV.
Lo anterior es el espectro de luz invisible y visible, que muestra la sensibilidad relativa del ojo humano. Los picos ilustran los picos de sensibilidad de los receptores de cono B, G y R. El típico fotodiodo de silicio utilizado en una cámara tiene buena sensibilidad desde longitudes de onda de 400 nm hasta 1100 nm, más o menos. Por supuesto, es posible construir un sensor que responda sobre otras bandas, o incluso que esté muy centrado en una sub-banda específica, pero esto es lo que encontrará en casi todas las cámaras, excepto para fines especiales. Entonces, hay una buena sensibilidad en el IR cercano (es más barato filtrar ese IR que construir un sensor que lo rechace), pero está perdiendo sensibilidad rápidamente cuando entra en las bandas UV.