¿Por qué hay una diferencia significativa entre la respuesta espectral del sensor de imagen y del ojo humano?

No hay necesidad particular de que los sensores de la cámara coincidan exactamente con las curvas de respuesta del ojo, ya que los datos de la imagen siempre se pueden ajustar después de capturar la imagen. Los filtros que coinciden bastante bien con las curvas de triestímulo CIE ( que se basan en, pero no son idénticas a las curvas de respuesta del ojo) se usan muy comúnmente en colorímetros (dispositivos que expresan el color numéricamente, como en las coordenadas XYZ o Yxy ), por lo que son Definitivamente no es imposible de crear. Las curvas que muestra arriba no son realmente las curvas de respuesta de cono reales, por cierto, son solo aproximaciones normalizadas de las sensibilidades relativas. Una diferencia significativa entre estas y las sensibilidades reales es que hay una región del espectro en la que la respuesta de los conos de longitud de onda larga (“rojo”) es realmente negativa, lo que significa que la salida de esas células se suprime por la exposición a la luz en ese rango! Las siguientes curvas están más cerca de las curvas de sensibilidad absoluta real (estas son técnicamente las funciones promedio de coincidencia de colores derivadas de los datos originales en los que se basan las curvas de triestímulo CIE):

Definitivamente no es correcto decir que “las cámaras digitales son daltónicas”; obviamente, capturan datos suficientes de los que derivan imágenes en color de aspecto muy realista. La limitación en términos de la precisión del color final es muy comúnmente el medio de salida, no el sensor: tanto las pantallas electrónicas como los medios de impresión siempre tienen un rango limitado de colores de salida posibles (su gama de colores ), lo que significa que nunca puede producir o ver un color fotografía o imagen visualizada que puede incluir la gama completa de colores que el ojo (o la cámara) es capaz de “ver”.

No estoy totalmente de acuerdo con Bob Myers.

Una cámara debe coincidir lo mejor posible con los ojos humanos, para que sea más fácil hacer la corrección del blanco (y la corrección del color en general). Lo peor es tener “metamerismo de cámara” (pero un color diferente para nosotros), que no se puede resolver con corrección, debido a la falta de datos adicionales.

Pero como todas las cosas de ingeniería, hay muchas otras restricciones. Una característica de marketing es la sensibilidad del sensor con poca luz, por lo que los fabricantes de cámaras deben encontrar filtros de píxeles que no absorban mucha de la luz requerida, ni que reflejen otras frecuencias de luz, por lo que la sensibilidad no es muy buena para los ojos.

No estoy de acuerdo con la parte XYZ de la respuesta de Bob. La respuesta del ojo humano se caracteriza por la respuesta LMS, no por la XYZ.

El CIE XYZ es una combinación lineal (también conocida como mutiplicación matricial) de LMS, de modo que dada una fuente de luz de un espectro específico, puede calcular XYZ directamente a partir de las lecturas del sensor debajo de los filtros con respuesta LMS utilizando una multiplicación matricial, y el Y resultante corresponde muy bien a la percepción de luminancia de los ojos humanos, y X / Y y Z / Y corresponden perfectamente (pero no son perfectos) a la percepción humana de las diferentes direcciones de color. Los científicos del color eligen XYZ solo porque les permite separar la luminancia y el color para simplificar sus diversos estudios (ya que así es como percibimos psicológicamente el color).

Los colorímetros están hechos con 3 sensores de luz bajo 3 filtros, cada uno con la respuesta cercana (pero no exactamente igual) a uno de los LMS. ¡Entonces sí, es posible!

Creo, pero no puedo estar seguro, que la razón más posible por la que no reemplazamos RGB con LMS en las cámaras podría deberse a la limitación de la tecnología: hacer filtros transparentes del tamaño de un micrómetro con precisión sobre millones de píxeles no parece una tarea fácil. Si solo se permite un subconjunto muy limitado de materiales para el proceso, no es difícil imaginar que en este momento no haya material adecuado para emular la respuesta LMS humana.

Los colorímetros ya están haciendo todo lo posible. Si desmonta un Pantone Huey, encontrará que cada uno de los filtros LMS contiene de 4 a 6 piezas de filtro de plástico, cada uno con un espectro de absorción diferente, todos apilados para tratar de acercarse lo más posible a las respuestas LMS. Pero simplemente no pueden hacerlo perfectamente (o tal vez no quieren). Las arañas de gama alta tienen 6–7 sensores cada uno con diferentes filtros, pero aún no coinciden con un espectrómetro.

No creo que apilar de 4 a 6 capas de filtros en millones de píxeles sea una buena idea, por lo que tendremos que esperar hasta que un genio químico presente un material que tenga exactamente la respuesta LMS y pueda depositarse en los chips CMOS .

Actualización: ¿Qué sucede si usted es uno de los grupos de personas más enfocados en corregir el color de las cámaras digitales? Phase One, junto con Sony, desarrolló un nuevo sensor con respuesta de filtro personalizada.

Fase uno tricromática: parte 2, los resultados – Transiciones digitales

Entonces sí, es posible y la gente lo ha hecho. La precisión del color aumentó considerablemente, también lo es el precio.