¿Qué mejora importante se hará a las cámaras en el futuro?

Bueno, echemos un vistazo a dónde estamos, primero. La vanguardia de lo que todos hacen hoy en el diseño de cámaras sugiere lo que todos tendremos a tiempo. Y hacia dónde también podría dirigirse.

Desde que mencionaste el color

En primer lugar, estás lejos de la película en color. Hubo experimentos en fotografía en color en la década de 1840. Gabriel Lippmann inventó un sistema de fotografía en color usando interferencia en la década de 1890, lo que resultó en que ganó el Premio Nobel de Física en 1908. James Clerk Maxwell ideó el sistema de color RGB que utilizamos hasta hoy en muchas cosas en 1855. Por 1861, algunos experimentadores estaban haciendo fotografías en color usando la separación de colores (tres fotos separadas tomadas a través de filtros R, G y B … la base de las primeras versiones del proceso de cine Technicolor, años después).

Esta idea se utilizó de varias formas, y más o menos se conoció en la era moderna hace 70 años, cuando Kodak introdujo Kodachrome en 1935, y Agfa presentó Agfacolor en 1936.

Una cosa interesante sobre la película en color para todas las edades es que es una pila de capas sensibles al color. Las películas generalmente tenían tres capas, capas sensibles rojo, verde y azul. La mayoría de los sensores digitales funcionan de manera diferente. Un fotodiodo de silicio, el elemento sensor de las cámaras digitales modernas, no es sensible al color. Para obtener color, generalmente tiene una serie de filtros sobre la matriz de sensores, la mayoría de los cuales siguen la idea inventada en Kodak por Bryce Bayer, y por lo tanto apodada el filtro Bayer.

El color se crea por píxel en un sensor Bayer mediante “demostración”. En resumen, los colores cercanos se interpolan para proporcionar los dos colores “faltantes” para cada ubicación de píxel. Esto funciona muy bien para la mayoría de las situaciones, pero puede dar como resultado colores falsos a lo largo de líneas de contraste muy definidas. Los filtros también están bloqueando casi 2/3 de la luz por píxel para entregar el filtrado de color.

Se han hecho algunos intentos al respecto. El sensor Foveon, propiedad de Sigma Corporation, funciona en una pila, más o menos la misma idea que la película. Estos sensores usan fotodiodos en tres niveles diferentes en el sustrato de silicio. A medida que la luz pasa a través del silicio, hay algo de absorción natural … sin duda lo has visto en el agua si has hecho mucho esnórquel o fotografía submarina. Por lo tanto, su diagrama ilustra las capas de sensor azul, verde y rojo … pero lo que realmente capturan es rojo, rojo + verde y rojo + verde + azul (también conocido como blanco), y utiliza el procesamiento sustractivo patentado para entregar la imagen final.

Suena bien en teoría, pero en la práctica tiene problemas. Las capas inferiores reciben mucha menos luz, tanto menos que en los sensores Foveon actuales, la capa superior está en resolución completa, la segunda y tercera capas tienen una resolución de 1/4. Entonces todavía hay algo de interpolación. Y estos sensores tienen una sensibilidad bastante baja en comparación con los sensores Bayer con una resolución efectiva similar. Sin embargo, varias otras compañías han estado buscando diferentes soluciones a este enfoque que podrían solucionar algunos de los problemas con los sensores de múltiples capas.

Parte de esto se basa en la forma en que funciona el ojo … solo tenemos unos 6 millones de sensores sensibles al color en nuestros ojos, pero 120 millones de sensores sensibles a la luma (vea la respuesta de Dave Haynie a ¿Cuál es la resolución del ojo humano en megapíxeles? ) Por lo tanto, no nos importa tanto el color como la resolución, pero también nos importan las distorsiones de color en una foto. Por lo tanto, mejorar las cámaras actuales en color, aparte de los refinamientos básicos y lentos de cómo lo hacemos hoy, puede tener efectos secundarios no deseados.

Otra tecnología en desarrollo para el color de imagen digital es la división de micro colores. Como se mencionó, actualmente estamos filtrando hasta 2/3 de nuestro color usando el filtro Bayer. En este enfoque, se utilizan micro deflectores que transmiten algo de luz, redirigen otra luz a píxeles adyacentes, en función del color de la luz, utilizando difracción. Esto aún requeriría interpolación, y una interpolación más compleja que en un sensor Bayer directo, pero está permitiendo que entre más luz en el sensor.

Otro enfoque en desarrollo, denominado “muestreo activo de color de píxeles”, está utilizando una matriz de filtro de color móvil. Esto no estaría en un arreglo clásico de Bayer, sino que incluiría los colores R, G y B alineados entre sí. El sensor dispararía tres disparos, cada uno de los cuales tiene el sensor en una posición diferente, entregando información de color R, G y B a cada ubicación del sensor en tres exposiciones. El problema, por supuesto, es hacer esto lo suficientemente rápido como para lidiar con el movimiento entre cuadros … y veremos en un momento, este enfoque en realidad ya lo están haciendo algunas cámaras, es una forma ligeramente diferente.

Resolución y sensibilidad

Cuando la revolución de la fotografía digital comenzó más o menos, estaba filmando películas y escaneándolas en mi PC a unos 10MPixels. Lo interesante fue que casi todo lo que filmé mostró grano visible en la imagen digital. Excepto Kodachrome 25. Sin grano significativo. Así que usé eso como un punto de referencia para la fotografía química. Kodak reclamó alrededor de 100 pares de líneas por milímetro, o 200 líneas por milímetro. Simplemente representando eso en píxeles obtienes una imagen de 7200 x 4800 píxeles, o 34.5 megapíxeles.

No es tan simple. Mirando estructuralmente, las películas químicas han tenido cristales de haluro de plata individuales en un patrón consistente pero aleatorio. No todos los cristales son del mismo tamaño, pero generalmente varían de 0.5 μm a 5 μm más o menos, dependiendo del tipo de película, sensibilidad, etc. Los cristales son de diferentes tamaños y se distribuyen aleatoriamente a través de la película. En la fotografía en color, tiene esto en sus tres capas sensibles al color y, además, durante el proceso de desarrollo, la película forma químicamente nubes de tinte alrededor de cada partícula de plata desarrollada, luego la plata se blanquea. Entonces hay una pérdida de resolución allí.

Cuando un fotón encuentra un cristal de haluro de plata, se libera un electrón portador libre dentro del cristal. Esa electrónica pasa a través del cristal de haluro y quedará atrapada en una “mota de sensibilidad” en el cristal, donde es probable que reduzca un ion de plata en la red de haluro a un átomo de plata metálica. De este modo, se recogen unos cuatro átomos de plata, los desarrolladores de fotografías típicos podrán convertir todo el cristal en plata metálica. Por lo tanto, el tamaño del cristal determina el tamaño y el número de estos “objetivos de fotones”, y la sensibilidad y la estructura de grano de la película.

En digital, normalmente tiene una matriz fija de fotodiodos. Los fotodiodos en el sensor de 35 mm de fotograma completo de 20Mpixel de mi Canon 6D son 6.55μm. Pero cambie a una Canon 5D y tendrá un sensor de fotograma completo de 50 megapíxeles con 4,14 µm de píxeles … aún mucho más grande que el tamaño de muchos cristales de haluro de plata. Estos sensores muy sensibles y relativamente grandes han ampliado de manera muy efectiva el rango de la fotografía para la detección de un solo fotón en fotodiodos, y dado que un solo píxel puede capturar un amplio rango dinámico, basado en el tamaño del píxel, la capacidad de la carga bueno, eso almacena la salida de ese píxel y el ruido en el sistema. A lo largo de los años se han logrado grandes avances en el control del ruido en el sensor. Todo esto se suma al hecho de que las cámaras digitales típicas superan en gran medida el equivalente ISO de la película y ofrecen imágenes menos ruidosas cuando se combinan disparo por disparo.

No hay grano per se en las imágenes digitales, pero hay ruido. Algunos ruidos son inevitables: simplemente cuando se dispara con muy poca luz, puede haber una escasez de píxeles lo suficiente como para dar una apariencia granulada. También hay ruido térmico, por lo que a medida que el disparo se prolonga, más ruido térmico puede volverse visible (por eso los astrofotógrafos usan cámaras con enfriamiento por sensor). Y finalmente, lea el ruido, el proceso de leer los píxeles en sí mismo crea ruido. La mayoría de los sensores de cámara modernos hacen la conversión de analógico a digital en el sensor de imagen real en estos días, para minimizar el ruido en el sistema que afecte la imagen.

Entonces, ¿a dónde podrían ir estas cosas? Ha habido experimentos en el uso de diferentes tipos de arreglos de píxeles. El sensor EXR de Fujifilm utilizó una matriz Bayer modificada que facilitó la unión de píxeles. Por lo tanto, el sensor de 12 megapíxeles en mi Fujifilm X-S1 se puede configurar como un sensor de 6 megapíxeles con píxeles efectivamente 2x más grandes, ya que el par de píxeles diagonalmente adyacentes R, G y B funcionan juntos. A medida que se incorporen más capacidades a los chips del sensor, podemos esperar ver otros tipos de reconfiguración en el sensor.

Otro enfoque ha sido construir una matriz de fotodiodos grandes y pequeños. Esto crea una interpolación aún más compleja, pero es una forma de ofrecer un mayor rango dinámico. Fujifilm también trabajó en esto, y otros han estado analizando el concepto. Un obstáculo es lo que haces para entregar una imagen final. La fotografía digital exige una salida final que es una matriz N x M de píxeles RGB (o píxeles Y Cr Cb si está disparando en JPEG, pero que se expande a RGB cuando se carga). Algunos de estos en el pasado fallaron simplemente porque la información de la imagen era demasiado grande para el valor recibido. Es probable que eso cambie a medida que comenzamos a dejar de preocuparnos por los tamaños de archivo.

Y volviendo a pensar en los tamaños de píxeles … en realidad podemos hacer píxeles muy, muy pequeños. Muchos teléfonos inteligentes tienen sensores de cámara con píxeles en el rango de 1 µm. Los problemas allí son dobles. Por un lado, todavía existe el problema de que un píxel más pequeño es un objetivo más pequeño. Las tecnologías modernas de chips como BSI y sensores apilados han llevado el “relleno de píxeles”, la cantidad del espacio real para un píxel que está lleno por un fotodiodo, hasta casi el máximo teórico (se debe dejar algo de espacio para evitar la diafonía). La reducción del ruido en el chip compensa un poco, pero en última instancia, un píxel más pequeño será un problema a medida que se pone el sol. Entonces, cuando tiene el espacio de píxeles, como en una cámara de fotograma completo de 35 mm, los píxeles más pequeños no siempre son una gran victoria.

Dicho esto, Canon recientemente mostró un prototipo de una cámara con sensor de 120Mpixel. No se anunciaron entregas, pero eso es más del doble de la resolución de las Canon 5D disponibles hoy. El problema más obvio con esto, y dónde vamos a alcanzar los límites de la física, es la difracción. Cuando compra ese nuevo y brillante teléfono inteligente con un sensor de 16–20 megapíxeles, probablemente también obtenga una lente en ese chico malo que tiene un f / 1.8 más o menos. Y arreglado. No puedes ir a una abertura más pequeña. La razón de esto es simple: debido a la difracción, la propiedad de la luz a través de una abertura para doblarse un poco, cualquier detención de la lente de ese teléfono inteligente y obtendría una pérdida de resolución práctica. Para una DSLR como la Canon 5Ds o una cámara profesional con sensor más pequeña como una Olympus OM-D Micro Four terirds, realmente no querrás detenerte mucho por debajo de f / 11.

También necesita mejores lentes para píxeles más pequeños. Cuando Canon lanzó las 5D, incluyeron una lista de lentes existentes recomendadas para ello. Después de todo, si su lente no es lo suficientemente nítida para ofrecer una imagen real de 50 megapíxeles, ¿cuál es el punto?

Otras tecnologías de sensores

Dimos el salto de CCD a CMOS hace algunos años, y CCD fue la gran mejora con respecto al tubo Videcon. Por lo tanto, existe una buena posibilidad de que el silicio no sea el destino final para la fotografía. Nuestros sensores CMOS mejoraron su colección de luz con iluminación posterior (BSI) y luego con sensores apilados, que colocan los sensores “posteriores” en su propio chip y lo apilan encima del chip que realiza todo el procesamiento digital.

En este momento, estamos acelerando la velocidad de estos sensores con carriles de interfaz MIPI adicionales y paralelismo interno, después de haber descargado la interfaz analógica y realizado todo el procesamiento digital en el chip, que ahora ya no es el chip que detecta la imagen. , en la configuración apilada. Lo siguiente, tenemos algún tipo de memoria en chip. Lo hicieron en los CCD, hace mucho tiempo. Cada sensor en un CCD tenía su propia memoria, que almacenaba la carga y la trasladaba, celda a celda, en una interfaz analógica … que era el “acoplamiento de carga”, esencialmente una brigada de carga de cubeta.

Pero significaba que tenía que leer todo el chip antes de tomar la siguiente toma, y ​​que sin un obturador mecánico, la imagen estaba sujeta a interferencias. Arreglaron esto básicamente tomando cada dos píxeles y usándolo como memoria. Por lo tanto, el disparo se rompe y cada píxel cargado se envía al depósito de carga de al lado, que no tiene un sensor. Estos podrían proceder a la brigada de cubos en paz, y el CCD tenía su sensor electrónico global .

La mayoría de los sensores CMOS de hoy tienen persianas “enrollables”. El obturador electrónico es realmente solo una cuestión de permitir la captura en el chip, detenerlo y leerlo. Esto “rueda” en un chip CMOS a medida que el sensor se sensibiliza, cronometra y lee con precisión para obtener la exposición correcta. Las cámaras profesionales tienen persianas mecánicas, aún, para evitar el pequeño problema de los objetos que se mueven en este momento. Entonces, algunas ahora, pero en el futuro las cámaras principales tendrán obturadores globales: el sensor está expuesto, y cada píxel se digitaliza y se transfiere a la memoria del sensor al instante, y luego se envía lo más rápido posible a través de MIPI o alguna interfaz digital patentada.

Y aún así, estamos hablando de silicio aquí, solo un poco más. Pero algunas compañías están buscando el uso de elementos de compuestos orgánicos en sensores de silicio para mejorar el diseño del sensor. Puede haber un día en que las partes del sensor o incluso todo el chip se base en compuestos de carbono en lugar de silicio. También se está investigando al carbono para hacer chips aún más pequeños, lo que sin duda es una preocupación para las capacidades de la cámara. A medida que llegamos a chips de 5 nm, en realidad estamos obteniendo muy pocos átomos de silicio por transistor. Los transistores de carbono pueden ser más pequeños, por lo que a lo largo hace de esta una dirección interesante.

Una posibilidad interesante con sensores orgánicos es un aumento dramático en la relación señal / ruido y el rango dinámico. En este momento, obtenemos sensores con una resolución de 12 a 14 bits, pero una vez que lleguemos a 22-24 bits, tendremos una verdadera cámara de rango completo sin ISO. Tenga en cuenta que ISO es algo artificial en cámaras fijas. En video, tradicionalmente ha habido un amplificador entre la salida analógica y el convertidor de analógico a digital (ADC), que se estableció en términos de amplificación real en decibelios (dB), básicamente un control de volumen … lo subió si el la señal era demasiado débil, baja si era demasiado fuerte.

El problema es que los 12dB de su cámara no son necesariamente los 12dB de mi cámara. Entonces, al hacer cámaras digitales, la industria y la Organización Internacional de Normalización (ISO) se unieron y establecieron pautas para ISO para cámaras. Y la mayor parte de eso se trataba de establecer una escala en ese control de volumen que correspondía de alguna manera esperada a la escala utilizada en la película. Con el tiempo, las compañías de cámaras ofrecieron rangos ISO “extendidos” que podrían usar el procesamiento de software para ofrecer una configuración más alta, en lugar del hardware real. Esto se debe a que solo puede amplificar tanto una señal sin hacer visible el ruido. E incluso tener ese amplificador adicional en juego antes de que el ADC agregara un poco de ruido.

Entonces, algunas cámaras, hoy en día, son “sin ISO” … digitalizan los 12 o 14 bits del sensor y los usan para todos los rangos de ISO. Si tuviera un sensor de 14 bits y solo tomara JPEG, por ejemplo, tendría un rango honesto de 6 ISO en esa cámara, sin extender demasiado el procesamiento de la imagen. Pero imagine un sensor que emite 20 o 24 bits de información. ¡Tendría un rango dinámico loco, la cámara grabaría esos 24 bits completos y decidiría en Photoshop a qué ISO desea disparar!

¿Dónde lo pongo todo?

En este momento, tenemos una especie de edad de oro de la fotografía. Mi Canon 6D solo tiene una captura de 4.5 fps y un búfer de memoria que puede llenarse. Pero en mi Olympus OM-D EM-5 mk II más reciente, puedo tomar fotos en bruto todo el día (bueno, hasta que la tarjeta de memoria se llene o la batería necesite reemplazarse) a 5 fps, con estabilización de imagen completa y enfoque automático. Un nuevo modelo Olympus amplía eso a 18 fps con obturador electrónico, o (limitado en el búfer) hasta 60 fps con AF de primer cuadro solamente. Ese mismo nuevo modelo, la E-M1 mk II también puede disparar una serie de 14 disparos antes de que su dedo realmente presione el botón del obturador por completo.

Eso está aprovechando las súper rápidas tarjetas de memoria SDXC UHS-II de hoy en día, y algunas cámaras usan aún más rápido CFast (basado en SATA), XQD (basado en PCI Express x1) y otras nuevas tecnologías. Eso continuará … la velocidad de la memoria será cada vez más rápida. La tarjeta más pequeña que tengo hoy es de 32 GB, tengo una tarjeta de memoria de 256 GB en mi teléfono inteligente. Todo esto puede llevar al día en que la cámara de consumo promedio no tenga una tarjeta de memoria en absoluto … solo una porción de memoria casi ilimitada que probablemente nunca usará, pero es lo suficientemente barata como para no preocuparse.

En este momento, utilizamos la memoria Flash, que ha sido la memoria elegida para casi toda la revolución de la fotografía digital. Ok, Sony usó disquetes, luego CD de 3 ″ en las primeras Mavicas (aunque el primero fue fotografía electrónica analógica, no digital). Pero eso podría estar llegando a su fin. Hay varios tipos de memoria en proceso que pueden reemplazar tanto la memoria DRAM como la memoria Flash. Imagine que toda la memoria de su cámara se ejecuta a velocidades de búfer. Podrías disparar a 60 fps hasta que la batería se agote y no te preocupes por eso.

No espero que los profesionales mantengan todas sus fotos en sus cámaras para siempre. Pero las cosas pueden cambiar hasta el punto de que normalmente no usa una tarjeta de memoria, todo está en MRAM interno no volátil o FeRAM o PRAM o tal vez NanoRAM o 3D X-Point RAM o Memristors. Cuando ingresa a su casa u oficina, la cámara y la red doméstica hablan e instantáneamente comienzan a descargar la cámara. Podría haber una tarjeta SD allí, pero una que simplemente funciona como una copia de seguridad opcional en ejecución en la memoria interna.

Y, sin embargo, todavía queremos almacenamiento de archivos. Hoy, puse mis fotos en un RAID para un acceso rápido y en discos Blu-ray HTL para copias de seguridad a largo plazo. Pero un Blu-ray de 50 GB no lo hará feliz cuando trabaje con demasiadas fotos de 100 MB o incluso GB. Los discos duros también son útiles, pero también se desgastan, se rompen cuando se caen, etc. A algunas personas les gusta M-Disc, que es muy confiable pero costoso (un paquete de 25 discos BDXL M-Disc de 100GB cuesta alrededor de $ 400) . Hay nuevas tecnologías de almacenamiento a largo plazo en proceso, como Memristors, que eventualmente pueden proporcionar almacenamiento de disco y tarjeta más confiable y de mayor densidad.

Fotografía asistida por software

Una gran parte de las innovaciones recientes en fotografía en estos días es una combinación de software inteligente con su hardware, de formas que hubieran sido imposibles en el pasado. Espero que esto continúe.

Desde que uso uno, mira Olympus. Tienen un montón de ideas geniales en sus cámaras. En primer lugar, el sistema de estabilización de imagen en el cuerpo (IBIS). Pentax también lo ha usado, y más recientemente Sony, pero Olympus lo llevó a aproximadamente 5 paradas de estabilización en el OM-D E-M5II y 5.5 en el E-M1II. Dado que también se combina con una lente ópticamente estabilizada, eso puede proporcionar 6.5 paradas de estabilización. En realidad, las personas toman imágenes nítidas, de mano, con exposiciones de varios segundos. Ya es una especie de ciencia ficción. Puedo grabar videos en mi E-M5II tan estable como mi videocámara profesional Panasonic en mi Glidecam 2000. O mejor. Este tipo de tecnología ha llegado muy lejos en la última década, y es probable que se extienda (Panasonic la está usando en algunos modelos nuevos) y mejore.

Olympus utilizó el mismo sensor de imagen en movimiento para un truco diferente. Debido a que el sensor de movimiento se puede conducir para compensar el movimiento, ¿y si en cambio, lo mueven con precisión para mejorar la calidad de la imagen? Ese es el modo Olympus “Hires” en el E-M5II, el Pen F y el nuevo E-M1II. Lo que hacen es disparar ocho disparos, moviendo el sensor 1/2 o 1 píxel completo cada vez. Eso da como resultado ocho tomas de 16MPixel en un archivo sin procesar E-M5II, pero eso realmente equivale a dos imágenes de 16Pixel, compensadas por 1/2 píxel, con cada píxel que contiene información RGBG. Así que no hay desemparejamiento, color mejorado y rango dinámico mejorado … y eso antes de que descubrieras cómo hacer que sea una sola imagen.

Mencioné la necesidad de una buena matriz incluso antes, ¿eh? Aquí tenemos en esencia una imagen RGB completa de 32Mpixel, pero con píxeles intersticiales. La interpolación de esto a una matriz de píxeles regular rectangular produce el doble de píxeles, o 64 megapíxeles. Ahora, esto no tendrá la resolución de una verdadera cámara de 64MPixel … en la cámara, un JPEG de esto se procesa a 40Mpixels, y se compara razonablemente bien con una Nikon de 36Mpixel, quizás una resolución un poco menos práctica, pero mejor color.

Ahora, hoy, esto debe hacerse en un trípode y solo es realmente práctico para un sujeto inmóvil. Pero agregue un disparo más rápido y un procesamiento más rápido, y tal vez este tipo de disparo funcione de forma manual algún día.

Por supuesto, hay otras mejoras de múltiples disparos. En el procesamiento de señales, es común tomar muestras múltiples de una señal repetitiva para reducir el ruido visible. El ruido que no podemos controlar completamente en un sistema es ruido aleatorio, pero es aleatorio. Cuando agrego un número aleatorio a otro, obtengo un número aleatorio que se ve exactamente igual. Entonces, cuando hago un promedio de cuatro disparos de la misma cosa juntos, obtengo un disparo con solo 1/4 del ruido original. Mi Canon 6D, ya estelar en rendimiento con poca luz, tiene un modo que hace esto.

Mucha gente está interesada en el disparo de alto rango dinámico en estos días, y algunas cámaras tienen un modo auto-HDR que realiza múltiples exposiciones para “apilar” varias para el procesamiento HDR … si agrupa tres disparos por 2 f-paradas, está extendiendo la cámara rango natural por 4 f-paradas. Muchas cámaras incluso pueden procesar esto por usted. Ese tipo de cosas continuará evolucionando. Algunas cámaras incluso pueden hacer esto hoy de una sola vez, debido al rango dinámico del sensor. Para los consumidores, está disparando JPEG la mayor parte del tiempo, que graba 8 bits / color (y a veces menos que eso), pero un sensor DSLR de primera clase puede entregar 14 bits de información por sensor. Por lo tanto, comprimir eso (que es lo que hace el software HDR) en un JPEG puede darle una idea de ese amplio rango dinámico, integrado en algo que puede usar en los flujos de trabajo normales de fotos.

Otra innovación reciente del software es el apilamiento automático de foco. Imagina que estás disparando una foto macro del Sr. Rana aquí. No le importa que parte de él esté desenfocado, pero es imposible enfocarlo lo suficiente con la lente macro y la exposición que necesita para disparar. El horquillado de enfoque automático hará que su cámara tome una serie de disparos con un enfoque ligeramente diferente. El apilamiento de enfoque en la cámara procesará la imagen para incluir la parte más clara de cada imagen. Obtendrá fácilmente una toma que hubiera sido difícil manualmente e imposible sin algún tipo de apilamiento de enfoque.

Otro de Olympus en cámaras recientes es el modo Live Composite. Esto básicamente acumula luz. Dispara múltiples exposiciones, pero solo agrega los aumentos de luz entre disparos. Esto es algo que puede hacer en Photoshop creando un objeto inteligente y configurando el modo compuesto correcto, pero en realidad es más poderoso tenerlo en la cámara, porque sabe que se hace justo en el punto de disparo.

Panasonic tiene una tecnología genial llamada Profundidad de Desenfoque (DFD). En el mundo DSLR, tiene sensores de enfoque especiales en su cámara que leen o atraviesan el espejo y utilizan la detección de fase para el enfoque automático. La detección de fase básicamente está mirando un poco de imagen y determina no solo si está enfocado, sino, si no, qué tan lejos está y en qué dirección. Esto permite un enfoque muy rápido, que la mayoría de las cámaras sin espejo no pueden igualar. Algunos sin espejo pusieron sensores PDAF en el chip de la imagen, pero Panasonic tenía una idea diferente.

Hicieron un análisis bastante extenso de sus lentes y cómo se veían cuando estaban fuera de foco en diferentes puntos, e incluyeron esa información en el lente. La cámara imagina el procesamiento de la imagen para obtener una firma que se compara con la información DFD de la lente, y eso le permite a la cámara estimar dónde mover la lente para acercarla al foco, momento en el cual el enfoque automático de detección de contraste se hace cargo . El CDAF normalmente no puede estimar la dirección o el alcance del desenfoque, por lo que debe “buscar” el enfoque, y eso a menudo es más lento que el PDAF, a veces significativamente. Como tenemos más procesamiento de señal en la cámara, creo que veremos más de estas nuevas soluciones suaves.

Metacaracterísticas: nuevas características en crecimiento

Hace mucho tiempo, cuando la Canon 5D Mark II se lanzó y comenzó a crear rumores sobre el uso de una DSLR para un trabajo de video serio, Canon hizo algo bastante inusual: actualizaron la cámara con una característica completamente nueva, una configuración de video progresivo de 24 fps, el estándar de la película, de curso. Todos los que compraron uno podrían obtener esta función por el problema de la descarga.

Algunas de mis cámaras Olympus han tenido “actualizaciones importantes de software” que agregaron funciones. Por ejemplo, cuando compré mi OM-D E-M5II, no tenía un modo de Horquillado de foco. Ahora lo hace Creo que Fujifilm ha ofrecido actualizaciones con nuevas características. La mayoría de las cámaras disponibles hoy en día se pueden actualizar fácilmente con un nuevo software. Olympus incluye una herramienta que conoce su equipo y le informará sobre las actualizaciones.

Panasonic lanzó una actualización V-Log para su DMC-GH4. En este caso, tenía que pagar $ 99 por esta función, pero con el bajo contraste es una cosa importante para grabar videos que luego se calificarán, tener esto disponible es una gran victoria sobre la no disponibilidad.

Y, por supuesto, muchas cámaras tienen “filtros artísticos”, que realizan los mismos tipos de procesamiento de imágenes en la cámara que obtienes en Photoshop y otros programas de manipulación de imágenes. Pero diferentes cámaras, diferentes filtros de arte.

No me sorprendería que si, en algún momento, estos se convierten en complementos … podría comprar un paquete de sus efectos favoritos y ponerlos en su cámara. De hecho, hoy puede hacerlo más o menos si está utilizando una de las pocas cámaras P&S impulsadas por Android. O un teléfono inteligente … mucha gente dispara a Instagram y aplica los filtros, post-disparo pero justo en la escena. Y no esperes solo cosas tontas para Instagram … imagina poder marcar y ajustar el destello de la lente o el bokeh u otras cosas que realmente quieras usar como fotógrafo serio. O marque Kodacolor, Velvia, Tri-X, etc. si desea una apariencia de película específica, directamente en la cámara.

Y también, hacks. Hace dos años, piratear su cámara para obtener nuevas funciones podría haber evocado imágenes de un taller de máquinas de precisión, pero ha sido más software. El antiguo Panasonic GH3 era un objetivo de piratería muy popular, ya que podía modificarse para disparar a velocidades de bits mucho más altas, por lo tanto, una compresión más baja de lo que permitía el software estándar. El gran truco que existe hoy en día es Magic Lantern, para algunas de las cámaras Canon. Esto agrega una caja de herramientas completa de características adicionales a su Canon DSLR … algunos incluso pueden grabar videos en bruto, ahora.

A medida que comenzamos a utilizar la fotografía mejorada por software de manera regular, comenzaremos a confiar en ella y luego nos molestaremos cuando nos encontremos con vendedores de cámaras o incluso modelos que no tienen esas funciones. La solución aquí puede ser abrir cámaras a terceros, tal vez incluso con la “API de cámara” convirtiéndose en estándar, para permitir que la gente manipule la imagen sin el potencial de dañar el hardware. Ya veremos.

En otras dimensiones

Todas estas cosas hasta ahora todavía están discutiendo cámaras digitales bastante convencionales. Pero algunos de estos ya están cambiando de manera interesante.

Varias compañías están jugando con sensores de imagen curvos. Ya tratamos con uno todos los días: el ojo. El ojo humano tiene un diámetro de aproximadamente 22 mm, un poco más grande que el sensor de una cámara Micro de cuatro tercios. Pero es semiesférico, por lo que el área de superficie real es de alrededor de 1100 mm ^ 2, más grande que un sensor de cámara de 35 mm. Y la lente también es semiesférica. Por lo tanto, el ojo puede ofrecer una imagen muy buena sin la necesidad de las lentes complejas que fabricamos para las cámaras de hoy en día: una pequeña parte de esa lente de muchos elementos es la señal de mantener una imagen clara e igualmente brillante en el campo de imagen plana que estamos saliente. Un sensor curvo ofrecería una mejor imagen y un sensor más grande en un paquete más pequeño.

Tomando un enfoque completamente opuesto, ¿por qué no hacer una lente plana? Los investigadores en metamateriales han creado una lente plana hecha en un proceso similar al de un CI. Comienzan con una pieza súper delgada de cuarzo transparente y construyen nanoestructuras de dióxido de titanio de solo 600 nm de altura. La orientación y otras características físicas de estas estructuras. Las características son bastante angostas en este momento, pero pueden diseñarlas con un gran aberración, diseñarlas específicamente para proyección en superficies planas, etc. Una sola lente de este tipo puede probar todo lo que necesita para una lente de cámara … el prototipo hecho en Harvard , usado como lente de microscopio, era 30% más nítido que la lente de microscopio que reemplazó. Estas lentes son tan delgadas que necesitarían ser reforzadas, pueden ser más delgadas que un filtro. Una cámara podría tener varios de estos integrados, probablemente incluso un teléfono inteligente, cambiándolos según la distancia focal deseada.

Otra nueva dirección es la cámara pleóptica, también llamada cámara de campo de luz. Cuando pensamos en una cámara, es fácil de entender en el ámbito digital, tomamos una foto a través de una lente y esa imagen se proyecta a través de una serie de sensores, cada uno de los cuales se convierte más o menos en un píxel en la imagen, un elemento de imagen .

¿Qué pasa si en realidad grabamos rayos de luz? En lugar de simplemente registrar una intensidad para cada píxel, ¿qué tal una intensidad y un vector? La dirección de ese rayo de luz. Esa es la idea de la cámara de campo claro. Si eres capaz de hacerlo de una manera significativa, esencialmente no grabas una imagen, grabas la información necesaria para crear una imagen de varias maneras. Una compañía llamada Lytro ha hecho algunas de estas cámaras, pero han sido poco más que una curiosidad. Pero ahora están trabajando en cámaras de campo claro para cinematografía digital, lo que podría ser muy interesante.

Y otro es el procesamiento de objetos. En este momento, la mayoría de las cámaras nuevas pueden reconocer rostros humanos. El software en sitios de redes sociales como Facebook puede reconocer buenas imágenes de personas específicas en las fotos que cargue. Imagine este tipo de tecnología para hornear durante algunas décadas.

Hace mucho tiempo, el formato de video MPEG-4 fue diseñado para video procesado por objetos. Entonces, por ejemplo, quizás puedas ver el partido de fútbol gratis, pero tienes que pagar un poco más para ver el balón. Tal vez sea un ejemplo alféizar, y nadie ha hecho mucho con eso, pero se discutió. Ok, no imagines que tu cámara es lo suficientemente inteligente como para catalogar muchas de las cosas en cada foto. Tomas esa foto, vuelves a casa, cargas esa imagen en Photoshop 2030 y ves que hay una encuesta telefónica fea en la lista. Vaya al menú de objetos, elimine la encuesta telefónica por nombre, y eso se ha ido de su foto, no queda rastro. También puede buscar en su catálogo de fotos cada foto de su gato “Joffrey” (mi esposa eligió el nombre). Claro, hoy puede agregar esos metadatos cuando revisa su colección de fotos. Pero en el futuro, su cámara puede estar llamando objetos individuales en la foto, más fácil porque está mirando antes y después de la exposición real para definir esos objetos, y su software de catalogación completará información más específica: sabe que hay un gato, un nombre de gato específico Joffrey, tal vez información adicional, sabe que está sentado o durmiendo o saltando, etc. Todo con muy poco trabajo de su parte.

Hemos visto algunos teléfonos inteligentes multisensor últimamente, pero este, la cámara Light, ya había salido antes y era un poco exagerado. Esta cámara incluye dieciséis sensores separados, hasta diez de los cuales se pueden usar para cualquier toma. De los dieciséis sensores pequeños similares a teléfonos celulares, cinco son de gran angular, cinco son de telefoto corto y seis son de teléfono largo. La trayectoria de la luz de todos los tele sensores está doblada, como un periscopio, lo que mantiene la cámara delgada.

Están haciendo una variedad de trucos de fotografía obligatorios en esta cámara. Están componiendo la salida de múltiples sensores para ofrecer una imagen más grande con menos ruido. Están haciendo algunos cálculos parallex, basados ​​en diferentes posiciones del sensor, que se pueden usar para proporcionar efectos artificiales de profundidad de campo … como se mencionó, estos pequeños sensores tienen campos focales muy profundos y no se pueden detener sin difracción. Esto también puede interpolarse entre las distancias focales de la cámara para ofrecer algo como el efecto de un zoom suave. Este modelo en realidad era bastante más caro que una buena DSLR de nivel de entrada o una plataforma sin espejo, pero están agotadas por primera vez y planean hacer más en 2017.

Parte de este tipo de fotografía computacional ciertamente llegará a la corriente principal. Ya, LG, Apple, Huawei y quizás otros han puesto cámaras duales en sus teléfonos inteligentes. Esto es algo así como una admisión de que las cámaras de los teléfonos actuales de 12–20 megapíxeles simplemente no van a ser mejores, excepto tal vez por pequeñas mejoras de tecnología incrementales, sin ser demasiado grandes para un teléfono. Así que todos buscan hacer algo nuevo con múltiples cámaras.

La cámara dual firmada con código Leica en el Huawei P9, aunque tenía un bajo rendimiento, tenía muchas ideas interesantes. Tiene dos sistemas de cámara / lente compatibles, excepto que una de las cámaras no tiene filtro Bayer. Entonces, tiene una toma monocromática que es 3 veces más o menos la sensibilidad de su cámara a color. Incluso tan cerca como están, el software puede explotar el paralelismo entre los dos para juzgar la distancia de las cosas y ofrecer una configuración de apertura “virtual”, haciendo que el software desenfoque las imágenes de fondo ajustadas a lo que puede ver con una DSLR.

La marcha lenta

Algunas de estas cosas me parecen bastante emocionantes, pero siempre hay que esperar a que la nueva tecnología “futura” para llegar al presente. Y luego, una vez aquí, un tiempo más largo para que la industria y los usuarios decidan si es una gran innovación o una tontería burlarse de alguna lista de lo peor del año. La innovación, después de todo, no es lo que estoy haciendo hoy, es lo que la historia tiene que juzgar sobre lo que hice ayer.

Algunas cosas se dan cuenta rápidamente. La estabilización de la imagen estuvo en las lentes de las cámaras de alta gama por un tiempo, pero se abrió paso en casi todas las cámaras, videocámaras y, más recientemente, teléfonos inteligentes P&S, en solo unos diez años. Y con varias formas diferentes de lograrlo. Antes de eso, era autofocus y antes de eso, autoexposición. Regrese a los SLR de 1960 y solo Konica estaba presionando la exposición automática.

Algunas de estas cosas son bastante experimentales, y podrían ser callejones sin salida, o simplemente llevar años en desarrollarse. Pasaron unos 25 años desde que la primera batería de iones de litio que funcionaba en el laboratorio se convirtió en una batería normal que se podía comprar, y otros 10 para dominar absolutamente el mercado de baterías de cámaras. Una gran razón: los primeros explotaron … un problema que hemos visto no siempre se ha resuelto incluso hoy.

Con los chips de gigapíxeles ya en uso en astrofotografía, y las tecnologías esenciales de la fotografía con 200 años de antigüedad, con la óptica aún más antigua, ¿qué queda por mejorar en esta era de las cámaras digitales?

Bueno, por supuesto, el costo pragmático (alto) de la fotografía digital afecta a todos. Pero hay una cuestión más apremiante.

Almacenamiento. En este momento, las tecnologías de almacenamiento son pequeñas y temporales. Los negativos en blanco y negro lavados adecuadamente durarán más que todo lo digital, actualmente. La fotografía digital aún tiene que salir de sus raíces pequeñas y temporales.

¿Qué está pasando? Bueno, el almacenamiento más estable que tenemos actualmente es MDISC, como un DVD o Blu-Ray súper grabado en piedra (literalmente) que tiene una vida teórica de 1,000 o más años. Pero sigue siendo pequeño, con un límite de 50 GB.

He estado esperando pacientemente que el almacenamiento basado en CARBONO llegue al mercado. Este avance nanotecnológico pondrá fin a la tecnología de “disco giratorio” que comenzó en la década de 1960 y aún no ha logrado nada en términos de tamaño y permanencia. Carbon Storage matará los discos giratorios más rápido que los CD mataron a los LP. Este año, Apple reemplazó las “teclas de función” nacidas en la década de 1960 con un futuro mucho más poderoso: la Touch Bar. A medida que Apple innova, también lo hace el resto del mundo informático, y pronto, todos los teclados serán teclados Touch Bar. Adiós, teclas de función.

Aquí en mi oficina satelital en Florida, tengo una caja de envío de disco duro giratoria llena de discos duros sin procesar que uso como disquetes más grandes en una combinación de un solo lector Thunderbolt con mucho más ancho de banda que los discos mismos, y un par de discos individuales se acopla bajo el muy lento protocolo USB 3. Eso es un total de 4 discos externos, que generalmente son de 4 a 6 terabytes cada uno. 24 terabytes. En un universo digital donde los teléfonos celulares graban video 4K, y mis réflex digitales incluyen una Hasselblad digital de 50 MB, lo que significa que los fotogramas individuales superan los 100 megabytes. Los pequeños discos duros se están volviendo un poco molestos.

(La unidad anterior es solo un factor de forma similar a lo que uso).

El almacenamiento de carbono traerá PETABYTES al mundo y, finalmente, algo de tamaño para nuestras mega necesidades de almacenamiento. También está archivado de una manera que ningún disco de carbono podría reclamar NUNCA. Pero el almacenamiento de carbono es una tecnología en su infancia. Así que esperamos de manera temporal, pequeña y lenta. Y con el costo pragmático de tener que comprar discos duros de 4, 6 u 8 terabytes hasta que, finalmente, sean reemplazados, con el gasto adicional de TIEMPO para satisfacer sus necesidades personales. Espero pasar unos meses reemplazando más de un petabyte de almacenamiento giratorio en una pequeña porción del primer disco de carbono, y obtener dos más para el futuro, uno primario y su respaldo.

Ahora, busqué un poco lo último en almacenamiento de carbono, pero el trabajo se entromete. Cuando escuché por primera vez, fue alrededor de 2006, mucho tiempo por nanosegundos de Internet.

La otra cosa que sería útil en el futuro sería la consolidación de las tecnologías de visión industrial para que las compañías de cámaras tuvieran un tiempo más simple para elegir sus chips. Muy pocos fabricantes de cámaras tienen algo que ver con su diseño de chip.

¿Qué mejora importante se hará a las cámaras en el futuro?

Hace 50 años, era posible imaginar que las cámaras podrían mostrar colores en un par de décadas. Pero ahora, a excepción de las mejoras en la resolución, ¿qué mejora importante se puede hacer a las cámaras?

Las cámaras de campo ligero refinarán sus capacidades al aumentar la resolución, expandir la cobertura a 360 grados, agregar video 3D y HD, todo en una plataforma de dron estabilizada por imagen con GPS y sonido estéreo.

Cualquier evento significativo podría grabarse con varios drones flotando en posiciones estratégicas. Posteriormente, aún así, el video y el video 3D serán producibles desde cualquier posición, ángulo y punto de enfoque personalizables a cualquier especificación.

Bueno, primero diría que la fotografía en color como un proceso experimental apareció en 1869 (Louis Ducos du Hauron), como un proceso viable en 1907 (Lumiere’s Autochrome), y estuvo disponible comercialmente para las masas en 1935–36 (AGFAChrom en Alemania, Kodachrome en los EE.UU). Entonces, hace 50 años, en 1966, la fotografía en color era bastante común.

En cuanto a las perspectivas, diría que habrá más mejoras en el rango dinámico (la capacidad de reproducirse como un amplio rango de luces y sombras) y la capacidad de disparar con poca luz, una mayor automatización que incluye algoritmos sofisticados de reconocimiento de objetos y escenas. , la convergencia de cámaras fijas y videocámaras y, probablemente, algún tipo de prevención de enfoque erróneo, como el apilamiento de enfoque automático o alguna variación de la tecnología de campo claro.

Solo para que conste, estaba tomando fotos en color hace 50 años.

Dispare principalmente diapositivas con la película Agfa, precediendo el ligero tinte verde al pesado magenta de Kodachrome. Ambos datan de principios de la década de 1930.

  • En cuanto al diseño de la cámara, me parece que hay un caso para la componenteización. Un poco como el Sony DSC-QX100

Me encantaría tener el visor separado del sensor. A fines de la década de 1960, la ciencia ficción representaba una cámara que se parecía un poco a un lápiz labial, sin pantalla ni controles.

  • La idea lytro de enfocar después de fotografiar tiene algunos méritos.
  • La distinción entre imagen fija y video podría desaparecer
  • Los drones serán una parte importante del negocio.
  • Los formatos esféricos 360 y otros relacionados con la realidad virtual serán grandes.

No estoy del todo seguro de si la idea de la cámara sobrevivirá al ataque del teléfono. Sé por qué prefiero un sensor y una lente de buen tamaño, pero el mercado no es lo suficientemente grande como para sostener la fabricación.

La amplia adopción de la tecnología de cámaras de campo ligero hará mejoras masivas