¿Cómo siguen mejorando las cámaras de los teléfonos inteligentes? ¿Es el procesamiento de imágenes?

Ya hay una gran cantidad de procesamiento posterior en tiempo real en las imágenes tomadas por la cámara del teléfono inteligente, pero la mayoría involucra mitigación de ruido, conversión de formato sin formato a JPEG y algunas transformaciones simples como la interpolación para obtener una imagen más grande y hacer zoom. Estas operaciones a menudo se realizan directamente por hardware.

Las operaciones más comunes que realiza el software de mejora de fotografías son la corrección de color, el brillo y el contraste, la corrección de tres veces y algunas correcciones menores de rutina, como eliminar los ojos rojos. Las aplicaciones pueden hacerlo fácilmente, la mayoría de las aplicaciones de cámara tienen estas características.

El hardware asegura que obtendrá una imagen realista, y el software que obtendrá una imagen hermosa. Una imagen realista puede no ser bella y viceversa.

El estado actual del arte es que obtendrá imágenes realistas de los sensores, hasta el punto de que tienen más detalles y datos de lo que el ojo puede capturar en las mismas condiciones.

Sin embargo, el cerebro procesa la imagen mucho mejor identificando formas, formas y gradientes, y tiene un espacio de color diferente.

Incluso si ve una imagen borrosa que se puede reconocer, los bordes son más nítidos y el verde es mucho más vívido. En comparación con un sensor, la imagen resultante no se vería real en absoluto, pero no porque el sensor esté defectuoso, sino porque el procesador de imágenes del cerebro está sesgado al ver la luz con receptores rojos, verdes y azules que son equivalentes a ~ 400 nm, ~ 530 nm , ~ 650nm receptores, en lugar de una serie de sensores espaciados uniformemente.

Apenas estamos viendo cosas en comparación con todo el espectro electromagnético. Si un extraterrestre pudiera vernos con un espectrómetro completo, vería la pantalla y las fotos como oscuras, con algunos colores exagerados.

También hay diferencias biológicas en cómo se ven los colores, como el daltonismo.

A medida que descubramos más sobre cómo vemos, la cámara seguramente mejorará aún más.

Valerio Cietto da una excelente respuesta. También agregaré que el software a menudo realiza lo que se denomina “corrección de píxeles muertos”, a menudo en el CCD (el dispositivo que captura la luz y la convierte en una señal), algunos píxeles en la matriz 2D pueden fallar, dando un color negro ( sin voltaje) lectura. El software puede detectar esto y con algoritmos de vecindad (mirando lo que hay alrededor del píxel en cuestión) puede tomar una “mejor suposición” para elegir un valor apropiado, reparando así las imágenes dañadas.

Vea mi respuesta a ¿Cuánto más pueden mejorar las cámaras de los teléfonos inteligentes?

La versión súper corta es la siguiente:

  • Los sensores de las cámaras de los teléfonos inteligentes son 5 veces más grandes hoy que en 2008
  • En ese tiempo, la eficiencia del sensor se ha duplicado aproximadamente
  • La calidad óptica ha aumentado significativamente

El software es solo una parte de la imagen. Hay espacio para mejoras adicionales, pero no al ritmo que hemos visto.

Todos los factores para capturar imágenes superiores están mejorando. Eso incluye procesamiento de imágenes de primer nivel, mejores sensores, aumento del tamaño del sensor y minimización de megapíxeles para que los píxeles individuales sean lentes de mayor apertura, mayor ancho, etc.