Ya hay una gran cantidad de procesamiento posterior en tiempo real en las imágenes tomadas por la cámara del teléfono inteligente, pero la mayoría involucra mitigación de ruido, conversión de formato sin formato a JPEG y algunas transformaciones simples como la interpolación para obtener una imagen más grande y hacer zoom. Estas operaciones a menudo se realizan directamente por hardware.
Las operaciones más comunes que realiza el software de mejora de fotografías son la corrección de color, el brillo y el contraste, la corrección de tres veces y algunas correcciones menores de rutina, como eliminar los ojos rojos. Las aplicaciones pueden hacerlo fácilmente, la mayoría de las aplicaciones de cámara tienen estas características.
El hardware asegura que obtendrá una imagen realista, y el software que obtendrá una imagen hermosa. Una imagen realista puede no ser bella y viceversa.
- ¿Qué es una cámara réflex digital buena pero muy barata?
- ¿Existe algún software y aplicación que pueda instalar para usar mi teléfono celular como una cámara CCTV y ver la grabación del teléfono celular en vivo desde mi PC?
- ¿Apple con el iPhone tiene el mejor procesamiento posterior de imágenes en el negocio como stock en su aplicación de cámara?
- ¿Cuál es mejor SONY a6000 u OLYMPUS EM10?
- Cuando una cámara digital de bolsillo toma una fotografía con una resolución inferior a la máxima, ¿reduce el tiempo de obturación o simplemente reduce la imagen completa?
El estado actual del arte es que obtendrá imágenes realistas de los sensores, hasta el punto de que tienen más detalles y datos de lo que el ojo puede capturar en las mismas condiciones.
Sin embargo, el cerebro procesa la imagen mucho mejor identificando formas, formas y gradientes, y tiene un espacio de color diferente.
Incluso si ve una imagen borrosa que se puede reconocer, los bordes son más nítidos y el verde es mucho más vívido. En comparación con un sensor, la imagen resultante no se vería real en absoluto, pero no porque el sensor esté defectuoso, sino porque el procesador de imágenes del cerebro está sesgado al ver la luz con receptores rojos, verdes y azules que son equivalentes a ~ 400 nm, ~ 530 nm , ~ 650nm receptores, en lugar de una serie de sensores espaciados uniformemente.
Apenas estamos viendo cosas en comparación con todo el espectro electromagnético. Si un extraterrestre pudiera vernos con un espectrómetro completo, vería la pantalla y las fotos como oscuras, con algunos colores exagerados.
También hay diferencias biológicas en cómo se ven los colores, como el daltonismo.
A medida que descubramos más sobre cómo vemos, la cámara seguramente mejorará aún más.