Todo es aprendizaje automático …
Cuando Google anunció los píxeles 2 y 2 xl, me sorprendió inicialmente notar la ausencia de un sistema de cámara dual, pero cuando dijeron que podía capturar retratos súper nítidos sin una lente secundaria, me voló la cabeza.
Los teléfonos inteligentes como el iPhone 7,7 +, 8, Oneplus 5, Note 8 y otros logran el efecto de profundidad de campo (bokeh) utilizando la lente secundaria. La lente primaria captura al sujeto primario y la lente secundaria generalmente calcula la distancia entre el sujeto principal y el fondo y luego, al aplicar algoritmos de ajuste de imagen avanzados, difumina el fondo del sujeto y produce un efecto bokeh.
- ¿Puede una cámara de teléfono capturar fantasmas?
- ¿Algún departamento de policía está usando videos de cámara de tablero para entrenamiento o está hablando de usar videos de cámara corporal para entrenamiento?
- ¿Cuál es la mejor compra para un cineasta aficionado?
- ¿Debo comprar la GoPro Hero3 + Black Edition o la Nikon D3300? ¿Por qué?
- ¿Por qué la cámara del iPhone se coloca a un lado y no en el centro del teléfono?
Como Google fue el pionero en jugar con IA, lo hizo con la ayuda del aprendizaje automático. No estoy seguro de lo que realmente está sucediendo en el fondo, pero este podría ser el truco. En el evento, explicaron que el píxel 2 y la cámara xl disparan ráfagas de disparos, lo que significa que captura múltiples imágenes de un solo disparo sin retrasos y luego analiza los píxeles de la imagen y combina los mejores píxeles disponibles con los máximos detalles de iluminación para producir El mejor tiro. Todas estas cosas suceden sin retrasos …
Este truco también ayuda con las tomas de retratos. Una vez que se captura una imagen, analiza los píxeles y los ordena con detalles de color uniformes. Entonces, si está capturando a una persona parada frente a un árbol, entonces la persona tendría diferentes detalles de iluminación en comparación con el fondo. El sistema de aprendizaje profundo de Google (fotografía computacional) analiza estos detalles de iluminación y separa los píxeles de fondo del primer plano y luego hace referencias cruzadas del sujeto de primer plano con su repositorio de datos. El sistema de aprendizaje automático que realiza estas cosas ya habría sido entrenado con millones de imágenes para recortar el sujeto principal del fondo, por lo tanto, sabe que una persona o una flor o un objeto con detalles de iluminación uniformes es el sujeto principal y el que tiene los diferentes detalles de iluminación son el fondo … luego simplemente difumina esos píxeles de fondo y luego combina tanto el primer plano como el fondo para producir una increíble toma de retrato.
Aquí está la parte del evento donde explican sobre la técnica de fotografía computacional implementada en los teléfonos pixel 2
—Es asistentes