Si Apple agregara un sensor TrueDepth a la cámara trasera del iPhone, ¿qué funcionalidad sería posible?

No mucho.

Puede ser útil para obtener un mapa de profundidad simple de un objeto pequeño, pero no es suficiente información para escanear ese objeto en 3D. Podría ayudarlo a identificar el objeto en línea.

El sensor de Apple funciona más o menos como el Microsoft Kinect, que puede escanear y mapear en profundidad una habitación completa. Literalmente como Kinect, porque Apple compró la compañía. PrimeSense desarrolló la tecnología Kinect para Microsoft, y Apple los compró en 2013.

El sistema básico funciona así. El sensor de proximidad detecta que su cara está lo suficientemente cerca como para escanearla. El proyector de puntos proyecta un patrón conocido de puntos infrarrojos en su cara, y toma instantáneas y fotografías infrarrojas. A continuación, ilumina tu rostro completamente en infrarrojo a través del “iluminador de inundación” y toma una foto infrarroja. Las distorsiones en la foto del patrón de puntos se analizan contra la foto completamente iluminada y se crea un mapa de profundidad.

El sistema iPhone X proyecta 30,000 puntos para su mapeo de profundidad. Apple sugiere 10-20 ″ desde la pantalla para una detección óptima. Si a 10 ″ el teléfono logró todos los puntos en su cara, a 20 ″, solo hay 7,500 puntos en su cara. A 40 ″, solo 1875. El escaneo dinámico puede ayudar aquí (varias imágenes con diferentes patrones conocidos), no tengo idea si Apple nos está haciendo esto o no. Pero, por supuesto, cada punto a 20 ″ es 4 veces más grande y 1/4 tan brillante como a 10 ″. A 40 ″ de salida, cada punto es 16 veces más grande y 1/16 de brillo. Por lo tanto, el valor del escaneo facial disminuye rápidamente, y el escaneo general necesita un haz de puntos mucho más brillante.

Luego están los problemas de iluminación. El sistema utiliza luz infrarroja para que se vea menos afectada por la luz ambiental, pero puede interferir. Otras fuentes de luz infrarroja, como la luz solar, ahogarán las pequeñas luces posibles en un teléfono. El Kinect podría enfrentarse a toda una habitación utilizando emisores infrarrojos mucho más potentes. Pero una batería de iPhone X no alimentaría un Kinect durante diez minutos. Incluso el reconocimiento facial de cerca está bloqueado por la luz solar brillante … esta metodología es inútil para objetos más distantes al aire libre.

Más:

  • literalmente puede escanear objetos en 3D y usar esos datos para encontrar ese objeto en Internet.
  • Potencialmente podría mapear el área de la foto y el video y esos datos se pueden usar para … ¿mapas? ¿Navegación?

Parte aterradora: escaneará las caras de todos y el gobierno puede usar esos datos para muchas cosas

Parte más aterradora: su teléfono siempre puede ser pirateado y le dará todos los datos faciales (de las fotos) que tiene en su teléfono a las personas equivocadas. Sé que ya tienes reconocimiento facial literalmente en todas partes, pero esto es aún más avanzado y, en las manos equivocadas, puede causar un daño grave a la sociedad. No olvides que después del iPhone X pagarás y desbloquearás tu teléfono con la cara. Y estoy seguro de que hay una manera de usar la cámara y los datos de las fotos sin una persona real para acceder a su teléfono.

Posiblemente fotos o escaneos en 3D si lo desea y cosas similares a eso