Si una partícula de materia golpea un sensor (cámara / ojo), el sensor no puede detectar su punto de origen pero el fotón le da esta capacidad al sensor, ¿por qué?

Ningún sensor de imagen antiguo tiene la menor idea sobre el punto de origen de un fotón. Un fotón golpea un fotodiodo. Ese fotodiodo conduce otro electrón. Eso es todo lo que pasa, siempre. No hay direccionalidad.

En una cámara, por supuesto, tiene una lente que enfoca una imagen sobre el sensor o la película. Todavía no hay direccionalidad registrada en el sensor. Simplemente registra la intensidad de la luz en cualquier punto del sensor.

Hay un dispositivo llamado cámara plenoóptica o de campo de luz, que intenta registrar no solo la intensidad de la luz, sino también la dirección de cada vector de luz que ingresa a la lente. Una compañía llamada Lytro introdujo algunos modelos usando esta idea. Dado que la cámara está grabando un conjunto limitado de vectores de luz, en lugar de una imagen convencional, puede volver a enfocar la imagen después del hecho.

Un conjunto de sensores físicos tendría información sobre dónde impacta una partícula, registrando la velocidad al menos. No estoy seguro sobre el enfoque per se, pero obviamente un embudo o algunos deflectores afectarían la forma en que la partícula impacta el sensor. Al igual que con la cámara pleóptica, necesitaría un diseño más complejo para calcular el vector de movimiento de la partícula.

Enfoque automático: tal vez no lo que piensas

Ahora, por supuesto, las cámaras modernas parecen ser capaces de distanciarse de una imagen, ¿verdad? Después de todo, se enfocan automáticamente. Pero eso en realidad se basa en el análisis de imágenes, no en ningún conocimiento específico de la distancia codificada en los fotones.

El primer tipo de enfoque automático se llama enfoque automático de detección de contraste (CDAF). Esto funciona analizando una imagen e intentando maximizar el contraste de la imagen. Una lente desenfocada está actuando básicamente como un filtro de paso bajo en una imagen, por lo que sabemos que el máximo contraste se logra cuando la imagen está enfocada. La cámara no tiene idea de las distancias reales … de hecho, un sistema CDAF tiene que “buscar”, tiene que cambiar el enfoque para saber si ha logrado el mejor enfoque, y a menudo primero va en la dirección equivocada.

El otro tipo se llama enfoque automático de detección de fase. Esto significa que dirige una pequeña parte de la imagen a través de dos microlenos y sensores diferentes.

Si la imagen está enfocada (2), las dos imágenes diferentes se alinean … si están demasiado cerca (1) o dos lejos (3,4), se separan. Esto realmente permite que el sensor tenga una buena idea del grado (diferente entre 3 y 4 es el grado de “demasiado lejos”) y la dirección de desenfoque. Las cámaras modernas con este tipo de sistema tienen sistemas de motor de enfoque de lente calibrado, por lo que el enfoque se encuentra muy rápidamente.

PDAF es una implementación moderna del principio del telémetro de coincidencia.

Faro y otros becons

Por supuesto, puede seguir una luz hasta su origen. Eso es, por supuesto, porque tiene un flujo continuo de fotos (o al menos regular). La luz permanece encendida, puedes seguirla. Un solo destello golpea tu ojo, quizás, quizás no Tendrá una imagen latente de un destello brillante en una habitación oscura y, por supuesto, es probable que sea una imagen enfocada, por lo que podrá estimar la fuente de la luz. Ese es el procesamiento de imágenes por parte de su cerebro, no una propiedad de la luz.

No es diferente, realmente, que un objeto físico. Si te golpea una pequeña gota de agua, probablemente no tengas idea de su origen. Pero si es una cascada, por supuesto que sí, porque estás haciendo lo mismo … estás procesando imágenes. Tu sentido de la cascada frente a ti te dice dónde está el agua, tu experiencia con el agua y las cascadas te dice dónde se originó.

Porque una cámara / ojo es un sensor para fotones y ves un objeto porque ese objeto está emitiendo fotones. Cuando estos fotones se vuelven a rastrear, se convierten en la imagen del objeto. Si en lugar de fotones, ahora tenía un lanzador de misiles en el espacio libre y en ausencia de gravedad, de modo que tiene misiles que se disparan en todas las direcciones, entonces cuando aterrizan en una superficie, puede rastrear la trayectoria y tener una idea de donde se originaron. En este caso, el objetivo está actuando como un sensor de materia.

Tanto una partícula material como un fotón pueden disponerse para indicar su dirección de vuelo. En su forma más simple, esto implica una matriz sensible detrás de una abertura de agujero de alfiler.

La posición de detección indica la dirección esférica de llegada.