Matchmoving implica la determinación de la profundidad, y por lo tanto de una posición mundial, de los puntos seguidos en 2D en un plano de imagen plana.
Se puede suponer que cualquier punto único seguido en un plano 2D (material de archivo) se encuentra en una línea que pasa desde el punto focal de la cámara a través del punto seguido del plano de proyección de la cámara.
Imagine fotografiar un sujeto con una cámara que tiene una lámina de vidrio frente a él. Mirando a través de la cámara, puede marcar un punto en ese cristal que parece estar sobre cualquier punto de interés. Luego, podría extender una línea, digamos con un puntero láser, que se extiende desde el punto focal de la cámara, a través del punto en el cristal y hasta el punto de interés en su sujeto. Si hace esto con varios puntos de interés, todas esas líneas también se cruzan en el plano focal de la cámara.
- ¿Qué tan bueno es el grupo de visión por computadora de Dropbox?
- En términos simples, ¿cómo funciona el algoritmo de hash perfecto "comprimir, hash y desplazar (CHD)"?
- ¿Cuáles son los temas de investigación actuales en informática en la nube?
- ¿Es necesario asistir a Stuyvesant para tener éxito en los concursos de investigación científica?
- Mi amigo está comenzando su doctorado en CS en el MIT. ¿De qué debo advertirle?
Si deja el puntero láser fijo en su posición y mueve la cámara y hace lo mismo desde otra posición, terminará con un montón de líneas que convergen en un solo punto en el espacio para cada punto “rastreado”, además de que convergen en el puntos focales de la cámara para cada instancia donde se movió la cámara.
Si conoce alguna información sobre la cámara, puede hacerlo muchas veces y eventualmente podrá triangular dónde debe estar la cámara en cualquier momento.
Desafortunadamente, estoy escribiendo en un dispositivo iOs y no puedo agregar fácilmente un boceto, pero aquí aparece un simple desencadenante. Para cualquier ubicación x, y en un plano de imagen, puede construir un triángulo rectángulo para coordenadas horizontales y verticales donde la distancia al plano focal se establece como una constante, y el ángulo del triángulo rectángulo se puede resolver como una fracción del FOV de cámara conocida, por lo que el triángulo se puede resolver y se puede determinar que la cámara está en algún lugar de una línea en particular. En el transcurso de muchas muestras a lo largo del tiempo y muchos puntos de seguimiento diferentes, se puede resolver la posición de la cámara.
Sé que no es tan útil, y apenas rasca la superficie. El movimiento de coincidencia toma una idea simple, utilizando una triangulación trigométrica simple, y la lleva bastante lejos, ya que muchas triangulaciones se muestrean a lo largo del tiempo y se ponderan para obtener precisión, se compensan los errores de seguimiento 2D, las distorsiones de la lente y otras distorsiones espaciales / temporales se compensan, etc.
Se han escrito artículos y libros académicos … Esto podría ayudarlo a comenzar.
http://www.comp.nus.edu.sg/~cs52…
http://www.amazon.com/Computer-V…
Además, si desea explorar algunos de los trigonometros básicos involucrados interactivamente con softimage ICE, visite mi blog http://andy.moonbase.net y verá algunos ejemplos de técnicas de proyección de cámara y triangulación entre puntos en el espacio 3D y una imagen de cámara avión. Softimage ICE proporciona un marco muy intuitivo en el que explorar matemáticas 3D / espaciales de este tipo.
Tengo la intención de agregar más, pero estoy esperando en este momento porque me pueden contratar para hacer algunos videos educativos que tocan los temas, aunque no en el grado de resolver un movimiento de cámara completo. Pero espero que haya suficiente para al menos comenzar a explorar. 🙂