En PCA, ¿cuáles son los roles y los significados físicos de las caras propias?

Ok, expliquemos un poco las matemáticas detrás de PCA.

La covarianza es una aplicación bilineal, simétrica y semi-definida. Por lo tanto, la matriz de covarianza es simétrica y semi-definida en sí misma, ya que es la representación matricial de la covarianza.
La varianza es la forma cuadrática asociada a la covarianza: Var (X) = Cov (X, X). Esto está en la raíz del análisis de componentes principales.

El teorema espectral establece que cualquier matriz simétrica real es diagonalizable, y que la base resultante es ortogonal. La idea principal de PCA es diagonalizar la matriz de covarianza, produciendo una base de “componentes principales”, que son variables ortogonales en el sentido de la covarianza. Desde un punto de vista estadístico, significa que los componentes principales no están correlacionados.

Lo que significa concretamente es que con PCA, encuentra un conjunto de variables no correlacionadas que forman una base de su espacio de características, por lo tanto, puede “explicar” cada variable en relación con la base del espacio. De cierta manera, le permite eliminar información innecesaria seleccionando solo los componentes principales que más contribuyen a su variable, al igual que si “comprimiera” la información.

Si observa esto desde un punto de vista geométrico, es análogo a encontrar la base de una elipsis en el plan real: estos son los ejes de la elipsis. En PCA tienes una forma cuadrática n-dimensional pero realmente es la misma idea.

Bueno, adivina qué, estos vectores (ejes de puntos suspensivos o componentes principales) son los vectores propios de la matriz de covarianza (siempre obtienes los vectores propios al diagonalizar una matriz cuando la matriz es diagonalizable).

Las caras propias son solo un caso específico de vectores propios cuando se realiza PCA en el espacio de “todos los rostros humanos posibles”. Son vectores no correlacionados ( ortogonales ) del espacio que forman una base ortogonal, lo que significa que obtienes menos vectores que todo el espacio que te permiten reconstruir cualquier vector posible del espacio (es decir, cualquier cara posible).

¡Espero que ahora entiendas mejor de qué se trata PCA y gracias por el A2A!

Eigenfaces es solo una aplicación de PCA para imágenes con rostros humanos. Y estas “caras propias” son vectores propios del “espacio de la cara”.

En PCA, encontrará direcciones con la máxima varianza, tome solo algunas de estas direcciones y luego transforme sus datos.
Puedes hacer lo mismo con imágenes con caras:

  • primero, representa cada imagen como un vector
  • luego aplique PCA
  • y extraer los componentes principales – en este caso, caras propias

Por ejemplo, esto es lo que puede extraer del conjunto de datos con caras del conjunto de datos ORL (consulte aquí: Conjuntos de datos de caras populares)

Entonces puedes tomar cualquier cara y representarla como una suma sobre caras propias

El primer componente principal captura la dirección de la varianza máxima. Si tiene muchas fotos faciales aleatorias, el primer componente principal probablemente corresponderá al fondo.

El segundo componente principal, corresponde a la dirección de máxima varianza ortogonal a la dirección del primer componente principal. En las fotos faciales que contienen hombres y mujeres, esto puede corresponder a la región del cabello.

Del mismo modo, puede tener componentes principales que capturan el tono de la piel.

Sin embargo, generalmente, el componente principal captura interacciones complejas y no siempre es sencillo darles un significado físico.

Puede que le guste este video que he creado donde calculo caras propias y muestro su efecto. Revisa el enlace a continuación.

EigenFace

More Interesting

¿Cuáles son algunos algoritmos para resolver el problema de los bandidos multi-armados?

¿Cuáles son los mejores materiales de física estadística para redes neuronales profundas?

¿Qué tan avanzado es el aprendizaje autónomo robótico?

¿Qué tipos de características se extraen de los archivos de voz utilizando predicción lineal y predicción no lineal?

¿Cuál es la diferencia entre modelos discriminativos y generativos en el contexto de la segmentación de imágenes?

¿Qué tipo de proyectos de aprendizaje automático puedo hacer? ¿Qué libros me recomiendan aprender? Estoy interesado en usar Python.

¿Qué tan difícil es aprender el aprendizaje automático y el aprendizaje profundo después de los 30 años?

Cómo entrenar a una CNN con datos insuficientes y no tan buenos

¿Cuál es la posibilidad de hacer una máquina de pensamiento real?

¿Cuándo se utilizarían los bosques aleatorios sobre las máquinas potenciadas por gradiente (GBM)?

Cómo saber si Deep Learning funcionará mejor para un problema específico, que SVM o bosque aleatorio

¿Cómo es un proyecto de visión por computadora "típico", de principio a fin?

¿Cuál es la diferencia entre datos etiquetados y datos no etiquetados?

¿Qué piensan los pequeños equipos de ciencia de datos sobre la plataforma Dato y el pensamiento de Carlos Guestrin detrás de la democratización del aprendizaje automático?

¿Qué es más robusto para datos ruidosos, un árbol de decisión o Naive Bayes?