Ok, expliquemos un poco las matemáticas detrás de PCA.
La covarianza es una aplicación bilineal, simétrica y semi-definida. Por lo tanto, la matriz de covarianza es simétrica y semi-definida en sí misma, ya que es la representación matricial de la covarianza.
La varianza es la forma cuadrática asociada a la covarianza: Var (X) = Cov (X, X). Esto está en la raíz del análisis de componentes principales.
El teorema espectral establece que cualquier matriz simétrica real es diagonalizable, y que la base resultante es ortogonal. La idea principal de PCA es diagonalizar la matriz de covarianza, produciendo una base de “componentes principales”, que son variables ortogonales en el sentido de la covarianza. Desde un punto de vista estadístico, significa que los componentes principales no están correlacionados.
- ¿Qué método de reducción de dimensionalidad puede mantener las relaciones de traslación entre puntos?
- ¿Cuál es el atractivo de Python para ML y aplicaciones científicas en general?
- ¿Qué hay de nuevo con Wasserstein GAN?
- ¿Cuáles son los principales puntos de regresión?
- ¿Cuáles son algunos ejemplos de inteligencia artificial en sitios web?
Lo que significa concretamente es que con PCA, encuentra un conjunto de variables no correlacionadas que forman una base de su espacio de características, por lo tanto, puede “explicar” cada variable en relación con la base del espacio. De cierta manera, le permite eliminar información innecesaria seleccionando solo los componentes principales que más contribuyen a su variable, al igual que si “comprimiera” la información.
Si observa esto desde un punto de vista geométrico, es análogo a encontrar la base de una elipsis en el plan real: estos son los ejes de la elipsis. En PCA tienes una forma cuadrática n-dimensional pero realmente es la misma idea.
Bueno, adivina qué, estos vectores (ejes de puntos suspensivos o componentes principales) son los vectores propios de la matriz de covarianza (siempre obtienes los vectores propios al diagonalizar una matriz cuando la matriz es diagonalizable).
Las caras propias son solo un caso específico de vectores propios cuando se realiza PCA en el espacio de “todos los rostros humanos posibles”. Son vectores no correlacionados ( ortogonales ) del espacio que forman una base ortogonal, lo que significa que obtienes menos vectores que todo el espacio que te permiten reconstruir cualquier vector posible del espacio (es decir, cualquier cara posible).
¡Espero que ahora entiendas mejor de qué se trata PCA y gracias por el A2A!