Supongo que se refiere a la matriz de carga de factores en un modelo de PCA: [math] y = Wx [/ math].
Suponga que tiene [matemáticas] N [/ matemáticas] observaciones [matemáticas] x_n [/ matemáticas] de dimensionalidad [matemáticas] p [/ matemáticas]. Deje X ser la matriz de observaciones. Cada punto de datos es un vector en el espacio euclidiano p-dimensional.
PCA tiene como objetivo encontrar una nueva base para que los puntos de datos estén correlacionados. La descorrelación se traduce matemáticamente en ortogonalidad con respecto a la correlación. Lo hace básicamente al encontrar los vectores propios de la matriz de covarianza de datos, esto le da una nueva base ortogonal del espacio.
- ¿Cuántos datos se producen diariamente y cómo se obtuvo esa cifra?
- Para evaluar qué tan bueno es un hiperparámetro de red (por ejemplo, la tasa de deserción), ¿debo esperar a la convergencia?
- En PCA, ¿cuáles son los roles y los significados físicos de las caras propias?
- ¿Cuáles son las nuevas modificaciones en las redes neuronales recurrentes cuando se considera el aprendizaje profundo?
- ¿Qué tamaño debería tener mi bosque aleatorio aproximadamente si tengo 17 variables y medio millón de registros?
El objetivo de PCA es usar esto para reducir la dimensionalidad de los datos. Para hacer esto, desea mantener menos dimensiones que [math] p [/ math], lo que significa que proyecta los datos en el espacio de dimensiones inferiores y elige los vectores base para:
- Maximiza la varianza proyectada
- Minimice el error de reconstrucción entre las observaciones reconstruidas (basadas en las proyecciones) y las observaciones reales
Estos dos criterios son equivalentes y conducen a elegir los vectores propios de la matriz de covarianza que están asociados con los valores propios más altos.
Las cargas son las coordenadas de sus puntos de datos con respecto a esta nueva base.