El análisis de componentes principales (PCA) es una técnica multivariante utilizada para enfatizar la variación y resaltar patrones fuertes en un conjunto de datos. A menudo se usa para facilitar la exploración y visualización de datos. Fue inventado en 1901 por Karl Pearson.
Cuando se estudian muchas variables al mismo tiempo, para interpretar la información de una forma más significativa, es necesario reducir el número de variables a unas pocas combinaciones lineales de los datos. Cada combinación lineal corresponderá a un componente principal (PC). El número de PC es menor o igual que el menor número de variables originales o el número de observaciones.
- Dada una lista de codificadores y sus respectivos conjuntos de fragmentos de código, ¿es posible inferir a partir de un fragmento de código nuevo dado el codificador original?
- Cómo hacer una biblioteca en ML como Tensorflow
- ¿Cuáles son las ventajas de las técnicas de aprendizaje automático sobre las técnicas de pronóstico tradicionales?
- ¿Qué es el aprendizaje automático en tiempo real?
- ¿Cuál es la biblioteca de aprendizaje profundo más fácil de aprender?
Básicamente, el procedimiento utiliza una transformación ortogonal para convertir un conjunto de observaciones de variables posiblemente correlacionadas en un conjunto de valores de variables linealmente no correlacionadas o PC. Puede ser numéricamente intensivo y se hace mejor usando computadoras. Aquí hay un gran artículo que lo explica en detalle: Análisis de componentes principales explicado visualmente
En cuanto a la cantidad máxima de variables que se pueden usar, depende del software. En general, el número máximo de variables admitidas por la mayoría del software es 256.