Muy buena pregunta.
1. Supongamos que tenemos 2 clases.
2. Digamos que cada punto tiene una dimensión de 10000 (una imagen de 100 * 100)
3. Digamos que los datos de su tren son otras 1000 imágenes (100 clases) y ahora tiene datos de prueba de alrededor de 100 imágenes.
¿Qué haces?
Intenta cualquier algoritmo sin optimizar y estaría fuera de cálculo incluso con una RAM de 32 GB.
(por ejemplo, KNN básico, DAG, etc.)
- ¿Cuántas veces se realiza la comparación [código] i> = n [/ código] en el siguiente programa? [código] int i = 200, n = 110; main () {while (i> = n) {i = i-1; n = n + 1;}} [/ código]
- ¿Cómo demostró Alan Turing que solo seis operaciones primitivas se pueden usar para realizar cualquier operación matemática?
- ¿Cuáles son los diferentes tipos de algoritmos?
- ¿Es posible proporcionar un análisis de complejidad para todos los algoritmos en términos de theta?
- ¿Cuál es la probabilidad de que 2 números sean iguales en una lista aleatoria de n números de m dígitos?
Su objetivo principal es reducir los datos de prueba y aquí viene el papel de los vectores Eigen y los valores Eigen.
PCA: (Algoritmo)
“Usted encuentra la media, luego la matriz de covarianza y luego la resta y luego llega a la ecuación A [punto] ‘A transposición’ y usa alguna función incorporada y encuentra vectores Eigen y valores Eigen”
(Lógica)
Retrocedamos a su pregunta “hazlo rápido” ahora usa estos vectores Eigen como un representante de cada imagen. Usa k vectores propios correspondientes a los valores más altos de K.
(Explicación básica)
Los vectores propios son una pequeña representación de sus grandes datos.
¿Cómo?
Porque elegimos los valores Eigen correspondientes a los vectores Eigen con valores más altos.
¿Porque?
Los valores altos de Eigen representan una alta varianza en esa dirección (Dirección del vector Eigen)
.