Estamos utilizando PCA para representar datos de N dimensiones en un subespacio de baja dimensión (d), d << N. Qué sucederá si los datos no pueden representarse en una curva lineal . En ese caso, el kernel PCA puede mapear los datos en un espacio de características de alta dimensión (truco del kernel) y extraer componentes principales en ese espacio.
Por ejemplo, si tiene n puntos de datos. En lugar de usar x_i, busque una función phi para asignar este punto al espacio de características de alta dimensión phi [math] (x_i) [/ math]. En PCA lineal, podemos usar los valores propios para clasificar los vectores propios en función de la cantidad de variación de los datos capturada por cada componente principal. Esto es útil para la reducción de la dimensionalidad de los datos y también podría aplicarse al kernel PCA [1]. Así es como podemos hacer un subespacio de baja dimensión a partir de los puntos de datos de alta dimensión proyectados.
HTH.
- ¿Qué se entiende por inversa modular de un número?
- ¿Qué vale la pena aprender antes de ir a la carrera de ciencias de la computación para tener éxito allí?
- ¿Se puede descifrar algún código?
- Dada una matriz binaria cuadrada donde puede voltear todos los elementos de una columna, ¿cómo puede encontrar el número máximo de puntos que puede obtener?
- ¿Es cierto que al menos uno de los dos términos en [math] Rad (p) - 1, Rad (p) + 1 [/ math] es un número primo, donde [math] Rad (p) [/ math] es el producto de todos los números primos menores o iguales que [math] p [/ math]?
Notas al pie
[1] Análisis de componentes principales del núcleo – Wikipedia