¡Ninguno!
No debe usar la selección de funciones y PCA juntos.
Suponga que sus datos de entrada están en una matriz como la que se muestra a continuación cuyas filas contienen características y columnas de puntos de datos individuales. Los esquemas de selección de características y PCA reducen la dimensión del espacio de características, o en otras palabras, el número de filas en la matriz a continuación.
- ¿Cómo descifrar cualquier entrevista de aprendizaje automático? ¿Qué tipo de preguntas debo esperar? Qué tipos de proyectos paralelos relevantes se verían bien en un CV
- Visión por computadora: ¿Cuáles son los problemas abiertos para la recuperación de imágenes?
- ¿Cuáles son algunos conjuntos de datos sin resolver que son los objetivos de la investigación actual de Deep Learning?
- Cómo manejar una imagen de diferentes tamaños en una red convolucional de MatConvNet con un contenedor DagNN
- ¿Qué se entiende por agrupamiento jerárquico aglomerativo?
Sin embargo, los dos métodos funcionan de manera diferente: mientras que la selección de características literalmente selecciona filas de la matriz original para mantener, PCA usa la geometría del espacio de características para producir una nueva matriz de datos basada en una versión dimensional de los datos más baja.
No tiene sentido emplear ambos métodos simultáneamente. Debe usar la selección de características si la interpretación de los resultados es importante, y al tratar casos en los que tiene conocimiento a priori de que algunas de las características (obviamente no sabe cuáles) son irrelevantes. Muchas aplicaciones genéticas y de neurociencia del aprendizaje automático entran en esta categoría.
Una nota de precaución: ¡ PCA puede arruinar la estructura de separabilidad en sus datos! Por lo tanto, no lo use antes de la clasificación a menos que sea necesario. Vea el ejemplo a continuación.