Sí, la selección de funciones suele ser útil para comprender algo más sobre la entrada. Es probable que un menor número de características haga un modelo más interpretable, pero también dice algo sobre qué características no importaron mucho y cuáles sí, lo que puede guiar la recopilación de nuevas características.
La selección de características elige un subconjunto de entradas de muchas. La reducción de dimensiones transforma muchas entradas en menos entradas. Para obtener la representación de dimensión reducida, aún necesita todas las muchas entradas, mientras que después de seleccionar las características, ya no son necesarias.
La reducción de dimensiones es más eficiente. Es decir, la selección de 3 de 10 características probablemente pierda más de la ‘señal’ de entrada que la transformación de 10 a 3 a través de un proceso basado en principios como PCA.
- ¿Por qué el libro de Murphy dice en el clasificador generativo que no tenemos que volver a entrenar el modelo cuando agregamos más clases?
- Quiero aprender a extraer datos de un sitio web. ¿Donde debería empezar?
- ¿Cuáles son los principales puntos de regresión?
- ¿Cómo es usar las API de servicios cognitivos de Microsoft?
- ¿Cuánto del aprendizaje automático es en realidad solo optimización?
Las técnicas de reducción de dimensiones como PCA solo operan en un espacio continuo. La selección de características es una idea genérica que podría aplicarse a valores categóricos.