En primer lugar, PCA está destinado a la transformación de dimensionalidad y no a la reducción. Puede elegir los componentes más importantes y llamarlo características seleccionadas, pero no están en el espacio de características original.
En segundo lugar, sí normaliza la función porque las diferentes funciones tienen escalas diferentes, por ejemplo, la Característica1 es la edad y Fetaure2 es el ingreso. Digamos que la edad es entre 1 y 100 y el ingreso entre $ 1000 a $ 100000. En este caso quieres hacer la normalización. Un efecto secundario de la normalización es la pérdida de información, por lo que debe tener cuidado.
Por último, la normalización de características se realiza antes de emplear cualquier método de transformación o selección de características y antes de entrenar. Entonces, primero escala las características, luego ejecuta PCA o lo que sea, y luego realiza la capacitación.
- Aprendizaje automático: ¿qué significa 'Los bosques aleatorios requieren casi ninguna preparación de entrada'?
- ¿Los científicos informáticos realmente entienden cómo el aprendizaje profundo puede lograr sus resultados?
- ¿Cuáles son las principales diferencias entre TensorFlow y SciKit Learn?
- ¿Cuáles son algunos proyectos paralelos de Machine Learning que puedo implementar en mi tiempo libre?
- ¿Por qué los investigadores de IA se centran solo en problemas de regresión y clasificación?
Editar
¿Pensé en compartir este enlace que mencioné en los comentarios: PCA primero o normalización primero?
HTH