¡¡¡NO NO NO NO NO NO NO!!! ¡No hagas eso!
Las redes neuronales y las regresiones (en realidad, un caso especial de redes neuronales) tienen, de manera bastante universal, un componente lineal primero. La unión de las características PCA y las características originales dependerá casi linealmente. Así es como funciona PCA. Eso significa que al elegir pesas, habrá muchos juegos de pesas que son aproximadamente igual de buenos. Eso reducirá la convergencia incluso más que solo agregar algunas características totalmente aleatorias.
Hay, por supuesto, otros algoritmos de aprendizaje que no tienen ese problema en particular, pero aún así es probable que pierda su tiempo y potencia informática. Eso es porque:
- ¿Qué se sigue investigando en bosques aleatorios?
- ¿Hay algún sitio web gratuito como freecodecamp para aprender aprendizaje automático, inteligencia artificial y ciencia de datos?
- Cómo manejar datos ruidosos a través del aprendizaje automático
- ¿Hacer una certificación CCNA ayudará de todos modos en los campos de Big Data / Hadoop?
- ¿Es Big Data todo sobre sistemas distribuidos?
¡Las características de PCA y las características originales contienen la misma información!
Entonces, si su algoritmo mejora de alguna manera al usar ambos, probablemente no esté aprendiendo de la información real.