Si
Después de aplicar una primera selección de características, puede aplicar la reducción de dimensionalidad como:
- Otra selección de características: seleccionará características del conjunto de características previamente preseleccionadas (es decir, correlación de Pearson seguida de una selección de clasificación de características de RF). Es útil cuando tiene demasiadas funciones (es decir, 4K) y desea aplicar un método más rápido, y después de eso con solo, digamos funciones 1K, aplique un método mejor que tome menos tiempo.
- Una extracción de características: “transformará” sus datos en otro espacio de características (es decir, correlación de Pearson seguida de PCA o LDA). Es bueno que aplique PCA / LDA después de aplicar una selección de características, de modo que el nuevo espacio de características se pueda adquirir utilizando un conjunto de características representativas.
- Reducción de instancias: seleccionará instancias (o generará instancias sintéticas generalizadas) de sus datos. Dado que esto tiene como objetivo seleccionar “buenas instancias”, es importante que este paso se realice después de la selección de características, para que la reducción de instancias se pueda aplicar a los datos en su mejor representación.
- ¿Facebook utiliza el aprendizaje automático?
- ¿Qué tan importante es la optimización de hiperparámetros en los modelos gráficos bayesianos, como la asignación de Dirichlet latente?
- ¿Debo eliminar las URL cuando hago el preprocesamiento para un análisis de sentimientos de Twitter?
- ¿Podemos aplicar el aprendizaje automático a los problemas de NP Complete?
- ¿Cuáles son algunas aplicaciones del aprendizaje automático en la industria de la geología y la energía?