- Selección univariante
desde sklearn.feature_selection import SelectKBest
sklearn.feature_selection.SelectKBest – documentación de scikit-learn 0.18
- Eliminación de características recursivas
sklearn.feature_selection.RFE – documentación de scikit-learn 0.18
- ¿Cuál es el mejor libro de matemáticas que debería leer un aspirante a científico de datos?
- ¿Existe algún beneficio de saber que Java debe seguir el camino de ser un científico de datos o puede tomarse como un complemento? (Java-as Map reduce los requisitos previos: análisis de Big Data)
- ¿Qué tipo de herramientas de colaboración reducirían la duplicación del esfuerzo de I + D en el análisis y el intercambio de datos?
- ¿Se puede confiar en los datos autoinformados?
- ¿Por qué agregar más como primera columna de datos en el aprendizaje automático?
- Análisis de componentes principales
de sklearn.decomposition import PCA
Los árboles de decisión como Random Forest y Extra Trees se pueden usar para estimar la importancia de las características.
- Supervisado
CIFE – Aprendizaje condicional infomax
MIM – Categorización de texto
JMI – No gaussiano
ICAP – Basado en datos mutuos
- Sin supervisión
lap_score – Puntajes laplacianos
SPEC – Características espectrales
- basado en estadísticas
low_variance – ML en python
Para obtener más referencias de API: documentación de scikit-learn 0.18 Verifique esto