Este problema cae en la categoría de selección de características. Hay varios algoritmos para ello, algunos de ellos son:
1. Algoritmo de búsqueda hacia adelante y búsqueda hacia atrás: según lo explica Sandeep.
2. Use la Regularización en su modelo : Usar la Regularización en su modelo es efectivamente usar un algoritmo de selección de características. La inclusión de la regularización es equivalente a la introducción de un coeficiente gaussiano previo en el modelo que hace que la mayor parte de la contribución de los predictores sea igual a cero (de las propiedades de Gauss). No estoy seguro de si esta es una declaración perfectamente válida o no, pero estoy bastante seguro de ello.
- ¿Cuáles son los lenguajes utilizados en ciencia de datos en India?
- ¿Qué es la "fuga de datos" en la ciencia de datos?
- ¿Qué estadísticas debo saber para hacer ciencia de datos?
- ¿Cuáles son las diferencias entre el científico de datos, el ingeniero de datos y el ingeniero de aprendizaje automático?
- Cómo proteger todos los datos de mi computadora para que cualquier persona sin la clave de acceso no pueda ver ni eliminar nada
3. Selección de características basadas en árboles: toma prestado su concepto de árboles de conjunto (bosques aleatorios, etc.). En el clasificador basado en árbol en cada nodo, la división se realiza en función de la “ganancia de información” obtenida por una variable y se selecciona la variable que proporciona la máxima ganancia de información, por lo que esta información también se puede utilizar para la selección de características.
4. Utilice la técnica de reducción de dimensionalidad : Dim. Las técnicas de reducción como PCA, Isomp, LLE, etc. escanean los datos y encuentran las dimensiones (predictores) que son relevantes (en términos de información) y descartan características poco interesantes.