¿Cuál es un ejemplo de un algoritmo de filtro en la selección de funciones en el aprendizaje automático?

En realidad, hay tres categorías amplias de algoritmos de selección de características: filtro, contenedor y métodos integrados.

Los métodos de envoltura miden el rendimiento de las características en función del clasificador, la “utilidad” de las características si lo desea. En contraste, los métodos de filtro recogen las propiedades intrínsecas de las características (es decir, la “relevancia” de las características) medidas a través de pruebas estadísticas en lugar del rendimiento de validación cruzada. Por lo tanto, los métodos de envoltura esencialmente resuelven el problema “real” (optimizando el rendimiento del clasificador) pero también son computacionalmente más caros en comparación con los métodos de filtro debido a los pasos de aprendizaje repetidos y la validación cruzada.

La tercera clase, los métodos integrados, son bastante similares a los métodos envolventes, ya que también se utilizan para optimizar la función objetivo o el rendimiento de un algoritmo o modelo de aprendizaje. La diferencia con los métodos de envoltura es que se usa una métrica intrínseca de construcción de modelos durante el aprendizaje.

Aunque solo solicitó métodos de filtro, permítame darle una lista de los diferentes enfoques de selección de funciones.

Métodos de filtro:

Basado en pruebas estadísticas que miden algunas propiedades intrínsecas del conjunto de datos / características

  • ganancia de información
  • prueba de chi-cuadrado
  • coeficiente de correlación
  • umbral de varianza

Métodos de envoltura:

  • eliminación de funciones recursivas
  • algoritmos de selección de características secuenciales
  • algoritmos genéticos

Métodos integrados

  • L1 (LASSO) regularización

La distinción semántica no es importante (todos son métodos para la selección de características), pero el uso de PCA para reducir la dimensionalidad sería un ejemplo.