Creo que el documento presentado SRC (Sparse Representation based Classification) es uno de los influyentes. se puede comparar SRC con NN (clasificador de vecino más cercano) y NS (clasificador de subespacio más cercano). una muestra de prueba en NN está codificada por un ejemplo más cercano. Y, NS lo codifica como una combinación lineal de ejemplos que se encuentran en el mismo subespacio de clase. (igual que la muestra de prueba). En SRC, una muestra de prueba se codifica considerando todos los ejemplos en el conjunto de entrenamiento si pertenece a la misma clase que la muestra de prueba o no. al final se clasifica considerando los residuos para cada clase, por lo que se encuentra entre el enfoque NN y NS. Se recomienda encarecidamente a los lectores más entusiastas que consulten el documento original:
Wright, John, Allen Y. Yang, Arvind Ganesh, Shankar S. Sastry y Yi Ma. “Reconocimiento robusto de caras a través de una representación escasa” Análisis de patrones e inteligencia artificial, transacciones IEEE el 31, no. 2 (2009): 210-227.
- Andrew Ng: ¿Cuáles son los requisitos previos para iniciar el aprendizaje automático?
- ¿Cómo se puede aplicar el aprendizaje automático a la contabilidad?
- ¿Qué tan grande es el mercado de consultoría de aprendizaje automático para nuevas empresas?
- ¿Qué papel jugará la ciencia de datos en las elecciones presidenciales de 2012?
- ¿Qué es una explicación intuitiva de DBSCAN?