Por lo general, lo hace tomando las salidas de la penúltima capa (penúltima) de la red capacitada y luego usa una medida de similitud para medir la similitud de la nueva imagen con las imágenes en su conjunto de datos, luego clasifique en consecuencia. También puede entrenar un clasificador, por ejemplo (KNN, SVM, etc.) a partir de estas características, dependiendo de la cantidad de imágenes que tenga.
Reconocimiento facial con Keras y OpenCV: Above Intelligent (AI) describe cómo hacerlo y utiliza la similitud de coseno para nuevas imágenes. (PD: también encontrarás el código allí)
También deberías visitar el blog de adam geitgey ¡Machine Learning is Fun! Parte 4: Reconocimiento facial moderno con Deep Learning seguido de su github ageitgey / face_recognition.
- ¿Por qué no estamos usando el coeficiente beta como una selección de características?
- ¿Un doctorado en aprendizaje automático centrado en un tema que no sea el aprendizaje profundo seguirá siendo comercializable (en la industria) en 2020?
- ¿Por qué utilizamos núcleos en algunos modelos de aprendizaje automático?
- ¿Pueden Kmeans y el algoritmo DBSCAN dar el mismo resultado para un conjunto de datos en particular?
- ¿Debería haber una relación específica entre el número de características y el número de clases? Si tengo 15 funciones pero 50 clases con 1000 datos de entrenamiento, ¿tendré un problema de sobreajuste? ¿Y cuál es la mejor técnica de clasificación para esta relación?
También hay openface (OpenFace 0.2.0: mayor precisión y tiempo de ejecución reducido a la mitad, OpenFace)
Espero que haya ayudado!