La cantidad de datos que necesita para cualquier tarea depende de su modelo y la calidad de los datos, es decir, si sus imágenes contienen o no información suficiente para predecir la salida de la entrada. Había trabajado en un proyecto de curso sobre reconocimiento facial de género; el informe se puede encontrar en [1]. Utilizamos el conjunto de datos de escaneos de Nottingham, un conjunto de datos de juguete que consta de 50 imágenes masculinas y 50 femeninas en las que las caras se han capturado en un entorno controlado con sujetos cooperativos. Un simple clasificador SVM entrenado en características LBP parece ofrecer un rendimiento bastante decente con precisiones generales en el rango de 84 – 85%.
En una etapa posterior, también entrené a un SVM para la clasificación de género usando LFW (nuevamente con características de LBP), un conjunto de datos más desafiante con caras sin restricciones y variaciones significativas en pose, iluminación, expresión, etc. Por un lado, LFW ofrece más diversidad en términos de calidad de imagen, lo que dificulta la tarea de aprendizaje. Sin embargo, también es mucho más grande en tamaño con ~ 13k imágenes y, por lo tanto, ofrece más datos para aprender. Las precisiones en LFW estaban en el rango de 87 – 88% (en general).
[1] https://samyak-268.github.io/pdf…
- ¿Cómo se conecta la regresión lineal a los filtros de Kalman?
- ¿Hay alguna manera de probar el límite de precisión teórica para clasificar un conjunto de datos en particular? O, ¿hay alguna forma de confirmar que la calidad de los datos es insuficiente para un problema?
- ¿Qué significa realmente la matriz de covarianza de la estimación de máxima verosimilitud de la distribución normal multivariante?
- Si hay investigaciones que muestran que una máquina interactúa con un humano dentro de la realidad a través de una conciencia cuántica, ¿cómo se recibirá?
- ¿Qué es la minimización alterna en la optimización convexa?