Nuevamente, hay un par de formas de hacer esto, pero el método más común para hacerlo es usar el Análisis de componentes principales .
El análisis de componentes principales es una técnica utilizada en todo, desde la inteligencia de negociación de acciones hasta el reconocimiento facial (claramente). La idea básica es que buscamos los vectores más comunes de características que definen la mayor variación en todo el rostro humano. Luego definimos a cada persona como una combinación única de estos vectores.
Una forma de ver cómo funcionaría esto es imaginar que tengo un padre asiático y un padre caucásico. Mi cara sería una mezcla de 50% de Asia y 50% de Blanco. Si solo hubiera 3 personas en el planeta, una asiática, una caucásica y yo, mi compostura como 50% asiática y 50% blanca me identificaría de manera única. Usar PCA para el reconocimiento facial es esencialmente lo mismo, excepto reemplazar la raza aquí con algún conjunto estadísticamente significativo de “caras propias” (vectores de alta varianza en el párrafo anterior).
- ¿Cuáles son los problemas interesantes en la 'automatización de big data'?
- ¿Cuáles son las debilidades del algoritmo estándar k-means (también conocido como algoritmo de Lloyd)?
- Codificación dispersa: ¿cuál es la implementación paso a paso para la codificación dispersa? ¿Qué representa la norma l0 / norma l1 / regularización?
- ¿Cuáles son las relaciones entre diversidad y precisión en los enfoques de conjunto?
- ¿Cuáles son los algoritmos de aprendizaje profundo que pueden corregir los errores de reconocimiento óptico de caracteres (OCR)?