Tengo una hipótesis sobre cómo lo hacen.
Las redes neuronales son buenas en esta tarea: dadas dos fotos de retrato, predice si son fotos de la misma persona o de dos personas diferentes. Para obtener más información sobre este tema, consulte este conjunto de datos LFW Face Database: Main, así como los documentos publicados que utilizan sus imágenes.
Sospecho que, bajo el capó, Apple ha recopilado un conjunto de datos mucho más grande como el anterior y ha entrenado un reconocedor decente basado en el aprendizaje profundo. Esto explica la parte sobre capacitación en millones / miles de millones de imágenes mencionadas en el evento de hoy.
- En el aprendizaje automático, ¿cómo estima el descenso de gradiente la pendiente de la función de pérdida en un punto dado?
- ¿Dónde puedo encontrar un código de Python para SVM que use datos de funciones múltiples?
- ¿Cuál es la diferencia entre el análisis de opinión y el análisis de tonalidad?
- ¿Podrían las entradas del algoritmo de entrenamiento Perceptron tener diferentes tipos?
- ¿Qué significa el aprendizaje de características en Machine Learning?
Con este modelo bien entrenado, cuando configura Face ID, todo lo que tiene que hacer el teléfono es tomar una imagen de su rostro. Luego, para uso futuro, la cámara del teléfono puede tomar una nueva foto tuya y compararla con la versión guardada para ver si es la imagen de la misma persona.
Por supuesto, puedes volverte más elegante, y sospecho firmemente que Apple lo ha hecho. Por ejemplo, el iPhone X puede tomar múltiples imágenes desde múltiples ángulos cuando configura Face ID, luego hacer múltiples predicciones y usar un conjunto. Se sabe que esta técnica mejora significativamente la precisión.
Dicho todo esto, dado que todos los desastres ocurrieron con los reconocedores de imágenes basados en el aprendizaje profundo utilizados en la industria, me mantendría atento y esperaría para ver si los usuarios se quejan de la calidad de reconocimiento de Face ID. Es una espera emocionante.