Estoy seguro de que alguien puede responder esto mejor que yo, pero lo intentaré.
La cámara o el sensor no son los que realmente detectan las caras. Cualquier detección / reconocimiento facial se realiza mediante software.
Básicamente, un programa repasa la imagen que está obteniendo y utiliza algoritmos matemáticos o algo así determina si un grupo de píxeles es una cara u otra cosa.
- ¿Cuáles son los sensores disponibles para medir la presión automotriz?
- Cómo diseñar un circuito sensor de detector de metales que pueda detectar hasta 20 cm bajo tierra
- ¿Cómo funciona un sensor térmico de imagen IR?
- ¿Por qué los sensores CCD todavía se usan en astrofotografía?
- ¿Cómo intercambian datos los dispositivos portátiles pequeños (como Fitbit) con un servidor? ¿Qué sensores / chips usan?
Un ejemplo muy básico sería si escribe un programa para determinar si un píxel es rojo, azul o verde. Es el mismo concepto, excepto que con la detección de rostros el programa es mucho más complejo y hace millones de cálculos cada segundo.
La idea es simple, todos tienen ojos, nariz y boca. Estas 3 características solo tienen una forma / color / simetría general. Entonces, el programa busca un grupo de píxeles que coincidan con la descripción preprogramada de una cara.
Las expresiones son solo otra capa de la descripción. El software está programado para detectar la boca y si los extremos de la boca están curvados hacia arriba, el sujeto está sonriendo, si está hacia abajo, el sujeto está triste. O si la boca está abierta y hay dientes que muestran que la persona se está riendo. Y así.