Creo que esta no es una pregunta de sí / no; Prefiero reformular la pregunta en “¿cómo clasificaría correctamente un sistema de reconocimiento facial basado en CNN si la imagen facial se presentara al revés?”
La otra respuesta tiene una visión significativa, así que comencemos con eso: si el conjunto de entrenamiento tuviera imágenes al revés (o caras en orientación inusual en general) esperaríamos que pueda reconocer caras independientemente de la orientación. De hecho, en la mayoría de los esquemas de capacitación de CNN, las personas usan el aumento de datos para hacer que su modelo sea robusto contra la orientación, la traducción y también la iluminación; es decir, generan pequeñas variaciones a partir de los datos de entrenamiento inicial y los agregan al conjunto de entrenamiento para hacerlo “más rico”. Por lo tanto, la pregunta es qué tan aumentados están sus datos de entrenamiento.
Otra cosa a considerar podría ser el uso de Redes de Transformador Espacial (STN) (pdf), que es básicamente un módulo que puede aprender la transformación afín / proyectiva sin supervisión adicional. Entonces, si se aplica correctamente, básicamente aprende cómo transformar sus imágenes o mapas de activación (dependiendo de dónde coloque el módulo en su arquitectura), y en teoría su CNN puede volverse robusto frente a diferentes orientaciones.
- ¿Cómo aprenden los algoritmos de aprendizaje automático de los datos?
- ¿Existe algún método de aprendizaje profundo aplicado a la economía?
- ¿Crees que la investigación universal de perturbaciones adversas es justa en las redes neuronales profundas?
- ¿Cuál es la diferencia entre el aprendizaje automático y la forma en que Kepler obtuvo las leyes de Kepler?
- ¿Cuáles son los buenos libros para el aprendizaje automático?
Una forma menos científica / más orientada a la ingeniería sería implementar su propio módulo de aprendizaje no profundo para calcular manualmente la rotación en función de características fáciles de extraer (por ejemplo, ubicación de los ojos + ubicación de la boca o nariz) y usarlas para calcule la deformación (180 grados en su caso) y ajuste la imagen a una orientación canónica (y céntrela mientras está en ella) antes de alimentarla a la CNN.
También tenga en cuenta que esta no es una lista exhaustiva, y que otros pueden (y probablemente ya lo hayan hecho) encontrar otras formas de hacer que los sistemas de reconocimiento facial sean invariables contra la orientación.