Solo puedo hablar sobre un área de aplicación en Computer Vision que permanece bastante intacta por el aprendizaje profundo. Es en tiempo real estructura de movimiento y SLAM visual. Para vincular esto con su pregunta original, SLAM es definitivamente una parte fundamental de la IA, especialmente en el contexto de la robótica.
El estado del arte actual para Visual SLAM es ORB SLAM. Todas las demás publicaciones recientes, incluida [1607.02565] Direct Sparse Odometry y LSD SLAM, utilizan algoritmos / técnicas que no tienen nada que ver con el aprendizaje automático. Se han realizado intentos para volcar parte de la canalización visual de SLAM al aprendizaje profundo (http://mi.eng.cam.ac.uk/~agk34/r…) pero no existe una canalización de extremo a extremo hasta la fecha. Lo mismo ocurre con la odometría visual-inercial.
Incluso el documento CVPR 2017: http://campar.in.tum.de/pub/tate… descarga solo una parte de la predicción de mapas de profundidad densa a CNN, pero la estimación de la postura de la cámara se realiza mediante la optimización clásica no lineal y también lo es la La optimización de la postura del gráfico. En otras palabras, los sistemas de aprendizaje profundo en tiempo real que manejan tanto el seguimiento como el mapeo para SLAM visual (sin depender de ninguna de las técnicas clásicas) no están a la vista. Con un salto razonable de fe, se puede argumentar que no es probable que suceda pronto. Debido a que SLAM visual en tiempo real necesita ser validado en computadoras portátiles de grado de consumo (o en dispositivos móviles) y es bastante difícil poner todo ese cálculo en GPU de presupuesto (hasta la fecha).
- ¿Por qué las IA en los videojuegos RTS apestan tanto en los mapas de agua?
- ¿Por qué las redes neuronales necesitan una función de activación?
- ¿Cómo afecta la automatización de IA en la ingeniería aeroespacial?
- ¿Qué documentos sobre chatbot debo leer antes de desarrollar e investigar sobre chatbot?
- ¿Cómo será el sistema operativo de la próxima generación?
Incluso el campo del modelado de superficie / objeto en tiempo real permanece relativamente intacto por el aprendizaje profundo. En particular, VolumeDeform (https://people.mpi-inf.mpg.de/~m…) y DynamicFusion (https: //rse-lab.cs.washington.ed…) no se basaron en el aprendizaje profundo. (Aunque no estoy seguro si estos califican como ‘AI’)
Si bien el aprendizaje profundo había estado avanzando en el campo del reconocimiento, clasificación y etiquetado de imágenes / objetos / escenas, su progreso en aplicaciones en tiempo real basadas en (o derivadas de) técnicas de SFM ha sido significativamente menos espectacular.