¿Qué tipo de algoritmo SLAM utiliza Teslas? ¿O incluso están usando algoritmos SLAM?

David Nister dirige la división de piloto automático de Tesla cuyas contribuciones de investigación más impactantes son a la odometría visual. El solo hecho de que esté liderando ese equipo sugiere que SLAM es probablemente la mayor parte de lo que Tesla estaba haciendo internamente para su piloto automático, en el momento en que usaban chips MobilEye para el reconocimiento.

Además, dado que Tesla no se basa en mapas 3D altamente detallados (a diferencia de Google), que es lo que permite que sus autos funcionen incluso fuera de California (!), Deben usar algún tipo de algoritmo visual SLAM, en lugar de solo localización contra características visuales pregrabadas.

Dado que el estado de la técnica es visual SLAM es bastante conocido y se ha estabilizado en los últimos años, estoy bastante seguro de que es algún tipo de enfoque basado en la optimización (Ajuste de paquete) que fusiona IMU + GPS, no muy diferente de OK-VIS o ORB-SLAM. Además, esperaría que algunos detectores de puntos clave y otra maquinaria modelen específicamente características de la carretera, por ejemplo, marcas de carril, además de características similares a SIFT.

ethz-asl / okvis

Dudo que Tesla use slam. Han registrado que dicen que usan el aprendizaje profundo y usan una placa de unidad px 2 en sus automóviles. Como ambos son computacionalmente caros, solo pueden elegir uno. Y parecen haber elegido el aprendizaje profundo.