¿Cómo era el campo de la robótica antes del advenimiento de algoritmos ML más avanzados y aprendizaje profundo?

¡Depende de lo que entiendas por “campo de la robótica”!

Para mí, la robótica tiene que ver con la “integración de sistemas” que generalmente involucra componentes mecánicos y computacionales, a diferencia de cualquier fijación específica en una forma particular, forma o función.

Percepción del robot: reconocimiento

Funcionalmente, hay un lado de la percepción / percepción de la robótica, donde el reconocimiento basado en imágenes (o incluso el reconocimiento en nubes de puntos LIDAR, etc.) se ha beneficiado enormemente del aprendizaje automático. Antes del aprendizaje automático, las personas intentaban enfoques simbólicos o basados ​​en reglas para comprender los datos de imágenes. Algunos ejemplos son:

(1) Percepción de máquina de sólidos tridimensionales, LG Roberts, Tesis doctoral, MIT, 1963 [la primera tesis doctoral en visión robótica], que funcionaba solo con entornos artificiales formados por bloques rectangulares. El sistema extrajo los bordes de la imagen, completó los bordes faltantes y razonó sobre diferentes configuraciones geométricas posibles de los bloques para llegar a una comprensión 3D de la escena.

https://dspace.mit.edu/bitstream…

(2) Razonamiento simbólico entre modelos 3D e imágenes 2D, Rodney Brooks, Tesis doctoral, MIT, 1981 – Rodney Brooks es el famoso robotista del MIT que está detrás de Roomba de iRobot y más recientemente Baxter. Su trabajo de tesis doctoral involucró un lenguaje de especificación de forma simbólica, en el que se podía especificar la forma de una clase de objeto, por ejemplo, un automóvil o un avión conectando una serie de primitivas geométricas cuyas dimensiones se especificaron como rangos (restricciones).

http://www.dtic.mil/get-tr-doc/p…

(3) Reconocimiento de objetos tridimensionales a partir de imágenes unidimensionales bidimensionales, David Lowe, Inteligencia Artificial, 198 7 – Los primeros trabajos de David Lowe en la estimación de objetos 3D en una pila desordenada, por ejemplo, para aplicaciones de recolección de basura. Utilizó modelos CAD en 3D de objetos, en el papel, una maquinilla de afeitar, y los comparó con los bordes de la imagen, explotando señales como la colinealidad y el paralelismo.

http://www.cs.ubc.ca/~lowe/paper…

Desafortunadamente, todos estos enfoques carecían severamente de su capacidad para lidiar con imágenes desafiantes del mundo real. Debido a las computadoras del día, ¡solo se evaluaron en un puñado, a menudo solo 1–2 imágenes!

A finales de los años 90, después de que David Lowe inventó el descriptor SIFT, el aprendizaje automático comenzó a aplicarse además de tales características hechas a mano en el contexto de reconocimiento.

Percepción del robot: localización y mapeo

El reconocimiento se ha beneficiado significativamente del aprendizaje automático, porque el aprendizaje discriminatorio permite que el sistema sea robusto contra el desorden de fondo, y las características hechas a mano o aprendidas ahora son robustas contra las variaciones de imagen (por ejemplo, iluminación, orientación). Sin embargo, la localización y el mapeo en el contexto de la robótica móvil todavía se realiza en gran medida a la antigua usanza, desde los días antes de que el aprendizaje automático comenzara a tener un impacto en la robótica.

Antes del descriptor SIFT, los robotistas no confiaban en las imágenes de la cámara para la localización o el mapeo, y se realizó mucho trabajo utilizando los telémetros láser o incluso SONAR. Pero incluso después de SIFT, y otros descriptores hechos a mano más rápidos, el aprendizaje automático no ha cambiado mucho en cómo se realizan la localización y el mapeo. La siguiente diapositiva establecida por el profesor John Leonard señala muchos de esos primeros trabajos:

20150717_1_Leonard_rssws_slamHistory.pdf

Control de bajo nivel

Kalman Filtering ha existido desde finales de la década de 1950, mientras que el controlador PID ha existido desde 1920, y ambos son similares en espíritu a las técnicas de aprendizaje. Por lo tanto, se puede decir que el control de robots de bajo nivel (comenzando con la navegación y el control de barcos y misiles) siempre ha sido “aprendizaje automático” basado en una forma u otra.

Control de alto nivel o planificación de robots

En la planificación de robots, los primeros enfoques fueron aquellos basados ​​en la búsqueda de árboles, donde las ramas divisorias del “árbol” representan posibilidades de expansión a menudo a lo largo de la dimensión temporal. El algoritmo A * se inventó por primera vez en el contexto de la planificación del robot Shakey a finales de los años 60.

A * algoritmo de búsqueda – Wikipedia

Una búsqueda * todavía se está utilizando para planificar rutas en automóviles sin conductor. La búsqueda de árboles estocásticos se unió a redes neuronales profundas en el reciente sistema AlphaGo que derrotó al campeón mundial de Go.

Domina el juego de Go con redes neuronales profundas y búsqueda de árboles
http://web.iitd.ac.in/~sumeet/Si…

El otro enfoque importante investigado mucho en este contexto son los procesos de decisión de Markov (MDP), y su extensión de los procesos de decisión de Markov parcialmente observables (POMDP). Los MDP son modelos de estadísticas, que nuevamente están muy cerca del aprendizaje automático y han existido desde la década de 1950.

Este es un conjunto de diapositivas de conferencias básicas que Google devolvió sobre el tema:

http: //ais.informatik.uni-freibu…

En resumen, hasta ahora el mayor impacto que el aprendizaje automático ha tenido en la robótica enfoques de aprendizaje especialmente profundo es en la percepción, específicamente en el reconocimiento. Todo lo demás en robótica no se ve afectado en gran medida, a pesar de que hay proyectos de investigación tempranos que intentan explotar redes neuronales profundas para aprender el mapeo de extremo a extremo desde la entrada del sensor hasta la salida del actuador.

Visité la principal conferencia de robótica Robotics: Science and Systems (RSS) en 2015, y en gran medida encontré a la comunidad de robótica profundamente escéptica del aprendizaje profundo. Habría risas en el pasillo cada vez que se mencionara el aprendizaje profundo. Sus corazones están cambiando lentamente a medida que se demuestran demostraciones más impresionantes, pero han sido más lentas que otras comunidades, por ejemplo, la comunidad de visión por computadora al adoptar el aprendizaje profundo.

Shakey, el robot fue construido en la década de 1970. En ese momento, AI estaba investigando problemas como la generación automática de planes.

Nuestro equipo de estudiosos de Stanford analizó un artículo sobre esto. Este esfuerzo nos llevó a algunos esfuerzos iniciales en inteligencia artificial y cómo han evolucionado las cosas. Toda la perspectiva, incluidos los desarrollos históricos, se ha capturado en este video de 5 minutos. Esto es solo 1 perspectiva.

Shakey también tenía cámaras y definitivamente había algo de visión por computadora. Pero la mejor parte es la generación automática de planes, que no es más que encontrar la secuencia óptima de operaciones necesarias para realizar una tarea que optimice un objetivo, por ejemplo, menos tiempo, menos batería, etc.

Je Lamento reventar su burbuja, pero el aprendizaje profundo realmente no se ha utilizado mucho en robótica, excepto por un papel limitado como submódulo. Existe una gran esperanza para el aprendizaje de refuerzo profundo como un sistema de extremo a extremo para la robótica (consulte Pieter abbeel y sus excelentes charlas e investigaciones). Sin embargo, la muy alta dimensionalidad del espacio de control del robot, junto con pequeñas cantidades de datos (el robot puede romperse por el desgaste rápidamente en relación con la cantidad de datos necesarios) y recompensas dispersas, ha sido un desafío implementarlo en el caso general.