¡Depende de lo que entiendas por “campo de la robótica”!
Para mí, la robótica tiene que ver con la “integración de sistemas” que generalmente involucra componentes mecánicos y computacionales, a diferencia de cualquier fijación específica en una forma particular, forma o función.
Percepción del robot: reconocimiento
- ¿Podrían los programadores crear un robot con inteligencia artificial mayor que ellos?
- ¿Logramos controlar un robot a través del cerebro humano, o sigue siendo un sueño lejano?
- ¿Hay alguna referencia para C # como la documentación de Java AI?
- ¿Cómo puede un cerebro humano entrenar con mucha menos información y saber que un gato es un gato, en comparación con el aprendizaje profundo?
- ¿Cuál es la mejor herramienta para aprender redes neuronales?
Funcionalmente, hay un lado de la percepción / percepción de la robótica, donde el reconocimiento basado en imágenes (o incluso el reconocimiento en nubes de puntos LIDAR, etc.) se ha beneficiado enormemente del aprendizaje automático. Antes del aprendizaje automático, las personas intentaban enfoques simbólicos o basados en reglas para comprender los datos de imágenes. Algunos ejemplos son:
(1) Percepción de máquina de sólidos tridimensionales, LG Roberts, Tesis doctoral, MIT, 1963 [la primera tesis doctoral en visión robótica], que funcionaba solo con entornos artificiales formados por bloques rectangulares. El sistema extrajo los bordes de la imagen, completó los bordes faltantes y razonó sobre diferentes configuraciones geométricas posibles de los bloques para llegar a una comprensión 3D de la escena.
https://dspace.mit.edu/bitstream…
(2) Razonamiento simbólico entre modelos 3D e imágenes 2D, Rodney Brooks, Tesis doctoral, MIT, 1981 – Rodney Brooks es el famoso robotista del MIT que está detrás de Roomba de iRobot y más recientemente Baxter. Su trabajo de tesis doctoral involucró un lenguaje de especificación de forma simbólica, en el que se podía especificar la forma de una clase de objeto, por ejemplo, un automóvil o un avión conectando una serie de primitivas geométricas cuyas dimensiones se especificaron como rangos (restricciones).
http://www.dtic.mil/get-tr-doc/p…
(3) Reconocimiento de objetos tridimensionales a partir de imágenes unidimensionales bidimensionales, David Lowe, Inteligencia Artificial, 198 7 – Los primeros trabajos de David Lowe en la estimación de objetos 3D en una pila desordenada, por ejemplo, para aplicaciones de recolección de basura. Utilizó modelos CAD en 3D de objetos, en el papel, una maquinilla de afeitar, y los comparó con los bordes de la imagen, explotando señales como la colinealidad y el paralelismo.
http://www.cs.ubc.ca/~lowe/paper…
Desafortunadamente, todos estos enfoques carecían severamente de su capacidad para lidiar con imágenes desafiantes del mundo real. Debido a las computadoras del día, ¡solo se evaluaron en un puñado, a menudo solo 1–2 imágenes!
A finales de los años 90, después de que David Lowe inventó el descriptor SIFT, el aprendizaje automático comenzó a aplicarse además de tales características hechas a mano en el contexto de reconocimiento.
Percepción del robot: localización y mapeo
El reconocimiento se ha beneficiado significativamente del aprendizaje automático, porque el aprendizaje discriminatorio permite que el sistema sea robusto contra el desorden de fondo, y las características hechas a mano o aprendidas ahora son robustas contra las variaciones de imagen (por ejemplo, iluminación, orientación). Sin embargo, la localización y el mapeo en el contexto de la robótica móvil todavía se realiza en gran medida a la antigua usanza, desde los días antes de que el aprendizaje automático comenzara a tener un impacto en la robótica.
Antes del descriptor SIFT, los robotistas no confiaban en las imágenes de la cámara para la localización o el mapeo, y se realizó mucho trabajo utilizando los telémetros láser o incluso SONAR. Pero incluso después de SIFT, y otros descriptores hechos a mano más rápidos, el aprendizaje automático no ha cambiado mucho en cómo se realizan la localización y el mapeo. La siguiente diapositiva establecida por el profesor John Leonard señala muchos de esos primeros trabajos:
20150717_1_Leonard_rssws_slamHistory.pdf
Control de bajo nivel
Kalman Filtering ha existido desde finales de la década de 1950, mientras que el controlador PID ha existido desde 1920, y ambos son similares en espíritu a las técnicas de aprendizaje. Por lo tanto, se puede decir que el control de robots de bajo nivel (comenzando con la navegación y el control de barcos y misiles) siempre ha sido “aprendizaje automático” basado en una forma u otra.
Control de alto nivel o planificación de robots
En la planificación de robots, los primeros enfoques fueron aquellos basados en la búsqueda de árboles, donde las ramas divisorias del “árbol” representan posibilidades de expansión a menudo a lo largo de la dimensión temporal. El algoritmo A * se inventó por primera vez en el contexto de la planificación del robot Shakey a finales de los años 60.
A * algoritmo de búsqueda – Wikipedia
Una búsqueda * todavía se está utilizando para planificar rutas en automóviles sin conductor. La búsqueda de árboles estocásticos se unió a redes neuronales profundas en el reciente sistema AlphaGo que derrotó al campeón mundial de Go.
Domina el juego de Go con redes neuronales profundas y búsqueda de árboles
http://web.iitd.ac.in/~sumeet/Si…
El otro enfoque importante investigado mucho en este contexto son los procesos de decisión de Markov (MDP), y su extensión de los procesos de decisión de Markov parcialmente observables (POMDP). Los MDP son modelos de estadísticas, que nuevamente están muy cerca del aprendizaje automático y han existido desde la década de 1950.
Este es un conjunto de diapositivas de conferencias básicas que Google devolvió sobre el tema:
http: //ais.informatik.uni-freibu…
En resumen, hasta ahora el mayor impacto que el aprendizaje automático ha tenido en la robótica enfoques de aprendizaje especialmente profundo es en la percepción, específicamente en el reconocimiento. Todo lo demás en robótica no se ve afectado en gran medida, a pesar de que hay proyectos de investigación tempranos que intentan explotar redes neuronales profundas para aprender el mapeo de extremo a extremo desde la entrada del sensor hasta la salida del actuador.
Visité la principal conferencia de robótica Robotics: Science and Systems (RSS) en 2015, y en gran medida encontré a la comunidad de robótica profundamente escéptica del aprendizaje profundo. Habría risas en el pasillo cada vez que se mencionara el aprendizaje profundo. Sus corazones están cambiando lentamente a medida que se demuestran demostraciones más impresionantes, pero han sido más lentas que otras comunidades, por ejemplo, la comunidad de visión por computadora al adoptar el aprendizaje profundo.