La IA general todavía está a un paso de distancia, sin embargo, creo que estamos haciendo grandes avances en varias áreas muy importantes que son precursores esenciales de la IA general:
1. Visión : reconocimiento de imagen / video, etiquetado, etc., es el área que inició el aprendizaje profundo. Comenzando con el envío del Dr. Jeff Hinton y sus colegas a la competencia anual de imagenet que sorprendió a los demás. Estaban entrenando redes neuronales convolucionales profundas con GPU. Este campo y específicamente las redes neuronales convolucionales han visto una gran explosión en los últimos años. Ahora es la arquitectura estándar que impulsa las aplicaciones relacionadas con la imagen para la mayoría de los gigantes tecnológicos (google, facebook, baidu, etc.).
2. Discurso / traducción / datos secuenciales : Llegan un poco más tarde que la parte convolucional de la red neuronal son las redes neuronales recurrentes. El Dr. Jürgen Schmidhuber y su alumno Alex Graves, en cierto sentido, empujaron las redes neuronales recurrentes a la investigación general, específicamente con la variante llamada Memoria a corto plazo (LSTM). Las redes neuronales recurrentes, debido a su estructura mencionada, son perfectas para modelar patrones complejos en datos secuenciales, como el habla, la acústica, los trazos de escritura a mano, etc. Siempre remito este enlace para cualquier persona interesada en las redes neuronales recurrentes, ya que es intuitivo y muy fascinante: la efectividad irracional de las redes neuronales recurrentes
- ¿Cuáles son los programas de maestría para el aprendizaje de refuerzo profundo y / o el aprendizaje profundo en robótica en general? ¿Dónde puedo postular, particularmente en Europa?
- ¿Cómo se codifica algo como AlphaGo de Google DeepMind? ¿Cuántas líneas de código se utilizan para construir un programa tan avanzado?
- ¿Cuáles pueden ser las posibles áreas de aplicación del aprendizaje automático / inteligencia artificial en automóviles?
- ¿Cuál es el algoritmo utilizado por los monstruos perseguidores en Pac-Man?
- ¿Qué especialidad puede construir robots inteligentes?
Tenga en cuenta que la ventaja de utilizar arquitecturas de redes neuronales profundas para los puntos 1 y 2 anteriores es que permite la capacitación de extremo a extremo (por ejemplo, píxeles a etiquetas de imagen) y permite que el NN desarrolle, aprenda y ajuste sus propias características, lo que supera su rendimiento Características tradicionales extremadamente complejas hechas a mano.
3. Memoria externa / máquina de Turing : El siguiente paso obvio es combinar los avances mencionados anteriormente con la memoria externa, haciendo que el algoritmo en cierto sentido sea completo. Alex Graves lo hizo en Deepmind al combinar LSTM con memoria externa de lectura / escritura, e hizo un trabajo interesante en tareas de copia y recuperación. (http://arxiv.org/pdf/1410.5401.pdf)
Otro trabajo interesante que combina memoria externa está saliendo del laboratorio del Dr. Yann Lecun en NYU (también conocido como Facebook Research). Han creado redes de memoria que logran una precisión considerable en una variedad de diferentes tareas de preguntas y respuestas. Según los estándares de aprendizaje automático, estas preguntas no son fáciles, ya que a menudo tienen dependencias de tiempo, inferencias, etc. ([1410.3916] Redes de memoria) Actualmente la investigación está en desarrollar sistemas de conversación de extremo a extremo. Me imagino que en unos años los bots de chat sonarían mucho más humanos que ahora.
4. Aprendizaje de refuerzo : el objetivo de RL es desarrollar algoritmos para que un agente aprenda a comportarse y desarrolle decisiones secuenciales óptimas en un entorno al interactuar y observar con el entorno. RL tiene respaldo en biología (ciclo de dopamina, funciones conductuales y cerebrales) y se ha estado calentando mucho durante el último año más o menos. Google Deepmind, el centro de investigación de inteligencia artificial, se centra principalmente en aplicaciones RL. vea su artículo sobre cómo enseñar a un agente a jugar juegos de atari a nivel humano directamente desde los píxeles de los videojuegos (https://www.cs.toronto.edu/~vmni…).
Otras aplicaciones de RL van desde el juego (ver el documento de Matthew Lai sobre el agente de enseñanza para jugar ajedrez hasta el nivel de supermaster jugando contra sí mismo (Uso del aprendizaje de refuerzo profundo para jugar al ajedrez), optimización de la cadena de suministro, programación de carga y, por supuesto, robótica.
Las áreas de investigación actuales están combinando arquitecturas de redes neuronales profundas con algoritmos RL (Q-learning), transferencia de aprendizaje, escalado a grandes conjuntos de datos y en espacios de acción continua (actor crítico, etc.)
Creo que este es un buen lugar para realizar un seguimiento de los avances recientes en RL profundo. (junhyukoh / papeles de aprendizaje de refuerzo profundo)
En resumen , recientemente ha habido avances muy interesantes en todas las áreas de investigación de IA, y todavía hay muchas más aplicaciones / áreas interesantes por explorar.