Es difícil de creer que solo ha pasado un año … Han pasado tantas cosas en el mundo de la IA y el aprendizaje automático que es difícil encajar en una sola respuesta. Aquí está mi intento. No esperes demasiados detalles, pero sí muchos enlaces para seguirlos.
Si tengo que elegir mi punto culminante principal del año, eso tiene que ir a AlphaGo Zero (papel). Este nuevo enfoque no solo mejora en algunas de las direcciones más prometedoras (por ejemplo, el aprendizaje de refuerzo profundo), sino que también representa un cambio de paradigma en el que dichos modelos pueden aprender sin datos. También hemos aprendido recientemente que Alpha Go Zero se generaliza a otros juegos como el ajedrez. Puede leer más sobre mi interpretación de este avance en mi respuesta de Quora.
- ¿Cuáles son los proyectos de aprendizaje automático más populares en Github?
- ¿Qué documentos debo leer si quiero entender bien los métodos Bayesianos Variacionales?
- ¿Cómo podemos usar la herramienta Weka para crear un sistema de recomendación?
- ¿Cuál es la diferencia entre regresión logística y factorización matricial?
- ¿El curso de aprendizaje automático que el profesor Andrew Ng ofrece en Coursera me será útil como desarrollador de software profesional para resolver problemas de aprendizaje automático del mundo real?
Un metaestudio reciente encontró errores sistemáticos al informar sobre métricas en trabajos de investigación relacionados con las GAN. A pesar de esto, es innegable que las GAN han seguido presentando resultados impresionantes, especialmente cuando se trata de sus aplicaciones en el espacio de la imagen (por ejemplo, GAN progresivas, GANS condicionales en pix2pix o CycleGans). La PNL es otra área que ha visto avances impresionantes debido al Aprendizaje Profundo este año, es la PNL y, en particular, la traducción. Salesforce presentó un interesante enfoque no autorregresivo que puede abordar la traducción de oraciones completas. Quizás aún más innovadores son los enfoques no supervisados presentados por Facebook y UPV. Deep Learning también está teniendo un gran impacto en un área que golpea cerca de casa: los sistemas de recomendación. Sin embargo, un artículo reciente también cuestionó algunos avances recientes al mostrar cuánto métodos más simples como kNN eran competitivos con Deep Learning. Tampoco es una sorpresa que, como en el caso de la investigación de GAN, el increíble ritmo rápido de la investigación de IA también pueda conducir a una cierta pérdida de rigor científico. Permítanme señalar también que, si bien es cierto que muchos o la mayoría de los avances de IA provienen del campo de Aprendizaje profundo, existe una innovación continua en muchas otras direcciones en IA y ML.
Algo relacionado con algunos de los problemas mencionados anteriormente, muchos critican esta falta de rigor e inversión para establecer los fundamentos teóricos de los métodos. Justo esta semana, Ali Rahimi describió la IA moderna como “alquimia” en su charla NIPS 2017 Test of Time. Yann Lecun respondió rápidamente a esto en un debate que es poco probable que se resuelva pronto. Sin embargo, creo que podría estar de acuerdo en que este año ha visto muchos esfuerzos interesantes para tratar de avanzar en los fundamentos de Deep Learning. Por ejemplo, los investigadores están tratando de entender cómo se generalizan las redes neuronales profundas. La teoría del cuello de botella de información de Tishby también se debatió extensamente este año como una explicación plausible de algunas de las propiedades de Deep Learning. Hinton, que se celebra por su carrera este año, también sigue cuestionando cuestiones fundamentales como el uso de la propagación hacia atrás. Reconocidos investigadores como Pedro Domingos pronto recogieron el guante y desarrollaron métodos de Aprendizaje profundo que utilizaron diferentes técnicas de optimización. Un cambio fundamental final y muy reciente propuesto por Hinton es el uso de cápsulas (ver documento original) como una alternativa a las Redes Convolucionales.
Si observamos el lado de la ingeniería de la IA, el año comenzó con Pytorch tomando fuerza y convirtiéndose en un verdadero desafío para Tensorflow, especialmente en investigación. Tensorflow reaccionó rápidamente liberando redes dinámicas en Tensorflow Fold. Sin embargo, la “Guerra AI” entre grandes jugadores tiene muchas otras batallas, y la más acalorada ocurre alrededor de la Nube. Todos los proveedores principales realmente han intensificado y aumentan su soporte de IA en la nube. Amazon ha presentado grandes innovaciones en su AWS, como su reciente presentación de Sagemaker para construir e implementar modelos ML, o su biblioteca Gluon, lanzada junto con Microsoft. También vale la pena mencionar que los jugadores más pequeños también están participando. Nvidia ha presentado recientemente su nube de GPU, que promete ser otra alternativa interesante para entrenar modelos de Deep Learning. A pesar de todas estas batallas, es bueno ver que la industria puede unirse cuando sea necesario. La nueva estandarización ONNX de representaciones de redes neuronales es un paso importante y necesario hacia la interoperabilidad.
2017 también ha visto la continuación (¿escalada?) De problemas sociales en torno a la IA. Elon Musk continúa alimentando la idea de que nos estamos acercando cada vez más a las IA asesinas, para consternación de muchas personas. También se ha debatido mucho sobre cómo la IA afectará los trabajos en los próximos años. Finalmente, hemos visto un enfoque mucho más centrado en la transparencia y el sesgo de los algoritmos de IA.
Finalmente, durante los últimos meses, he estado trabajando en IA para medicina y atención médica. También me complace ver que la tasa de innovación en dominios menos “tradicionales” como la atención médica está aumentando rápidamente. AI y ML se han aplicado a la medicina con años, comenzando con sistemas expertos y bayesianos en los años 60 y 70. Sin embargo, a menudo me encuentro citando documentos que tienen solo unos pocos meses. Algunas de las innovaciones recientes presentadas este año incluyen el uso de Deep RL, GAN o Autoencoders para representar los fenotipos de los pacientes. Muchos de los avances recientes en IA también se han centrado en la medicina de precisión (diagnóstico y tratamiento médico altamente personalizado) y la genómica. Por ejemplo, el último artículo de David Blei aborda la causalidad en los modelos de redes neuronales mediante el uso de la inferencia bayesiana para predecir si un individuo tiene una predisposición genética a una enfermedad. Todos los grandes jugadores están invirtiendo en IA en salud. Google tiene varios equipos, incluido Deepmind Healthcare, que han presentado varios avances muy interesantes en IA para la medicina, especialmente en la automatización de imágenes médicas o el trabajo que el grupo de Fei Fei está haciendo entre Google y Stanford. Pero, también Apple está buscando aplicaciones de atención médica para su Apple Watch, y Amazon está invirtiendo “secretamente” en atención médica. Está claro que el espacio está maduro para la innovación.
Actualización 28/12:
¡Gracias por todos los comentarios y votos!
Son parte de la razón por la cual, solo un par de semanas después de que escribí la respuesta, y antes de finales de 2017, me siento obligado a actualizar la respuesta y agregar un par de desarrollos más recientes que vale la pena agregar:
Primero, el equipo de inteligencia artificial de Uber presentó un trabajo muy interesante sobre el uso de algoritmos genéticos (GA) en el contexto del aprendizaje de refuerzo profundo. En una colección de 5 documentos, el equipo muestra cómo los GA son una alternativa competitiva al SGD para entrenar modelos profundos en situaciones en las que no se esperaba que tuvieran un buen desempeño. Es extremadamente interesante ver a GA regresar y estoy emocionado de ver a dónde nos puede llevar en los próximos meses.
Finalmente, recientemente leí un artículo de Ciencia sobre cómo Libratus había vencido a humanos expertos en el Poker sin límites (esta es una versión de un artículo anterior de IJCAI). Esto me recordó que no había mencionado todos los avances emocionantes en juegos de información imperfecta que han sucedido en los últimos 12 meses. Si bien AlphaGo Zero es realmente un desarrollo muy emocionante, la verdad es que la mayoría de los problemas en realidad pueden asimilarse más fácilmente a juegos de información imperfectos como el Poker que a juegos de información perfectos como Go o Chess. Es por eso que el trabajo en esta área es realmente emocionante e importante para impulsar el campo. Además de la publicación reciente mencionada anteriormente, probablemente agregaría los dos siguientes: Aprendizaje de refuerzo profundo del juego propio en juegos de información imperfecta, y DeepStack: Inteligencia artificial de nivel experto en Heads-Up No-Limit Poker.