No creo que sea exagerado.
Ha llevado un par de décadas de esfuerzo persistente, pero redes neuronales muy grandes y complejas con antecedentes significativos han desatado el poder del aprendizaje de representación (RL) con resultados que son espectacularmente superiores a los obtenidos con características de entrada hechas a mano y algoritmos convencionales. Como explicaron Yoshua Bengio y Yann LeCun en su reciente tutorial de NIPS 2015 (http://www.iro.umontreal.ca/~ben…), el aumento dramático en el poder de cómputo y la cantidad y calidad de los datos de capacitación fue clave para el éxito de RL y aprendizaje profundo.
De vuelta a RL, es real. En los últimos años ha habido una serie de resultados innovadores recientes que pueden atribuirse a RL. Estos se han realizado en áreas como visión artificial, reconocimiento de voz, PNL y otras áreas. Todas estas áreas se caracterizan por el hecho de que las señales de entrada son señales sensoriales. RL aprende representaciones jerárquicas de características de estas señales sensoriales utilizando arquitecturas de Red Neural Profunda (DNN). Estas representaciones terminan funcionando mucho mejor que las características de ingeniería humana y altamente refinadas. No es que importe, pero tales arquitecturas se parecen remotamente a cómo los humanos aprenden y realizan tareas cognitivas en el cerebro.
- ¿Cómo afectan los registros duplicados en el conjunto de datos de entrenamiento a un clasificador Naive Bayes?
- ¿Los científicos de datos y el ingeniero de aprendizaje automático necesitan saber implementar algoritmos ML / DL desde cero o simplemente usar las bibliotecas existentes en producción?
- ¿Qué modo de Anaconda se debe usar para los algoritmos de aprendizaje automático?
- ¿Cómo son los cursos en edX sobre aprendizaje automático, ingeniería artificial y robótica para el empleo?
- ¿Es posible usar el servicio de reconocimiento facial de Facebook desde su API?
En Facebook, mi amigo y colega Ahmad Abdulkader, por ejemplo, se ha asociado con nuestro equipo de anuncios para crear sistemas que detecten automáticamente anuncios con imágenes que violen nuestras políticas (por ejemplo, que contengan violencia, alcohol o armas). El uso de Deep Learning para esta tarea ha producido mejoras dramáticas en la precisión y, en última instancia, protegió a la comunidad de Facebook de contenido potencialmente ofensivo. Nuestro equipo de Computer Vision ha creado una plataforma de autoservicio utilizada por docenas de equipos para capacitar modelos de predicción especializados sobre la base de representaciones de imágenes y videos aprendidos por el aprendizaje profundo. Manohar Paluri puede contarle mucho más sobre las aplicaciones de aprendizaje profundo para visión artificial en Facebook.
Todavía hay áreas donde RL no ha logrado avances, en particular donde las entradas no son señales sensoriales. Todavía está por verse si puede darse cuenta de tales avances.
Habiendo dicho todo eso, la academia, la industria y los medios deben ser cautelosos sobre exagerar los resultados, leer demasiado sobre el futuro del tipo de “inteligencia” que puede aportar a las máquinas y advertir sobre las graves consecuencias si las máquinas de alguna manera toman el control. Esto está más cerca de la ciencia ficción que de la realidad 🙂