Solo para agregar a la espectacular respuesta de Chomba Bupe:
Realmente espero que también podamos alejarnos del enfoque hiper en métodos de aprendizaje supervisados que solo pueden preformar la interpolación. El aprendizaje profundo, en particular, es menos impresionante cuando considera la cantidad de datos que necesita para alimentarlo para generalizar bien. E incluso entonces, el aprendizaje profundo aún no puede generalizarse fuera del subespacio de los datos de capacitación. Es casi como un método sofisticado de hash cuando lo miras desde esta perspectiva.
Espero ver más investigaciones que analicen los métodos que pueden preformarse bien bajo la deriva covariable y del conjunto de datos (es decir, donde la distribución condicional de la respuesta cambia significativamente con el tiempo). Y espero ver al menos una investigación que tome una grieta en la extrapolación, incluso si todavía hay preguntas epistemológicas sobre si la extrapolación es alguna vez factible.
- ¿Qué podemos aprender de los principios del aprendizaje automático?
- ¿Es seguro que mi dispositivo de almacenamiento externo se expulse después de apagar mi PC?
- Soy maestra de escuela y la biología es mi asignatura. Quiero enseñar a los niños de una manera realmente interesante para que puedan entender el concepto y no olvidarlo a lo largo de su vida. Planeé convertir las lecciones en videos de animación y no sé cómo crear eso. ¿Cómo puedo hacer esto?
- ¿Por qué hay tantos libros de un solo libro?
- ¿Grunt para Yeoman y WAMP son las mismas cosas?
También espero ver más investigaciones que apliquen el aprendizaje por refuerzo a la sintonización de hiperparámetros y las arquitecturas de redes neuronales. Una cosa que es increíblemente frustrante es que si desea aplicar el aprendizaje profundo a un dominio fuera de los más comunes, como las imágenes, el texto y el habla, a menudo obtendrá malos resultados; los expertos le dirán que es porque no ha encontrado la arquitectura correcta para el problema. Bueno, está bien, pero eso no es mucho más útil que decir que no has aprendido los parámetros correctos, considerando el número literalmente infinito de posibilidades de arquitectura para una red neuronal. Por lo tanto, necesitamos métodos más rápidos e inteligentes para aprender arquitecturas rápidamente para nuevos dominios.
Editar (5 de mayo de 2017):
Nueva investigación sobre el uso del aprendizaje por refuerzo para diseñar arquitecturas CNN óptimas: https://openreview.net/pdf?id=S1…