DeepMind anunció que construyeron un sistema que podría vencer a alrededor de 50 juegos de Atari con su IA, pero cada vez que venció a un juego, el sistema necesitaba entrenar nuevamente para luego vencer al siguiente juego. Entonces llegaron a la conclusión de que no se puede entrenar la máquina en reglas de juegos variantes a la vez, ya que las pautas podrían terminar interfiriendo entre sí.
Todo este tema de ProgNN rodea el concepto de cómo hacer que una máquina realice múltiples tareas.
La solución de Deepminds para esto fue conectar sistemas separados de aprendizaje profundo para que puedan transmitir ciertos bits de información para que la diferencia en los comandos se almacene por separado para que la recuerde.
- ¿Cuáles serán las características de la próxima generación de servicios de monitoreo social?
- ¿Puede la coincidencia de patrones funcionar en la clasificación de imágenes en color con SVM?
- ¿Por qué no es una buena idea tener el mismo tren y equipo de prueba?
- Cómo entrenar clasificador lineal paso a paso con Caffe, utilizando las respuestas de la última capa completamente conectada del modelo AlexNet como características
- ¿Qué algoritmos son los mejores para el filtrado de spam? ¿Cómo deberían implementarse?
TL; DR: Son esquemas que pueden entrenar NN en un conjunto individualmente de manera secuencial donde una salida de todos los NN entrenados se almacenan y actualizan en un centro de información. La comunicación entre las NN se mantiene indirectamente a través de IC (centro de información) , que en última instancia reduce la interacción entre las NN.