¿Cuál es el futuro del aprendizaje de refuerzo profundo? ¿Es una buena idea comenzar un doctorado ahora trabajando en ataques adversos en sistemas RL?

Para la primera pregunta, vea Andrew Ng: ¿Cuál es el futuro del aprendizaje de refuerzo profundo (DL + RL)? teniendo en cuenta que es una fuente autorizada pero no necesariamente objetiva.

Para la segunda pregunta, creo que, por ejemplo, Vicarious ha expresado la idea de que estudian defectos en los algoritmos como parte del proceso de hacer mejores. No sé si RL es incluso parte de su conjunto de habilidades, pero sí creo que el mismo principio básico es la justificación de varios ataques adversos en CNN para el reconocimiento de imágenes. A veces me ha parecido que la financiación para la investigación sobre ataques de aprendizaje automático proviene de las mismas organizaciones que financian la investigación sobre aprendizaje automático. Entonces, si quiere decir que hay oportunidades si puede hacer agujeros en RL, creo que sí, si los agujeros tienen un tamaño decente. Solo mis 2 centavos, no el tipo de cosa que tiene una línea brillante para una respuesta de sí o no. Si fuera usted, estaría buscando una buena cantidad de opiniones diferentes.