Para la primera pregunta, vea Andrew Ng: ¿Cuál es el futuro del aprendizaje de refuerzo profundo (DL + RL)? teniendo en cuenta que es una fuente autorizada pero no necesariamente objetiva.
Para la segunda pregunta, creo que, por ejemplo, Vicarious ha expresado la idea de que estudian defectos en los algoritmos como parte del proceso de hacer mejores. No sé si RL es incluso parte de su conjunto de habilidades, pero sí creo que el mismo principio básico es la justificación de varios ataques adversos en CNN para el reconocimiento de imágenes. A veces me ha parecido que la financiación para la investigación sobre ataques de aprendizaje automático proviene de las mismas organizaciones que financian la investigación sobre aprendizaje automático. Entonces, si quiere decir que hay oportunidades si puede hacer agujeros en RL, creo que sí, si los agujeros tienen un tamaño decente. Solo mis 2 centavos, no el tipo de cosa que tiene una línea brillante para una respuesta de sí o no. Si fuera usted, estaría buscando una buena cantidad de opiniones diferentes.
- ¿Desde dónde puedo aprender la implementación del aprendizaje automático en Python?
- Dado que los modelos pueden ser entrenados en datos sintéticos, ¿podemos usar el Entrenamiento Adversario para hacer que las imágenes de prueba sean más sintéticas?
- ¿Cuáles son algunos de los beneficios del análisis de regresión múltiple?
- ¿Puedo aprender ML por mi cuenta?
- ¿Cómo se puede determinar si un elemento no es apto para ninguna clasificación de acuerdo con el algoritmo Naive Bayes?