La siguiente no es la respuesta, pero puede ser relevante.
Creo que para algunas aplicaciones de aprendizaje avanzado, es necesario que el ML no solo aprenda lo que está bien, sino que aprenda explícitamente lo que está mal (sin éxito). Esto puede evitar que la IA intente una solución que sabemos por la historia fallará, por lo tanto, es una pérdida de tiempo. Esto es más útil en la planificación, pero también podría ser útil en otros lugares. Además, a menudo, saber qué estaba mal es un pasado necesario de un registro histórico. Eso sucede cuando una IA se encuentra con una situación, y al formar un plan para avanzar, puede evitar rápidamente las direcciones de falla de alto costo.
Sin embargo, uno podría argumentar que esto ya está codificado en el entrenamiento NN, pero mi respuesta es que el entrenamiento no hace explícitamente que las fallas estén disponibles para su lectura. Y poder navegar por las fallas es realmente útil. Al modelar el comportamiento humano en un sistema de inteligencia artificial para que la inteligencia artificial pueda comprender a los humanos, la inteligencia artificial debe ser capaz de manejar la idea de fallas y comprender a las personas reflejando su comportamiento dentro de su sistema (caja de arena, por supuesto).
¿Qué tiene que ver todo esto con la aleatoriedad? En realidad, no estoy seguro de si esto es lo que estabas buscando.
- Inteligencia artificial: ¿Puede una persona inteligente sola crear una IA más inteligente que la humana?
- ¿Por qué no hay estudios sobre el aspecto de gestión de proyectos de un proyecto de aprendizaje automático?
- ¿Todavía necesitamos crear modelos matemáticos a la antigua usanza, cuando tenemos aprendizaje automático para encontrar alguna función que represente un sistema?
- ¿La inteligencia humana será reemplazada por IA y aprendizaje automático?
- ¿Cuál es el mejor reconocedor de voz de código abierto para usar? ¿Cómo los usas?