Supongo que está preguntando acerca de una función generadora de números pseudoaleatorios: un sistema determinista con un estado oculto que genera una serie de números en algún rango donde las salidas “se ven” al azar (es decir, pasan pruebas de aleatoriedad).
La respuesta del mundo real es no: un buen PRNG no tiene gradientes que el RNN pueda explotar. Piense en los sistemas criptográficos (por ejemplo, RSA) como una analogía: el objetivo es evitar que un atacante tenga un plan mejor que un ataque de fuerza bruta.
Por supuesto, esto lleva a la respuesta real, que es “sí”. Dado un estado oculto finito y una serie de salidas en un conjunto finito, un RNN lo suficientemente grande podrá aprender (o ajustarse a) la serie de salidas de ciclismo . Obviamente, el RNN sería enorme en relación con el estado interno del PRNG, y el tiempo de entrenamiento sería horrible, pero podría hacerlo.
- Cómo crear un bot para escribir noticias automáticamente
- ¿Una colaboración IBM Watson-Wolfram | Alpha avanzará en el procesamiento del lenguaje natural?
- ¿AI podría escribir código?
- ¿Cuáles son los fundamentos necesarios para el aprendizaje automático, el aprendizaje profundo, la robótica y la inteligencia artificial?
- Cómo implementar un abandono en redes neuronales profundas
En realidad, sería un proyecto divertido tomar PRNG simples (por ejemplo, generadores lineales congruentes x ‘= (ax + b)% y) e intentar capacitar a los RNN para aprenderlos. No tengo intuición si pudiéramos resolver y = 2 ** 8 o y = 2 ** 16 en un tiempo razonable.