Las redes neuronales recurrentes eliminan la suposición de Markovian.
Si considera la red neuronal de avance con una ventana de tiempo limitada, está haciendo que su modelo se base en un contexto limitado y, por lo tanto, supone que después de cierto punto, el contexto no importa. Esto es lo que hacen los modelos ocultos de Markov.
Las redes neuronales recurrentes (en teoría) permiten que persista información de un número ilimitado de pasos anteriores. Esto sucede porque la salida en cada paso está influenciada tanto por la entrada actual como por la salida anterior. Es decir, la entrada 1 influye en la salida 1, que influye en la salida 2, y así, siempre que lo desee, de modo que la entrada 1 afecta a la última salida. Definitivamente, este no es el caso con la red feedforward que analiza un contexto de tamaño fijo.
- ¿Cómo invierte Salesforce en inteligencia artificial en 2017?
- ¿Cuál es el mayor obstáculo cuando se trata de realizar un ser humano como la IA?
- ¿Qué tan común es que las personas que estudian IA pasen a diseñar IA de videojuegos?
- ¿Cuál es el mercado para Virtual GF o aplicaciones similares?
- ¿Cómo escribe un programador un rastreador web que hace clic en la página?
PD: la razón por la que digo que esto es cierto solo en teoría es que los RNN simples en realidad tienden a olvidar la información del pasado muy rápidamente. Las soluciones a esto son usar RNN cerrados que tengan buena persistencia de memoria, como GRU y LSTM.