Depende de lo que quieras decir con “memoria”.
Si quiere decir algo como “memoria de trabajo”, entonces las capas ocultas de una red neuronal proporcionan algo como memoria de trabajo, al menos en el sentido de que permiten que el modelo calcule valores intermedios útiles para producir alguna predicción / salida final.
Si quiere decir “memoria a largo plazo”, como en la memoria que persiste en varias instancias de entrenamiento, entonces los nodos no proporcionan memoria, porque sus valores se calculan frescos para cada nueva instancia de entrenamiento.
- ¿Cómo procesa el cerebro humano o cualquier cerebro animal la información en comparación con los procesadores informáticos actuales? ¿Cómo pueden los cerebros "codificarse" por sí mismos?
- ¿Cómo se puede aplicar la IA al diseño de chips de computadora?
- ¿Qué conocimiento es necesario para construir un bot de chat de Facebook Messenger?
- Si los robots toman nuestros trabajos, ¿por qué no todos vivimos en el lujo y les dejamos hacer el trabajo?
- ¿Podemos construir un órgano biónico para el lenguaje?
Sin embargo, puede pensar que los parámetros de la red proporcionan “memoria a largo plazo”, ya que se comparten en diferentes instancias de entrada. En particular, cuando una red sobreajusta un conjunto de datos, esto se debe a memorizar implícitamente las instancias de entrenamiento en los parámetros de la red.