Si y no.
En una red artificial a pequeña escala, existen herramientas para salvar el estado. Al considerar las redes más grandes esto se vuelve poco práctico. Mucho depende de lo que se entiende por “estado”, por supuesto, y aunque considero que en sentido estricto, el “estado” necesario para reproducir una red que funcionará de manera idéntica (el modelo y sus pesos actuales) podría ser posible.
El problema que tengo con esto es que mi comprensión de las redes neuronales incorpora tanto la frecuencia como la fase de entrada y salida, y eso aumenta enormemente la complejidad de sistemas incluso simples, además de explicar aspectos de la muerte y el trastorno de la red. Escuchar la activación de una neurona individual es instructivo, SIEMPRE están funcionando, y cuando decimos que uno “dispara”, en realidad solo significa que funciona momentáneamente a una frecuencia diferente. No se trata simplemente de pesas.
- Soy doctora en ingeniería informática con experiencia en aprendizaje automático y optimización bayesiana. Me encantaría evolucionar mi investigación hacia la mecánica estadística y la biofísica. ¿Cómo podría lograr eso? ¿Qué colaboraciones vale la pena buscar?
- ¿Hay alguna manera fácil de configurar AWS para el aprendizaje profundo con Tensorflow y Keras?
- ¿Cuál es la diferencia entre la estimación de máxima verosimilitud (ML) y máxima a Posteri (MAP)?
- Cómo detectar logotipos si están distorsionados
- ¿Cómo podemos implementar el aprendizaje profundo en Python? ¿Es el aprendizaje profundo un concepto importante en la ciencia de datos?
¿Podrías “salvar el estado” de una mente humana? Es una red neuronal para estar seguro.
Algún día quizás lo hagamos. 🙂