¿Qué son los estados espurios en las redes Hopfield?

Los estados espurios son patrones [math] x_ {s} \ notin P [/ math], donde [math] P [/ math] es el conjunto de patrones a memorizar. En otras palabras, corresponden a mínimos locales en la función de energía que no deberían estar allí. Pueden estar compuestos de varias combinaciones de los patrones originales o simplemente la negación de cualquier patrón en el conjunto de patrones original. Estos tienden a estar presentes cuando [matemática] \ alpha = | P | / N [/ matemática] (donde [matemática] N [/ matemática] es el número de neuronas) se vuelve demasiado alta para una determinada regla de aprendizaje.

Resulta que los estados espurios son importantes para derivar [math] \ alpha [/ math] en las redes Hopfield. Como sabemos que las ecuaciones de actualización dinámica siempre reducen la energía de un sistema, los mínimos espurios atraparán la red y devolverán resultados incorrectos o incompletos. Por lo general, estos mínimos espurios tienen una energía más alta y una cuenca más pequeña que los patrones reales (aunque esto no está garantizado cuando [matemáticas] | P | [/ matemáticas] es demasiado grande). Esto, naturalmente, conduce a una solución estocástica usando un enfoque tipo Monte Carlo, donde se les da suficiente energía a las neuronas para que no se queden atrapadas en los mínimos locales pero no salten del mínimo correcto del patrón correcto (estas son máquinas de Boltzmann )

Aquí hay una intuición ondulada a mano. Las reglas de aprendizaje proyectan la configuración actual de la red en el subespacio que abarcan los vectores de patrón y luego calculan el vector de patrón que se encuentra más cerca del vector de configuración proyectado. Pero incluso si tuviera patrones completamente ortogonales, no puede especificar más patrones que el número de neuronas (porque luego duplica un patrón o el siguiente patrón que agrega no es ortogonal).

El verdadero problema es que la mayoría de las reglas de aprendizaje dan [matemáticas] \ alpha \ ll N [/ matemáticas] (por ejemplo, la regla de Hebb proporciona [matemáticas] \ alfa \ aproximadamente 0.138 [/ matemáticas] usando derivaciones de campo medio) porque la proyección en el El subespacio no es ortogonal. Esto no es un problema si los patrones en sí mismos son ortogonales (es decir, completamente no correlacionados), pero eso es muy raro en la práctica.

Hay formas de “desaprender” estos mínimos espurios también. Consulte esta pregunta para obtener buenas referencias, especialmente consulte el libro de Rojas, que está disponible de forma gratuita en línea. Además, si puedes conseguir el libro de Hertz, mira la ecuación. (10.22), que es la ecuación de campo media cuyas soluciones dan los posibles estados, incluidos los espurios (también dan una explicación de cómo encontrarlos específicamente).

More Interesting

¿Cuántas horas le tomaría a un analista de datos profesional revisar los datos simples de la compañía y construir un modelo para predecir el desgaste?

Redes neuronales convolucionales: ¿Cuáles son algunos posibles proyectos de cursos de aprendizaje automático de nivel de posgrado que utilizan CNN? Específicamente en el límite de PNL y CV.

¿Cómo puedo aprender ciencia de datos?

¿Por qué hay tantos enfoques generativos en la clasificación de escenas, mientras que el enfoque discriminatorio es el principal en el reconocimiento / detección de objetos?

Cómo obtener un codificador automático de ruido para aprender una representación demasiado completa

¿Puede el aprendizaje automático ayudarnos a comprender el cerebro humano?

¿Cómo agrupamos el comportamiento de navegación de usuarios similares y seleccionamos características separables?

Cómo encontrar qué variable de característica es más predictiva en un problema de clasificación binaria

¿Cuáles son los grandes problemas en la inferencia variacional?

Cómo lidiar con un trabajo de investigación cuando contiene muchos materiales de fondo que no has estudiado

¿Cómo se recupera la información de las cajas negras?

¿El aprendizaje automático permitirá a Google detectar contenido falso?

¿Cómo cambiará el aprendizaje automático la sociología?

¿Existe una conexión profunda entre el aprendizaje por propagación hacia atrás y la regla de Hebb?

¿De qué sirven los algoritmos de aprendizaje si no podemos pensar por nuestra cuenta?