¿Cómo funcionan las redes neuronales autoorganizadas?

Mirando el trabajo citado en su enlace, la idea principal en el trabajo aquí es “mapas autoorganizados”. Este es el tipo de cosa histórica que se menciona comúnmente, pero que se pasa por alto durante las enumeraciones de lo que pueden hacer las redes neuronales, pero hace aproximadamente un año me entusiasmaba leer relativley trabajos antiguos sobre redes neuronales. Contestaré aquí porque no encontré una descripción de prosa decente de varias oraciones en ese momento.

Los mapas autoorganizados abordan el problema en el que tiene un conjunto de datos de alta dimensión sin etiquetar con algún PDF aún no modelado, y desea descritizarlo y reducirlo dimensionalmente de una manera razonable basada en datos. Realiza una matriz multidimensional de la forma que desea y define un borde ponderado entre cada neurona en la matriz y cada característica de un punto de datos. Esta es una arquitectura totalmente conectada, por lo que el vector de pesos para una neurona tiene la misma dimensionalidad que un punto en el conjunto de datos. El proceso de aprendizaje implica muestrear un punto de datos, calcular su distancia euclidiana del vector de peso de cada neurona, definir una función gaussiana discreta centrada alrededor de la neurona cuya distancia de peso desde el punto de datos es mínima, y ​​actualizar los pesos proporcionalmente a su diferencia con respecto a la muestra punto escalado por esa función gaussiana.

Tenga en cuenta que esto no implicaba propagación hacia atrás. La razón por la que generalmente se agrupa con redes neuronales es que hay una regla de aprendizaje fija para un modelo parametrizado que, cuando se aplica de forma recursiva, puede ser una arquitectura profunda.

El trabajo citado en su enlace afirma que este estilo de aprendizaje sin supervisión es especialmente útil para el aprendizaje incremental (aprender sin olvidar). La regla de autoaprendizaje de mapas de organización obviamente sobrescribe sin preservar la información previa. Tal vez la localidad de las actualizaciones, debido al escalado gaussiano, hace menos olvido que el backprop normal en promedio, pero me gustaría ver que esa afirmación sea mejor respaldada.

Otra red neuronal interesante es la red de activación interactiva y competencia (IAC). Encontré un video de presentación de una reciente Conferencia de Python. El compañero que realiza la presentación lo dirige a un sitio donde puede recuperar su implementación y sus datos de ejemplo. La charla es sobre la presentación de la enseñanza de inteligencia artificial a niños de secundaria o no profesionales, pero el segmento en redes neuronales es muy interesante.

Aquí está el enlace: http://blip.tv/pycon-us-videos-2

Es muy probable que sea una ontología liviana que defina las relaciones entre los elementos de datos utilizando uno o más algoritmos adaptativos para cálculos secuenciales.

El desafío con SOINN es que pueden “sobreaprender”.

Ver:

Estos se pueden generar de varias maneras diferentes.