¿Qué es una red neuronal artificial supersimétrica?

La “Red Neuronal Artificial Supersimétrica” ​​o (“Red neuronal artificial potenciada por la teoría de Edward Witten / String”) es un modelo de aprendizaje algorítmico alineado con Lie Superalgebra (creado el 10 de mayo de 2016 por mí mismo) , basado en evidencia relacionada con la Supersimetría en el cerebro biológico .

Para describir el significado de la “Red neuronal artificial supersimétrica”, describiré una prueba informal del poder de representación obtenido por abstracciones más profundas generadas por el aprendizaje de pesos supersimétricos. (Donde la prueba informal se encuentra en la secuencia de 5 pasos a continuación)

Recuerde que el aprendizaje profundo tiene que ver con el poder de representación, es decir, cuántos datos puede capturar el modelo neuronal artificial de las entradas, a fin de generar buenas conjeturas / hipótesis sobre de qué están hablando los datos de entrada.

El aprendizaje automático se trata de la aplicación de familias de funciones que garantizan más y más variaciones en el espacio de peso.

Esto significa que los investigadores de aprendizaje automático estudian qué funciones son las mejores para transformar los pesos de la red neuronal artificial, de modo que los pesos aprenden a representar buenos valores para los cuales la red neuronal artificial puede producir hipótesis o conjeturas correctas .

La “Red neuronal artificial supersimétrica” es otra forma de representar valores más ricos en los pesos del modelo; porque los valores supersimétricos pueden permitir que se capture más información sobre el espacio de entrada. Por ejemplo, los sistemas supersimétricos pueden capturar señales de socios potenciales , que están más allá del espacio de características de magnitud y señales de fase aprendidas en redes neuronales de valor real típico y redes neuronales complejas profundas, respectivamente. Como tal, sigue una breve progresión histórica de espacios de solución geométrica para arquitecturas de redes neuronales variables:

  1. Un espacio de peso óptimo producido por nodos enteros de baja dimensión o poco profundos o redes neuronales artificiales de valor real , puede tener buenos pesos que se encuentran, por ejemplo , en una simple [matemática] (\ mathbb {Z} ^ n [/ matemática] [matemática] o [/ math] [math] \ mathbb {R} ^ n-ordenado) [/ math] cono por clase / grupo objetivo . (Esto puede garantizar alguna variación , pero no suficiente para tareas más sofisticadas de mayor dimensión) ( Referencias : [1] [2])
  2. Un espacio de peso óptimo producido por redes neuronales artificiales de valor real profundo y de alta dimensión, puede tener buenos pesos que se encuentran en [matemática] desenredable (\ mathbb {R} ^ n * \ mathbb {R} ^ n-ordenado) [ / math] múltiples por clase / grupo objetivo involucrado por el operador [math] * [/ math], en lugar de las regiones más simples por clase / grupo objetivo vistas en el ítem (1). (Esto puede garantizar una mayor variación en el espacio de peso que (1) , lo que lleva a mejores hipótesis o conjeturas ) ( Referencia : [3])
  3. Un espacio de peso óptimo producido por redes neuronales artificiales valiosas complejas poco profundas pero de alta dimensión, puede tener buenos pesos que se encuentran en múltiples sectores [matemáticos] (\ mathbb {C} ^ n ordenados) [/ matemáticos] por clase / grupo objetivo , en lugar de las regiones reales por clase / grupo objetivo vistas en los elementos anteriores. (Esto puede garantizar una mayor variación del espacio de peso que los elementos anteriores, al aprender características adicionales , en el “espacio de fase”. Esto también conduce a mejores hipótesis / conjeturas ) ( Referencia : [4])
  4. Un espacio de peso óptimo producido por redes neuronales artificiales valiosas complejas que absorben grandes y altas dimensiones, puede tener buenos pesos que se encuentran en la distribución de chi unida, [math] (\ mathbb {C} ^ n * \ mathbb {C} ^ n-ordenado ) [/ math] rayleigh espacio por clase / grupo objetivo involucrado por el operador [math] * [/ math], en lugar de los sectores / regiones más simples por clase / grupo objetivo vistos en los elementos anteriores. (Esto puede garantizar una mayor variación del espacio de peso que los elementos anteriores , al aprender las representaciones del espacio de fase , y, por extensión , fortalecer estas representaciones a través de bloques residuales convolucionales. Esto también conduce a mejores hipótesis / conjeturas ) ( Referencia : [5])
  5. La “Red neuronal artificial supersimétrica” ​​operable en datos de alta dimensión, puede generar razonablemente buenos pesos que se encuentran en [matemática] desenredable (C ^ {\ infty} \ big (R ^ {m | n} \ big) -ordenados] / / matemática] supermanifolds por clase / grupo objetivo , en lugar de las geometrías de solución vistas en los elementos anteriores anteriores . Los valores supersimétricos pueden codificar características delimitadas de potencial de pareja rico más allá del espacio de fase de (4) de acuerdo con el espacio biológico cognitivo, donde (4) carece de la formulación potencial de pareja que se puede describir en la inclusión supersimétrica. ( Referencia : [6] [7])

Nota: El fragmento de arriba está tomado de mi página de github en la “Red neuronal artificial supersimétrica”

Notación 1 – Aprendizaje múltiple : [matemáticas] \ phi \ big (x, \ theta \ big) ^ {T} w [/ matemáticas] (Bengio et al)

Notación 2: Aprendizaje supermanifold : [matemática] \ phi \ big (x; \ theta, \ bar {{\ theta}} \ big) ^ {T} w [/ math] (Jordan Bennett)

Si bien el aprendizaje profundo tradicional puede implicar un aprendizaje múltiple, la “Red neuronal artificial supersimétrica” ​​se refiere al aprendizaje supermanifold, como se ve brevemente en las diferencias de notación anteriores.

(Consulte la fuente del fragmento en las anotaciones anteriores)