¿Cuál es la diferencia entre la arquitectura de red neuronal y el algoritmo de red neuronal?

Yo diría que es un lenguaje más común que la definición formal.

El algoritmo es lo que está haciendo la red. En lenguaje común, lo que define un algoritmo de red neuronal tendrá dos dos cosas principales:

  • La función de pérdida: aka. error, es una función [matemática] IR ^ m -> IR [/ matemática] con m, la dimensión de sus datos de entrada, es decir, es una función que asocia un ‘error’ con sus entradas. Esto es lo que intentará minimizar. Por lo tanto, es un componente clave.
  • El algoritmo de optimización : ahora que tiene su pérdida calculada a partir de su entrada, es posible que desee minimizarla. ¿Cómo? Usando un algoritmo de optimización. Optimización significa “minimizar” (o maximizar, el mismo proceso). Supongo que el más famoso es el Descenso de gradiente estocástico.

Por lo general, hablaríamos más sobre el algoritmo de optimización, por ejemplo, si alguien pregunta “¿qué es lo que el algoritmo invitó?”, Quiere que responda “Oh, es una variante de descenso de gradiente”. Si bien, si describe con precisión sus algoritmos, anotará explícitamente cuál es su función de pérdida.


Por otro lado, hablamos de arquitectura de red neuronal para representaciones de nivel superior. Como ya sabrá, generalmente apilamos múltiples capas o redes y las “conectamos” juntas. La arquitectura lo describe con precisión: cómo se juntan las cosas. Tenga en cuenta que un esquema es súper útil aquí.

¿Otra vez si alguien pregunta “cuál es su arquitectura”? Puedes responder:

  • es un perceptrón multicapa, mira: (src: Redes neuronales – Arquitectura)

  • Es un modelo de secuencia a secuencia con atención, basado en celdas LSTM,

img src: Modelos de secuencia a secuencia

Espero eso ayude

[matemáticas] pltrdy [/ matemáticas]