En la red neuronal ML, ¿la salida de un perceptrón en una capa oculta se limita antes de pasar como entrada a los perceptrones de la siguiente capa?

Una neurona artificial generalmente se define por la ecuación:

[matemáticas] y = \ Phi (\ sum \ limits_ {i} ^ n {x_ {i} w_ {i}} + b) [/ matemáticas]

donde [math] \ Phi () [/ math] = función de activación que es una función de paso lateral para un perceptrón. [math] y [/ math] = entrada para la siguiente capa.

La función de activación debe aplicarse antes de alimentar a la siguiente capa, si ese no es el caso, entonces, teniendo en cuenta su afirmación, la función de activación solo se aplicará en la capa de salida, porque es la única capa que no alimenta ninguna capa. Ahora, sin propiedad de no linealidad, todas las capas se fusionarán efectivamente en una “capa equivalente” y la red será efectivamente una red de una sola capa.

Por lo tanto, las funciones de activación no lineal deben aplicarse antes de alimentar a la siguiente capa.

Espero que esto ayude.

No.

No quiero ser grosero, pero lee algunos libros sobre redes neuronales artificiales. Esto es bastante básico.

Aquí hay una buena introducción no matemática

Introducción no matemática al uso de redes neuronales