Cada neurona en una capa de redes neuronales produce resultados diferentes incluso cuando se les da el mismo valor de entrada de las capas anteriores porque cada neurona tiene asignado un conjunto diferente de pesos y sesgos.
A modo de ilustración, aquí hay un ejemplo simple de redes neuronales [1]
- He completado la clase Coursera de Andrew Ng sobre aprendizaje automático. ¿Qué debería hacer después? ¿Qué puedo hacer a continuación?
- ¿Por qué la similitud de un coseno menos es igual a la distancia del coseno?
- ¿Qué significa la afluencia de IA y Machine Learning en productos tecnológicos para los diseñadores de UX?
- ¿Qué debe saber todo programador competitivo (Topcoder) sobre los concursos de Kaggle y ML?
- ¿Por qué los diseñadores o los PM deben aprender sobre el aprendizaje automático?
Como puede ver, cada neurona en la misma capa obtiene la misma entrada de la capa anterior, luego a cada entrada se le asigna un peso. Tenga en cuenta que cada neurona asigna diferentes pesos para la entrada recibida. Por ejemplo, en la ilustración, la neurona [matemáticas] j [/ matemáticas] asigna el peso en la entrada [matemáticas] x_i [/ matemáticas] de la neurona [matemáticas] i [/ matemáticas] con [matemáticas] W_ {ij} [/ matemática], si otra neurona de las unidades de entrada es [matemática] x_g [/ matemática] y [matemática] x_h [/ matemática] de neurona [matemática] g [/ matemática] y [matemática] h [/ matemática], entonces neurona [math] j [/ math] también tendrá los pesos [math] W_ {gj} [/ math] y [math] W_ {hj} [/ math] también. Entonces, las salidas [matemáticas] x_j [/ matemáticas] de la neurona [matemáticas] j [/ matemáticas] serán [matemáticas] x_j = [/ matemáticas] [matemáticas] x_g \ veces W_ {gj} + x_h \ veces W_ {hj } + x_i \ times W_ {ij} + b_j [/ math] (no asigné una función de activación para fines de simplificación).
Ahora suponga que hay otra neurona [matemática] m [/ matemática] en unidades ocultas H1, y que también tiene las mismas entradas que la neurona [matemática] j [/ matemática]. La neurona [matemática] m [/ matemática] tendrá el conjunto de pesos [matemática] W_ {gm} [/ matemática], [matemática] W_ {hm} [/ matemática] y [matemática] W_ {im} [/ matemática ], y la salida [math] x_m [/ math] de la neurona [math] m [/ math] será [math] x_m = x_g \ times W_ {gm} + x_h \ times W_ {hm} + x_i \ times W_ {im} + b_m [/ math].
Espero que puedas ver por qué la salida es diferente
Notas al pie
[1] https://www.researchgate.net/pub…