La respuesta es que los valores de polarización permiten que una red neuronal genere un valor de cero incluso cuando la entrada está cerca de uno. Agregar un sesgo permite que la salida de la función de activación se desplace hacia la izquierda o hacia la derecha en el eje x. Considere una red neuronal simple donde una sola neurona de entrada I1 está directamente conectada a una neurona de salida O1.
La salida de esta red se calcula multiplicando la entrada (x) por el peso (w). El resultado se pasa a través de una función de activación. En este caso, estamos utilizando la función de activación sigmoidea. Considere la salida de la función sigmoidea para los siguientes cuatro pesos. sigmoide (0.5 * x), sigmoide (1.0 * x) sigmoide (1.5 * x), sigmoide (2.0 * x)
- ¿Qué es un algoritmo basado en población? ¿Cuál es el propósito de esto?
- Cómo usar la recursión de la cola de Fibonacci en C ++
- ¿Qué es la clasificación estable?
- He resuelto unos 52 problemas en SPOJ. ¿Debería mudarme a Codeforces ahora?
- ¿Existe algún vínculo en los algoritmos o técnicas de estructura de datos más utilizados en la programación competitiva?
El resultado es el siguiente:
La modificación del peso altera la “inclinación” de la función sigmoidea. Esto permite que la red neuronal aprenda patrones. Sin embargo, ¿qué sucede si desea que la red genere 0 cuando x es un valor distinto de 0, como 3? Simplemente modificando la inclinación del sigmoide no se logrará esto. Debe poder desplazar toda la curva hacia la derecha.
Ese es exactamente el propósito del sesgo .
Ahora, considere una red con neuronas sesgadas.
Cálculo de salida para los siguientes pesos de sesgo:
sigmoide (1 * x + 1 * 1), sigmoide (1 * x + 0.5 * 1) sigmoide (1 * x + 1.5 * 1), sigmoide (1 * x + 2 * 1)
El resultado es el siguiente:
Aquí, en este caso, como puede observar, toda la curva cambia.
El sesgo es un concepto vital para las redes neuronales. Las neuronas de sesgo se agregan a cada capa sin salida de la red neuronal. Son únicos de las neuronas ordinarias en dos formas muy significativas. En primer lugar, la salida de una neurona sesgada es siempre una. En segundo lugar, una neurona sesgada no tiene conexiones entrantes. El valor constante de uno hace que la capa responda con valores distintos de cero, incluso cuando la entrada a la capa es cero. Esto puede ser muy crucial para ciertos conjuntos de datos.