Sí, lo es, y es muy sencillo. Considere el ejemplo (simple) a continuación.
En este ejemplo simple de NN, la salida es [matemática] y [/ matemática] y las entradas son [matemática] x_1 [/ matemática], [matemática] x_2 [/ matemática] y [matemática] x_3 [/ matemática]. La relación es
- ¿Debería centrarme en conseguir un trabajo o aprender ciencia de datos?
- Cómo visualizar características de alto nivel en una red neuronal convolucional profunda
- ¿Qué método de reducción de dimensionalidad puede mantener las relaciones de traslación entre puntos?
- Aprendizaje profundo: ¿Qué técnica de preprocesamiento es necesaria para los parches de imágenes para obtener características relevantes?
- ¿Cómo se puede utilizar el aprendizaje automático para la metabolómica?
[matemáticas] y (x_1, x_2, x_3) = f (w_1 x_1 + w_2 x_2 + w_3 x_3) [/ matemáticas]
Si la función de activación [math] f (u) [/ math] es un sigmoide, [math] f (u) = 1 / (1 + e ^ {- u}) [/ math], entonces tenemos
[matemáticas] y (x_1, x_2, x_3) = 1 / [1 + e ^ {- (w_1 x_1 + w_2 x_2 + w_3 x_3)}] [/ matemáticas]
Y esta es la función subyacente de este NN.
En una red neuronal entrenada, las constantes [matemática] w_1 [/ matemática], [matemática] w_2 [/ matemática] y [matemática] w_3 [/ matemática] que pesan los arcos serían conocidas.
Para NN más grandes, uno tiene que componer funciones de funciones, debido a las varias capas y muchas más entradas y arcos, y el argumento a los sigmoides en los nodos es una combinación lineal de las entradas a ese nodo, pero siempre es fácil escribe la función no lineal implementada por el NN. Finalmente, se agrega un desplazamiento a la combinación lineal de entradas en cada nodo cuando el argumento del sigmoide está “compuesto”.