En el aprendizaje automático, cada función se pondera al calcular una activación de la neurona o clasificador. Ese peso representa la importancia relativa de esa característica para la predicción de [matemáticas] y [/ matemáticas]. Considera una neurona simple.
[matemáticas] y = \ varphi (\ sum_ {i} ^ {n} w_ {i} x_ {i} + b) [/ matemáticas]
Donde [math] w [/ math] ‘s = pesos
- ¿Qué son las redes neuronales artificiales (ELI5)?
- ¿Cómo aprende realmente una red neuronal al observar un conjunto de muestras de datos?
- ¿Cómo podrían las redes neuronales ser un ejemplo de IA simbólica?
- ¿Cuáles son las posibles intersecciones entre bitcoin e inteligencia artificial?
- ¿Es posible que la inteligencia artificial pueda construir una dimensión de bolsillo para enviar a todos los refugiados allí?
[matemáticas] x = [x_1, x_2,…, x_n] [/ matemáticas]
para [matemáticas] x_ {i} \ in (0,1) [/ matemáticas]
Y [math] \ varphi [/ math] = función de activación
La neurona después del aprendizaje descubrirá diferentes valores de peso para la predicción adecuada de [matemáticas] y [/ matemáticas]. Algunos de esos valores de peso pueden ser negativos, por lo que la influencia de una característica [matemática] i [/ matemática] es proporcional al valor de peso absoluto normalizado:
[matemáticas] \ hat {w_ {i}} = abs (\ frac {w_ {i}} {|| w ||}) [/ matemáticas]
Cuanto mayor sea el valor [math] \ hat {w_ {i}} [/ math], más influyente es esa característica. Entonces
[math] \ hat {w_ {i}} \ propto [/ math] característica [math] i [/ math] correlacionada con [math] y [/ math].
Espero que esto ayude.