Supongo que se refiere a la regla de actualización de peso que se aplica durante la propagación hacia atrás (la regla delta), que se define como:
[matemáticas] \ Delta w_ {ji} = \ alpha \ times (t_j – y_j) \ times g ‘(h_j) \ times x_ {j} [/ math]
El error proporciona una métrica que mide qué tan lejos está la red de su salida objetivo. A medida que la salida de la red se alinea con la salida objetivo, el error tenderá a cero, lo que significa que la actualización de peso también tenderá a cero. Esto tiene sentido, ya que no queremos cambiar nuestros pesos cuando se minimiza el error. La razón por la cual este valor se multiplica por la entrada (para que el peso se actualice) es porque la entrada representa la cantidad de influencia que este peso particular tiene en la salida de todo el sistema. Si la entrada es relativamente grande, la influencia de esta neurona particular es generalmente más fuerte; y entonces se debe calcular una mayor actualización de peso. Del mismo modo, si la entrada es cero, no hay influencia en la salida de la red y, por lo tanto, no se debe aplicar una actualización de peso.
- ¿Cómo está diseñada la IA para un juego de computadora complicado como Civilization IV o Europa Universalis?
- Cómo comenzar con el desarrollo de Inteligencia Artificial usando C #
- ¿Es mejor aprender IA sobre ML, en caso de que ML se vuelva obsoleto?
- ¿Los chinos solo están siendo superiores en materia académica debido a su inteligencia?
- ¿Cuál es un área tecnológica para la que el aprendizaje automático sería perfecto, pero no está explotado?