¿Cómo funciona la función softmax en el campo AI?

La función softmax es importante en el campo del aprendizaje automático porque puede asignar un vector a una probabilidad de un resultado dado en la clasificación binaria.

La función softmax (logística) se define como:


donde [math] \ theta [/ math] representa un vector de pesos y [math] x [/ math] es un vector de valores de entrada. Esta función se utiliza para aproximar una función de destino [matemática] y \ in \ left \ {0, 1 \ right \} [/ math] en clasificación binaria. La función softmax produce una salida escalar [matemática] h _ {\ theta} (x) \ in \ mathbb {R}, 0 <h _ {\ theta} (x) <1 [/ matemática].

Esto puede verse como la confianza de que su punto de prueba tiene un valor de salida de 1. Cuando [math] – \ theta ^ T x [/ math] es muy pequeño, entonces la probabilidad [math] y = 1 [/ math] es pequeño. Cuando [math] – \ theta ^ T x [/ math] es muy grande, [math] h _ {\ theta} (x) [/ math] se acerca a 1 como la probabilidad de que [math] y = 1 [/ math] se acerque 100%

Tenga en cuenta que esto también se usa ampliamente en el diseño de redes neuronales artificiales, como la “función de activación” de cada neurona. Cada neurona recibe un vector de salidas de otras neuronas que dispararon, cada axón con su propia ponderación. Estos se combinan linealmente y se usan en la función softmax para determinar si la siguiente neurona se dispara o no.

si conoce la función logit, consulte este enlace de Stanford-

Regresión Softmax

Tutorial de aprendizaje profundo – Regresión de Softmax

La definición es función Softmax – Wikipedia.

Bastante claro. Deseos.