La función softmax es importante en el campo del aprendizaje automático porque puede asignar un vector a una probabilidad de un resultado dado en la clasificación binaria.
La función softmax (logística) se define como:
donde [math] \ theta [/ math] representa un vector de pesos y [math] x [/ math] es un vector de valores de entrada. Esta función se utiliza para aproximar una función de destino [matemática] y \ in \ left \ {0, 1 \ right \} [/ math] en clasificación binaria. La función softmax produce una salida escalar [matemática] h _ {\ theta} (x) \ in \ mathbb {R}, 0 <h _ {\ theta} (x) <1 [/ matemática].
- ¿Cuál es el mejor algoritmo para descubrir todos los nodos de la red y mantener esa red en tiempo real?
- ¿La normalización por lotes ha vuelto obsoleta la inicialización de Xavier al entrenar redes neuronales?
- ¿Son los modelos de aprendizaje profundo / redes neuronales siempre superiores en las tareas de PNL?
- ¿Qué es una lista de proyectos de IA que podría hacer para mejorar cada vez más en aprender cómo funciona la inteligencia artificial?
- Cómo aprender a convertirse en un experto en aprendizaje profundo
Esto puede verse como la confianza de que su punto de prueba tiene un valor de salida de 1. Cuando [math] – \ theta ^ T x [/ math] es muy pequeño, entonces la probabilidad [math] y = 1 [/ math] es pequeño. Cuando [math] – \ theta ^ T x [/ math] es muy grande, [math] h _ {\ theta} (x) [/ math] se acerca a 1 como la probabilidad de que [math] y = 1 [/ math] se acerque 100%
Tenga en cuenta que esto también se usa ampliamente en el diseño de redes neuronales artificiales, como la “función de activación” de cada neurona. Cada neurona recibe un vector de salidas de otras neuronas que dispararon, cada axón con su propia ponderación. Estos se combinan linealmente y se usan en la función softmax para determinar si la siguiente neurona se dispara o no.