Técnicamente no porque “pérdida de softmax” no es realmente un término correcto, y “pérdida de entropía cruzada” sí lo es. Entonces, la pérdida de entropía cruzada es realmente el término correcto para describir la función: [matemáticas] – \ log \ left (\ frac {e ^ {f_ {y_i}}} {\ sum_j e ^ {f_ {j}}} \ right) [/ math]
El clasificador softmax es un clasificador lineal que utiliza la función de pérdida de entropía cruzada . En otras palabras, el gradiente de la función anterior le dice a un clasificador softmax cómo actualizar exactamente sus pesos usando algo como el descenso del gradiente.
En resumen, no son lo mismo. Sin embargo, las personas usan el término “pérdida de softmax” cuando se refieren a “pérdida de entropía cruzada” y, como saben lo que significan, no hay razón para corregirlas de manera molesta. Debido a que se usan indistintamente, los dos términos son efectivamente iguales.
- ¿Cómo debería abordar el problema de segmentar el césped de una imagen?
- ¿Cómo debo abordar mi tesis sobre 'conversión de lenguaje de señas a texto'? ¿Cuál debería ser el método?
- ¿Cómo revolucionaría el mundo la PNL perfecta por computadoras?
- Cómo detectar si una imagen contiene uno o más rostros humanos
- ¿Tiene sentido la regularización (L2, abandono, etc.) alguna vez para datos muy ruidosos, pero también abundantes, como series de tiempo financieras?
Curso de redes neuronales convolucionales de Stanford sobre el clasificador Softmax