¿Hay algún otro clasificador de aprendizaje profundo como softmax?

En primer lugar, su pregunta está incompleta.

Softmax no es un clasificador. Produce probabilidades para cada posible etiqueta / clase, y en base a las que decidimos a qué clase pertenece nuestra muestra de prueba.

Agregado, softmax no es nada nuevo. Es una regresión logística de varias clases. por ejemplo, si queremos clasificar un resultado es 0/1, usamos logit. Si nuestro umbral es 0.5 y nuestra probabilidad calculada es 0.65 (> 0.5), concluimos que siendo 1. En softmax, si tenemos cuatro resultados posibles y probabilidades para todos: 0.1, 0.2, 0.3, 0.4 – podemos decir que pertenece a cuarta clase.

Si quieres saber si hay otros algos para hacer tales cosas, entonces SÍ. KNN, Naive bayes, SVM: todos pueden realizar tales operaciones, aunque nunca he usado ninguna de ellas en redes neuronales. Pero, probablemente funcionen, solo necesitan profundizar y probar algunos experimentos.

Gracias.

Tengo entendido que la función softmax se aplica en la última etapa de la red para dar una manera fácil de comparar las diferentes probabilidades de los diferentes resultados.

Softmax no es un clasificador como tal. La función softmax, o función exponencial normalizada, simplemente “aplasta” un vector K-dimensional de valores reales arbitrarios a un vector K-dimensional de valores reales en el rango (0, 1) que suman 1.

Softmax no es clasificador.

Es la función de activación que asigna la probabilidad de registro sin escala ln (p (y | x)) a la probabilidad escalada p (y | x). Hay algunas activaciones similares (por ejemplo, softmax jerárquico) que realiza el mismo mapa, pero con algún tipo de optimización para tareas específicas.

El margen máximo con pérdida de bisagra es uno que viene a la mente. Máximo a menudo se usa para clasificadores de aprendizaje de varias instancias. Las redes de vectores de soporte también se tomaron en serio hace algún tiempo.

¿Qué quieres decir? Softmax se utiliza como la activación final para darnos una “distribución de pseudo-probabilidad” en la mayoría de las redes.

Es posible hacer creadores de cambios de regresión a clasificación personalizados similares a la función Softmax.

Imagine los sistemas de calificación de los estudiantes, donde los puntajes numéricos continuos se convierten en unas pocas calificaciones alfa, en función de las tasas objetivo de aprobado / reprobado.

Creo que te refieres a las funciones de activación, puedes mirar la página de wikipedia para las funciones de activación, enumera la mayoría de ellas. Función de activación – Wikipedia

Softmax es una función de activación. Hay muchos otros como

  1. ReLu
  2. Sigmoideo
  3. Espiga

Y más…