¿Qué significa la función de pérdida híbrida cuando se desarrolla una red neuronal?

Bien, hablemos primero de la función de pérdida . Los algoritmos de aprendizaje profundo generalmente intentan optimizar (minimizar o maximizar) alguna función, denominada “función objetivo” para realizar una determinada tarea. Cuando usamos el término “minimización”, llamamos a esta función la “función de pérdida”, porque queremos minimizar la pérdida (es decir, el costo para lograr un objetivo). Por ejemplo, en una tarea de clasificación, el objetivo es mejorar la precisión de la predicción y la función de pérdida representa esencialmente el costo de las predicciones inexactas.

Ahora, si tiene múltiples objetivos para lograr una tarea determinada, puede tener múltiples funciones de pérdida o una combinación de ellas (llamada función de pérdida híbrida ) que tal vez desee optimizar. Creo que te estás refiriendo a este documento: http://www.aclweb.org/anthology/…. Aquí, verá en la Sección 2.1 que hay dos objetivos de capacitación para su tarea: “1) el n-gramo original debe obtener una puntuación más alta en el modelo de lenguaje que el n-gramo dañado, y (2) la puntuación del sentimiento de n original -gram debería ser más consistente con la anotación de polaridad dorada de la oración que el n-gram corrupto. por lo tanto, combinan dos funciones de pérdida de bisagra separadas (para optimizar la pérdida sintáctica y la pérdida de sentimiento) y crean una función de pérdida híbrida.

¡Espero que esto responda a su pregunta! Para obtener más detalles sobre las funciones de pérdida y sus optimizaciones, sugeriría leer la Sección 4.3 de este libro: http://www.deeplearningbook.org/….

Una función de pérdida híbrida es simplemente una función de pérdida compuesta por dos o más funciones de pérdida diferentes. Por ejemplo, considere la función de pérdida híbrida hipotética como se muestra a continuación.

[matemáticas] pérdida = \ alpha_ {1} pérdida_1 + \ alpha_ {2} pérdida_2 +… + \ alpha_ {n} pérdida_ {n} [/ matemáticas]

Por supuesto, en realidad [matemáticas] n [/ matemáticas] es muy pequeño, normalmente:

[matemáticas] 1 \ leq n \ leq 2 [/ matemáticas]

Los [math] \ alpha [/ math] son ​​los pesos de equilibrio con [math] \ alpha_1 [/ math] = 1.

Encontrará tales pérdidas híbridas en, digamos, detección de objetos con regresión de cuadro delimitador. La pérdida en ese caso necesita una función de pérdida secundaria para la parte de reconocimiento y otra función de pérdida secundaria para la regresión del cuadro delimitador.

La función de pérdida híbrida está optimizada como una función de pérdida ordinaria, no tiene nada de especial.

Espero que esto ayude.

Significa que la red genera 2 o más predicciones en lugar de solo 1. Cada una de estas predicciones tiene su propia pérdida. Los gradientes de todas estas pérdidas se propagan a través de la red.