¿Cómo se interpretan la precisión y el recuerdo en una tarea de segmentación?

Una tarea de segmentación es simplemente insertar límites en el texto (suponiendo que esté hablando de segmentación de texto).

La precisión es: para los límites que insertó, ¿cuántos de ellos eran correctos?

Recordar es: para todos los límites correctos, ¿cuántos de ellos encontraste?

La matemática es simple. Tiene verdaderos positivos (TP), falsos positivos (FP), verdaderos negativos (TN) y falsos negativos (FN). Entonces tienes:

Precisión = TP / (TP + FP)
Recuperación = TP / (TP + FN)

También puede definir un par de otros factores útiles: la cantidad de errores que comete (error) y con qué frecuencia se encuentran límites falsos (consecuencias):

Error = (FP + FN) / (TP + TN + FP + FN)
Fallout = FP / (FP + TN)

Finalmente, una forma estándar de equilibrar la precisión y la recuperación (realmente desea maximizar ambas) es calcular la puntuación F, que es la media armónica entre precisión y recuperación.

El otro caso que veo en la práctica es para sistemas de alta precisión en los que se fija la precisión en, digamos, 95%, y luego se intenta maximizar la recuperación bajo esa restricción.