¿Cómo se calcula la pérdida WARP de la estadística de orden K para aprender a clasificar las recomendaciones?

Más detalles sobre la pregunta.

(1) Para calcular la pérdida de WARP, la función del indicador se aproxima por la pérdida de la bisagra, utilizando “1” como margen. El rango de un elemento positivo ([matemática] d ^ + [/ matemática]) también se aproxima mediante una aproximación muestreada. Para eso, toman muestras de N elementos “negativos” ([matemática] d ^ – [/ matemática]) hasta que se encuentra una violación, es decir, hasta [matemática] f (d ^ -)> f (d ^ +) – 1 [ / math], donde [math] f (d) [/ math] proporciona la puntuación prevista para un elemento [math] d [/ math]. En el caso de la retroalimentación implícita binaria, tendremos [math] 0 \ leq f (d) \ leq1 [/ math]. Esto significa que la condición [matemática] f (d ^ -)> f (d ^ +) – 1 [/ matemática] se cumplirá la mayoría de las veces y necesitaremos muestrear solo un elemento negativo ([matemática] N = 1 [/ matemáticas]). ¿No es esta una condición más bien débil? No sería mejor, en el caso de la retroalimentación implícita, usar un margen inferior [matemática] 0 <m f (d ^ +) – m [/ math] como condición para el muestreo?

(2) La fórmula de la pérdida de K-OS utiliza una probabilidad [matemática] P [/ matemática] como ponderaciones. Los autores dicen que las diferentes opciones de [matemáticas] P (j) [/ matemáticas] pueden usarse para prestar más atención a los elementos positivos en la parte superior de la lista clasificada o en la parte inferior. La función [math] \ phi () [/ math] (proveniente de la pérdida original de WARP) también se puede usar de la misma manera, ¿verdad? ¿Significa que con la pérdida de K-OS podemos jugar con [math] P (j) [/ math] y [math] \ phi () [/ math] para decidir qué parte de la lista clasificada optimizamos?