¿Qué es la entropía cruzada en palabras fáciles?

La entropía cruzada mide el error de codificar un conjunto de símbolos usando una longitud no óptima.

Digamos que nuestro universo de posibles caracteres es (A, B, C, D) y tenemos un texto: (A, B) la codificación óptima es 1 bit para A y 1 bit para B. Si usamos una codificación ingenua suponiendo que todos los caracteres son igualmente probables que nuestras probabilidades son (1 / 4,1 / 4,1 / 4,1 / 4) y usamos 2 bits por cada carácter. Entonces podemos calcular la entropía cruzada como:

P (A) * largo (A) + P (B) * largo (B) + P (C) * largo (C) + P (D) * largo (D)

1/2 * 2 + 1/2 * 2 + 0 * 2+ 0 * 2 = 2 bits

Podemos comparar esto con la entropía óptima que es

1/2 * 1 + 1/2 * 1 = 1 bit

La entropía cruzada siempre está por encima de la entropía, por lo que puede usarse como una medida de error.

Espero que esto esté claro, si no, aquí hay un segundo intento:

La entropía cruzada es el cálculo de la entropía utilizando las probabilidades de los símbolos de acuerdo con su distribución, pero la longitud óptima de los símbolos en otra distribución.

De ahí la fórmula:

[matemáticas] Hx = – \ sum p_i * log_2 (q_i) [/ matemáticas]

En nuestro caso, p es (1 / 2,1 / 2,0,0) y q es (1 / 4,1 / 4,1 / 4,1 / 4) cuando q = p, entonces tiene la fórmula regular para la entropía y por lo tanto Hx es siempre más alto que H.


Luis

[matemáticas] [/ matemáticas]

En términos simples, sin mucha jerga matemática, puede pensar en la entropía cruzada como cuánto es su error de clasificación total, que se basa en la probabilidad de que cada clase se clasifique cuando se aplica un modelo de clasificación.

Un excelente enlace para seguirlo con un ejemplo v.simple

https: //jamesmccaffrey.wordpress