En términos generales, la correlación y la covarianza miden si dos variables aleatorias tienen una relación lineal. La independencia estadística se trata de si las variables tienen alguna relación; es decir, saber algo sobre uno te dice algo sobre el otro.
Aquí hay un ejemplo simple.
La variable aleatoria A toma los valores {1, -1} con igual probabilidad.
- ¿Por qué algunos clasificadores no pueden manejar los atributos continuos?
- ¿Cuál es una explicación intuitiva del método de optimización llamado Hessian-free Optimizer (HF) para redes neuronales?
- ¿Cómo se usa LSTM para la clasificación?
- ¿Es cierto que las predicciones en el espacio de alta dimensión son más difíciles en torno al origen?
- Cómo configurar datos de entrenamiento para una red neuronal para generar valores de joystick basados en una entrada de imagen
La variable aleatoria B depende de A de la siguiente manera:
- Si A = 1, entonces B toma los valores {1000, -1000} con igual probabilidad.
- Si A = -1, entonces B = 0.
A y B no están correlacionados, es decir, tienen covarianza cero: ambas variables tienen media cero y el valor esperado de A [matemáticas] \ cdot [/ matemáticas] B = 1000 – 1000 + 0 – 0 = 0.
Pero las dos variables son claramente dependientes; sin saber B, A podría ser +1 o -1 con igual probabilidad. Pero si conoces B, entonces también conoces a A exactamente. Y si conoce A, sabe exactamente el valor absoluto de B.
(http://en.wikipedia.org/wiki/Unc… discute esto un poco también).