No sé exactamente qué covarianza se entiende, pero la respuesta es muy probable que sea “no”.
Simplemente tome el proceso de Wiener unidimensional [math] (W_t) _ {t \ geq 0}. [/ Math] Podemos verificar diferentes tipos de covarianzas.
Por ejemplo, podríamos estar interesados en la covarianza de [math] W_s [/ math] y [math] W_t [/ math] en los puntos de tiempo [math] s, t \ geq 0 [/ math]. Pero entonces [math] cov (W_s, W_t) = min (s, t) [/ math]. Obviamente esto no es constante.
- ¿Qué técnicas de aprendizaje automático se utilizan en la industria?
- ¿Qué significa realmente la matriz de covarianza de la estimación de máxima verosimilitud de la distribución normal multivariante?
- Procesamiento de lenguaje natural: ¿Cuál es la mejor manera de calcular la similitud de cadenas?
- ¿Por qué Quora eligió a HackerRank como plataforma para organizar sus competiciones de ML en lugar de algún sitio más familiar como Kaggle?
- ¿La pérdida de softmax es igual a la pérdida de entropía cruzada?
Lo que también se deduce de esto es que [math] W_t \ sim \ mathcal {N} (0, t) [/ math]. Entonces la varianza tampoco es constante. Lo mismo es válido para [math] d [/ math] -procesos dimensionales de Wiener [math] (W_t ^ d) _ {t \ geq 0}, [/ math] para el que tenemos [math] W_t ^ d \ sim \ mathcal {N} (0, tI_d) [/ math] con la matriz de identidad [math] I_d [/ math]. Si [math] d> 1 [/ math] la matriz [math] tI_d [/ math] es una matriz de covarianza “adecuada” y no solo una varianza.
Tal vez también podríamos pensar en algo como “estacionariedad”: para [matemáticas] W_t [/ matemáticas], sostiene que [matemáticas] W_t-W_s \ sim \ mathcal {N} (0, ts) [/ matemáticas] para [matemáticas] 0 \ leq s \ leq t [/ math]. Entonces, aquí la varianza (la covarianza multidimensional) solo depende de [math] ts [/ math]. Pero luego podemos cambiar ligeramente el proceso y usar [math] X_t = tW_t [/ math]. Claramente, todas las distribuciones dimensionales finitas siguen siendo gaussianas y [math] X_t [/ math] es un proceso gaussiano. En particular [math] X_t -X_s \ sim \ mathcal {N} (0, k (s, t)) [/ math] con alguna variación [math] k (s, t) [/ math]. Aquí podemos calcular [matemáticas] k (s, t) = t ^ 3-2s ^ 2t + s ^ 3 [/ matemáticas], por lo que no tenemos estacionariedad.