¿Cómo afectaría la homo / heteroscedasticidad al análisis de regresión?

La heterocedasticidad puede tomar muchas formas; por ejemplo,


es una forma de heterocedasticidad donde la varianza crece a medida que crece la variable independiente. Puede haber muchos otros tipos más complejos de heterocedasticidad. Puedes ver cómo el ajuste es realmente ajustado desde el principio, pero se debilita hacia la derecha.

Dependiendo del formulario, invalidará sus intervalos de confianza / barras de error y hará imposible la inferencia regular. En determinadas circunstancias, puede utilizar estadísticas t robustas hedrosásticas, pero si sus errores realmente son homosqueléticos, esto no es eficiente.

Cuando su regresión satisface los supuestos de Gauss-Markov, que incluyen la homocedasticidad, OLS es AZUL (teorema de Gauss-Markov). De lo contrario, hay otros estimadores que son más eficientes, y es posible que desee realizar WLS o FGLS.

Hay una serie de pruebas que otros han mencionado para ver si hay una heterocedasticidad estadísticamente significativa, por ejemplo, la prueba de Breusch-Pagan. Va algo en la línea de ejecutar una regresión sobre los errores en función de sus covariables, y si los coeficientes de regresión en esta regresión son diferentes de cero, entonces hay heterocedasticidad. Hay más pruebas, pero no quiero hacer esta respuesta sin aliento excesivamente largo.

Si desea un libro que le enseñe más sobre este tipo de cosas, debe elegir Econometría en su mayoría inofensiva, o si desea que la imagen completa se construya desde cero en un libro de texto, Introducción a la econometría: un enfoque moderno es bueno.

Una de las suposiciones importantes de la regresión lineal es que la varianza condicional de Y (condicionada por X) es la misma en todos los niveles de la variable independiente X. Esto se denomina homocedasticidad.

Si esta suposición falla (varianza no igual a través de los niveles de variable independiente – Heterosedasticidad), la estimación producida por OLS (Mínimo Cuadrado Ordinario) ya no será una estimación de varianza mínima.

Si la varianza de una estimación es mayor en comparación con la varianza de la mejor estimación (es decir, la estimación de varianza mínima), estadística t [matemática] \ bigg (t = \ frac {\ hat {\ beta}} {se (\ hat {\ beta} )} \ bigg) [/ math] el valor será menor y hará que el coeficiente sea insignificante. Lo que parece ser un coeficiente insignificante, puede ser significativo si obtenemos la mejor estimación de OLS.

La heterocedasticidad no afectaría las estimaciones de sus parámetros y sus coeficientes beta aún son insesgados. Sin embargo, el problema radica en los errores estándar. Los errores estándar ya no siguen una distribución t / f consistente que resulta en inferencia inválida o que calcula los intervalos de confianza. Uno simplemente puede ignorar la heterocedaistía y asumir que no existe. Entonces los intervalos de confianza resultantes serán más estrechos (resultado falso).

Si ejecuta una prueba simple como Breusch Pagan y rechaza el valor nulo, lo más probable es que tenga este problema. Como econométricos, nos gusta sacar conclusiones válidas y realizar este tipo de verificación es primordial en las regresiones informáticas. Además, siempre puede corregir esto utilizando errores estándar robustos que vienen integrados con la mayoría del software tradicional de econometría.

Espero que despeje algo del polvo.

La heterocedasticidad es una violación de los supuestos de regresión. Podría sesgar todos los resultados. Pero exactamente cómo los afectará depende de la naturaleza exacta de la heterocedasticidad: ¡las variaciones pueden ser desiguales de muchas maneras!

La razón es que los residuos y las variables independientes están correlacionadas. Esto significa que cuando la X (variable independiente) toma valores altos, los residuos en esos niveles también son altos, y cuando la X toma valores bajos, los residuos son bajos. Esto viola el supuesto de independencia.