Errores estándar consistentes con heterocedasticidad - Heteroscedasticity-consistent standard errors

El tema de los errores estándar consistentes con heterocedasticidad ( HC ) surge en estadística y econometría en el contexto de la regresión lineal y el análisis de series de tiempo . Estos también se conocen como errores estándar robustos a la heterocedasticidad (o simplemente errores estándar robustos ), errores estándar de Eicker-Huber-White (también errores estándar de Huber-White o errores estándar de White ), para reconocer las contribuciones de Friedhelm Eicker , Peter J. Huber y Halbert White .

En modelos de regresión y series de tiempo, las formas básicas de modelos hacen uso del supuesto de que los errores o perturbaciones u i tienen la misma varianza en todos los puntos de observación. Cuando este no es el caso, se dice que los errores son heterocedásticos, o que tienen heterocedasticidad , y este comportamiento se verá reflejado en los residuos estimados a partir de un modelo ajustado. Los errores estándar consistentes con heterocedasticidad se utilizan para permitir el ajuste de un modelo que contiene residuos heterocedásticos. El primer enfoque de este tipo fue propuesto por Huber (1967), y desde entonces se han producido procedimientos mejorados para datos transversales, datos de series de tiempo y estimación GARCH .

Los errores estándar consistentes con heterocedasticidad que difieren de los errores estándar clásicos pueden indicar una especificación incorrecta del modelo. La sustitución de errores estándar consistentes con heterocedasticidad no resuelve esta especificación errónea, que puede conducir a sesgos en los coeficientes. En la mayoría de las situaciones, el problema debe encontrarse y solucionarse. Otros tipos de ajustes de error estándar, como los errores estándar agrupados , pueden considerarse extensiones de los errores estándar de HC.

Historia

Los errores estándar consistentes con heterocedasticidad son introducidos por Friedhelm Eicker y popularizados en econometría por Halbert White .

Problema

Considere el modelo de regresión lineal

donde X es el vector de variables explicativas y β es un vector de k × 1 columna de parámetros a estimar.

El estimador de mínimos cuadrados ordinarios (MCO) es

donde denota la matriz de valores apilados observados en los datos.

Si los errores muestrales tienen la misma varianza σ 2 y no están correlacionados , entonces la estimación de mínimos cuadrados de β es AZUL (el mejor estimador lineal insesgado) y su varianza se estima con

donde están los residuos de regresión.

Cuando los términos de error no tienen varianza constante (es decir, la suposición de es falsa), el estimador MCO pierde sus propiedades deseables. La fórmula para la varianza ahora no se puede simplificar:

dónde

Si bien el estimador de puntos de MCO permanece insesgado, no es "el mejor" en el sentido de tener un error cuadrático medio mínimo, y el estimador de varianza de MCO no proporciona una estimación consistente de la varianza de las estimaciones de MCO.

Sin embargo, para cualquier modelo no lineal (por ejemplo, modelos logit y probit ), la heterocedasticidad tiene consecuencias más graves: las estimaciones de máxima verosimilitud de los parámetros estarán sesgadas (en una dirección desconocida), así como inconsistentes (a menos que la función de verosimilitud sea modificado para tener en cuenta correctamente la forma precisa de heterocedasticidad). Como señaló Greene , "simplemente calcular una matriz de covarianza robusta para un estimador que de otro modo sería inconsistente no le da redención".

Solución

Si los errores de regresión son independientes, pero tienen distintas varianzas σ i 2 , entonces con cuál se puede estimar . Esto proporciona el estimador de White (1980), a menudo denominado HCE (estimador consistente de heterocedasticidad):

donde como arriba denota la matriz de valores apilados de los datos. El estimador se puede derivar en términos del método generalizado de momentos (GMM).

También se discute a menudo en la literatura (incluido el artículo de White) la matriz de covarianza de la distribución limitante consistente:

dónde

y

Por lo tanto,

y

Precisamente qué matriz de covarianza es de interés es una cuestión de contexto.

Se han propuesto estimadores alternativos en MacKinnon y White (1985) que corrigen las varianzas desiguales de los residuos de regresión debido a un apalancamiento diferente . A diferencia del estimador asintótico de White, sus estimadores son insesgados cuando los datos son homocedásticos.

Ver también

Software

  • EViews : EViews versión 8 ofrece tres métodos diferentes para mínimos cuadrados robustos: estimación M (Huber, 1973), estimación S (Rousseeuw y Yohai, 1984) y estimación MM (Yohai 1987).
  • MATLAB : consulte la hacfunción en la caja de herramientas Econometrics.
  • Python : el paquete Statsmodel ofrece varias estimaciones robustas de errores estándar; consulte statsmodels.regression.linear_model.RegressionResults para obtener más descripciones
  • R : el vcovHC()comando del paquete de sándwich .
  • La opción RATS : robusterrors está disponible en muchos de los comandos de regresión y optimización ( linreg , nlls , etc.).
  • Stata : robustopción aplicable en muchos procedimientos basados ​​en pseudo-verosimilitud.
  • Gretl : la opción --robustde varios comandos de estimación (como ols) en el contexto de un conjunto de datos de sección transversal produce errores estándar robustos.

Referencias

Otras lecturas