sábado, 6 de junio de 2015

Estadística

Análisis de la regresión

heterocedasticidad cuando la varianza de las perturbaciones no es constante a lo largo de las observaciones.
Esto implica el incumplimiento de una de las hipótesis básicas sobre las que se asienta el modelo de regresión lineal.
De ella se deriva que los datos con los que se trabaja son heterogéneos, ya que provienen de distribuciones de probabilidad con distinta varianza.
Existen diferentes razones o situaciones en las que cabe encontrarse con perturbaciones heteroscedásticas. La situación más frecuente es en el análisis de datos de corte transversal, ya que los individuos o empresas o unidades económicas no suelen tener un comportamiento homogéneo.
Otra situación en la que se presenta heteroscedasticidad es en muestras cuyos datos son valores que se han obtenido agregando o promediando datos individuales.Las principales consecuencias que derivan del incumplimiento de la hipótesis de homocedasticidad en los resultados de la estimación de mínimos cuadrados son:
Heterocedasticidad y Homocedasticidad.
  • Pérdida de eficiencia en el estimador mínimo cuadrático.
Por lo demás, los estimadores de mínimos cuadrados siguen siendo los mejores estimadores que pueden obtenerse. Siguen siendo insesgados, pero dejan de ser de varianza mínima.




HETEROCEDASTICIDAD
“ Se da cuando la varianza de los errores no es constante en las distintas observaciones ”
Homocedasticidad: E ( Ui 2 ) = 2
Heterocedasticidad: E ( Ui 2 ) =
Fuentes de Heterocedasticidad
  • Características particulares de la regresión
  • Factores atípicos
  • Errores de especificación del modelo
  • Asimetría en la distribución de las variables
  • Incorrecta transformación de los datos o forma funcional
  • Estimación MCO con Heterocedasticidad
    • Los estimadores siguen siendo INSESGADOS
    E ( ) = Condición de Insesgamiento
    E ( 2) = 2 + Ki E(Ui)
    Si E(Ui) = 0 entonces demostramos que el estimador es Insesgado. De esta manera observamos que para determinar la condición de insesgamiento no nos importa si la varianza de Ui es Homocedástica o heterocedastica. Por lo tanto en presencia de Heterocedasticidad los estimadores siguen siendo Insesgados.
    • Los estimadores siguen siendo CONSISTENTES
    La propiedad de Consistencia es de las muestras grandes y consiste en que la Varianza de tiende a cero cuando n tiende a " .
    Bajo el supuesto de heterocedasticidad se sigue cumpliendo.
    E(UiXi) = 0
    • Los estimadores dejan de ser EFICIENTES ya que no son los de minina varianza.
    • Las varianzas y covarianzas de los estimadores de MCO son SESGADAS e INCONSISTENTES. Por este motivo los test de hipótesis ya no son válidos.
    Detección de la Heterocedasticidad (métodos informales)
    • Naturaleza del problema: Se basa en relaciones ya estudiadas que pueden ser similares a las que estamos analizando
    • Casos particulares
    • Método grafico: consiste en hacer una regresión bajo el supuesto de que no existe heterocedasticidad y luego examinar los u con las y para ver si hay algún patrón de comportamiento.
    Detección de la Heterocedasticidad (métodos formales)
    • TEST DE GOLDFELD-QUANT: Se basa en la idea que si la varianza de los errores es igual a través de todas las observaciones, entonces la varianza para una parte de la muestra será la misma que la calculada con otra parte de la misma.
    I ETAPA: Se identifica una variable Z relacionada con la varianza de los errores. Si suponemos que la relación es POSITIVA, ordenamos de manera creciente los datos de la muestra.

    II ETAPA: Dividimos la muestra en 2 partes omitiendo los valores centrales (c)
    III ETAPA: Estimamos las regresiones por separado.
    IV ETAPA: Obtenemos SEC de cada una de las regresiones y calculamos las estimaciones de la varianza como SEC1/n1-k y SEC2/n2-k
    V ETAPA: Calculamos Fcalc = SEC1/n-k
    SEC2/n-k
    VI ETAPA: Comparamos Fcalc con el valor F tabla con (n1-K) GL numerador y (n2-K) GL denominador.
    Si Fcalc > Ftabla rechazo Ho de Homocedasticidad.
    Limitación: El éxito depende de (c) y que se seleccione correctamente X.
    • TEST DE BREUSH-PAGAN: Supone que la varianza de los errores no es una constante sino que está relacionada con un N° de variables Z.
    Y1= 1 + 2X2 + .... U1
    2 = 1 + 2 Z2 + .... p Zp (p<= k)
    Si 1 = 2 = .... p = 0 entonces la varianza de los errores es constante indicando Homocedasticidad. Construimos un testo con Ho afirmando dicha igualdad.
    I ETAPA: Estimamos Y1= 1 + 2X2 + .... U1 por MCO y luego calculamos los residuos del modelo.
    II ETAPA: U2i (estimado) es una estimación de la varianza de los errores.
    Si 1 = 2 = .... p = 0 fuese válida podemos esperar que U2i (estimado) esté relacionado con las variables Z lo que sugiere una regresión auxiliar.
    U2(estimado) = 1 + 2 Z2 + .... p Zp
    2 (estimado)
    III ETAPA: Demostraron que para Muestras Grandes y bajo Ho: 1 = 2 = .... p = 0 (Se regresión)2 /2 tiene distribución Chi-cuadrado con p grados de libertad.
    Entonces si 2 calc = SEC/2 > 2 tabla = 2 p,
    Rechazamos Ho y hay Heterocedasticidad.
    Limitación: Es sensible a cualquier tipo de violación del supuesto de normalidad de los errores.
    • TESTE DE WHITE: También es un test para muestras grandes y es parecido al de Breush-pagan, pero no necesita ningún supuesto previo acerca de las causas de la heterocedasticidad.
    I ETAPA: Estimamos el modelo por MCO.
    II ETAPA: Calculamos U2i (estimado)
    III ETAPA: Estimamos un modelo de regresión utilizando U2i (estimado) como variable dependiente sobre las X originales , las X2 y los productos cruzados.
    IV ETAPA: Calculamos R2 para la regresión y n.R2
    V ETAPA: Ho: 2 = 3 = .... = 0
    H1: al menos una # 0
    Si nR2 > 2 (k-1),
    Rechazo Ho y tengo Heterocedasticidad.
    -Si al menos una variable explicativa es DUMMY al elevarla al 2 resulta la misma variable y hay problemas de Multicolinealidad Perfecta.
    -Si son muchas X podemos eliminar los términos cruzados.
    Soluciones a la Heterocedasticidad
    • Mínimos Cuadrados Generalizados : Consiste en dividir cada término por i.
    Modelo transformado
    Y1/ i. = 1X1/ i. + 2X2/ i. + .... Este modelo satisface los supuestos de MCO, pero se puede presentar el inconveniente de no conocer i.
    • Mínimos Cuadrados Ponderados: es una extensión del MCG.
    Definimos w1= 1/ i. Y transformando el modelo nos queda
    Y1W1. = 1(X1W1). + 2(X2W1). + ….. (UiW1)
    En este modelo transformado cada observación de la variable está ponderada por W1 (inversamente proporcional a i)
  • Conocemos la estructura de la Heterocedasticidad
  • Suponemos Var(Ui) = 2. Z2 ( se denomina Heterocedasticidad Multiplicativa)
    W = 1/Z .... Nos queda el modelo transformado.
    La Var(Ui transformado) = 2.(porque se nos elimina Z2) , de esta manera nos queda un modelo Homocedastico.
  • Estructura Heterocedasticidad desconocida (MCGE)
  • I ETAPA: Estimamos el modelo por MCO
    II ETAPA: Calculamos los residuos estimados al cuadrado
    III ETAPA: Estimamos la regresión particular de los residuos estimados al cuadrado sugerida por White.
    IV ETAPA: Usamos las estimaciones y obtenemos la estimación de
    2 = 1 + 2 Z2 + ....
    V ETAPA: Hacemos una regresión U2(estimado) contra cada variable del paso 3
    2 (estimado)
    dividida por 2 (estimado).
    2 = 1 + 2 X2 + 3X3 + 4X22 + 5 X2X3 ....... etc
    VI ETAPA: W= 1/ 2 (estimado por MV)
    Puede ocurrir que se obtengan estimaciones NEGATIVAS para las variables. En este caso se eliminan los términos cruzados o se usa el Log de U2 estimado como término dependiente.

    No hay comentarios:

    Publicar un comentario