sábado, 6 de junio de 2015

Estadística

Análisis de la regresión

 mínimos cuadrados ordinarios (MCO) o mínimos cuadrados lineales es el nombre de un método para encontrar los parámetros poblacionales en un modelo de regresión lineal. Este método minimiza la suma de las distancias verticales entre las respuestas observadas en la muestra y las respuestas del modelo. El parámetro resultante puede expresarse a través de una fórmula sencilla, especialmente en el caso de un único regresionador.
El método MCO, siempre y cuando se cumplan los supuestos clave, será consistente cuando los regresionadores sean exógenos y no haya perfecta multicolinealidad, este será óptimo en la clase de parámetros lineales cuando los errores sean homocedásticos y además no haya autocorrelación. En estas condiciones, el método de MCO proporciona un estimador insesgado de varianza mínima siempre que los errores tengan varianzas finitas. Bajo la suposición adicional de que los errores se distribuyen normalmente, el estimador MCO es el de máxima verosimilitud. Los MCO se utilizan en economía (econometría) y en la ingeniería eléctrica (teoría de control y procesamiento de señales), entre muchas áreas de aplicación.- ..................................................:http://es.wikipedia.org/w/index.php?title=Especial:Libro&bookcmd=download&collection_id=41f2cc722c5bf221c5d62c2804b9cb3ef88c5b40&writer=rdf2latex&return_to=M%C3%ADnimos+cuadrados+ordinarios

Mínimos cuadrados ordinarios

Uno de los puntos determinantes en la econometría se basa en el procesamiento estadístico y para ello el método de Mínimos Cuadrados Ordinarios MCO permite encontrar los Mejores Estimadores Lineales Insesgados.
Este método presenta muchas ventajas en cuanto a lo fácil de su uso y por lo adecuado del planteamiento estadístico matemático que permite adecuarse a los supuestos para los modelos econométricos.
El término de MCO esta vinculado con la regresión y la correlación, ambas determinan la existencia de relación entre dos o mas variables (siempre una dependiente y una o varias independientes).
La diferencia radica en que le regresión se expresa en una función o relación funcional mediante una ecuación con su uso predictivo, y la correlación es un valor que mide la intensidad con que están relacionadas linealmente las variables, se esta hablado de una regresión o correlación simple cuando se relacionan 2 variables, si existen mas se habla de una correlación múltiple (el alcance de este curso se limita a la simple).
Las funciones regresivas principalmente pueden ser de cuatro tipos:
  • Lineales
De la forma matemática Y(x) = a+ bXi
Y su expresión Regresiva Yi = β1+ β2Xi + υi
  • De segundo grado
De la forma matemática Y(x) = a+ bXi+cXi2
Y su expresión Regresiva Yi = β1+ β2Xi + β3Xi2+ υi
  • Exponenciales
De la forma matemática Y(x) = abx
Y su expresión econométrica log F(x) = log a + x log b + υi
  • De potencia
De la forma matemática Y(x) = aXin
Y su expresión Regresiva log Yi = log a + b log X + υi

Nota: la variable υi se refiere al término de perturbación o de error, se le conoce como una variable aleatoria estocástica y se utiliza para recoger todos aquellos elementos que afectan a las variables del modelo de manera externa, es decir mejora la predicción del modelo en la medida que captura los efectos de variables no relacionadas con el modelo. En la mayoría de casos y cuando se cuenta con la suficiente información el valor que toma esta variable es aproximadamente igual a cero y por lo tanto es un valor descartable, siempre y cuando sea un valor cercano a cero.
Para trabajar con una ecuación no importando el tipo (exponencial, logarítmica o de potencia), es necesario en primer lugar linealizar la ecuación, que no es más que llevar a potencia 1 la variable explicativa o independiente y para ello se puede valer de distintos métodos algebraicos que permiten llevar efectuar este procedimiento.

Modelo de minimos cuadrados ordinarios
El análisis de regresión trata de la dependencia de las variables explicativas, con el objeto de estimar y/o predecir la media o valor promedio poblacional de la variable dependiente en términos de los valores conocidos o fijos de las variables explicativas.
Se trata de encontrar una método para hallar una recta que se ajuste de una manera adecuada a la nube de puntos definida por todos los pares de valores muestrales (Xi,Yi).
Este método de estimación se fundamenta en una serie de supuestos, los que hacen posible que los estimadores poblacionales que se obtienen a partir de una muestra, adquieran propiedades que permitan señalar que los estimadores obtenidos sean los mejores.
Pues bien, el método de los mínimos cuadrados ordinarios consiste en hacer mínima la suma de los cuadrados residuales, es decir lo que tenemos que hacer es hallar los estimadores que hagan que esta suma sea lo más pequeña posible.
Los supuestos del método MCO son los que se presentan a continuación:
Supuesto 1
El modelo de regresión es lineal en los parámetros:
Yi =  1 +  2*Xi + i
La linealidad de los parámetros se refiere a que los ´s son elevados solamente a la primera potencia.
Supuesto 2
Los valores que toma el regresor X son considerados fijos en muestreo repetido. Esto quiere decir que la variable X se considera no estocástica. Este supuesto implica que el análisis de regresión es un análisis condicionado a los valores dados del (los) regresores.
Supuesto 3
Dado el valor de X, el valor esperado del término aleatorio de perturbación i es cero.
E (  i/Xi ) = 0
Cada población de Y corresponde a un X dado, está distribuida alrededor de los valores de su media con algunos valores de Y por encima y otros por debajo de ésta. Las distancias por encima y por debajo de los valores medios son los errores, y la ecuación antes señalada requiere que en promedio estos valores sean cero.
Supuesto 4
Homoscedasticidad. Dado el valor de X, la varianza de i es la misma para todas las observaciones.
Var ( i/Xi ) = E ( i - E( i)/ Xi)2
= E ( i2/Xi )
2
Esta ecuación señala que la varianza de las perturbaciones para cada Xi es algún número positivo igual a 2.
Homoscedastidad significa igual dispersión, en otras palabras significa que las poblaciones Y correspondientes a diversos valores de X tienen la misma varianza. Por el contrario, se dice que existe heteroscedasticidad cuando la varianza poblacional, ya no es la misma en cada muestra. El supuesto de homoscedasticidad está indicando que todos los valores de Y correspondientes a diversos valores de X son igualmente importantes.
Supuesto 5
Dados dos valores cualquiera de X, Xi y Xj ( i " j ), la correlación entre i y j cualquiera ( i " j ) es cero.
Cov (  i,  j / Xi, Xj ) = E ( i - E( i)/ Xi) ( j - E ( j/Xj ))
= E ( i/Xi ) ( j/Xj )
= 0
Este supuesto indica que las perturbaciones no están correlacionadas. Esto significa que los errores no siguen patrones sistemáticos. La implicancia del no cumplimiento de este supuesto (existencia de autocorrelación) implicaría que Yt no depende tan sólo de Xt sino también de t-1, puesto que t-1 determina en cierta forma a t.
Supuesto 6
La covarianza entre i y Xi es cero, formalmente:
Cov ( i/Xi ) = E ( i - E( i)) (Xi - E(Xi))
= E ( i (Xi - E(Xi)))
E ( i Xi - E(Xi) E( i))
E ( i Xi)
= 0
Este supuesto indica que la variable X y las perturbaciones no están correlacionadas. Si X y estuvieran relacionadas, no podrían realizarse inferencias sobre el comportamiento de la variable endógena ante cambios en las variables explicativas.
Supuesto 7
El número de observaciones debe ser mayor que el número de parámetros a estimar.
Supuesto 8
Debe existir variabilidad en los valores de X. No todos los valores de una muestra dada deben ser iguales.Técnicamente la varianza de X debe ser un número finito positivo. Si todos los valores de X son idénticos entonces se hace imposible la estimación de los parámetros.
Supuesto 9
El modelo de regresión debe ser correctamente especificado, esto indica que no existe ningún en el modelo a estimar. La especificación incorrecta o la omisión de variables importantes, harán muy cuestionable la validez de la interpretación de la regresión estimada.
Supuesto 10
No hay relaciones perfectamente lineales entre las variables explicativas. No existe multicolinealidad perfecta. Aunque todas las variables económicas muestran algún grado de relación entre sí, ello no produce excesivas dificultades, excepto cuando se llega a una situación de dependencia total, que es lo que se excluyó al afirmar que las variables explicativas son linealmente dependientes.

No hay comentarios:

Publicar un comentario