Upload
francisco-oses
View
18
Download
1
Embed Size (px)
Citation preview
RESUMEN 2° PARTE
ECONOMETRÍA
SEMESTRE OTOÑO 2014
PROFESOR: EDINSON PÉREZ B.1
MODELO CLÁSICO DE REGRESIÓN LINEAL (MCRL)
1. Lineal en los parámetros. La esperanzacondicional de Y es una función lineal de Xi
2. Valores fijos de X, independientes del término de
error cov(Xi, mi) = o. El supuesto implica que losvalores de X son No estocásticos. Se requierecov(X, m)=0
3. El valor medio de la perturbación mi es igual a
cero los valores positivos de mi se cancelan con los
valores negativos de mi los factores noincluidos en el modelo no afectansistemáticamente el valor de la media de Y. 2
SUPUESTOS DEL MODELO
4. Homoscedasticidad o varianza de mi es constante
Var(mi ) =s2.
5. No hay autocorrelación entre las perturbaciones.
la correlación entre dos mi y mj cualesquiera es cero
Cov(mi;mj)=0, osea las perturbaciones son
aleatorias e independientes entre sí.
6. El número de observaciones N debe ser mayor que el
número de parámetros bi a estimar (condición
matemática para resolver ecuaciones).
3
MODELO CLÁSICO DE REGRESIÓN LINEAL (MCRL)
SUPUESTOS
7. Los valores X en una muestra determinada NO
deben ser todos iguales, porque
(b1=Sxiyi/Sxi2parámetros indeterminados).
Además, no puede haber valores atípicos de la
variable X.
8. No debe haber colinealidad exacta entre las
variables X. No hay relación lineal exacta
entre X2 y X3.
9. No hay sesgo de especificación. El modelo
está especificado correctamente.
4
MODELO CLÁSICO DE REGRESIÓN LINEAL (MCRL)
SUPUESTOS
Usamos estadígrafo F con (k-1) y (N-k) grados delibertad, porque nos permite probar la hipótesisnula H0 de que ninguna de las variablesexplicativas conjuntamente ayuda a explicar lavariable Y.
Si Fc>Ft rechazamos H0; por lo tanto, todas lasvariables independientes contribuyen a explicar lavariable Y.
5
PRUEBA DE SIGNIFICANCIA GLOBAL DEL MODELO
MODELO DE REGRESIÓN MÚLTIPLE
ESTIMACIÓN MCO
Cuando comparamos dos modelos de regresión con lamisma variable dependiente debemos usar R2 corregidopor sus gl.
Es importante señalar que, al comparar dos modelos conbase R2, ajustado o no, el tamaño de la muestra N y lavariable dependiente deben ser los mismos; lasvariables explicativas pueden adoptar cualquier forma.
Nuestro objetivo no debe ser buscar R2 elevado perse, sino más bien obtener estimadores confiables de losverdaderos coeficientes de regresión poblacional quepermitan realizar inferencia estadística sobre ellos. 6
BONDAD DEL AJUSTE
MODELO DE REGRESIÓN MÚLTIPLE
ESTIMACIÓN MCO
Para evaluar la contribución incremental denuevas variables a un modelo, aparte del R2
ajustado, se usa el análisis formal ANOVA (testF):
Si Fc>Ft rechazamos H0; por lo tanto las variablesincorporadas contribuyen a mejorar la predicciónde variable Y.
7
CONTRIBUCIÓN INCREMENTAL DE UNA NUEVA VARIABLE
MODELO DE REGRESIÓN MÚLTIPLE
ESTIMACIÓN MCO
Cuando un modelo de regresión tiene
algunas restricciones, en esos casos
aplicamos MCR. El Test F nos permitirá
decidir cuál de los modelos conviene
mantener, sea este el restringido (R) o no
restringido (NR).
Si Fc>Ft rechazamos H0, significa aceptar
el modelo NR.8
MODELO DE REGRESIÓN MÚLTIPLE
MÍNIMOS CUADRADO RESTRINGIDOS (MCR)
Los 2 modelos de variables cualitativas son: ANOVA
que usa sólo variables cualitativas y ANCOVA con
variables cualitativas y cuantitativas.
Si una variable cualitativa con m-categorías, sólo hay
que agregar (m−1) variables dicótomas
Para cada variable cualitativa, el número de variables
dicótomas introducidas debe ser una menos que las
categorías de esa variable.
Todas las comparaciones se hacen respecto de la
categoría de comparación que se refleja en b1. 9
MODELOS CON VARIABLES DICOTÓMICAS
Si la multicolinealidad es perfecta entre lasvariables independientes los coeficientes deregresión serán indeterminados y sus erroresestándares infinitos.
Si la multicolinealidad es imperfecta loscoeficientes de regresión, aunque seandeterminados, poseerán grandes erroresestándar, los coeficientes no podrán serestimados con gran precisión.
La multicolinealidad No Aplica para variablesindependientes No Lineales, por ejemplo lafunción de producción Cobb-Douglas o unafunción de costo marginal. 10
MULTICOLINEALIDAD
NATURALEZA
Método de recolección de datos: muestras en unintervalo demasiado limitado de valores.
Restricciones en el modelo: Por ejemplo, el consumode electricidad con el ingreso y el tamaño de lasviviendas.
Especificación del modelo: por ejemplo, cuando laespecificación funcional no corresponde a la del marcoteórico.
Modelo sobredeterminado: esto sucede cuando elmodelo tiene más variables explicativas (X) que elnúmero de observaciones (N).
Elección de la muestra: en el sentido que, aunque lasvariables X no estén linealmente co-relacionadas en lapoblación, pueden estarlo en una muestra en particular.
11
CAUSAS
MULTICOLINEALIDAD
Con multicolinealidad imperfecta los estimadoresMCO siguen siendo MELI, puesto quecontinúan siendo insesgados, con varianzamínima.
No obstante que los estimadores son MELI,presentan varianzas y covarianzas grandesque dificultan la estimación precisa.
Los intervalos de confianza tienden a ser muchomás amplios, lo cual propicia una aceptación másfácil de la H0, invalidando los test t.
12
MULTICOLINEALIDAD
CONSECUENCIA
13
MULTICOLINEALIDAD
R2 elevado y pocas test t significativas.
Altas correlaciones entre parejas de regresoras X.
Regresiones auxiliares (regresiones entre las X) para
detectar R2 elevados.
“Regla de Klein” si en alguna regresión auxiliar R2
(entre las X’s) > R2 (con Y)síntoma colinealidad alta.
FIV superior a 10
Diagramas de dispersión entre pares de variables.14
MULTICOLINEALIDAD
MÉTODO DE DETECCIÓN PRÁCTICO
Siendo un problema inherente a la muestra, a vecesno es posible corregir el problema.. sólo mejorar lamuestra…. datos nuevos.
Si se cuenta con información previa, entonces usarla(investigación anterior, la teoría, etc.).
Combinar datos de corte transversal y series detiempo.
Eliminar una(s) variable(s), cuidando no introducirsesgo de especificación.
Transformar variables (p.ej. primeras diferencias enseries de tiempo y razones per cápita). 15
¿QUÉ HACER?
MULTICOLINEALIDAD
Curva de Aprendizaje: p. ej. Caso dactilógrafas
Cambio comportamiento: p.ej. a medida que aumentaingreso aumenta la discrecionalidad de su uso
Común en estudios de corte transversal es que seanalizan grupos de diferentes tamaños: empresas, ingresospersonas, consumo.
Los Datos como fuente causa: datos de corte transversal técnica recolección de datos Incorrecta transformación de los datos presencia de datos atípicos. N pequeño.
Errores en la especificación del modelo (omisiónvariables relevantes, forma funcional, incorrectatransformación datos):
16
HETEROSCEDASTICIDAD
•E(mi2)=s2
homoscedasticidad•E(mi
2)=si2heteroscedasticidadCAUSAS
•Los estimadores MCO siguen siendo lineales, insesgados
y consistentes, es decir, al aumentar N el estimador tiende
a su valor verdadero
•Sin embargo, los estimadores β’s dejan de ser de
varianza mínima, pierden propiedad de eficiencia
inferencia estadística que realicemos puede estar errada
•El problema surge porque el Su2/(N-k) deja de ser un
estimador insesgado de s; el sesgo puede ser positivo o
negativo
17
CONSECUENCIAS
HETEROSCEDASTICIDAD
•E(mi2)=s2
homoscedasticidad•E(mi
2)=si2heteroscedasticidad
^
Observación de los residuos mi2 vs Yi estimado y
también sobre X
Antecedentes de estudios previos: corte transversal la
heteroscedasticidad suele estar presente.
Prueba de Park
lnm2 = a + b lnXi + ni
Si b es estadísticamente significativoHeteroscedasticidad
Prueba de Glejser (útil para muestras grandes)
Sugiere regresión sobre los valores absolutos de m.
Prueba de White: Considera como potenciales
variables explicativas de heteroscedasticidad a todas
las variables X del modelo principal. 18
HETEROSCEDASTICIDAD
^
MÉTODO DE DETECCIÓN PRÁCTICO Y FORMAL
^
Si conocemos s2i aplicamos MCG (mínimos cuadrados
generalizados/ponderados)Yi = b1X0i+b2X2i+mi / 1/si
Yi/si = b1X0i/si+b2X2i/si+ mi/si,
Estimadores obtenidos serán MELI de varianza constante
Cuando se conoce patrón de s2i se transforma la
información para reflejar los tipos específicos de
heteroscedasticidad, para que en datos transformados
no haya heteroscedasticidad.
Cuando se desconoce s2i y la muestra es grande se
usa método de White para obtener estimadores de las
varianzas y errores estándar que sean consistentes para
así aplicar MCO. 19
HETEROSCEDASTICIDAD
¿QUÉ HACER?
Inercia de las Macrovariables.
Errores especificación del modelo yconstrucción de datos.
Manipulación inadecuada de datos:promedios, interpolaciones, extrapolaciones, etc.
Transformación inadecuada: la autocorrelaciónpuede inducirse como resultado de transformar elmodelo original.
Fenómeno de la Telaraña.
Rezagos.20
CAUSAS
AUTOCORRELACIÓN
cov(ui , uj |xi , xj ) = E(uiuj ) ≠ 0 i≠j
Los estimadores serán lineales e insesgados, pero
no tendrán varianza mínima.
Se amplían los intervalos de confianza aceptar
equivocadamente la H0
Si usamos MCO el área aceptación H0 se amplíe.
Los test t y F dejan de ser válidos y, de aplicarse, es
probable que conduzcan a conclusiones erróneas.
Es posible que la Var (u) estimada se subestime, por
lo que el R2 puede ser artificialmente alto. Este
efecto también se trasmite a las Var (b)ee
sesgados.21
AUTOCORRELACIÓN
cov(ui , uj |xi , xj ) = E(uiuj ) ≠ 0 i≠jCONSECUENCIAS
Corregimos aplicando MCG con
AR(1): ut=rut-1+et que incorpora la
autocorrelación de los errores:
Esta corrección genera estimadores MELI.
22
AUTOCORRELACIÓN
¿QUÉ HACER?
Observación de los residuos
Pruebas de las Rachas.
Prueba “d” de Durbin-Watson
d ≈ 2[1- r]si r= 0 d = 2 no hay autocorrelación
si r= 1 d = 0 hay autocorrelación positiva
si r=-1 d = 4 hay autocorrelación negativa
23
DETECCIÓN
AUTOCORRELACIÓN
Prueba “d” de Durbin-Watson. Se define como la razón de la
suma de las diferencias al cuadrado de los residuos sucesivos sobre la SCR
d ≈ 2[1- r]
24
DETECCIÓN
AUTOCORRELACIÓN
Autocorrelación
PositivaSin Autocorrelación
Autocorrelación
Negativa
Si conocemos r (coeficiente de correlación de 1er orden).
La solución consiste en transformar la regresión en
diferencias rezagadas (ut = rut−1 + εt ):
Yt = β1 + β2Xt + ut (1)
Yt−1 = β1 + β2Xt−1 + ut−1 (2)
rYt−1 = rβ1 + rβ2Xt−1 + rut−1 (2’) multiplicando por r
Yt -rYt−1 = β1(1-r) + β2(Xt -rXt−1) + et (3) = (1) - (2’)
Y*t = β*
1 + β2X*t + et
et satisface supuestos MCOlos estimadores serán MELI
25
¿QUÉ HACER?
AUTOCORRELACIÓN
Si no conocemos r
Aplicar primeras diferencias:
Yt -Yt−1 = β2(Xt -Xt−1) + et = DY t = β2 DXt + et
La transformación de primeras diferencias puede resultar
adecuada si el coeficiente de autocorrelación es muy alto, por
ejemplo, superior a 0,8 (d muy bajo).
Estimar ρ si no podemos utilizar la
transformación de primeras diferencias:
r ≈1−d/2 estimador
Estimarlo por regresión
Procedimiento iterativo de Cochrane-Orcutt, 26
¿QUÉ HACER?
AUTOCORRELACIÓN
^
Omisión variables X relevantes
Inclusión de variables superfluas
Errores de medición
Incorrecta especificación funcional
27
ERRORES DE ESPECIFICACIÓN DEL MODELO
RESUMEN DE EFECTOS DE ERRORES ESPECIFICACIÓN
28
ERRORES DE ESPECIFICACIÓN DEL MODELO
Errores de medición
En la variable dependiente (Y) las varianzas
estimadas son más grandes que cuando no existen
tales errores de medición, aunque sus
estimadores son insesgados.
En las variables independientes (X) producen
estimadores sesgados e inconsistentes, es
decir, permanecen sesgados aunque el tamaño de
la muestra aumente indefinidamente.
29
ERRORES EN ESPECIFICACIÓN DEL MODELO
Incorrecta Especificación Funcional
Los errores de especificación funcional sonasimilables a los cometidos por omitir variablesrelevantes en que los estimadores MCO seránsesgados e inconsistentes.
30
ERRORES EN ESPECIFICACIÓN DEL MODELO
La utilidad de examinar la gráfica de residuos es clara: si
hay errores de especificación, los residuos presentan
patrones distinguibles.
Las pruebas usuales t o F. Ayudan a averiguar la relevancia
verdadera de una o más variables explicativas.
El estadístico d de Durbin-Watson. También se usa para
detectar errores de especificación de modelos
Prueba RESET de Ramsey. Su utilidad radica en que sirve
como indicador general no es particularmente buena para
detectar alguna alternativa específica para un modelo propuesto. 31
DETECCIÓN
ERRORES EN ESPECIFICACIÓN DEL MODELO