Upload
cristhianpaulcapitansaenz
View
217
Download
0
Embed Size (px)
DESCRIPTION
MODELO DE REGRESION LINEAL
Citation preview
57
CAPTULO 1
MODELO LINEAL GENERAL
1.1. INTRODUCCIN
Este captulo est dedicado a estudiar, desde el punto de vista economtrico, un
modelo que es lineal en las variables originales o en transformaciones de las mismas y
que tiene un nmero de variables explicativas superior a dos.
Ejemplo1.1: Como ilustracin, tomaremos uno de los ejemplos ms repetidos en la
Econometra Aplicada: la funcin de produccin Cobb-Douglas. En su forma ms
simple el modelo puede escribirse como:
Qt = A Kt Lt e
ut t = 1, ..., T (1.1)
en donde:
Qt = cantidad producida en el periodo t.
Kt = servicios de capital utilizados en el periodo t.
Lt = servicios de trabajo utilizados en el periodo t.
A, y son parmetros y ut es una variable que llamaremos perturbacin aleatoria.
Tomando logaritmos, el modelo (1.1) puede escribirse como:
yt = 1x1t + 2 x2t + 3 x3t + ut (1.2)
en donde:
yt = log Qt, x2t = log Kt y x3t = log Lt
x1t toma siempre el valor 1; es lo que llamaremos la constante del modelo.
Los T datos recogidos para las tres variables pueden referirse a la experiencia de
una empresa en una serie de periodos, a la experiencia de un sector en diferentes
58
periodos, a todo un pas en un periodo temporal o a varias empresas o sectores en un
mismo periodo.
Nosotros, en este trabajo, vamos a utilizar los datos contenidos en el Cuadro 1.1.
Son datos anuales de Estados Unidos para el periodo 1899-1922 y son los utilizados por
Cobb y Douglas (1928) para estimar por primera vez este tipo de funcin de
produccin. Los datos corresponden a la produccin (Y), el stock de capital (K) y el
trabajo (L).
CUADRO 1.1. Datos para el ejemplo 1.1
OBS. Y K L LY LK LL 1899 100.0000 100.0000 100.0000 4.6052 4.6052 4.6052 1900 101.0000 107.0000 105.0000 4.6151 4.6728 4.6540 1901 112.0000 114.0000 110.0000 4.7185 4.7362 4.7005 1902 122.0000 122.0000 118.0000 4.8040 4.8040 4.7707 1903 124.0000 131.0000 123.0000 4.8203 4.8752 4.8122 1904 122.0000 138.0000 116.0000 4.8040 4.9273 4.7536 1905 143.0000 149.0000 125.0000 4.9628 5.0039 4.8283 1906 152.0000 163.0000 133.0000 5.0239 5.0938 4.8903 1907 151.0000 176.0000 138.0000 5.0173 5.1705 4.9273 1908 126.0000 185.0000 121.0000 4.8363 5.2204 4.7958 1909 155.0000 198.0000 140.0000 5.0434 5.2883 4.9416 1910 159.0000 208.0000 144.0000 5.0689 5.3375 4.9698 1911 153.0000 216.0000 145.0000 5.0304 5.3753 4.9767 1912 177.0000 226.0000 152.0000 5.1761 5.4205 5.0239 1913 184.0000 236.0000 154.0000 5.2149 5.4638 5.0370 1914 169.0000 244.0000 149.0000 5.1299 5.4972 5.0039 1915 189.0000 266.0000 154.0000 5.2417 5.5835 5.0370 1916 225.0000 298.0000 182.0000 5.4161 5.6971 5.2040 1917 227.0000 335.0000 196.0000 5.4250 5.8141 5.2781 1918 223.0000 366.0000 200.0000 5.4072 5.9026 5.2983 1919 218.0000 387.0000 193.0000 5.3845 5.9584 5.2627 1920 231.0000 407.0000 193.0000 5.4424 6.0088 5.2627 1921 179.0000 417.0000 147.0000 5.1874 6.0331 4.9904 1922 240.0000 431.0000 161.0000 5.4806 6.0661 5.0814
59
El objetivo de este captulo es dar respuesta a cuestiones del siguiente tipo:
- Qu procedimientos deben de utilizarse para, teniendo en cuenta los datos y
toda la evidencia disponible, determinar si el modelo escrito en (1.2) es o no
empricamente razonable?
- Podra aceptarse un modelo en el que se incorporara la hiptesis de
rendimientos constantes?
- Cul es el mejor procedimiento para estimar los parmetros del modelo?
1.2. MODELO E HIPTESIS.
El modelo economtrico que vamos a estudiar esta constituido por las
siguientes hiptesis:
Hiptesis 1: Para el periodo t-simo podemos escribir:
yt = 1 x1t + + k xkt + ut t = 1, 2,.T.
En forma matricial el modelo puede escribirse como:
y = X + u (1.3)
en donde:
=
=
=
=
T
2
1
k
2
1
kTT2T1
2k2212
1k2111
T
2
1
u
uu
u;;
xxx
xxxxxx
X;
y
yy
y MML
MMMMLL
M
Salvo que se indique lo contrario siempre supondremos que la primera columna
de X tiene todos sus elementos igual a uno.
A la combinacion lineal de los regresores la llamaremos parte sistemtica del
modelo, mientras que ut es la parte aleatoria o perturbacin aleatoria. Esta distincin
entre parte sistemtica y parte aleatoria es muy til porque pone de manifiesto que los
factores relevantes que explican el comportamiento de la variable endgena quedan
60
recogidos en la parte sistemtica mientras que la parte aleatoria recoge el efecto
conjunto de aquellos factores que influyen sobre la variable dependiente pero no
determinan una pauta identificable y estable que resulte til para explicar el
comportamiento de la variable dependiente.
Hiptesis relativas a la Parte Sistemtica.
Hiptesis 2. Las variables explicativas no son estocsticas. Esta hiptesis hay que
situarla en el marco de muestreo que siempre acompaa a la evaluacin de todo modelo
economtrico. Esta evaluacin esta basada en lo que ocurrira si el clculo de los
estadsticos se repitiera muchas veces generando los datos en cada caso. Decir que las
variables explicativas no son estocsticas equivale a decir que, en las sucesivas
repeticiones, esos valores se mantendrn constantes. En este sentido, algunos autores
hablan de X como si fuera una matriz de diseo.
Hiptesis 3. El rango de la matriz X es k. Este supuesto excluye la posibilidad de que
una de las variables pueda expresarse como una combinacin lineal de las k-1 restantes
variables explicativas. En este caso decimos que no hay multicolinealidad exacta.
Hiptesis 4. Asintticamente se tiene que:
X XT
xT
x xT
x xT
x xT
xT
x xT
x xT
x xT
xT
Q
t t t t kt
t t t t kt
kt t kt t kt
' =
12
1 2 1
1 2 22
2
1 22
L
LK K K K
K
(1.4)
en donde Q es una matriz de constantes finitas. Esta hiptesis es muy importante
porque lo que se esta suponiendo es que los promedios de cuadrados y de productos
cruzados giran en torno a constantes. Aunque, como ya hemos dicho, las observaciones
no son estocsticas el comportamiento que siguen es como si procedieran de un proceso
estocstico estacionario. A veces, esta hiptesis se formula como: XX=O(T) queriendo
decir que basta dividir los trminos de la matriz por T para que los trminos de la
matriz tiendan a expresiones finitas bien definidas.
Hiptesis relativas a la Parte Aleatoria
61
Hiptesis 5. La esperanza matemtica de cada perturbacin aleatoria es cero
Eut = 0 t = 1, 2, .,T
Esta hiptesis indica que aunque dentro de ut se da cabida a muchos factores que
influyen sobre yt , el efecto conjunto de todos ellos no tiene un signo definido.
Hiptesis 6. No existe ninguna correlacin entre perturbaciones correspondientes a
periodos temporales diferentes:
E u ut s = 0 t s s, t = 1, 2,,T
Si hubiera correlacin entre perturbaciones correspondientes a diferentes
periodos, entonces, dada la informacin de un periodo, podra utilizarse para predecir el
comportamiento de la perturbacin en otro periodo, identificndose as una pauta entre
los factores recogidos en lo que se llama perturbacin aleatoria.
Hiptesis 7. La varianza es la misma para cada una de las perturbaciones aleatorias. Es
decir,
E ut2 2= t
Esto quiere decir que la dispersin de los efectos de los factores recogidos en ut
es la misma sea cual sea el periodo. Si la dispersin fuera diferente entonces podra
decirse que la perturbacin aleatoria esconde algo relevante que puede ser utilizado
explicitamente para dar cuenta del comportamiento de la variable dependiente.
Vectorialmente, la Hiptesis 5 puede escribirse como:
Eu
EuEu
EuT
=
=
=
1
2
00
0
0M M (1.5)
y las Hiptesis 6 y 7,
62
Var u Euu
Eu Eu u Eu uEu u Eu Eu u
Eu u Eu u Eu
T
T
T T T
( ) '= =
=
=
12
1 2 1
2 1 22
2
1 22
2
2
2
0 00 0
0 0
KK
M M O MK
KK
M M O MK
= 2IT (1.6)
Hiptesis 8. El vector de perturbaciones aleatorias sigue una distribucin normal T-
variante con vector de medias cero y matriz de varianzas y covarianzas igual a 2IT . Podemos escribir :
u~N[0, 2IT ] (1.7)
A partir de estas hiptesis puede derivarse la distribucin de probabilidad de los
elementos de y.
Resultado 1.1. El vector y, de T elementos, se distribuye como:
y~N[X, 2IT ] (1.8)
Prueba:A partir de la Hiptesis 8 la distribucin de probabilidad de u puede escribirse
como:
f (u) = }( ) exp{ ' ( )2 12
2 212 2 1
T
T TI u I u
La regla que permite obtener la funcin de distribucin de una variable que es
transformacin de otra variable puede escribirse como:
f(y) = f (u) uy
(1.9)
en donde uy
es el Jacobiano que adopta la forma siguiente:
63
uy
uy
uy
uy
uy
uy
uy
uy
uy
uy
T
T
T T T
T
=
=
1
1
1
2
1
2
1
2
2
2
1 2
1 0 00 1 0
0 0 1
K
KM M O M
K
KK
M M O MK
Por lo tanto, la funcin de probabilidad de y puede escribirse como:
f (y) = )}Xy()'Xy(2
1exp{I)2( 221
T22
T
(1.10)
Ejemplo1.1. (Continuacin). Veamos el significado de las hiptesis en el marco del
modelo escrito en (1.2). Tal como aparece en (1.2), lo que se indica es que los nicos
determinantes relevantes que explican la produccin son el trabajo y el capital usando
una relacin con elasticidad constante. Cumpliendose las Hiptesis 5, 6 y 7 se garantiza
que los factores recogidos en la perturbacin aleatoria no dan cuenta de nada relevante.
Tambin parece cumplirse la Hiptesis 3 ya que es difcil que exista una relacin lineal
exacta entre los dos inputs. Ms difcil de sostener es la Hiptesis 4, ya que tanto el
producto como los inputs parecen seguir una pauta creciente bien definida.
1.3. ESTIMADORES MNIMO CUADRTICO ORDINARIOS. (MCO)
El vector de estimadores MCO de es el siguiente:
$ ( ' ) ' = X X X y1 (1.11)
A este vector le corresponde la siguiente suma de cuadrados de los residuos:
S u u utT= = $ $`$21
(1.12)
en donde $u es el vector de residuos MCO definido como:
= Xyu (1.13)
64
A continuacin, vamos a demostrar que al vector de estimadores MCO le
corresponde el menor valor de la suma de los cuadrados de los residuos. Previamente
vamos a demostrar el siguiente resultado.
Resultado1.2. El vector de residuos MCO escrito en (1.13) es ortogonal con todas las
colmnas de la matriz X.
Prueba: La expresin (1.11) puede escribirse en forma de ecuaciones normales:
y'XX'X = (1.14)
o, equivalentemente, como:
( ) 0Xy'X = (1.15) llegndose as al resultado.
Resultado1.3. Sea un vector de estimadores cualquiera de y u el correspondiente vector de residuos. Entonces la suma de cuadrados de residuos de este vector de
estimadores siempre supera la que corresponde al vector MCO escrita en (1.12).
Prueba: El vector de residuos correspondiente a puede escribirse como:
u = y - X = y - X $ + X( $ - ) = $u + X( $ - ) (1.16)
Por lo tanto, la suma de cuadrados de estos residuos es la siguiente:
u u u u X X u X = + + ' $ ' $ ( $ )' ' ( $ ) $ ' ( $ ) 2
y teniendo en cuenta (1.15) se llega a:
u u u u X X = + ' $ ' $ ( $ )' ' ( $ ) (1.17)
Esta es la llamada Identidad Fundamental. Al resultado se llega teniendo en
cuenta que, por la Hiptesis 3, la matriz X'X es definida positiva.
65
Derivemos ahora las propiedades del vector de estimadores MCO escrito en
(1.11).
Resultado1.4. El vector de estimadores MCO es insesgado.
E $ = (1.18)
Prueba: Sustituyendo (1.3) en (1.11) se obtiene:
$ = + ( ' ) 'X X X u1 (1.19)
y teniendo en cuenta las Hiptesis 2 y 5 el resultado sigue:
E $ = + ( ' ) 'X X X Eu1 =
Resultado1.5. La matriz de varianzas y covarianzas del vector de estimadores MCO
viene dada por:
Var
Var Cov CovCov Var Cov
Cov Cov Var
X X
k
k
k k k
( $)
( $ ) ( $ , $ ) ( $ , $ )( $ , $ ) ( $ ) ( $ , $ )
( $ , $ ) ( $ , $ ) ( $ )
( ' )
=
=
1 1 2 1
2 1 2 2
1 2
2 1
KK
M M M MK
(1.20)
Prueba: La matriz de varianzas y covarianzas se define como:
( ) ( )( )'- EVar = = E [ ]kk2211kk
22
11
KM
=
=
2kk22kk11kk
kk222
221122
kk1122112
11
)(E))((E))((E
))((E)(E))((E))((E))((E)(E
KMOMM
KK
66
Utilizando (1.19) podemos escribir:
( )( ) ( ) ( ) 1'1' X'XXuuX' X'XE- E = y utilizando la Hiptesis 2 y el resultado escrito en (1.6) se llega a:
( ) ( ) ( ) ( ) 1211 X'XX'XX'Euu'XX'XVar == llegndose as al resultado.
Resultado 1.6. (Teorema de Gauss-Markov). El vector de estimadores MCO de , $ , es el mejor estimador lineal insesgado en el siguiente sentido: cualquier otro estimador,
, que sea tambin combinacin lineal de los elementos del vector y e insesgado tiene una matriz de varianzas y covarianzas que excede la de $ en una matriz semidefinida positiva.
Prueba: Suponer que A es una matriz kT de constantes y, sin prdida de generalidad, el estimador lo escribimos como:
= [A+ 'X)X'X( 1 ] y (1.21)
Por la propia definicin, los estimadores son funcin lineal de los elementos de y.
Sustituyendo (1.3) en (1.21) se llega a:
= [A+ 'X)X'X( 1 ] [X + u] = (AX+I) + Au + u'X)X'X( 1
Tomando esperanzas
E = (AX + I)
Para que sea insesgado se debe cumplir que:
AX = 0 (1.22)
La matriz de varianzas y covarianzas es:
67
Var( ) = E [A+ 'X)X'X( 1 ] uu' [A+ ]'1 'X)X'X( = 2 2 1AA X X' ( ' )+ utilizando (1.22) en los productos cruzados. Podemos escribir:
Var( ) - Var( $ ) = 2AA'
y el resultado sigue por ser 'AA semidefinida positiva.
Resultado 1.7. Sea w un vector de k constantes. Entonces se tiene que:
Var( w Var w' $) ( ' ) (1.23)
Prueba: Utilizando el Resultado 1.6 podemos escribir:
Var w( ' ) = [ ]122 )X'X('AA'w + w 2 1w X X w'( ' ) cumpliendose el resultado.
Hasta ahora, los resultados se han derivado sin utilizar la Hiptesis 8 que trata de
la normalidad de las perturbaciones aleatorias. Si aadimos esta hiptesis llegamos al
siguiente resultado.
Resultado 1.8. Suponer que se cumplen las ocho hiptesis comentadas en la seccin
anterior. Entonces la distribucin de probabilidad de $ viene dada por:
$ ~N[ , 2 1( ' )X X ] (1.24)
Prueba: A partir de (1.19) se ve que los elementos de $ son igual a los correspondientes elementos de ms una combinacin lineal de variables que son normales llegndose al resultado.
Los momentos primero y segundo han sido ya derivados en los Resultados 1.4 y
1.5, respectivamente.
Ejemplo 1.1. (Continuacin). A partir de los datos contenidos en el Cuadro 1.1
se suelen calcular algunos estadsticos que nos informan acerca del tipo de variables que
estamos tratando.
68
En primer lugar, podemos dar cuenta de algunas caractersticas univariantes
referidas a las variables en logaritmos.
CUADRO 1.2. Caractersticas Univariantes
Variable y x2 x3
Valor Mximo 5.48 6.06 5.29
Valor Mnimo 4.61 4.60 4.60
Media 5.07 5.35 4.96
Desviacin Tpica 0.27 0.50 0.20
Asimetra -0.12 0.03 0.10
Apuntamiento -1.06 -1.15 0.85
Coefici. de Variacin 0.05 0.08 0.04
Otra informacin interesante se refiere a las correlaciones entre las variables.
CUADRO 1.3. Correlaciones entre las variables.
y x2 x3
y 1 0.95 0.96
x 2 1 0.91
x 3 1
Los estimadores MCO de utilizando (1.11) son los siguientes:
=
=
=
tt3
tt2
t
1
2t3t2t3t3
t3t22
t2t2
t3t2
3
2
1
yxyx
y
xxxxxxxx
xxT
=24 12855 11910
69345 639 92592 02
121866554160594
017730 230508073
1. .. .
.
.
.
.
...
=
69
Notar que el valor de la elasticidad que corresponde al factor trabajo (0.8073) es
bastante mayor que el correspondiente al capital (0.2305).
A continuacin, vamos a derivar algunos resultados para aquellos casos en que
el tamao muestral tiende a hacerse grande. (Marco Asinttico).Comenzaremos
presentando algunas definiciones que completan las presentadas en el Anexo 1.
Definicin1.1. Sea $ un estimador de . Se dice que $ es un estimador consistente asintticamente normal de cuando: i) es consistente y ii) T ( ) converge en distribucin a N(0,) en donde es una matriz definida positiva con elementos finitos.
Definicin 1.2. Sean $ y dos estimadores consistentes y asintticamente normales con matrices de varianzas y covarianzas de las correspondientes distribuciones
asintticas iguales a y , respectivamente. Entonces se dice que $ es asintticamente eficiente respecto a si es semidefinida positiva.
Definicin 1.3. Se dice que un estimador consistente y asintticamente normal es
asintticamente eficiente si lo es con respecto a cualquier estimador consistente y
asintticamente normal que se considere.
Resultado 1.9. Una condicin suficiente para que un estimador consistente y
asintticamente normal sea asintticamente eficiente es que su matriz de varianzas y
covarianzas asinttica sea igual al lmite de la cota inferior de Crmer-Rao.
Prueba: Ver Theil (1971, Seccin 8.4).
Establecidas estas definiciones veamos ahora como se comportan los
estimadores MCO de en este marco asinttico.
Resultado 1.10. El vector de estimadores MCO de es consistente pudiendose escribir:
plim $ = (1.25)
70
Prueba: El vector $ sigue una distribucin de probabilidad k-dimensional con vector de medias y matriz de varianzas y covarianzas igual a 2 1( ' )X X . Utilizando la Hiptesis 4 se tiene que:
lim Var limT
X XT
QT
=
= =(
$) [ ' ] . 2 1
10 0
El sesgo cero y varianza que tiende a cero asintticamente son condiciones
suficientes para la convergencia en probabilidad tal como puede verse en el Anexo 1.
Resultado 1.11. El estimador $ es asintticamente normal en el siguiente sentido:
T( $ ) N Q( , )0 2 1 (1.26)
Prueba: Para cualquier tamao muestral, la distribucin de T( $ ) es:
)',0(1
2
TXXN
A partir de aqu el resultado sigue utilizando la Hiptesis 4.
Tambin puede demostrarse que $ es asintticamente eficiente. Nosotros presentaremos este resultado en el apartado dedicado a los estimadores mximo-
verosmiles.
Comentadas las propiedades de los estimadores MCO de los parmetros de
posicin, a continuacin, analizamos las propiedades del estimador MCO del parmetro
de dispersin que es la varianza de la perturbacin aleatoria para lo cul derivamos,
primero, las propiedades estocsticas del vector de residuos MCO escrito en (1.13).
Resultado 1.12. El vector de residuos MCO, $u , puede escribirse como:
$u = Mu (1.27)
en donde M = I - X 'X)X'X( 1 es una matriz simtrica e idempotente de rango T-k.
71
Prueba: A partir de (1.13) se tiene:
Muu)M(XMyyX'X)X(X'yu 1 =+===
por ser : 0XX)XX'X)X(X'(IMX 1 ===
Resultado 1.13. La esperanza y matriz de varianzas y covarianzas de $u vienen dados, respectivamente, por:
E( $u )=0 (1.28)
y Var ( $u )=2M (1.29)
Prueba:
E( $u ) = ME(u) = 0
MM)E(uu'MM)E(Muu')'uuE()uVar( 2====
Resultado 1.14. La esperanza de la suma de los cuadrados de los residuos MCO es
igual a (T-k) 2 , es decir:
E( $ ' $u u ) = 2 (T-k) (1.30)
Prueba:
E( $ ' $u u ) = ( )MMu'uE = ( )Mu'uE = ( )( )'MuutrE = ( )( )( )'uuEMtr = = 2 trM = 2 (T-k)
por ser: tr(M) = rango(M) = T-k
Establecidas las propiedades del vector de residuos MCO, examinaremos, a
continuacin, las propiedades del estimador MCO de 2 definido como:
kT
u
kTuu
T
1t
2t
2
==
= (1.31)
72
Resultado 1.15. El estimador MCO de 2 escrito en (1.31) se distribuye como:
)kT(kT
~ 22
2 (1.32)
en donde 2(T-k) es una variable chi-cuadrado central con T-k grados de libertad.
Su esperanza matemtica es:
E( $2 ) = 2 (1.33)
y su varianza:
VarT k
Var T kT k
( $ )( )
( ( )) 24
22
42= = (1.34)
Prueba: para demostrar (1.32) hay que tener en cuenta que Muu'k)(T 2 = .
Por ser M una matriz idempotente de rango (T-k), es posible escribir:
*2 kT*22
*21 v...vvMuu' +++= (1.35)
en donde cada una de las variables *jv sigue una distribucin Normal con media cero y
varianza 2; adems, todas ellas son independientes entre s. Dividiendo ambos lados de (1.35) por 2 se tiene que:
2 kT22
212 v...vv
Muu'+++=
en donde ahora las jv son variables normales tipificadas independientes entre s.
Por lo tanto: 2Muu'
2(T-k), y el resultado sigue.
Para obtener (1.33) hay que tener en cuenta que: E(2(T-k)) = T-k.
73
Por ltimo, respecto a (1.34) basta recordar que: Var(2(T-k))=2(T-k), por lo
que: VarT k
Var T kT k
( $ )( )
( ( )) 24
22
42= =
Resultado 1.16: El estimador $2 de 2 es insesgado
Prueba: resultado obtenido en (1.33).
Alternativamente, la insesgadez podra demostrarse utilizando el Resultado 1.14.
Resultado 1.17: $ y $2 son independientes.
Prueba: En el Resultado 1.15 hemos visto que $2 depende de una forma cuadrtica de u cuya matriz es M. Por otra parte, a partir de (1.19) podemos escribir:
uXX)X(- 1 = y como se cumple que 0MXX)X( 1 = , esto garantiza la independencia.
Resultado 1.18: El estimador $2 es un estimador consistente de 2.
Prueba: $2 es insesgado para cualquier tamao muestral. Adems, a partir de (1.34) se tiene que:
0kT
42lim)2Var(lim TT
==
Como ya hemos indicado para $ , la insesgadez y el lmite cero de la varianza son condiciones suficientes para la consistencia del estimador.
Se puede definir una matriz que sea la estimacin de la matriz de varianzas y
covarianzas de $ escrita en (1.20) como 12 X)X( . Por los Resultados 1.16 y 1.18 esta estimacin ser insesgada y consistente.
74
Resultado 1.19: El estimador $2 es asintticamente normal con:
)(T 22 ) N(0,2 4 (1.36)
Prueba: Ver Fomby, Hill y Johnson (1984) (Teorema 4.3.2).
Ejemplo 1.1. (Continuacin) . El estimador MCO de la varianza lo calculamos
utilizando (1.31):
0,0033809921
0,070982kT
uu 2 ===
La estimacin de la matriz de varianzas y covarianzas viene dada por:
= 0,02100,00830,00400,05950,01990,1886
X)(X' 12
Suponer ahora que el modelo escrito en (1.3) lo particionamos como:
y = X11 + X22+u (1.37)
en donde 1 tiene k1 elementos y 2 tiene k2 elementos con k1+k2 = k. Vamos a derivar la forma que adopta el estimador MCO de 2.
Resultado 1.20: El subvector de estimadores MCO, $2 , puede escribirse como:
yMX)XM(X 1'2
121
'22
= (1.38)
con '11
1'11T1 X)X(XX-IM
=
Prueba: Primero, reescribimos las ecuaciones normales escritas en (1.14) particionadas
conforme a (1.37):
yXXXXX '122'111
'1 =+
yXXXXX '222'211
'2 =+
75
Se trata de dos bloques, el primero con k1 relaciones y el segundo con k2
relaciones. A partir del primer bloque se obtiene:
22'1
-11
'1
'1
-11
'11
XX)X(X-yX)X(X =
y sustituyendo a $1 en el segundo bloque:
yXXXXX)X(XXX-yX)X(XXX '222'222
'1
-11
'11
'2
'1
-11
'11
'2 =+
que tambin puede escribirse como:
yMX)XM(X 1'2221
'2 =
Basta premultiplicar ambos lados de esta expresin por la inversa de )XM(X 21'2
para llegar a (1.38).
Lo que indica (1.38) es que $2 no es otra cosa que la regresin de M1y sobre M1X2, es decir, la regresin de aquella parte de y no explicada por X1 sobre aquella
parte de X2 no explicada por X1. Es importante destacar que al mismo resultado se
llegara haciendo la regresin de y sobre M1X2. Estos resultados explican que si una de
las variables explicativas del modelo es una constante, el vector de estimadores MCO
del resto de las (k-1) variables explicativas obtenido utilizando las desviaciones con
respecto a las medias de todas las variables sea el mismo que el que se obtena
utilizando variables no centradas.
1.4. ESTIMADORES MXIMO-VEROSMILES ( MV ).
Los estimadores MV de y 2 son aquellos que maximizan el valor que toma la funcin de verosimilitud. Esta funcin es la misma escrita en (1.10) pero tomndola
como funcin de y 2 condicionada sobre unos valores dados de X e y. Para reflejar este cambio la escribiremos como:
L( , 2 /y , X) = ( ) ( ) ( )2 12
2 212
2
T
TI y X y Xexp'
76
y su logartmo:
l( , 2 /y , X) = T T y X y X2
22
12
22log( ) log ( )' ( ) (1.39)
Veamos ahora la forma que adoptan el gradiente y la matriz hessiana de
segundas derivadas.
Resultado 1.21. El gradiente de la funcin de verosimilitud definida en (1.39) toma la
forma siguiente:
d( , 2 ) = ( )
l
l
X y X X
T u u
(.)
(.)
' '
'2
2
2 4
1
2 2
=
+
(1.40) - (1.41)
La matriz hessiana de segundas derivadas es:
D ( ) ( )
+=
X-y )'Xy(12T.
)Xy('X1X'X1
,64
422 (1.42)
Prueba: Teniendo en cuenta que :
( ) ( ) += X'X'X'y2y'yXy'Xy y utilizando las reglas estandar de derivacin vectorial se llega a:
)'2'2(2
1(.)2
XXyXl =
llegndose as a (1.40). Para obtener (1.41) basta derivar (1.39) respecto a 2 .
l T y X y X(.) ( )' ( )
2 2 42 2= +
Respecto a las segundas derivadas,usando (1.40) se tiene que:
77
2
2l X X(.)
''=
La segunda derivada cruzada puede escribirse como:
2
2 41l X y X X(.) ( ' ' )= +
y, por ltimo, la segunda derivada respecto a 2 se obtiene usando (1.41):
l T(.)
( )2 2 4 621= ( ) ( ) XyXy '
Resultado 1.22. Los estimadores MV de y 2 vienen dados por:
~ ( ' ) ' = X X X y1 (1.43)
~~' ~2 = u uT
(1.44)
Prueba: La condicin necesaria para maximizar la verosimilitud es que los elementos
del gradiente sean cero. Es decir:
0)~X'Xy'X(~1
2 =
)~Xy()'~Xy(~21
~2T
42 + = 0
A partir del primer bloque de k relaciones se obtiene que:
= ~X'Xy'X
de donde se deriva (1.43).
La ltima relacin puede escribirse como:
~' ~~u u T2 =
78
llegndose a (1.44).
Hay que destacar que el estimador MV de coincide con el estimador MCO coincidencia que no se da con los estimadores de 2 . Por lo tanto, las propiedades del estimador MV de son las mismas que las ya comentadas para el estimador MCO.
Respecto a las propiedades de ~2 , hay que tener en cuenta que puede escribirse como:
~ $ 2 2= T kT
(1.45)
A partir de esta expresin vamos a derivar las propiedades del estimador MV.
Resultado 1.23. El estimador MV de 2 se distribuye como:
~2 2
2
TT k( ) (1.46)
Su esperanza matemtica es:
E 22 =TkT~ (1.47)
y su varianza:
Var ( )~ ( ) 2 422= T kT (1.48) Prueba: Teniendo en cuenta (1.45) basta utilizar el Resultado 1.15.
Teniendo en cuenta que el factor que multiplica a $2 en (1.45) tiende a 1 conforme T tiende a infinito entonces las propiedades del estimador MV son las mismas
que las del estimador MCO. Es decir, ~2 es consistente y la distribucin asinttica de T(~ ) 2 2 es igual a N(0, 2 4 ).
79
Por ltimo, vamos a demostrar que tanto los estimadores MCO como los MV
son asintticamente eficientes de acuerdo con lo establecido en el Resultado 1.9.
Primeramente, tenemos que definir el lmite de la Cota Inferior de Cramer-Rao.
Definicin 1.4. La Cota Inferior de Cramer-Rao se define como:
I ( ) ( )[ ] , 2 1 1 = ED Asintticamente, el concepto relevante es el lmite de la expresin:
lim( )I
T
, 2 1
(1.49)
Resultado 1.24. La Matriz de Informacin en este caso viene dada por:
I ( ) ,'
22
2
1 00
2=
X XT (1.50)
y el lmite escrito en (1.49):
( )
limI
TQ
T
=
, 21
2 1
40
0 2 (1.51)
Prueba: Teniendo en cuenta la matriz de segundas derivadas escrita en (1.42) el
resultado (1.50) sigue teniendo en cuenta que:
E ( ) 44 1Xy'X1 = 0Eu'X =
E ( ) ( ) =+=
+ 6464u'Eu
2TXy'Xy
2T
462
4 2TT
2T
=+=
80
En lo que respecta a (1.51), basta tener en cuenta la Hiptesis 4 y las reglas
estandar de convergencia.
Examinando las distribuciones asintticas derivadas para los estimadores MCO
y MV se ve que todos ellos son asintticamente eficientes.
1.5. ESTIMADORES DE LOS MNIMOS CUADRADOS RESTRINGIDOS
(MCR). ERROR DE ESPECIFICACIN.
Los estimadores MCR de , que llamaremos $R , son aquellos que minimizan la suma de cuadrados de los residuos cumpliendo una serie de restricciones especificadas a
priori sobre los parmetros.
Escribimos las restricciones como:
R = q (1.52)
En donde R es una matriz r.k , y rango r, siendo r el nmero de restricciones; q
es un vector de r constantes.
Resultado 1.25. El vector de estimadores MCR que minimiza la suma de cuadrados de
los residuos cumpliendo al mismo tiempo las restricciones escritas en (1.52) es el
siguiente:
( ) ( )[ ] ( )+= Rq'RX'XR'RX'X 111R (1.53) Prueba: Como ya hemos indicado, el estimador MCR debe ser tal que:
)Xy()'Xy(min sujeto a R =q
La funcin lagrangiana para este problema de optimizacin es:
L= ( ) ( ) ( )qR'2Xy'Xy
81
En donde es un vector con r Multiplicadores de Lagrange. Las condiciones necesarias para la optimizacin se obtienen igualando a cero las derivadas con respecto
a y :
0'R2X'X2y'X2L R =+= (1.54)
qR'
LR ==
(1.55)
A partir de (1.54) se obtiene que:
( ) += 'RX'X 1R (1.56) Premultiplicando todos los trminos de (1.56) por R y, teniendo en cuenta (1.55)
se llega a:
( ) += 'RX'XRRq 1 y despejando :
[ ] )Rq('R)X'X(R 11 = Sustituyendo este estimador en (1.56) se llega al resultado escrito en (1.53).
A la hora de evaluar las propiedades de este estimador hay que distinguir dos
situaciones segn las restricciones se cumplan realmente o no. Con este fin
escribiremos:
= qR
Si las restricciones se cumplen entonces 0= y, si no se cumplen, 0 .
Comencemos suponiendo que las restricciones se cumplen.
Resultado 1.26. En el caso en el que 0= , el estimador MCR es insesgado.
82
Prueba: Teniendo en cuenta (1.19), podemos escribir:
( ) u'XX'XRRR 1+= = q + ( ) u'XX'XR 1 Por lo tanto,
= Rq - ( ) u'XX'XR 1 Introduciendo este resultado y el escrito en (1.19) en (1.53) obtenemos:
( ) += u'XX'X 1R
- ( ) [ ] [ ]u'X)X'X(R'R)X'X(R'RX'X 1111 = = + [ ] u'X)X'X(R}'R)X'X(R{'R)X'X(I 1111 (1.57) Recordando la Hiptesis 2 y que R es una matriz de constantes se tiene que:
E == E R
Resultado 1.27. La matriz de varianzas y covarianzas del estimador MCR viene dada
por:
( ) [ ]11'1'12R )X'X(R}R)X'X(R{RIX'X)(Var = (1.58) Adems, se cumple que:
Var ( ) Var ( ) C R = en donde C es una matriz semidefinida positiva.
Prueba: Teniendo en cuenta (1.57) se tiene que:
Var ( ) ( )( ) == 'RRR E = u'X)X'X}(R)'R)X'X(R('R)X'X(I{E 1111
83
( ) ( ) ( )( ){ } = RRXXRRXXXu 1111 '''XX'-I '' = 1111212 )X'X(R}'R)X'X(R{'R)X'X()X'X( =
= Var C)(
en donde C= 11112 )X'X(R}'R)X'X(R{'R)X'X(
sta matriz es semidefinida positiva porque ( ) 1X'X es definida positiva y R tiene rango fila completo.
Tambin en este caso sera posible demostrar un resultado similar al de Gauss-
Markov. Es decir, el estimador MCR es el mejor estimador lineal e insesgado en el
sentido de que es el estimador que tiene la menor varianza dentro de la clase de los
estimadores que son lineales en y y q e insesgados.
En el caso en que las restricciones no sean correctas, es decir, cuando 0 , entonces el estimador MCR es sesgado aunque mantiene la misma matriz de varianzas y
covarianzas.
Resultado1.28. En el caso en que 0 , entonces el estimador MCR tiene la siguiente esperanza matemtica:
=RE + 111 }'R)X'X(R{'R)X'X( (1.59)
Prueba: Basta obtener la esperanza de (1.53) teniendo en cuenta que:
E =
y E(q-R ) = q-R =
En este caso ya no podemos decir que, en general, siempre el estimador MCR es
mejor que el estimador MCO. Para compararlos habra que prestar atencin al error
cuadrtico medio.
84
A continuacin, vamos a derivar una serie de resultados que se cumplen
siempre cualquiera que sea el valor .
Sea Ru el vector de residuos MCR definidos como:
Ru = y- RX (1.60)
Resultado 1.29. La suma de los cuadrados de los residuos MCR es siempre mayor que
la de los residuos MCO pudiendose escribir:
)(X'X)'(u'uuu RRR'R += (1.61)
Prueba: Basta aplicar el Resultado 1.3 utilizando la expresin (1.17).
Resultado 1.30. Sea w un vector de k constantes. Entonces se tiene que:
)'w(Var)'w(Var R (1.62)
Prueba: Podemos escribir:
w)}(Var)(Var{'w)'w(Var)'w(Var RR = =
0Cw'w =
por ser C semidefinida positiva tal como se ha demostrado en el Resultado 1.27
Cuando se imponen r restricciones sobre lo que se est indicando es que los k parmetros no pertenecen a un espacio de k dimensiones sino a otro de k-r. Esto
significa que los k parmetros pueden expresarse en funcin de otros k-r parmetros que
llamaremos libres, pudiendose escribir:
= H (1.63)
en donde H es una matriz k (k-r) de constantes y es el vector de (k-r) parmetros libres.
Introduciendo esta expresin en el Modelo Lineal General se tiene:
85
uZuXHuXy +=+=+=
El estimador MCO de es: y'Z)Z'Z( 1= ; el estimador restringido de viene dado por:
y'Z)Z'Z(H 1R=
Una aplicacin directa de este resultado es la siguiente: Particionemos 0=R como:
0RR 2211 =+ (1.64)
en donde R1 es r.r con rango mximo y la particin de se corresponde con la particin de R.
Apartir de (1.64) se tiene:
221
11 RR =
y sustituyendo en el modelo particionado
uXuXRRXuXXy 222221
112211 +=++=++=
en donde: 221
11 XRRXX +=
El estimador MCR toma la forma siguiente.
=
yX)XX(yX)XX(RR
'1'
'1'2
11
R (1.65)
En el caso en que las restricciones slo afecten a 1 entonces el estimador MCR es:
= yX)XX(0
'2
12
'2
R (1.66)
86
Ejemplo 1.1. (Continuacin). Se va a estimar el modelo imponiendo la hiptesis de
rendimientos constantes que puede escribirse como:
132 =+
En este caso los elementos de la expresin (1.52) son:
R = ( 0 1 1 ) y q = 1
Teniendo en cuenta que:(q-R ) = (1-1.0378) = -0.0378, aplicando (1.53) se obtiene:
=
=74587.25413.01454.
R3
R2
R1
R ; 0032565,02R =
La matriz de varianzas y covarianzas viene dada por:
=0016994.00016994.00016994.00006692.00006692.0000399.0
)(raV R
Alternativamente, estos estimadores se pueden calcular utilizando (1.65). En
este sentido hay que tener en cuenta que considerando la hiptesis de rendimientos
constantes el modelo puede escribirse como:
tt32t22t11t ux)1(xxy +++=
o bien
tt3t22t11t3t u)xx(xxy ++=
Por lo que las estimaciones sern:
87
=
=
=
=
25413.01454.
570109.1750703.2
637141.5450255.924
)xx)(xy()xy(
)xx()xx(T
1t3t2t3t
t3t1
2t3t2
t3t2
R2
R1
Vamos a terminar este captulo haciendo referencia al concepto de error de
especificacin. El anlisis del error de especificacin se refiere a aquellas situaciones en
las que se estudian las consecuencias que, sobre las propiedades de ciertos estadsticos,
tiene el considerar un modelo diferente al que genera los datos.
El anlisis del error de especificacin abarca una amplia gama de casos dentro
de la Econometra. Nosotros prestaremos atencin a dos casos particulares: la omisin
de variables relevantes y la inclusin de variables suprfluas.
Considerar los dos modelos siguientes:
y = 111 uX + (1.67)
y = uXX 2211 ++ (1.68)
En donde, como ya hemos dicho, X1 tiene k1 y X 2 tiene k 2 regresores.
Nuestro interes es estimar 1 .
Resultado 1.31. (Variables Relevantes Omitidas). Supongamos que el modelo que ha
generado los datos es el escrito en (1.68) pero que, para estimar 1 , utilizamos el modelo escrito en (1.67). Entonces el estimador resultante es sesgado.
Prueba: Se trata de un caso particular del Resultado 1.28. El estimador MCR en este
caso es:
y'X)X'X( 11
11R1= = ++ 2211111 X'X)X'X( u'X)X'X( 1111
Por lo tanto, su esperanza es:
E = R1 2211111 X'X)X'X( + (1.69)
88
siendo el sesgo:
E R1 2211111 X'X)X'X( =
El signo y tamao del sesgo depender del tamao y signo de los elementos de
la matriz: 211
11 X'X)X'X( y de los de 2 . Hay que tener en cuenta que los elementos
de esta matriz son las estimaciones de los coeficientes de la regresin de X 2 sobre X1 .
Cada columna son los elementos de la columna correspondiente en X 2 . Por ejemplo, si
slo se excluye una variable entonces esa matriz ser un vector de k1 elementos. El
primer elemento de este vector ser la estimacin del coeficiente de la primera variable
de X1 en la regresin de la variable excluida sobre X1 . Si 2 y esa estimacin son del mismo signo entonces el sesgo ser positivo; si tienen diferente signo el sesgo ser
negativo.
Hay que destacar que aunque el estimador es sesgado, su matriz de varianzas y
covarianzas es menor que la del estimador que no comete el error de especificacin
tal como puede verse en el Resultado 1.27. Por lo tanto, puede haber situaciones con
poca evidencia en las que puede estar justificado el uso del estimador que omite
variables consideradas como relevantes.
Resultado 1.32. (Inclusin de Variables Suprfluas). Suponer que el modelo que ha
generado los datos es el escrito en (1.67) pero que para estimar 1 utilizamos el modelo escrito en (1.68). El estimador resultante es insesgado pero tiene una varianza mayor
que la que corresponde al estimador que no comete el error de especificacin.
Prueba: Utilizando el Resultado 1.20 podemos escribir:
yM'X)XM'X( 211
1211=
en donde: 21
2222 'X)X'X(XIM=
A partir del modelo escrito en (1.67), podemos escribir:
1211
1211111211
1211 uM'X)XM'X()uX(M'X)XM'X( +=+=
89
de forma que:
E 11 =
Por lo demostrado en el Resultado 1.27 se ve que la matriz de varianzas y
covarianzas de 1 supera a la del estimador que no comete el error de especificacin.
Ejemplo 1.1. (Continuacin) Vamos a aproximar el error de especificacin
que se comete si tratamos de estimar el coeficiente del factor trabajo sin considerar la
variable capital. Es decir, se trata de estimar:
tt33t11t uxxy ++=
Las estimaciones que se obtienen son:
=
=
2913.13313.1
yxy
xxT
tt3
t1
2t3
t3
R3
R1
y la estimacin de la matriz de varianzas y covarianzas:
=
005692.028252.14043.
raVR3
R1 ; 005294.02R =
Destacar que la elasticidad estimada para el trabajo es muy superior a la
obtenida anteriormente . Esto puede explicarse a partir de (1.69), ya que tanto la
correlacin entre X1 y X 2 como el signo de 2 son positivos.
90
EJERCICIOS
1.1) Sea X una variable que se distribuye normalmente con media y varianza 2 .Suponer que se han obtenido independientemente dos muestras aleatorias simples a partir de X, de tamaos T1 y T2 ,y con medias muestrales X1 y X2 .
1). Un investigador pretende estimar y propone como estimadores alternativos
$ = +X X1 22
y ~ = ++T X T X
T T1 1 2 2
1 2
Comparar las propiedades de ambos estimadores.
2). En una etapa posterior pretende estimar 2 y propone los siguientes estimadores:
21 XX , X X1 22
2+
,
X X12
22
2+
Comparar las propiedades de los tres estimadores.
1.2) Considerar una muestra aleatoria simple de T elementos obtenida a partir de un
poblacin con media y varianza 2 .Se pide:
Var( XXi ) , E ( X Xj ) , E [ X X Xi j( )] , E [ X X Xj( )]
Cov [ ( ), (X X X Xi j )]
1.3). Suponer que la variable y est relacionada con la variable x segn el modelo:
y x ui i i= + + 0 1 ui ~ iid N(0, 2 ) i=1,2 .n (1) Un investigador agrupa las observaciones en G grupos y toma el promedio de las dos
variables en los grupos considerando el modelo
y x ug g g= + + 0 1 , uu
nggj
j
n
g
g
= =
1 , n n n nG1 2+ + + =...... (2)
en donde y x ug g g, , son los promedios respectivos.Se pide:
1). Derivar las propiedades de ug .
91
2). Derivar las propiedades del estimador de los mnimos cuadrados ponderados )( *
de 1 a partir del modelo (2).
=
2
*
)(
))((
i
i
i
i
i
i
zx
zx
zy
.
3). Comparar las propiedades del estimador definido en 2) con las del estimador MCO
de 1 definido a partir de (1).
1.4). Suponer que el proceso generador de datos es: y x ut t t= + +
en donde u t es una perturbacin aleatoria que cumple las hiptesis ideales.
Obtener la esperanza y varianza de los siguientes estimadores:
a). =
t
t
xy
1 c). =
t
t
xTy 2
b). Txy
t
t=3 d ). T
xy
t
t=
*
*
4
Las variables con asterisco representan desviaciones con respecto a la media.
1.5). Supongamos el modelo:
y x x u= + + 1 1 2 2 en donde u cumple las hiptesis habituales y suponemos que las variables estn medidas
en desviaciones respecto a sus medias. Los parmetros 1 y 2 son estimados utilizando MCO y estimadores restringidos suponiendo: 1 =2 = . Se pide: 1). Demostrar que los estimadores restringidos equivalen a una media ponderada de los
estimadores MCO.
2). Demostrar que el estimador insesgado ms eficiente de coincide con la media ponderada en caso de que se cumpla la restriccin.
92
1.6). Partiendo del modelo con dos variables y x x u= + + 1 1 2 2 , en el que suponemos que las variables estn medidas en desviaciones respecto a sus medias,
interpretar grafcamente:
1). El valor estimado de y y las estimaciones MCO de 1 y 2 . 2). Un caso en que la estimacin de 1 sea mayor que uno y otro en que dicha estimacin sea menor que cero.
3). El coeficiente de correlacin mltiple.
4). Los coeficientes de correlacin parcial.
5). El valor del estadstico F para el contraste de significatividad de x2 .
1.7). Para el modelo y X u= + se tiene la siguiente informacin:
X X' =
2 11 2
; X y' =
21
; 2 1=
Se pide:
1). Obtener las estimaciones MCO de y calcular la covarianza entre $1 y $2 .
2). Calcular los estimadores restringidos de 1 y 2 con la restriccin 2 =0.Calcular la covarianza entre $1R y $2R .Obtener la diferencia entre la suma de cuadrados de los residuos restringidos y la de los residuos MCO. En caso de que $1 y $1R no difieran tiene alguna utilidad la informacin de que 2 =0?. 3). Interpretar grficamente la estimacin de dado que: 2 =0. Repetir lo anterior para 1 2 0+ = . 4). Demostrar que los estimadores restringidos de 1 y 2 dado: 1 2 0+ = se pueden obtener a partir de la regresin de y sobre ( )x xt t1 2 . 5). Obtener la prediccin puntual MCO y por intrvalo de ( )pyEy py con un nivel de confianza del 95% suponiendo que para el periodo extramuestral se sabe que xp = ( , )2 1 .
93
1.8) Suponer el siguiente modelo:
y x x ut t t t= + + 1 1 2 2 )I,0(N~u T2 con:
( )
=4111
31XX ' X y' =
11
2 1=
1). Escribir las ecuaciones normales, calcular los estimadores MCO, $ , y su matriz de varianzas y covarianzas
2). Se estima el modelo con la restriccin 2 = 0. Calcular los estimadores restringidos, $R , su matriz de varianzas y covarianzas y la diferencia entre la suma de los cuadrados de los residuos restringidos y la de los residuos MCO.
3). Suponer que se quiere estimar por intrvalo la relacin ' en donde: ' = (1 , 0). Adoptando un nivel de significacin del 5% se pide determinar la amplitud de los intrvalos correspondientes a los estimadores MCO y restringidos.
1.9). Suponer que el modelo que genera los datos es: ttt uxy += en donde la perturbacin cumple las hiptesis ideales. Considerar los siguientes tres estimadores:
= 21
t
tt
xyx ,
=t
t
xy
1 y = 2*
**
3
t
tt
xyx
en donde las variables con asterisco son desviaciones con respecto a las medias.
1). Obtener el sesgo y la varianza de los tres estimadores.
2). Demostrar que =),( 21 Cov 0)( 1 >Var y que el coeficiente de correlacin entre 1 y 2 es: [ ]212112 )(/)( VarVar= . Demostrar que si se define
21)1( += el valor de que minimiza la varianza de este estimador es 1.
3). Demostrar que =),( 32 Cov 0 y que la combinacin de estos dos estimadores que minimiza la varianza es .)1( 13
2122
212 =+=
94