38
57 CAPÍTULO 1 MODELO LINEAL GENERAL 1.1. INTRODUCCIÓN Este capítulo está dedicado a estudiar, desde el punto de vista econométrico, un modelo que es lineal en las variables originales o en transformaciones de las mismas y que tiene un número de variables explicativas superior a dos. Ejemplo1.1: Como ilustración, tomaremos uno de los ejemplos más repetidos en la Econometría Aplicada: la función de producción Cobb-Douglas. En su forma más simple el modelo puede escribirse como: Q t = A K t α L t β e u t t = 1, ..., T (1.1) en donde: Q t = cantidad producida en el periodo t. K t = servicios de capital utilizados en el periodo t. L t = servicios de trabajo utilizados en el periodo t. A, α y β son parámetros y u t es una variable que llamaremos perturbación aleatoria. Tomando logaritmos, el modelo (1.1) puede escribirse como: y t = β 1 x 1t + β 2 x 2t + β 3 x 3t + u t (1.2) en donde: y t = log Q t , x 2t = log K t y x 3t = log L t x 1t toma siempre el valor 1; es lo que llamaremos la constante del modelo. Los T datos recogidos para las tres variables pueden referirse a la experiencia de una empresa en una serie de periodos, a la experiencia de un sector en diferentes

CAPI1

Embed Size (px)

DESCRIPTION

MODELO DE REGRESION LINEAL

Citation preview

  • 57

    CAPTULO 1

    MODELO LINEAL GENERAL

    1.1. INTRODUCCIN

    Este captulo est dedicado a estudiar, desde el punto de vista economtrico, un

    modelo que es lineal en las variables originales o en transformaciones de las mismas y

    que tiene un nmero de variables explicativas superior a dos.

    Ejemplo1.1: Como ilustracin, tomaremos uno de los ejemplos ms repetidos en la

    Econometra Aplicada: la funcin de produccin Cobb-Douglas. En su forma ms

    simple el modelo puede escribirse como:

    Qt = A Kt Lt e

    ut t = 1, ..., T (1.1)

    en donde:

    Qt = cantidad producida en el periodo t.

    Kt = servicios de capital utilizados en el periodo t.

    Lt = servicios de trabajo utilizados en el periodo t.

    A, y son parmetros y ut es una variable que llamaremos perturbacin aleatoria.

    Tomando logaritmos, el modelo (1.1) puede escribirse como:

    yt = 1x1t + 2 x2t + 3 x3t + ut (1.2)

    en donde:

    yt = log Qt, x2t = log Kt y x3t = log Lt

    x1t toma siempre el valor 1; es lo que llamaremos la constante del modelo.

    Los T datos recogidos para las tres variables pueden referirse a la experiencia de

    una empresa en una serie de periodos, a la experiencia de un sector en diferentes

  • 58

    periodos, a todo un pas en un periodo temporal o a varias empresas o sectores en un

    mismo periodo.

    Nosotros, en este trabajo, vamos a utilizar los datos contenidos en el Cuadro 1.1.

    Son datos anuales de Estados Unidos para el periodo 1899-1922 y son los utilizados por

    Cobb y Douglas (1928) para estimar por primera vez este tipo de funcin de

    produccin. Los datos corresponden a la produccin (Y), el stock de capital (K) y el

    trabajo (L).

    CUADRO 1.1. Datos para el ejemplo 1.1

    OBS. Y K L LY LK LL 1899 100.0000 100.0000 100.0000 4.6052 4.6052 4.6052 1900 101.0000 107.0000 105.0000 4.6151 4.6728 4.6540 1901 112.0000 114.0000 110.0000 4.7185 4.7362 4.7005 1902 122.0000 122.0000 118.0000 4.8040 4.8040 4.7707 1903 124.0000 131.0000 123.0000 4.8203 4.8752 4.8122 1904 122.0000 138.0000 116.0000 4.8040 4.9273 4.7536 1905 143.0000 149.0000 125.0000 4.9628 5.0039 4.8283 1906 152.0000 163.0000 133.0000 5.0239 5.0938 4.8903 1907 151.0000 176.0000 138.0000 5.0173 5.1705 4.9273 1908 126.0000 185.0000 121.0000 4.8363 5.2204 4.7958 1909 155.0000 198.0000 140.0000 5.0434 5.2883 4.9416 1910 159.0000 208.0000 144.0000 5.0689 5.3375 4.9698 1911 153.0000 216.0000 145.0000 5.0304 5.3753 4.9767 1912 177.0000 226.0000 152.0000 5.1761 5.4205 5.0239 1913 184.0000 236.0000 154.0000 5.2149 5.4638 5.0370 1914 169.0000 244.0000 149.0000 5.1299 5.4972 5.0039 1915 189.0000 266.0000 154.0000 5.2417 5.5835 5.0370 1916 225.0000 298.0000 182.0000 5.4161 5.6971 5.2040 1917 227.0000 335.0000 196.0000 5.4250 5.8141 5.2781 1918 223.0000 366.0000 200.0000 5.4072 5.9026 5.2983 1919 218.0000 387.0000 193.0000 5.3845 5.9584 5.2627 1920 231.0000 407.0000 193.0000 5.4424 6.0088 5.2627 1921 179.0000 417.0000 147.0000 5.1874 6.0331 4.9904 1922 240.0000 431.0000 161.0000 5.4806 6.0661 5.0814

  • 59

    El objetivo de este captulo es dar respuesta a cuestiones del siguiente tipo:

    - Qu procedimientos deben de utilizarse para, teniendo en cuenta los datos y

    toda la evidencia disponible, determinar si el modelo escrito en (1.2) es o no

    empricamente razonable?

    - Podra aceptarse un modelo en el que se incorporara la hiptesis de

    rendimientos constantes?

    - Cul es el mejor procedimiento para estimar los parmetros del modelo?

    1.2. MODELO E HIPTESIS.

    El modelo economtrico que vamos a estudiar esta constituido por las

    siguientes hiptesis:

    Hiptesis 1: Para el periodo t-simo podemos escribir:

    yt = 1 x1t + + k xkt + ut t = 1, 2,.T.

    En forma matricial el modelo puede escribirse como:

    y = X + u (1.3)

    en donde:

    =

    =

    =

    =

    T

    2

    1

    k

    2

    1

    kTT2T1

    2k2212

    1k2111

    T

    2

    1

    u

    uu

    u;;

    xxx

    xxxxxx

    X;

    y

    yy

    y MML

    MMMMLL

    M

    Salvo que se indique lo contrario siempre supondremos que la primera columna

    de X tiene todos sus elementos igual a uno.

    A la combinacion lineal de los regresores la llamaremos parte sistemtica del

    modelo, mientras que ut es la parte aleatoria o perturbacin aleatoria. Esta distincin

    entre parte sistemtica y parte aleatoria es muy til porque pone de manifiesto que los

    factores relevantes que explican el comportamiento de la variable endgena quedan

  • 60

    recogidos en la parte sistemtica mientras que la parte aleatoria recoge el efecto

    conjunto de aquellos factores que influyen sobre la variable dependiente pero no

    determinan una pauta identificable y estable que resulte til para explicar el

    comportamiento de la variable dependiente.

    Hiptesis relativas a la Parte Sistemtica.

    Hiptesis 2. Las variables explicativas no son estocsticas. Esta hiptesis hay que

    situarla en el marco de muestreo que siempre acompaa a la evaluacin de todo modelo

    economtrico. Esta evaluacin esta basada en lo que ocurrira si el clculo de los

    estadsticos se repitiera muchas veces generando los datos en cada caso. Decir que las

    variables explicativas no son estocsticas equivale a decir que, en las sucesivas

    repeticiones, esos valores se mantendrn constantes. En este sentido, algunos autores

    hablan de X como si fuera una matriz de diseo.

    Hiptesis 3. El rango de la matriz X es k. Este supuesto excluye la posibilidad de que

    una de las variables pueda expresarse como una combinacin lineal de las k-1 restantes

    variables explicativas. En este caso decimos que no hay multicolinealidad exacta.

    Hiptesis 4. Asintticamente se tiene que:

    X XT

    xT

    x xT

    x xT

    x xT

    xT

    x xT

    x xT

    x xT

    xT

    Q

    t t t t kt

    t t t t kt

    kt t kt t kt

    ' =

    12

    1 2 1

    1 2 22

    2

    1 22

    L

    LK K K K

    K

    (1.4)

    en donde Q es una matriz de constantes finitas. Esta hiptesis es muy importante

    porque lo que se esta suponiendo es que los promedios de cuadrados y de productos

    cruzados giran en torno a constantes. Aunque, como ya hemos dicho, las observaciones

    no son estocsticas el comportamiento que siguen es como si procedieran de un proceso

    estocstico estacionario. A veces, esta hiptesis se formula como: XX=O(T) queriendo

    decir que basta dividir los trminos de la matriz por T para que los trminos de la

    matriz tiendan a expresiones finitas bien definidas.

    Hiptesis relativas a la Parte Aleatoria

  • 61

    Hiptesis 5. La esperanza matemtica de cada perturbacin aleatoria es cero

    Eut = 0 t = 1, 2, .,T

    Esta hiptesis indica que aunque dentro de ut se da cabida a muchos factores que

    influyen sobre yt , el efecto conjunto de todos ellos no tiene un signo definido.

    Hiptesis 6. No existe ninguna correlacin entre perturbaciones correspondientes a

    periodos temporales diferentes:

    E u ut s = 0 t s s, t = 1, 2,,T

    Si hubiera correlacin entre perturbaciones correspondientes a diferentes

    periodos, entonces, dada la informacin de un periodo, podra utilizarse para predecir el

    comportamiento de la perturbacin en otro periodo, identificndose as una pauta entre

    los factores recogidos en lo que se llama perturbacin aleatoria.

    Hiptesis 7. La varianza es la misma para cada una de las perturbaciones aleatorias. Es

    decir,

    E ut2 2= t

    Esto quiere decir que la dispersin de los efectos de los factores recogidos en ut

    es la misma sea cual sea el periodo. Si la dispersin fuera diferente entonces podra

    decirse que la perturbacin aleatoria esconde algo relevante que puede ser utilizado

    explicitamente para dar cuenta del comportamiento de la variable dependiente.

    Vectorialmente, la Hiptesis 5 puede escribirse como:

    Eu

    EuEu

    EuT

    =

    =

    =

    1

    2

    00

    0

    0M M (1.5)

    y las Hiptesis 6 y 7,

  • 62

    Var u Euu

    Eu Eu u Eu uEu u Eu Eu u

    Eu u Eu u Eu

    T

    T

    T T T

    ( ) '= =

    =

    =

    12

    1 2 1

    2 1 22

    2

    1 22

    2

    2

    2

    0 00 0

    0 0

    KK

    M M O MK

    KK

    M M O MK

    = 2IT (1.6)

    Hiptesis 8. El vector de perturbaciones aleatorias sigue una distribucin normal T-

    variante con vector de medias cero y matriz de varianzas y covarianzas igual a 2IT . Podemos escribir :

    u~N[0, 2IT ] (1.7)

    A partir de estas hiptesis puede derivarse la distribucin de probabilidad de los

    elementos de y.

    Resultado 1.1. El vector y, de T elementos, se distribuye como:

    y~N[X, 2IT ] (1.8)

    Prueba:A partir de la Hiptesis 8 la distribucin de probabilidad de u puede escribirse

    como:

    f (u) = }( ) exp{ ' ( )2 12

    2 212 2 1

    T

    T TI u I u

    La regla que permite obtener la funcin de distribucin de una variable que es

    transformacin de otra variable puede escribirse como:

    f(y) = f (u) uy

    (1.9)

    en donde uy

    es el Jacobiano que adopta la forma siguiente:

  • 63

    uy

    uy

    uy

    uy

    uy

    uy

    uy

    uy

    uy

    uy

    T

    T

    T T T

    T

    =

    =

    1

    1

    1

    2

    1

    2

    1

    2

    2

    2

    1 2

    1 0 00 1 0

    0 0 1

    K

    KM M O M

    K

    KK

    M M O MK

    Por lo tanto, la funcin de probabilidad de y puede escribirse como:

    f (y) = )}Xy()'Xy(2

    1exp{I)2( 221

    T22

    T

    (1.10)

    Ejemplo1.1. (Continuacin). Veamos el significado de las hiptesis en el marco del

    modelo escrito en (1.2). Tal como aparece en (1.2), lo que se indica es que los nicos

    determinantes relevantes que explican la produccin son el trabajo y el capital usando

    una relacin con elasticidad constante. Cumpliendose las Hiptesis 5, 6 y 7 se garantiza

    que los factores recogidos en la perturbacin aleatoria no dan cuenta de nada relevante.

    Tambin parece cumplirse la Hiptesis 3 ya que es difcil que exista una relacin lineal

    exacta entre los dos inputs. Ms difcil de sostener es la Hiptesis 4, ya que tanto el

    producto como los inputs parecen seguir una pauta creciente bien definida.

    1.3. ESTIMADORES MNIMO CUADRTICO ORDINARIOS. (MCO)

    El vector de estimadores MCO de es el siguiente:

    $ ( ' ) ' = X X X y1 (1.11)

    A este vector le corresponde la siguiente suma de cuadrados de los residuos:

    S u u utT= = $ $`$21

    (1.12)

    en donde $u es el vector de residuos MCO definido como:

    = Xyu (1.13)

  • 64

    A continuacin, vamos a demostrar que al vector de estimadores MCO le

    corresponde el menor valor de la suma de los cuadrados de los residuos. Previamente

    vamos a demostrar el siguiente resultado.

    Resultado1.2. El vector de residuos MCO escrito en (1.13) es ortogonal con todas las

    colmnas de la matriz X.

    Prueba: La expresin (1.11) puede escribirse en forma de ecuaciones normales:

    y'XX'X = (1.14)

    o, equivalentemente, como:

    ( ) 0Xy'X = (1.15) llegndose as al resultado.

    Resultado1.3. Sea un vector de estimadores cualquiera de y u el correspondiente vector de residuos. Entonces la suma de cuadrados de residuos de este vector de

    estimadores siempre supera la que corresponde al vector MCO escrita en (1.12).

    Prueba: El vector de residuos correspondiente a puede escribirse como:

    u = y - X = y - X $ + X( $ - ) = $u + X( $ - ) (1.16)

    Por lo tanto, la suma de cuadrados de estos residuos es la siguiente:

    u u u u X X u X = + + ' $ ' $ ( $ )' ' ( $ ) $ ' ( $ ) 2

    y teniendo en cuenta (1.15) se llega a:

    u u u u X X = + ' $ ' $ ( $ )' ' ( $ ) (1.17)

    Esta es la llamada Identidad Fundamental. Al resultado se llega teniendo en

    cuenta que, por la Hiptesis 3, la matriz X'X es definida positiva.

  • 65

    Derivemos ahora las propiedades del vector de estimadores MCO escrito en

    (1.11).

    Resultado1.4. El vector de estimadores MCO es insesgado.

    E $ = (1.18)

    Prueba: Sustituyendo (1.3) en (1.11) se obtiene:

    $ = + ( ' ) 'X X X u1 (1.19)

    y teniendo en cuenta las Hiptesis 2 y 5 el resultado sigue:

    E $ = + ( ' ) 'X X X Eu1 =

    Resultado1.5. La matriz de varianzas y covarianzas del vector de estimadores MCO

    viene dada por:

    Var

    Var Cov CovCov Var Cov

    Cov Cov Var

    X X

    k

    k

    k k k

    ( $)

    ( $ ) ( $ , $ ) ( $ , $ )( $ , $ ) ( $ ) ( $ , $ )

    ( $ , $ ) ( $ , $ ) ( $ )

    ( ' )

    =

    =

    1 1 2 1

    2 1 2 2

    1 2

    2 1

    KK

    M M M MK

    (1.20)

    Prueba: La matriz de varianzas y covarianzas se define como:

    ( ) ( )( )'- EVar = = E [ ]kk2211kk

    22

    11

    KM

    =

    =

    2kk22kk11kk

    kk222

    221122

    kk1122112

    11

    )(E))((E))((E

    ))((E)(E))((E))((E))((E)(E

    KMOMM

    KK

  • 66

    Utilizando (1.19) podemos escribir:

    ( )( ) ( ) ( ) 1'1' X'XXuuX' X'XE- E = y utilizando la Hiptesis 2 y el resultado escrito en (1.6) se llega a:

    ( ) ( ) ( ) ( ) 1211 X'XX'XX'Euu'XX'XVar == llegndose as al resultado.

    Resultado 1.6. (Teorema de Gauss-Markov). El vector de estimadores MCO de , $ , es el mejor estimador lineal insesgado en el siguiente sentido: cualquier otro estimador,

    , que sea tambin combinacin lineal de los elementos del vector y e insesgado tiene una matriz de varianzas y covarianzas que excede la de $ en una matriz semidefinida positiva.

    Prueba: Suponer que A es una matriz kT de constantes y, sin prdida de generalidad, el estimador lo escribimos como:

    = [A+ 'X)X'X( 1 ] y (1.21)

    Por la propia definicin, los estimadores son funcin lineal de los elementos de y.

    Sustituyendo (1.3) en (1.21) se llega a:

    = [A+ 'X)X'X( 1 ] [X + u] = (AX+I) + Au + u'X)X'X( 1

    Tomando esperanzas

    E = (AX + I)

    Para que sea insesgado se debe cumplir que:

    AX = 0 (1.22)

    La matriz de varianzas y covarianzas es:

  • 67

    Var( ) = E [A+ 'X)X'X( 1 ] uu' [A+ ]'1 'X)X'X( = 2 2 1AA X X' ( ' )+ utilizando (1.22) en los productos cruzados. Podemos escribir:

    Var( ) - Var( $ ) = 2AA'

    y el resultado sigue por ser 'AA semidefinida positiva.

    Resultado 1.7. Sea w un vector de k constantes. Entonces se tiene que:

    Var( w Var w' $) ( ' ) (1.23)

    Prueba: Utilizando el Resultado 1.6 podemos escribir:

    Var w( ' ) = [ ]122 )X'X('AA'w + w 2 1w X X w'( ' ) cumpliendose el resultado.

    Hasta ahora, los resultados se han derivado sin utilizar la Hiptesis 8 que trata de

    la normalidad de las perturbaciones aleatorias. Si aadimos esta hiptesis llegamos al

    siguiente resultado.

    Resultado 1.8. Suponer que se cumplen las ocho hiptesis comentadas en la seccin

    anterior. Entonces la distribucin de probabilidad de $ viene dada por:

    $ ~N[ , 2 1( ' )X X ] (1.24)

    Prueba: A partir de (1.19) se ve que los elementos de $ son igual a los correspondientes elementos de ms una combinacin lineal de variables que son normales llegndose al resultado.

    Los momentos primero y segundo han sido ya derivados en los Resultados 1.4 y

    1.5, respectivamente.

    Ejemplo 1.1. (Continuacin). A partir de los datos contenidos en el Cuadro 1.1

    se suelen calcular algunos estadsticos que nos informan acerca del tipo de variables que

    estamos tratando.

  • 68

    En primer lugar, podemos dar cuenta de algunas caractersticas univariantes

    referidas a las variables en logaritmos.

    CUADRO 1.2. Caractersticas Univariantes

    Variable y x2 x3

    Valor Mximo 5.48 6.06 5.29

    Valor Mnimo 4.61 4.60 4.60

    Media 5.07 5.35 4.96

    Desviacin Tpica 0.27 0.50 0.20

    Asimetra -0.12 0.03 0.10

    Apuntamiento -1.06 -1.15 0.85

    Coefici. de Variacin 0.05 0.08 0.04

    Otra informacin interesante se refiere a las correlaciones entre las variables.

    CUADRO 1.3. Correlaciones entre las variables.

    y x2 x3

    y 1 0.95 0.96

    x 2 1 0.91

    x 3 1

    Los estimadores MCO de utilizando (1.11) son los siguientes:

    =

    =

    =

    tt3

    tt2

    t

    1

    2t3t2t3t3

    t3t22

    t2t2

    t3t2

    3

    2

    1

    yxyx

    y

    xxxxxxxx

    xxT

    =24 12855 11910

    69345 639 92592 02

    121866554160594

    017730 230508073

    1. .. .

    .

    .

    .

    .

    ...

    =

  • 69

    Notar que el valor de la elasticidad que corresponde al factor trabajo (0.8073) es

    bastante mayor que el correspondiente al capital (0.2305).

    A continuacin, vamos a derivar algunos resultados para aquellos casos en que

    el tamao muestral tiende a hacerse grande. (Marco Asinttico).Comenzaremos

    presentando algunas definiciones que completan las presentadas en el Anexo 1.

    Definicin1.1. Sea $ un estimador de . Se dice que $ es un estimador consistente asintticamente normal de cuando: i) es consistente y ii) T ( ) converge en distribucin a N(0,) en donde es una matriz definida positiva con elementos finitos.

    Definicin 1.2. Sean $ y dos estimadores consistentes y asintticamente normales con matrices de varianzas y covarianzas de las correspondientes distribuciones

    asintticas iguales a y , respectivamente. Entonces se dice que $ es asintticamente eficiente respecto a si es semidefinida positiva.

    Definicin 1.3. Se dice que un estimador consistente y asintticamente normal es

    asintticamente eficiente si lo es con respecto a cualquier estimador consistente y

    asintticamente normal que se considere.

    Resultado 1.9. Una condicin suficiente para que un estimador consistente y

    asintticamente normal sea asintticamente eficiente es que su matriz de varianzas y

    covarianzas asinttica sea igual al lmite de la cota inferior de Crmer-Rao.

    Prueba: Ver Theil (1971, Seccin 8.4).

    Establecidas estas definiciones veamos ahora como se comportan los

    estimadores MCO de en este marco asinttico.

    Resultado 1.10. El vector de estimadores MCO de es consistente pudiendose escribir:

    plim $ = (1.25)

  • 70

    Prueba: El vector $ sigue una distribucin de probabilidad k-dimensional con vector de medias y matriz de varianzas y covarianzas igual a 2 1( ' )X X . Utilizando la Hiptesis 4 se tiene que:

    lim Var limT

    X XT

    QT

    =

    = =(

    $) [ ' ] . 2 1

    10 0

    El sesgo cero y varianza que tiende a cero asintticamente son condiciones

    suficientes para la convergencia en probabilidad tal como puede verse en el Anexo 1.

    Resultado 1.11. El estimador $ es asintticamente normal en el siguiente sentido:

    T( $ ) N Q( , )0 2 1 (1.26)

    Prueba: Para cualquier tamao muestral, la distribucin de T( $ ) es:

    )',0(1

    2

    TXXN

    A partir de aqu el resultado sigue utilizando la Hiptesis 4.

    Tambin puede demostrarse que $ es asintticamente eficiente. Nosotros presentaremos este resultado en el apartado dedicado a los estimadores mximo-

    verosmiles.

    Comentadas las propiedades de los estimadores MCO de los parmetros de

    posicin, a continuacin, analizamos las propiedades del estimador MCO del parmetro

    de dispersin que es la varianza de la perturbacin aleatoria para lo cul derivamos,

    primero, las propiedades estocsticas del vector de residuos MCO escrito en (1.13).

    Resultado 1.12. El vector de residuos MCO, $u , puede escribirse como:

    $u = Mu (1.27)

    en donde M = I - X 'X)X'X( 1 es una matriz simtrica e idempotente de rango T-k.

  • 71

    Prueba: A partir de (1.13) se tiene:

    Muu)M(XMyyX'X)X(X'yu 1 =+===

    por ser : 0XX)XX'X)X(X'(IMX 1 ===

    Resultado 1.13. La esperanza y matriz de varianzas y covarianzas de $u vienen dados, respectivamente, por:

    E( $u )=0 (1.28)

    y Var ( $u )=2M (1.29)

    Prueba:

    E( $u ) = ME(u) = 0

    MM)E(uu'MM)E(Muu')'uuE()uVar( 2====

    Resultado 1.14. La esperanza de la suma de los cuadrados de los residuos MCO es

    igual a (T-k) 2 , es decir:

    E( $ ' $u u ) = 2 (T-k) (1.30)

    Prueba:

    E( $ ' $u u ) = ( )MMu'uE = ( )Mu'uE = ( )( )'MuutrE = ( )( )( )'uuEMtr = = 2 trM = 2 (T-k)

    por ser: tr(M) = rango(M) = T-k

    Establecidas las propiedades del vector de residuos MCO, examinaremos, a

    continuacin, las propiedades del estimador MCO de 2 definido como:

    kT

    u

    kTuu

    T

    1t

    2t

    2

    ==

    = (1.31)

  • 72

    Resultado 1.15. El estimador MCO de 2 escrito en (1.31) se distribuye como:

    )kT(kT

    ~ 22

    2 (1.32)

    en donde 2(T-k) es una variable chi-cuadrado central con T-k grados de libertad.

    Su esperanza matemtica es:

    E( $2 ) = 2 (1.33)

    y su varianza:

    VarT k

    Var T kT k

    ( $ )( )

    ( ( )) 24

    22

    42= = (1.34)

    Prueba: para demostrar (1.32) hay que tener en cuenta que Muu'k)(T 2 = .

    Por ser M una matriz idempotente de rango (T-k), es posible escribir:

    *2 kT*22

    *21 v...vvMuu' +++= (1.35)

    en donde cada una de las variables *jv sigue una distribucin Normal con media cero y

    varianza 2; adems, todas ellas son independientes entre s. Dividiendo ambos lados de (1.35) por 2 se tiene que:

    2 kT22

    212 v...vv

    Muu'+++=

    en donde ahora las jv son variables normales tipificadas independientes entre s.

    Por lo tanto: 2Muu'

    2(T-k), y el resultado sigue.

    Para obtener (1.33) hay que tener en cuenta que: E(2(T-k)) = T-k.

  • 73

    Por ltimo, respecto a (1.34) basta recordar que: Var(2(T-k))=2(T-k), por lo

    que: VarT k

    Var T kT k

    ( $ )( )

    ( ( )) 24

    22

    42= =

    Resultado 1.16: El estimador $2 de 2 es insesgado

    Prueba: resultado obtenido en (1.33).

    Alternativamente, la insesgadez podra demostrarse utilizando el Resultado 1.14.

    Resultado 1.17: $ y $2 son independientes.

    Prueba: En el Resultado 1.15 hemos visto que $2 depende de una forma cuadrtica de u cuya matriz es M. Por otra parte, a partir de (1.19) podemos escribir:

    uXX)X(- 1 = y como se cumple que 0MXX)X( 1 = , esto garantiza la independencia.

    Resultado 1.18: El estimador $2 es un estimador consistente de 2.

    Prueba: $2 es insesgado para cualquier tamao muestral. Adems, a partir de (1.34) se tiene que:

    0kT

    42lim)2Var(lim TT

    ==

    Como ya hemos indicado para $ , la insesgadez y el lmite cero de la varianza son condiciones suficientes para la consistencia del estimador.

    Se puede definir una matriz que sea la estimacin de la matriz de varianzas y

    covarianzas de $ escrita en (1.20) como 12 X)X( . Por los Resultados 1.16 y 1.18 esta estimacin ser insesgada y consistente.

  • 74

    Resultado 1.19: El estimador $2 es asintticamente normal con:

    )(T 22 ) N(0,2 4 (1.36)

    Prueba: Ver Fomby, Hill y Johnson (1984) (Teorema 4.3.2).

    Ejemplo 1.1. (Continuacin) . El estimador MCO de la varianza lo calculamos

    utilizando (1.31):

    0,0033809921

    0,070982kT

    uu 2 ===

    La estimacin de la matriz de varianzas y covarianzas viene dada por:

    = 0,02100,00830,00400,05950,01990,1886

    X)(X' 12

    Suponer ahora que el modelo escrito en (1.3) lo particionamos como:

    y = X11 + X22+u (1.37)

    en donde 1 tiene k1 elementos y 2 tiene k2 elementos con k1+k2 = k. Vamos a derivar la forma que adopta el estimador MCO de 2.

    Resultado 1.20: El subvector de estimadores MCO, $2 , puede escribirse como:

    yMX)XM(X 1'2

    121

    '22

    = (1.38)

    con '11

    1'11T1 X)X(XX-IM

    =

    Prueba: Primero, reescribimos las ecuaciones normales escritas en (1.14) particionadas

    conforme a (1.37):

    yXXXXX '122'111

    '1 =+

    yXXXXX '222'211

    '2 =+

  • 75

    Se trata de dos bloques, el primero con k1 relaciones y el segundo con k2

    relaciones. A partir del primer bloque se obtiene:

    22'1

    -11

    '1

    '1

    -11

    '11

    XX)X(X-yX)X(X =

    y sustituyendo a $1 en el segundo bloque:

    yXXXXX)X(XXX-yX)X(XXX '222'222

    '1

    -11

    '11

    '2

    '1

    -11

    '11

    '2 =+

    que tambin puede escribirse como:

    yMX)XM(X 1'2221

    '2 =

    Basta premultiplicar ambos lados de esta expresin por la inversa de )XM(X 21'2

    para llegar a (1.38).

    Lo que indica (1.38) es que $2 no es otra cosa que la regresin de M1y sobre M1X2, es decir, la regresin de aquella parte de y no explicada por X1 sobre aquella

    parte de X2 no explicada por X1. Es importante destacar que al mismo resultado se

    llegara haciendo la regresin de y sobre M1X2. Estos resultados explican que si una de

    las variables explicativas del modelo es una constante, el vector de estimadores MCO

    del resto de las (k-1) variables explicativas obtenido utilizando las desviaciones con

    respecto a las medias de todas las variables sea el mismo que el que se obtena

    utilizando variables no centradas.

    1.4. ESTIMADORES MXIMO-VEROSMILES ( MV ).

    Los estimadores MV de y 2 son aquellos que maximizan el valor que toma la funcin de verosimilitud. Esta funcin es la misma escrita en (1.10) pero tomndola

    como funcin de y 2 condicionada sobre unos valores dados de X e y. Para reflejar este cambio la escribiremos como:

    L( , 2 /y , X) = ( ) ( ) ( )2 12

    2 212

    2

    T

    TI y X y Xexp'

  • 76

    y su logartmo:

    l( , 2 /y , X) = T T y X y X2

    22

    12

    22log( ) log ( )' ( ) (1.39)

    Veamos ahora la forma que adoptan el gradiente y la matriz hessiana de

    segundas derivadas.

    Resultado 1.21. El gradiente de la funcin de verosimilitud definida en (1.39) toma la

    forma siguiente:

    d( , 2 ) = ( )

    l

    l

    X y X X

    T u u

    (.)

    (.)

    ' '

    '2

    2

    2 4

    1

    2 2

    =

    +

    (1.40) - (1.41)

    La matriz hessiana de segundas derivadas es:

    D ( ) ( )

    +=

    X-y )'Xy(12T.

    )Xy('X1X'X1

    ,64

    422 (1.42)

    Prueba: Teniendo en cuenta que :

    ( ) ( ) += X'X'X'y2y'yXy'Xy y utilizando las reglas estandar de derivacin vectorial se llega a:

    )'2'2(2

    1(.)2

    XXyXl =

    llegndose as a (1.40). Para obtener (1.41) basta derivar (1.39) respecto a 2 .

    l T y X y X(.) ( )' ( )

    2 2 42 2= +

    Respecto a las segundas derivadas,usando (1.40) se tiene que:

  • 77

    2

    2l X X(.)

    ''=

    La segunda derivada cruzada puede escribirse como:

    2

    2 41l X y X X(.) ( ' ' )= +

    y, por ltimo, la segunda derivada respecto a 2 se obtiene usando (1.41):

    l T(.)

    ( )2 2 4 621= ( ) ( ) XyXy '

    Resultado 1.22. Los estimadores MV de y 2 vienen dados por:

    ~ ( ' ) ' = X X X y1 (1.43)

    ~~' ~2 = u uT

    (1.44)

    Prueba: La condicin necesaria para maximizar la verosimilitud es que los elementos

    del gradiente sean cero. Es decir:

    0)~X'Xy'X(~1

    2 =

    )~Xy()'~Xy(~21

    ~2T

    42 + = 0

    A partir del primer bloque de k relaciones se obtiene que:

    = ~X'Xy'X

    de donde se deriva (1.43).

    La ltima relacin puede escribirse como:

    ~' ~~u u T2 =

  • 78

    llegndose a (1.44).

    Hay que destacar que el estimador MV de coincide con el estimador MCO coincidencia que no se da con los estimadores de 2 . Por lo tanto, las propiedades del estimador MV de son las mismas que las ya comentadas para el estimador MCO.

    Respecto a las propiedades de ~2 , hay que tener en cuenta que puede escribirse como:

    ~ $ 2 2= T kT

    (1.45)

    A partir de esta expresin vamos a derivar las propiedades del estimador MV.

    Resultado 1.23. El estimador MV de 2 se distribuye como:

    ~2 2

    2

    TT k( ) (1.46)

    Su esperanza matemtica es:

    E 22 =TkT~ (1.47)

    y su varianza:

    Var ( )~ ( ) 2 422= T kT (1.48) Prueba: Teniendo en cuenta (1.45) basta utilizar el Resultado 1.15.

    Teniendo en cuenta que el factor que multiplica a $2 en (1.45) tiende a 1 conforme T tiende a infinito entonces las propiedades del estimador MV son las mismas

    que las del estimador MCO. Es decir, ~2 es consistente y la distribucin asinttica de T(~ ) 2 2 es igual a N(0, 2 4 ).

  • 79

    Por ltimo, vamos a demostrar que tanto los estimadores MCO como los MV

    son asintticamente eficientes de acuerdo con lo establecido en el Resultado 1.9.

    Primeramente, tenemos que definir el lmite de la Cota Inferior de Cramer-Rao.

    Definicin 1.4. La Cota Inferior de Cramer-Rao se define como:

    I ( ) ( )[ ] , 2 1 1 = ED Asintticamente, el concepto relevante es el lmite de la expresin:

    lim( )I

    T

    , 2 1

    (1.49)

    Resultado 1.24. La Matriz de Informacin en este caso viene dada por:

    I ( ) ,'

    22

    2

    1 00

    2=

    X XT (1.50)

    y el lmite escrito en (1.49):

    ( )

    limI

    TQ

    T

    =

    , 21

    2 1

    40

    0 2 (1.51)

    Prueba: Teniendo en cuenta la matriz de segundas derivadas escrita en (1.42) el

    resultado (1.50) sigue teniendo en cuenta que:

    E ( ) 44 1Xy'X1 = 0Eu'X =

    E ( ) ( ) =+=

    + 6464u'Eu

    2TXy'Xy

    2T

    462

    4 2TT

    2T

    =+=

  • 80

    En lo que respecta a (1.51), basta tener en cuenta la Hiptesis 4 y las reglas

    estandar de convergencia.

    Examinando las distribuciones asintticas derivadas para los estimadores MCO

    y MV se ve que todos ellos son asintticamente eficientes.

    1.5. ESTIMADORES DE LOS MNIMOS CUADRADOS RESTRINGIDOS

    (MCR). ERROR DE ESPECIFICACIN.

    Los estimadores MCR de , que llamaremos $R , son aquellos que minimizan la suma de cuadrados de los residuos cumpliendo una serie de restricciones especificadas a

    priori sobre los parmetros.

    Escribimos las restricciones como:

    R = q (1.52)

    En donde R es una matriz r.k , y rango r, siendo r el nmero de restricciones; q

    es un vector de r constantes.

    Resultado 1.25. El vector de estimadores MCR que minimiza la suma de cuadrados de

    los residuos cumpliendo al mismo tiempo las restricciones escritas en (1.52) es el

    siguiente:

    ( ) ( )[ ] ( )+= Rq'RX'XR'RX'X 111R (1.53) Prueba: Como ya hemos indicado, el estimador MCR debe ser tal que:

    )Xy()'Xy(min sujeto a R =q

    La funcin lagrangiana para este problema de optimizacin es:

    L= ( ) ( ) ( )qR'2Xy'Xy

  • 81

    En donde es un vector con r Multiplicadores de Lagrange. Las condiciones necesarias para la optimizacin se obtienen igualando a cero las derivadas con respecto

    a y :

    0'R2X'X2y'X2L R =+= (1.54)

    qR'

    LR ==

    (1.55)

    A partir de (1.54) se obtiene que:

    ( ) += 'RX'X 1R (1.56) Premultiplicando todos los trminos de (1.56) por R y, teniendo en cuenta (1.55)

    se llega a:

    ( ) += 'RX'XRRq 1 y despejando :

    [ ] )Rq('R)X'X(R 11 = Sustituyendo este estimador en (1.56) se llega al resultado escrito en (1.53).

    A la hora de evaluar las propiedades de este estimador hay que distinguir dos

    situaciones segn las restricciones se cumplan realmente o no. Con este fin

    escribiremos:

    = qR

    Si las restricciones se cumplen entonces 0= y, si no se cumplen, 0 .

    Comencemos suponiendo que las restricciones se cumplen.

    Resultado 1.26. En el caso en el que 0= , el estimador MCR es insesgado.

  • 82

    Prueba: Teniendo en cuenta (1.19), podemos escribir:

    ( ) u'XX'XRRR 1+= = q + ( ) u'XX'XR 1 Por lo tanto,

    = Rq - ( ) u'XX'XR 1 Introduciendo este resultado y el escrito en (1.19) en (1.53) obtenemos:

    ( ) += u'XX'X 1R

    - ( ) [ ] [ ]u'X)X'X(R'R)X'X(R'RX'X 1111 = = + [ ] u'X)X'X(R}'R)X'X(R{'R)X'X(I 1111 (1.57) Recordando la Hiptesis 2 y que R es una matriz de constantes se tiene que:

    E == E R

    Resultado 1.27. La matriz de varianzas y covarianzas del estimador MCR viene dada

    por:

    ( ) [ ]11'1'12R )X'X(R}R)X'X(R{RIX'X)(Var = (1.58) Adems, se cumple que:

    Var ( ) Var ( ) C R = en donde C es una matriz semidefinida positiva.

    Prueba: Teniendo en cuenta (1.57) se tiene que:

    Var ( ) ( )( ) == 'RRR E = u'X)X'X}(R)'R)X'X(R('R)X'X(I{E 1111

  • 83

    ( ) ( ) ( )( ){ } = RRXXRRXXXu 1111 '''XX'-I '' = 1111212 )X'X(R}'R)X'X(R{'R)X'X()X'X( =

    = Var C)(

    en donde C= 11112 )X'X(R}'R)X'X(R{'R)X'X(

    sta matriz es semidefinida positiva porque ( ) 1X'X es definida positiva y R tiene rango fila completo.

    Tambin en este caso sera posible demostrar un resultado similar al de Gauss-

    Markov. Es decir, el estimador MCR es el mejor estimador lineal e insesgado en el

    sentido de que es el estimador que tiene la menor varianza dentro de la clase de los

    estimadores que son lineales en y y q e insesgados.

    En el caso en que las restricciones no sean correctas, es decir, cuando 0 , entonces el estimador MCR es sesgado aunque mantiene la misma matriz de varianzas y

    covarianzas.

    Resultado1.28. En el caso en que 0 , entonces el estimador MCR tiene la siguiente esperanza matemtica:

    =RE + 111 }'R)X'X(R{'R)X'X( (1.59)

    Prueba: Basta obtener la esperanza de (1.53) teniendo en cuenta que:

    E =

    y E(q-R ) = q-R =

    En este caso ya no podemos decir que, en general, siempre el estimador MCR es

    mejor que el estimador MCO. Para compararlos habra que prestar atencin al error

    cuadrtico medio.

  • 84

    A continuacin, vamos a derivar una serie de resultados que se cumplen

    siempre cualquiera que sea el valor .

    Sea Ru el vector de residuos MCR definidos como:

    Ru = y- RX (1.60)

    Resultado 1.29. La suma de los cuadrados de los residuos MCR es siempre mayor que

    la de los residuos MCO pudiendose escribir:

    )(X'X)'(u'uuu RRR'R += (1.61)

    Prueba: Basta aplicar el Resultado 1.3 utilizando la expresin (1.17).

    Resultado 1.30. Sea w un vector de k constantes. Entonces se tiene que:

    )'w(Var)'w(Var R (1.62)

    Prueba: Podemos escribir:

    w)}(Var)(Var{'w)'w(Var)'w(Var RR = =

    0Cw'w =

    por ser C semidefinida positiva tal como se ha demostrado en el Resultado 1.27

    Cuando se imponen r restricciones sobre lo que se est indicando es que los k parmetros no pertenecen a un espacio de k dimensiones sino a otro de k-r. Esto

    significa que los k parmetros pueden expresarse en funcin de otros k-r parmetros que

    llamaremos libres, pudiendose escribir:

    = H (1.63)

    en donde H es una matriz k (k-r) de constantes y es el vector de (k-r) parmetros libres.

    Introduciendo esta expresin en el Modelo Lineal General se tiene:

  • 85

    uZuXHuXy +=+=+=

    El estimador MCO de es: y'Z)Z'Z( 1= ; el estimador restringido de viene dado por:

    y'Z)Z'Z(H 1R=

    Una aplicacin directa de este resultado es la siguiente: Particionemos 0=R como:

    0RR 2211 =+ (1.64)

    en donde R1 es r.r con rango mximo y la particin de se corresponde con la particin de R.

    Apartir de (1.64) se tiene:

    221

    11 RR =

    y sustituyendo en el modelo particionado

    uXuXRRXuXXy 222221

    112211 +=++=++=

    en donde: 221

    11 XRRXX +=

    El estimador MCR toma la forma siguiente.

    =

    yX)XX(yX)XX(RR

    '1'

    '1'2

    11

    R (1.65)

    En el caso en que las restricciones slo afecten a 1 entonces el estimador MCR es:

    = yX)XX(0

    '2

    12

    '2

    R (1.66)

  • 86

    Ejemplo 1.1. (Continuacin). Se va a estimar el modelo imponiendo la hiptesis de

    rendimientos constantes que puede escribirse como:

    132 =+

    En este caso los elementos de la expresin (1.52) son:

    R = ( 0 1 1 ) y q = 1

    Teniendo en cuenta que:(q-R ) = (1-1.0378) = -0.0378, aplicando (1.53) se obtiene:

    =

    =74587.25413.01454.

    R3

    R2

    R1

    R ; 0032565,02R =

    La matriz de varianzas y covarianzas viene dada por:

    =0016994.00016994.00016994.00006692.00006692.0000399.0

    )(raV R

    Alternativamente, estos estimadores se pueden calcular utilizando (1.65). En

    este sentido hay que tener en cuenta que considerando la hiptesis de rendimientos

    constantes el modelo puede escribirse como:

    tt32t22t11t ux)1(xxy +++=

    o bien

    tt3t22t11t3t u)xx(xxy ++=

    Por lo que las estimaciones sern:

  • 87

    =

    =

    =

    =

    25413.01454.

    570109.1750703.2

    637141.5450255.924

    )xx)(xy()xy(

    )xx()xx(T

    1t3t2t3t

    t3t1

    2t3t2

    t3t2

    R2

    R1

    Vamos a terminar este captulo haciendo referencia al concepto de error de

    especificacin. El anlisis del error de especificacin se refiere a aquellas situaciones en

    las que se estudian las consecuencias que, sobre las propiedades de ciertos estadsticos,

    tiene el considerar un modelo diferente al que genera los datos.

    El anlisis del error de especificacin abarca una amplia gama de casos dentro

    de la Econometra. Nosotros prestaremos atencin a dos casos particulares: la omisin

    de variables relevantes y la inclusin de variables suprfluas.

    Considerar los dos modelos siguientes:

    y = 111 uX + (1.67)

    y = uXX 2211 ++ (1.68)

    En donde, como ya hemos dicho, X1 tiene k1 y X 2 tiene k 2 regresores.

    Nuestro interes es estimar 1 .

    Resultado 1.31. (Variables Relevantes Omitidas). Supongamos que el modelo que ha

    generado los datos es el escrito en (1.68) pero que, para estimar 1 , utilizamos el modelo escrito en (1.67). Entonces el estimador resultante es sesgado.

    Prueba: Se trata de un caso particular del Resultado 1.28. El estimador MCR en este

    caso es:

    y'X)X'X( 11

    11R1= = ++ 2211111 X'X)X'X( u'X)X'X( 1111

    Por lo tanto, su esperanza es:

    E = R1 2211111 X'X)X'X( + (1.69)

  • 88

    siendo el sesgo:

    E R1 2211111 X'X)X'X( =

    El signo y tamao del sesgo depender del tamao y signo de los elementos de

    la matriz: 211

    11 X'X)X'X( y de los de 2 . Hay que tener en cuenta que los elementos

    de esta matriz son las estimaciones de los coeficientes de la regresin de X 2 sobre X1 .

    Cada columna son los elementos de la columna correspondiente en X 2 . Por ejemplo, si

    slo se excluye una variable entonces esa matriz ser un vector de k1 elementos. El

    primer elemento de este vector ser la estimacin del coeficiente de la primera variable

    de X1 en la regresin de la variable excluida sobre X1 . Si 2 y esa estimacin son del mismo signo entonces el sesgo ser positivo; si tienen diferente signo el sesgo ser

    negativo.

    Hay que destacar que aunque el estimador es sesgado, su matriz de varianzas y

    covarianzas es menor que la del estimador que no comete el error de especificacin

    tal como puede verse en el Resultado 1.27. Por lo tanto, puede haber situaciones con

    poca evidencia en las que puede estar justificado el uso del estimador que omite

    variables consideradas como relevantes.

    Resultado 1.32. (Inclusin de Variables Suprfluas). Suponer que el modelo que ha

    generado los datos es el escrito en (1.67) pero que para estimar 1 utilizamos el modelo escrito en (1.68). El estimador resultante es insesgado pero tiene una varianza mayor

    que la que corresponde al estimador que no comete el error de especificacin.

    Prueba: Utilizando el Resultado 1.20 podemos escribir:

    yM'X)XM'X( 211

    1211=

    en donde: 21

    2222 'X)X'X(XIM=

    A partir del modelo escrito en (1.67), podemos escribir:

    1211

    1211111211

    1211 uM'X)XM'X()uX(M'X)XM'X( +=+=

  • 89

    de forma que:

    E 11 =

    Por lo demostrado en el Resultado 1.27 se ve que la matriz de varianzas y

    covarianzas de 1 supera a la del estimador que no comete el error de especificacin.

    Ejemplo 1.1. (Continuacin) Vamos a aproximar el error de especificacin

    que se comete si tratamos de estimar el coeficiente del factor trabajo sin considerar la

    variable capital. Es decir, se trata de estimar:

    tt33t11t uxxy ++=

    Las estimaciones que se obtienen son:

    =

    =

    2913.13313.1

    yxy

    xxT

    tt3

    t1

    2t3

    t3

    R3

    R1

    y la estimacin de la matriz de varianzas y covarianzas:

    =

    005692.028252.14043.

    raVR3

    R1 ; 005294.02R =

    Destacar que la elasticidad estimada para el trabajo es muy superior a la

    obtenida anteriormente . Esto puede explicarse a partir de (1.69), ya que tanto la

    correlacin entre X1 y X 2 como el signo de 2 son positivos.

  • 90

    EJERCICIOS

    1.1) Sea X una variable que se distribuye normalmente con media y varianza 2 .Suponer que se han obtenido independientemente dos muestras aleatorias simples a partir de X, de tamaos T1 y T2 ,y con medias muestrales X1 y X2 .

    1). Un investigador pretende estimar y propone como estimadores alternativos

    $ = +X X1 22

    y ~ = ++T X T X

    T T1 1 2 2

    1 2

    Comparar las propiedades de ambos estimadores.

    2). En una etapa posterior pretende estimar 2 y propone los siguientes estimadores:

    21 XX , X X1 22

    2+

    ,

    X X12

    22

    2+

    Comparar las propiedades de los tres estimadores.

    1.2) Considerar una muestra aleatoria simple de T elementos obtenida a partir de un

    poblacin con media y varianza 2 .Se pide:

    Var( XXi ) , E ( X Xj ) , E [ X X Xi j( )] , E [ X X Xj( )]

    Cov [ ( ), (X X X Xi j )]

    1.3). Suponer que la variable y est relacionada con la variable x segn el modelo:

    y x ui i i= + + 0 1 ui ~ iid N(0, 2 ) i=1,2 .n (1) Un investigador agrupa las observaciones en G grupos y toma el promedio de las dos

    variables en los grupos considerando el modelo

    y x ug g g= + + 0 1 , uu

    nggj

    j

    n

    g

    g

    = =

    1 , n n n nG1 2+ + + =...... (2)

    en donde y x ug g g, , son los promedios respectivos.Se pide:

    1). Derivar las propiedades de ug .

  • 91

    2). Derivar las propiedades del estimador de los mnimos cuadrados ponderados )( *

    de 1 a partir del modelo (2).

    =

    2

    *

    )(

    ))((

    i

    i

    i

    i

    i

    i

    zx

    zx

    zy

    .

    3). Comparar las propiedades del estimador definido en 2) con las del estimador MCO

    de 1 definido a partir de (1).

    1.4). Suponer que el proceso generador de datos es: y x ut t t= + +

    en donde u t es una perturbacin aleatoria que cumple las hiptesis ideales.

    Obtener la esperanza y varianza de los siguientes estimadores:

    a). =

    t

    t

    xy

    1 c). =

    t

    t

    xTy 2

    b). Txy

    t

    t=3 d ). T

    xy

    t

    t=

    *

    *

    4

    Las variables con asterisco representan desviaciones con respecto a la media.

    1.5). Supongamos el modelo:

    y x x u= + + 1 1 2 2 en donde u cumple las hiptesis habituales y suponemos que las variables estn medidas

    en desviaciones respecto a sus medias. Los parmetros 1 y 2 son estimados utilizando MCO y estimadores restringidos suponiendo: 1 =2 = . Se pide: 1). Demostrar que los estimadores restringidos equivalen a una media ponderada de los

    estimadores MCO.

    2). Demostrar que el estimador insesgado ms eficiente de coincide con la media ponderada en caso de que se cumpla la restriccin.

  • 92

    1.6). Partiendo del modelo con dos variables y x x u= + + 1 1 2 2 , en el que suponemos que las variables estn medidas en desviaciones respecto a sus medias,

    interpretar grafcamente:

    1). El valor estimado de y y las estimaciones MCO de 1 y 2 . 2). Un caso en que la estimacin de 1 sea mayor que uno y otro en que dicha estimacin sea menor que cero.

    3). El coeficiente de correlacin mltiple.

    4). Los coeficientes de correlacin parcial.

    5). El valor del estadstico F para el contraste de significatividad de x2 .

    1.7). Para el modelo y X u= + se tiene la siguiente informacin:

    X X' =

    2 11 2

    ; X y' =

    21

    ; 2 1=

    Se pide:

    1). Obtener las estimaciones MCO de y calcular la covarianza entre $1 y $2 .

    2). Calcular los estimadores restringidos de 1 y 2 con la restriccin 2 =0.Calcular la covarianza entre $1R y $2R .Obtener la diferencia entre la suma de cuadrados de los residuos restringidos y la de los residuos MCO. En caso de que $1 y $1R no difieran tiene alguna utilidad la informacin de que 2 =0?. 3). Interpretar grficamente la estimacin de dado que: 2 =0. Repetir lo anterior para 1 2 0+ = . 4). Demostrar que los estimadores restringidos de 1 y 2 dado: 1 2 0+ = se pueden obtener a partir de la regresin de y sobre ( )x xt t1 2 . 5). Obtener la prediccin puntual MCO y por intrvalo de ( )pyEy py con un nivel de confianza del 95% suponiendo que para el periodo extramuestral se sabe que xp = ( , )2 1 .

  • 93

    1.8) Suponer el siguiente modelo:

    y x x ut t t t= + + 1 1 2 2 )I,0(N~u T2 con:

    ( )

    =4111

    31XX ' X y' =

    11

    2 1=

    1). Escribir las ecuaciones normales, calcular los estimadores MCO, $ , y su matriz de varianzas y covarianzas

    2). Se estima el modelo con la restriccin 2 = 0. Calcular los estimadores restringidos, $R , su matriz de varianzas y covarianzas y la diferencia entre la suma de los cuadrados de los residuos restringidos y la de los residuos MCO.

    3). Suponer que se quiere estimar por intrvalo la relacin ' en donde: ' = (1 , 0). Adoptando un nivel de significacin del 5% se pide determinar la amplitud de los intrvalos correspondientes a los estimadores MCO y restringidos.

    1.9). Suponer que el modelo que genera los datos es: ttt uxy += en donde la perturbacin cumple las hiptesis ideales. Considerar los siguientes tres estimadores:

    = 21

    t

    tt

    xyx ,

    =t

    t

    xy

    1 y = 2*

    **

    3

    t

    tt

    xyx

    en donde las variables con asterisco son desviaciones con respecto a las medias.

    1). Obtener el sesgo y la varianza de los tres estimadores.

    2). Demostrar que =),( 21 Cov 0)( 1 >Var y que el coeficiente de correlacin entre 1 y 2 es: [ ]212112 )(/)( VarVar= . Demostrar que si se define

    21)1( += el valor de que minimiza la varianza de este estimador es 1.

    3). Demostrar que =),( 32 Cov 0 y que la combinacin de estos dos estimadores que minimiza la varianza es .)1( 13

    2122

    212 =+=

  • 94