54
Econometr´ ıa de series de tiempo aplicada a macroeconom´ ıa y finanzas Series de Tiempo Estacionarias (Univariadas) Carlos Capistr ´ an Carmona ITAM

Econometría de series de tiempo aplicada a · PDF file100 150. Estacionariedad y ergodicidad Estacionariedad Se dice que un proceso estocastico´ xt es estacionario de segundo orden

  • Upload
    lynhu

  • View
    223

  • Download
    1

Embed Size (px)

Citation preview

Econometrıa de series de tiempo aplicada amacroeconomıa y finanzas

Series de Tiempo Estacionarias (Univariadas)

Carlos Capistran Carmona

ITAM

Serie de tiempo

Una serie de tiempo es una sequencia de valores usualmenteregistrados en intervalos de tiempo equidistantes.

xt t = 1, 2, ..., T.

Ejemplos:I Numero de nacimientos por ano en Mexico.I Produccion semanal de autos en VW Mexico.I Precios diarios del cierre de alguna accion (e.g., TELMEX).I Produccion industrial mensual en Mexico.I Inflacion mensual en Mexico.

Serie de tiempoEjemplo: Inflacion anual en Mexico 1925-2010

●●

●●●

●●

●●

●●

●●

●●●

●●

●●●●●●●●●

●●●●●●●●

●●

●●

●●●

●●

●●

●●●●●●●

●●●

Inflación Histórica

Años

Cam

bio

% e

n D

efla

ctor

del

PIB

1940 1960 1980 2000

050

100

150

Procesos estocasticos baseProceso iid (iid)

εt es un proceso independiente e identicamente distribuido (iid)si:

I εt, εs son independientes pero tienen la misma distribucion.

Ejemplo: xt = εt, εt ∼ N(0, 1), t = 1, ..., 100.

Proceso iid

Ejemplo: xt = εt, εt ∼ N(0, 1), t = 1, ..., 100.

-2.5

-2

-1.5

-1

-0.5

0

0.5

1

1.5

2

2.5

3

0 20 40 60 80 100

x

Procesos estocasticos baseMartingala en diferencias (md)

La secuencia M es llamada una martingala si:

E[Mt | Mt−j, j = 1, 2, ..., t

]= Mt−1.

Una Martingala en diferencias se define como: xt = Mt −Mt−1.I Propiedades:

E[xt | Mt−j, j ≥ 1

]= 0,

cov (xt, xt−k) = E[xtxt−k | Mt−j, j ≥ 1

]= 0.

Notese que no es independiente, ya que para eso se necesita:

E[(g(ξt − E [g (ξt)]) h(ξt−j)

]= 0.

Procesos estocasticos baseRuido Blanco

εt es un proceso de ruido blanco si:I corr (εt, εs) = 0 ∀ t 6= sI E [εt] es constante para todo t (usualmente 0).

Un proceso de ruido blanco basicamente no tiene estructuratemporal (lineal).Las principales propiedades de una serie de ruido blanco conmedia cero son:

I No hay correlacion entre terminosI Valores pasados no ayudan a pronosticar valores futuros

Si se utiliza un criterio de mınimos cuadrados, se puede mostrarque el mejor pronostico de todos los valores futuros de un procesode ruido blanco es simplemente la media de la serie.Notese que:

ruido blanco ; Martingala en diferencias ; iid.

Estacionariedad y ergodicidad

Primeros dos momentos de una serie de tiempo:

E (xt) = µt,cov(xt, xs) = λt,s.

¿Como se estiman si en cada momento del tiempo solo tenemosuna realizacion de cada variable aleatoria?

●●

●●●

●●

●●

●●

●●

●●●

●●

●●●●●●●●●

●●●●●●●●

●●

●●

●●●

●●

●●

●●●●●●●

●●●

Inflación Histórica

Años

Cam

bio

% e

n D

efla

ctor

del

PIB

1940 1960 1980 2000

050

100

150

Estacionariedad y ergodicidadEstacionariedad

Se dice que un proceso estocastico xt es estacionario de segundoorden (o “estacionario en covarianzas”) si sus primeros dosmomentos no dependen del tiempo:

E [xt] = µ,Var [xt] = σ2,

Cov [xt, xt−τ] = λτ.

Notese que la covarianzas solo dependen de la distancia y no deltiempo.Se dice que un proceso estocastico xt es estacionario en sentidoestricto si la distribucion conjunta de (xt, ..., xt−k) es independientede t para todo k (extremadamente difıcil de probar).

Estacionariedad y ergodicidadErgodicidad

La ergodicidad requiere que valores del proceso suficientementeseparados en el tiempo casi no esten correlacionados.Una definicion, aunque no muy estricta, es: una serie de tiempoestacionaria es ergodica si cov [xt, xt−τ]→ 0 cuando τ → ∞.La ergodicidad permite que al promediar una serie en el tiempo,uno este continuamente anadiendo informacion nueva y relevanteal promedio.Desafortunadamente no es posible probar ergodicidad,simplemente se asume.

Estacionariedad y ergodicidad

Si una serie de tiempo cumple con los supuestos deestacionariedad y ergodicidad, entonces es posible formarbuenos estimadores de las cantidades de interes promediando atraves del tiempo.Un estimador consistente de la media es la media muestral:

µ =1T

T

∑t=1

xt.

Un estimador consistente de la autocovarianza es laautocovarianza muestral:

λτ =1T

T

∑t=1

(xt − µ) (xt−τ − µ) .

Un estimador consistente de la autocorrelacion es laautocorrelacion muestral:

ρτ =λτ

λ0.

Operadores y filtros

Operador rezago:Ljxt = xt−j.

Operador diferencia:

∆jxt =(

1− Lj)

xt = xt − xt−j.

Un filtro cambia las propiedades dinamicas de una serie detiempo.

Operadores y filtrosEjemplos

Ejemplos de filtros:

xt = yt + 3yt−1 + 2yt−2,= (1 + 3L + 2L2)yt.

xt = yt − yt−1,xt = (1− L)yt.

Un ejemplo de la aplicacion del operador rezago:

xt = axt−1 + εt,(1− aL)xt = εt,

xt =εt

(1− aL),

si |a| < 1 entonces :

xt =∞

∑j=0

ajLjεt =∞

∑j=0

ajεt−j.

Modelos Autorregresivos (AR)AR(p)

Autorregresivo de orden p, AR(p):

xt =p

∑j=1

φjxt−j + εt,

εt : ruido blanco, E [εt] = µ, var (εt) = σ2

tambien puede escribirse como:

φp (L) xt = εt,

donde φp (L) = 1−p

∑j=1

φjLj.

Modelos Autorregresivos (AR)Condicion de estacionariedad

La condicion para que un AR(p) sea estacionario es que las raıcesde la ecuacion caracterıstica

1− φ1z− φ2z2 − ... ı−φpzp = 0,

esten fuera del cırculo unitario (i.e. que el inverso de las raıcesesten dentro del cırculo unitario, que es lo que usa Eviews).Lo que esta condicion garantiza es que el proceso

φp (L) xt = εt,

pueda escribirse como

xt = φp (L)−1 εt,

con φp (L)−1 convergiendo a cero, lo que implica que lasautocorrelaciones decaeran conforme aumenta la longitud delrezago.

Modelos Autorregresivos (AR)AR(1)

Algunos aspectos importantes de un AR(1):

xt = φxt−1 + εt empieza en t = 0,

xt =t

∑j=0

φjεt−j + x0φt.

asumiendo que x0 = 0, entonces:

E(xt) = µt

∑j=0

φj =

{µ[

1−φt+1

1−φ

]si φ 6= 1

µ (t + 1) si φ = 1

var (xt) = E[(xt − E (xt))

2]

= E

( t

∑j=0

φj (εt−j − µ))2

= σ2

t

∑j=0

φ2j =

{σ2[

1−φ2(t+1)

1−φ2

]si φ 6= 1

σ2 (t + 1) si φ = 1

Modelos Autorregresivos (AR)AR(1)

Un modelo AR(1):

xt = φxt−1 + εt

es estacionario si |φ| < 1.¿Porque?En este caso, la media y la varianza estan dadas por:

E(xt) =µ

1− φ

var(xt) =σ2

1− φ2

Modelos Autorregresivos (AR)AR(1)

La autocovarianza entre xt y xt−1 esta dada por:

cov(xt, xt−1) = E [(xt − E [xt]) (xt−1 − E [xt−1])]= E [xtxt−1] = E [(φxt−1 + εt) xt−1]= φE

[x2

t−1]+ E [εtxt−1] = φE

[x2

t−1]

= φvar(xt−1).

El segundo termino desaparece porque xt = ∑tj=0 φjεt−1−j y por lo

tanto E[εt ∑t−1

j=0 φjεt−1−j

]= E

[∑t−1

j=0 φjεtεt−1−j

]= 0.

Por lo tanto la autocorrelacion esta dada por:

ρ1 = corr(xt, xt−1) =cov(xt, xt−1)

var(xt)=

φvar(xt−1)var(xt)

= φ,

si var(xt) = var(xt−1) que ocurre cuando |φ| < 1.En general, la funcion de autocorrelacion esta dada por:

ρk = corr(xt, xt−k) = φk.

Modelos Autorregresivos (AR)

Ejemplo: xt = 0.9xt−1 + εt, con x0 = 0, εt ∼ N(0, 1), t = 1, ..., 100.

-5

-4

-3

-2

-1

0

1

2

3

4

0 20 40 60 80 100

x; A

R(1

), p

hi =

0.9

Modelos Autorregresivos (AR)Correlograma y correlograma parcial

-1

-0.5

0

0.5

1

0 2 4 6 8 10 12 14

lag

ACF for x; AR(1), phi = 0.9

+- 1.96/T^0.5

-1

-0.5

0

0.5

1

0 2 4 6 8 10 12 14

lag

PACF for x; AR(1), phi = 0.9

+- 1.96/T^0.5

Promedios Moviles (MA)MA(q)

Promedio movil de orden q, MA(q):

xt =q

∑j=0

θjεt−j θ0 = 1.

tambien puede escribirse como:

xt = θq(L)εt,

donde θq(L) = 1 +q

∑j=1

θjLj.

Promedios Moviles (MA)MA(1)

Algunos aspectos de un MA(1) :

xt = εt + θ1εt−1,

de donde se obtiene:

E [xt] = 0,

var(xt) = E[(xt − E [xt])

2]

= E[(xt)

2]

= E[(εt + θ1εt−1)

2]

= E[ε2

t + θ1εtεt−1 + θ21ε2

t−1]

=(1 + θ2

1)

σ2.

Promedios Moviles (MA)MA(1)

La autocovarianza de primer orden esta dada por:

cov(xt, xt−1) = E [(xt − E [xt]) (xt−1 − E [xt−1])]= E [xtxt−1] = E [(εt + θ1εt−1) (εt−1 + θ1εt−2)]= E

[εtεt−1 + θ1εtεt−2 + θ1ε2

t−1 + θ21εt−1εt−2

]= E

[θ1ε2

t−1]

= θ1σ2.

Por lo que la autocorrelacion de primer orden es:

corr(xt, xt−1) =cov(xt, xt−1)

var(xt)=

θ1σ2(1 + θ2

1

)σ2

=θ1(

1 + θ21

) .

notese que es posible estimar ρ1 = corr(xt, xt−1), pero entoncesobtendrıamos dos estimadores de θ1, uno siempre dentro de la region[−1, 1] , el otro siempre fuera de esa region.

Promedios Moviles (MA)MA(1)

La autocovarianza de segundo orden es:

cov(xt, xt−2) = E [xtxt−2]= E [(εt + θ1εt−1) (εt−2 + θ1εt−3)]= E

[εtεt−2 + θ1εtεt−3 + θ1εt−1εt−2 + θ2

1εt−1εt−3]

= 0.

de donde se observa que todas las autocovarianzas (y por lo tantoautocorrelaciones) mayores a q (el orden del MA) son cero.Los procesos MA siempre son estacionarios.

Promedios Moviles (MA)

Ejemplo: xt = εt + 0.9εt−1, con εt ∼ N(0, 1), t = 1, ..., 100.

-4

-3

-2

-1

0

1

2

3

0 20 40 60 80 100

x; M

A(1

), th

eta

= 0

.9

Promedios Moviles (MA)Correlograma y correlagrama parcial

-1

-0.5

0

0.5

1

0 2 4 6 8 10 12 14

lag

ACF for x; MA(1), theta = 0.9

+- 1.96/T^0.5

-1

-0.5

0

0.5

1

0 2 4 6 8 10 12 14

lag

PACF for x; MA(1), theta = 0.9

+- 1.96/T^0.5

Modelos Autorregresivos y de Promedios Moviles(ARMA)

Proceso autorregresivo y de promedios moviles de orden p,q,ARMA(p, q):

φp(L)xt = θq(L)εt.

Un ejemplo es el proceso ARMA(1, 1):

xt = φxt−1 + εt + θ1εt−1.

Modelos Autorregresivos y de Promedios Moviles(ARMA)

Los procesos mixtos pueden generarse agregando otros modelos.Por ejemplo:

xt ∼ AR(m), yt ∼ AR(n), xt ⊥ yt

φ1(L)xt = εt

φ2(L)yt = ηt

εt ⊥ ηt, con media cerozt = xt + yt

=εt

φ1(L)+

ηt

φ2(L)

=1

φ1(L)φ2(L)[φ2(L)εt + φ1(L)ηt]

φ1(L)φ2(L)zt = [φ2(L)εt + φ1(L)ηt]⇒ zt ∼ ARMA(m + n, r), r = max(m, n).

Metodologıa de Seleccion de Modelos Box-Jenkins

Los procesos ARMA tienen firmas (ACF y PACF) que permitenidentificarlos, sin embargo dichas firmas son demasiado parecidaso complejas, lo cual dificulta la seleccion de la especificacion.Box y Jenkins propusieron una tecnica estadıstica para la seleccionde un modelo ARMA que se ajuste a los datos, la cual consiste delas siguientes etapas

1 Identificacion2 Estimacion3 Diagnostico4 Pronostico

Metodologıa Box-Jenkins (Identificacion)Seleccion del orden de un ARMA(p,q)

Para seleccionar el orden del proceso, es decir, p y q, se utilizan losllamados criterios de informacion. Los dos mas populares son elAkaike (1974) y el Bayesiano de Schwarz (1978):

AIC = ln(

σ2p,q

)+

2(p + q)T

,

BIC = ln(

σ2p,q

)+

(p + q) ln(T)T

,

donde T es el tamano de la muestra. Se escogen los valores de p yq que minimizan el criterio de informacion seleccionado.En caso de que no sea posible discriminar entre modelos, esposible quedarnos con los modelos relevantes y tratar decombinarlos de alguna forma (modelado denso: “Thickmodeling”).

Metodologıa Box-Jenkins (Estimacion)Estimacion de un ARMA(p,q)

Bajo el supuesto de que se conoce el orden p y q del procesoARMA, es posible hacer uso distintos de metodos de estimacionde parametros los cuales son puestos en practica con la ayuda deprogramas computacionales.Si el orden del proceso ARMA no es conocido, este puede serestimado con la ayuda de los criterios de informacion. Para dichoproposito se estiman procesos ARMA de manera recursiva con unorden creciente tanto en p como en q ( p = 1, . . . , pmax yq = 1, . . . , qmax). Finalmente se elige la combinacion (p∗, q∗) queminimiza el criterio seleccionado.

Metodologıa Box-Jenkins (Estimacion)Estimacion de un AR(p)

Se mostrara la estimacion para el caso de un proceso AR(p), parael cual sus parametros pueden ser estimados mediante tresmetodos:

1 Maxima Verosimilitud2 Metodo de Momentos (Ecuaciones Yule-Walker)3 Mınimos Cuadrados

Metodologıa Box-Jenkins (Estimacion)Estimacion de un AR(p)

Maxima Verosimilitud

Si conocemos la distribucion del ruido blanco que genera elproceso AR(p), los parametros pueden ser estimados usando elmetodo de maxima verosimilitudTomando x1 como dada, la verosimilitud condicional para lasn− 1 observaciones restantes es

L∗ = p (x2, x3, . . . , xn|x1)= p (x2|x1) p (x3|x1, x2) (xn|x1, x2, . . . , xn−1)

Para obtener la verosimilitud no condicional habra que calcular

L = p (x1) L∗

Metodologıa Box-Jenkins (Estimacion)Estimacion de un AR(1)- Maxima Verosimilitud

Bajo el supuesto de un proceso AR(1) con ruido blanco gaussiano, i.e.

xt = φxt−1 + εt E[εt] = µ var[εt] = σ2

las distribuciones son:t = 1

x1 ∼ N(

µ

1− φ,

σ2

1− φ2

)t = 2

x2|x1 ∼ N(µ + φx1, σ2)

t > 1

xt|xt−1, . . . , x1 ∼ N(µ + φxt−1, σ2)

Metodologıa Box-Jenkins (Estimacion)Estimacion de un AR(1)- Maxima Verosimilitud

La funcion de Verosimilitud es

L =1√2π

(σ2

1− φ2

)− 12

exp

{−1− φ2

2σ2

(y1 −

µ

1− φ

)2}

T

∏t=2

1√2πσ2

exp

{(xt − φxt−1)

2

2σ2

}La log-verosimilitud es

l = −T2

ln(2π)− 12

ln(

σ2

1− φ2

)− 1− φ2

2σ2

(y1 −

µ

1− φ

)2

−n− 12

ln(σ2)− T

∑t=2

(xt − φxt−1)2

2σ2

la estimacion de los parametros se obtiene de maximizar ya seaanalıticamente o mediante una optimizacion numerica.

Metodologıa Box-Jenkins (Estimacion)Estimacion de un AR(p)

Metodo de Momentos - Ecuaciones Yule-Walker

Las ecuaciones Yule-Walker son extraıdas de la funcion deautocorrelacion de un proceso AR(p), la cual tiene la siguienteforma:

ρj ={

1, para j=0;φ1ρj−1 + φ2ρj−2 + . . . + φpρj−p, para j=1,2,. . . .

por lo tanto existen p parametros distintos y hay p ecuacionesYule-Walker. Se puede resolver este sistema reemplazando ρj(correlacion teorica) por ρj (correlacion muestral) y obtenerestimadores de los parametros φi para i = 1, 2, . . . , p.

Metodologıa Box-Jenkins (Estimacion)Estimacion de un AR(p)

Mınimos Cuadrados

Se ajusta por MCO la siguiente especificacion:

xt = φ1xt−1 + φ2xt−2 + · · ·+ φpxt−p + ut

si la ecuacion satisface las condiciones de estacionariedad MCOarroja estimadores consistentes. Ademas

√T(φi − φi

)i = 1, 2, . . . , p se distribuye asintoticamente normal.El estimador de MCO es equivalente al estimador de MV cuandoel vector de errores sigue una distribucion normal multivariada.

Metodologıa Box-Jenkins (Estimacion)Estimacion de un MA(q)

Se presenta la estimacion de un proceso MA(q) por el metodo deMaxima Verosimilitud, dicho metodo no es el unico disponiblepara estimarlo, pero cualquier metodo que pretenda hacerlo debeser capaz de estimar una funcion no lineal en los parametros (porejemplo, mınimos cuadrados no lineales).

Metodologıa Box-Jenkins (Estimacion)Estimacion de un MA(1)

Maxima Verosimilitud

Se calcula la funcion de verosimilitud, para el caso

xt = µ + εt + θεt−1 εt ∼i.i.d. N(0, σ2)

las probabilidades condicionales son:I t = 1 Bajo el supuesto ε0 = 0

x1|(ε0 = 0) ∼ N(µ, σ2)ε1 = x1 − µ

I t = 2

x2|(x1, ε0 = 0) ∼ N(µ− θε1, σ2)ε2 = x2 − µ− θε1

Metodologıa Box-Jenkins (Estimacion)Estimacion de un MA(1)

Las probabilidades condicionales son en general de la formap(yt|εt−1)

I t > 1

xt|(xt−1, . . . , x1, ε0 = 0) ∼ N(µ− θεt−1, σ2)εt = xt − µ− θεt−1

La funcion de verosimilitud es

L =T

∏t=1

p(yt|εt−1)

=T

∏t=1

1√2πσ2

exp{− ε2

t2σ2

}

Metodologıa Box-Jenkins (Estimacion)Estimacion de un MA(1)

La log-verosimilitud es

l = −T2

ln(2π)− T2

ln(σ2)− 12σ2

T

∑t=1

ε2t

el ultimo termino de la expresion es una funcion no lineal de losparametros por lo cual es necesario el uso de metodos iterativospara obtener los estimadores.La estimacion de un proceso ARMA(p, q) comparte el reto deestimacion presente en un proceso MA.

Metodologıa Box-Jenkins (Diagnostico)Pruebas de Diagnostico

La inferencia estadıstica que se hace a partir de MCO o MV puedeser aplicada en el contexto de la estimacion de un proceso ARMAsiempre y cuando se cumplan las condiciones de estacionariedad.Los residuales del modelo proveen informacion importante, siestos no aproximan un ruido blanco el modelo seleccionado no essatisfactorio y es necesario una nueva especificacion.

Metodologıa Box-Jenkins (Pronostico)Pronosticos por pasos

Denotemos por pt+h,t al pronostico realizado en t para el horizonteh.Se define el error de pronostico como et+h,t = xt+h − pt+h,t. Noteseque pt+h,t es conocido en el tiempo t, mientras que et+h,t y xt+h loson hasta el periodo t + h.El error cuadratico medio (ECM) de un pronostico es

ECM =H

∑h=1

e2t+h,t =

H

∑h=1

(xt+h − pt+h,t)2

el cual promedia el error de pronostico de manera simetrica.Se puede demostrar que el mınimo en el ECM se alcanza cuandoel pronostico de la variable pt+h,t es la esperanza condicional de lavariable xt+h, dada toda la informacion disponible en el tiempo t.

Metodologıa Box-Jenkins (Pronostico)Pronosticos por pasos para un AR(1)

Consideramos un proceso AR(1) de la forma

xt = φxt−1 + εt E[εt] = µ var[εt] = σ2

Para calcular el pronostico un paso hacia adelante del procesopartimos de saber que su verdadero valor es

xt+1 = φxt + εt+1

El pronostico, es la esperanza condicional de xt+1 dada lainformacion disponible en el tiempo t, cuando se minimiza elECM esto es

pt+1,t = E[xt+1|xt] = φxt + µ

el error asociado es

et+1,t = xt+1 − E[xt+1|xt]= xt+1 − φxt − µ

= εt+1 − µ

Metodologıa Box-Jenkins (Pronostico)Pronosticos por pasos para un AR(1)

El pronostico dos pasos hacia adelante es

pt+2,t = E[xt+2|xt] = φE[xt+1|xt] + µ = φ2xt + (1 + φ)µ

et+2,t = xt+2 − E[xt+2|xt]= φxt+1 + εt+2 − φE[xt+1|xt]− µ

= φet+1,t + εt+2 − µ

= εt+2 + φεt+1 − (1 + φ)µ

El pronostico h pasos hacia adelante es

pt+h,t = E[xt+h|xt] = φhxt + µ(

1 + φ + φ2 + · · ·+ φh−1)

et+h,t = εt+h + φεt+h−1 + φ2εt+h−2 + · · ·+ φh−1εt+1

−(

1 + φ + φ2 + · · ·+ φh−1)

µ

Metodologıa Box-Jenkins (Pronostico)Pronosticos por pasos para un AR(1)

Las propiedades del error de pronostico de horizonte h son

E[et+h,t] = 0

Var[et+h,t] =(

1 + φ2 + φ4 + · · ·+ φ2(h−1))

σ2

Conforme el horizonte de pronostico crece

pt+h,t −→µ

1− φcuando h −→ ∞

Var[et+h,t] −→σ2

1− φ2 cuando h −→ ∞

i.e. el valor pronosticado tiende a la media no condicional delproceso, y la varianza del error de pronostico se incrementa haciala varianza no condiconal del proceso.

Metodologıa Box-Jenkins (Pronostico)Pronosticos por pasos para un AR(1)

Al tener una distribucion para el error de pronostico es posibleconstruir intervalos de confianza (IC) para los pronosticos h pasoshacia adelante.Para el caso de un pronostico un paso hacia adelante

et+1,t ∼ N(0, (1 + φ)σ2)

por lo cual un IC al 95 % esta dado por

IC : µ + φxt ± 1,96[(1 + φ)σ2] 1

2

Metodologıa Box-Jenkins (Pronostico)Pronosticos por pasos para un MA(1)

Consideremos un proceso MA(1) de la forma

xt = µ + εt + θεt−1 E[εt] = 0 var[εt] = σ2

Para calcular el pronostico un paso hacia adelante del procesopartimos de saber que su verdadero valor es

xt+1 = µ + εt+1 + θεt

El pronostico, cuando se minimiza el ECM, es

pt+1,t = E[xt+1|xt] = µ + θεt

El valor de εt depende de los valores previos de ε, para laimplementacion es comun fijar ε0 = 0, esta aproximacion pierdeimportancia conforme el tamano de muestra crece.Calculamos el error asociado

et+1,t = xt+1 − E[xt+1|xt]= xt+1 − µ− θεt = εt+1

Metodologıa Box-Jenkins (Pronostico)Pronosticos por pasos para un MA(1)

El pronostico dos pasos hacia adelante es

pt+2,t = E[xt+2|xt] = µ

et+2,t = xt+2 − E[xt+2|xt] = xt+2 − µ = εt+2 + θεt+1

En un proceso MA(1) el pronostico por pasos tiene el siguienteesquema

pt+h,t = µ h ≥ 2var(et+h,t) = (1 + θ2)σ2 h ≥ 2

para dos periodos adelante, el pronostico de un MA(1) essimplemente la media no condicional de la serie, y la varianza delerror de pronostico es la varianza de la serie.

Teorema de Wold

xt univariada, estacionaria y con media cero. It consiste del pasadoy del presente de la serie: xt−j, j ≥ 0.(Representacion de Wold) Cualquier proceso estacionario {xt}puede representarse como:

xt = c(L)εt + vt =∞

∑j=0

cjεt−j + vt,

donde c0 = 1 y ∑∞j=0 c2

j < ∞. El termino εt es ruido blanco yrepresenta el error hecho al pronosticar xt basandose en unafuncion lineal de rezagos de xt :

εt = xt − P(xt | It−1).

vt un proceso linealmente determinıstico y no esta correlacionadocon εt−j ∀j, mientras que ∑∞

j=0 cjεt−j es llamado el componentelinealmente no determinıstico (i.e. estocastico).

Procesos Determinısticos

Son aquellos que pueden ser pronosticados perfectamente, dadoque conocemos la funcion que los genera.Por ejemplo, si la funcion generadora es:

yt = a + bt,

entonces, el valor de yt+1 puede ser pronosticado perfectamente,al igual que el de yt+k :

yt+1 = a + b(t + 1),yt+k = a + b(t + k).

Descomposicion Tradicional de una Serie de Tiempo

Una serie de tiempo puede pensarse como compuesta de distintoselementos, algunos de ellos determinısticos y otros estocasticos:

yt = tendencia + estacionalidad + resto,yt = t + s + ε,

los dos primeros han sido considerados tradicionalmente comodeterminısticos, asi que la parte estocastica es a lo que llamamosresto.La tendecia puede ser lineal, o puede ser ajustada por unpolinomio de mas alto grado. Tambien puede presentar cambiosestructurales o ser estocastica. En caso de presentar tendencia, lasseries son no estacionarias.

Estacionalidad

Existen varios metodos para tratar datos estacionales:En el caso en que sea verdaderamente repetitiva, podemos utilizar

un filtro de promedios moviles: y∗t =12∑

j=−12ajyt−j aj = a−j.

Incluir una variable dicotomica (dummy) para cada “estacion” (yno incluir una constante). Esto asume que la estacionalidad nocambia en la muestra.Usar datos “ajustados estacionalmente”. El factor estacional seestima tıpicamente usando un filtro de dos lados para los datos decada “estacion” en anos contiguos. De esta forma se puedenextraer una amplia gama de factores estacionales. Algunos filtrosson el X-12 ARIMA o el TRAMO-SEATS. Sin embargo, el ajusteestacional tambien altera las auto-correlaciones de las series.Aplicar una diferencia estacional. Si s es el numero de estaciones(4 para trimestres, 12 para meses), entonces: ∆syt = yt − yt−s. Laserie ∆syt esta libre de estacionalidad, sin embargo, esto tambienelimina la tendencia de largo plazo.

Bibliografıa

Box, George E.P., Gwilym M. Jenkins y Gregory C. Reinsel. 2008.Time Series Analysis Forecasting and Control. 4a ed. NewJersey:Wiley.

Brooks, Chris. 2008. Introductory Econometrics for Finance. 2a ed.Cambridge:Cambridge University Press.

Enders, Walter. 2010. Applied Econometric Time Series. 3a ed. NewJersey:Wiley.

Guerrero, Vıctor. 2003. Analisis Estadıstico de Series de TiempoEconomicas. 2a ed. Mexico:Thomson.

Granger, Clive W.J. y Paul Newbold. 1986. Forecasting EconomicTime Series. 2a ed. San Diego:Academic Press.

Hamilton, James D. 1994. Times Series Analysis. PrincetonUniversity Press.