Upload
el-hafa-d-abdellah
View
227
Download
0
Embed Size (px)
Citation preview
8/18/2019 Séries Chro Insea
1/116
Séries chronologiques
Version de 2015 en cours d’amélioration à ne pas diffuser
8/18/2019 Séries Chro Insea
2/116
Rappels.
Processus stochastique : suite de variables aléatoires indicéespar le temps.
⇒ temps discret : X 1, X 2, . . . , X t, . . . avec t ∈ Z.⇒ temps continu : X t, t ≥ 0, t ∈ Θ où Θ est un intervalle de R.
Série temporelle ou chronologique ou chronique : réalisationd’un processus stochastique.
♠ Dans ce cours, on se limitera qu’au cas des processusstochastiques à temps discret.
Version de 2015 en cours d’amélioration à ne pas diffuser
8/18/2019 Séries Chro Insea
3/116
Moments du processus stochastique.
Souvent, on s’intéresse aux deux premiers moments de la loi duprocessus
E (X 1), E (X 2), . . . , E (X t), . . . .V (X 1), V (X 2), . . . , V (X t), . . . .Cov(X 1, X 2), Cov(X 1, X 3), . . . , Cov(X i, X j), . . . avec i = j.
Version de 2015 en cours d’amélioration à ne pas diffuser
8/18/2019 Séries Chro Insea
4/116
Stationnarité.
Une des grandes questions dans l’étude de séries temporelles est desavoir si celles-ci suivent un processus stationnaire.Cette stationnarité joue un rôle majeur en séries temporelles car elleremplace de manière naturelle l’hypothèse d’observations
indépendantes et identiquement distribuées (i.i.d.) en statistiquestandard. Garantissant que l’accroissement de la taille del’échantillon s’accompagne d’une augmentation du même ordre del’information, la stationnarité est à la base d’une théorieasymptotique générale. On considère la notion de stationnarité
forte ou stricte et celle de la stationnarité faible ou au second ordre.
Version de 2015 en cours d’amélioration à ne pas diffuser
8/18/2019 Séries Chro Insea
5/116
Stationnarité stricte.
Parfois, on étudie la loi des échantillons
(X t1 , X t2 , . . . , X tn).
Lorsque les lois de (X t1 , X t2 , . . . , X tn) ne sont pas affectées partranslation dans le temps, on dit que le processus X est strictementstationnaire :
ℓ(X t1 , X t2 , . . . , X tn) = ℓ(X t1+k, X t2+k, . . . , X tn+k).
Lorsque X est strictement stationnaire, toutes les observations ontla même loi :
ℓ(X t) = ℓ(X t+k).
Version de 2015 en cours d’amélioration à ne pas diffuser
8/18/2019 Séries Chro Insea
6/116
Stationnarité faible.
On peut relâcher cette hypothèse et se concentrer sur les deux
premiers moments. Dans ce cas, on parle de processus (faiblement)stationnaire ou stationnaire au second ordre.
Version de 2015 en cours d’amélioration à ne pas diffuser
8/18/2019 Séries Chro Insea
7/116
Stationnarité faible.
Le processus X = (X t)t∈Z est stationnaire si
1) l’espérance est stable au cours du temps :E (X 1) = E (X 2) = · · · = E (X t) = m.
2) la variance est stable au cours du temps :
V (X 1) = V (X 2) = · · · = V (X t) = σ2.3) les covariances sont stables au cours du temps :
Cov(X 1, X 1+k) = Cov(X 2, X 2+k) =
· · ·= Cov(X t−k, X t)
= · · · = Cov(X t, X t+k) = · · · = γ k.
Les covariances ne dépendent que du délai k entre les variablesconsidérées, et pas de la date t à laquelle elles sont évaluées.
Version de 2015 en cours d’amélioration à ne pas diffuser
8/18/2019 Séries Chro Insea
8/116
Remarque.
Cette définition de la stationnarité faible est moins exigeante que lastationnarité stricte car elle n’impose de contraintes qu’aux deuxpremiers moments des variables (X t), mais contrairement à la
stationnarité stricte, elle requiert l’existence de ceux-ci.N.B.Stricte stationnarité+E (X 2t ) < ∞=⇒ stationnarité faible. Maisl’inverse n’est pas vraie. Il faut que E (X 2t ) existe. Maisstationnarité faible+gaussien =⇒ stricte stationnarité .
Version de 2015 en cours d’amélioration à ne pas diffuser
8/18/2019 Séries Chro Insea
9/116
Autocorrélations - Autocorrélogramme.
Pour un processus X stationnaire
ρk := ρ(k) = Cov(X t, X t−k)
V (X t)V (X t−k)=
γ k
γ 0
= γ k
σ
2.
Les autocorrélations ne dépendent que du délai k entre les variablesconsidérées, et pas de la date t à laquelle elles sont évaluées.On représente les autocorrélations par un autocorrélogramme.
Version de 2015 en cours d’amélioration à ne pas diffuser
8/18/2019 Séries Chro Insea
10/116
Exemple d’autocorrélogramme.
-1
-0,5
0
0,5
1
0 5 10 15 20 25 30 35 40retard
ACF pour Trafic
+- 1,96/T0,5
-1
-0,5
0
0,5
1
0 5 10 15 20 25 30 35 40
retard
PACF pour Trafic
+- 1,96/T0,5
Version de 2015 en cours d’amélioration à ne pas diffuser
8/18/2019 Séries Chro Insea
11/116
Remarque.
1 ρ0 := ρ(0) = 12 −1 ≤ ρh := ρ(h) ≤ 1,∀h.3 Lorsque X est stationnaire, on a
Cov(X t, X
t−
h) = Cov(X
t+h, X
t) = Cov(X
t, X
t+h)
et γ h := γ (h) = γ −h := γ (−h).Par conséquent ρh := ρ(h) = ρ−h := ρ(−h).
La fonction γ (·) (resp. ρ(·)) est appelée fonction d’autocovariance(resp. fonction d’autocorrélation) de X . En particulierγ X (0) = Var (X t).
Version de 2015 en cours d’amélioration à ne pas diffuser
8/18/2019 Séries Chro Insea
12/116
Estimation de m, σ2, ρ1, ρ2. . . .
Pour un processus stationnaire, m, σ2, ρ1, ρ2, . . . peuvent être
estimés de manière convergente :
m̂ = X = 1
T
T t=1
X t → m, T → ∞.
σ̂2 = 1
T
T t=1
(X t −X )2 → σ2, T → ∞.
ρ̂k =
1T −k
T t=k+1(X t −X )(X t−k −X )
σ̂2 → ρk, T → ∞.Ces quantités doivent être interprétées avec prudence lorsque X n’est pas stationnaire.
Version de 2015 en cours d’amélioration à ne pas diffuser
8/18/2019 Séries Chro Insea
13/116
Autre estimation des autocovariances γ k.
Pour estimer γ (k), on utilise souvent l’autocovariance empirique
définie par
γ̂ k := γ̂ (k) = 1
T
T −kt=1
(X t −X )(X t+k −X ) = γ̂ −k := γ̂ (−k),
pour 0 ≤ k < T .De manière analogue, on définit la fonction d’autocorrélationempirique par ρ̂(k) = γ̂ (k)/γ̂ (0) pour |k| < T .Ces estimateurs sont biaisés mais asymptotiquement sans biais. Il
existe d’autres estimateurs similaires de la fonction d’autocovariancepossédant les mêmes propriétés asymptotiques ( par exemple enremplaçant 1/T par 1/(T − k)), comme le précédent.
Version de 2015 en cours d’amélioration à ne pas diffuser
8/18/2019 Séries Chro Insea
14/116
Formules de Bartlett.
Pour la sélection de modèles, par exemple, il est souvent importantde déterminer si les les autocovariance empiriques sontsignificativement différentes de zéro au-delà d’un certain rang. Pourcela il est nécessaire d’estimer la structure de covariance de cesautocovariance empiriques. On a le résultat suivant (voir parexemple Brockwell et Davis (1991), Proposition 7.3.1, p. 219):
Version de 2015 en cours d’amélioration à ne pas diffuser
8/18/2019 Séries Chro Insea
15/116
Formules de Bartlett.
Théorème :
Si X est un processus linéaire, c’est-à-dire s’il satisfait
X t =∞
ℓ=−∞
Ψℓǫt−ℓ
où (ǫt) est une suite de variables i.i.d., telles que
E (ǫt) = 0, E (ǫ2t ) = σ
2, E (ǫ4t ) = ησ4 < ∞, η := E (ǫ
4t )
[E (ǫ2t )]2 ∀ t ∈ Z,
et où ∞ℓ=−∞ |Ψℓ| < ∞, on a les formules de Bartlett :lim
n→∞nCov{γ̂ (h), γ̂ (k)} = (η − 3)γ (h)γ (k)
+∞
ℓ=−∞[γ (ℓ)γ (ℓ + k − h) + γ (ℓ + k)γ (ℓ − h)].
Version de 2015 en cours d’amélioration à ne pas diffuser
8/18/2019 Séries Chro Insea
16/116
Autre résumé de la dynamique d’un processus stationnaire.
Les autocorrélations partielles : on définitrk : l’autocorrélation partielle d’ordre krk est le coefficient de X t−k dans la régression de X t sur X t−1,X t−2, . . . , X t−k.L’autocorrélation partielle entre X t et X t−k est la corrélation entre
ces variables ajustées en enlevant l’information provenant desvaleurs intermédiaires (i.e. des dates t− 1, t − 2, . . . , t − k + 1).Lorsque le processus X est stationnaire, ses autocorrélationspartielles peuvent être estimées par la méthode des moindres carrésordinaires et on a :
r̂k → rk, T → ∞.
Version de 2015 en cours d’amélioration à ne pas diffuser
8/18/2019 Séries Chro Insea
17/116
Autocorrélations partielles.
DéfinitionLes autocorrélations partielles sont les corrélations résiduelles entreX t et X t−h une fois enlevée l’influence linéaire des valeursintermédiaires X t−1, . . . , X t−h+1. On note:
r(h) = Corr(X t, X t−h|X t−1, . . . , X t−h+1).On montre que :
r(h) = ah,h, où X t = ah,1X t−1 +· · ·
+ ah,hX t−h + uh,t,
avec uh,t le résidu de la régression linéaire.
Version de 2015 en cours d’amélioration à ne pas diffuser
l l d l ll l h d b
8/18/2019 Séries Chro Insea
18/116
Calcul des autocorrélations partielles : algorithme de Durbin.
On peut calculer r(h) rapidement, à partir de ρ(1), . . . , ρ(h), àl’aide de l’algorithme de Durbin :
a1,1 = ρ(1)
ah,h = ρ(h)−
h−1
i=1 ρ(h−i)ah−1,i
1−h−1
i=1 ρ(i)ah−1,i
ah,i = ah−1,i − ah,hah−1,h−i, i = 1, . . . , h − 1.
Pour plus de détail, voir Monfort et Gourieroux p. 131-134.
Version de 2015 en cours d’amélioration à ne pas diffuser
C l l d l ll
8/18/2019 Séries Chro Insea
19/116
Calcul des autocorrélations partielles.
Le calcul de k autocorrélations partielles nécessite l’estimation de k
régressions :Calcul de r1 :X t = r1X t−1 + ut
Calcul de r2 :X
t = α
1X
t−1
+ r2
X t−2
+ ut
Calcul de r3 :
X t = α1X t−1 + α2X t−2 + r3X t−3 + ut.
Calcul de rk :
X t = α1X t−1 + α2X t−2 + · · · + rkX t−k + ut.
Version de 2015 en cours d’amélioration à ne pas diffuser
R
8/18/2019 Séries Chro Insea
20/116
Remarque.
1 On pose: r0 = 1
2 −1 ≤ rk ≤ 1,∀k.3 rk = r−k4 On représente les autocorrélations partielles à l’aide de
l’autocorrélogramme partiel.
Version de 2015 en cours d’amélioration à ne pas diffuser
E l d’ él i l
8/18/2019 Séries Chro Insea
21/116
Exemple d’autocorrélogramme partiel.
-1
-0,5
0
0,5
1
0 5 10 15 20 25 30 35 40
retard
ACF pour Trafic
+- 1,96/T0,5
-1
-0,5
0
0,5
1
0 5 10 15 20 25 30 35 40
retard
PACF pour Trafic
+- 1,96/T0,5
Version de 2015 en cours d’amélioration à ne pas diffuser
E l 1 l b it bl
8/18/2019 Séries Chro Insea
22/116
Exemple 1 : le bruit blanc:
Le processus ǫ = (ǫt) est appelé bruit blanc faible s’il vérifie
(i) Eǫt = 0 ∀ t ∈ Z, (ii) Var(ǫt) = Eǫ2t = σ2 ∀ t ∈ Z,(iii) Cov (ǫt, ǫt+h) = 0 ∀ h, t ∈ Z, h = 0,
→ Si on remplace l’hypothèse (iii) par l’hypothèse plus forte(iii’) que les variables ǫt et ǫt−h sont indépendantes.
On parle alors de bruit blanc fort.Un bruit blanc est un processus stationnaire. Si on ajoute une
hypothèse de normalité, on parle de bruit blanc gaussien. Un bruitblanc gaussien est un processus strictement stationnaire.
Version de 2015 en cours d’amélioration à ne pas diffuser
T j t i i lé d’ b it bl f t
8/18/2019 Séries Chro Insea
23/116
Trajectoire simulée d un bruit blanc fort.
Time
t s ( s e r i e
)
0 50 100 150 200
− 2
− 1
0
1
2
3
Version de 2015 en cours d’amélioration à ne pas diffuser
Remarque
8/18/2019 Séries Chro Insea
24/116
Remarque.
Les autocorrélations et autocorrélations partielles d’un bruit blancsont toutes nulles (sauf ρ0 et r0) :
ρ0 = r0 = 1
ρi = ri = 0, ∀i > 0.
Version de 2015 en cours d’amélioration à ne pas diffuser
Exemple 2 : la moyenne mobile d’ordre 1
8/18/2019 Séries Chro Insea
25/116
Exemple 2 : la moyenne mobile d ordre 1.
Soit ǫ = (ǫt) un bruit blanc de variance σ2. On définit
X t = ǫt − θǫt−1,
où θ ∈ (−1, 1) et θ = 0. On obtient :
E (X t) = E (ǫt)− θE (ǫt−1) = 0,
V (X t) = V (ǫt) + θ2V (ǫt−1)− 2θCov(ǫt, ǫt−1)
= (1 + θ2
)σ2
,
Version de 2015 en cours d’amélioration à ne pas diffuser
Exemple 2 : suite
8/18/2019 Séries Chro Insea
26/116
Exemple 2 : suite.
Cov(X t, X t−1) = Cov(ǫt − θǫt−1, ǫt−1 − θǫt−2)= Cov(ǫt, ǫt−1)− θCov(ǫt, ǫt−2)
−θCov(ǫt−1, ǫt−1) + θ2Cov(ǫt−1, ǫt−2)= −θV (ǫt−1) = −θσ2,
Cov(X t, X t−2) = Cov(ǫt − θǫt−1, ǫt−2 − θǫt−3)= Cov(ǫt, ǫt−2)− θCov(ǫt, ǫt−3)
−θCov(ǫt−1, ǫt−2) + θ
2Cov(ǫt−1, ǫt−3)
= 0,
On en déduit que : Cov(X t, X t−h) = 0,∀h ≥ 2.La moyenne mobile d’ordre 1 est stationnaire.
Version de 2015 en cours d’amélioration à ne pas diffuser
Trajectoire simulée d’une moyenne mobile d’ordre 1
8/18/2019 Séries Chro Insea
27/116
Trajectoire simulée d une moyenne mobile d ordre 1(θ = 0.6).
Time
t s ( s e r i e )
0 50 100 150 200
− 3
− 2
− 1
0
1
2
3
Version de 2015 en cours d’amélioration à ne pas diffuser
Trajectoire simulée d’une moyenne mobile d’ordre 1
8/18/2019 Séries Chro Insea
28/116
Trajectoire simulée d une moyenne mobile d ordre 1(θ = −0.6).
Time
t s ( s e r i e )
0 50 100 150 200
− 3
− 2
− 1
0
1
2
3
4
Version de 2015 en cours d’amélioration à ne pas diffuser
Autocorrélogramme : la moyenne mobile d’ordre 1
8/18/2019 Séries Chro Insea
29/116
Autocorrélogramme : la moyenne mobile d ordre 1.
ρ0 = 1
ρ1 = −θσ2(1 + θ2)σ2
= −θ1 + θ2
ρ2 = 0
...
ρh = 0,∀h ≥ 2.
Toutes les autocorrélations sont nulles à partir de l’ordre 2.
Version de 2015 en cours d’amélioration à ne pas diffuser
Autocorrélogramme partiel: la moyenne mobile d’ordre 1
8/18/2019 Séries Chro Insea
30/116
Autocorrélogramme partiel: la moyenne mobile d ordre 1.
r0 = 1
r1 = ρ1 = −θ1 + θ2
r2 = ρ2 − ρ21
1− ρ21=
0− −θ1+θ2
21−
−θ1+θ2
2 = −θ2(1 + θ2)2 − θ2 = −θ2
1 + θ2 + θ4
r1 est du signe de θ et r2 est toujours négative.
Version de 2015 en cours d’amélioration à ne pas diffuser
Autocorrélogramme partiel: la moyenne mobile d’ordre 1
8/18/2019 Séries Chro Insea
31/116
Autocorrélogramme partiel: la moyenne mobile d ordre 1.
On peut montrer que :
rh = θ(1 + θ2)
1 + θ2 + θ4rh−1,
∀h
≥2.
Les autocorrélations partielles décroissent mais ne s’annulent jamais.
Version de 2015 en cours d’amélioration à ne pas diffuser
Exemple 3 : la marche aléatoire.
8/18/2019 Séries Chro Insea
32/116
Exemple 3 : la marche aléatoire.
Soit ǫ = (ǫt) un bruit blanc de variance σ2. On définit
X 0 = 0
X 1 = X 0 + ǫ1 = ǫ1
X 2 = X 1 + ǫ2 = ǫ1 + ǫ2...
X t = X t−1 + ǫt
= ǫ1 + ǫ2 +
· · ·+ ǫt
Version de 2015 en cours d’amélioration à ne pas diffuser
Exemple 3 : moments d’une marche aléatoire.
8/18/2019 Séries Chro Insea
33/116
e p e 3 o e ts d u e a c e a éato e
Soit ǫ = (ǫt) un bruit blanc de variance σ2. On définit
E (X t) = E (ǫ1 + ǫ2 + · · · + ǫt) = 0V (X t) = V (ǫ1 + ǫ2 + · · · + ǫt)
= V (ǫ1) + V (ǫ2) + · · · + V (ǫt)
+ 2Cov(ǫ1, ǫ2) + 2Cov(ǫ1, ǫ3) + . . .= σ2 + σ2 + · · · + σ2 = tσ2
La marche aléatoire n’est pas stationnaire : sa variance estexplosive.
En revanche, l’accroissement d’une marche aléatoire, c’est-à-dire leprocessus défini par X t −X t−1, est stationnaire (c’est un bruitblanc).
Version de 2015 en cours d’amélioration à ne pas diffuser
Transformations de processus stationnaires.
8/18/2019 Séries Chro Insea
34/116
p
Si X est strictement stationnaire, alors toute transformation(indépendante du temps) de ce processus est encorestrictement stationnaire.
Si X est stationnaire et si a1, a2, . . . , a p sont des coefficientsréels, alors le processus Y = (Y t) défini par :
Y t = X t + a1X t−1 + a2X t−2 + · · · + a pX t− pest aussi stationnaire.
Version de 2015 en cours d’amélioration à ne pas diffuser
Transformations de processus stationnaires.
8/18/2019 Séries Chro Insea
35/116
p
Si X est stationnaire et si les coefficients ai sont, absolumentsommables, tels que
∞
i=0 |ai| < ∞, alors le processus Y défini par :
Y t =∞i=0
aiX t−i
est aussi stationnaire.
Version de 2015 en cours d’amélioration à ne pas diffuser
L’innovation d’un processus X t.
8/18/2019 Séries Chro Insea
36/116
p t
L’innovation de X t à la date t :
X t − EL {X t|X t−1, X t−2, . . . } ,
où EL {X t|X t−1, X t−2, . . . } désigne la régression linéaire d’unevariable de carré intégrable X t sur X t−1, X t−2, . . . . L’innovationd’un processus est la part de celui-ci qui est impossible à prévoir(linéairement) à partir de la connaissance du passé.
Propriété :
Lorsque X est stationnaire, son innovation est un bruit blanc.
Version de 2015 en cours d’amélioration à ne pas diffuser
Décomposition de Wold-Cramér.
8/18/2019 Séries Chro Insea
37/116
Si X est un processus stationnaire tel que : L’innovation de X t à la
date t : limk→∞
E {X t|X t−k, X t−k−1, . . . } = E (X t),alors il existe un bruit blanc ǫ tel que :
X t = m + ǫt + α1ǫt−1 + α2ǫt−2 + . . .
= m +∞i=0
αiǫt−i
avec α0 = 1 et 1 + α21 + α22 + · · · < ∞.X s’écrit sous forme moyenne-mobile infinie [M A(∞)](=moving-average en anglais).
Version de 2015 en cours d’amélioration à ne pas diffuser
L’opérateur avance ou retard noté B ou L.
8/18/2019 Séries Chro Insea
38/116
L’opérateur retard L :
LX t = X t−1
L2X t = L(LX t) = LX t−1 = X t−2
LkX t = X t−k
On peut considérer des polynômes en L :
A(L) = 1− a1L − a2L2 − · · · − a pL p→ A(L)X t = (1− a1L− a2L2 − · · · − a pL p)X t
= X t − a1LX t − a2L2X t − · · · − a pL pX t= X t − a1X t−1 − a2X t−2 − · · · − a pX t− p
Version de 2015 en cours d’amélioration à ne pas diffuser
L’opérateur avance ou retard noté B ou L.
8/18/2019 Séries Chro Insea
39/116
ou, même, des séries en L :
A(L) =
∞i=0
aiLi
→ A(L)X t = (a0 + a1L + a2L2 + · · · + a pL p + . . . )X t= a0X t + a1LX t + a2L
2X t + · · · + a pL pX t + . . .= a0X t + a1X t−1 + a2X t−2 + · · · + a pX t− p + . . .=
∞i=0
aiX t−i.
On a aussi :L−1X t = BX t = X t+1
L−kX t = BkX t = X t+k
B est appelé opérateur avance.Version de 2015 en cours d’amélioration à ne pas diffuser
Les processus autorégressifs.
8/18/2019 Séries Chro Insea
40/116
Un processus autorégressif d’ordre p est un processus stationnaires’écrivant sous la forme :
X t = a1X t−1 + a2X t−2 + · · · + a pX t− p + ǫtoù a1, a2, . . . , a p ∈ R, a p = 0 et ǫt est un bruit blanc. On parle deprocessus AR( p).
Version de 2015 en cours d’amélioration à ne pas diffuser
Processus AR( p).
8/18/2019 Séries Chro Insea
41/116
On introduit le polynôme
A(L) = 1− a1L− a2L2 − · · · − a pL p
qui permet d’écrire le modèle autorégressif sous une forme trèscompacte :
X t = a1X t−1 + a2X t−2 + · · · + a pX t− p + ǫtX t − a1X t−1 − a2X t−2 − · · · − a pX t− p = ǫt(1− a1L− a2L2 − · · · − a pL p)X t = ǫt→ A(L)X t = ǫt
Version de 2015 en cours d’amélioration à ne pas diffuser
Processus AR( p) : stationnarité.
8/18/2019 Séries Chro Insea
42/116
Pour que le processus soit stationnaire , il faut que les coefficientsremplissent des contraintes assez compliquées : il faut que les psolutions x∗1, x
∗2, . . . , x
∗ p de l’équation caractéristique :
1− a1x− a2x2 − · · · − a px p = 0
soient telles que |x∗i | > 1, i = 1, 2, . . . , p.
Version de 2015 en cours d’amélioration à ne pas diffuser
Processus AR( p) : écriture MA(∞).
8/18/2019 Séries Chro Insea
43/116
Si ces contraintes sont satisfaites, le processus X t peut s’écriresous forme moyenne-mobile infinie [M A(∞)] :
X t = A(L)−1ǫt
= ǫt + α1ǫt−1 + α2ǫt−2 + . . .
Innovation de X t :
EL[X t|X t−1, X t−2, . . . ] = a1X t−1 + a2X t−2 + · · · + a pX t− p
Donc X t − EL[X t|X t−1, X t−2, . . . ] = ǫt.ǫt est l’innovation de X t.
Version de 2015 en cours d’amélioration à ne pas diffuser
Exemple : le processus autorégressif d’ordre 1 [AR(1)].
8/18/2019 Séries Chro Insea
44/116
Un processus autorégressif d’ordre 1 est un processus stationnaireX défini par :
X t = aX t−1 + ǫt
où a
∈R et ǫt est un bruit blanc.
On peut écrire :
X t − aX t−1 = (1− aL)
A(L)
X t = ǫt
Version de 2015 en cours d’amélioration à ne pas diffuser
1. Etude de la stationnarité du processus AR(1).
8/18/2019 Séries Chro Insea
45/116
L’équation caractéristique est :1− ax = 0.
Sa solution est :
x∗
=
1
a .
Pour que X soit stationnaire, il faut donc que :
|x∗| = 1
a > 1 ⇒ |a|
8/18/2019 Séries Chro Insea
46/116
Par remplacements successifs, on obtient :X t = a X t−1
aX t−2+ǫt−1
+ǫt = a(aX t−2 + ǫt−1) + ǫt
= a2X t−2 + aǫt−1 + ǫt
= a2(aX t−3 + ǫt−2) + aǫt−1 + ǫt
= a3X t−3 + a2ǫt−2 + aǫt−1 + ǫt
...
= ǫt + aǫt−1 + a2
ǫt−2 + · · · + ak−1
ǫt−k+1 + ak
X t−k
Version de 2015 en cours d’amélioration à ne pas diffuser
2. Écriture moyenne-mobile infinie du processus AR(1).
8/18/2019 Séries Chro Insea
47/116
Intuitivement, si −1 < a
8/18/2019 Séries Chro Insea
48/116
On a deux écritures équivalentes du modèle :
(1− aL)X t = ǫt ⇔ X t = ∞i=0
aiLi
ǫt.
On peut donc conclure que
(1− aL)−1 =∞i=0
aiLi.
Version de 2015 en cours d’amélioration à ne pas diffuser
4. Généralisation : inversion d’un polynôme en L.
8/18/2019 Séries Chro Insea
49/116
Un polynôme en L, A(L), peut toujours être factorisé :
1− a1L − a2L2 − · · · − a pL p = −a p(L − x∗1)(L − x∗2) . . . (L− x∗ p)
où x∗1, x∗2, . . . , x
∗ p sont les p solutions de l’équation caractéristique :
1− a1x− a2x2 − · · · − a px p = 0.
On a alors :
(L
−x∗k) =
−x∗k1 −
1
x∗k
L .
Version de 2015 en cours d’amélioration à ne pas diffuser
4. Généralisation : inversion d’un polynôme en L.
8/18/2019 Séries Chro Insea
50/116
En comparant avec les résultats précédents :
(L− x∗k)−1 =−x∗k
1− 1
x∗kL
−1
= −1x∗k1− 1x∗k L
−1
= −1
x∗k
∞i=0
1
x∗k
iLi.
Version de 2015 en cours d’amélioration à ne pas diffuser
4. Généralisation : inversion d’un polynôme en L.
8/18/2019 Séries Chro Insea
51/116
On peut donc calculer l’inverse de A(L)
A−1(L) =−a p(L − x∗1)(L − x∗2) . . . (L− x∗ p)−1
= −1
a p(L − x∗1)−1(L− x∗2)−1 . . . (L − x∗ p)−1
= (−1) p+1
a p × x∗1 × · · · × x∗ p ∞
i=0
1x∗1i
Li . . . ∞ j=0
1x∗ p j
L j=
∞
i=0αiL
i.
où les coefficients αi sont des fonctions compliquées descoefficients a1, a2, . . . , a p.
Version de 2015 en cours d’amélioration à ne pas diffuser
Exemple 1.
8/18/2019 Séries Chro Insea
52/116
X t = 3X t−1 − 2X t−2 + ǫt⇒ X t − 3X t−1 + 2X t−2 = ǫt ⇒ (1− 3L + 2L2)X t = ǫt
L’équation caractéristique est :
1− 3x + 2x2 = 0
Les solutions x∗1 = 1 et x∗2 = 1/2 ne sont pas strictement
supérieures à 1.
Le processus n’est pas stationnaire et le polynôme (1− 3L + 2L2
)n’est pas inversible.
Version de 2015 en cours d’amélioration à ne pas diffuser
Exemple 2.
8/18/2019 Séries Chro Insea
53/116
X t = 34
X t−1 − 18
X t−2 + ǫt
⇒ X t − 34
X t−1 + 1
8X t−2 = ǫt ⇒ (1− 3
4L +
1
8L2)X t = ǫt
L’équation caractéristique est :
1− 34
x + 1
8x2 = 0
Les solutions x∗1 = 2 et x∗2 = 4 sont strictement supérieures à 1.
Le processus est stationnaire et le polynôme (1− 34L + 18L2) estinversible.
Version de 2015 en cours d’amélioration à ne pas diffuser
8/18/2019 Séries Chro Insea
54/116
Exemple 2.
8/18/2019 Séries Chro Insea
55/116
L’écriture moyenne-mobile infinie de X est :
X t = ∞
k=0
k j=0
1
2k+ j Lk ǫt = ǫt + 34 ǫt−1 + 716 ǫt−2 + . . . .
Version de 2015 en cours d’amélioration à ne pas diffuser
Les processus moyennes mobiles.
8/18/2019 Séries Chro Insea
56/116
Un processus moyenne mobile (moving average en anglais) d’ordreq est un processus s’écrivant sous la forme :
X t = ǫt − b1ǫt−1 − b2ǫt−2 − · · · − bqǫt−qoù b1, b2, . . . , bq ∈ R, bq = 0 et ǫt est un bruit blanc. On parle deprocessus M A(q ).Le processus est toujours stationnaire, quelles que soient les valeursdes coefficients b1, b2, . . . , bq.
Version de 2015 en cours d’amélioration à ne pas diffuser
Processus MA(q ).
8/18/2019 Séries Chro Insea
57/116
On peut introduire le polynôme
B(L) = 1− b1L− b2L2 − · · · − bqLq
et écrire le modèle M A(q ) sous une forme très compacte :
X t = ǫt − b1ǫt−1 − b2ǫt−2 − · · · − bqǫt−qX t = (1− b1L− b2L2 − · · · − bqLq)ǫt→ X t = B(L)ǫt
Version de 2015 en cours d’amélioration à ne pas diffuser
Processus MA(q ) : écriture AR(∞).
8/18/2019 Séries Chro Insea
58/116
Pour que ǫ soit l’innovation du processus X , il faut que les q
solutions x∗1, x
∗2, . . . , x
∗q de l’équation caractéristique :
1− b1x− b2x2 − · · · − bqxq = 0
soient telles que |x∗i | > 1, i = 1, 2, . . . , q .Si ces contraintes sont satisfaites, le processus X t peut s’écriresous forme autorégressive infinie [AR(∞)] :
X t = α1X t−1 + α2X t−2 + · · · + ǫt = ǫt +∞
i=1 αiX t−i.et on dit que le processus est inversible.
Version de 2015 en cours d’amélioration à ne pas diffuser
Les processus autorégressifs moyennes mobiles.
8/18/2019 Séries Chro Insea
59/116
Un processus autorégressif moyenne mobile (autoregressive movingaverage en anglais) d’ordres p et q est un processus stationnaires’écrivant sous la forme :
X t = a1X t−1+a2X t−2+· · ·+a pX t− p+ǫt−b1ǫt−1−b2ǫt−2−···−bqǫt−qoù a1, a2, . . . , a p, b1, b2, . . . , bq ∈ R, a p, bq = 0 et ǫt est un bruitblanc. On parle de processus ARMA( p, q ).
Version de 2015 en cours d’amélioration à ne pas diffuser
Processus ARMA( p, q ).
8/18/2019 Séries Chro Insea
60/116
On introduit les deux polynômes
A(L) = 1− a1L− a2L2 − · · · − a pL p
et
B(L) = 1− b1L− b2L2 − · · · − bqLqet écrire le modèle ARMA( p, q ) sous une forme très compacte :
A(L)X t = B(L)ǫt
Version de 2015 en cours d’amélioration à ne pas diffuser
Processus ARMA( p, q ) : écriture MA(∞).
8/18/2019 Séries Chro Insea
61/116
Pour que le processus soit stationnaire , il faut que les p
solutions x∗1, x
∗2, . . . , x
∗ p de l’équation caractéristique :
1− a1x− a2x2 − · · · − a px p = 0
soient telles que |x∗i | > 1, i = 1, 2, . . . , p. Dans ce cas, on a :
X t = A(L)−1B(L)ǫt =
∞i=0
ciǫt−i
alors X t est une combinaison linéaire de ǫt, ǫt−1, . . . (cette
combinaison est une solution non anticipative ou causale del’équation ARMA( p, q )).
Version de 2015 en cours d’amélioration à ne pas diffuser
Processus ARMA( p, q ) : écriture AR(∞).
8/18/2019 Séries Chro Insea
62/116
Pour que ǫ soit l’innovation du processus X , il faut que les q solutions x∗
1, x∗
2, . . . , x∗
q de l’équation caractéristique :
1− b1x− b2x2 − · · · − bqxq = 0
soient telles que |x∗i | > 1, i = 1, 2, . . . , q .
Si ces contraintes sont satisfaites, le processus X t peut s’écriresous forme autorégressive infinie [AR(∞)] :
ǫt = A(L)B(L)−1X t = X t+d1X t−1+d2X t−2+· · · =
∞
i=0diX t−i.
Alors ǫt peut s’écrire comme une combinaison linéaire deX t, X t−1, . . . et on dit que le processus est inversible.
Version de 2015 en cours d’amélioration à ne pas diffuser
Caractérisation des autocorrélogrammes.
8/18/2019 Séries Chro Insea
63/116
Processus AR( p) :Les autocorrélations vérifient les équations de Yule-Walker :
ρh +
p
i=1aiρh−i = 0, ∀h > 0.
Elles sont toujours non nulles et globalement décroissantes.Les autocorrélations partielles sont nulles à partir de l’ordre p + 1 :
rh = 0,
∀h
≥ p + 1 et r p = a p
= 0.
Version de 2015 en cours d’amélioration à ne pas diffuser
8/18/2019 Séries Chro Insea
64/116
Processus M A(q ) :Les autocorrélations sont nulles à partir de l’ordre q + 1 :
ρq = −bq
1 + b21 + b22 +
· · ·+ b2q
= 0
ρh = 0, ∀h ≥ q + 1.Les autocorrélations partielles sont toujours non nulles etglobalement décroissantes.
Version de 2015 en cours d’amélioration à ne pas diffuser
8/18/2019 Séries Chro Insea
65/116
Processus ARMA( p, q ) :Les autocorrélations et les autocorrélations partielles sont non
nulles et globalement décroissantes.
Version de 2015 en cours d’amélioration à ne pas diffuser
Modèles non stationnaires et saisonniers.
8/18/2019 Séries Chro Insea
66/116
ARIMA( p, d, q ), SARIMA( p, d, q )(P,D,Q)s, SARMA( p, P s, q , Qs), . . .
Version de 2015 en cours d’amélioration à ne pas diffuser
Processus intégrés.
8/18/2019 Séries Chro Insea
67/116
Il s’agit de processus non stationnaires, qui se ramènent pardifférenciation à un processus stationnaire.Exemple : la marche aléatoire
X t = X t−1 + ǫt
X n’est pas stationnaire.
Y t = X t −X t−1 = (1− L)X t = ǫt
Y est un bruit blanc et est donc stationnaire.
Version de 2015 en cours d’amélioration à ne pas diffuser
Processus intégrés : opérateur de différence.
8/18/2019 Séries Chro Insea
68/116
(1− L) := ∆ est l’opérateur de différence première.(1− L)d := ∆d est l’opérateur de différence d’ordre d.Le processus X est intégré d’ordre d (noté I (d)) si X n’est pas
stationnaire mais que Y défini par Y t = (1−L)dX t est stationnaire.La marche aléatoire est un processus I (1).
Version de 2015 en cours d’amélioration à ne pas diffuser
Modèles ARIMA( p, d, q ).
8/18/2019 Séries Chro Insea
69/116
Définition
On dit que (X t) est intégré d’ordre d si X t, ∆X t, . . . , ∆d−1X t nesont pas stationnaires et ∆dX t = (1− L)dX t est stationnaire.
Définition
On dit que (X t) suit un modèle ARIMA( p, d, q ) si ∆dX t suit unARMA( p, q ).
A(L)(1− L)dX t = B(L)ǫt, ǫt bruit blanc
A(L) et B(L) n’ont pas de racines communes.
Version de 2015 en cours d’amélioration à ne pas diffuser
Modèles ARIMA( p, d, q ).
8/18/2019 Séries Chro Insea
70/116
Le polynôme P (z) = A(z)(1
−z)d est tel que P (1) = 0
⇒ on
a une "racine unité".Les modèles ARIMA( p, d, q ) sont donc utiles pour des sériesavec tendance polynômiale. Mais ils peuvent aussi convenir àdes séries sans tendance (comme la marche aléatoire).
En général d = 1, rarement d = 2. On ne rencontre jamais lecas d > 2.
Racine unité ⇒ Autocorrélations proches de 1 et adécroissance très lente.
Une observation à une date dépend beaucoup de l’observationprécédente.
Version de 2015 en cours d’amélioration à ne pas diffuser
Exemple de série non stationnaire.
8/18/2019 Séries Chro Insea
71/116
Figure: Taux de change Yen/USD journalier du 31/08/1971 au 8/09/2006.
Version de 2015 en cours d’amélioration à ne pas diffuser
Exemple de série non stationnaire.
8/18/2019 Séries Chro Insea
72/116
Figure: Autocorrélations et autocorrélations partielles résiduelles.
Version de 2015 en cours d’amélioration à ne pas diffuser
Modèles SARIMA.
Décomposition classique des observations:
8/18/2019 Séries Chro Insea
73/116
p q
X t = m
t + S
t + v
t,
mt: composante déterministe
S t: composante saisonnière de saison s
vt: composante aléatoire stationnaireReprésentation qui implique que X t −X t−s est stationnaire.⇒ Ne suffit pas pour éliminer les phénomènes saisonniers dans
bien des cas.
⇒ Ne prend pas en compte la nature aléatoire des saisons.⇒ Modèles SARIMA : Introduire de l’aléa dans la modélisation de
la saisonnalité.
Version de 2015 en cours d’amélioration à ne pas diffuser
8/18/2019 Séries Chro Insea
74/116
Modèles SARIMA.D’une manière plus générale, pour une saison s:
8/18/2019 Séries Chro Insea
75/116
Φ(Ls)X t = Θ(Ls)ut. (1)
Les saisons sont prises en compte par une telle approche.
⇒ Une telle modélisation implique qu’il n’existe pas de liens entreles mois des différents saisons.
On peut imaginer que le processus (ut) suit un modèleARMA( p, q ). (Idée : les dynamiques non prises en compte parles saisons se retrouvent dans les erreurs en (1))
A(L)ut = B(L)ǫt
⇒ En appliquant les polynômes A(L) et B(L) à gauche et àdroite de (1)
A(L)Φ(Ls)X t = B(L)Θ(Ls)ǫt.
Version de 2015 en cours d’amélioration à ne pas diffuser
Modèles SARIMA.
8/18/2019 Séries Chro Insea
76/116
Définition
On dit que (X t) suit un modèle SARIMA( p, d, q )(P,D,Q)s depériode s, si le processus différencié Y t = (1− L)d(1− Ls)DX t estun processus ARMA causal
A(L)Φ(Ls)Y t = B(L)Θ(Ls)ǫt
"pré-traitement" :
Filtre : (1− L)d élimine une éventuelle tendancedéterministe/marche aléatoire (d = 0 ou 1)
Filtre : (1− Ls
)D
élimine éventuellement la saison (D = 0 ou1).
Version de 2015 en cours d’amélioration à ne pas diffuser
Modèles SARMA multiplicatif : cas particulier SARIMA.
8/18/2019 Séries Chro Insea
77/116
DéfinitionOn dit que (X t) suit un modèle SARMA( p, P s, q , Qs) de période s,si le processus différencié Y t = (1− Ls)X t est un processus ARMAcausal
A(L)Φ(Ls)Y t = B(L)Θ(Ls)ǫt
"pré-traitement" :
Filtre : Φ(Ls) et Θ(Ls) polynômes des coefficients saisonniers.
Filtre : A(L) et B(L) polynômes des coefficients non
saisonniers.
Version de 2015 en cours d’amélioration à ne pas diffuser
Implémentation des Modèles SARIMA.
8/18/2019 Séries Chro Insea
78/116
1- Transformer la série observée X t de mainière à obtenir un
processus Y t qui apparaît "à peu près" stationnaire.(Application des filtres (1− Ls)D et éventuellement (1− L)d)
2- Identifier les ordres P, Q en examinant les autocorrélationsρ̂(ks), k
∈ {1, . . . , K
}, par exemple (autocorrélations d’ordre
multiple de s).⇒ Autocorrélations à décroissance rapide→ P = 0, s’annulent de
façon abrupte→ Q = 0, etc. . . .3- Identifier les ordres p, q en examinant les ρ̂(1), . . . , ρ̂(s− 1)4- Estimation et validation du modèle.
Version de 2015 en cours d’amélioration à ne pas diffuser
Méthode de Box et Jenkins.
8/18/2019 Séries Chro Insea
79/116
Méthodologie de Box et Jenkins.
Méthode permettant de trouver en plusieurs étapes un modèleARMA représentant la série statistique étudiée.
Version de 2015 en cours d’amélioration à ne pas diffuser
Méthodologie Box et Jenkins.
G h d l é i d i i é
8/18/2019 Séries Chro Insea
80/116
Graphe de la série, tests de racine unité ❅ ❅ ❘
✠Différencier, ∆ ou ∆s ✲Identifier le modèle
❄Estimation du modèle
❄Validation du modèle ❄
Choix du modèle ❄
Prévision, analyse du modèle
✛
Si on conclut que la série est stationnaire ⇒ On procède àl’identification, estimation, validation,. . . .Notations : ∆X t = X t −X t−1 ou ∆s = X t −X t−s.
Version de 2015 en cours d’amélioration à ne pas diffuser
Première étape : analyse des données.
8/18/2019 Séries Chro Insea
81/116
Étape fondée sur les représentations graphiques des données et desautocorrélogrammes ayant pour objet la stationnarisation de la sérieainsi que la correction de valeurs aberrantes. On peut :
1- faire une différence ordinaire :
(1− L), (1− L)2
, . . . , (1− L)d
.
2- faire une différence saisonnière : (1− Ls).3- faire une transformation log, √ , . . . .4- . . . .
Version de 2015 en cours d’amélioration à ne pas diffuser
Deuxième étape : identification du modèle.
8/18/2019 Séries Chro Insea
82/116
Cette étape est basée sur l’analyse des autocorrélogrammes de lasérie stationnarisée ainsi que sur la méthode du coin. On peututiliser des critères d’information tels que : AIC, BIC,. . . .
Elle aboutit au choix de la forme d’un modèle :
AR( p), M A(q ), ARMA( p, q ), ARIMA( p, d, q ), . . .
avec ou sans transformation des données.
Version de 2015 en cours d’amélioration à ne pas diffuser
8/18/2019 Séries Chro Insea
83/116
Estimation du modèle AR( p).
Processus AR( p) : Les équations de Yule-Walker
8/18/2019 Séries Chro Insea
84/116
Modèle AR( p) :
X t = a1X t−1 + · · · + a pX t− p + ǫt, V (ǫt) = σ2.
En multipliant par X t−h, h ∈ {1, . . . , p} à gauche et à droiteet en prenant les espérances :
γ (h) = a1γ (h − 1) + · · · + a pγ (h− p).
Avec ces h relations, en tenant compte de la parité de γ (·), onécrit sous forme matricielle :
Γ p = M pφ avec M p = [γ (i − j)] pi,j=1 et φ = (a1, . . . , a p)′
Version de 2015 en cours d’amélioration à ne pas diffuser
Estimation AR( p).
8/18/2019 Séries Chro Insea
85/116
On peut montrer que M p est inversible.
On définit un estimateur:
φ̂ = M̂ −1 p Γ̂ p.
Cet estimateur correspond au l’estimateur des moindres carrés.
On a les résultats suivants:φ̂ = φ + o p(n
−1/2)
n1
2 (φ̂ − φ) ⇒ N (0, σ2 M̂ −1 p )
⇒ Construction de bornes de confiance pour les estimateurs, pour
faire des tests sur les paramètres. . . .
Version de 2015 en cours d’amélioration à ne pas diffuser
Estimation (ARMA( p, q )).
8/18/2019 Séries Chro Insea
86/116
X t = a
1X
t−1
+· · ·
+a p
X t− p
+ǫt−
b1
ǫt−1−·· ·−
bq
ǫt−
q E (ǫ2
t) = σ2
p et q ont été déterminés lors de la phase précédente.→ En disposant d’observations X 1, . . . , X n de longueur n.→ Pour 0 < t ≤ n, les variables aléatoires et(θ) sont définies
récursivement par
et(θ) = X t − p
i=1
aiX t−i +
q j=1
b jet− j(θ),
où les valeurs initiales inconnues sont remplacées par zéro:e0(θ) = · · · = e1−q(θ) = X 0 = · · · = X 1− p = 0 etθ = (a1, a2, . . . , a p, b1, b2, . . . , bq, σ
2)′.
Version de 2015 en cours d’amélioration à ne pas diffuser
Maximum de vraisemblance et définition de l’estimateur duMV :
8/18/2019 Séries Chro Insea
87/116
→ La vraisemblance:
Ln(θ) =n
t=1
1
(2πσ2)1/2 exp
−e
2t (θ)
2σ2
.
→ Un estimateur du MV de θ0 (vrai valeur) est défini comme toutesolution mesurable θ̂n de
θ̂n = arg maxθ∈Θ
Ln(θ) = arg minθ∈Θ
ℓn(θ), ℓn(θ) = −2
n log Ln(θ).
Version de 2015 en cours d’amélioration à ne pas diffuser
Propriétés asymptotiques : estimation (ARMA( p, q )).Théorème: (Normalité asymptotique)
Sous certaines hypothèses de régularité, on obtient
8/18/2019 Séries Chro Insea
88/116
yp g ,
√ n(θ̂n − θ0) L→ N (0, Ω := 2J −1),
où J = J (θ0) (appelée matrice d’information de Fisher), avec
J (θ) = limn→∞
∂ 2
∂θ∂θ′ ℓn(θ) p.s..
L’EMV est asymptotiquement normal, convergent.L’EMV correspond à l’estimateur des moindres carrés pour unprocessus AR( p), aussi bien pour processus ARMA( p, q ) sous
des hypothèses complémentaires.L’EMV est plus efficient que l’estimateur obtenu par moindrescarrés dès que q > 0 (en comparant les variancesasymptotiques)
Version de 2015 en cours d’amélioration à ne pas diffuser
Quatrième étape : validation du modèle.
Modèle estimé:
8/18/2019 Séries Chro Insea
89/116
X t = â1X t−1 + · · · + â pX t− p + ǫ̂t − b̂1ǫ̂t−1 − · · · − b̂q ǫ̂t−qoù les ǫ̂t = et(θ̂n) sont les résidus.
Idée: Comme les estimateurs sont convergents, les résidusdevraient se comporter comme un bruit blanc.
On définit les autocovariances et autocorrélations résiduelles:
γ̂ ǫ(h) = n−1
nt=h+1
ǫ̂tǫ̂t−h et ρ̂ǫ(h) = γ̂ ǫ(h)
γ̂ ǫ(0).
Les autocorrélations résiduelles devraient ne pas être "trop"éloignées de 0.
Version de 2015 en cours d’amélioration à ne pas diffuser
Validation du modèle.
8/18/2019 Séries Chro Insea
90/116
1) vérification de la blancheur de ǫ.
ǫ est non observable, on l’approche à l’aide des résidus ǫ̂t del’estimation.• ǫ doit être de moyenne nulleH 0 : E (ǫ) = 0.
Sous H 0 : t =√
n¯̂ǫσ̂ ≈ N (0; 1).
On rejette H 0 avec un risque α = 5% lorsque la statistique t estsupérieure à 1.96 en valeur absolue (
|t
|> 1.96).
Version de 2015 en cours d’amélioration à ne pas diffuser
Validation du modèle.
8/18/2019 Séries Chro Insea
91/116
Test individuel
• ǫ doit être non autocorrélé
H 0 : ρǫ(k) = 0.
Sous H 0 :√
nρ̂ǫ̂(k) ≈ N (0; 1).On rejette H 0 avec un risque α = 5% lorsque l’autocorrélationestimée ρ̂ǫ̂(k) est supérieure à 1.96/
√ n en valeur absolue.
Version de 2015 en cours d’amélioration à ne pas diffuser
Validation du modèle.Test global [Test portmanteau]
8/18/2019 Séries Chro Insea
92/116
H 0 : ρǫ(1) = ρǫ(2) = · · · = ρǫ(m) = 0.
a) Statistique de Box et Pierce (1970), QBP , : sous certaineshypothèses (notamment (ǫt) iid gaussien et H 0) on montre
que la statistique :
QBP = nm
h=1
ρ̂2ǫ (h)
est approximée par une loi χ2m− p−q, quand n →∞ et enprenant m →∞ (m > p + q ).Pour un niveau α : RH 0 si QBP > χ2m− p−q;1−α.
Version de 2015 en cours d’amélioration à ne pas diffuser
Validation du modèle.
8/18/2019 Séries Chro Insea
93/116
b) Statistique de Ljung et Box (1978), QLB
, :sous certaineshypothèses (notamment (ǫt) iid gaussien et H 0) on montreque la statistique :
QLB = n(n + 2)m
h=1ρ̂ǫ(h)
2
n− hpeut être approximée par une loi χ2m− p−q, quand n →∞ et enprenant m →∞ (m > p + q ).Pour un niveau α : RH 0 si QLB > χ2m− p−q;1−α.
Version de 2015 en cours d’amélioration à ne pas diffuser
Validation du modèle.
En cas de non validation du modèle ARMA( p, q ) :
Essayer le modèle ARMA(p + 1 q) ou le modèle
8/18/2019 Séries Chro Insea
94/116
Essayer le modèle ARMA( p + 1, q ) ou le modèle
ARMA( p, q + 1)Ne pas ajuster un modèle ARMA( p + 1, q + 1) (ce modèlen’est pas identifié sous l’hypothèse de processus ARMA( p, q ))
⇒ Retour à la phase d’indentification.
En cas de validation du modèle ARMA( p, q ) :Penser à privilégier des modèles plus simples (par exemplel’utilisation d’un AIC peut amener au choix d’un modèlecompliqué lors de la phase d’identification).
Vérifier la pertinence des paramètres du modèle avec lesT-ratio (obtenu en exploitant la normalité asymptotique desestimateurs).
Version de 2015 en cours d’amélioration à ne pas diffuser
Validation du modèle.
8/18/2019 Séries Chro Insea
95/116
2) Tests sur les coefficients.
Ces tests sont utiles pour éliminer des coefficients non significatifs
des modèles ou pour juger de la pertinence d’une augmentation oud’une diminution des ordres du modèle.
Version de 2015 en cours d’amélioration à ne pas diffuser
Tests sur les paramètres:
Pour tester la nullité ou la constance de certains coefficients, s0
8/18/2019 Séries Chro Insea
96/116
Pour tester la nullité ou la constance de certains coefficients, s0
contraintes linéaires peuvent être testées sur les paramètres θ0 dumodèle (en particulier a p = 0 ou bq = 0).
Hypothèse nulle :
H 0 : R0θ0 = r 0, où R0 est une matrice s0×
k0 connue de rangs0 et r 0 est aussi un vecteur connu de dimension s0, avec k0 lenombre de paramètres estimés.
Diverses approches asymptotiques: la procédure de Wald, celle dumultiplicateur de Lagrange encore appelée du score ou de Rao-scoreet la méthode du rapport de vraisemblance.
Version de 2015 en cours d’amélioration à ne pas diffuser
Statistique de Wald :
De la normalité asymptotique de θ0, on déduit que :
L
8/18/2019 Séries Chro Insea
97/116
√ nR0ˆθn − r 0 L→ N 0, R0ΩR′0 := R0 2J −1R′0 ,quand n →∞. La statistique de Wald est
Wn = n(R0θ̂n − r 0)′(R0Ω̂R′0)−1(R0θ̂n − r 0),
où Ω̂ := 2 Ĵ −1 est un estimateur convergent de Ω.Sous H 0, cette statistique suit une distribution de χ2s0.Rejeter H 0 quand Wn > χ2s0(1− α) pour un niveau de risqueasymptotique α.
Version de 2015 en cours d’amélioration à ne pas diffuser
Statistique du LM :
Soit θ̂cn l’EMV contraint sous H 0. Définissons le Lagrangien
8/18/2019 Séries Chro Insea
98/116
L(θ, λ) = ℓn(θ) − λ′(R0θ − r 0),où λ est de dimension s0. Les conditions de premier ordre donnent
∂ℓn
∂θ (θ̂c
n
) = R′
0
λ̂, R0θ̂c
n
= r 0.
Sous H 0,√
nλ̂ L→ N 0, 2(R0J −1R′0)−1 ,
Version de 2015 en cours d’amélioration à ne pas diffuser
Statistique du LM :
La statistique du LM est
8/18/2019 Séries Chro Insea
99/116
LMn = nλ̂′ 2(R0 Ĵ −1R′0)−1−1 λ̂=
n
2
∂ℓn∂θ′
(θ̂cn) Ĵ −1
∂ℓn∂θ
(θ̂cn).
De la convergence du vecteur multiplicateur de Lagrange, on a ladistribution asymptotique de la statistique LMn qui suit unedistribution χ2s0 sous H 0.L’hypothèse nulle est rejetée quand LMn > χ2s0(1− α).
Version de 2015 en cours d’amélioration à ne pas diffuser
Statistique du LR :Un développement limité de Taylor nous montre que
√ n θ̂n − θ̂cn
op(1)= −√ nJ −1R′0λ̂,
8/18/2019 Séries Chro Insea
100/116
√
n n√
0 ,
et que La statistique du LR: est
LRn + o p(1) := 2
log Ln(θ̂n)− log Ln(θ̂cn)
op(1)=
n2 (θ̂n
− θ̂cn)
′J (θ̂n
−θ̂cn)
op(1)= LMn.
Cette statistique suit asymptotiquement une distributions0i=1 λiZ
2i où les Z i sont iid N (0, 1) et les λ1, . . . , λs0 sont les
valeurs propres de
ΣLR = J −1/2R′0(R0J
−1R′0)−1R0J
−1/2
Version de 2015 en cours d’amélioration à ne pas diffuser
On a : ΣLR est une matrice de projection dont le nombre de v.p.é l à 1 t
8/18/2019 Séries Chro Insea
101/116
égales à 1 est
Tr
J −1/2R′0(R0J −1R′0)
−1R0J −1/2
= Tr (I s0) = s0.
Ainsi LRn ∼ χ2s0 sous H 0.
L’hypothèse nulle est rejetée quandLR
n > χ2
s0(1− α).
Version de 2015 en cours d’amélioration à ne pas diffuser
Cinquième étape : comparaison de modèles.
8/18/2019 Séries Chro Insea
102/116
Il arrive que plusieurs modèles soient satisfaisants du point de vuestatistique. Il faut alors choisir le meilleur d’entre eux, encomparant leur qualité d’ajustement et de prévision.
On utilise les critères d’information et les critères de qualitéprédictive.
Version de 2015 en cours d’amélioration à ne pas diffuser
8/18/2019 Séries Chro Insea
103/116
Critères d’information.
8/18/2019 Séries Chro Insea
104/116
σ̂2 p,q est la variance résiduelle du modèle ARMA( p, q ) ajusté
L est la vraisemblance.
Idée: Plus on complique le modèle, plus σ̂2 p,q décroit ⇒ On
pénalise les modèles les + compliqués.Un modèle est préférable à un autre lorsque son critère AIC (resp.BIC) est inférieur à celui de l’autre modèle.
Version de 2015 en cours d’amélioration à ne pas diffuser
Propriétés des critères.
La pénalisation des modèles est plus forte en utilisant le critère
8/18/2019 Séries Chro Insea
105/116
BIC.Le modèle sélectionné correspond à la valeur de l’IC minimum.
Le critère AIC a tendance a selectionner des modèles pluscompliqués que ceux choisis par BIC.
Le critère BIC est convergent = AIC (ˆ p → p et q̂ → q quandn →∞Le critère AIC est efficient = BIC (au sens de la minimisationde l’erreur de prévision).
Le processus (X t) suit-il réellement un ARMA( p, q )? ⇒ On nepeut conclure quel type de IC est meilleur que l’autre!!
Version de 2015 en cours d’amélioration à ne pas diffuser
Critères de qualité prédictive :
8/18/2019 Séries Chro Insea
106/116
l’erreur moyenne e = T −1T
t=1 et,
l’erreur moyenne absolue MAE:= T −1T
t=1 | et |,l’erreur moyenne absolue en pourcentageMAPE:= T −1T t=1 | et/X t |,le carré moyen des erreurs MSE:= T −1T t=1 e2t ,la variance empirique de l’erreur V e(e) := T −1
T t=1(et − e)2.
Version de 2015 en cours d’amélioration à ne pas diffuser
Sixième étape : calcul des prévisions.
8/18/2019 Séries Chro Insea
107/116
Premier exemple : AR(2).
X t = a1X t−1 + a2X t−2 + ǫt
Données : X 1, X 2, . . . , X T
Prévisions : faites en T pour X T +1, X T +2, . . .
→ X̂ T (1), X̂ T (2), . . . .
Version de 2015 en cours d’amélioration à ne pas diffuser
Exemple AR(2).
8/18/2019 Séries Chro Insea
108/116
X T +1 = a1X T + a2X T −1 + ǫT +1EL(X T +1|X T , X T −1, . . . ) = a1X T + a2X T −1
X̂ T (1) = â1X T + â2X T −1
X T +2 = a1X T +1 + a2X T + ǫT +2
EL(X T +2|X T , X T −1, . . . ) = a1EL(X T +1|X T , X T −1, . . . ) + a2X T X̂ T (2) = â1 X̂ T (1) + â2X T
... = ...
X̂ T (h) = â1 X̂ T (h − 1) + â2 X̂ T (h − 2), h ≥ 3.
Version de 2015 en cours d’amélioration à ne pas diffuser
Deuxième exemple : MA(2).
X t = ǫt − b1ǫt−1 − b2ǫt−2
8/18/2019 Séries Chro Insea
109/116
X T +1 = ǫT +1 − b1ǫT − b2ǫT −1EL(X T +1|X T , X T −1, . . . ) = −b1ǫT − b2ǫT −1
X̂ T (1) = −b̂1ǫ̂T − b̂2ǫ̂T −1X T +2 = ǫT +2 − b1ǫT +1 − b2ǫT
EL(X T +2|X T , X T −1, . . . ) = −b1 EL(ǫT +1|X T , X T −1, . . . ) =0
−b2ǫT
X̂ T (2) =
−b̂2ǫ̂T
... = ...
X̂ T (h) = 0, h ≥ 3.
Version de 2015 en cours d’amélioration à ne pas diffuser
8/18/2019 Séries Chro Insea
110/116
Erreurs de prévision.
A(L)X = B(L)ǫ X = A−1(L)B(L)ǫ
8/18/2019 Séries Chro Insea
111/116
A(L)X t = B(L)ǫ
t ⇒X
t = A (L)B(L)ǫ
t,
⇒ X t = ǫt + α1ǫt−1 + α2ǫt−2 + α3ǫt−3 + . . . ,avec A(L) = 1−a1L−· · ·−a pL p, B(L) = 1−b1L−· · ·−bqLq
EL(X t|X t−1, X t−2, . . . ) = α1ǫt−1 + α2ǫt−2 + α3ǫt−3 + . . .
X t − EL(X t|X t−1, X t−2, . . . ) = ǫt
X t − ˆX t−1(1) = et
Version de 2015 en cours d’amélioration à ne pas diffuser
8/18/2019 Séries Chro Insea
112/116
Erreurs de prévision.
A(L)X t = B(L)ǫt ⇒ X t = A−1(L)B(L)ǫt,X = ǫ + α ǫ + α ǫ + α ǫ +
8/18/2019 Séries Chro Insea
113/116
⇒X
t = ǫ
t + α
1ǫt−1
+ α2
ǫt−2
+ α3
ǫt−3
+ . . . .
EL(X t|X t−h, X t−h−1, . . . ) = αhǫt−h+αh+1ǫt−h−1+αh+2ǫt−h−2+. . .
X t − EL(X t|X t−h, X t−h−1, . . . ) = ǫt + · · · + αh−1ǫt−h+1
X t − X̂ t−h(h) = et + α̂1et−1 + · · · + α̂h−1et−h+1On utilisera les erreurs de prévision pour construire des intervallesde prévisions.
Version de 2015 en cours d’amélioration à ne pas diffuser
Intervalles de prévision à l’horizon h = 1.
8/18/2019 Séries Chro Insea
114/116
Pour la prévision à l’horizon h = 1, on a :X T +1 − X̂ T (1) = eT +1 ≈ N (0; σ̂2)
Donc P(−1, 96σ̂ < eT +1
8/18/2019 Séries Chro Insea
115/116
X T +h −
X T
(h) eT +h
+ α1
eT +h
−1
+· · ·
+ αh−1
eT +1≈ N (0; (1 + α̂21 + · · · + α̂2h−1)σ̂2).
DoncP(−1, 96σ̂ < eT +h + α̂1eT +h−1 + · · ·+ α̂h−1eT +1
8/18/2019 Séries Chro Insea
116/116
Remarques générales:Si E (X t) = µ = 0 on rajoute un paramètre au modèle pourprendre en compte ce genre de situation.
Dans ce cas on ajoute µ aux prévisions.
Nous sommes dans un cas stationnaire, les prévisions serapprochent de µ à mesure que l’on prend k grand.
En pratique les paramètres sont inconnus ⇒ On les remplacepar leurs estimations.
Version de 2015 en cours d’amélioration à ne pas diffuser