22
1 Lissage exponentiel g´ en´ eralis´ e Laurence Broze et Guy M´ elard Universit´ e de Lille III et Universit´ e Libre de Bruxelles Octobre 1995 esum´ e Le lissage exponentiel g´ en´ eral est une des plus anciennes et des moins utilis´ ees parmi les m´ ethodes de pr´ evision. Ce d´ esint´ erˆ et, qui contraste avec le succ` es des autres m´ ethodes de lissage exponentiel, provient ` a la fois de la complexit´ e de sa mise en oeuvre pratique, de l’absence de logiciel sp´ ecialis´ e et du manque d’´ etude montrant les performances de la m´ ethode. Quelques travaux ont indiqu´ e les raisons profondes des d´ eciences du lissage exponentiel g´ en´ eral et ont discut´ e des am´ eliorations tant au niveau de la classe de mod` eles qu’au niveau de leur utilisation. Nous proposons dans cet article une g´ en´ eralisation de la classe de mod` eles de lissage exponentiel g´ en´ eral ainsi qu’une m´ ethodologie pour la election et la validation d’un mod` ele, l’estimation des param` etres et le calcul des pr´ evisions. Mots-cl´ es : ethode de pr´ evision, lissage exponentiel g´ en´ eral, processus ARMA, op´ erateur racine unit´ e.

Generalized exponential smoothing

Embed Size (px)

Citation preview

1

Lissage exponentiel generalise

Laurence Broze et Guy Melard

Universite de Lille III et Universite Libre de Bruxelles

Octobre 1995

Resume

Le lissage exponentiel general est une des plus anciennes et des moins utiliseesparmi les methodes de prevision. Ce desinteret, qui contraste avec le succes desautres methodes de lissage exponentiel, provient a la fois de la complexite de samise en oeuvre pratique, de l’absence de logiciel specialise et du manque d’etudemontrant les performances de la methode. Quelques travaux ont indique lesraisons profondes des deficiences du lissage exponentiel general et ont discutedes ameliorations tant au niveau de la classe de modeles qu’au niveau de leurutilisation. Nous proposons dans cet article une generalisation de la classede modeles de lissage exponentiel general ainsi qu’une methodologie pour laselection et la validation d’un modele, l’estimation des parametres et le calculdes previsions.

Mots-cles : methode de prevision, lissage exponentiel general, processusARMA, operateur racine unite.

2 L. Broze et G. Melard

1 Introduction

En effet, TSE comporte un module ANSECH qui realise les calculs necessairesa la specification, l’estimation et la prevision des modeles ARIMA. Broze etMelard (1990) ont deja montre comment integrer au sein d’un logiciel de serieschronologiques 27 methodes usuelles de lissage exponentiel (dont le lissage sim-ple, celui de Brown, de Holt, de Winters, le lissage amorti et plus generalementles methodes saisonnieres introduites par Roberts). Cette approche permetd’estimer directement les constantes de lissage par la methode du pseudo-maxi-mum de vraisemblance, d’obtenir automatiquement les intervalles de previsionet de disposer des outils habituels de la methode de Box et Jenkins (analysed’intervention, analyse des residus et des previsions, ...).

Les auteurs sont redevables a Leoncio Jimenez qui a contribue a la procedurede selection des methodes, nous a aide a la mise au point du programme et arealise une premiere version des exemples, a l’occasion de son memoire de licenceen informatique et sciences humaines, sous la direction du second auteur.

Lissage exponentiel generalise 3

2 Lissage exponentiel general

Le principe du lissage exponentiel general (general exponential smoothing ouGES) a ete introduit par Brown en 1962. Cette methode consiste a appliquer leprincipe des moindres carres escomptes (discounted least squares ou DLS) dansle but d’obtenir une fonction de prevision comme combinaison lineaire locale decertaines fonctions du temps.

Formellement, considerons une serie temporelle (Xt) et un ensemble de fonc-tions du temps qu’on appelera fonctions elementaires de prevision (fitting func-tions) {f1, f2, ..., fn}. Nous recherchons des previsions faites en T pour la dateT +m qui s’expriment sous la forme :

bXT (m) = nXi=1

ai(t) fi(m) = a0(t) f(m), (1)

ou les coefficients a(t) = (a1(t), a2(t), . . . , an(t))0 sont a determiner et f(m) =

(f1(m), f2(m), . . . , fn(m))0 depend uniquement de l’horizon m de la prevision.

Les n fonctions elementaires de prevision sont choisies parmi la classe des poly-nomes, exponentielles, fonctions trigonometriques et certains produits de cesfonctions. Ce choix est limite par la necessite de disposer d’une equation derecurrence homogene du premier ordre :

f(m) = Lf(m− 1),m > 1, (2)

ou L est une matrice constante n × n inversible. Par exemple, nous pouvonsutiliser le vecteur suivant :

f(m) = (1,m, am, sin2πm

12, cos

2πm

12, sin

2πm

6, cos

2πm

6)0. (3)

Le vecteur des coefficients a(t) s’obtient en appliquant le principe des moindrescarres escomptes c’est-a-dire en minimisant :

T−1Xj=0

βj(XT−j − a0(T )f(−j))2, (4)

ou β est appele le facteur d’escompte (discount factor). On peut noter qu’ils’agit bien de minimiser une somme de carres d’erreurs de previsions effectueesretrospectivement en T , ponderee avec des coefficients decroissant exponentielle-ment quand on s’eloigne du temps present.

Brown (1962) a montre que la solution de ce probleme d’optimisation verifie,pour T suffisamment grand, l’equation aux differences :

a(t) = L0a(t− 1) + het, (5)

4 L. Broze et G. Melard

ou et = Xt − bXt−1(1) et h = F−1f(0) avec F = ∞Xj=0

βj f(−j) f 0(−j).

Brown (1962) a aussi donne des exemples du lissage exponentiel general. Cer-tains d’entre eux se ramenent aux lissages exponentiels simple, double, etc. Onpeut remarquer que les modeles saisonniers, employant des fonctions trigonometriquesde periode sous-multiple de la periode saisonniere, ne s’interpretent pas commele lissage exponentiel de Winters.

On constate que la methode est tres complexe, repose sur un choix de fonc-tions de prevision elementaires, et s’avere tres lourde sur le plan numerique.Cela explique peut etre que le lissage exponentiel general, une des plus anciennesmethodes de prevision, figure parmi les moins utilisees de celles-ci. L’absencede logiciel adapte agrave cette situation. Avec toutefois quelques exceptions,on note aussi le manque d’etude montrant les performances de la methode.Quelques travaux ont indique les raisons profondes des deficiences du lissageexponentiel general et ont discute des ameliorations tant au niveau de la classede modeles qu’au niveau de leur utilisation.

Concernant la classe de modeles, McKenzie (1976) a montre que les previsionsobtenues par le lissage exponentiel general sont optimales, au sens de l’erreurquadratique moyenne, lorsque le processus stochastique sous-jacent est un ARMAparticulier. Ainsi, si on suppose que les erreurs de prevision a horizon 1, et,constituent un bruit blanc faible, on peut montrer que le processus admet larepresentation suivante :

Φ(B)Xt = Θ(βB)et, (6)

ou le polynome Φ(B) = 1− φ1B − · · ·− φnBn est le polynome caracteristique

de la matrice L−1 et le polynome moyenne-mobile Θ(B) = 1−θ1B− · · ·−θnBnverifie : φk = −θn−k/θn, k = 1, . . . , n, avec θ0 = −1. Abraham et Ledolter(1983, chapitre 7) arrivent au meme resultat en se restreignant toutefois au casde racines distinctes. Notons que le modele (6) s’ecrit sous forme factoriseesuivante : µ nY

j=1

(1−GjB)¶Xt =

µ nYj=1

(1− βG−1j B)¶et, (7)

ou G1, . . . , Gn sont les racines reelles ou complexes de l’equation caracteristiquede la matrice L c’est-a-dire les valeurs propres de L. Le polynome autoregressifest aisement etabli grace au fait que Φ(B)fi(t) = 0, i = 1, . . . , n.

Considerons a titre d’exemple le lissage exponentiel general correspondantaux n = 7 fonctions elementaires de prevision (3). Le tableau 1 donne lesoperateurs correspondant aux divers types de fonctions elementaires de prevision.

Lissage exponentiel generalise 5

Fonction elementaire Operateurde prevision correspondant

1, t (1−B)2at 1− aB

sin(πt/6), cos(πt/6) 1−√3B +B2sin(πt/3), cos(πt/3) 1−B +B2

Tableau 1

Clairement :

(1−B)1 = 0, (1−B)2t = 0, (1− aB)at = 0,(1−√3B +B2) sin(πt/6) = 0, (1−√3B +B2) cos(πt/6) = 0,(1−B +B2) sin(πt/3) = 0, (1−B +B2) cos(πt/3) = 0.

Par consequent, l’ecriture ARMA de la methode de lissage exponentiel generaldefinie au moyen de cet ensemble de fonctions elementaires de prevision estdonne par :

(1−B)2(1− aB)(1−√3B +B2)(1−B +B2)Xt

= (1− βB)2(1− β

aB)(1−

√3βB + β2B2)(1− βB + β2B2)et. (8)

Un developpement detaille pourrait montrer que la fonction de prevision bXt(.)decoulant de cette formulation ARMA est identique a la fonction de prevision(1) donnee par le lissage exponentiel general. C’est dans ce sens qu’on peutparler d’equivalence entre les deux methodes de prevision. McKenzie (1976,1984) montre que l’approche ARMA est plus avantageuse du point de vue dunombre d’operations necessaires pour calculer les previsions.

L’approche de Brown s’est revelee deficiente pour le traitement des phe-nomenes saisonniers (McKenzie, 1984). L’approche de Box et Jenkins desmodeles SARIMA emploie l’operateur de difference saisonniere (1 − B12) etdes operateurs autoregressifs et moyenne mobile saisonniers, sous la forme depolynomes en B12. On peut utiliser egalement les operateurs a racine unite(unit circle operators) (Abraham and Box, 1978). Notons que :

(1−B12) = (1−B)(1 +B +B2 + . . .+B11)= (1−B)(1−

√3B +B2)(1−B +B2)(1 +B2)

(1 +B +B2)(1 +√3B +B2)(1 +B). (9)

On peut choisir de combiner des operateurs parmi ceux qui figurent dans lafactorisation de (1−B12). Ils permettent de representer une periodicite donneedans le tableau 2.

6 L. Broze et G. Melard

Operateur Periode Frequence

1−B infinie 0

1−√3B +B2 12 11−B +B2 6 21 +B2 4 3

1 +B +B2 3 4

1 +√3B +B2 2,4 51 +B 2 6

Tableau 2

Un inconvenient qui n’a pas encore ete releve du lissage exponentiel general,tel qu’on le pratique, est le suivant : les seules racines complexes utilisees sontcelles de module 1. Il n’y a pas de raison, a priori, d’imposer une telle limitationpuisque le couple de fonctions trigonometriques amorties (αt cos(ωt),α sin(ωt)),pour tout ω, sont des fonctions elementaires de prevision admissibles qui cor-respondent aux racines αe±iω. L’operateur correspondant est un polynome dedegre 2. Considerons, a titre d’exemple, le cas ou il n’y a que ces deux fonctionselementaires de prevision. La forme ARMA du lissage exponentiel general estalors la suivante :

(1− 2α cos(ω)B + α2B2)Xt =

µ1− 2 cos(ω)β

αB +

β2

α2B2¶et, (10)

ce qui est un cas particulier de

(1− b1B − b2B2)Xt =µ1 +

b1β

b2B − β2

b2B2¶et, (11)

ou b1 = 2α cos(ω) et b2 = −α2.L’utilisateur du lissage exponentiel general est confronte a la difficulte du

choix des fonctions elementaires de prevision. La litterature fournit tres peud’indications a ce sujet. On recommande plus ou moins vaguement d’examinerattentivement le graphique de la serie. McKenzie (1984) propose de selectionnerles operateurs (1 − B) et (1 − B12) selon les criteres usuels de la methodede Box et Jenkins et d’utiliser les fonctions elementaires de prevision qui endecoulent. Pour le choix du facteur d’escompte β, il propose de l’estimer enminimisant la somme des carres des erreurs de prevision d’horizon 1. Abrahamet Ledolter (1978, chapitre 7), suggerent sans autre precision, d’employer les au-tocorrelations et les autocorrelations partielles pour aider au choix des fonctionselementaires de prevision. Nous proposons une demarche plus generale apres lasection suivante.

Meme si des auteurs ont signale les potentialites de l’equivalence entre le lis-sage exponentiel general et une classe de modeles ARMA, jamais cette equivalence

Lissage exponentiel generalise 7

n’a fait l’objet d’une exploitation systematique. Nous avons remarque l’absencedu lissage exponentiel general dans les logiciels de prevision. Nous avons realiseun module experimental consacre a cette methode au sein du programme ANSECHdu logiciel Time Series Expert (TSE) (Melard et Pasteels, 1994). Ce mod-ule ANSECH realise les calculs necessaires a la specification, l’estimation etla prevision des modeles SARIMA. Le nouveau module est fonde sur une ap-proche similaire a celle de Broze et Melard (1990) pour les methodes usuellesde lissage exponentiel. Il incorpore le couple de fonctions elementaires deprevision trigonometriques amorties illustre dans (11). Cette approche permetd’estimer directement les parametres figurant eventuellement dans les fonctionselementaires de prevision (a, b1 et b2 ainsi que le facteur d’escompte β) par lamethode du pseudo-maximum de vraisemblance, en employant l’algorithme deMelard (1984). Elle permet aussi d’obtenir automatiquement les intervalles deprevision et de disposer des outils habituels de la methode de Box et Jenkins(analyse d’intervention, analyse des residus et des previsions, ...).

Des experimentations sur donnees reelles et simulees ont confirme l’impressionde McKenzie que la classe des methodes de lissage exponentiel general est troprestrictive et produit souvent des previsions de qualite mediocre, sous-optimalespar rapport a celles de Box et Jenkins. Dans la suite de l’article, nous montronsune maniere simple de porter remede a ce manque de degres de liberte tout enpreservant l’essentiel.

3 Lissage exponentiel generalise

La contrainte principale qui apparaıt dans les methodes de lissage exponentielgeneral reside dans le fait qu’on associe le meme facteur d’escompte β a chaquefonction elementaire de prevision. Ceci entraıne des contraintes tres fortes auniveau du parametrage final. Cela se voit particulierement quand on inspectela forme ARIMA equivalente (8). Une solution simple consiste a introduire desfacteurs d’escompte differents. Au lieu de (8), on adopte :µ nY

j=1

(1−GjB)¶Xt =

µ nYj=1

(1− βjG−1j B)

¶et, (12)

avec le meme polynome autoregressif Φ(B) mais le polynome moyenne-mobileΘ(B) est remplace par un produit d’operateurs ou interviennent des “facteursd’escompte” βj distincts.

L’interpretation initiale de la methode en terme de moindres carres es-comptes (4) est evidemment perdue ainsi que la relation (5) mais l’essentieldes proprietes de la methode est conserve. En particulier, la forme de la fonc-tion de prevision (1) est identique. Notons qu’on n’evalue jamais explicitementle vecteur a(t). On emploie plutot la forme ARMA du modele. Celle-ci est

8 L. Broze et G. Melard

utilisee pour evaluer la fonction de vraisemblance afin d’estimer simultanementl’ensemble des parametres. Dans l’exemple decrit dans la section 2 (voir tableau1), l’introduction de facteurs d’escompte differents donne l’ecriture ARIMAsuivante :

(1−B)2(1− aB)(1−√3B +B2)(1−B +B2)Xt

= (1− β1B)(1− β2B)(1− β3aB)

(1−√3β4B + β24B

2)(1− β5B + β25B2)et. (13)

Le tableau 3 donne la correspondance entre les fonctions elementaires deprevision, les operateurs et les differents facteurs d’escompte.

Fonction elementaire Operateur Facteurde prevision correspondant d’escompte

1 1−B β1t 1−B β2at 1− aB β3

sin(πt/6), cos(πt/6) 1−√3B +B2 β4sin(πt/3), cos(πt/3) 1−B +B2 β5

Tableau 3

La methode depend ici de 6 parametres,a,β1,β2,β3,β4,β5. Rien n’empecheevidemment de reduire ce nombre de parametres en imposant des contraintes.Par exemple, on peut imposer l’egalite de β4 et de β5.

Un modele tres couramment utilise dans la modelisation de series chronolo-giques est decrit par l’equation

(1−B)(1−B12) logXt = (1− θB)(1−ΘB12)et, (14)

souvent appele “Airline data model” parce qu’il a ete illustre par Box et Jenkins(1970) sur les donnees de nombres de passagers des lignes aeriennes interna-tionales (serie G) de 1949 a 1960 (dans ce qui suit les douze dernieres des 144donnees ne sont pas employees lors de l’elaboration de la methode de prevision).Le modele (14) correspond aux fonctions d’ajustement donnees dans le tableau4.

Lissage exponentiel generalise 9

Fonction elementaire Operateurde prevision correspondant

1 1−Bt 1−B

sin(πt/6), cos(πt/6) 1−√3B +B2sin(πt/3), cos(πt/3) 1−B +B2sin(πt/2), cos(πt/2) 1 +B2

sin(2πt/3), cos(2πt/3) 1 +B +B2

sin(5πt/6), cos(5πt/6) 1 +√3B +B2

sin(πt), cos(πt) 1 +B

Tableau 4

Ainsi que McKenzie (1984) l’a montre, la version du lissage exponentielgeneral conduit pour ces donnees a un modele ARIMA d’equation

(1−B)(1−B12) logXt = (1− βB)(1− β12B12)et (15)

ou l’estimation de β par la methode des moindres carres vaut 0,39 avec uneestimation de la variance residuelle egale a 0,00167. Il est interessant de noterque Box et Jenkins (1970) obtiennent pour la meme serie, avec le modele (14)une variance residuelle de 0,00134, c’est-a-dire 20% plus faible. Ainsi que ledit McKenzie (1984), cette inferiorite souvent observee du lissage exponentielgeneral provient de la presence d’un seul parametre β, alors que le modele deBox et Jenkins en comporte deux, θ et Θ. En reestimant le parametre β parla methode du maximum de vraisemblance, nous trouvons bβ = 0, 345 avec unevariance residuelle de 0,00182.

Passons maintenant au lissage exponentiel generalise, en commencant pardeux facteurs d’escompte β1 et β2, l’un pour le facteur (1 − B), l’autre pourchacun des facteurs de (1−B12). On a donc la forme ARMA suivante :

(1−B)(1−B12)logXt = (1− β1B)(1− β122 B12)et.

En partant de valeurs initiales egales a 0,2, la methode du pseudo-maximumde vraisemblance fournit les estimations bβ1 = 0, 348 et bβ2 = 0, 953. Le resultatcorrespond presque parfaitement a l’estimation de (15) par la pseudo-maximum

de vraisemblance qui donne bθ = 0, 348 et bΘ = 0, 562 = (0, 953)12, avec unevariance residuelle 0,00134. Le tableau 5 resume la methode.

10 L. Broze et G. Melard

Fonction elementaire Operateur Facteurde prevision correspondant d’escompte

estime

1 1−B bβ1 = 0, 348t 1−B bβ2 = 0, 953

sin(πt/6), cos(πt/6) 1−√3B +B2 bβ2 = 0, 953sin(πt/3), cos(πt/3) 1−B +B2 bβ2 = 0, 953sin(πt/2), cos(πt/2) 1 +B2 bβ2 = 0, 953sin(2πt/3), cos(2πt/3) 1 +B +B2 bβ2 = 0, 953sin(5πt/6), cos(5πt/6) 1 +

√3B +B2 bβ2 = 0, 953

sin(πt), cos(πt) 1 +B bβ2 = 0, 953Tableau 5

Utilisons maintenant un facteur d’escompte pour chaque operateur cercleunite. En employant les valeurs initiales appropriees β1 = 0, 348, β2 = ... =β8 = 0, 953, nous obtenons apres estimation les resultats repris dans le tableau6.

Fonction elementaire Operateur Facteurde prevision correspondant d’escompte

estime

1 1−B bβ1 = 0, 370t 1−B bβ2 = 0, 987

sin(πt/6), cos(πt/6) 1−√3B +B2 bβ3 = 0, 946sin(πt/3), cos(πt/3) 1−B +B2 bβ4 = 0, 945sin(πt/2), cos(πt/2) 1 +B2 bβ5 = 1, 000sin(2πt/3), cos(2πt/3) 1 +B +B2 bβ6 = 0, 958sin(5πt/6), cos(5πt/6) 1 +

√3B +B2 bβ7 = 0, 954

sin(πt), cos(πt) 1 +B bβ8 = 0, 968Tableau 6

Apparemment les βj sont proches de 1, a l’exception de β1. Il est possiblede poursuivre l’exemple en simplifiant les operateurs (1 +B2), mais cela obligea inserer une composante deterministe de periode 4. Nous ne detaillons pas cecicar la prevision n’est pas amelioree.

Dans le module experimental de ANSECH consacre au lissage exponen-tiel general, nous avons aisement ajoute la possibilite du lissage exponentielgeneralise en introduisant des facteurs d’escompte distincts, avec contrainte

Lissage exponentiel generalise 11

d’egalite eventuelle. Ce module permet l’estimation simultanee des parametresfigurant dans les fonctions elementaires de prevision, les a, b1, b2 ainsi que lesfacteurs d’escompte βj par la methode du pseudo-maximum de vraisemblance.Les sous-produits deja mentionnes, diagnostics, intervalles de prevision, analysed’intervention, etc., restent disponibles.

4 Selection d’une methode de prevision

Nous proposons d’adopter une demarche scientifique de choix d’une methodede lissage exponentiel generalise, combinant (a) la recherche d’une specification,(b) l’estimation des parametres deja traitee ci-dessus et (c) une procedure dediagnostic pouvant mener a l’amelioration de la specification.

Nous decrivons ici les phases (a) et (c) qui se fondent sur les memes outils.Cette procedure est similaire a celle utilisee habituellement dans la methode deBox et Jenkins mais elle s’en ecarte par la structure specifique de la classe demodeles. Nous avons deja signale les recommandations formulees par McKen-zie (1984) et par Abraham et Ledolter (1978) concernant le choix de certainesfonctions de prevision. Ces elements peuvent etre developpes afin d’obtenir uneprocedure systematique de selection de modeles.

On peut commencer par transformer la serie et selectionner les operateurs(1 − B) et (1 − B12) selon les criteres habituels : examen des graphiques, descorrelogrammes et correlogrammes partiels des series Xt, (1−B)Xt, (1−B12)Xtet (1−B)(1−B12)Xt ou selon des tests de racines unites (par exemple, Banerjeeet al., 1993). Ceci permet de choisir des fonctions elementaires de previsioncorrespondant aux operateurs racine unite.

Les autres fonctions vont correspondre a des operateurs AR et MA etroitementlies, d’ordre p et n = p + d + 12D, ou d est le nombre de facteurs (1 − B)retenus et D est le nombre de facteurs (1 − B12) retenus. Le choix de pest mene par l’examen du correlogramme partiel, en retenant la valeur duretard a partir duquel le correlogramme partiel marque une cassure (on saitque si la specification est correcte, le correlogramme partiel ne devrait pas etreveritablement tronque sauf si les parameres βj sont tous nuls). Un correlogrammequi presente une allure exponentielle decroissante, meme melangee a d’autresfluctuations, peut suggerer d’inclure des fonctions elementaires de prevision detype exponentiel, qui correspondent a des racines reelles de module superieur a1. Si le correlogramme presente un comportement pseudo-periodique, on a uneindication pour introduire des fonctions de prevision trigonometriques amor-ties, du type (αt cos(ωt),αt sin(ωt)) qui correspondent a un couple de racinescomplexes conjuguees.

L’experience montre que le choix des valeurs initiales des parametres, necessaire

12 L. Broze et G. Melard

pour amorcer la procedure d’optimisation, est plus delicat que pour les modelesARIMA. En particulier, il faut preter attention au signe des valeurs initiales ense basant notamment sur le signe des autocorrelations et des autocorrelationspartielles. Nous montrons un exemple dans la section suivante.

En cas de doute, on peut employer l’analogue de la procedure de selectionautoregressive (Tiao et Box, 1981; Tsay et Tiao, 1984; Melard, 1990) quiconsiste ici a introduire des fonctions d’ajustement du type at et/ou du type(αt cos(ωt),αt sin(ωt)), a estimer les parametres et a analyser les correlogrammesdes residus.

5 Etude empirique

Le but de cette section est de montrer des exemples reels et artificiels afin defamiliariser le lecteur avec la nouvelle approche du lissage exponentiel generalise.

Exemple 1.

Nous considerons une serie (Melard, 1990, p. 318) de longueur 400, genereeau moyen du processus autoregressif d’equation

(1 + 0, 5B − 0, 3B2)Xt = et (16)

et dont le graphique est presente dans la figure 1.

Série artificielle 1

-4

-3

-2

-1

0

1

2

3

4

1 28 55 82 109 136 163 190 217 244 271 298 325 352 379

AR2_503

Figure 1. Graphique de la serie artificielle 1

Lissage exponentiel generalise 13

Autocorrélations

1.00

-1.00

0.00

0.50

-0.50

0 2 4 6 8 10 12 14 16 18 20 22 24 26 28 30 32 34 36 38

Series AR2_503

Lagged AR2_503

Autocorrélations partielles

1.00

-1.00

0.00

0.50

-0.50

0 2 4 6 8 10 12 14 16 18 20 22 24 26 28 30 32 34 36 38

Series AR2_503

Lagged AR2_503

Figure 2. Correlogramme et correlogramme partiel de la serie artificielle 1

Les inverses des racines de l’equation caracteristique 1 + 0, 5z − 0, 3z2 = 0valent -0,852 et 0,352. L’estimation d’un modele AR(2) donne lieu a l’equation

(1 + 0, 447B − 0, 330B2)Xt = et.Le correlogramme et le correlogramme partiel de la serie sont donnees dans lafigure 2. D’apres ce dernier, le lissage exponentiel general approprie emploiedeux fonctions elementaires de prevision. Selon le correlogramme, celles-ci sontde type exponentiel, at1 et a

t2.

Par consequent, la forme ARIMA equivalente a pour equation

(1− a1B)(1− a2B)Xt = (1− β

a1B)(1− β

a2B)et, (17)

ou β est le facteur d’escompte. L’estimation des trois parametres a1, a2 et βpar la methode du pseudo-maximum de vraisemblance, en demarrant avec desvaleurs initiales nulles pour les trois parametres, conduit au resultat suivant :ba1 = −0, 820, ba2 = −0, 820 et bβ = 0, 492, tres eloigne du resultat attendu.En recommencant avec des valeurs initiales plus realistes obtenues d’apres lecorrelogramme partiel a1 = −0, 60, a2 = 0, 30 et β = 0, on obtient les valeursfinales ba1 = −0, 761, ba2 = 0, 302 et bβ = 3.10−6. Ceci montre que le choix desvaleurs initiales des parametres doit etre plus reflechi que quand on estime lesparametres d’un modele ARMA. Par exemple, si l’on change la valeur initialeβ = 0, 05, la valeur finale obtenue est bβ = 0, 321.Exemple 2.

14 L. Broze et G. Melard

Comme deuxieme exemple, nous considerons une serie (Melard, 1990, p.325) de longueur 400 generee au moyen du processus autoregressif d’equation

(1− 0, 9B4)Xt = et. (18)

Le graphique de la serie est presente dans la figure 3.Série artificielle 2

-4

-2

0

2

4

1 28 55 82 109 136 163 190 217 244 271 298 325 352 379

AR409

Figure 3. Graphique de la serie artificielle 2Autocorrélations

1.00

-1.00

0.00

0.50

-0.50

0 2 4 6 8 10 12 14 16 18 20 22 24 26 28 30 32 34 36 38

Series AR409

Lagged AR409

Autocorrélations partielles

1.00

-1.00

0.00

0.50

-0.50

0 2 4 6 8 10 12 14 16 18 20 22 24 26 28 30 32 34 36 38

Series AR409

Lagged AR409

Figure 4. Correlogramme et correlogramme partiel de la serie artificielle 2

Notons que les inverses des racines de l’equation caracteristique 1−0, 9z4 = 0sont de module 0,974. Deux d’entre elles sont reelles, une positive et unenegative. Cette derniere correspond a des pseudo-oscillations de periode 2. Lesdeux autres racines sont imaginaires conjuguees et correspondent a une periode4.

Lissage exponentiel generalise 15

Le correlogramme et le correlogramme partiel sont donnes dans la figure4. D’apres le premier qui comporte des oscillations de periode 4, le lissageexponentiel general approprie emploie deux fonctions de previsions elementairesde type trigonometriques amorties, de periode 4 : αt cos(πt/2), αt sin(πt/2). Illui correspond l’operateur autoregressif (1−b1B−b2B2), ou b1 = 2α cos(π/2) etb2 = −α2. Le lissage exponentiel general a une forme ARMA equivalente (10)qu’on ecrit sous la forme parametrique (11).

On obtient les estimations bb1 = 8.10−3, bb2 = −0, 974 et bβ1 = 0, 894. Lecorrelogramme et le correlogramme partiel residuels ne laissent pas de doutesur la faible qualite du modele a laquelle on parvient a remedier, non sanspeine, en introduisant deux fonctions de prevision exponentielles. La premieredonne lieu a

(1− a1B)(1− b1B − b2B2)Xt = (1− β

a1B)(1 +

β b1b2B − β2

b2B2)et,

avec ba1 = 0, 980, bb1 = 0, 015, bb2 = −0, 966 et bβ = 0, 848. Les erreurs deprevision de la methode montrent des autocorrelations et autocorrelations par-tielles significatives en grand nombre.

La derniere etape consiste a introduire une seconde fonction de previsionexponentielle, pour obtenir la formule ARMA(4, 4) equivalente

(1−a1B)(1−a2B)(1−b1B−b2B2)Xt = (1− β

a1B)(1− β

a2B)(1+

β b1b2B−β

2

b2B2)et.

En estimant les cinq parametres a1, a2, b1, b2 et β par pseudo-maximum devraisemblance, un premier essai avec des valeurs initiales nulles est infructueux.En employant des valeurs initiales plus realistes, a1 = 0, 9, a2 = −0, 8, b1 = 0,b2 = 0, 969 et β = 0, 01, on obtient ba1 = 0, 956, ba2 = −0, 956, bb1 = 0, 012,bb2 = −0, 932 et le facteur d’escompte optimal bβ = 4.10−4. La specificationobtenue est pratiquement equivalente a (18). Cette fois, l’ajustement est presqueparfait.

Cet exemple montre que l’approche du lissage exponentiel general n’est pasinteressante pour une serie engendree par un modele purement autoregressif.Notons que le lissage exponentiel generalise ne ferait pas mieux.

Nous passons maintenant a des exemples relatifs a series reelles.

Exemple 3.

Considerons la serie mensuelle des ventes des magasins de detail en Francependant les annees 1951-1958 (Spiegel, 1978), representee dans la figure 5.La variable est note DET. Nous n’employons pas les donnees de 1958 pourl’elaboration de la methode de prevision.

16 L. Broze et G. Melard

Ventes des magasins de détail en France

12

14

16

18

20

51 52 53 54 55 56 57 58

DET

Figure 5. Graphique des ventes de magasins de detail en FranceAutocorrélations

1.00

-1.00

0.00

0.50

-0.50

0 2 4 6 8 10 12 14 16 18 20 22 24 26 28 30 32 34

Series DSDET

Lagged DSDET

Autocorrélations partielles

1.00

-1.00

0.00

0.50

-0.50

0 2 4 6 8 10 12 14 16 18 20 22 24 26 28 30 32 34

Series DSDET

Lagged DSDET

Figure 6. Correlogramme et correlogramme partiel de la serie(1−B)(1−B12)DETt

La serie est valablement representee par le modele suivant (Melard, 1990, p.367) :

(1− φ1B − φ2B2)(1−B)(1−B12)Xt = et.

La serie presente une tendance lineaire et un comportement saisonnier. Ellenecessite une difference ordinaire et une difference saisonniere. L’examen ducorrelogramme et du correlogramme partiel de la serie (1 − B)(1 − B12)Xt,presentes dans la figure 6 justifient en effet d’employer un couple de fonctionselementaires de prevision trigonometriques amorties : (αt cos(ωt),αt sin(ωt). Lelissage exponentiel general a une forme ARMA equivalente (10) pour lequel

Lissage exponentiel generalise 17

on utilise le parametrage (11). Apres estimation, on trouve bb1 = −0, 763,bb2 = −0, 502 et bβ = 0, 294. Il subsiste de l’autocorrelation de retard 12. Pas-sons maintenant au lissage exponentiel generalise. On obtient neuf facteursd’escompte contenus dans le tableau 7.

Fonction elementaire Operateur Facteurde prevision correspondant d’escompte

estime estime

1 1−B bβ1 = 0, 262t 1−B bβ2 = 0, 064

sin(πt/6), cos(πt/6) 1−√3B +B2 bβ3 = 0, 078sin(πt/3), cos(πt/3) 1−B +B2 bβ4 = 0, 057sin(πt/2), cos(πt/2) 1 +B2 bβ5 = 0, 001sin(2πt/3), cos(2πt/3) 1 +B +B2 bβ6 = 0, 135sin(5πt/6), cos(5πt/6) 1 +

√3B +B2 bβ7 = 0, 123

sin(πt), cos(πt) 1 +B bβ8 = 0, 143sin(ωt), cos(ωt) 1 + 0, 735B + 0, 492B2 bβ9 = 0, 123

Tableau 7

On peut reduire le nombre de parametres en egalant β2 = . . . = β8. Lemodele final est repris dans le tableau 8. Les resultats sont tres differents.Une partie de la sortie de ANSECH est presentee en annexe. Ils montrent quel’ajustement est excellent, avec un ecart-type residuel egal a 0,465 au lieu de0,530 pour le modele ARIMA (le critere SBIC de Schwarz, egal a 139,4 estegalement meilleur, etant inferieur a 145,8). En outre, le critere MAPE pourles previsions de l’annee 1958 est egal a 3,7 % (au lieu de 4,2 % pour le modeleARIMA).

18 L. Broze et G. Melard

Fonction elementaire Operateur Facteurde prevision correspondant d’escompte

estime estime

1 1−B bβ1 = 0, 000t 1−B bβ2 = 0, 938

sin(πt/6), cos(πt/6) 1−√3B +B2 bβ2 = 0, 938sin(πt/3), cos(πt/3) 1−B +B2 bβ2 = 0, 938sin(πt/2), cos(πt/2) 1 +B2 bβ2 = 0, 938sin(2πt/3), cos(2πt/3) 1 +B +B2 bβ2 = 0, 938sin(5πt/6), cos(5πt/6) 1 +

√3B +B2 bβ2 = 0, 938

sin(πt), cos(πt) 1 +B bβ2 = 0, 938sin(ωt), cos(ωt) 1 + 0, 962B + 0, 684B2 bβ9 = 0, 330

Tableau 8

Exemple 4.

Les ventes de parapluies en Argentine constituent une serie mensuelle, de1971 a 1980. Elle est representee dans la figure 7. L’annee 1980 n’est pasemployee lors de l’elaboration de la methode de prevision. La serie n’a pas detendance, seulement une saisonnalite.

Ventes de parapluies en Argentine

40

60

80

100

120

140

160

71 72 73 74 75 76 77 78 79 80

STOCK

Figure 7. Graphique de la serie des ventes de parapluies en Argentine

Lissage exponentiel generalise 19

Autocorrélations

1.00

-1.00

0.00

0.50

-0.50

0 2 4 6 8 10 12 14 16 18 20 22 24 26 28 30 32 34 36 38

Series STOCK

Lagged STOCK

Autocorrélations partielles

1.00

-1.00

0.00

0.50

-0.50

0 2 4 6 8 10 12 14 16 18 20 22 24 26 28 30 32 34 36 38

Series STOCK

Lagged STOCK

Figure 8. Correlogramme et correlogramme partiel de la serie de la figure 7

L’examen du correlogramme et du correlogramme partiel de la serie (figure8) justifie l’emploi de deux fonctions elementaires de prevision trigonometriquesamorties : (αt cos(πωt),αt sin(πωt)). Il lui correspond l’operateur autoregressif(1−b1B−b2B2), ou b1 = 2α cos(πω) et b2 = −α2. Le lissage exponentiel generala la forme ARMA equivalente (11).

L’estimation des trois parametres b1, b2 et β par la methode du maximumde vraisemblance conduit au resultat suivant : bb1 = 1, 89, bb2 = −0, 928 et bβ =0, 798. On s’apercoit que l’equation caracteristique du polynome autoregressif ades racines complexes de periode 12,3 et de module 1,058. Ceci suggere le recoursa un operateur cercle unite (1−√3B +B2) au lieu du polynome autoregressifde degre 2. Le modele n’a plus qu’un seul parametre β1 qui est estime egal a0,421. Il est interessant de remarquer que les previsions sont meilleures avec unMAPE de 13,9% au lieu de 18,6% pour un modele autoregressif d’ordre 2.

Une analyse plus fine necessiterait l’introduction d’interventions ce qui seraitparfaitement possible dans le contexte d’ANSECH.

20 L. Broze et G. Melard

References

Abraham, B. et Box, G.E.P., ‘Deterministic and forecast-adaptive time-dependentmodels’, Journal of the Royal Statistical Society Series C Applied Statistics, 27(1978), 120-130.

Abraham, B. et Ledolter, J., Statistical Methods for Forecasting, New York :Wiley, 1983.

Banerjee, A., Dolado, J., Galbraith, J. W., et Hendry, D. F., Co-integration,Error-correction, and the Econometric Analysis of Non-stationary Data, Ox-ford : Oxford University Press, 1993.

Box, G.E.P. et Jenkins, G.M., Time Series Analysis, Forecasting and Control,San Francisco : Holden Day, 1970.

Brown, R.G., Smoothing, Forecasting and Prediction of Discrete Time Series,Englewood Cliffs, NJ : Prentice Hall, 1962.

Broze, L. et Melard, G., ‘Exponential smoothing : estimation by pseudo max-imum likelihood’, Journal of Forecasting, 8 (1990), 445-455.

McKenzie, E., ‘An analysis of general exponential smoothing’, Operations Re-search, 24 (1976), 131-140.

McKenzie, E., ‘General exponential smoothing and the equivalent ARMA process’,Journal of Forecasting, 3 (1984), 334-344.

Melard, G., ‘Algorithm AS197 : A fast algorithm for the exact likelihood ofautoregressive-moving average models’, Journal of the Royal Statistical SocietySeries C Applied Statistics, 33 (1984), 104-114.

Melard, G., Methodes de prevision a court terme, Paris : Editions Ellipses etBruxelles : Editions de l’Universite de Bruxelles, 1990.

Melard, G., et Pasteels, J.-M., ‘Manuel d’utilisateur de Time Series Expert (TSEversion 2.2)’, Institut de Statistique, Universite Libre de Bruxelles, Bruxelles,1994.

Spiegel, M. A., Theorie et application de la statistique, Paris : McGraw-Hill,1978.

Tiao, G. C. et Box, G. E. P., ‘Modeling multiple time series with applications’,Journal of the American Statistical Association, 76 (1981), 802-816.

Tsay, R. S. et Tiao, G. C., ‘Consistent estimates of autoregressive parametersand extended sample autocorrelation function for stationary and nonstationaryARMA models’, Journal of the American Statistical Association, 79 (1984),84-96.

Lissage exponentiel generalise 21

Annexe : Sortie de ANSECH pour la methode du tableau 8

ESTIM,RESIT=1,RESIN=DETRES3,TAPEF=1,NFORC=DETFOR3,CHECK=APSF,TO=84,LEAD=12,/

GES,DIFF=2,DIFFS=0,DIFF1=1,DIFF2=1,DIFF3=1,DIFF4=1,DIFF5=1,DIFF6=1

/\/\/\/\/\/\/\/\/\/\/\/\/\/\/\/\/\/\/\/\

ANSECH-PC 2.2d, AUTHOR:G.MELARD 02/11/95 20:02:36. PROBLEM( 7):DET

TITLE: " VENTES DES MAGASINS DE DETAIL EN FRANCES (MILLIONS DE FRANCS)"

THE CURRENT SERIES IS THE SAME AS BEFORE ,LENGTH 96

TIME INTERVAL : FROM JAN1951 TO DEC1958.

/\/\/\/\/\/\/\/\/\/\

WARNING *** MODEL FITTING IS PERFORMED WITH ONLY 84 DATA, ENDING

AT TIME DEC1957. 12 FRESH DATA ARE RESERVED FOR EX-POST VALIDATION

=== FITTING OF THE PARAMETERS OF CLASSIC SHORT-TERM FORECASTING METHODS

(CO-AUTHORS: O. ROULAND AND L. BROZE)

GENERALIZED EXPONENTIAL SMOOTHING

5 PARAMETERS WITH STARTING VALUES :

1 PHI 1 -.73500

2 PHI 2 -.49200

3 BETA 1 .26200

4 BETA 2 .63900E-01

5 BETA 9 .26200

=== ESTIMATION BY MAXIMIZATION OF THE EXACT (LOG)LIKELIHOOD

(FAST ALGORITHM WITH TOLERANCE 1.0E-05)

NON LINEAR ESTIMATION:

ITER SUM OF SQ PHI 1 PHI 2 BETA 1 BETA 2 BETA 9

0 19.32 -.735 -.492 .262 6.390E-02 .262

1 19.32 -.735 -.492 .262 .409 .262

...

18 15.03 -.962 -.684 4.838E-06 .938 .330

=ITERATION STOPS - RELATIVE CHANGE IN SUM OF SQUARES LESS THAN 1.00000E-06

ESTIMATION HAS TAKEN 2.8 SEC. FOR 193 EVALUATIONS OF S.S. (MEAN TIME=, .015)

= UNDERLYING SARIMA MODEL

DEGREE OF REGULAR DIFFERENCING = 2

DEGREE OF SEASONAL DIFFERENCING = 0 (PERIOD = 12)

OTHER UNIT CIRCLE OPERATORS (PERIOD/POWER)

12.00/1 6.00/1 4.00/1 3.00/1 2.40/1 2.00/1

AR 1: -.9619 AR 2: -.6837

MA 1: -.4643 MA 2: -.1593 MA 3: .0000 MA 4: .0000

MA 5: .0000 MA 6: .0000 MA 7: .0000 MA 8: .0000

MA 9: .0000 MA 10: .0000 MA 11: .0000 MA 12: .4616

MA 13: .2143 MA 14: .0735 MA 15: .0000

*** WARNING-A MEAN LEVEL IS NOT INCLUDED IN THE MODEL

=== SUMMARY MEASURES <V>

SUM OF SQUARES : COMPUTED = 15.0345 ADJUSTED = 14.2828

22 L. Broze et G. Melard

VARIANCE ESTIMATES : BIASED = .201166 UNBIASED = .216405

TOTAL NUMBER OF PARAMETERS = 5 STANDARD DEVIATION = .465194

INFORMATION CRITERIA : AIC = 122.183 SBIC = 139.438

=== RESIDUAL ANALYSIS WITH 71 RESIDUALS, BEGINNING AT TIME FEB1952===

MEAN = .463740E-01 ,T-STATISTIC = .84 (FOR TESTING ZERO MEAN)

=OUTLIERS <R(OR)S>

.2 - 1 % APR1952: 1.281

1 - 5 % MAY1952: 1.009 DEC1954: .9408 APR1956: -.9869

=SIGNIFICANT AUTOCORRELATIONS (USING BARTLETT LIMITS) <A(OR)S>

=SIGNIFICANT PARTIAL AUTOCORRELATIONS <P(OR)S>

1 - 5 % 22: -.2422

=LJUNG-BOX PORTMANTEAU TEST STATISTICS ON RESIDUAL AUTOCORRELATIONS <L>

ORDER D.F. STATISTIC SIGNIFICANCE

12 7 7.34 .394

18 13 9.94 .699

24 19 15.62 .682

26 21 16.38 .748

=== FORECASTING FROM DEC1957 WITH FRESH DATA <F>

DATE OBSERVATION FORECAST ERROR % ERROR 95% FORECAST INTERVAL

JAN1958 15.290 15.297 -.007 .0 14.385 16.209

FEB1958 13.780 14.783 -1.003 7.3 13.762 15.803

MAR1958 15.550 16.470 -.920 5.9 15.013 17.926

APR1958 16.270 16.914 -.644 4.0 15.381 18.448

MAY1958 17.360 17.602 -.242 1.4 15.760 19.443

JUN1958 16.600 17.645 -1.045 6.3 15.737 19.553

JUL1958 16.600 17.229 -.629 3.8 15.076 19.383

AUG1958 17.000 17.730 -.730 4.3 15.514 19.945

SEP1958 16.330 16.999 -.669 4.1 14.576 19.421

OCT1958 17.360 17.556 -.196 1.1 15.075 20.038

NOV1958 17.040 17.672 -.632 3.7 15.010 20.334

DEC1958 21.170 20.527 .643 3.0 17.808 23.246

CUMULATED ERROR : -6.073 (= -3.0%); MEAN ERROR: -.506

MEAN ABSOLUTE ERROR (MAE): .613 (= 3.7%);

ROOT MEAN SQUARE ERROR : .686 (= 4.1%); MEAN SQUARE ERROR: .470

MEAN ABSOLUTE PERCENTAGE ERROR (MAPE): 3.7% .

0 POINTS BELOW THE LOWER LIMIT (TOTAL: 12 POINTS)

0 POINTS ABOVE THE UPPER LIMIT (TOTAL: 12 POINTS)

/\/\/\/\/\/\/\/\/\/\/\/\/\/\/\/\/\/\/\/\/\/\/\/\/\/\/\/\/\/\/\/\/\/\/\/\/\/\/