1
2
Développement et utilisation d’un ESG risque réel dans la
gestion d’un fonds de rentes fermé
Mémoire d'actuariat présenté pour l'obtention du
Master professionnel Sciences de gestion, mention finances de marché
Spécialité Actuariat du CNAM
Et l'admission à l'Institut des Actuaires
Mémoire soutenu le
par Alix BAKHOS
Caractère confidentiel : oui
Jury
Président :
M. Alexis COLLOMB
Membres du Jury de l’Institut des Actuaires :
Mme Florence PICARD
M. Pierre PETAUTON
Mme Edith BOCQUAIRE
M. Pierre MATHOULIN
Membres du Jury de la Chaire d’actuariat :
M. François WEISS
M. David FAURE
M. Nathanaël ABECERA
M. Olivier DESMETTRE
Tuteur et Directeur opérationnel de Mémoire :
M. Jean-Christophe BAROU
Responsables opérationnels :
M. Serge WERLE
Mme Valérie DEPPE
M. Guillaume VILLE
3
RESUME ...................................................................................................................................... 7
ABSTRACT .................................................................................................................................... 8
REMERCIEMENTS ........................................................................................................................ 9
1. ROLE DES GENERATEURS DE SCENARIOS DANS LA GESTION DES RISQUES ........................ 10
1.1. La génération de scénarios économiques en assurance ..................................................................... 10
1.2. Générateurs en Risque Réel et Générateurs en Risque Neutre .......................................................... 11 1.2.1. Les Générateurs de scénarios en risque neutre ............................................................................ 11 1.2.2. Les Générateurs de scénarios en risque réel ................................................................................. 13
2. DEVELOPPEMENT DE L’ESG EN RISQUE REEL A.L.A.M.O. ................................................... 16
2.1. Présentation générale de l’environnement de simulation ................................................................. 16 2.1.1. Définition de la période de référence et des hypothèses générales de projection ..................... 16 2.1.2. Présentation des actifs à projeter .................................................................................................. 16 2.1.3. Focus sur les actions ....................................................................................................................... 17 2.1.4. Focus sur les taux ............................................................................................................................ 18 2.1.5. Calcul des moments caractéristiques des indices présentés......................................................... 19
2.2. Définition du cahier des charges de l’ESG A.L.A.M.O. ........................................................................ 21 2.2.1. Introduction .................................................................................................................................... 21 2.2.2. Interprétation des moments au travers de l’analyse des distributions ........................................ 22 2.2.3. Impact du Skewness et de l’Excess Kurtosis sur les distributions ................................................. 26 2.2.4. Rôle du drift et de la volatilité dans la valorisation des indices actions ....................................... 26 2.2.5. Importance de l’autocorrélation sur les taux d’intérêt ................................................................. 30 2.2.6. Impact des corrélations sur la solvabilité d’un fonds .................................................................... 32 2.2.7. Récapitulatif du cahier des charges attendu pour l’ESG ALAMO .................................................. 35
2.3. Génération de Browniens Gaussiens centrés réduits ......................................................................... 36 2.3.1. Introduction .................................................................................................................................... 36 2.3.2. Structure de l’ESG A.L.A.M.O. ........................................................................................................ 36 2.3.3. Tirage des nombres aléatoires constitutifs de la graine de l’ESG ................................................. 36 2.3.4. Convergence des moments d’ordre 1 et 2 ..................................................................................... 37 2.3.5. Calcul des moments ........................................................................................................................ 38 2.3.6. Limites et conclusions du processus de Wiener ............................................................................ 38
2.4. Simulation de queues épaisses de distribution (Leptokurtiques) ....................................................... 39 2.4.1. Introduction .................................................................................................................................... 39 2.4.2. Méthodologies testées pour simuler une distribution Leptokurtique ......................................... 39 2.4.3. Analyse du phénomène à l’origine de la Leptokurticité des actions ............................................ 40 2.4.4. Implémentation du modèle de GARCH .......................................................................................... 42 2.4.5. Calcul des moments ........................................................................................................................ 46
SOMMAIRE
4
2.4.6. Limites et conclusions..................................................................................................................... 46
2.5. Réplication de distributions asymétriques ......................................................................................... 47 2.5.1. Introduction .................................................................................................................................... 47 2.5.2. Analyse empirique de l’origine des distributions asymétriques ................................................... 47 2.5.3. Présentation du modèle AMIGARCH ............................................................................................. 48 2.5.4. Calcul des moments ........................................................................................................................ 49 2.5.5. Limites et conclusions..................................................................................................................... 49
2.6. Construction de mouvements browniens corrélés ............................................................................. 50 2.6.1. Introduction .................................................................................................................................... 50 2.6.2. Présentation du processus de Cholesky......................................................................................... 51 2.6.3. Mise en œuvre du processus de Cholesky ..................................................................................... 51 2.6.4. Formalisation de l’algorithme de Triangularisation de Cholesky ................................................. 52 2.6.5. Exemple numérique........................................................................................................................ 53 2.6.6. Conséquence de l’algorithme de Cholesky sur le CAC 40 et le DJIA ............................................. 54 2.6.7. Calculs des moments ...................................................................................................................... 55 2.6.8. Limites et conclusions..................................................................................................................... 55
2.7. Modélisation de l’autocorrélation ..................................................................................................... 58 2.7.1. Introduction .................................................................................................................................... 58 2.7.2. Implémentation d’un modèle autorégressif dérivé de Yuke Walker ............................................ 59 2.7.3. Conditions aux limites .................................................................................................................... 60 2.7.4. Exemple numérique........................................................................................................................ 61 2.7.5. Calcul des moments ........................................................................................................................ 62 2.7.6. Limites et Conclusion ...................................................................................................................... 63
2.8. Intégration des contraintes de Drift et de Volatilité ........................................................................... 64 2.8.1. Introduction .................................................................................................................................... 64 2.8.2. Construction d’une transformation de type homothétie / translation ........................................ 64
2.9. Conclusions et observations .............................................................................................................. 65 2.9.1. Calcul des moments définitifs ........................................................................................................ 65 2.9.2. Interprétation des résultats ........................................................................................................... 66 2.9.3. Cartographie des transformations dans le calcul des moments ................................................... 67 2.9.4. Quelles conséquences concrètes sur les scénarios générés ? ....................................................... 67
3. BENCHMARKING DE L’ESG A.L.A.M.O................................................................................. 68
3.1. Problématique ................................................................................................................................... 68
3.2. Analyse graphique des scénarios de l’ESG A.L.A.M.O. ........................................................................ 68 3.2.1. Introduction .................................................................................................................................... 68 3.2.2. Analyse graphique des performances générées sur les actions.................................................... 68 3.2.3. Backtesting des indices actions ...................................................................................................... 70 3.2.4. Analyse graphique des corrélations entre les performances actions ........................................... 73 3.2.5. Analyse graphique des taux générés ............................................................................................. 75 3.2.6. Backtesting des indices de taux ..................................................................................................... 76 3.2.7. Analyse graphique des corrélations entre les séries de Taux ....................................................... 79
3.3. Analyse statistique descriptive des scénarios de l’ESG A.L.A.M.O. ..................................................... 82 3.3.1. Introduction .................................................................................................................................... 82 3.3.2. Présentation générale du test statistique du χ² ............................................................................ 82
5
3.3.3. Construction du test du χ² sur les indices ...................................................................................... 83 3.3.4. Résultat du test sur les indices action ............................................................................................ 85 3.3.5. Résultat du test sur les indices taux ............................................................................................... 87 3.3.6. Construction d’une relation liant les OAT 2, 10 et 30 ans ............................................................. 90 3.3.7. Construction d’une ACP sur l’historique ........................................................................................ 93 3.3.8. Position des scénarios d’actifs sur le cercle factoriel de l’ACP ...................................................... 95 3.3.9. Conclusions ..................................................................................................................................... 96
3.4. Limites de l’ESG A.L.A.M.O ................................................................................................................ 97 3.4.1. Introduction .................................................................................................................................... 97 3.4.2. Réplication exacte des Skewness et Excess Kurtosis ..................................................................... 97 3.4.3. Réplication des autocorrélations proches de 1 ........................................................................... 100 3.4.4. Respect des corrélations dans le cas d’actifs auto corrélés ........................................................ 103 3.4.5. Gestion du régime transitoire sur les scénarios de taux ............................................................. 105 3.4.6. Limites du raccordement .............................................................................................................. 107 3.4.7. Limites de la calibration historique .............................................................................................. 109 3.4.8. Conclusions et recommandations ................................................................................................ 110
3.5. Benchamrking d’A.L.A.M.O. avec les autres ESG .............................................................................. 111 3.5.1. Grilles d’analyse des générateurs étudiés ................................................................................... 111 3.5.2. Caractéristiques principales des ESG étudiés .............................................................................. 111 3.5.3. Comparaison des ESG dans l’univers « Risque Réel » ................................................................. 112 3.5.4. Conclusions et recommandations ................................................................................................ 113
3.6. Conclusions relatives au rôle d’A.L.A.M.O. ...................................................................................... 114
4. UTILISATION D’A.L.A.M.O. SUR UN FONDS DE RENTES FERME......................................... 115
4.1. Présentation du contexte et de l’Appel d’Offres .............................................................................. 115 4.1.1. Introduction générale ................................................................................................................... 115 4.1.2. Contexte et problématique .......................................................................................................... 116 4.1.3. Présentation de l’Appel d’Offres .................................................................................................. 116
4.2. Présentation des classes d’actifs utilisées ........................................................................................ 120 4.2.1. Introduction et problématique .................................................................................................... 120 4.2.2. Le Cash .......................................................................................................................................... 120 4.2.3. Le Monétaire ................................................................................................................................. 120 4.2.4. Les Obligations Gouvernementales de maturité courte ............................................................. 121 4.2.5. Les Obligations Gouvernementales de maturité longue ............................................................. 122 4.2.6. Les Obligations d’Entreprise de maturité courte ......................................................................... 122 4.2.7. Les Obligations d’Entreprise de maturité longue ........................................................................ 123 4.2.8. Les Actions Européennes .............................................................................................................. 123 4.2.9. Les Actions Internationales .......................................................................................................... 124
4.3. Hypothèses de taux de rendement monétaire ................................................................................. 125 4.3.1. Hypothèses de croissance réelle .................................................................................................. 125 4.3.2. Hypothèses d’inflation et de croissance nominale ...................................................................... 125 4.3.3. Hypothèses de politique monétaire ............................................................................................ 125
4.4. Définition des hypothèses de rendement des actifs ........................................................................ 126 4.4.1. Position du problème ................................................................................................................... 126 4.4.2. Limites de l’approche historique .................................................................................................. 126 4.4.3. Présentation de l’approche par Primes de Risques ..................................................................... 128
6
4.4.4. Calcul des rendements moyens d’évolution des actifs ............................................................... 132 4.4.5. Construction du tableau des moments de projection ................................................................. 132
4.5. Génération des scénarios stochastiques avec l’ESG A.L.A.M.O. ....................................................... 133 4.5.1. Génération des Scénarios ............................................................................................................. 133 4.5.2. Audit des Moments ...................................................................................................................... 136
4.6. Construction de l’allocation d’actifs optimale .................................................................................. 141 4.6.1. Détermination des facteurs de risques ........................................................................................ 141 4.6.2. Allocation retenue ........................................................................................................................ 141
4.7. Analyse du comportement de l’Allocation retenue .......................................................................... 142 4.7.1. Problématique .............................................................................................................................. 142 4.7.2. Analyse du scénario Médian ........................................................................................................ 142 4.7.3. Distribution des scénarios d’actif net .......................................................................................... 143 4.7.4. Relation Solvabilité / Performance des Actions .......................................................................... 144 4.7.5. Relation Solvabilité / Performances obligataires ........................................................................ 146 4.7.6. Relation Solvabilité / Variations de l’Inflation ............................................................................ 148
4.8. Bilan général du comportement du Fonds sur les scénarios ............................................................. 150
CONCLUSION ........................................................................................................................... 151
BIBLIOGRAPHIE........................................................................................................................ 153
ANNEXES ................................................................................................................................. 154
Annexe I – Table présentant les relations entre les paramètres α, β, γ et H avec l’Excess Kurtosis ............... 154
Annexe II – Table reliant Skewness, Excess Kurtosis et le paramètre q ......................................................... 155
Annexe III – Table de passage des ωi aux coefficients d’autocorrélation ...................................................... 156
Annexe IV – Présentation sommaire d’autres ESG alternatifs à A.L.A.M.O. .................................................. 157
7
Résumé
Prédire l’avenir a toujours constitué un grand défi pour l’être humain : Dans tous les domaines
nous cherchons toujours à anticiper le futur afin de pouvoir soit mieux connaitre nos origines
(Big Bang, Formation du Système Solaire, Théorie de l’Evolution, …) soit prédire des
évènements adverses et prendre les mesures nécessaires pour atténuer leurs effets voir les
prévenir (pandémies, tremblements de terre, changement climatique, krach financiers, sondages
en vue d’une élection politique…). La construction de scénarios d’évolution n’est donc pas
propre au monde actuariel et financier mais constitue un défi mathématique commun à plusieurs
disciplines scientifiques et humaines.
Dans le cadre de ce mémoire d’actuariat, les univers qui nous intéresseront seront les secteurs
de l’assurance vie et de la finance. Les différentes crises ayant secoué le monde de la finance
et de l’assurance ont démontré que les performances passées ne prédisent pas les performances
futures. S’il est impossible de prévoir le sens d’évolution des marchés, nous pouvons en
revanche probabiliser leur évolution et projeter des scénarios d’évolutions qui soient réalistes.
Il n’existe pas sur le marché un Générateur de Scénarios Economiques (ESG) universel : chaque
assureur, en fonction de ses problématiques va développer son propre ESG. L’objectif de ce
mémoire est de présenter un ESG que j’ai développé chez BNP Paribas Cardif et qui a pour
objectif d’accompagner les équipes d’ingénierie financière à optimiser leur allocation d’actifs
dans la gestion des fonds de rentes fermées. Aussi dans la quatrième partie de ce mémoire nous
présenterons une application numérique au travers de la réponse à un Appel d’Offres auquel a
dû répondre BNP Paribas Cardif. Nous ne nous attarderons pas sur la méthodologie de
construction de l’allocation d’actifs (cela peut faire l’objet d’un autre sujet de mémoire) mais
détaillerons en revanche la manière dont le portefeuille retenu se comportera face à différents
scénarios extrêmes.
8
Abstract Predict the future has always been a big challenge fur human being: in all domains we are
always trying to predict the future in order to learn more about our origins (Big Bang, Solar
System creation, evolution theory) or to anticipate adverse events and take necessaries measures
to impeach them (pandemics risks, earthquakes, climate change, politics elections polls…).
Construction of evolution scenarios is not specific to financial and actuarial world but constitute
a common challenge for many scientific and human disciplines.
In this Actuary thesis, universes which will interest us will be life insurance and finance ones.
Different crisis which stroked life insurance and finance worlds showed that past performances
don’t predict future ones. If it is not possible to predict market evolutions, we can however build
a distribution which will affect to each scenario a realization probability.
In the market there isn’t a universal Economic Scenario Generator (ESG): each insurance
company, will develop its own ESG function of its specific problematics. In this thesis we will
describe the construction of the ESG I developed at BNP Paribas Cardif. This ESG shall aim
at supporting financial engineering teams to build asset allocations strategies for the closed
rents funds. Hence in the fourth part of this thesis we will describe a numerical application
through an invitation to tender for which addressed to BNP Paribas Cardif. We will not expose
the methodology to build the asset allocation (it can be the object of another thesis subject) but
will detail the different portfolios ‘behaviour types face to different extreme scenarios.
9
Remerciements Le développement du sujet objet de ce mémoire s’étant étalé sur près de 10 ans j’aurai de nombreuses personnes à remercier. Au niveau pédagogique, je commencerai par le Professeur Michel Fromenteau qui en plus d’avoir été un actuaire de renom ayant apporté beaucoup à l’Institut des Actuaires a aussi été un brillant pédagogue qui a donné goût à l’actuariat à des milliers d’étudiants dont je fais partie. Je profite de l’occasion pour lui rendre un vibrant hommage. Si Monsieur Fromenteau fut incontournable dans mon cursus d’Actuariat je n’oublie pas le rôle majeur joué par François Weiss qui a dû reprendre en 2018 la coordination de mon mémoire dans des conditions très difficiles suite à la disparition brutale de Monsieur Fromenteau. François Weiss par ses observations critiques et justes m’a permis d’améliorer sensiblement mon Mémoire tant sur la forme que sur le fond : ses analyses m’ont amené à prendre du recul sur mon sujet en réalisant un gros travail technique et organisationnel pour le rendre soutenable. Sur le plan opérationnel, je remercie très vivement mon ancien responsable de BNP Paribas Cardif, Jean-Christophe Barou qui m’a proposé le challenge de développer en interne au sein de la Direction des Gestions d’Actifs une première version de Générateurs de Scénarios Stochastiques (ESG) afin de pallier les carences du modèle existant développé par un prestataire externe. Au-delà du défi proposé, son soutien technique lorsque j’ai dû relever le challenge de générer des scénarios corrélés, auto corrélés et présentant des distributions non gaussiennes. Je remercierai aussi mon ancien collaborateur Serge Werlé qui a grandement contribué à transformer A.L.A.M.O. en l’industrialisant pour en faire un véritable Progiciel de calculs alliant ergonomie et vitesse d’exécution. Toujours chez BNP Paribas je voudrais également remercier Valérie Deppe et Philippe Bienaimé qui ont permis à l’ESG de sortir du cadre de la Gestion d’Actifs pure. Valérie Deppe qui était alors responsable ALM a fait appel à cet outil pour qu’il soit utilisé dans les études ALM en risque réel : son intervention m’a permis d’utiliser l’outil devenu alors A.L.A.M.O. pour le compte de clients internes situés en Asie, au Royaume Uni, au Luxembourg et en Amérique du Sud. De son côté Philippe Bienaimé alors Responsable des Risques Assurantiels au sein du Groupe BNP Paribas (département GRM) qui a diligenté un audit détaillé de l’outil A.L.A.M.O. afin de répondre aux exigences réglementaires en matière de robustesse des ESG m’a donné l’occasion de comparer mes développements avec les réalisations effectuées par d’autres acteurs du marché. Cela a grandement contribué à faire connaître A.L.A.M.O. au sein du Groupe BNP Paribas. En dehors du Groupe BNP Paribas, je remercie particulièrement Jimmy Zou et Guillaume Ville qui m’ont donné la possibilité de tester A.L.A.M.O. sur des sujets en rapport à Solvabilité II. Aussi, chez PwC, Jimmy Zou m’a permis au travers de nombreuses missions d’utiliser l’ESG sur des situations concrètes comme par exemple l’évaluation de l’impact de Solvabilité II sur l’ALM des Assureurs et l’allocation d’actifs des Gestionnaires d’Actifs. Ces réalisations m’ont permis de publier dans l’Argus de l’Assurance et d’être invité à une table ronde animée par le journal « Les Echos » pour débattre autour de Solvabilité II. Guillaume VILLE quant à lui a pu porter un regard externe critique sur ce mémoire en me suggérant d’introduire différents tests statistiques pour mieux mettre en valeur cet outil sur le plan académique. Je ne peux finir cette partie sans remercier ma femme et ma famille de m’avoir soutenu psychologiquement aussi bien durant mes années d’études actuarielles au CNAM que durant la rédaction de ce mémoire. Je me permets aussi de rendre un hommage à ma mère adoptive qui a toujours été à mes côtés malgré sa maladie
10
1. Rôle des générateurs de scénarios dans la gestion des risques
1.1. La génération de scénarios économiques en assurance
Avant de présenter les Générateurs de Scénarios Economiques, rappelons tout d’abord la
définition d’un scénario économique introduite par Frédéric Planchet : « Un scénario
économique correspond à une projection de grandeurs économiques et financières sur un
horizon d’intérêt ». Autrement dit, la génération aléatoire de scénarios économiques permet de
projeter à plus ou moins long terme des valeurs de marchés de différents actifs financiers ainsi
que des variables macroéconomiques pertinentes.
Une des principales problématiques de la mise en place d’un ESG est le choix des éléments
composant le modèle : l’économie est représentée par un certain nombre de variables
fondamentales. L'objectif d'un ESG est alors de modéliser ces différentes variables, tout en
tenant compte de leur dépendance, afin de décrire les états du monde plus ou moins probables
sur lesquels l’économie pourra aboutir au terme d’un horizon de temps donné. Dans le cas de
compagnies d’assurance, il s’agit notamment des variables affectants différents postes du
Bilan : taux d’intérêt, performance des actions ou de l’immobilier, inflation ou encore taux de
mortalité.
Un ESG peut avoir plusieurs utilisations, à savoir la prévision, la valorisation de produits
financiers ou encore l’analyse des risques. Remarquons alors qu’un bon outil de génération
aléatoire de scénarios remplit au moins l’une des deux applications suivantes :
- Dans le cas de projections à court terme, il permet l’évaluation des prix d’équilibre
de produits financiers, autrement dit le pricing (Risque Neutre ou Market
Consistant)
- Lorsqu’il s’agit de projections à un horizon plus long terme, l’ESG s’apparente à un
outil d’aide à la décision dans le cadre de la gestion des risques (Risque Réel ou
Historique).
Avec la mise en place de Solvabilité II qui est entré officiellement en place le 1er Janvier 2016,
les ESG voient leur importance augmenter auprès des Assureurs afin de mesurer les risques
inhérents à leurs activités. De plus un ESG permet de tenir compte de l’horizon long terme ce
qui constitue un atout très précieux pour certains Assureurs en particulier les Assureurs Vie
devant faire face à des Provisions Mathématiques de duration élevée (souvent supérieure à 10
ans).
La littérature sur les ESG est abondante mais la crise financière de 2007 qui a débuté par une
crise de liquidité a mis en évidence certaines lacunes de ces générateurs. Les remises en cause
portent principalement sur la prise en compte des risques de liquidité et de crédit ainsi que sur
la modélisation des dépendances entre les différentes variables choisies en particulier durant les
phases de stress de marché (cluster de volatilité et de corrélations). Ainsi le choix des variables
économiques, financières et actuarielles que nous souhaitons modéliser, ainsi que la mise en
œuvre de l‘outil, dépendent principalement de la finalité du générateur.
La construction d’un ESG passe par plusieurs étapes : Avant de nous concentrer sur le
développement d’A.L.A.M.O. nous allons dans la section suivante décrire les deux principaux
types d’ESG qui sont utilisés et dont les objectifs divergent : Les ESG en Risque Neutre (Market
Consistant) et les ESG en Risque Réel (ou Historique)
11
1.2. Générateurs en Risque Réel et Générateurs en Risque Neutre
1.2.1. Les Générateurs de scénarios en risque neutre
L'univers risque neutre est un univers dans lequel tous les agents économiques sont neutres face
au risque, ce qui revient à dire qu'ils n'exigent pas de compensation pour le risque pris. Dans un
tel univers, la rentabilité espérée µ est alors celle du taux sans risque r.
Evaluer un actif dans cet univers revient donc à prévoir les flux futurs que génère cet actif et à
l'actualiser au taux sans risque. Pour une option européenne, cela revient à calculer l'espérance
de son payoff (unique flux à recevoir à la date T) et à l'actualiser au taux sans risque annuel r.
C'est pour cette raison que l'on a:
Valeur du Call (c) à la date 0 = E[ max(ST-K;0) ] * exp( -rT) où E désigne l'espérance.
En risque neutre l’objectif n’est pas de produire des scénarios réalistes en rapport avec
l’historique mais de fournir un jeu de scénario dont les caractéristiques moyennes permettent
de pricer la valeur de rachat des options au même prix que les prix de marché. Il s’agit en
premier lieu de donner des prix qui préviennent tout risque d’arbitrage. De ce fait si dans un jeu
de 1000 scénarios de taux 10 ans, la moyenne des 1000 taux générés converge vers le taux
forward 10 ans associé, le jeu est « validé » en univers « Risque Neutre » même si on a par
exemple 10% des scénarios qui voient le taux 10 ans prendre des valeurs « aberrantes » (valeurs
explosives de l’ordre de 100% ce qui sort de l’ordre de grandeur d’un « taux 10 ans core zone
euro » ou valeur qui reste bloqué à 0% durant des périodes de plusieurs dizaines d’années).
Chez les Assureurs, Mutuelles et Instituts de Prévoyances, les ESG en Risque Neutre sont
utilisés à deux fins :
- Le calcul de l’Embedded Value : Apparue dans les années 1980, l’embedded value
ou valeur intrinsèque, est la méthode classique d’évaluation des portefeuilles
d’assurance vie. Ce calcul permet d’informer les actionnaires sur la performance
financière des entreprises d’assurance vie et a pour fin la transaction ou la
communication. L’embedded value est la valeur actualisée des flux (ou des résultats)
futurs distribuables aux actionnaires. Il s’agit de la valeur des intérêts des
actionnaires dans les revenus distribuables issus des actifs alloués au business
couvert après prise en compte de l’ensemble des risques liés au business couvert.
L’embedded Value permet de prendre ainsi en compte l’actif net ou « part de l’acif
revenant aux actionnaires en date d’évaluation » et la Value In Force ou « Valeur
actuelle des profits futurs à destination des actionnaires et relatifs aux contrats
d’assurance présents dans le portefeuille ». La baisse des cours boursiers à la fin des
années 1990 a remis en cause le calcul d’un Embedded Value déterministe. Il est
apparu plusieurs variantes de cette méthode, notamment l’European Embedded
Value (EEV) en 2004. Cette dernière se base sur une variation stochastique.
L’approche Market Consistent Embedded Value (MCEV) est par la suite devenue
un standard de la valorisation des sociétés d’assurance vie avec la publication en
juin 2008 des « CEV Principe & Guidance ». La MCEV avait alors pour but de
pallier le manque d’harmonisation du calcul de l’EEV au sein des sociétés
d’assurance. Depuis fin 2009, l’approche MCEV constitue le nouveau référentiel de
publication et cherche à évaluer de manière explicite les risques impactant les
compagnies d’assurance. Ces calculs nécessitent la génération aléatoire de scénarios
économiques en risque neutre.
12
- Le calcul des Provisions Mathématiques en Best Estimate : L’autre usage des
ESG en Risque neutre est le calcul des Provisions Mathématiques en Best Estimate
(BE). Il s’agit en particulier de déterminer la valeur des options de rachat par les
assurés des contrats d’assurance vie. Dans le dispositif Solvabilité II, le principe de
calcul des provisions techniques repose sur la distinction entre deux catégories de
risques:
o les risques couvrables : la provision technique correspond au prix de la
couverture financière, construite à partir d’instruments financiers issus d’un
marché profond, liquide et transparent, répliquant les flux futurs d’assurance.
o les risques non couvrables : la provision technique est évaluée par la somme
du best estimate et de la marge pour risque.
L’EIOPA retient comme définition du best estimate la moyenne pondérée en
fonction de leur probabilité des futurs flux de trésorerie compte tenu de la valeur
temporelle de l’argent, laquelle est estimée sur la base de la courbe des taux sans
risque pertinente. La directive européenne stipule que le best estimate doit être
calculé brut de réassurance, en contrepartie un actif de réassurance, tenant compte
des probabilités de défaut du réassureur, est reconnu à l’actif. Les hypothèses de
calcul des provisions best estimate reposent sur des informations actuelles et
crédibles. Ces hypothèses doivent présenter un caractère réaliste. Selon les normes
réglementaires, la courbe retenue pour l’actualisation doit vérifier 4 critères à savoir:
o pas de risque de crédit
o présenter des taux réalistes
o estimer via une méthode robuste
o être très liquides
En pratique, l’EIOPA insiste sur l’utilisation de la courbe construite à partir des
obligations d’Etats notées AAA. En assurance de personne, le calcul du best
estimate nécessite de prendre en compte l’expérience du portefeuille lorsque qu’il
s’agit d’évaluer la probabilité de versement de flux futurs. En outre, le best estimate
présente d’autres difficultés de calcul liées à l’évaluation des garanties financières.
En effet, du fait de l’interaction forte entre l’actif et le passif, notamment en présence
de rachats ou de dispositif de participation aux bénéfices, l’utilisation de techniques
stochastiques est inévitable pour tenir compte de la «valeur temps» de ces garanties.
L’EIOPA définit les règles à retenir en termes de segmentation qui doivent permettre
d’aboutir à des groupes de risques homogènes.
13
1.2.2. Les Générateurs de scénarios en risque réel
En risque réel, l’objectif n’est pas de pricer au plus juste en moyenne le prix des options de
rachat mais de générer un univers de scénarios « réalistes » au regard de ce qui a pu être observé
dans l’historique. L’objectif des ESG risque réel est de pouvoir simuler l’évolution future réelle
d’un certain nombre d’actifs, c’est-à-dire une évolution cohérente sur la base des mouvements
observés par le passé. Les ESG risque-réel s’opposent aux ESG risque-neutre. Ces derniers ont
un objectif tout autre : celui de pouvoir retrouver, à partir d'un jeu de scenarios générés et par
la méthode de Monte-Carlo, les prix de marché des produits dérivés de taux (pour un générateur
de taux) ou actions (pour un générateur actions). Les scenarios issus de tels générateurs n'ont
pas vocation à être cohérents avec le passée, et peuvent tout à fait présenter des évolutions
aberrantes (comme des taux explosifs).
Les ESG en Risque Réel sont utilisés principalement pour les applications suivantes :
- Allocation Stratégique d’Actifs : Entre l’entrée en vigueur de Solvabilité 2 et
l’environnement de taux bas, les assureurs sont amenés à repenser leurs politiques
d’allocation d’actifs pour préserver le rendement. Les asset managers ont identifié
trois leviers possibles pour y parvenir : poursuite de la diversification des titres
obligataires, recherche d’actifs illiquides et regain d’appétit pour les actions.
Comment gérer l’environnement de taux bas dans le contexte de Solvabilité 2 ? Telle
est devenue la nouvelle donne des « chief investment officer » des compagnies
d’assurance de toutes tailles en Europe avec l’entrée en vigueur du nouveau régime
prudentiel. Il s’agit alors de construire l’Allocation Stratégique qui va permettre de
maximiser le rendement financier sous contraintes de SCR. Or une telle approche
dans la mesure où le SCR est homogène à une VaR à 99,5% s’apparente à une
modélisation de type Markowitz avec une complexité supplémentaire puisqu’elle
fait intervenir le Passif. Dans cet environnement, les ESG en Risque Neutre ne sont
pas efficaces dans la mesure où ils ne reflètent pas la situation réelle et peuvent
provoquer des erreurs stratégiques en matière de construction de l’Allocation Actif
/ Passif. Les ESG en risque réel sont dans ce contexte pertinents dans la mesure où
en simulant au plus juste le comportement des actifs particulièrement en période de
crise ils permettent au Responsable ALM de piloter au plus juste l’Allocation
Stratégique suivant des axes relatifs au rendement (Performance financière, PPE,
…) ou au risque (VaR99,5% , PRE, PDD, …)
- Pilotage de l’ORSA : L’ORSA (Own Risk and Solvency Assessment ou Évaluation
interne des risques et de la solvabilité) est un processus interne d’évaluation des
risques et de la solvabilité par l’organisme. Il doit illustrer la capacité de l’organisme
ou du groupe à identifier, mesurer et gérer les éléments de nature à modifier sa
solvabilité ou sa situation financière. Aussi, sa déclinaison opérationnelle en fait-
elle un outil stratégique de premier plan. Sur le plan quantitatif il s’agit pour le
Régulateur de pousser les Assureurs à « challenger » leurs calculs de SCR au moyen
d’une évaluation au plus juste des risques réels pris. Par exemple dans le cas des
Actions cotées Zone Euro, le régulateur en formule standard considère ces actifs
comme « Equity Type I » et sont affectés d’un SCR de 39%. Avec l’ORSA les
Assureurs devront modéliser au plus juste le comportement de ces actifs en
portefeuilles suivant des critères qui soient le plus fidèles que possible au risque réel
14
c’est-à-dire au risque historique. Dans ces circonstances un ESG en risque réel
constituera un atout décisif pour l’assureur car à contrario de l’ESG Risque Neutre
qui modélise suivant des distributions Gaussienne, l’ESG en risque réel se doit à
priori de bien matérialiser les queues de distribution des différents actifs.
ALAMO est un générateur de scénarios économiques et financier (« ESG ») en « risque réel »
dont le développement s’est étalé sur plusieurs années qui ont alterné avancées rapides et contre
temps aussi bien techniques (résolution du problème de l’autocorrélation et des queues de
distribution) qu’administratifs (Audit interne de la Direction des Risques, Audit externe
effectué par l’ACPR). Néanmoins ces contres temps administratifs ont été à l’origine de bonds
techniques significatifs du Générateur de Scénarios. En effet, ce dernier a connu des
améliorations sensibles aussi bien techniques (résolution des problèmes de clusters de volatilité
et de corrélations) qu’informatiques (division par 3 du temps d’exécution et multiplication par
1000 du nombre de scénarios générés).
Le générateur en risque réel A.L.A.M.O. qui fait l’objet de la partie II de ce mémoire a pour
objectif de projeter des scénarios qui soient cohérents par rapport au comportement historique
des actifs.
Afin de simuler le comportement d’un ensemble d’actifs qui soit en « adéquation » avec
l’historique, nous suivront les moments suivants :
- La moyenne (ou drift)
- La volatilité
- La Skewness
- L’Excess Kurtosis
- L’autocorrélation d’ordre 1
- Les corrélations entre actifs
L’ESG ALAMO dont on détaillera le développement dans ce mémoire n’est pas un modèle « a
proprement parlé » académique. L’objectif de cet ESG est de reproduire certaines propriétés de
l’historique en vu de répondre à des Appels d’Offres nécessitant de gérer des fonds de rentes
fermés.
Nous détaillerons dans la prochaine partie le cahier des charges auquel devra satisfaire ALAMO
en analysant le comportement des actifs représentatifs (actions et obligations qui représentent
plus de 90% des engagements à l’actif) que nous souhaitons répliquer.
Une fois le cahier des charges explicité, nous décrirons les principales étapes du développement
de l’outil. L’ESG ALAMO ne repose pas sur un modèle académique, mais sur une analyse
avant tout basée sur une observation et une connaissance des marchés financiers
Néanmoins si l’outil en lui-même n’est pas « académique », les modèles qui le composent
(Cholesky, GARCH, …) font l’objet pour la plupart d’entre eux, d’une littérature abondante.
La difficulté de l’exercice a consisté à faire cohabiter ces modèles afin de répondre aux besoins
15
spécifiques de la réponse aux Appels d’Offres dont nous étudierons un exemple détaillé dans
la partie 4.
La nécessité de devoir satisfaire aux contraintes sera aussi à l’origine de nombreuses limites de
l’outil (séries fortement auto corrélées, Excess-Kurtosis très élevée…) que nous expliciterons
dans la partie 3.
Dans la partie 4, nous détaillerons un exemple de réponse à un Appel d’Offres qui permettra de
montrer comment l’ESG ALAMO est utilisé sur des problématiques d’Allocation Actif / Passif.
Cette partie nous donnera aussi l’occasion de nous attaquer sur une des limites d’ALAMO à
savoir le calage des moments à respecter et de proposer une méthodologie de calibration
cohérente avec l’historique et les conditions macroéconomiques au moment de la simulation.
16
2. Développement de l’ESG en Risque Réel A.L.A.M.O.
2.1. Présentation générale de l’environnement de simulation
2.1.1. Définition de la période de référence et des hypothèses générales de
projection
Nous prendrons comme période de référence des observations historiques, la période allant de
1994 à 2017 pour les deux raisons suivantes :
- Nous disposons d’un historique commun pour tous ces actifs
- Le milieu des années 1990 marque le début de l’intégration Européenne des
différents pays de la Zone Euro : En effet simuler des tirages conformes à un
historique n’a de sens que si les conditions économiques et politiques qui régissent
ce dernier est en phase avec la situation qui prévaut à la date à partir de laquelle se
feront les projections. Si par exemple on souhaite projeter à partir du 31 Décembre
2017 les taux Allemands sur la période de référence 1920 – 1925, ça serait possible
mais cela n’aurait aucun sens macroéconomique dans la mesure où le modèle
Allemand actuel n’a rien à voir avec celui qui prévalait dans les années 20
(Hyperinflation, système bancaire en quasi faillite, …)
Nous projetterons ces actifs sur 30 ans en pas trimestriel :
- Une projection sur 30 ans est en phase avec la vision «long terme» des Assureurs
Vie
- L’utilisation d’un pas trimestriel est réaliste par rapport aux échéances que doivent
respecter les Assureurs Vie (Paiement des rentes, encaissement des primes,
production des états QRT)
2.1.2. Présentation des actifs à projeter
Afin d’aider le lecteur à suivre les grandes étapes du développement de l’ESG A.L.A.M.O.,
nous allons illustrer celles-ci avec la simulation des 5 actifs suivants :
- Taux 2 ans gouvernemental Français (OAT 2 ans)
- Taux 10 ans gouvernemental Français (OAT 10 ans)
- Taux 30 ans gouvernemental Français (OAT 30 ans)
- Actions Françaises (CAC 40)
- Actions Américaines (DJIA)
Cet exemple a été choisi pour être suffisamment simple en vue d’aider le lecteur à comprendre
les transformations implémentées dans l’ESG ALAMO tout en présentant des situations
suffisamment variées pour lui permettre d’en comprendre les enjeux.
Nous modéliserons par ailleurs les actifs avec des lois Normales et Lognormales en y
introduisant des coefficients d’asymétrie et d’aplatissement. Cette hypothèse forte est certes
réductrice (d’autres lois peuvent être testées comme la loi de Poisson, la loi de Pearson) mais
représente une belle avancée par rapport aux modèles académiques implémentés en salles de
marchés pour pricer les dérivés et qui reposent sur des Gaussiennes.
17
2.1.3. Focus sur les actions
L’univers des actifs présentés dans le paragraphe ci-dessus comporte 2 indices actions : l’indice
phare de la bourse de Paris (CAC 40) et l’indice phare de la bourse de New York (Dow Jones
– DJIA)
Le graphique ci-dessous présente les évolutions respectives de ces indices du 31 Décembre
1994 au 21 Décembre 2017.
Source : Bloomberg
Le suivi de la valorisation des indices est intéressant mais dans l’optique d’effectuer des
simulations, les performances des indices sur chaque pas de projection sont plus pertinents à
analyser. Si on note Pt la valeur de l’indice à la date t, alors la performance discrétisée à cette
même date t s’obtient simplement :
Le graphique ci-dessous représente l’évolution des performances trimestrielles qui se déduisent
des valorisations :
𝑟𝑡 =𝑃𝑡𝑃𝑡−1
− 1
18
2.1.4. Focus sur les taux
L’univers des actifs présentés dans le paragraphe 2.1.2. comporte trois séries de taux d’intérêts :
Le taux gouvernemental français à 2 ans (OAT 2 ans), le taux gouvernemental français à 10 ans
(OAT 10 ans) et le taux gouvernemental français à 30 ans (OAT 30 ans).
Le graphique ci-dessous présente les évolutions respectives de ces indices du 31 Décembre
1994 au 21 Décembre 2017.
Source : Bloomberg
Contrairement aux indices actions dont nous calculons les performances entre deux périodes,
pour ce qui concerne les niveaux de taux d’intérêts, les variations de taux d’intérêts sur une
période dt ne nous intéresseront pas dans la mesure où ALAMO comme nous le verrons plus
loin ne simule pas les taux suivant les modèles académiques standards de diffusion (Black,
Vacisek, Cox-Ingersoll-Ross, Hull & White,…)
19
2.1.5. Calcul des moments caractéristiques des indices présentés
Les graphiques présentés dans les paragraphes 2.1.3 et 2.1.4 font apparaître des propriétés
visuelles qui seront quantifiés au travers des moments que nous allons définir.
- Drift (μ) : Nous définirons le drift comme étant la moyenne arithmétique des
rendements ri observés. Si on note n, le nombre d’observations, le Drift sera défini
comme suit :
𝜇 =1
𝑛∑𝑟𝑖
𝑛
𝑖=1
En pratique, si on note X, le vecteur des performances ri, dans le développement
d’ALAMO, la fonction Excel/VBA utilisée sera « MOYENNE (X) »
- Volatilité (σ) : Nous définirons la volatilité comme étant l’écart type des rendements
ri observés. La volatilité sera définie comme suit :
𝜎 = √1
𝑛 − 1∑(𝑟𝑖
𝑛
𝑖=1
− 𝜇)²
En pratique, dans le développement d’ALAMO, la fonction Excel/ VBA utilisée sera
« STDEVA (X) »
- Skewness (S) : Ce moment désigne le Coefficient d’Asymétrie (S) d’une
distribution par rapport à la loi normale qui aura par définition un Coefficient
d’Asymétrie nul : Nous définirons la Skewness comme suit :
S =n
(𝑛 − 1)(𝑛 − 2)∑
(𝑟𝑖 − 𝜇)3
σ3
𝑛
𝑖=1
En pratique, dans le développement d’ALAMO, la fonction Excel/VBA qui sera
utilisée sera « COEFFICIENT.ASYMETRIE (X) »
- Excess Kurtosis ou Coefficient d’Aplatissement (K) : Ce moment mesure
l’épaisseur de la queue de distribution relativement à la loi normale dont l’Excess
Kurtosis sera égale à 0 par construction. On rappelle que la Kurtosis d’une loi
normale vaut 3.
K =(n + 1)n
(𝑛 − 1)(𝑛 − 2)(𝑛 − 3)∑
(𝑟𝑖 − 𝜇)4
σ4
𝑛
𝑖=1
− 3(n − 1)²
(𝑛 − 2)(𝑛 − 3)
En pratique, dans le développement d’ALAMO, la fonction utilisée sera
«KURTOSIS(X)». Il s’agit d’un «abus de notation» car la fonction
«KURTOSIS (X)» ne mesure pas la Kurtosis en absolue mais l’Excess Kurtosis.
La distribution peut prendre deux formes suivant la valeur de K :
20
o Lorsque -3 < K < 0, la distribution est dite platikurtique : les phénomènes
extrêmes sont moins représentés que dans le cas de la loi normale.
o Lorsque K > 0, la distribution est dite leptokurtique : les phénomènes
extrêmes sont plus représentés que la loi normale. C’est le cas le plus
fréquent dans le monde de la finance.
- Coefficient de Corrélation entre 2 actifs « X » et « Y » (ρX,Y) : Dans ce mémoire,
on s’intéressera au coefficient de corrélation linéaire (que l’on appellera par abus de
langage coefficient de corrélation) qui mesure l'intensité affine de la liaison qui peut
exister entre ces variables « X » et « Y ». Deux variables aléatoires peuvent en effet
avoir un coefficient de corrélation linéaire égal à 0 et être « parfaitement corrélées »
(exemple X et Y = X²). De ce fait par abus de langage, lorsque deux actifs ont un
coefficient de corrélation linéaire proche de 0, on dira que ceux-ci ne sont pas
corrélés. Si on note ri la performance de l’actif X à la date Ti et r’i la performance de
l’actif Y à la date Ti, le coefficient de corrélation s’écrit :
𝜌𝑋,𝑌 =∑ (𝑟𝑖 − 𝜇)(𝑟′𝑖 − 𝜇′)
𝑛
𝑖=1
√∑ (𝑟 𝑖
𝑛
𝑖=1− 𝜇)²∑ (𝑟′
𝑖
𝑛
𝑖=1− 𝜇′)²
En pratique, dans le développement d’ALAMO, la fonction Excel/VBA qui sera
utilisée sera « COEFFICIENT.CORRELATION (X ; Y) »
- Coefficient d’Autocorrélation d’ordre 1 (ρ) : Il s’agit du coefficient de corrélation
entre une série temporelle caractérisant l’évolution de l’actif avec cette même série
temporelle translatée d’une période.
Les expressions des moments présentés ci-dessus nous permettent d’en déduire leurs valeurs
numériques pour les différents actifs présentés dans le paragraphe 2.1.2.
μ σ S K ρCAC 40 1,02% 10,32% -0,79 1,06 0,18
DJIA 30 1,65% 8,49% -0,90 1,00 0,12
OAT 2 Ans 2,46% 2,00% 0,14 -0,71 0,98
OAT 10 Ans 3,78% 1,82% -0,05 -0,14 0,98
OAT 30 Ans 4,17% 1,32% -0,75 -0,21 0,97
ρi,j CAC 40 DJIA 30 OAT 2 Ans OAT 10 Ans OAT 30 Ans
CAC 40 1,00 0,69 -0,05 -0,02 0,00
DJIA 30 0,69 1,00 -0,09 -0,02 -0,08
OAT 2 Ans -0,05 -0,09 1,00 0,95 0,82
OAT 10 Ans -0,02 -0,02 0,95 1,00 0,89
OAT 30 Ans 0,00 -0,08 0,82 0,89 1,00
21
2.2. Définition du cahier des charges de l’ESG A.L.A.M.O.
2.2.1. Introduction
Dans la partie 2.1, nous avons présenté l’environnement général de simulation au travers :
- De la définition de l’horizon de simulation
- Du pas de projection
- De l’identification des principaux actifs à simuler
- De l’analyse des propriétés mathématiques de ces actifs au travers du calcul des
moments
Cette partie a pour objet de mettre en lumière les moments calculés précédemment avec le
comportement historique observé de ces actifs et de répondre à des questions très pratiques du
type :
- Quel est l’impact d’une différence de Drift de 63 Bps (1 Bp = 0,01%) sur l’évolution
respective des actions Américaines et Françaises ?
- Comment un écart de près de 2% entre la volatilité des actions Américaines et celle
des actions Françaises impacte t’il non seulement les distributions des performances
mais aussi le trend de long terme pris par chacun des indices respectifs (CAC 40 et
DJIA) ?
- Comment se traduit concrètement une leptokurticité (Excess Kurtosis K > 0)
conjuguée à asymétrie négative (Skewness S < 0) sur les distributions des
performances des actions Françaises et Américaines ?
- Comment traduire au travers d’un indicateur mathématique simple le fait que les
séries temporelles des performances actions sont « accidentées » alors que celles des
valorisations de taux sont « lisses » ?
- Comment le coefficient de corrélation linéaire impacte il les distributions jointes
DJIA / CAC 40, OAT 10 ans / OAT 30 ans, CAC 40 / OAT 10 ans ?
- Comment se traduit concrètement un coefficient de corrélation de 0,69 qui existe
entre le DJIA et le CAC 40 sur la VaR à 95% (performance qui sépare les 5 plus
mauvaises performances observées des 95 autres) d’un portefeuille composé de 50%
d’actions Françaises et 50% d’actions Américaines ?
La VaR (Value at Risk) sera un indicateur très important pour évaluer la probabilité de faillite
d’un fonds de rentes fermé car il permet de définir la frontière entre les scénarios permettant au
fonds d’honorer les rentes (et même de verser de la participation aux bénéfices aux assurés) et
ceux (que l’on étudiera plus en détail dans l’application pratique) pour lesquels l’Entreprise qui
a délégué la gestion du fonds devra verser des capitaux supplémentaires pour honorer ses
engagements.
22
2.2.2. Interprétation des moments au travers de l’analyse des distributions
- Distribution des performances du CAC 40
Le graphique ci-dessous permet de visualiser la distribution des performances trimestrielles
historiques observées sur le CAC 40.
On observe que :
o Les performances relativement à d’autres actifs (taux) que nous verrons plus loin
s’écartent sensiblement de la performance moyenne : Cette observation empirique
est matérialisée par la volatilité (σ = 10,32%) qui mesure la dispersion des
performances par rapport au drift.
o Relativement à la loi normale de paramètres μ et σ, N(μ,σ), on observe une
surpondération des performances « fortement négatives ». Cela se matérialise
mathématiquement par une Skewness négative (S = - 0,79) et un Excess Kurtosis
positif (K = + 1,06)
o On observe une surpondération des rendements inférieurs à μ – σ (15 observations
dans l’histogramme rouge) par rapport aux rendements supérieurs à μ + σ (13
observations dans l’histogramme vert).
23
- Distribution des performances du DJIA
Le graphique ci-dessous permet de visualiser la distribution des performances trimestrielles
historiques observées sur le DJIA.
On observe que :
o Les performances relativement à d’autres actifs (taux) que nous verrons plus loin
s’écartent sensiblement de la performance moyenne : Cette observation empirique
est matérialisée par la volatilité (σ = 8,49%) qui mesure la dispersion des
performances par rapport au drift.
o Relativement à la loi normale de paramètres μ et σ, N(μ,σ), on observe une
surpondération des performances « fortement négatives ». Cela se matérialise
mathématiquement par une Skewness négative (S = - 0,90) et un Excess Kurtosis
positif (K = + 1,00).
o On observe une surpondération des rendements inférieurs à μ – σ (14 observations
dans l’histogramme rouge) par rapport aux rendements supérieurs à μ + σ (13
observations dans l’histogramme vert).
24
- Distribution des taux de l’OAT 2 ans
Le graphique ci-dessous permet de visualiser la distribution des taux sur l’OAT 2 ans.
On observe que :
o Les niveaux de taux relativement aux performances d’autres actifs (actions) que
nous avons vu plus haut s’écartent peu du taux moyen : Cette observation empirique
est matérialisée par la volatilité (σ = 2%) qui mesure la dispersion des performances
par rapport au drift.
o Relativement à la loi normale de paramètres μ et σ, N(μ,σ), on observe une sous
pondération des valeurs extrêmes. Cela se matérialise mathématiquement par une
un Excess Kurtosis négatif (K = - 0,71).
o On observe une surpondération des rendements supérieurs à μ + σ (25 observations
dans l’histogramme vert) par rapport aux rendements inférieurs à μ - σ (14
observations dans l’histogramme vert). Cela se matérialise mathématiquement par
une Skewness positive (S = + 0,14).
- Distribution des taux de l’OAT 10 ans
Le graphique ci-dessous permet de visualiser la distribution des taux sur l’OAT 10 ans.
25
On observe que :
o Les niveaux de taux relativement aux performances d’autres actifs (actions) que
nous avons vu plus haut s’écartent peu du taux moyen : Cette observation empirique
est matérialisée par la volatilité (σ = 1,82%) qui mesure la dispersion des
performances par rapport au drift.
o Relativement à la loi normale de paramètres μ et σ, N(μ,σ), on observe une sous
pondération des valeurs extrêmes. Cela se matérialise mathématiquement par une
un Excess Kurtosis négatif (K = - 0,14).
o On observe une très légère surpondération des rendements inférieurs à μ - σ (13
observations dans l’histogramme rouge) par rapport aux rendements supérieurs à μ
+ σ (12 observations dans l’histogramme vert). Cela se matérialise
mathématiquement par une Skewness très légèrement négative (S = - 0,05).
- Distribution des taux de l’OAT 30 ans
Le graphique ci-dessous permet de visualiser la distribution des taux sur l’OAT 30 ans.
On observe que :
o Les niveaux de taux relativement aux performances d’autres actifs (actions) que
nous avons vu plus haut s’écartent peu du taux moyen : Cette observation empirique
est matérialisée par la volatilité (σ = 1,32%) qui mesure la dispersion des
performances par rapport au drift.
o Relativement à la loi normale de paramètres μ et σ, N(μ,σ), on observe une sous
pondération des valeurs extrêmes. Cela se matérialise mathématiquement par une
un Excess Kurtosis négatif (K = - 0,21).
o On observe une surpondération des rendements inférieurs à μ - σ (34 observations
dans l’histogramme rouge) par rapport aux rendements supérieurs à μ + σ (15
observations dans l’histogramme vert). Cela se matérialise mathématiquement par
une Skewness négative (S = - 0,75).
26
2.2.3. Impact du Skewness et de l’Excess Kurtosis sur les distributions
L’analyse des distributions de taux nous montrent que :
o Lorsque la volatilité des actifs est faible, l’impact du Skewness et de l’Excess
Kurtosis sont à relativiser dans la mesure où ces quantités sont normalisées par la
volatilité.
o Lorsque l’Excess Kurtosis est négative, c’est-à-dire lorsque l’on observe une sous
pondération des valeurs extrêmes par rapport à la loi Normale, le rôle de la
Skewness devient minime dans la mesure où même si par exemple on observe une
asymétrie négative, le poids de ces valeurs restera plus faible que ce qui prévaut
dans le cas d’une loi Normale.
En conclusion, plus la volatilité et l’Excess Kurtosis tendent à être élevés et plus le Skewness
revêt son importance. C’est le cas des indices actions : ces derniers ont une volatilité
importante et présentent des queues épaisses : de ce fait plus la Skewness est négative et plus
on enregistre une probabilité d’avoir des performances extrêmement mauvaises (de l’ordre de
-20% ou -30%) est importante. Cela a un impact non négligeable en matière de gestion des
risques :
o Lorsque un actif perd 20 % entre T et T + 1, il lui faut enregistrer une performance
égale à 1 / (1 – 20%) soit +25% entre T + 1 et T + 2 pour revenir à l’équilibre.
o Lorsque un actif perd 30 % entre T et T + 1, il lui faut enregistrer une performance
égale à 1 / (1 – 30%) soit +42,85% entre T + 1 et T + 2 pour revenir à l’équilibre
2.2.4. Rôle du drift et de la volatilité dans la valorisation des indices actions
- Impact du drift dans sur l’évolution de la valeur de l’indice actions
Nous avons observé dans le paragraphe 2.1.5 que les performances trimestrielles arithmétiques
moyennes (ou Drift) du CAC 40 et du DJIA s’élèvent respectivement à 1,02% et 1,65%. Il en
résulte une sur performance du DJIA de 0,63% par rapport au CAC 40. Mais concrètement que
traduit cet écart de performance sur le long terme dans la valorisation d’un fonds composé soit
de produits financiers indexés sur le CAC 40 soit de produits financiers indexés sur le DJIA ?
Pour effectuer la comparaison, il nous faut se mettre au début de la période historique
d’observations (31/12/1994) et « re baser » (en base 100 par exemple) les deux courbes
représentatives de ces indices.
27
On obtient ainsi le graphique suivant :
Un écart de 0,63% sur le drift trimestriel se traduit après 23 ans d’observations par un écart de
valorisation de près de 166 points !
En partant de 100 au 31/12/2014, l’Indice CAC 40 coterait 160,49 au 31/12/2017 tandis que le
DJIA coterait 326,35. En pourcentage, le DJIA enregistrerait une surperformance cumulée de
plus de 100 % par rapport au CAC 40.
Cet exemple simple démontre à quel point le drift est primordial dans la valorisation d’un
portefeuille et qu’un écart même minime peut avoir de très grosses conséquences en raison de
la composition des performances.
- Impact de la volatilité sur l’évolution de la valeur de l’indice actions
Les paragraphes précédents ont montré que :
o Le drift avait un impact considérable sur l’évolution de la valorisation des indices
o La volatilité, jouait un rôle déterminant dans la forme des distributions et donc dans
le calcul de la VaR
o La Skewness et l’Excess Kurtosis jouaient un rôle plus ou moins important dans la
forme des distributions en fonction de l’importance de la volatilité
Les rôles joués par le drift sur la valorisation des indices et par la volatilité sur la forme de la
distribution sont intuitifs.
Nous allons maintenant quantifier un impact qui est moins intuitif à savoir celui de la volatilité
sur la tendance de long terme des indices actions. Pour ce faire nous allons reprendre les
exemples du DJIA et du CAC 40. Nous avons observé qu’en base 100, le DJIA surperformait
le CAC 40 de plus de 100% sur une période d’observations de 23 ans.
28
Reprenons les séries temporelles des performances de ces deux indices en les centrant autour
de 0%. De ce fait les performances trimestrielles du CAC 40 seront diminuées de 1,02% et
celles du DJIA de 1,65%. Nous obtenons ainsi 2 nouvelles séries temporelles centrées en 0. En
les appliquant à chacun des indices du DJIA et du CAC 40 valorisés à 100 au 31/12/1994, on
obtient le graphique suivant :
Sur le graphique de gauche, on n’observe pas de différence notable entre les valeurs prises par
le DJIA et le CAC 40 au 31/12/2017. Néanmoins, l’échelle est « écrasée » en raison des grandes
variations qu’ont connu ces deux indices lors des crises de 2001 / 2002 et 2007 / 2008. En
zoomant les variations intervenues sur les 2 dernières années, on obtient le graphique de droite.
On observe sur ce graphique de droite un écart de valorisation au 31/12/2017 non négligeable
avec un CAC 40 qui vaut 62,46 contre un DJIA qui en vaut 71,59 soit presque 15% de plus.
Si on note Δ, la surperformance annuelle du DJIA relativement au CAC 40 sur les 23 ans
d’observations, on a la relation suivante :
62,46 ∗ (1 + Δ)23 = 71,59
Ce qui nous donne :
Δ = (71,59
62,46)1/23
− 1
Soit Δ = 0,60%
En d’autres termes, même en centrant les performances du DJIA et du CAC 40 afin d’obtenir
un drift égal à 0 pour les 2 indices, la différence de volatilité trimestrielle (10,32% pour le CAC
40 et 8,49% pour le DJIA) engendre sur cette période de 23 années d’observations une
surperformance annualisée du DJIA relativement au CAC 40 de 0,60 % !!
En d’autres termes, la volatilité agit non seulement sur la forme de la distribution des
performances et donc de la VaR mais aussi sur la tendance d’évolution de l’indice !
0
50
100
150
200
250
300
déc.
-19
94
mai
-19
96
oct.
-199
7
mar
s-1
99
9
ao
ût-
20
00
jan
v.-
20
02
juin
-20
03
no
v.-
20
04
avr.
-200
6
sept
.-20
07
févr
.-20
09
juil.
-201
0
déc.
-20
11
ma
i-20
13
oct.
-201
4
ma
rs-2
01
6
aoû
t-2
01
7
Evolutions respectives du CAC 40 et du DJIA centrés et valorisés en base 100 au 31/12/2014
CAC 40 centré Base 100 au 31/12/2014
DJIA centré Base 100 au 31/12/2014
50
55
60
65
70
75
29
Cette observation constatée sur cet exemple peut se démontrer mathématiquement lorsque l’on
se place dans un environnement en pas de temps continu (dt → 0)
Pour ce faire on note :
o Wt, un mouvement Brownien
o Pt, la valorisation de l’indice à la date t (Po, valorisation de l’indice à la date t = 0)
o μ, le drift de la série temporelle des performances de l’indice
o σ, la volatilité des de la série temporelle des performances de l’indice
On supposera que Wt suit un mouvement brownien géométrique très souvent utilisé comme
modèle d’évolution des cours de bourse. Pt et Wt seront liés par l’équation différentielle
stochastique ci-dessous :
dPt = μ Pt dt+ σ St dWt
Afin de faciliter l’intégration de l’équation différentielle stochastique, on pose: f(St,t) = ln Pt
Le Lemme d’Itô permet de construire une relation liant la nouvelle fonction f aux autres :
𝑑𝑓(𝑃𝑡 , 𝑡) =𝜕𝑓
𝜕𝑡(𝑃𝑡 , 𝑡)𝑑𝑡 +
𝜕𝑓
𝜕𝑃(𝑃𝑡 , 𝑡)𝑑𝑃𝑡 +
1
2σ²𝜕2𝑓
𝜕𝑃2(𝑃𝑡 , 𝑡)𝑑𝑡
On a donc dans le cas particulier de la transformation logarithme népérien :
𝑑(𝑙𝑛(𝑃𝑡 , 𝑡)) = 0𝑑𝑡 +1
𝑃𝑡𝑑𝑃𝑡 +
1
2(σ𝑃𝑡)² (−
1
(𝑃𝑡)²) 𝑑𝑡
Soit en remplaçant dPt par son expression initiale :
𝑑(𝑙𝑛(𝑃𝑡 , 𝑡)) =1
𝑃𝑡(μ 𝑃𝑡 dt + σ 𝑃𝑡 d𝑊𝑡) −
1
2σ²𝑑𝑡
Soit en ordonnant les termes en dt et ceux en dWt :
𝑑(𝑙𝑛(𝑃𝑡 , 𝑡)) = (μ −1
2σ²)𝑑𝑡 + σd𝑊𝑡
En intégrant cette expression on obtient in fine:
𝑃𝑡 = 𝑃0. 𝑒𝑥𝑝 ((μ −1
2σ2)𝑑𝑡 + σd𝑊𝑡)
La relation ci-dessus que vérifie la valorisation de l’indice, démontre que la volatilité impacte à la fois la dispersion des performances mais aussi le trend central que suit l’indice puisque la volatilité σ apparait aussi aux côtés du drift μ
La relation ci-dessus démontre aussi que la volatilité impacte toujours négativement la valorisation moyenne de l’indice boursier.
Ce paragraphe démontre à quel point la volatilité au même titre que le drift est primordial dans la valorisation d’un portefeuille et qu’un écart même minime peut avoir de très grosses conséquences en raison de son implication dans la dispersion (et donc dans la VaR) et dans la tendance centrale.
30
2.2.5. Importance de l’autocorrélation sur les taux d’intérêt
- Analyse des séries temporelles centrées réduites des performances du CAC 40 et du
niveau de l’OAT 10 ans :
Afin d’exclure les impacts de la volatilité et du drift sur les séries temporelles « Performance
CAC 40 » et « Niveau OAT 10 ans », nous allons centrer et réduire les séries.
Si on se place à la date t, les transformations à appliquer sont les suivantes :
o 𝑟′𝐶𝐴𝐶40(𝑡) =𝑟𝐶𝐴𝐶40(𝑡)−𝜇𝐶𝐴𝐶40
𝜎𝐶𝐴𝐶40
o 𝑟′𝑂𝐴𝑇10𝑎𝑛𝑠(𝑡) =𝑟𝑂𝐴𝑇10𝑎𝑛𝑠(𝑡)−𝜇𝑂𝐴𝑇10𝑎𝑛𝑠
𝜎𝑂𝐴𝑇10𝑎𝑛𝑠
On obtient ainsi le graphique suivant :
Sur le plan visuel, on observe une différence notable entre les deux courbes :
- Celle qui représente les performances centrées réduites du CAC 40 est
« accidentée »
- Celle qui représente les taux centrés réduits de l’OAT 10 ans est « lisse »
Pourtant les moments d’ordre 1 et 2 de ces deux séries sont rigoureusement identiques égaux à
0 pour le drift et 1 pour la volatilité.
31
- Stratégie utilisée par un ESG avant le développement d’ALAMO
Avant le développement d’ALAMO, nous utilisions un ESG externe connu sur la place que
nous appellerons « Provider » qui pour éviter aux taux de diverger procédait à un cap 5% / floor
0%. On obtient le graphique ci-dessous :
- Rôle de l’autocorrélation dans le « lissage » des séries temporelles
Les résultats obtenus ne sont absolument pas satisfaisant car en plus d’avoir des taux qui évitent
de diverger, il nous faut simuler une série temporelle dont la valeur à l’instant t + 1 dépend en
partie de sa valeur aux instants t, t – 1, t – 2, …
En d’autres termes sur les performances actions, la probabilité d’observer une valeur à t + 1 se
mettra sous la forme :
P[rt+1] = Pactions
Sur les taux, cette même probabilité s’écrira :
P[rt+1] = α1 . P[rt+1| rt] + α2 . P[rt+1| rt-1] + α3 . P[rt+1| rt-2]+…+Ptaux
Ce phénomène est matérialisé par le coefficient d’autocorrélation.
32
2.2.6. Impact des corrélations sur la solvabilité d’un fonds
- Analyse des distributions jointes CAC 40 / DJIA
Afin de visualiser comment se comporte la distribution des performances du DJIA relativement
à celles du CAC 40 sur une même période, nous construisons le graphique ci-dessous :
On constate qu’une grande partie des performances du DJIA peuvent s’expliquer par celles du
CAC 40 et vice et versa. Cela se matérialise par le coefficient de détermination R² qui s’élève
à près de 0,5. Le coefficient de corrélation calculé dans le paragraphe 2.1.5 s’élève à 0,69.
Néanmoins il est difficile de construire un ESG qui va reproduire des distributions respectant
le critère R² car pour un même R², on peut avoir deux coefficients de corrélation voisins en
valeur absolue mais de signe opposés : le niveau de R donne une indication sur la robustesse de
la relation linéaire
Plus concrètement si l’on considère un portefeuille actions Πa ayant 50% d’actions DJIA et
50% d’actions CAC40, on essaie de calculer la perte moyenne que subirait le portefeuille dans
les configurations où les performances du CAC sont inférieures à 10% (On note cette quantité
ES pour désigner le terme de « Expected Shortfall », on aurait le tableau suivant qui regroupe
les performances concernées :
On aurait alors
ES (Πa | rCAC40 < 10%) = 50 %*μ(CAC40 | rCAC40 < 10%)+50%*μ(DJIA | rCAC40 < 10%)
Comme le portefeuille est équipondéré en actions CAC 40 et DJIA, il suffit de calculer la
performance moyenne des cellules du tableau ci-dessus.
31
/03
/19
95
31
/12
/20
00
30
/09
/20
01
31
/12
/20
01
30
/09
/20
02
31
/03
/20
03
31
/03
/20
08
30
/09
/20
08
31
/12
/20
08
31
/03
/20
09
30
/09
/20
11
30
/06
/20
12
31
/03
/20
16
CAC 40 -10,07% -28,52% -14,03% -29,54% -21,26% -17,22% -15,52% -11,14% -26,76% -19,17% -19,05% -12,15% -12,81%
DJIA 8,45% -20,72% -15,75% -26,73% -17,86% -4,20% -7,55% -4,40% -19,12% -14,36% -11,90% -2,51% 0,85%
33
On a donc : ES (Πa | rCAC40 < 10%) = – 14,35 %
Si les actions du DJIA et du CAC40 n’avaient aucune relation de corrélation, la performance
moyenne du CAC40 conditionnellement aux rendements moyens devant satisfaire une
performance inférieur à -10% s’obtient en calculant la moyenne de la première ligne du tableau
ci-dessus. On a μ(CAC40 | rCAC40 < 10%) = -18,25 %
Dans l’hypothèse où le DJIA ne serait pas corrélé au CAC 40, on aurait :
μ(DJIA | rCAC40 < 10%) = μ(DJIA) = + 1,65 %
En effet en l’absence de corrélations entre CAC40 et DJIA, il n’y a aucune raison à ce que la
performance moyenne du DJIA aux dates où la performance du CAC 40 a été inférieur à -10%
ne corresponde pas à la performance moyenne du DJIA sur l’ensemble de l’historique.
On aurait donc :
ES (Πa | rCAC40 < 10%) = 50 %*(-18,25%)+50%*(+1,65%) = – 8,30 %
En conclusion, sur les Actions CAC 40 et DJIA, la corrélation existant entre ces deux indices,
en plus de modifier la structure graphique de dépendance des distributions jointes impacte
sensiblement un portefeuille équipondéré de ces deux indices : En cas de crise provoquant une
chute de plus de 10% des actions CAC40, le portefeuille équipondéré enregistre une perte de
-14,35% contre -8,30% en l’absence de corrélations. La présence de corrélations CAC 40 et
DJIA est donc responsable des -6,05% de pertes (-14,35 % - (-8,30%))
- Analyse des distributions jointes CAC 40 / OAT 10 ans
Afin de visualiser comment se comporte la distribution des performances du CAC40
relativement aux taux OAT 10 ans sur une même période, nous construisons le graphique ci-
dessous :
On observe graphiquement que le niveau des taux d’intérêt e l’OAT 10 ans n’a aucun pouvoir
explicatif sur les performances du CAC 40
34
- Analyse des distributions jointes OAT 2 ans / OAT 10 ans
Afin de visualiser comment se comporte la distribution des performances du CAC40
relativement aux taux OAT 10 ans sur une même période, nous construisons le graphique ci-
dessous :
Contrairement au graphique précédent, on observe ici une très forte corrélation entre le niveau
de l’OAT 2 ans et le niveau de l’OAT 10 ans. Avec un coefficient de corrélation de 0,95 et un
R² de 0,8943, on observe que près de 90% des variations de l’OAT 10 ans s’expliquent par
celles de l’OAT 2 ans. Cette relation n’est toutefois pas totale car il reste 10% des niveaux
d’OAT 10 ans qui ne s’expliquent pas au travers du niveau de l’OAT 2 ans. C’est ce qui
explique pourquoi une courbe de taux ne suit pas toujours des mouvements de translation mais
peut subir des mouvements de pentification, d’aplatissement voir d’inversion. C’est la raison
qui expliquera plus tard pourquoi l’ESG ALAMO n’utilisera pas des modèles de taux classiques
basés sur la diffusion du taux court (Vacisek, Nelson & Siegel,…) pour projeter des scénarios
de taux d’intérêts.
35
2.2.7. Récapitulatif du cahier des charges attendu pour l’ESG ALAMO
Ce paragraphe 2.2 nous a permets de dresser un état des lieux de ce que l’on attend de l’ESG
ALAMO pour générer des scénarios capables de mieux quantifier les risques pesant sur un
fonds de rentes fermés. Ces caractéristiques longuement décrites peuvent se résumer au travers
des points ci-dessous :
- En raison de l’importance du drift et de la volatilité, les scénarios devront en
moyenne avoir un drift et une volatilité égaux à ceux observés sur l’historique.
- Les actions tendent à présenter des queues épaisses de distribution avec des
asymétries négatives : l’ESG ALAMO devra donc produire des distributions ayant
des Excess Kurtosis positifs et des Skewness négatifs lorsque cela se justifie dans
l’historique en particulier pour les actions.
- Les taux d’intérêts ont des évolutions « lissées ». L’ESG ALAMO devra reproduire
ce type de variations de taux en générant notamment des séries présentant de forts
coefficients d’autocorrélation.
- Les indices actions évoluent de manière plus ou moins corrélés (CAC 40 et DJIA)
tandis que les points de taux évoluent de manière très corrélées : l’ESG ALAMO
devra répliquer ces phénomènes d’évolution des différents actifs pouvant évoluer
soit de manière indépendante soit en « osmose ». La réplication de ce phénomène
passera par la nécessité de générer des scénarios dont le coefficient de corrélation
linéaire se rapproche le plus possible de celui observé dans l’historique.
36
2.3. Génération de Browniens Gaussiens centrés réduits
2.3.1. Introduction
Comme précisé dans le paragraphe 2.2, l’ESG ALAMO doit générer des scénarios qui en
moyenne convergent vers les moments historiques suivants : Drift, Volatilité, Skewness,
Excess Kurtosis, Corrélations, Autocorrélations
Afin d’arriver à ce résultat, le premier challenge consistera à générer des mouvements
Browniens c’est-à-dire des nombres aléatoires car si les scénarios doivent en moyenne
converger, chaque scénario doit avoir une trajectoire propre. En effet comme expliqué dans le
paragraphe 2.1 si la gestion d’un fonds de rentes fermées devait se réduire à l’analyse de la
tendance centrale, le développement d’un ESG n’apporterait rien. Le rôle de l’ESG est de
déterminer les situations pour lesquels le fonds peut faire défaut et de quantifier les poids.
2.3.2. Structure de l’ESG A.L.A.M.O.
Chaque actif sera représenté comme une variable aléatoire qui sera structurée autour d’une Loi
Normale. En effet même si nous avons démontré que les distributions historiques n’ont pas
toujours un comportement Gaussien, rien ne permet de démarrer une modélisation avec une Loi
plus pertinente que la Loi Normale. L’originalité dans la structuration d’A.L.A.M.O. se situe
au niveau de la modélisation de la courbe des taux. En effet, si une courbe de taux comporte 30
maturités, au lieu de simuler 1, 2 ou 3 maturités et d’appliquer un process de diffusion, nous
considèrerons chaque point de la courbe des taux comme un actif à part entière qui doit respecter
par rapport à son historique les critères décrits plus hauts.
2.3.3. Tirage des nombres aléatoires constitutifs de la graine de l’ESG
Afin de ne pas biaiser les transformations qui vont suivre dans les prochains paragraphes, nous
génèrerons des Browniens suivant chacun une Loi Normale Centrée Réduite. On aura donc pour
chacun des 5 actifs à simuler :
CAC 40 ~ N(0 ; 1)
DJIA ~ N(0 ; 1)
OAT 2 ans ~ N(0 ; 1)
OAT 10 ans ~ N(0 ; 1)
OAT 30 ans ~ N(0 ; 1)
Où N (0 ; 1) la loi normale centrée réduite dont on rappelle l’expression
𝑓(𝑟) =1
√2π𝑒12𝑟²
Avec f(r) qui désigne la densité de probabilité d’observer le rendement r
37
En pratique il ne s’agit pas de simuler des densités de probabilité mais des rendements. Pour se
faire, en pratique nous allons générer des nombres aléatoires uniformément répartis dans
l’intervalle] 0 ; 1[.
Sur ces nombres aléatoires, nous allons en inversant la fonction de répartition de la Loi Normale
centrée réduite en déduire des performances « aléatoires ». Ainsi pour chaque nombre aléatoire
pi tiré entre 0 et 1, on en déduit la performance ri qui satisfait la relation suivante :
𝑟𝑖 = 𝑓−1(𝑝𝑖)
En pratique, sur Excel et en VB, générer des performances aléatoires dont la densité de
probabilité suit une loi normale centrée réduite revient à faire tourner la fonction suivante :
LOI.NORMALE.STANDARD.INVERSE(ALEA( ))
2.3.4. Convergence des moments d’ordre 1 et 2
Dans le cas de l’étude du Fonds de rentes fermé, nous génèrerons 1,000 scénarios d’évolution
des actifs afin de ne pas alourdir les calculs. Le graphique ci-dessous est obtenu en calculant
l’espérance des N premiers scénarios générés pour chaque pas de projection allant du trimestre
numéro 1 au trimestre numéro 120 (horizon de 30 ans).
Le graphique ci-dessous est obtenu en calculant l’écart type des N premiers scénarios générés
pour chaque pas de projection allant du trimestre numéro 1 au trimestre numéro 120 (horizon
de 30 ans).
38
On constate que en générant 1,000 scénarios on obtient une convergence satisfaisante de
l’Espérance et de l’Ecart Type des browniens générés qui tendent respectivement vers 0 pour
l’Espérance et 1 pour l’Ecart Type.
On observe néanmoins qu’en dessous de 250 scénarios, la convergence n’est pas « flagrante ».
Si on avait été contraint de générer que 250 scénarios, on aurait généré les Browniens avec une
transformation de Box-Muller :
Dans notre étude, nous devons dans tous les cas générer pas moins de 1,000 scénarios car le
challenge sera non pas d’analyser l’espérance ou la variance mais de calculer des Value at Risk
avec des intervalles de confiance de l’ordre de 1% ou 2%. Or une génération de 250 scénarios
ne sera de tout de façon pas pertinente pour analyser des VaR 98% ou VaR 99%.
2.3.5. Calcul des moments
En calculant les moments des 1000 scénarios générés à ce stade pour chacun des 5 actifs, on
obtient les résultats suivants :
2.3.6. Limites et conclusions du processus de Wiener
On constate que nous sommes à ce stade très loin des moments calculés dans les tableaux du
paragraphe 2.1.5. Pour l’heure nous n’avons en effet que des distributions de rendements
gaussiens centrés réduits qui de plus :
- Ne sont pas corrélés entre eux
- Ne présentent pas de phénomènes d’autocorrélation
- Ne comportent pas d’asymétrie
- Ne comportent pas de queue de distribution
Si le respect des moments d’ordre 1 et 2 s’obtient simplement par translation et homothétie,
celui des autres moments sera plus complexe à obtenir. Dans le prochain paragraphe nous
chercherons à nous différentier de la Gaussienne de base en simulant des queues épaisses de
distribution.
μ σ S K ρCAC 40 0,00% 100,00% 0,00 0,00 0,00
DJIA 30 0,00% 100,00% 0,00 0,00 0,00
OAT 2 Ans 0,00% 100,00% 0,00 0,00 0,00
OAT 10 Ans 0,00% 100,00% 0,00 0,00 0,00
OAT 30 Ans 0,00% 100,00% 0,00 0,00 0,00
ρi,j CAC 40 DJIA 30 OAT 2 Ans OAT 10 Ans OAT 30 Ans
CAC 40 1,00 0,00 0,00 0,00 0,00
DJIA 30 0,00 1,00 0,00 0,00 0,00
OAT 2 Ans 0,00 0,00 1,00 0,00 0,00
OAT 10 Ans 0,00 0,00 0,00 1,00 0,00
OAT 30 Ans 0,00 0,00 0,00 0,00 1,00
39
2.4. Simulation de queues épaisses de distribution (Leptokurtiques)
2.4.1. Introduction
Le paragraphe précédent a mis en évidence les limites des distributions Gaussiennes car elles
tendent à sous-estimer les phénomènes extrêmes ce qui peut s’avérer problématiques lorsque
l’on a à faire à des évènements « adverses » tels que la crise internet des années 2001 / 2002 ou
la crise des subprimes et la faillite de Lehman & Brothers en 2007 / 2008.
2.4.2. Méthodologies testées pour simuler une distribution Leptokurtique
Il existe plusieurs méthodes pour générer des distributions leptokurtiques. Diverses approches
ont été testées :
- Bootstrapping : Méthode consistant à reproduire les performances observées par le
passé dans un ordre aléatoire. Cette méthode est efficace pour reproduire à
l’identique une distribution ayant la même Excess Kurtosis que l’historique.
Néanmoins elle trouve ses limites sur certain actif tel que les taux d’intérêt. Par
ailleurs comme seules les performances passées sont générés (certes dans un ordre
différent que celui de l’historique), on obtient « des trous » dans les distributions
simulées.
- Lois « multinormale » : Cette méthode consiste à générer un mouvement brownien
Gaussien secondaire centré sur la VaR à 95% dont la probabilité de réalisation sera
supérieure à la probabilité d’observation dans le cas Gaussien classique. Cette
probabilité sera calibrée en fonction de la valeur de l’Excess Kurtosis historique.
Cette méthode est intéressante mais passe à côté du principal phénomène générateur
de queues épaisses de distribution en particulier sur les indices actions que nous
verrons juste après.
- Copules : En statistiques, une copule est un objet mathématique venant de la théorie
des probabilités. La copule permet de caractériser la dépendance entre les différentes
coordonnées d'une variable aléatoire à valeurs dans un espace multidimensionnel
sans se préoccuper de ses lois marginales. Cette méthode est intéressante car elle
permet aussi de régler le problème des corrélations entre actifs. Néanmoins la
difficulté choisir le type de copule à utiliser (Archimédienne, Franck, Gumbel,
Clayton) et de calibrer les paramètres ont rendu cette méthodologie difficilement
implémentable et généralisable pour répondre au besoin présenté dans la partie 2.1.
- Processus à sauts : Méthode consistant à partir d’un mouvement gaussien auquel
on rajoute des sauts à la hausse ou à la baisse qui interviennent de manière aléatoire.
Cette méthode est intéressante pour répliquer des performances qui s’écartent de la
Gaussienne. Néanmoins comme nous le verrons plus loin, on passe à côté du
principal phénomène générateur de queues épaisses de distribution en particulier sur
les indices actions.
Les méthodes testées ci-dessus n’ont pas eu des résultats satisfaisant car elles passent à côté
d’un phénomène très important sur les marchés (en particulier les actions) qui est à l’origine de
la formation de queues épaisses de distribution.
40
2.4.3. Analyse du phénomène à l’origine de la Leptokurticité des actions
Nous avons démontré dans le paragraphe 2.2.2 qu’il ne suffit que de quelques observations
extrêmes pour générer des queues de distribution épaisses (et présentant dont des Excess
Kurtosis positves) sur les actions. L’objet du présent paragraphe consistera à démontrer que sur
les indices actions, la majorité des performances extrêmes ne se produit pas de manière
totalement aléatoire.
A partir des performances trimestrielles du CAC 40, nous allons calculer une volatilité glissante
sur T=8 trimestres. On se place à la date t et on note :
- rt, la performance du CAC 40 observée au trimestre t
- σt, la volatilité glissante du CAC 40 prise à la date t sur la période [t – T ; t]
On a donc la relation canonique qui relie σt et rt :
𝜎𝑡 =
√
1
𝑇 − 1∑(𝑟𝑡−𝑖 −
1
𝑇∑𝑟𝑡−𝑗
𝑇−1
𝑗=0
)
2𝑇−1
𝑖=0
Les graphiques représentent les évolutions respectives des performances trimestrielles et de la
volatilité sur 8 trimestres glissants du CAC 40 :
0%
2%
4%
6%
8%
10%
12%
14%
16%
18%
20%
DÉC
.-9
6
DÉC
.-9
7
DÉC
.-9
8
DÉC
.-9
9
DÉC
.-0
0
DÉC
.-0
1
DÉC
.-0
2
DÉC
.-0
3
DÉC
.-0
4
DÉC
.-0
5
DÉC
.-0
6
DÉC
.-0
7
DÉC
.-0
8
DÉC
.-0
9
DÉC
.-1
0
DÉC
.-1
1
DÉC
.-1
2
DÉC
.-1
3
DÉC
.-1
4
DÉC
.-1
5
DÉC
.-1
6
DÉC
.-1
7
Volatilité glissante sur 8 trimestres glissants du CAC 40
-40%
-20%
0%
20%
40%
dé
c.-9
6
dé
c.-9
7
dé
c.-9
8
dé
c.-9
9
dé
c.-0
0
dé
c.-0
1
dé
c.-0
2
dé
c.-0
3
dé
c.-0
4
dé
c.-0
5
dé
c.-0
6
dé
c.-0
7
dé
c.-0
8
dé
c.-0
9
dé
c.-1
0
dé
c.-1
1
dé
c.-1
2
dé
c.-1
3
dé
c.-1
4
dé
c.-1
5
dé
c.-1
6
dé
c.-1
7
Performances Trimestrielles du CAC 40
41
On observe que les performances « extrêmes » constitutives de la queue de distribution du CAC
40 ne se produisent pas de manière « totalement aléatoires ». Elles interviennent à des périodes
dites de crises (Crise des Subprime, Krack Internet) matérialisées par des régimes de forte
volatilité.
Le graphique ci-dessous permet de mieux visualiser le positionnement des performances
extrêmes du CAC 40 sur le plan Volatilité glissante sur 8 trimestres / Performance trimestrielle :
En conclusion on observe que sur les indices actions que nous cherchons à répliquer, les
mouvements extrêmes (ronds rouges, et ronds verts) se produisent dans des régimes à forte
volatilité. La volatilité elle-même n’évolue pas de manière constante mais suit des régimes
alternant des périodes de volatilité faible et des périodes de volatilité élevée voir extrême que
l’on appelle « cluster de volatilité ». Sur le plan macroéconomique, ces clusters s’expliquent
par le passage d’un environnement « Risk On » caractérisé par une confiance accrue des agents
économiques (baisse du chômage, hausse des crédits aux entreprises, hausse des créations
d’entreprises, hausse du moral des investisseurs et des ménages) à un environnement « Risk
Off » caractérisé au contraire par une défiance des agents économiques (chute des crédits,
baisse du moral des investisseurs, baisse de la consommation des ménages, hausse des faillites).
Pour répliquer des queues épaisses de distribution, nous allons donc considérer la volatilité des
actifs non plus comme une constante mais comme une variable aléatoire qui évolue autour de
sa tendance de long terme (σ = 10,32% pour le CAC 40) avec un écart type (dans les salles de
marché l’écart type de la volatilité porte le nom de « volga »).
-40%
-30%
-20%
-10%
0%
10%
20%
30%
0% 5% 10% 15% 20%
Pe
rfo
rman
ce tr
ime
stri
ell
ed
u C
AC
40
Volatilité du CAC 40 sur 8 trimestres glissants
Position des rendements trimestriels du CAC 40 en fonction des niveaux de la volatilité glissante
Zone de forte volatilité : σt > σ
42
2.4.4. Implémentation du modèle de GARCH
Lorsque l’on analyse la cinématique des performances des actions, on observe un « effet
d’entrainement » entre la performance et la volatilité glissante. On passe successivement d’une
période calme avec une volatilité basse à une période agitée avec de fortes volatilités. On sait
que si à la date t, on a un rendement rt très élevé, il y a une grande probabilité pour qu’à t + 1
on observe un rendement rt+1 qui sera en valeur absolu élevé aussi. Cela s’observe sur les
marchés au travers des prix des produits optionnels.
Le modèle GARCH(1,1) repose sur le principe fondamental de rendre la volatilité des
rendements générés stochastique. Pour ce faire la volatilité en date t, t , va dépendre de trois
paramètres :
- 1−tr , le rendement généré en date t – 1 (à défaut, le dernier rendement de l’historique)
- 1−t , la volatilité en date t – 1
- , la volatilité de long-terme.
Ainsi, t sera déterminé de proche en proche de la façon suivante :
22
1
2
1 ... ++= −− ttt r
avec les contraintes : α + β + γ = 1 et γ ≥ 0
Une fois la volatilité locale estimée en date t, le rendement associé est simulé de manière
stochastique par une loi normale :
tr ~N(0 ; σt)
rt-1 dépendant par construction de σt-1, nous fixerons β à 0 en le positionnant exceptionnellement
à 0,1 dans certaines situations pour affiner. Pour simuler un Excess Kurtosis égal à 0, nous
partirons de α = 0 et donc en corollaire γ = 1 – α – β = 1 – 0 – 0 = 1
Par construction, cela revient à générer des rendements Gaussiens centrés avec une volatilité
constante égale à σ. On obtient donc un Excess Kurtosis qui sera égal par définition à 0.
Plus l’Excess Kurtosis augmente et plus la volatilité « locale » σt s’écartera de la volatilité
historique de long terme σ. Afin de déterminer quelle plage d’Excess Kurtosis peuvent couvrir
les paramètres α et γ, nous diminuerons progressivement γ au profit de α en ajustant si besoin
β à 0,1.
Afin d’illustrer le mécanisme, posons α = 0,5 et γ = 0,5 (β vaut alors 1 – 0,5 – 0,5 = 0).
En notant f−1, la loi normale inverse et pt, un nombre aléatoire tiré à la date t suivant une loi
uniforme ]0 ; 1[, on a alors la dynamique suivante :
σ𝑡 = √0,5 ∗ σ2 + 0,5 ∗ r𝑡−1²
𝑟𝑡 = 𝑓−1(0; σ𝑡; 𝑝𝑡) En partant d’un rendement r0 = 0% et d’une volatilité σ0 = 10%, on génère 1000 scénarios allant
d’évolution sur un horizon de 100 périodes. On calcule alors l’Excess Kurtosis obtenue. On
recommence l’opération plusieurs fois. On obtient alors un Excess Kurtosis qui varie entre 1 et
1,5
43
Recommençons l’opération mais en générant 1,000 scénarios sur un horizon de 250 périodes.
On calcule alors l’Excess Kurtosis obtenue. On recommence l’opération plusieurs fois. On
obtient alors un Excess Kurtosis qui varie entre 2 et 3.
On constate donc que contrairement à la volatilité et au drift, l’Excess Kurtosis est sensible au
nombre de périodes de projection : Plus le nombre de périodes de projection augmente et plus
l’Excess Kurtosis augmente. Aussi dans notre exemple ci-dessus on constate que pour un même
triplet de paramètres (α = 0,5 ; β = 0 ; γ = 0,5), l’Excess Kurtosis est multipliée par 2 suivant
que l’on projete sur 100 périodes que sur 250 périodes.
Est-ce que cette observation se vérifie dans l’historique ? Pour ce faire nous allons prendre un
historique de 35 ans en pas mensuel du Dow Jones. A partir de cet historique, nous en déduisons
les performances mensuelles du Dow Jones allant d’Août 1983 à Mai 2018. Puis nous allons
calculer les Excess Kurtosis sur les périodes suivantes :
- Décembre 2017 → Mai 2018
- Novembre 2017 → Mai 2018
- Septembre 2017 → Mai 2018
- …
- Août 1983 → Mai 2018
Les résultats sont rassemblés dans le graphique ci-dessous :
On constate que l’Excess Kurtosis tend à augmenter avec le nombre d’observations ce qui
confirme nos calculs au travers des scénarios.
On effectue la même chose avec le CAC 40. Les résultats sont rassemblés dans le graphique ci-
dessous :
-1,50
-1,00
-0,50
0,00
0,50
1,00
1,50
2,00
2,50
3,00
3,50
4,00
août
-83
févr
.-85
août
-86
févr
.-88
août
-89
févr
.-91
août
-92
févr
.-94
août
-95
févr
.-97
août
-98
févr
.-00
août
-01
févr
.-03
août
-04
févr
.-06
août
-07
févr
.-09
août
-10
févr
.-12
août
-13
févr
.-15
août
-16
Exce
ss K
urt
osi
s
Période de calcul allant de MMM-YYYY à Mai 2018
Evolution de l'Excess Kurtosis en fonction de la période de calcul pour le DJIA
Excess Kurtosis calculée entre Octobre 2008
Excess Kurtosis calculée entre Août 1983 et Mai 2018
44
Les résultats sont similaires à ceux observés pour le DJIA.
La conclusion est très intéressante et repose sur le fait que l’Excess Kurtosis est un paramètre
sensible aux évènements extrêmes contrairement à la volatilité. De ce fait plus on remonte loin
dans l’historique et plus on augmente la probabilité d’observer des phénomènes extrêmes.
L’Excess Kurtosis agit comme une variable d’apprentissage qui va mémoriser les performances
extrêmes.
De ce fait afin de calibrer les paramètres α, β et γ, il nous faut intégrer le nombre de pas de
projection. De ce fait pour chaque horizon de projection, il faut calibrer une multitude de triplets
(α ; β ; γ) pour couvrir un spectre le plus large possible de valeurs que peut prendre l’Excess
Kurtosis K. La table présente en annexe I regroupe le niveau d’Excess Kurtosis obtenu en
fonction des valeurs prises par (α ; β ; γ) pour différents nombre de pas de projection possibles.
Illustrons le fonctionnement de cette table avec le CAC 40 que nous devons simuler en pas
trimestriel sur 30 ans donc sur 120 pas de projection. L’Excess Kurtosis que nous devons
approcher est selon l’historique de 1,06. En implémentant la table ci-dessus dans l’ESG, le
nombre de périodes de projection associé à un Excess Kurtosis cible de 1,06 conduira à
sélectionner le triplet (α ; β ; γ) = (0,5 ; 0 ; 0,5)
Le graphique ci-dessous illustre le comportement des 100 premiers scénarios générés pour le
CAC 40 :
-2,00
-1,50
-1,00
-0,50
0,00
0,50
1,00
1,50
2,00
2,50
3,00
3,50
août
-87
déc.
-88
avr.
-90
août
-91
déc.
-92
avr.
-94
août
-95
déc.
-96
avr.
-98
août
-99
déc.
-00
avr.
-02
août
-03
déc.
-04
avr.
-06
août
-07
déc.
-08
avr.
-10
août
-11
déc.
-12
avr.
-14
août
-15
déc.
-16
Exce
ss K
urto
sis
Période de calcul allant de MMM-YYYY à Mai 2018
Evolution de l'Excess Kurtosis en fonction de la période de calcul pour le CAC 40
45
On voit très nettement l’effet GARCH, puisque certains scénarios présentent des chocs
extrêmes, notamment le scénario rouge qui s’écroule brutalement en dessous de 1000 (contre
plus de 5200 au 31/12/2017) avant de continuer à baisser régulièrement jusque sous les 100
points avec des périodes de rebonds. Ceci est la conséquence directe de l’Excess Kurtosis
imposée en entrée. Cependant, la majorité des scénarios ne présente aucun choc, ce qui est
rassurant. Ce système GARCH(1,1) permettant de simuler des Excess Kurtosis permet par la
même occasion de générer des « Black Swann » de type Octobre 1987.
46
2.4.5. Calcul des moments
En calculant les moments des 1000 scénarios générés à ce stade avec GARCH pour chacun des
5 actifs, on obtient les résultats suivants :
2.4.6. Limites et conclusions
Les résultats montrent qu’à ce stade on se rapproche des valeurs cibles de l’historique sur la
volatilité et l’Excess Kurtosis lorsque celle-ci est positive. Le modèle GARCH a du mal en
revanche à reproduire des Excess Kurtosis négatives. Ce n’est pas gênant pour notre étude car
cela montrera juste que lorsque nous analyserons les risques qui pèsent sur un Fonds de rentes
fermés nous auront tendance à considérer que le risque sera au minimum équivalent à celui
modélisé au travers d’un comportement gaussien.
En revanche le modèle de GARCH tel qu’implémenté à ce stade dans l’ESG ne reproduit aucun
jeu de scénario présentant un Skewness différent de 0. Ceci est particulièrement dommageable
pour les indices actions qui comme on l’a vu présentent des asymétries négatives avec une plus
grande probabilité d’observer de fortes performances négatives que positives.
Le modèle de GARCH reste symétrique et ce quel que soit les valeurs prises par les paramètres
α, β et γ
L’objet du prochain paragraphe consistera à transformer le modèle de GARCH pour le rendre
asymétrique.
μ σ S K ρCAC 40 0,00% 10,30% 0,00 1,23 0,00
DJIA 30 0,00% 8,51% 0,00 1,18 0,00
OAT 2 Ans 0,00% 1,99% 0,00 0,00 0,00
OAT 10 Ans 0,00% 1,80% 0,00 0,00 0,00
OAT 30 Ans 0,00% 1,30% 0,00 0,00 0,00
ρi,j CAC 40 DJIA 30 OAT 2 Ans OAT 10 Ans OAT 30 Ans
CAC 40 1,00 0,00 0,00 0,00 0,00
DJIA 30 0,00 1,00 0,00 0,00 0,00
OAT 2 Ans 0,00 0,00 1,00 0,00 0,00
OAT 10 Ans 0,00 0,00 0,00 1,00 0,00
OAT 30 Ans 0,00 0,00 0,00 0,00 1,00
47
2.5. Réplication de distributions asymétriques
2.5.1. Introduction
Le paragraphe précédent a mis en évidence les limites du modèle GARCH qui permet certes de
répliquer des queues de distribution épaisses mais sans pouvoir orienter la distribution. Quel
que soit la manière dont on calibre les paramètres α, β et γ du modèle GARCH, la distribution
générée reste rigoureusement symétrique. Or on a vu que certaines classes d’actifs comme les
actions présentent des asymétries négatives avec une plus forte probabilité d’observer des
performances fortement négatives que fortement positives. L’objet de ce paragraphe consiste à
apporter des améliorations au modèle GARCH afin de le rendre asymétrique.
2.5.2. Analyse empirique de l’origine des distributions asymétriques
Les paragraphes précédents ont montré que l’Excess Kurtosis observée sur les actions est liée
à une alternance du régime de volatilité qui passe d’un régime faible à un régime fort (cluster
de volatilité). Durant les phases de forte volatilité matérialisées par des crises économiques,
sociales voire géopolitiques, les performances des indices actions tendent à être élevées en
valeur absolue. Néanmoins lorsque l’on quantifie le nombre d’occurrences positives et
négatives, on s’aperçoit qu’au même moment ou la volatilité s’accroit, le nombre de
performances négatives augmente au détriment des performances positives.
Afin de générer une distribution asymétrique, il nous faut non pas jouer sur la volatilité comme
ce fut le cas avec GARCH mais introduire des termes illustrant l’asymétrie dans l’expression
même de la performance trimestrielle.
48
2.5.3. Présentation du modèle AMIGARCH
Le modèle consiste à construire un processus dérivé de rt en fonction du niveau de cette
volatilité locale :
- Si σt ≤ σ, on admet que l’on est dans un régime à volatilité dite « normale » alors rt
est inchangé.
- Si σt > σ, on considère que nous sommes dans un régime de volatilité
exceptionnellement élevée dite de crise. Le rendement rt prend alors une des deux
valeurs suivantes :
rt : −|rt| avec une probabilité q|rt| avec une probabilité 1 − q
En notant toujours :
- f, la fonction densité de la loi normale et 𝑓−1(0; σ𝑡; 𝑝𝑡), la fonction densité
inverse de la loi normale centrée en date t et de paramètres σt et calculée à partir du
nombre aléatoire pt
- εt , le signe de 𝑓−1(0; σ𝑡; 𝑝𝑡)
- (pt, qt), les 2 nombres aléatoires tirés à l’instant t suivant une loi uniforme]0;1[,
Le système d’équations vérifié par le couple (σt , ut), s’écrit :
σ𝑡 = √α ∗ r𝑡−12 + 𝛽 ∗ σ𝑡−1
2 + γ ∗ σ2
𝑟𝑡 = |𝑓−1(0; σ𝑡; 𝑝𝑡)| ∗ [𝜀𝑡1σ𝑡≤𝜎 + 1σ𝑡>𝜎(1q𝑡>𝑞 − 1q𝑡≤𝑞)]
Pour comprendre cette expression, on distingue les cas suivant :
- Si σt ≤ σ, la performance est la même que celle générée dans le modèle GARCH
grâce à la variable εt
- Si σt > σ, on distingue deux cas de figures :
o Si le nombre aléatoire qt est supérieur au paramètre q alors la performance
sera forcée positivement
o Si le nombre aléatoire qt est inférieur au paramètre q alors la performance
sera forcée négativement
De la même façon que nous avons établi une équivalence entre (α, β, γ) et K, nos études ont
montré qu’il était possible de relier la valeur de q à la skewness en sortie. Une table a été
construite numériquement. Elle est disponible en Annexe II.
49
2.5.4. Calcul des moments
De par les niveaux de Skewness relativement à l’Excess Kurtosis du CAC 40 et du DJIA, nous
calibrons le paramètre q à 0,95.
Le tableau ci-dessous montre qu’il est difficile de coller à une Skewness de l’ordre de -0,80
pour un Exces Kurtosis tournant autour de 1. Néanmoins en simulant 1,000 scénarios
d’évolution du DJIA et du CAC 40 avec le paramètre q de 0,95, on arrive à générer des
asymétries négatives avec des Skewness atteignant en moyenne -0,55 mais qui peuvent dans
certains scénarios descendre en dessous de -2.
Les calculs des moments sont rassemblés dans le tableau ci-dessous :
Au-delà de ces moyennes, voici ce que l’on obtient en faisant un focus sur le DJIA et le CAC
40 qui présentent ces particularités de présenter des queues épaisses avec asymétrie négative.
2.5.5. Limites et conclusions
Le tableau ci-dessus montre que au-delà de la réplication moyenne d’une queue de distribution
épaisse avec asymétrie négative, l’ESG est capable grâce à l’ajout du second Brownien qt de
simuler des scénarios qui présentent une queue fine ou une queue épaisse avec asymétrie
positive. A ce stade ALAMO arrive à gérer un grand nombre de situations qui n’impliquent pas
la présence de corrélations et d’auto corrélations.
μ σ S K ρCAC 40 0,00% 10,30% -0,54 1,18 0,00
DJIA 30 0,00% 8,51% -0,55 1,00 0,00
OAT 2 Ans 0,00% 1,99% 0,00 0,00 0,00
OAT 10 Ans 0,00% 1,80% 0,00 0,00 0,00
OAT 30 Ans 0,00% 1,30% 0,00 0,00 0,00
ρi,j CAC 40 DJIA 30 OAT 2 Ans OAT 10 Ans OAT 30 Ans
CAC 40 1,00 0,00 0,00 0,00 0,00
DJIA 30 0,00 1,00 0,00 0,00 0,00
OAT 2 Ans 0,00 0,00 1,00 0,00 0,00
OAT 10 Ans 0,00 0,00 0,00 1,00 0,00
OAT 30 Ans 0,00 0,00 0,00 0,00 1,00
SKEWNESS Historique Scénarios
MOYENNE MIN MAX MOYENNE
CAC 40 -0,79 -3,02 1,14 -0,54
DJIA -0,90 -3,13 1,17 -0,55
EXCESS Historique Scénarios
KURTOSIS MOYENNE MIN MAX MOYENNE
CAC 40 1,06 -0,73 19,12 1,18
DJIA 1,00 -3,13 1,17 1,06
50
2.6. Construction de mouvements browniens corrélés
2.6.1. Introduction
A ce stade du mémoire, l’ESG ALAMO est capable de générer des distributions capables de
présenter des queues de distribution épaisses ou fines et qui présentent des asymétries positives
ou négatives.
Néanmoins si pour un scénario donné on analyse à chaque date les performances respectives
du CAC 40 et du DJIA on constate une différence notable par rapport à l’historique comme le
montre les graphiques ci-dessous :
Les graphiques ci-dessus constituent un exemple de la non prise en compte des corrélations
entre indices actions. A ce stade de l’étude, l’ESG ALAMO ne peut évaluer des risques
extrêmes d’actifs corrélés entre eux. Une étude statistique montre que sur les 1000 scénarios
générés, seuls 3 présentent des corrélations entre CAC 40 et DJIA ce qui est en totale
contradiction avec l’historique. L’objet de cette partie constituera à construire un process
permettant de corréler les distributions.
51
2.6.2. Présentation du processus de Cholesky
Le processus de Cholesky permet de simuler une loie multinormale. Pour bien comprendre,
prenons le cas simple de la simulation d’une loi normale (c’est-à-dire, pour un actif). Cette
simulation est caractérisée par deux éléments :
- La moyenne ou Drift μ des valeurs générées
- La volatilité σ de la série
Mathématiquement, la simulation revient à générer des réalisations d’une variable aléatoire X
suivant une loi normale N(μ, σ) : X N(μ, σ)
Maintenant, généralisons le concept en dimension A : prenons le cas d’un ensemble de A actifs :
- De moyenne μ = (μ1 , μ2 , …, μA )’ - Et de matrice de variance – covariance Σ
Il s’agit cette fois-ci de générer H réalisations d’un vecteur aléatoire X = (X1, X2, …, XA)
suivant une loi multinormale N(μ, Σ )
La simulation d’une telle loi multinormale se fait par le biais du processus de Cholesky.
2.6.3. Mise en œuvre du processus de Cholesky
Nous souhaitons générer H réalisations de cette loi multinormale d’ordre A. Pour ce faire il
suffit de simuler H réalisations du vecteur aléatoire μ + LT où :
- μ est le vecteur des moyennes
- L est la matrice de Cholesky de Σ
- T est un vecteur aléatoire de A composantes normales standard
Le processus de Cholesky transforme la matrice de covariance Σ en une matrice L. D’après la
factorisation de Cholesky, L est une matrice triangulaire inférieure telle que Σ = LL’.
L’Algorithme décrit le processus de Cholesky tel qu’il a été implémenté mathématiquement
dans A.L.A.M.O.
Ces H réalisations du vecteur aléatoire X représentent 1 scénario d’horizon H pour les A actifs.
Afin de ne pas surcharger les graphiques les titres des axes des graphiques de cette partie ne
seront pas indiqués. Tous les graphiques ont comme abscisse l’horizon de projection exprimé
en trimestres et comme ordonnée la valeur de la série (il s’agit d’un cours pour des actifs de
type actions, ou d’un niveau de taux pour un actif obligataire).
52
2.6.4. Formalisation de l’algorithme de Triangularisation de Cholesky
Pour i = 1, on détermine la première colonne de L :
111111 ll= d’où 1111 =l
1111 jj ll= d’où 11
1
1l
lj
j
= avec 2 ≤ j ≤ A
On détermine la ième colonne de L (2 ≤ i ≤ A), après avoir calculé les (i-1) premières
colonnes : iiiiiiii llll ++= ...11
d’où
−
=
−=1
1
2i
k
ikiiii ll
On détermine la jème colonne (avec i ≠ j) :
jiiijiij llll ++= ...11
d’où
ii
i
k
jkikij
jil
ll
l−
=
−
=
1
1
.
Avec i + 1 ≤ j ≤ n
On cherche la matrice :
=
−
−−−−
AAAAAA
AAAA
llll
lll
ll
l
L
1,21
1,12,11,1
2221
11
.....
0......
...0............
..................
0......0
00......0
De l’égalité Σ=LL’, on déduit :
( ) ==
===),min(
11
'ji
k
jkik
A
k
jkikijij llllLL avec 1 ≤ i, j ≤ A avec 0=pql si 1 ≤ p < q ≤ A
La matrice Σ étant symétrique, il suffit que les relations ci-dessus soient vérifiées pour i ≤ j
c’est-à-dire que les éléments lij de la matrice L doivent satisfaire :
=
=i
k
jkikij ll1
avec 1 ≤ i, j ≤ A
53
2.6.5. Exemple numérique
Nous allons générer N = 1000 scénarios de A = 2 actifs sur un horizon de H = 250 trimestres
avec :
=
%05.0
%1.0
=
17.0
7.01
%02.01 = et %01.02 =
=
0001.000014.0
00014.00004.0
La matrice de Cholesky de Σ est la suivante :
=
007141428.0007.0
0020.0L
Nous représentons ci-dessous 4 scénarios d’évolution pour ces 2 actifs (en orange, l’actif 1 et
en bleu l’actif 2) :
On aperçoit bien sur ces graphiques la corrélation plutôt forte entre les deux graphiques. Aussi
on retrouve que l’actif 1 bien que corrélé à l’actif 2 reste plus volatil que ce dernier comme
prévu. Enfin en moyenne, l’actif 1 est plus rentable que l’actif 2.
Sur l’ensemble des 1000 scénarios, les valeurs de µ, ρ, et Σ sont en adéquation avec ce qui avait
été imposé en entrée du processus.
54
2.6.6. Conséquence de l’algorithme de Cholesky sur le CAC 40 et le DJIA
Les graphiques ci-dessous illustrent l’impact de la transformation de Cholesky sur le scénario
numéro 20.
On constate que contrairement au paragraphe 2.6.1, les actions du CAC 40 et du DJIA
n’évoluent plus de manière erratique mais suivent des trajectoires qui sont liées les unes aux
autres. Cela est en phase avec le cahier des charges fixé initialement dans la partie 2.2.
55
2.6.7. Calculs des moments
Pour calculer la matrice des coefficients de corrélations des scénarios générés, on va pour
chaque scénario calculer le coefficient de corrélation du CAC 40, du DJIA et des OAT 2, 10 et
30 ans. On considèrera alors que le coefficient de corrélation entre deux actifs comme étant la
moyenne des coefficients de corrélations calculé sur les 1,000 scénarios.
Les tableaux ci-dessous comparent le coefficient de corrélation moyen sur les 1000 scénarios
générés par l’ESG ALAMO avec ceux calculés à partir des historiques :
2.6.8. Limites et conclusions
On constate que le modèle de Cholesky donne d’excellents résultats puisque l’on obtient à
présent des séries dont les coefficients de corrélations sont exactement en phase avec celles
observées sur l’historique. Aussi tout comme sur l’historique, on constate que :
- Le CAC 40 et le DJIA sont corrélés
- Les OAT 2, 10 et 30 ans sont très corrélés
- Les indices actions et obligataires évoluent de manière dé corrélées
Si on prend maintenant les corrélations extrêmes, on obtient ci-dessous la matrice des
coefficients de corrélations minimaux observés sur les scénarios :
Tableau des Coefficients de Corrélations moyens calculés sur les scénarios
ρi,j CAC 40 DJIA 30 OAT 2 Ans OAT 10 Ans OAT 30 Ans
CAC 40 1,00 0,69 -0,04 -0,03 -0,02
DJIA 30 0,69 1,00 -0,08 -0,04 -0,02
OAT 2 Ans -0,04 -0,08 1,00 0,95 0,83
OAT 10 Ans -0,03 -0,04 0,95 1,00 0,88
OAT 30 Ans -0,02 -0,02 0,83 0,88 1,00
Tableau des Coefficients de Corrélations calculés sur les historiques
ρi,j CAC 40 DJIA 30 OAT 2 Ans OAT 10 Ans OAT 30 Ans
CAC 40 1,00 0,69 -0,05 -0,02 0,00
DJIA 30 0,69 1,00 -0,09 -0,02 -0,08
OAT 2 Ans -0,05 -0,09 1,00 0,95 0,82
OAT 10 Ans -0,02 -0,02 0,95 1,00 0,89
OAT 30 Ans 0,00 -0,08 0,82 0,89 1,00
Tableau des Coefficients de Corrélations minimaux calculés sur les scénarios
ρi,j CAC 40 DJIA 30 OAT 2 Ans OAT 10 Ans OAT 30 Ans
CAC 40 1,00 0,36 -0,33 -0,30 -0,31
DJIA 30 0,36 1,00 -0,37 -0,37 -0,29
OAT 2 Ans -0,33 -0,37 1,00 0,83 0,56
OAT 10 Ans -0,30 -0,37 0,83 1,00 0,61
OAT 30 Ans -0,31 -0,29 0,56 0,61 1,00
56
En faisant la même chose pour les coefficients de corrélation maximaux observés, on a :
Ces observations sont très intéressantes car en pratique elles montrent que :
- Les indices actions qui présentent un coefficient de corrélation moyen de 0,70
environ peuvent voir leur corrélation monter au-dessus de 0,90. Ceci est très
intéressant dans la mesure ou on constate que dans les crises extrêmes, les indices
tendent à se corréler positivement.
- Les corrélations entre actions et taux qui tournent en moyenne autour de 0 peuvent
être aussi bien négatives que positives. Ici encore on a observé dans l’historique que
lorsque les taux montent fortement, ça peut engendrer une baisse sur les actions
(crainte de resserrement monétaire, d’accélération de l’inflation) ce qui induit une
corrélation positive. A l’inverse, une baisse très rapide des taux peut aussi entrainer
une baisse des actions (craintes de déflation, de crise économique prolongée) ce qui
induit une corrélation négative.
Les tableaux ci-dessous comparent les moments calculés dans les scénarios et ceux de
l’historique :
On observe que les volatilités cadrent parfaitement avec celles de l’historique. Pour ce qui est
des Skewness et des Excess Kurtosis, on constate que le processus de Cholesky n’a pas modifié
la nature des queues de distribution. Aussi les distributions Leptokurtiques des actions
Tableau des Coefficients de Corrélations maximaux calculés sur les scénarios
ρi,j CAC 40 DJIA 30 OAT 2 Ans OAT 10 Ans OAT 30 Ans
CAC 40 1,00 0,90 0,22 0,27 0,22
DJIA 30 0,90 1,00 0,24 0,28 0,26
OAT 2 Ans 0,22 0,24 1,00 0,97 0,89
OAT 10 Ans 0,27 0,28 0,97 1,00 0,93
OAT 30 Ans 0,22 0,26 0,89 0,93 1,00
Tableau des Moments moyens calculés sur les scénarios
μ σ S K ρ
CAC 40 0,00% 10,32% -0,40 1,14 0,11
DJIA 30 0,00% 8,49% -0,39 1,07 0,10
OAT 2 Ans 0,00% 2,00% 0,02 -0,03 -0,07
OAT 10 Ans 0,00% 1,82% -0,01 0,08 -0,07
OAT 30 Ans 0,00% 1,32% -0,02 -0,09 -0,09
Tableau des Moments calculés sur les historiques
μ σ S K ρCAC 40 1,02% 10,32% -0,79 1,06 0,18
DJIA 30 1,65% 8,49% -0,90 1,00 0,12
OAT 2 Ans 2,46% 2,00% 0,14 -0,71 0,98
OAT 10 Ans 3,78% 1,82% -0,05 -0,14 0,98
OAT 30 Ans 4,17% 1,32% -0,75 -0,21 0,97
57
présentant des asymétries négatives restent après transformation de Cholesky des distributions
Leptokurtiques avec des asymétries négatives.
Lorsque l’on s’intéresse aux valeurs extrêmes prises par les moments, on a les tableaux ci-
dessous :
On observe que au-delà de la moyenne des scénarios, la transformation de Cholesky ne modifie
pas non plus le caractère « diversifié » des scénarios :
- Aussi pour les actions on constate que d’un scénario à l’autre, la volatilité peut varier
du simple au double.
- Pour ce qui est des moments d’ordre 3 et 4, les scénarios reproduisent tous types de
configuration :
o Distributions Leptokurtiques à asymétrie négative (majoritaires)
o Distributions Leptokurtiques à asymétrie positive
o Distributions Platikurtiques
- Sur les taux, bien qu’en moyenne, la distribution des taux n’est pas Leptokurtique,
certains scénarios présentent des queues épaisses avec des Skewness très élevés.
Cela peut paraître paradoxal mais sur le plan macroéconomique cette situation peut
se produire en cas de crise : Les taux augmentent ce qui accroît leur volatilité (il est
plus facile pour un point de taux de passer de 5% à 6% que de passer de 0 % à 1%)
et en retour augmente la probabilité d’avoir une nouvelle croissance du taux. On a
pu l’observer en Grèce lors de la crise en 2010 / 2011. Les taux Grecs ont connu un
emballement puis se sont retrouvés propulser à 80% pour le 2 ans. Durant plusieurs
mois, les taux Grecs enregistraient des variations de plusieurs centaines de points de
base par jour à la hausse comme à la baisse. On observe un peu la même chose (avec
une intensité moindre) avec la crise Italienne des T1 et T2 2018.
Il reste néanmoins à régler le cas du drift et des autocorrélations en particulier pour les taux
d’intérêts dont les mouvements à la date t + 1 sont conditionnés à ceux observés en t.
Tableau des Moments minimaux calculés sur les scénarios
μ σ S K ρ
CAC 40 -4,78% 7,13% -3,13 -0,67 -0,24
DJIA 30 -3,54% 6,33% -2,67 -0,82 -0,26
OAT 2 Ans -0,61% 1,53% -0,58 -1,18 -0,41
OAT 10 Ans -0,58% 1,34% -0,54 -1,13 -0,44
OAT 30 Ans -0,32% 0,91% -0,96 -1,09 -0,43
Tableau des Moments maximaux calculés sur les scénarios
μ σ S K ρ
CAC 40 3,26% 17,05% 1,03 16,88 0,55
DJIA 30 2,81% 13,99% 0,91 21,37 0,53
OAT 2 Ans 0,54% 2,45% 1,98 14,04 0,24
OAT 10 Ans 0,46% 2,26% 1,17 7,36 0,24
OAT 30 Ans 0,36% 1,61% 1,03 4,24 0,19
58
2.7. Modélisation de l’autocorrélation
2.7.1. Introduction
Comme on a pu l’observer dans le paragraphe 2.6, l’ESG ALAMO ne parvient pas à générer
des mouvements auto corrélés.
Graphiquement on peut voir en analysant la projection d’un scénario action et d’un scénario de
taux comment se matérialise l’autocorrélation.
Le fait qu’à ce stade l’ESG ALAMO ne simule pas l’autocorrélation n’est pas gênant pour les
actions où l’auto corrélation historique ne dépasse en généralement pas 0,20. En revanche pour
les taux d’intérêt où l’autocorrélation s’approche de 1, cela se voit graphiquement. Les
scénarios ALAMO sont « accidentés » alors que l’historique est « lisse ». Sur le plan de
l’analyse des risques les conséquences sont importantes car si l’autocorrélation n’est pas
modélisée, l’ESG ALAMO ne peut pas modéliser de scénarios de hausse ou de baisses de taux
sur plusieurs périodes consécutives. A ce stade donc, l’ESG ALAMO est tout simplement
inutilisable pour modéliser les taux d’intérêt.
59
2.7.2. Implémentation d’un modèle autorégressif dérivé de Yuke Walker
L’objectif est de modifier une série initiale (typiquement issue d’une variable aléatoire
gaussienne, et donc d’autocorrélation nulle) en une autre série auto corrélée. L’idée développée
dans A.L.A.M.O. consiste à appliquer à cette série une transformation de type « moyenne
mobile » inspirée des équations de Yuke Walker. En effet nos études ont montré qu’il était
possible d’établir un lien entre :
- L’intensité du lissage appliqué à une série
- Et le niveau d’autocorrélation de cette série
Concrètement, pour un niveau d’autocorrélation cible ρ, nous allons appliquer à la série une
transformation sous la forme d’un vecteur de g = 20 poids.
On notera Ω = [ω1 ; … ; ωg], ce vecteur.
Pour respecter la logique des notations précédentes, on gardera la notation rt pour désigner le
rendement généré par ALAMO à l’instant t. La transformation de Yuke Walker consiste à créer
un rendement r’t dérivé de rt par la relation suivante :
∀𝑡 ≥ 𝑔, 𝑟′𝑡 =∑𝜔𝑖 . 𝑟𝑡−𝑖+1
𝑔
𝑖=1
Cette relation n’est effectivement valable que pour t ≥ g. Dans la pratique, si X représente un
scénario, il suffit de compléter X par les dernières valeurs de l’historique pour pouvoir
construire X’ de façon complète.
Si on note h0 la dernière valeur de l’historique, h1, l’avant dernière valeur de l’historique, … la
relation ci-dessus devient pour t < g :
∀𝑡 < 𝑔, 𝑟′𝑡 =∑𝜔𝑖+𝑡 . ℎ𝑖−1
𝑔−𝑡
𝑖=1
+∑𝜔𝑖 . 𝑟𝑡−𝑖+1
𝑡
𝑖=1
Ce qui nous limite à g = 20 vient de la longueur de l’historique. En effet il arrive souvent lorsque
l’on veut générer des scénarios en pas annuels que l’on n’ait pas un historique supérieur à 20
ans en particulier si on veut générer des séries de taux de certains pays.
60
2.7.3. Conditions aux limites
Bien que nous devons construire une table liant les ωi au coefficient d’autocorrélation•
, ces
derniers doivent vérifier plusieurs propriétés.
- Les ri initialement générés doivent avoir en moyenne un coefficient
d’autocorrélation égal à 0.
- Les ωi , représentant des poids qui intègre l’information, la somme de ceux-ci doit
toujours être égale à 1.
∑𝜔𝑖 = 1
𝑔
𝑖=1
- Lorsque la série historique présente un coefficient d’autocorrélation égal à 0, on doit
avoir en toute logique r’t = rt.
Il en résulte :
𝜔1 = 1
∀𝑖 ∈ [2; 𝑔], 𝜔𝑖 = 0
- Pour avoir un coefficient d’autocorrélation maximal (dans le cas où g = 20, le
coefficient d’autocorrélation obtenu avoisine 0,95), les poids doivent être égaux.
On a donc :
∀𝑖 ∈ [1; 𝑔], 𝜔𝑖 =1
𝑔
- Quel que soit le niveau d’autocorrélation recherché, le rendement calculé à une date
t2 antérieure à une date t1 (t2 < t1 ≤ t) ne peut en aucun cas apporter plus
d’informations à r’t
Il en résulte donc la relation suivante vérifiée par les ωi :
∀𝑖, 𝑖′ ∈ [1; 𝑔]², 𝑖′ < 𝑖 ⇒ 𝜔𝑖′ < 𝜔𝑖
A partir de ces conditions aux limites, nous allons construire à partir d’un grand nombre de
simulation numériques la table qui relie les coefficients 𝜔𝑖avec le coefficient d’autocorrélation
cible •
. Cette table est jointe à l’annexe III.
61
2.7.4. Exemple numérique
Nous allons générer 1 scénario de type « taux d’intérêt » avec les caractéristiques suivantes :
Nous allons donc simuler une réalisation d’une variable aléatoire gaussienne X ~ N(µ,σ) sur un
horizon de 260 jours (1 année ouvrée) puis nous appliquerons à la série résultante les 3
« filtres » correspondant aux 3 niveaux d’autocorrélation cible :
Les résultats sont représentés ci-dessous :
ω1 ω2 ω3 ω4 ω5 ω6 ω7 ω8 ω9 ω10 ω11 ω12 ω13 ω14 ω15 ω16 ω17 ω18 ω19 ω20 Σωi
0,50 50% 29% 13% 5% 3% 0% 0% 0% 0% 0% 0% 0% 0% 0% 0% 0% 0% 0% 0% 0% 100%0,70 30% 23% 22% 14% 9% 3% 0% 0% 0% 0% 0% 0% 0% 0% 0% 0% 0% 0% 0% 0% 100%0,90 9% 8% 8% 8% 7% 7% 6% 6% 5% 5% 5% 5% 4% 4% 3% 3% 2% 2% 1% 1% 100%0,95 8% 7% 7% 7% 6% 6% 5% 5% 5% 5% 5% 5% 5% 5% 4% 4% 3% 3% 3% 3% 100%1,00 5% 5% 5% 5% 5% 5% 5% 5% 5% 5% 5% 5% 5% 5% 5% 5% 5% 5% 5% 5% 100%
•
Taux d’intérêt moyen µ 4%
Volatilité σ 0.5%
Autocorrélation •
0,50 / 0,70 / 0.90 / 0.95 / 1,00
62
On constate bien que plus les séries sont autocorrélées, plus les variations sont lissées.
Graphiquement, on observe néanmoins qu’au-delà d’un coefficient d’autocorrélation
corrélation de 0,90, les séries sont difficilement distinguables. C’est aussi pour cette raison que
nous ne cherchons pas à augmenter la valeur de g et le nombre de coefficients ωi du vecteur.
Pour ces 5 versions du même scénario on a les résultats dans le tableau ci-dessous :
Deux points sont à noter
- On constate que l’autocorrélation en sortie s’approche des valeurs cibles bien que
cela ne soit pas parfait pour les coefficients de corrélations proches de 1: en effet il
faudrait étaler le vecteur de poids sur plus de 20 éléments notamment pour les
autocorrélations élevées.
- La volatilité diminue avec le niveau d’autocorrélation, à cause du lissage (et d’une
moindre mesure, la moyenne). Nous verrons dans la prochaine partie comment les
scénarios seront recentrés pour avoir respecté exactement les contraintes de
volatilité et de drift.
2.7.5. Calcul des moments
En calculant à nouveau les moments sur les scénarios obtenus dans le paragraphe 2.6 après
application du processus Moyennes Mobiles, on obtient les tableaux ci-dessous :
Autocorrélation
CibleTaux Moyen Volatilité
Autocorrélation
Scénario
0,50 3,97% 0,33% 0,49
0,70 3,97% 0,26% 0,73
0,90 3,96% 0,16% 0,92
0,95 3,97% 0,15% 0,95
1,00 3,98% 0,15% 0,97
μ σ S K ρ
CAC 40 0,00% 9,69% -0,42 1,18 0,17
DJIA 30 0,00% 8,27% -0,40 1,08 0,13
OAT 2 Ans -0,03% 0,37% 0,06 -0,43 0,92
OAT 10 Ans 0,00% 0,35% -0,02 -0,36 0,92
OAT 30 Ans 0,04% 0,32% 0,03 -0,36 0,92
Tableau des Coefficients de Corrélations moyens calculés sur les scénarios
ρi,j CAC 40 DJIA 30 OAT 2 Ans OAT 10 Ans OAT 30 Ans
CAC 40 1,00 0,69 -0,02 -0,01 -0,01
DJIA 30 0,69 1,00 -0,02 -0,01 -0,01
OAT 2 Ans -0,02 -0,02 1,00 0,97 0,82
OAT 10 Ans -0,01 -0,01 0,97 1,00 0,92
OAT 30 Ans -0,01 -0,01 0,82 0,92 1,00
63
2.7.6. Limites et Conclusion
Le processus de lissage par les Moyennes Mobiles permet :
- De faire croître sensiblement l’autocorrélation des taux en les rapprochant de celles
observées dans l’historique (chiffres en vert dans le tableau du paragraphe 2.7.5).
C’était l’objectif recherché.
- De ne pas impacter la matrice de coefficient de corrélations. On observe que les
corrélations entre indices actions sont conservées tout comme les corrélations entre
les différents indices de taux. Cela est logique dans la mesure où lorsque l’on
applique une même transformation linéaire à 2 distributions initialement corrélées,
les 2 nouvelles distributions ainsi obtenues restent corrélées.
- De générer des distributions platikurtiques : Plus surprenant à première vue, alors
que le modèle GARCH présenté dans le paragraphe 2.5, ne permet pas de répliquer
des Excess Kurtosis négatives (distributions platikurtiques), l’application du
processus de Moyennes Mobiles arrive à générer des Excess Kurtosis négatives
(Chiffres en bleu dans le tableau du paragraphe 2.7.5). En analysant plus en détail le
phénomène, le processus de transformation par moyenne mobiles pour les séries
auto corrélées tend à gommer les performances extrêmes en les moyennant et donc
en les recentrant autour du drift. Il en résulte donc une « surpondération » des
performances autour du Drift et une « souspondération » des performances extrêmes
ce qui entraine une baisse de l’Excess Kurtosis qui dans le cas des taux OAT passe
en territoire négative (queue moins épaisse que la loi normale). Le processus de
lissage par Moyenne Mobile parvient donc à reproduire des Excess Kurtosis
négatives là où le modèle GARCH échouait.
Il reste néanmoins trois réserves :
- Le processus ne parvient pas à produire des distributions platikurtiques avec une
asymétrie. Cette limite n’est à priori pas gênante en soi dans la mesure où si on a
une distribution moins épaisse que la Gaussienne, le fait d’avoir une asymétrie est
positive ou négative devient un enjeu moins crucial. L’asymétrie a surtout de
l’importance pour les distributions à queue épaisse.
- Le Drift tourne autour de 0% : A ce stade c’est normal puisque nous ne travaillons
qu’avec des distributions centrées.
- La volatilité des séries à fort coefficient d’autocorrélation baisse sensiblement :
Alors que le modèle de Cholesky était parvenu à générer des browniens qui
respectent les contraintes de volatilités et de corrélations (matrice de variance /
covariances), la transformation par moyenne mobiles en lissant les séries
temporelles fait aussi baisser la volatilité (chiffres en rouge dans le tableau 2.7.5).
Le prochain paragraphe aura pour objectif de recentrer les distributions de manière à respecter
rigoureusement les contraintes de volatilité et de drift qui sont fondamentales comme on a pu
le démontrer dans le paragraphe 2.2.4.
64
2.8. Intégration des contraintes de Drift et de Volatilité
2.8.1. Introduction
Le paragraphe 2.7 a montré nous a permis de générer des scénarios d’actifs dont les propriétés
se rapprochent de celles de l’historique en matière d’épaisseur de queue de distribution,
d’asymétrie, de corrélations et d’autocorrélations.
Il faut maintenant pour que l’ESG soit utilisable qu’il produise des scénarios qui respectent les
contraintes de Drift et de Volatilité.
2.8.2. Construction d’une transformation de type homothétie / translation
Dans le paragraphe 2.7, nous avons noté r’t les rendements générés par application du processus
dérivé de Yuke Walker aux rendements rt.
Les paragraphes 2.7 nous a montré que le processus de transformation par Moyenne Mobile
dérivé de Yuke Walker provoque une modification du Drift qui n’est plus tout à fait égal à 0 et
entraine une baisse de la volatilité des scénarios en raison du lissage des performances.
Nous utiliserons les notations suivantes :
- 𝑟"𝑡 : Les rendements que l’on cherche à générer à partir des 𝑟′𝑡
- : Volatilité calculé dans les scénarios obtenus après transformation Yuke Walker
- : Drift calculé dans les scénarios obtenus après transformation Yuke Walker
- σ : Volatilité historique que l’on cherche à estimer par les scénarios
- μ : Drift historique que l’on cherche à estimer par les scénarios
Afin de cadrer avec les contraintes de l’historique, il nous faut d’abord centrer et réduire la série
temporelle des r’t : Cela passe par une translation des r’t de puis une division par
Une fois la série centrée réduite, on multiplie les rendements obtenus par σ afin de cadrer avec
la volatilité historique avant d’effectuer une translation de + μ afin de cadrer avec le Drift de
l’historique.
La relation liant 𝑟"𝑡 et 𝑟′𝑡 s’écrit alors :
𝑟"𝑡 =𝑟′𝑡 −
σ + μ
−
65
2.9. Conclusions et observations
2.9.1. Calcul des moments définitifs
Dans ce paragraphe on calcule les moments obtenus après la dernière transformation décrite
dans le paragraphe 2.9. On les met ensuite en perspective par rapport à l’historique comme le
montrent les tableaux ci-dessous :
Tableau des Moments moyens calculés sur les scénarios
μ σ S K ρ
CAC 40 1,02% 10,32% -0,41 1,18 0,17
DJIA 30 1,65% 8,49% -0,40 1,08 0,13
OAT 2 Ans 2,46% 2,00% 0,00 -0,41 0,92
OAT 10 Ans 3,78% 1,82% 0,00 -0,36 0,92
OAT 30 Ans 4,17% 1,32% -0,03 -0,36 0,92
Tableau des Moments calculés sur les historiques
μ σ S K ρCAC 40 1,02% 10,32% -0,79 1,06 0,18
DJIA 30 1,65% 8,49% -0,90 1,00 0,12
OAT 2 Ans 2,46% 2,00% 0,14 -0,71 0,98
OAT 10 Ans 3,78% 1,82% -0,05 -0,14 0,98
OAT 30 Ans 4,17% 1,32% -0,75 -0,21 0,97
Tableau des Coefficients de Corrélations moyens calculés sur les scénarios
ρi,j CAC 40 DJIA 30 OAT 2 Ans OAT 10 Ans OAT 30 Ans
CAC 40 1,00 0,69 -0,02 -0,01 -0,01
DJIA 30 0,69 1,00 -0,02 -0,01 -0,01
OAT 2 Ans -0,02 -0,02 1,00 0,97 0,82
OAT 10 Ans -0,01 -0,01 0,97 1,00 0,92
OAT 30 Ans -0,01 -0,01 0,82 0,92 1,00
Tableau des Coefficients de Corrélations calculés sur les historiques
ρi,j CAC 40 DJIA 30 OAT 2 Ans OAT 10 Ans OAT 30 Ans
CAC 40 1,00 0,69 -0,05 -0,02 0,00
DJIA 30 0,69 1,00 -0,09 -0,02 -0,08
OAT 2 Ans -0,05 -0,09 1,00 0,95 0,82
OAT 10 Ans -0,02 -0,02 0,95 1,00 0,89
OAT 30 Ans 0,00 -0,08 0,82 0,89 1,00
66
2.9.2. Interprétation des résultats
Les calculs dans le paragraphe 2.9.1 ci-dessus nous permettent de tirer les conclusions
suivantes pour chacun des moments étudiés sur les principaux actifs constitutifs de notre
portefeuille :
- Drift : On observe que le Drift moyen des scénarios cale exactement avec celui de
l’historique et ce pour chaque actif (chiffres en bleu). Les transformations effectuées
dans le paragraphe 2.8 ont permis d’y arriver.
- Volatilité : Tout comme pour le Drift, on observe que la Volatilité moyenne des
scénarios cale exactement avec celui de l’historique et ce pour chaque actif (chiffres
en violet). Les transformations effectuées dans le paragraphe 2.8 ont permis d’y
arriver.
- Skewness :
o Le modèle AMIGARCH (paragraphe 2.5) a permis en particulier pour les
actions de générer des distributions asymétriques négatives (S < 0) en
présence de queue épaisse de distribution (K > 0) comme dans le cadre de
l’historique (chiffres en vert foncé).
o En revanche, l’ESG ALAMO ne réplique pas des asymétries négatives sur
des distributions Platikurtiques (K < 0). Cela se remarque sur l’OAT 30 ans
(chiffres en rouge).
- Excess Kurtosis :
o Le modèle GARCH (Paragraphe 2.4) a permis de générer des distributions
Leptokurtiques (K > 0) et Mésokurtiques (K ≈ 0) à partir d’une calibration
appropriée des coefficients α, β et γ (Chiffres en vert foncé et en vert clair).
Les transformations effectuées dans la partie 2.4. ont permis d’y arriver
o Le modèle dérivé de Yuke Walker de transformation par Moyennes Mobiles
(Paragraphe 2.7) a permis pour les taux de gommer certains points
« extrêmes » ce qui a eu pour effet collatéral de transformer les distributions
Mésokurtiques en distributions Platikurtiques (chiffres en vert clair faisant
apparaitre des Excess Kurtosis négatives).
- Autocorrélations : Le modèle dérivé de Yuke Walker de transformation par
Moyennes Mobiles (Paragraphe 2.7) a permis pour les taux de générer des séries
temporelles avec un effet de mémoire et donc autocorrélées (chiffres en orange
foncé). Pour les séries qui ne présentent pas de phénomènes d’autocorrélation,
l’application d’une transformation de type Yuke Walker avec un coefficient ω1
proche de 1, permet de générer des séries avec un coefficient d’autocorrélation
proche de 0 comme c’est le cas pour les actions (chiffre en orange clair)
- Corrélations : Le modèle de Cholesky (Paragraphe 2.6) a permis de transformer
des Browniens indépendants en Browniens plus ou moins corrélés en fonction de la
matrice de variance / covariances de l’historique. La mise en place d’un format
conditionnel permet de montrer visuellement qu’indépendamment des chiffres, les
blocs de corrélations sont les mêmes dans les scénarios que dans l’historique.
67
2.9.3. Cartographie des transformations dans le calcul des moments
Le schéma ci-dessous permet de situer la position de tous les process présentés dans cette partie
et d’indiquer quelle contrainte chacun d’entre eux permet de lever.
2.9.4. Quelles conséquences concrètes sur les scénarios générés ? Nous avons pu dans cette partie générer des distributions dont les principaux moments se
rapprochent de ceux de l’historique. La prochaine partie aura pour objectif de traduire
concrètement les conséquences qui découlent de la satisfaction de ces contraintes. Elle aura
pour objectif de challenger l’ESG ALAMO de manière endogène (études de cas, identification
des limites) et exogène (comparaison avec d’autres ESG)
1 1 2 1 2 2 1 1 2 2 1 2 1 2 1 2 1 2
2 2 2 1 2 2 2 2 2 2 1 2 1 2 2 2 1 1
Browniens suivant des lois
uniformes
WIENER
AMIGARCH
CHOLESKY
YUKE WALKER
Browniens centrés réduits
GARCH
Distributions Leptokurtiques
(K > 0) et Symétriques (S= 0)
Distributions Leptokurtiques
(K > 0) avec Asymétrie négative
(S < 0) ou positive (S > 0)
Distributions répondant aux
contraintes de Drift
Distributions répondant aux
contraintes de Volatilité
Distributions corrélées entre elles
COMPOSEE
Homothétie +
Translation
Distributions présentant des
phénomènes d'autocorrélationDistributions Platikurtiques
68
3. Benchmarking de l’ESG A.L.A.M.O.
3.1. Problématique
La seconde partie nous a permis de décrire les grandes étapes du développement de l’ESG
A.L.A.M.O. après en avoir dressé le cahier des charges à savoir la génération de scénarios
stochastiques dont les principaux moments (Drift, Volatilité, Skewness, Excess Kurtosis,
Autocorrélation, Corrélations) cadrent avec l’historique. A la fin de la seconde partie nous
avons pu mettre générer un jeu de 1,000 scénarios qui répondent sensiblement à ces critères :
- Mais quelle conséquence matérielle le respect de ces moments a-t-elle sur les
scénarios ?
- Comment cela se traduit-il objectivement ?
Cette partie aura aussi pour objectif de chalenger les scénarios produits par A.L.A.M.O. puis
l’ESG A.L.A.M.O. lui-même au moyen de différentes méthodes. On distingue :
- Les méthodes endogènes : Elles passent par la mise en exergue des limites propres
à l’ESG visant à respecter certaines contraintes initialement fixées.
- Les méthodes exogènes : Elles consistent à comparer les caractéristiques de l’ESG
A.L.A.M.O. avec d’autres ESG.
3.2. Analyse graphique des scénarios de l’ESG A.L.A.M.O.
3.2.1. Introduction
Dans ce paragraphe nous allons analyser les scénarios produits par l’ESG A.L.A.M.O. dans la
partie II. Dans un premier temps nous analyserons graphiquement le comportement des
scénarios et les confronterons à l’historique.
3.2.2. Analyse graphique des performances générées sur les actions
En générant 1,000 scénarios actions sur 120 trimestres, on obtient 120,000 observations
générées sur les actions CAC 40 et DJIA que l’on peut mettre en rapport avec les 93
observations historiques sur chacun de ces deux indices.
Pour le CAC 40, comme pour le DJIA, on mettra également en rapport la distribution
Gaussienne afin de situer la distribution théorique par rapport aux observations passées et les
projections futures générées par ALAMO.
Les résultats sont rassemblés dans les graphiques ci-dessous :
69
On observe de manière empirique que les scénarios générés par ALAMO couvrent un spectre
plus large que l’historique surtout pour le CAC 40. Cela n’est pas surprenant car l’historique ne
comprend que 93 observations contre 120,000 pour les scénarios. En revanche ce qui semble
intéressant c’est que les graphiques semblent montrer que les scénarios ALAMO approximent
davantage les risques extrêmes que la distribution Gaussienne pourtant utilisée en vigueur dans
les salles de marché ou même en Assurance pour effectuer les calculs réglementaires en Risque
Neutre (Calculs de SCR, ORSA).
70
3.2.3. Backtesting des indices actions
Après avoir comparé graphiquement les distributions des performances du CAC 40 et du DJIA,
nous allons nous intéresser à la valorisation des indices qui résulte des performances générés.
A partir des 1,000 scénarios générés sur les performances du CAC 40 et du DJIA, nous en
déduisons 1,000 scénarios de valorisation des indices.
Au 31/12/1994, les valorisations respectives s’élevaient à
- 1976 pour le CAC 40
- 3834 pour le DJIA
Nous allons reconstruire les valorisations des indices CAC 40 et DJIA du 31/12/1994 au
31/12/2017. Cette constructions des indices en pas trimestriel (pas discrets) à partir des
performances générées se fait de proche en proche. En notant :
- It,n : La valorisation d’un indice à la date t, pour le scénario n,
- rt + 1, n : la performance de l’indice entre t et t + 1 pour le scénario n
La valorisation de l’indice à t + 1 pour le scénario n s’écrit simplement :
It+1,n = It,n * (1 + rt+1,n)
L’objectif de cette partie consiste à trouver parmi les scénarios la trajectoire qui se rapproche
le plus de celle observée dans l’historique.
Par exemple si on prend un scénario au hasard (le scénario 1 par exemple), on obtient le
graphique suivant qui compare l’évolution backtestée du CAC 40 du 31/12/1994 au 31/12/2017
avec celle réellement observée :
Le graphique montre que les projections peuvent s’éloigner sensiblement de ce que l’on observe
effectivement. Afin de comparer objectivement l’historique avec un scénario backtesté, nous
71
pouvons tester tous les 1,000 scénarios les uns à la suite des autres. Cette méthode serait
fastidieuse. Pour ce faire, nous allons pour chaque date et chaque scénario calculer la distance
entre la valorisation de l’indice calculé via le scénario et celui de l’historique.
En notant Dt,n cette distance à la date t pour le scénario n, on a :
D²t,n = (It,n – It,historiue)² Pour chaque scenario nous calculons la somme des carrés des distances (que l’on notera MCOn)
sur la durée du backtesting du 31/12/1994 au 31/12/2017 qui comprend h = 92 trimestres.
𝑀𝐶𝑂𝑛 =∑𝐷²𝑖,𝑛
ℎ
𝑖=1
Nous allons ensuite sélectionner le scénario ayant le MCO le plus petit (méthode appelée
« Moindres Carrés Ordinaires ») qui sera donc celui qui approximera le plus le scénario observé
dans l’historique. Dans le cas du CAC 40, le scénario ayant le MCO le plus petit est le scénario
877 (MCO égal à 25,056,623). Le graphique ci-dessous représente le backtesting de ce scénario
sur la période allant du 31/12/1994 au 31/12/2017 :
On fait de même avec le DJIA. La Méthode des Moindre Carrés Ordinaires fait apparaitre un
MCO minimal égal à 393,962,360 pour le scénario numéro 866 et un second très proche égal à
380,402,350 pour le scénario 877
Les graphique ci-dessous représente le backtesting des scénarios 866 et 877 sur l’historique
allant du 31/12/1994 au 31/12/2017 :
72
On observe graphiquement que pour le CAC 40 comme pour le DJIA, ALAMO arrive à
reproduire des évolutions indicielles en rapport avec ce qui s’est réellement passé. Les scénarios
projetés par ALAMO sont « réalistes » par rapport aux contraintes risque réel et il est possible
que parmi les 1,000 scénarios projetés par ALMAO, il y en ait un qui corresponde à la trajectoire
que suivra effectivement le CAC 40 et le DJIA.
Bien évidemment les graphiques montrent aussi que l’on n’arrive pas à reproduire exactement
la trajectoire suivie par l’historique contrairement à certaines méthodes qui y parviennent
comme la méthode de Boostrapping. Néanmoins au vu du cahier des charges fixé en début de
la seconde partie, il vaut mieux avoir une méthode qui ne reproduise pas à l’identique le passé
mais qui permette de bien quantifier les risques que d’avoir une méthode qui va reproduire
exactement la distribution de l’historique (Bootstrapping) mais en laissant « des trous dans la
raquette » car la méthode du Bootstrapping comme son nom l’indique sera incapable de générer
des performances différentes de celles observées dans l’historique.
73
3.2.4. Analyse graphique des corrélations entre les performances actions
En rassemblant les 120,000 performances générées sur le DJIA et le CAC 40 (1,000 scénarios
projetés sur 30 ans soit 120 trimestres), on obtient le graphique ci-dessous.
On observe que la distribution jointe des performances du CAC 40 relativement à celles du
DJIA des scénarios ont « la même forme » que l’historique. Cela illustre le fait que les
performances des deux indices sont corrélées aussi bien dans les scénarios que dans l’historique.
Intéressons-nous à présent sur la stabilité du coefficient de corrélation dans le temps. Pour cela
nous allons calculer un coefficient de corrélation historique sur 1 année glissante. Le graphique
ci-dessous matérialise l’évolution de ce coefficient :
74
On observe que globalement le coefficient de corrélation fluctue autour de 0,69 avec une grande
variabilité. Durant les phases de croissance, la corrélation tend à baisser : l’effet diversification
joue pleinement son rôle. En revanche durant les phases de crise (Crise Asiatique de 1998,
Krack Internet de 2001 / 2002, Faillite de Lehman & Brothers de 2008, Crise de la Zone Euro
de 2014), les corrélations tendent vers 1 ce qui signifie que les indices évoluent de manière
parfaitement synchrone à la baisse : l’effet de diversification perd son sens.
Qu’en est-il dans le cas des scénarios. Nous ne pouvons pas représenter l’évolution graphique
de tous les scénarios. Néanmoins afin de synthétiser au maximum l’information, nous allons
représenter l’évolution de la corrélation glissante sur 4 trimestres entre DJIA et CAC 40 dans
le cas de 3 scénarios précis :
- Scénario dont le coefficient de corrélation entre DJIA et CAC 40 est égal coefficient
de corrélation médian des 1,000 scénarios
- Scénario dont le coefficient de corrélation entre DJIA et CAC 40 est égal coefficient
de corrélation maximum des 1,000 scénarios.
- Scénario dont le coefficient de corrélation entre DJIA et CAC 40 est égal coefficient
de corrélation minimum des 1,000 scénarios.
Les graphiques ci-dessus matérialisant des évolutions de la corrélation entre le DJIA et le
CAC40 dans le cas des scénarios extrêmes et du scénario médian montrent que ALAMO est
capable non seulement de reproduire des scénarios avec présentant un coefficient de corrélation
moyen en phase avec l’historique mais en plus de reproduire des phénomènes alternant phase
de décorrélations et phases de corrélations extrêmes (cluster de corrélations).
-1,00
-0,50
0,00
0,50
1,00
2018
2021
2023
2025
2027
2030
2032
2034
2036
2039
2041
2043
2045
Evolution de la corrélation glissante sur le scénario 111 (coefficient de
corrélation égal à 0,90)
-1,00
-0,50
0,00
0,50
1,00
2018
2021
2023
2026
2028
2031
2033
2036
2038
2041
2043
2046
Evolution de la corrélation glissante sur le scénario 167 (coefficient de
corrélation égal à 0,36)
-1,00
-0,50
0,00
0,50
1,00
2018
2020
2022
2023
2025
2027
2028
2030
2032
2033
2035
2037
2038
2040
2042
2043
2045
2047
Evolution de la corrélation glissante sur le scénario 819 (coefficient de corrélation égal à 0,69)
75
3.2.5. Analyse graphique des taux générés
Les graphiques ci-dessous permettent de comparer la distribution des scénarios de taux générés
par ALAMO avec les taux observés dans l’historique.
On observe que graphiquement les scénarios ALAMO arrivent à répliquer tous types de niveaux
de taux allant des taux négatifs aux taux pouvant être supérieurs à 10%. Les taux observés dans
l’historiques sont répliquables par ALAMO.
76
3.2.6. Backtesting des indices de taux
Tout comme pour les indices actions, notre objectif est de voir s’il existe des scénarios pouvant
répliquer exactement la trajectoire historique.
Notre point de départ est le suivant. Au 31/12/1994, les niveaux de taux sont les suivants :
- OAT 2 ans : 7,44 %
- OAT 10 ans : 8,28 %
- OAT 30 ans : 4,55 %
On constate très vite qu’il est impossible pour ALAMO de répliquer une trajectoire qui partirait
de ces points-là : en effet, contrairement aux actions, les taux présentent un phénomène
d’autocorrélation très important. De ce fait les taux générés en 2018 et 2019 seront corrélés aux
taux observés en 2017. Les taux en 2017 étant situés entre -0,5% (OAT 2 ans) et 1,5% (OAT
30 ans), il est impossible de générer des taux s’élevant au-dessus de 5% dès 2018.
Néanmoins on observe que à l’exception de ce point de départ, le scénario 468, arrive à
répliquer le trend de l’historique baissier taux. Certes le scénario 468 ne part pas de 8,28% mais
en partant de 5%, on arrive avec ce scénario à des taux proches de 0% 23 ans après ce qui est
cohérent avec l’historique.
Ce Backtesting montre qu’il existe une limite dans l’ESG ALAMO nous amenant à se poser la
question générale suivante : Est-il raisonnable de générer des scénarios de taux centrés autour
d’un trend correspondant au taux moyen observé dans l’historique ? N’est-il pas au contraire
plus judicieux de rendre le drift paramétrable par l’utilisateur afin de tenir compte du fait que
les conditions de taux actuelles (0,50 % / 1,00 % pour l’OAT 10 ans) n’ont plus rien à voir avec
celles qui prévalaient en 1994 (Taux 10 ans compris entre 8 % et 10%) ?
77
Au-delà de ce gap de taux il est intéressant de constater la grande diversité qui existe dans les
scénarios générés par ALAMO aussi bien en matière de trend que de volatilité.
Les exemples ci-dessous illustrent quelques exemples de scénarios de taux générés depuis
l’historique :
Scénario Caractéristique
Scénario 37 Scénario dont le taux 10 ans descend le plus bas
Scénario 572 Scénario dont le taux 10 ans colle avec la moyenne et la volatilité de l'historique
Scénario 11 Scénario dont le taux 10 ans monte au plus haut
Scénario 61 Scénario de volatilité minimale (0,77% contre 1,82% pour l'historique)
Scénario 772 Scénario de volatilité maximale (3,51% contre 1,82% pour l'historique)
Scénario 490 Scénario qui présente le GAP le plus faible entre la dernière observation historique et le premier point généré
-8%
-6%
-4%
-2%
0%
2%
4%
6%
8%
10%
1994
1998
2002
2006
2010
2014
2017
2021
2025
2029
2033
2037
2040
2044
Scénario extrême (N° 37) de taux baissant très en dessous de 0
0%
2%
4%
6%
8%
10%
1994
1998
2002
2006
2010
2014
2017
2021
2025
2029
2033
2037
2040
2044
Scénario (N° 572) qui cadre oscillant autour du taux moyen historique avec
la même volatilité que l'historique
0%
2%
4%
6%
8%
10%
12%
14%
1994
1998
2002
2006
2010
2014
2017
2021
2025
2029
2033
2037
2040
2044
Scénario (N° 11) de taux montant bien au dessus de 10%
0%
1%
2%
3%
4%
5%
6%
7%
8%
9%
1994
1998
2002
2006
2010
2014
2017
2021
2025
2029
2033
2037
2040
2044
Scénario (N° 61) de taux montant de volatilité minimale
-4%
-2%
0%
2%
4%
6%
8%
10%
12%
14%
1994
1998
2002
2006
2010
2014
2017
2021
2025
2029
2033
2037
2040
2044
Scénario (N° 772) de taux montant de volatilité maximale
-2%
0%
2%
4%
6%
8%
10%
1994
1998
2002
2006
2010
2014
2017
2021
2025
2029
2033
2037
2040
2044
Scénario (N° 490) de taux montant bien au dessus de 10%
78
Les graphiques ci-dessus montrent que ALAMO peut générer à partir de l’historique un grand
nombre de scénarios qui présentent l’avantage de projeter des situations très diverses sans pour
autant créer de situation avec des taux qui divergent vers l’infini ce qui est souvent le cas des
ESG en risque neutre.
Néanmoins, il reste une réserve importante : Sur les 1000 scénarios produits, pas un seul ne
génère de taux inférieurs à 3,50% en date du 31/03/2018 alors que le dernier taux observé dans
l’historique s’élève à 0,78 %. En d’autre termes tous les scénarios sans exception génèrent des
hausses de taux d’au minimum 290 points de base entre T = 31/12/2017 et T = 31/03/2018.
Cette « anomalie » est lié au fait que le dernier point de l’historique est :
- En dessous de la Moyenne Mobile des 20 derniers trimestres (0,78% pour le contre
1,16 %)
- Très en dessous du Drift autour duquel sont centrés les scénarios (0,78% contre
3,78%)
Pour pallier à ce phénomène, il n’existe que trois solutions :
- Générer des scénarios de variations relatives des taux plutôt que des niveaux de
taux : cette méthode n’est pas adaptée au cahier des charges car elle est susceptible
au vu des niveaux actuels de taux de générer un grand nombre de scénarios qui
tendent vers plus l’infini (un taux qui passe de 0,02% à 0,2% enregistre une variation
relative de 1000%)
- Rajouter un régime transitoire de raccordement entre le dernier point de l’historique
et le drift de long terme
- Permettre à l’utilisateur de paramétrer lui-même le Drift sur une ou plusieurs
périodes de projection.
Nous analyserons ces deux dernières solutions un peu plus loin dans cette troisième partie.
79
3.2.7. Analyse graphique des corrélations entre les séries de Taux
Tout comme pour les actions, nous nous proposons de situer graphiquement les distributions
jointes des différents OAT produits par les scénarios relativement à l’historique. Les graphiques
ci-dessous représentent les distributions OAT 10 ans relativement à l’OAT 2 ans et l’OAT 30
ans relativement à l’OAT 10 ans
On observe que comme pour les actions, le nuage des performances jointes historique est inclus
dans celui des scénarios. Cela démontre que les scénarios sont capables de générer des
80
distributions ayant exactement les mêmes corrélations avec l’historique tout en apportant des
variantes.
A partir de l’évolution historique des OAT 2 ans et 10 ans, on en déduit l’évolution historique
de la pentification de la courbe des taux. On appelle communément pentification de la courbe
des taux, la différence entre le taux long (10 ans) et le taux court (2 ans).
L’historique ci-dessus montre deux choses :
- Le taux 10 ans est presque toujours supérieur au taux 2 ans : cela est logique dans la
mesure où le taux d’intérêt mesure un risque de défaut. Or plus la maturité est élevée
et plus le risque de défaut est élevé et plus le taux est élevé.
-2%
-1%
0%
1%
2%
3%
4%
5%
6%
7%
8%
9%
19
94
1996
1997
1998
19
99
2000
2001
2003
20
04
2005
2006
2007
2008
2010
2011
2012
2013
20
14
2015
2017
Evolutions relatives des OAT 2 et 10 ans
OAT 2 Ans
OAT 10 Ans
0,00%
0,50%
1,00%
1,50%
2,00%
2,50%
3,00%
1994
1996
1997
1998
1999
20
00
2001
2003
2004
2005
2006
2007
20
08
2010
2011
2012
2013
2014
2015
20
17
Evolutions de la pente (OAT 10 ans - OAT 2 ans)
81
- La pente entre le 2 ans et le 10 an n’est pas constante dans le temps : elle peut
s’accroitre ou se réduire voire s’inverser de manière occasionnelle. Sur le plan
économique, les praticiens considèrent qu’un aplatissement voire une inversion de
la courbe des taux est annonciatrice d’une récession.
Le graphique ci-dessous qui montre l’évolution respectives des taux 2 et 10 ans dans le cadre
du scénario 168 montre que ALAMO est capable de reproduire des changements dans la
pentification avec un aplatissement voire même une légère inversion de la courbe.
-6%
-4%
-2%
0%
2%
4%
6%
8%
10%
12%
2018
20
19
2021
20
22
2024
2025
2027
2028
2030
2031
2033
2034
2036
2037
20
39
2040
20
42
2043
20
45
2046
Evolutions relatives des OAT 2 et 10 ansScénario 168
OAT 2 Ans
OAT 10 ans
-0,50%
0,00%
0,50%
1,00%
1,50%
2,00%
2,50%
3,00%
2018
20
19
2021
20
22
2024
20
25
2027
20
28
2030
20
31
2033
20
34
2036
20
37
2039
20
40
2042
20
43
2045
20
46
Evolutions de la pente (OAT 10 ans - OAT 2 ans) Scénario 168
82
3.3. Analyse statistique descriptive des scénarios de l’ESG A.L.A.M.O.
3.3.1. Introduction
Le paragraphe 3.2 nous a permis de mettre en lumière les propriétés graphiques des scénarios
générés par ALAMO. Aussi on a pu mettre en valeur :
- La présence d’asymétries négatives sur les actions
- Le respect des corrélations entre indices actions (CAC 40 et DJIA)
- La capacité d’ALAMO à backtester l’historique sur les actions
- La capacité d’ALAMO de générer des scénarios alternant plusieurs régimes de
volatilité et de corrélations sur les actions (périodes calmes matérialisées par des
volatilités faibles et des corrélations moyennement élevées suivies de périodes
agitées matérialisées par de fortes volatilités et des corrélations très élevées)
- La capacité d’ALAMO à backtester le trend historique sur les taux sans pouvoir
toutefois répliquer exactement les valeurs passées à cause de l’autocorrélation.
- Le respect des corrélations entre indices de taux (OAT 2 ans, OAT 10 ans et OAT
30 ans)
- La capacité d’ALAMO à générer des scénarios pouvant alterner phase de
pentification de la courbe avec phase d’aplatissement voire d’inversion.
L’objectif de ce paragraphe consiste à introduire des indicateurs destinés à démontrer que les
scénarios générés par ALAMO sont en phase avec l’historique relativement à d’autres
modélisations comme la Loi Normale.
3.3.2. Présentation générale du test statistique du χ²
En statistique, un test du χ2, prononcé « khi-deux » ou « khi carré », est un test statistique où
la statistique de test suit une loi du χ² sous l'hypothèse nulle.
Par exemple, il permet de tester l'adéquation d'une série de données à une famille de lois de
probabilité ou de tester l'indépendance entre deux variables aléatoires.
À la base d'un test de statistique classique, il y a la formulation d'une hypothèse appelée
hypothèse nulle (ou hypothèse zéro), notée H0. Elle suppose que les données considérées
proviennent de variables aléatoires suivant une loi de probabilité donnée, et l'on souhaite tester
la validité de cette hypothèse.
Ces données ayant été réparties en classes, il faut :
- Calculer algébriquement la distance entre les données observées et les données
théoriques attendues ;
- Se donner a priori un risque d'erreur, celle consistant à rejeter l'hypothèse, alors
qu'elle est vraie (la valeur 5 % est souvent choisie par défaut ; il s'agit plus souvent
d'une coutume que du résultat d'une réflexion) ;
83
- Déterminer le nombre de degrés de liberté du problème à partir du nombre de
classes, et à l'aide d'une table de χ², déduire, en tenant compte du nombre de degrés
de liberté, la distance critique qui a une probabilité de dépassement égale à ce risque.
Si la distance calculée entre les données observées et théoriques est supérieure à la distance
critique, on conclut que le résultat n'est pas dû seulement aux fluctuations d'échantillonnage, et
que l'hypothèse nulle H0 doit être rejetée. Le risque choisi au départ est celui de donner une
réponse fausse lorsque les fluctuations d'échantillonnage sont seules en cause. Le rejet est
évidemment une réponse négative dans les tests d'adéquation et d'homogénéité mais il apporte
une information positive dans les tests d'indépendance. Pour ceux-ci, il montre le caractère
significatif de la différence.
Ce test permet de vérifier si un échantillon d'une variable aléatoire Y donne des observations
comparables à celles d'une loi de probabilité P définie a priori dont on pense, pour des raisons
théoriques ou pratiques, qu'elle devrait être la loi de Y. L’hypothèse nulle (H0) d'un test du χ2
d'adéquation (dénommé aussi test du χ2 de conformité ou test du χ2 d'ajustement) est donc la
suivante : la variable aléatoire Y suit la loi de probabilité P.
En termes de valeur-p, l'hypothèse nulle (l'observation est suffisamment proche de la théorie)
est généralement rejetée lorsque P ≤ 5%
3.3.3. Construction du test du χ² sur les indices
Nous cherchons à tester si la loi des tirages construits avec ALAMO suit la loi des observations
historiques des rendements. Pour cela on considère la distribution des rendements historiques.
Elle constitue la distribution de référence. On construit l’hypothèse à tester à partir de
l’historique des rendements
A partir des 1,000 scénarios générés par ALAMO sur 120 trimestres, nous disposons d’un
nombre total d’observations de N = 120,000.
Afin de construire notre test statistique, nous allons découper notre intervalle d’observations
des rendements historiques et stochastiques en 6 classes allant de - ∞ à + ∞. Pour ne pas tomber
dans l’arbitraire, les classes seront :
- Centrés autour du rendement moyen μ
- Espacés d’un intervalle égal à la volatilité σ
- Contenant au moins 1 observation de l’historique
On obtient donc c = 6 classes modales :
- ] - ∞ ; μ – 2 σ [
- [ μ – 2 σ ; μ – σ [
- [ μ – σ ; μ [
- [ μ ; μ + σ [
- [ μ + σ ; μ + 2 σ [
- [ μ + 2 σ ; + ∞ [
84
Une fois les classes créées, on va dénombrer le nombre d’observations Ni dans chacun de ces
classes : Dans le cas des scénarios ALAMO et des observations historiques, il suffit d’utiliser
des fonctions de dénombrement de type NB.SI sur Excel ou Length sur R
L’étape suivante consistera à calculer la fréquence d’observation dans chaque classe :
- Dans le cas des scénarios ALAMO et des observations historiques, cette fréquence
Fi sur la classe i se calcule en divisant le nombre d’observation dans la classe i, Ni
par le nombre total d’observations N
- Dans le cas de la loi normale, on utilise la fonction de répartition. En reprenant les
notations de la partie 2 et en notant SUPi et INFi les bornes supérieurs et inférieures
de chaque classe modale, on a :
𝐹𝑖 = 𝑓(𝑆𝑈𝑃𝑖 ; μ ; 𝜎) − 𝑓(𝐼𝑁𝐹𝑖 ; μ ; 𝜎)
A partir des fréquences obtenues, on va calculer pour chaque classe la distance algébrique
séparant la fréquence des observations ALAMO et Loi Normale avec la fréquence des
observations historiques. En notant Ti cette distance algébrique normée de la classe i, on a :
𝑇𝑖 (𝐴𝐿𝐴𝑀𝑂) =(𝐹𝑖 (𝐴𝐿𝐴𝑀𝑂)−𝐹𝑖 (𝐻𝐼𝑆𝑇𝑂𝑅𝐼𝑄𝑈𝐸))
2
(𝐹𝑖 (𝐻𝐼𝑆𝑇𝑂𝑅𝐼𝑄𝑈𝐸))2
Et
𝑇𝑖 (𝐺𝑎𝑢𝑠𝑠𝑖𝑒𝑛) =(𝐹𝑖 (𝐺𝑎𝑢𝑠𝑠𝑖𝑒𝑛) − 𝐹𝑖 (𝐻𝐼𝑆𝑇𝑂𝑅𝐼𝑄𝑈𝐸))
2
(𝐹𝑖 (𝐻𝐼𝑆𝑇𝑂𝑅𝐼𝑄𝑈𝐸))2
On définit ensuite la variable T comme étant la somme des Ti :
- Plus T sera faible et plus on sera conforme par rapport à l’historique
- Plus T sera fort et plus on considèrera que nous sommes éloignés de l’historique
Afin de déterminer la frontière entre la validité et la non validité du test, on utilisera la Loi du
Khi deux (χ²). En notant :
- P : L’intervalle de confiance que l’on prendra usuellement égal à 5%
- m : Le nombre de degrés de liberté égal à c – 1 soit 5
On a donc la valeur TFrontalier, qui sépare la validité de la non validité et qui s’écrit en
inversant la loi Khi deux :
𝑇𝐹𝑟𝑜𝑛𝑡𝑎𝑙𝑖𝑒𝑟 = [𝜒²(𝑃;𝑚)]−1
85
3.3.4. Résultat du test sur les indices action
86
Les résultats montrent qu’avec un niveau de confiance de 95%, les scénarios ALAMO valident
le test statistique du χ² alors que la simulation Gaussienne classique passe à côté aussi bien pour
le CAC 40 que pour le DJIA. Ce test ne fait que formaliser le cahier des charges de la partie II
à savoir la nécessité pour l’ESG en monde réel de modéliser correctement les queues de
distribution et en particulier les asymétries négatives sur les actions qui sont souvent
génératrices de pertes catastrophiques pour des Fonds de rentes fermés.
Si on va plus loin, en inversant le test statistique, on observe que pour le DJIA comme pour le
CAC 40 :
- Les scénarios ALAMO le passe avec succès à un niveau de confiance de 99%
- Les scénarios Gaussiens le passe avec succès à un niveau de confiance de 87%
Or pour optimiser la gestion d’un Fonds de Rentes fermés au sein de BNP Paribas Cardif, il
nous faut piloter des indicateurs centraux comme l’Espérance de gain du Fonds (nécessaire au
calcul de la Participation aux Bénéfices) et la volatilité mais aussi des indicateurs de mesure
des risques extrêmes comme la VaR à 95 ou 99% et l’ES à 95%. Dans ces circonstances, il faut
que le niveau de confiance du test statistique soit au moins égal à 95%. Dans le cas Gaussien
on se situe en deçà de 90% ce qui est insuffisant pour bien estimer les risques extrêmes.
ALAMO semble satisfaire ces contraintes pour les actions et confirme aussi nos observations
graphiques des paragraphes 3.2.2 et 3.3.3
En conclusion de ce paragraphe peut indiquer que les process GARCH et AMIGARCH
apportent une réelle valeur ajoutée dans la génération des scénarios sur les indices actions du
CAC 40 et du DJIA.
87
3.3.5. Résultat du test sur les indices taux
On fait de même sur les indices de taux. Néanmoins comme on a pu l’observer dans la partie 2,
les séries Taux sont plutôt Platikurtique c’est-à-dire qu’elles sont plus resserrées autour du Drift.
Par ailleurs le taux 0% constitue une force de rappel même si on observe des taux négatifs. Il
en résulte que les taux peuvent difficilement descendre en dessous de 2 écarts types sous le
Drift. On a donc 0 observations dans la classe modale ] - ꝏ ; μ – 2 σ].
Afin d’avoir un nombre de classes modales suffisant pour notre test statistique, nous allons
réduire leur taille. On introduit le paramètre ξ que l’on fixe à 0,50. Les classes modales
deviennent ainsi :
- ] - ∞ ; μ – 2 ξ σ [ soit ] - ∞ ; μ – σ [
- [ μ – 2 ξ σ ; μ – ξ σ [ soit [ μ – σ ; μ – 0,5 σ [
- [ μ – ξ σ ; μ [ soit [ μ – 0,5 σ ; μ [
- [ μ ; μ + ξ σ [ soit [ μ ; μ + 0,5 σ [
- [ μ + ξ σ ; μ + 2 ξ σ [ soit [ μ + 0,5 σ ; μ + σ [
- [ μ + 2 ξ σ ; + ∞ [ soit [ μ + σ ; + ∞ [
Les tests statistiques sont rassemblés dans les tableaux et graphiques ci-dessous pour les OAT
2, 10 et 30 ans :
Synthèse Test Statistique du Khi Deux sur l'OAT 2 ans
μOAT 2 ans = 2,46% Intervalle de confiance : P = 5%σOAT 2 ans = 2,00% Nombre de classes modales : c = 6
ξ = 0,5 Nombre de degrés de liberté : m = 5
Historique Scénarios ALAMO Loi NormaleNi Fi Ni Fi Ti Ni Ti
< μ - 2ξσ 23 24,73% 21 011 17,51% 0,09 15,87% 0,13[ μ - 2ξσ ; μ - ξσ [ 10 10,75% 18 188 15,16% 0,17 14,99% 0,16[ μ - ξσ ; μ [ 12 12,90% 22 073 18,39% 0,18 19,15% 0,23
[ μ ; μ + ξσ [ 11 11,83% 20 584 17,15% 0,20 19,15% 0,38[ μ + ξσ ; μ + 2ξσ [ 26 27,96% 16 358 13,63% 0,26 14,99% 0,22≥ μ + 2ξσ 11 11,83% 21 786 18,16% 0,29 15,87% 0,12TOTAL 93 100% 120 000 100% 1,19 100% 1,23
TALAMO = 1,19TGaussien = 1,23TFrontalier = 1,15
0,00
0,50
1,00
1,50
2,00
2,50
Gaussien
Frontalier
ALAMO
88
Synthèse Test Statistique du Khi Deux sur l'OAT 10 ans
μOAT 10 ans = 3,78% Intervalle de confiance : P = 5%σOAT 10 ans = 1,82% Nombre de classes modales : c = 6
ξ = 0,5 Nombre de degrés de liberté : m = 5
Historique Scénarios ALAMO Loi NormaleNi Fi Ni Fi Ti Ni Ti
< μ - σ 15 16,13% 21 181 17,65% 0,01 15,87% 0,00[ μ - σ ; μ - 0,5 σ [ 10 10,75% 16 564 13,80% 0,08 14,99% 0,16[ μ - 0,5 σ ; μ [ 18 19,35% 21 501 17,92% 0,01 19,15% 0,00
[ μ ; μ + 0,5 σ [ 22 23,66% 22 245 18,54% 0,05 19,15% 0,04[ μ + 0,5 σ ; μ + σ [ 18 19,35% 17 561 14,63% 0,06 14,99% 0,05≥ μ + σ 10 10,75% 20 948 17,46% 0,39 15,87% 0,23TOTAL 93 100% 120 000 100% 0,59 100% 0,47
TALAMO = 0,59TGaussien = 0,47TFrontalier = 1,15
0,00
0,50
1,00
1,50
2,00
2,50
Gaussien
Frontalier
ALAMO
Synthèse Test Statistique du Khi Deux sur l'OAT 30 ans
μOAT 30 ans = 4,17% Intervalle de confiance : P = 5%σOAT 30 ans = 1,32% Nombre de classes modales : c = 6
ξ = 0,5 Nombre de degrés de liberté : m = 5
Historique Scénarios ALAMO Loi NormaleNi Fi Ni Fi Ti Ni Ti
< μ - σ 15 16,13% 21 725 18,10% 0,01 15,87% 0,00[ μ - σ ; μ - 0,5 σ [ 9 9,68% 16 689 13,91% 0,19 14,99% 0,30[ μ - 0,5 σ ; μ [ 16 17,20% 21 275 17,73% 0,00 19,15% 0,01
[ μ ; μ + 0,5 σ [ 20 21,51% 20 940 17,45% 0,04 19,15% 0,01[ μ + 0,5 σ ; μ + σ [ 18 19,35% 17 133 14,28% 0,07 14,99% 0,05≥ μ + σ 15 16,13% 22 238 18,53% 0,02 15,87% 0,00TOTAL 93 100% 120 000 100% 0,33 100% 0,38
TALAMO = 0,33TGaussien = 0,38TFrontalier = 1,15
0,00
0,50
1,00
1,50
2,00
2,50
Gaussien
Frontalier
ALAMO
89
Les résultats ci-dessus montrent que globalement les tests statistiques valident le fait que les
scénarios ALAMO sont en phase avec les observations historiques à deux petites réserves près :
- Sur l’OAT 2 ans, le test statistique n’est pas concluant puisque les scénarios
ALAMO ne le valident pas. Toutefois, l’échec de la validation se jour à l’épaisseur
du trait (1,19 contre 1,15)
- Relativement aux scénarios Gaussiens, les scénarios ALAMO enregistrent des
scores décevants : Cela montre que sur des scénarios de taux, les process GARCH
et AMIGARCH n’apportent pas une grande valeur ajoutée.
En conclusion, on peut noter que les scénarios ALAMO sur les taux sont en phase avec les
séries historiques même si l’apport de GARCH et d’AMIGARCH reste discutable. Les process
apportant une réelle valeur ajoutée dans la simulation des taux sont les process de CHOLESKY
et de YUKE WALKER.
Dans le prochain paragraphe nous essaieront de construire une relation liant les OAT 30 ans
avec les OAT 2 et 10 ans.
90
3.3.6. Construction d’une relation liant les OAT 2, 10 et 30 ans
Sur le plan macroéconomique, les taux d’intérêt mesurent 2 choses :
- Le niveau de risque d’un émetteur
- Les projections de croissance et d’inflation d’un Etat tel qu’anticipée par le marché
Dans le cas d’une projection du taux OAT, celui-ci mesure surtout les projections de croissance
et d’inflation de l’Etat Français dans la mesure où à aucun moment sur ces 30 dernières années,
le marché n’a « pricé » le risque de défaut de la France.
Effectuons la procédure suivante sur l’historique :
- On trie le tableau des OAT 2, 10 et 30 ans non pas par rapport à la date mais par
rapport au taux OAT 2 ans dans l’ordre croissant.
- Les OAT 2 ans sont rassemblés en classes modales allant de -0,50% à +8,00 % en
pas de 0,50%
- Pour chaque classe modale de l’OAT 2 ans, on calcule le taux moyen pris par les
OAT 10 ans et 30 ans.
On obtient ainsi le tableau suivant et le graphique en 3D (courbes de niveaux) ci-dessous :
OAT 2 Ans -0,50% 0,00% 0,50% 1,00% 1,50% 2,00% 2,50% 3,00% 3,50%
OAT 10 Ans 0,44% 0,87% 2,19% 3,03% 3,58% 3,65% 3,75% 4,13% 4,19%
OAT 30 Ans 1,34% 1,84% 3,20% 3,66% 4,16% 4,27% 4,37% 4,77% 4,85%
OAT 2 Ans 4,00% 4,50% 5,00% 5,50% 6,00% 6,50% 7,00% 7,50% 8,00%
OAT 10 Ans 4,80% 5,03% 5,81% 6,03% 6,76% 7,49% 7,62% 8,09% 7,84%
OAT 30 Ans 5,07% 5,40% 5,25% 5,47% 5,14% 4,81% 4,79% 4,58% 4,48%
91
On observe la chose suivante :
- Lorsque les taux courts (OAT 2 ans) sont très bas, les taux longs (OAT 10 ans) et
très longs (OAT 30 ans) sont bas aussi mais sont ordonnés par ordre croissants (OAT
2 ans < OAT 10 ans < OAT 30 ans)
- Lorsque les taux courts augmentent, on observe que en moyenne, cette hausse des
taux se diffuse à l’ensemble des maturités puisque les taux OAT 10 ans et OAT 30
ans montent aussi.
- A partir d’un certain niveau de taux courts (1,50%), les OAT 30 ans se mettent à
monter de moins en moins vite relativement aux OAT 10 ans.
- A partir du niveau de 5% sur les taux courts, l’OAT 30 ans passe sous l’OAT 10
ans : on assiste donc à une inversion de courbe.
Sur le plan macroéconomique cette observation est logique dans la mesure où si le taux court
(OAT 2 ans) « drivé » par la Banque Centrale Européenne monte trop, cela engendre une baisse
du potentiel de croissance à long et très long terme. On assiste donc à une baisse de l’OAT 30
ans qui passe sous l’OAT 10 ans qui lui-même passe sous l’OAT 2 ans. On parle alors
d’inversion de la courbe des taux prélude à une récession. Cela pousse alors la Banque Centrale
Européenne à baisser les taux ce qui entraine une baisse de l’OAT 2 ans et une repentification
de la courbe des taux indiquant que le marché « reprice » une reprise de la croissance.
Reprenons maintenant les historiques des OAT 2 ans, 10 ans et 30 ans classés par ordre
chronologique. Introduisons la variable Δ qui mesure la pente entre le taux 30 ans et le taux
10 ans. On aurait par définition :
Δt = rOAT 30 ans , t – rOAT 10 ans , t
On effectue maintenant une régression linéaire entre la variable Δ et la variable rOAT 2 ans. Les
résultats sont assemblés dans le tableau ci-dessous :
Statistiques de la régression de la variable ΔCoefficient de détermination multiple 0,716437
Coefficient de détermination R^2 0,513282
Coefficient de détermination R^2 0,507934
Erreur-type 0,006235
Observations 93
ANALYSE DE VARIANCE
Degré de
liberté
Somme des
carrés
Moyenne
des carrésF
Valeur
critique de F
Régression 1 0,003730421 0,003730421 95,9666941 6,80511E-16
Résidus 91 0,003537356 3,8872E-05
Total 92 0,007267777
Coefficients Erreur-type T - Stat P - Val
Limite
inférieure
pour seuil de
confiance =
95%
Limite
supérieure
pour seuil de
confiance =
95%
Constante B 0,011749594 0,001030485 11,40200627 3,15687E-19 0,009702662 0,013796525
Variable OAT 2 ans -0,31906077 0,032569654 -9,79625919 6,80511E-16 -0,38375638 -0,25436515
92
On observe sur l’historique les 3 choses suivantes :
- De manière générale la pente OAT 10 ans – OAT 30 ans est positive (cellule de
couleur bleue) ce qui est conforme à la logique : le taux augmente avec la maturité
- La pente Δ entre l’OAT 30 ans et l’OAT 10 ans est une fonction décroissante du
taux 2 ans (cellule de couleur rouge). A partir d’un certain niveau d’OAT 2 ans, elle
finit par devenir négative. On a alors une inversion.
- Le résultat de cette régression est pertinent comme l’indique les valeurs de P-VAL
qui sont très inférieures à 0,05 dont on admet qu’il s’agit de l’intervalle de confiance
limite validant la réussite du test.
Faisons maintenant la même chose avec les scénarios ALAMO. Comme avec l’historique, pour
chaque scénario on crée une variable Δ mesurant la pente de la courbe des taux. On effectue
ensuite la régression comme pour l’historique. On obtient le tableau récapitulatif suivant :
On constate que les scénarios ALAMO reproduisent très bien le comportement empirique
observé dans l’historique avec une pente de courbe globalement positive mais qui tend à
diminuer avec l’augmentation du taux court. On observe d’un point de vu statistique que :
- Les constantes B et Δ des scénarios sont voisines de celles de l’historique
- Le résultat du test statistique (P-Val) est aussi validé dans le cas des scénarios
Ces résultats obtenus sur 120,000 points mettent en valeur la force de l’ESG ALAMO capable
de répliquer « statistiquement » les déformations de la courbe des taux par le jeu des
corrélations entre points de taux et les autocorrélations de chacune des séries.
Statistiques de la régression de la variable ΔCoefficient de détermination multiple 0,886360877
Coefficient de détermination R^2 0,785635604
Coefficient de détermination R^2 0,785633817
Erreur-type 0,003776254
Observations 120000
ANALYSE DE VARIANCE
Degré de
liberté
Somme des
carrés
Moyenne
des carrésF
Valeur
critique de F
Régression 1 6,271405379 6,271405379 439787,1235 0
Résidus 119998 1,711182667 1,42601E-05
Total 119999 7,982588045
Coefficients Erreur-type Statistique t P - Val
Limite
inférieure
pour seuil de
confiance =
95%
Limite
supérieure
pour seuil de
confiance =
95%
Constante B 0,011959518 1,63386E-05 731,9794995 0 0,011927495 0,011991542
Variable OAT 2 ans -0,32758117 0,000493967 -663,164477 0 -0,32854934 -0,326613
93
3.3.7. Construction d’une ACP sur l’historique
La matrice de corrélations construite dans le paragraphe 2.1.5. nous a permis de mettre en valeur
les relations linéaires pouvant exister entre les différents actifs. Néanmoins la matrice de
corrélations donne une vue macro et ne permet pas de donner un pouvoir explicatif de chacun
des actifs dans les séries temporelles de performances. Nous allons donc effectuer une Analyse
en Composantes Principales : L'analyse en composantes principales (ACP) ou selon le domaine
d'application la transformation de Karhunen–Loève (KLT), est une méthode de la famille de
l'analyse des données et plus généralement de la statistique multivariée, qui consiste à
transformer des variables liées entre elles (dites « corrélées » en statistique) en nouvelles
variables décorrélées les unes des autres. Ces nouvelles variables sont nommées « composantes
principales », ou axes principaux. Elle permet au praticien de réduire le nombre de variables et
de rendre l'information moins redondante.
Nous allons donc à partir de l’historique des performances des séries actions et taux construire
les composantes principales en situant ensuite la position de chaque actif sur les composantes.
Dans un premier temps nous construisons la matrice M de dimension K x N composée des 92
performances trimestrielles de l’historique pour chacun des 5 actifs (K = 92 et N = 5)
Dans un second temps nous centrons la matrice M en retranchant à chaque performance le drift
de l’actif correspondant. On note , cette nouvelle matrice centrée qui découle des coefficients
de la matrice initiale M. A partir de la matrice M. En divisant les coefficient de par les
volatilités des actifs, on en déduit la matrice centrée réduite de M que l’on note
En utilisant la notation « » pour définir la transposition d’une matrice, on en déduit ainsi la
matrice de Variances – Covariances que l’on note V et qui s’écrit :
La matrice V est diagonalisable. On calcule ses valeurs propres et ses vecteurs propres
facilement avec le logiciel R au travers des fonctions suivantes :
• x = eigen(V) : Diagonalisation de la matrice
• Λ = x$values : Calcul des valeurs propres
• U = x$vectors : Calcul des vecteurs propres
Dans le cas de l’historique, on a :
Λ = 0,01500582 0,0026523 0,00083275 4,2461E-05 1,2358E-05
U = 0,87541443 0,02139436 0,48287978 0,00435375 -0,00017166
0,47577009 0,13832967 -0,86859668 -0,00645948 -0,00241012
-0,05305692 0,61736708 0,06326567 0,63559103 0,45614071
-0,05380795 0,61226682 0,07053265 -0,04323995 -0,78446766
-0,03977522 0,47370288 0,05821971 -0,77077472 0,42016701
V = 1
𝐾'.
'
94
On constate que les deux premières valeurs propres sont très supérieures aux autres. On
retiendra les deux premiers vecteurs propres associés de la matrice que l’on notera u1 et u2.
La suite de l’ACP consiste à projeter orthogonalement (PO) la matrice sur chacune des 2
principales composantes u1 et u2.
𝑃𝑂(, 𝑢2) = . 𝑢2
La dernière étape consiste enfin à situer les 5 actifs sur le cercle factoriel en calculant le
coefficient de corrélation linéaire entre et le projeté orthogonal de sur u1 et u2.
On constate que sur les nouvelles composantes u1 et u2 les performances historiques
s’expliquent en grande partie grâce à 2 groupes d’actifs :
- Les OAT 2 ans, 10 ans et 30 ans qui ont un fort pouvoir explicatif sur l’axe u1
- Les indices CAC 40 et DJIA qui ont un fort pouvoir explicatif sur l’axe u2.
𝑃𝑂(, 𝑢1) = . 𝑢1
95
3.3.8. Position des scénarios d’actifs sur le cercle factoriel de l’ACP
Une fois le cercle factoriel construit sur lequel sont positionnés les actifs au vu de leurs
performances historiques, nous allons positionner chacun des scénarios. Pour ce faire nous
construisons un algorithme itératif consistant à projeter chaque scénario produisant une matrice
M sur les vecteurs u1 et u2.
On obtient le graphique « thermique » ci-dessous qui positionne « les grappes » de scénarios
sur le cercle factoriel relativement aux points vers qui représentent l’historique
- Dans le disque de couleur rouge vif sont situés 75% des scénarios
- Dans le disque de couleur rouge intermédiaire sont situés 20% des scénarios
- Dans le disque de couleur rouge pâle sont situés les 5% des scénarios restants
On constate que pour chaque actif, les scénarios projetés sur les différents axes donnent des
résultats très proche de l’historique comme l’illustrent les disques de couleur la plus marquée
qui sont centrés autour des points de l’historique.
-1,00
-0,80
-0,60
-0,40
-0,20
0,00
0,20
0,40
0,60
0,80
1,00
-1,00 -0,80 -0,60 -0,40 -0,20 0,00 0,20 0,40 0,60 0,80 1,00
Cercle Factoriel - (u2 ; u1)
96
3.3.9. Conclusions
L’analyse statistique descriptive nous a permis de montrer que sur des actifs de types Actions
et Taux qui constituent plus de 90 % de la valeur boursière du portefeuille de Cardif, les
scénarios de projection en pas trimestriel (pas qui constitue la période d’observation usuelle en
Assurance Vie) sur 30 ans sont en phase avec l’historique.
- Les tests statistiques de type χ² nous ont montré que les distributions des
performances des actions (DJIA et CAC40) sont en adéquation avec les distributions
historiques avec un indice de confiance de près de 99% (contre 87% pour les tirages
gaussiens)
- Les tests de régression ont démontré que le comportement des courbes de taux
générés par ALAMO sont en phase avec celui observé sur l’historique et en
particulier le mouvement de l’OAT 30 ans qui suit l’OAT 2 ans mais dont la pente
par rapport au 10 ans est une fonction décroissante de l’OAT 2 ans. Cette
caractéristique que l’on observe dans l’historique et qui s’explique d’un point de vu
macroéconomique se retrouve dans les scénarios avec une P-Val proche de 0 comme
dans l’historique.
- L’analyse en composante principale appliquée aux scénarios aboutis à des
projections des classes d’actifs sur le cercle factoriel qui sont proches de l’historique.
Ainsi le fort pouvoir explicatif des taux sur l’axe u1 et des actions sur l’axe u2 que
l’on observe sur l’historique se retrouve dans plus de 75% des scénarios.
Si cette partie statistique descriptive a permis de mettre en valeur les forces d’A.L.A.M.O. au
même titre que la partie 3.2, l’ESG présente néanmoins des limites que nous étudierons dans le
prochain paragraphe.
97
3.4. Limites de l’ESG A.L.A.M.O
3.4.1. Introduction
Les parties 3.2 et 3.3 nous ont permis de démontrer graphiquement et statistiquement que l’ESG
A.L.A.M.O. répond bien au cahier des charges défini par BNP Paribas Cardif consistant à
générer des scénarios de taux et d’actions en pas trimestriel en phase avec les moments
historiques afin de mieux optimiser la gestion des fonds de rentes fermés.
Néanmoins il serait intéressant d’étudier comment se comportent le Générateur de Scénarios
A.L.A.M.O. lorsque l’on stress certains paramètres comme les moments à répliquer ou encore
le pas de temps des scénarios. Autrement dit, l’ESG A.L.A.M.O. qui satisfait au cahier des
charges de BNP Paribas Cardif peut il satisfaire un autre cahier des charges plus ou moins
éloigné ? Si tel n’est pas le cas y a-t-il des possibilités d’adapter A.L.A.M.O. pour le rendre
adaptable à d’autres exigences ?
3.4.2. Réplication exacte des Skewness et Excess Kurtosis
a) Illustration avec le Dow Jones de 1986 à 2017
Prenons l’exemple du Dow Jones en pas journalier du 16 juin 1986 au 16 Juin 2017 soit 31 ans
d’historique ce qui donne 7817 observations. L’objectif est de simuler 1,000 scénarios
d’évolution de cet indice sur 1 an en pas journalier. Il s’agit donc de générer 1,000 trajectoires
de 260 points chacune (1 année comporte environ 260 jours ouvrés).
A partir de Bloomberg, on télécharge les 7817 valeurs du Dow Jones représentées sur le
graphique ci-dessous :
Source : Bloomberg
98
Le calcul des moments en pas journalier du Dow Jones sur l’historique donne les résultats
suivants :
Le calcul des moments basé sur les 1,000 scénarios générés par A.L.A.M.O. donne les résultats
suivants :
b) Analyse et interprétation des résultats
On observe que la moyenne des scénarios projetés sur 260 jours ouvrés converge vers la
moyenne historique calibrée dans A.L.A.M.O. Il en va de même pour la volatilité qui est
exactement égale à celle calibrée dans A.L.A.M.O.. En revanche les scénarios A.L.A.M.O.
n’arrivent pas du tout à répliquer l’Excess Kurtosis de cette série. L’Excess Kurtosis moyenne
sur 1,000 scénarios converge vers 8,25 tandis que la mesure de l’historique indique une valeur
de 29,74 soit un facteur allant de 1 à 5. Il en va de même pour la Skewness qui ressort à -1,09
dans l’historique contre -0,19 pour A.L.A.M.O.
La première limite d’A.L.A.M.O. réside dans le fait que l’outil n’arrive pas toujours à simuler
des Excess Kurtosis conformes à l’historique. Le générateur de scénarios arrive à répliquer la
nature de la queue de distribution en générant des scénarios de Dow Jones qui en moyenne ont
une queue épaisse (+5,75) avec une asymétrie négative (-1,07) mais ne réplique pas la valeur
de l’Excess Kurtosis de l’historique (+29,74)
Cette limite est à relativiser par l’étude que nous allons faire : Nous avons à notre disposition
un historique avec 7817, observations. En observant de plus près l’historique on constate que
en Octobre 1987, le Dow Jones a perdu sur la seule journée du 19 Octobre 1987 près de
22,61% !!! La cause en a été le déclenchement d’ordres stop incontrôlés qui ont provoqué une
explosion auto entretenue des ordres de ventes provoquant ainsi un véritable Krack Boursier.
Celui-ci est parti de craintes de relèvements excessifs des taux de la Fed. La conjugaison de
craintes économiques et ajoutée à une robotisation des salles de marché qui était à ses débuts a
provoqué un emballement à la baisse des cours des indices boursiers sans que l’on puisse
interrompre la séance. Ce Krack du 19 Octobre a été résorbé en 2 séances, les 20 et 21 octobre
par des envolées respectives de 5,88% et 10,15%.
Recalculons les moments de l’historique en enlevant juste ces 3 points qui ne représentent que
0,04 % de la totalité des 7817 observations passées. Les résultats sont rassemblés dans le tableau
ci-dessous :
Moyenne : 0,04%
Volatilité : 1,11%
Skewness : -1,09
Excess Kurtosis : 29,74
Moyenne : 0,04%
Volatilité : 1,09%
Skewness : -0,19
Excess Kurtosis : 8,25
99
On observe que si a volatilité et le drift de l’historique sont stables et ne bougent quasiment pas
si on enlève quelques observations, la Skewness et l’Excess Kurtosis sont très sensibles aux
valeurs extrêmes. L’ESG A.L.AM.O. basé sur le modèle AMIGARCH a bien répliqué
l’historique sans les 3 points extrêmes observés alors qu’il n’a pu répliquer les évènements
survenus en Octobre 1987. Cela est lié au fait que le krack de 1987 inédit dans l’histoire des
marchés (même en 1929 cette situation n’a pu être observée) est survenu sans aucun signe
avant-coureur matérialisé par une augmentation de la volatilité. La seule manière de reproduire
cet évènement consiste à passer par des processus à sauts. Malheureusement en faisant cela on
arrive certes à reproduire des sauts mais on perd l’approche « volatilité stochastique » qui est
bien modélisé dans AMIGARCH et qui reproduit 99% des situatons de marché : en effet tous
les kracks observés durant ce dernier siècle (1929, 1973, 1979, 1998, 2001, 2008) ont été
précédés par une remontée de la volatilité traduisant un système boursier qui tel un ressort
devient de plus en plus instable avant de chuter.
c) Conclusions et conséquences
En conclusion on peut confirmer que l’ESG A.LA.M.O. ne réplique pas toujours les Skewness
et Excess Kurtosis. Cette limite est toutefois à relativiser dans la mesure où :
- L’ESG A.LA.M.O. sans répliquer la valeur de ces deux moments arrive à en
reproduire le sens
- Les très fortes Kurtosis observées dans le passé sur les marchés actions sont en
grandes partie liées à un manque de maturité des systèmes informatique et de la
robotisation des salles générant des sauts des cours de bourse. Cette situation a peu
de chances de se produire aujourd’hui du fait de la fermeture systématique des
cotations après une chute supérieur à une certaine intensité sur une journée.
- Relativement aux processus à sauts qui permettent de reproduire à l’identique les
Skewness et Kurtosis, l’approche AMIGARCH reste plus pertinente dans la mesure
où elle reproduit la cause responsable à 99% de la chute des marchés à savoir une
hausse progressive de la volatilité suivie souvent d’une chute brutale des cours.
Historique complet
du 16/06/1986 au
15/06/2017
Historique sans les
19, 20 et 21
Octobre 2017
1000 Scénarios générés
par l'ESG A.L.A.M.O.
sur 260 jours
Moyenne 0,04% 0,04% 0,04%
Volatilité 1,11% 1,08% 1,09%
Skewness -1,09 -0,14 -0,19
Excess Kurtosis 29,74 8,34 8,25
100
3.4.3. Réplication des autocorrélations proches de 1
a) Problématique
Nous avons dans la partie 2, construit à partir des équations de Yuke-Walker un algorithme
permettant de générer des séries auto corrélées. Cet algorithme fondé sur une bijection entre les
coefficients des moyennes mobiles à T, T-1, …, T-20 et le coefficient d’autocorrélation d’ordre
1 présente toutefois une limite. En nous arrêtant à une profondeur de T-20, l’ESG A.L.A.M.O.
ne peut répliquer les autocorrélations supérieures à un certain niveau. L’objet de ce paragraphe
est de déterminer le coefficient maximal d’autocorrélation que peut répliquer l’algorithme mis
en œuvre dans A.L.A.M.O.
b) Détermination du coefficient d’autocorrélation maximal
Considérons une série temporelle ayant un coefficient d’autocorrélation nul. Appliquons-lui le
vecteur de coefficients de moyenne mobiles dont les 20 coefficients sont tous égaux à 0,05. On
notera cette matrice des coefficients de moyennes mobiles : M1/20. Par construction au vu du
paragraphe 2.2.5., cette matrice de coefficients est celle qui donnera le plus grand coefficient
d’autocorrélation. Les résultats de la bijection sont donnés dans le graphique ci-dessous :
Coefficient d'autocorrélation de la série initiale 0,00
Coefficient d'autocorrélation de la série transformée 0,95
-6%
-4%
-2%
0%
2%
4%
6%
8%
10%
Niv
eau
de
tau
x
Horizon de projection en jours
Impact de la transformation par application de la MM1/20 sur une série à coefficient d'autocorrélation nul
Série Initiale
Série Initiale après application du vecteur MM1/20
101
c) Analyse des résultats
Les résultats du paragraphe ci-dessus montrent que même après application du processus de
lissage par Moyenne Mobile le plus fort, le coefficient d’autocorrélation maximal ne peut
dépasser 0,95.
Afin d’évaluer les conséquences de cette limite, nous allons mesurer le coefficient
d’autocorrélation sur des séries historiques de taux en pas journalier qui par nature présentent
les niveaux de coefficients d’autocorrélation les plus élevés parmi les classes d’actifs usuelles.
A partir des séries de taux Swap allant de 1 à 50 ans de maturité, téléchargées sur Bloomberg,
nous calculons les coefficients d’autocorrélation en pas journalier, hebdomadaire, mensuel et
annuel.
Les résultats sont rassemblés dans le tableau ci-dessous :
Les résultats du tableau ci-dessus montrent que :
- Pour les historiques en pas annuels et mensuels, les coefficients d’autocorrélation
sont très en dessous de 0,95 et peuvent donc être répliqués sans difficulté par l’ESG
A.L.A.M.O.
- Pour les historiques en pas quotidien et hebdomadaires, les coefficients
d’autocorrélation sont supérieurs à 0,95 et les scénarios générés par A.L.A.M.O. sur
ces pas seront alors moins lissés.
Néanmoins comme le montreront les applications numériques de la partie 4, l’ESG A.LA.M.O.
est surtout utilisé pour générer des trajectoires en pas annuel sur 30 à 50 ans.
Journalier Hebdomadaire Mensuel Annuel
Taux Swap EURO 1Y 0,9936 0,9775 0,8715 0,6269
Taux Swap EURO 2Y 0,9971 0,9836 0,8976 0,6237
Taux Swap EURO 3Y 0,9979 0,9861 0,8937 0,6206
Taux Swap EURO 4Y 0,9981 0,9865 0,8952 0,6175
Taux Swap EURO 5Y 0,9985 0,9884 0,9069 0,6144
Taux Swap EURO 6Y 0,9981 0,9879 0,9118 0,6114
Taux Swap EURO 7Y 0,9983 0,9890 0,9296 0,6083
Taux Swap EURO 8Y 0,9982 0,9881 0,9224 0,6053
Taux Swap EURO 9Y 0,9982 0,9889 0,9265 0,6023
Taux Swap EURO 10Y 0,9983 0,9882 0,9342 0,5993
Taux Swap EURO 12Y 0,9978 0,9855 0,9227 0,5933
Taux Swap EURO 15Y 0,9974 0,9845 0,9110 0,5845
Taux Swap EURO 20Y 0,9973 0,9850 0,9081 0,5700
Taux Swap EURO 25Y 0,9963 0,9789 0,9029 0,5560
Taux Swap EURO 30Y 0,9971 0,9822 0,9062 0,5422
Taux Swap EURO 35Y 0,9980 0,9835 0,9044 0,5289
Taux Swap EURO 40Y 0,9939 0,9775 0,8960 0,5158
Taux Swap EURO 45Y 0,9980 0,9832 0,9025 0,5031
Taux Swap EURO 50Y 0,9965 0,9794 0,8923 0,4906
Coefficients d'autocorrélation des séries de Swap de taux d'intérêts EURO
102
Il est très rare d’avoir à générer des scénarios en pas quotidien ou hebdomadaires. Cela peut
arriver dans certaines études très spécifiques comme le lancement d’un nouveau Fonds en Euros
dans une région du monde où les taux d’intérêts sont élevés. Dans ce cas on
retraite « manuellement » les scénarios générés par A.L.A.M.O. en appliquant aux séries ayant
un coefficient d’autocorrélation de 0,95 un nouveau lissage par moyenne mobile. Les résultats
sont synthétisés dans le graphique ci-dessous :
Comme le montre le graphique ci-dessus, avec une nouvelle transformation par Moyenne
Mobile, on arrive à répliquer des niveaux d’autocorrélations supérieurs à 0,99 qui correspondent
à des niveaux d’autocorrélation observés sur des séries de taux en pas quotidiens ou
hebdomadaires.
L’application d’une transformation manuelle sur des scénarios ALAMO n’est pas optimale sur
le plan de la rapidité mais étant donné le très faible nombre d’études à effectuer en pas quotidien
ou hebdomadaire, il n’a pas été jugé utile de développer un nouveau module dans l’ESG.
d) Conclusion
L’ESG ALAMO qui répond au cahier des charges de BNP Paribas Cardif se révèle insuffisant
pour satisfaire à des cahiers des charges d’une Salle de Marchés bancaire dans la mesure où les
Traders doivent modéliser le comportement des actifs en pas journalier voir en pas horaire ou
minute. Cette diminution du pas de temps engendre des Skewness et Excess Kurtosis qui
peuvent tendre vers l’infini en valeur absolu et des coefficients d’autocorrélations compris entre
0,99 et 1,00. ALAMO ne peut répliquer ces phénomènes extrêmes. Pour ce faire il faut utiliser
des processus à saut (modèle de Merton) sur les actions et des processus de diffusion avec retour
vers la moyenne (Vacisek, Nelson & Siegel, Cox Ingersoll & Ross, …) pour les taux. Ces
Processus ne sont pas à l’œuvre dans ALAMO : il peut être alors envisageable de considérer un
modèle spécifique à la génération de scénarios de stress.
0
Coefficient d'autocorrélation de la série transformée 0,9501
Coefficient d'autocorrélation de la série transformée + transformation manuelle 0,9960
0,0%
0,5%
1,0%
1,5%
2,0%
2,5%
3,0%
3,5%
Nive
au d
e tau
x
Horizon de projection en jours
Impact de la transformation manuelle par application de la MM1/20 sur une série à coefficient d'autocorrélation de 0,95
Série Initiale après application du vecteur MM1/20
Série Initiale après application du vecteur MM1/20 + transformation manuelle avec le veteur MM1/20
103
3.4.4. Respect des corrélations dans le cas d’actifs auto corrélés
a) Position du problème
Considérons 2 actifs A et B qui présentent les caractéristiques suivantes :
Lorsque l’on génère 1000 scénarios ALAMO sur un horizon de 100 pas de projection, les
moments ci-dessus peuvent être facilement respectés :
- En paramétrant les coefficients AMIGARCH de la manière suivante : α = 0, β = 0,
γ = 1 et q = ½
- En appliquant la transformation de Cholesky
- En paramétrant les ωi du modèle Yuke Walker de la manière suivante : ω1 = 1 et
ω2≤i≤20 = 0
Faisons varier l’autocorrélation ρ des actifs A et B de 0,00 à 1,00 et générons 1000 scénarios
d’ALAMO en adaptant les coefficients ωi pour coller au mieux à l’autocorrélation de l’actif B
et observons le comportement du coefficient de corrélation entre A et B.
b) Résultats
Les résultats de l’exercice sont rassemblés dans les graphiques ci-dessous :
μ σ S K ρ ρi,j A B
A 0% 20% 0,00 0,00 0,00 A 1,00 0,70
B 0% 5% 0,00 0,00 0,00 B 0,70 1,00
104
Ces graphiques nous apprennent plusieurs choses :
- Lorsque l’autocorrélation des actifs A et B reste contenue sous 0,40, la corrélation
entre les actifs A et B reste proche de la corrélation cible recherchée (0,70)
- Lorsque l’on augmente le coefficient d’autocorrélation d’un actif au-dessus de 0,40
en gardant l’autre actif en dessous de 0,40, le coefficient de corrélation entre les
actifs A et B baisse sensiblement et on s’éloigne de l’objectif consistant à répliquer
la corrélation enter A et B.
- Lorsque les coefficients d’autocorrélation de A et de B augmentent en parallèle, la
corrélation entre A et B reste contenue autour de 0,70.
- Lorsque l’on augmente les coefficients d’autocorrélation de A et de B au-dessus de
0,99 pour les faire tendre vers 1,00, le coefficient de corrélation entre A et B
s’effondre et tend vers 0.
c) Conclusions
Il existe des situations « théoriques » dans lesquelles ALAMO ne peut répliquer à la fois les
phénomènes de corrélations et d’autocorrélations. En pratique ces situations de coefficients
d’autocorrélations supérieurs à 0,99 s’observent en pas journalier sur des séries de taux
d’intérêts. Les situations où l’on peut observer 2 actifs ayant un fort coefficient de corrélation
mais dont l’un présente un fort coefficient d’autocorrélation tandis que l’autre présente un faible
coefficient d’autocorrélation sont rares sur les marchés financiers. On peut l’observer en pas
« minute » après la parution par exemple d’une bonne nouvelle macroéconomique : dans ce cas
105
on peut voir une remontée continue des taux d’intérêts couplée d’une succession de
performances fortement positives sur les actions entrecoupées de petites phases de
consolidation. On obtient dans ce cas là des actions et des taux qui évoluent avec un coefficient
de corrélation important mais avec d’un côté des taux qui présentent un très fort coefficient
d’autocorrélation et de l’autre des actions qui présentent un coefficient d’autocorrélation faible.
Cette situation peut difficilement être réplicable par ALAMO.
Dans le cas de notre objectif de répondre à des Appels d’Offres pour gérer des fonds de rentes
fermés nécessitant de simuler l’évolution des actions, des taux et d’indices comme l’inflation
en pas trimestriel ou annuel sur 30 années de projection cette situation ne s’est jamais produite :
- On n’observe jamais des actifs usuels évoluant avec des niveaux d’autocorrélation
supérieurs à 0,99
- On n’observe jamais des actifs usuels corrélés entre eux tout en ayant des
structures d’autocorrélation sensiblement différentes entre elles.
3.4.5. Gestion du régime transitoire sur les scénarios de taux
a) Introduction
Le paragraphe 3.2.6. nous a amené à toucher une limite « problématique » de l’ESG ALAMO.
Comment modéliser une distribution présentant un fort coefficient d’autocorrélation mais dont
le Drift est éloigné des derniers points de l’historique ? En d’autres termes pour prendre un cas
concret, comment modéliser un taux d’intérêt centré autour de 3% mais dont les 20 dernières
observations sont situés dans un intervalle compris entre 0,50 % et 1,00 % ?
b) Problématique
Pour les séries qui ne sont pas auto corrélées (Performances des actions, des matières premières,
…) la question du régime transitoire avec l’historique ne se pose pas. Cette problématique
concerne essentiellement les séries présentant des coefficients d’autocorrélations significatifs.
En l’absence d’un processus gérant le régime transitoire voici ce que donnerait un scénario
d’évolution du CAC40 et de l’OAT10 ans avec les hypothèses suivantes :
- CAC 40
o Performance moyenne annualisée : 2%
o Volatilité moyenne annualisée : 20%
- OAT 10 ans
o Niveau de taux : 4,5%
o Volatilité : 5%
106
0%
1%
2%
3%
4%
5%
6%
7%
8%
9%
déc.
-04
avr.-
06
août
-07
déc.
-08
avr.-
10
août
-11
déc.
-12
avr.-
14
août
-15
déc.
-16
avr.-
18
août
-19
déc.
-20
avr.-
22
août
-23
déc.
-24
avr.-
26
août
-27
déc.
-28
avr.-
30
août
-31
déc.
-32
avr.-
34
août
-35
OAT 10 ans
Historique Scénario
0%
1%
2%
3%
4%
5%
6%
7%
8%
9%
mai
-13
juil.
-13
sept
.-13
nov.
-13
janv
.-14
mar
s-14
mai
-14
juil.
-14
sept
.-14
nov.
-14
janv
.-15
mar
s-15
mai
-15
juil.
-15
sept
.-15
nov.
-15
janv
.-16
mar
s-16
mai
-16
juil.
-16
sept
.-16
nov.
-16
OAT 10 ans
Historique Scénario
107
On remarque une différence essentielle entre d’un côté :
- La projection du CAC 40 dont le scénario projeté s’inscrit en continuité avec
l’historique bien que la tendance ne soit pas identique du fait que les rendements du
CAC40 présentent une autocorrélation nulle.
- La projection de l’OAT10 ans qui présente une discontinuité remarquable avec un
taux 10 ans français qui passe de 0,5% en Mars 2016 (dernier point de l’historique)
à … 8% en Avril 2016 (1er point du scénario matérialisé dans le graphique ci-
dessus). Bien qu’il ne s’agisse que d’un scénario on constate que ce tirage n’est pas
réaliste d’autant plus que l’ensemble des scénarios présentent des taux pour le mois
d’Avril 2016 allant de 3% à 8%. Même dans le meilleur des cas, on observe quand
même un saut de plus de 2% du taux français entre le dernier point de l’historique
et le premier point des scénarios.
L’enseignement est le suivant : comme en mécanique oscillatoire, il faut donc mettre en place
un algorithme qui gère le régime transitoire entre l’historique et les scénarios surtout lorsque
ceux-ci concernent un actif :
- Présentant une tendance de long terme différente de l’historique récent
- Ayant un fort coefficient d’autocorrélation élevé (de l’ordre de 0,90 ou 0,95).
Les actifs assimilés à des taux doivent être soumis à un raccordement entre chaque période
d’anticipation p. L’utilisateur va créer un vecteur R qui va servir à générer ce régime transitoire.
Cette transformation ne s’applique pas aux actifs de type « actions ».
3.4.6. Limites du raccordement
a) Problématique
Nous avons vu dans le paragraphe 3.4.4. ci-dessus, que dans la simulation des courbes des taux
la question du régime transitoire se posait : en effet le passage d’une phase P avec un niveau de
taux moyen t à une phase P’ avec un niveau de taux moyen t’, ne se fait pas naturellement en
raison du caractère « auto corrélé » des taux d’intérêts. Est-il possible de respecter des
changements de niveaux de taux sous contraintes d’autocorrélations ?
b) Etude d’un exemple
Prenons l’exemple de l’indice de taux français d’échéance 10 ans appelé TEC10. Le graphique
ci-dessous représente l’historique de cet indice de référence qui sert dans le calcul de nombreux
indicateurs en Assurance Vie comme le taux technique ou le Taux Minimum Garanti.
108
Supposons maintenant que dans le cadre d’une étude ALM portant sur la faisabilité d’un
Business Plan à horizon 1 an, ce dernier projette un Taux 10 ans français égal à 3% sur les 12
premiers mois de simulation allant de Juillet 2017 à Juin 2018. Le tirage doit avoir lieu en pas
mensuel. L’autocorrélation calculée sur l’historique est égale à 0,95 et la volatilité mensuelle
est égale à 1,3%. La Skewness et Excess Kurtosis ont des valeurs proches de 0. Ces hypothèses
portent en elles le conflit entre le respect des hypothèses d’autocorrélation historiques et les
projections de taux sur les 12 prochains mois autour de 3%.
Le graphique ci-dessous permet de visualiser la projection des scénarios sur les 24 prochains
mois sous contraintes d’autocorrélations relativement à la tendance de 2% du Business Plan
paramétrée par l’utilisateur.
0,00%
0,50%
1,00%
1,50%
2,00%
2,50%
01/0
1/20
15
01/0
3/20
15
01/0
5/20
15
01/0
7/20
15
01/0
9/20
15
01/1
1/20
15
01/0
1/20
16
01/0
3/20
16
01/0
5/20
16
01/0
7/20
16
01/0
9/20
16
01/1
1/20
16
01/0
1/20
17
01/0
3/20
17
01/0
5/20
17
01/0
7/20
17
01/0
9/20
17
01/1
1/20
17
01/0
1/20
18
01/0
3/20
18
01/0
5/20
18
01/0
7/20
18
01/0
9/20
18
01/1
1/20
18
01/0
1/20
19
01/0
3/20
19
01/0
5/20
19
Schématisation des contraintes de raccordement pour satisfaire les contraintes d'autocorrlations et de niveau de taux à 2% sur les prochains 24 mois
Scénario Historique
Niveau cible du taux défini par l'utilisateur : 2,00 %
Niveau moyen du taux projeté : 1,33 %
109
c) Conclusions et conséquences
Le graphique ci-dessus montre qu’il est très difficile pour l’ESG ALAMO de satisfaire à des
contraintes de taux cible éloignées de ceux de l’historique sur une période courte en raison des
contraintes d’autocorrélations qui génèrent une inertie. Néanmoins dans le cadre d’études
d’ALM, les niveaux de taux moyens sont fixés sur des horizons très éloignés de 5, 10, 20 ou 30
ans ce qui permet au régime transitoire de ne pas peser sur les niveaux moyens de taux.
Néanmoins les observations effectuées dans ce paragraphe montrent qu’il sera impossible à
l’ESG A.L.A.M.O. de respecter des contraintes de scénarios centrés autour d’un niveau de taux
différent chaque année. Le respect des contraintes historiques d’autocorrélations conjugué aux
contraintes de raccordement dans le cadre d’une succession de régimes transitoires fait qu’il est
impossible à l’ESG A.L.A.M.O. de générer des scénarios de taux centrés autour des taux
forward. Cet ESG qui excelle dans la simulation en « Risque Réel » ne peut être adapté à
l’univers « Risque Neutre ».
Une autre limite qui apparait dans ce graphique réside dans le fait que sur le régime transitoire,
la volatilité est très faible du fait que l’on offre peu de place à des régimes transitoire alternatifs.
3.4.7. Limites de la calibration historique
Les limites abordées dans les paragraphes 3.4.4. et 3.4.5. relatives à la gestion du régime
transitoires et aux problématiques de raccordement des scénarios de taux avec l’historique nous
amène à nous poser la question suivante : Est-il raisonnable de projeter des scénarios dont tous
les moments (Drift, Volatilité, …) doivent absolument cadrer avec l’historique ?
Si l’on considère par exemple le cas du taux d’intérêt français à 2 ans (OAT 2 ans). Dans la
partie 2, on a calculé que le Taux moyen historique serait égal à 2,46% : est-il raisonnable de
générer des taux dans le futur, centrés autour de ce taux moyen de 2,46 % sachant que les
derniers points de l’historique situent l’OAT 2 ans à -0,30% ?
Même si on peut créer un régime transitoire qui fera converger les taux d’un niveau de -0,30%
à +2,46% après plusieurs trimestres de projection, sommes-nous obligés de satisfaire à tout prix
aux contraintes de Drift historique ? Dans les salles de marchés chez les Assureurs, et les Asset
Managers, un dicton circule : « les performances passées ne préjugent pas des performances
futures ». C’est d’autant plus vrai dans le cas des taux d’intérêts puisqu’un taux OAT 2 ans à
2,46% (moyenne de l’historique) correspond à des conditions de marché, de situation
macroéconomique et de politique monétaire qui n’ont sans doute rien à voir avec celles du
présent et du futur. Nous savons par exemple que la Banque Centrale Européenne va laisser ses
taux directeurs inchangés autour de 0% pour un certain temps encore : de ce fait, projeter à tout
prix des scénarios de taux court (2 ans) centrés autour de 2,50% n’aurait aucun sens.
Dans ces conditions, il a été prévu de modifier le cahier des charges qui deviendrait le consistant
à simuler des scénarios d’actifs qui doivent satisfaire aux conditions suivantes :
- Drift centré autour d’une valeur paramétrable par l’utilisateur (ça peut être le Drift
de l’historique ou un Drift défini par l’utilisateur)
- Volatilité centrée autour d’une valeur paramétrable par l’utilisateur (ça peut être la
Volatilité moyenne de l’historique ou une Volatilité définie par l’utilisateur)
- Paramètres de queue de distribution (Skewness et Excess Kurtosis) centrés autour
de ceux de l’historique
- Paramètres de corrélations et d’autocorrélations centrés autour de l’historique
110
3.4.8. Conclusions et recommandations
Cette partie nous a permis de mettre en évidences des limites structurelles d’A.L.A.M.O.
lorsque l’on s’éloigne du cadre fixé par le cahier des charges défini par BNP Paribas Cardif.
Ces limites se manifestent surtout lorsque l’on réduit le pas de temps de projection en passant
de pas de temps trimestriels ou annuels (environnement de simulation fixé dans le cahier des
charges) à des pas de temps journaliers voir horaires.
Afin de ne pas être pénalisé par ces limites,
- Nous génèrerons des scénarios en pas trimestriel ou annuel : c’est le pas de temps
usuel dans l’univers de l’Assurance Vie
- Nous donnerons la possibilité à l’utilisateur de calibrer les paramètres de Drift et de
Volatilité : nous étudierons dans la partie 4 une méthode de calibration du Drift des
actifs et la comparerons avec une calibration standard consistant à reprendre les Drift
de l’historique.
111
3.5. Benchamrking d’A.L.A.M.O. avec les autres ESG
3.5.1. Grilles d’analyse des générateurs étudiés
Cette section se présente sous forme de tableau détaillé destiné à comparer les Générateurs de Scénarios suivant une grille d’analyse précise détaillée allant du modèle mathématique utilisé, à la capacité du générateur à simuler les taux négatifs en passant par la vitesse et la souplesse de calcul, le langage informatique utilisé, la souplesse dans la calibration des moments. Elle est très détaillée et serait laborieuse à lire dans la suite de ce mémoire. Les 5 autres ESG qui serviront de benchmark à ALAMO seront détaillés dans l’annexe IV.
3.5.2. Caractéristiques principales des ESG étudiés
Nous présentons ci-dessous un tableau synthétisant les caractéristiques des différentes solutions
étudiées :
MLG2+ ALAMO KARMA VALRISK Barrie-Hibbert
Ahlgrim
Environnement Risque-neutre /
monde-réel Monde-réel Monde-réel
Risque neutre / monde réel
Risque-neutre / monde-réel
Monde-réel
Variables
modélisées
Taux nominaux et
réels, inflation, actions,
immobilier, indices
d’OPCVM
Tous types de variables
(taux, actions, spreads de
crédit, inflation,
immobilier, …)
Actions, immobilier et
taux de change
Actions, taux, spreads de
crédit, commodities,
taux de change
Tous types de variables (taux, actions, spreads
de crédit, inflation,
immobilier, …)
Taux nominaux et
réels, inflation, actions,
immobilier et taux de
chômage
Possibilité de
projeter simultanément
plusieurs économies
Non Oui Oui Oui Oui Non
Type de
solution Interne Interne Interne Interne Externe Externe
Modèle
pouvant être déployé tel quel
Uniquement le module de génération de trajectoires
Non Non Oui Oui Oui
Interface
utilisateur Oui Non Non Oui Oui Non
Documentation
Notes techniques
sur les modèles
implémentés
Notes techniques
sur les modèles
implémentés
Pas de documentation
du modèle
Documentation exhaustive sur les modèles,
calibrage, process…(Suite à la mission de certification de
la CB)
Documentation exhaustive sur
les modèles implémentés et
publications d’études
économétriques
Formalisation détaillée des
modèles implémentés
dans le rapport
« Modeling of Economic Scenarios »
112
3.5.3. Comparaison des ESG dans l’univers « Risque Réel »
Il apparaît essentiel de privilégier un modèle intégré à une solution composite : Les modèles
composites conduisent à des problématiques d’articulation de modèles et complexifient la mise
en œuvre des processus de contrôle et d’auditabilité des travaux effectués. L’ensemble des
outils étudiés peut être considéré comme une solution intégrée excepté l’applicatif KARMA
qui ne permet pas de modéliser, entre autres, les taux d’intérêt.
Parmi les ESG « monde-réel » considérés, rappelons que le modèle développé par Ahlgrim
positionne le risque « inflation » comme l’élément central du générateur. Ce driver intervient
ensuite dans la modélisation des autres actifs. En outre, ce modèle ne s’appuie pas sur une
dynamique spécifique pour les taux nominaux : Ces derniers se déduisent des taux réels et de
l’inflation simulée. Par ailleurs la diffusion utilisée pour les taux réels (Vasicek à deux facteurs)
ne permet pas d’initialiser les projections de taux en partant de la courbe en vigueur à la date
de calcul. A la différence des modèles d’arbitrage (de type HJM, LMM, …), les modèles
d’équilibre ne répliquent pas la courbe des taux initiale. Par conséquent, la modélisation
proposée par Ahlgrim ne semble pas assez robuste pour une quantification précise du risque de
taux.
Le modèle ValRisk parait très riche et assez robuste. Nous ne l’avons cependant pas retenu pour
des raisons de disponibilité, ce qui ne nous permet pas de nous prononcer sur les détails des
modèles.
La solution intégrée ALAMO propose un très large panel de drivers modélisés (taux nominaux
et réels, actions, inflation, spreads de crédit, …). Rappelons que les modèles implémentés dans
cet applicatif permettent de répliquer précisément les propriétés statistiques des séries
historiques (rendements moyens, volatilités, corrélations, auto-corrélations et non-normalité
des distributions) ; ALAMO peut donc être utilisé dans différents contextes de calculs « monde-
réel » (détermination du capital économique, études ALM, ….).
L’outil MLG2+ n’intègre pas quant à lui de modèle de risque de crédit et ne permet pas de
projeter simultanément plusieurs économies, le recours à une telle solution pour le calcul du
capital économique nécessiterait par conséquent d’importantes évolutions. En revanche, la
solution Barrie-Hibbert permet de répondre à l’ensemble des problématiques de calcul
« monde-réel ». Néanmoins dans ce GSE, les mêmes modèles sont proposés en environnement
« risque-neutre » et « monde-réel » (c’est également le cas de MLG2+).
La modélisation apparaît par conséquent plus avancée sous ALAMO en proposant des modèles
spécifiquement adaptés à l’univers monde-réel. Néanmoins, pour garantir le bon déploiement
de cette solution, il apparaît nécessaire de développer une documentation exhaustive et
d’aménager l’outil en vue d’une utilisation industrialisée. C’est dans ce contexte que ce
mémoire d’actuariat prend tout son sens.
113
3.5.4. Conclusions et recommandations
Le tableau ci-dessous présente un résumé des scénarios des avantages et inconvénients des
différents ESG.
Plusieurs modèles ressortent favorablement de l’analyse et de la comparaison effectuées
précédemment :
- Le modèle ALAMO, développé par mes soins au sein de la Direction de la Gestion
d’Actifs (DGA), et fonctionnant exclusivement en monde réel.
- Le modèle Barrie & Hibbert, solution externe, fonctionnant à la fois en univers risque
neutre et monde réel ;
- Le modèle MLG2+, développé par l’ALM groupe et fonctionnant également en univers
risque neutre et en monde réel ;
Parmi ces trois solutions, ALAMO a été développé spécifiquement pour effectuer des
simulations en monde réel et présente, de par la modélisation adoptée, des qualités indéniables
en termes de flexibilité et de performance qui en font le modèle le plus adapté pour des
simulations en monde réel. Les environnements de modélisation en monde réel et en risque
Comparaison des outils étudiés
Outils BNP MLG2+ ALAMO KARMA VALRISK
Avantages
- Outil parfaitement
maîtrisé et l’équipe est en
mesure d’apporter toutes
les évolutions
nécessaires.
- Si nécessaire un support
peut être apporté par
l’équipe de R&D FIRST.
- Flexible et performant
en monde réel
(utilisation de
processus GARCH).
- Outil parfaitement
maîtrisé et l’équipe est
en mesure d’apporter
toutes les évolutions
nécessaires.
- Outil a priori
robuste
- Calibrage
réalisé sur un
historique
important.
Inconvénients
- La modélisation risque
neutre s’appuie sur des
méthodes risque réel.
- Génération de taux négatifs
trop fréquente, une
modification de l’outil est
donc nécessaire.
- Projection d’une seule
économie à la fois.
- Absence de modélisation
des spreads de crédit.
- Uniquement monde
réel.
- Des développements
sont nécessaires pour
le déploiement de l’outil
(interface utilisateur…).
- Pas de documentation
du modèle.
- Modèle composite
- Horizon de
projection trop
court
- Uniquement monde
réel.
- Pas d’interface
utilisateur.
- Pas de
documentation du
modèle.
- Horizon de
projection trop
court.
Progiciels Barrie-Hibbert Ahlgrim
Avantages
- Publication fréquente d’articles de recherche.
- Solution éprouvée par le marché.
- Calibration trimestrielle fournie
Inconvénients
- Outil externe qui n’est donc pas maîtrisé totalement
par BNP et entraînant des problèmes pour des
évolutions spécifiques.
- La modélisation risque neutre s’appuie sur des
méthodes risque réel.
- Manque de robustesse du modèle.
- Outil externe qui n’est donc pas
maîtrisé totalement par BNP.
- Uniquement monde réel.
114
neutre pouvant tout à fait être distincts, A.L.A.M.O. peut fonctionner en tandem avec un modèle
risque neutre développé sur une autre plateforme.
De plus cette solution interne A.L.A.M.O., par opposition à la solution externe Barrie &
Hibbert, nous paraît de surcroît comporter certains avantages :
- Elle implique une plus grande appropriation du modèle par les utilisateurs de par leur
implication plus forte, notamment à l’étape de rédaction d’un cahier des charges ;
- Elle permet le développement d’un modèle adapté aux besoins spécifiques de BNP PA.
Pour ces raisons, la solution interne ALAMO a été recommandée pour la modélisation en
« Risque Réel ».
3.6. Conclusions relatives au rôle d’A.L.A.M.O.
Cette partie nous a permis de mettre en évidence (graphiquement et statistiquement) la capacité
d’A.L.A.M.O. à générer des scénarios d’actifs présentant des distributions présentant des
caractéristiques similaires à l’historique.
Ces observations sont néanmoins à relativiser par le fait qu’en diminuant le pas de temps de
projection (en passant par exemple d’un pas trimestriel à un pas journalier), l’ESG A.L.A.M.O.
commence à avoir plus de mal à répliquer certains phénomènes comme la gestion du régime
transitoire pour les taux ou la réplication d’Excess Kurtosis tendant vers l’infini ou encore
d’autocorrélations tendant vers 1,00.
La comparaison avec d’autres ESG permet cependant de démontrer que si l’ESG A.L.A.M.O.
n’est pas parfait, il permet de répondre aux exigences de BNP Paribas Cardif en vue d’optimiser
la gestion des fonds de rentes fermées.
Nous utiliserons donc l’ESG A.L.A.M.O. dans la simulation de scénarios d’actifs en Risque
Réel sur un pas de temps trimestriel ou annuel. Toutefois et afin de mieux optimiser l’utilisation
de l’outil, il nous faudra développer une méthodologie de calibration des Drifts à entrer dans
l’ESG.
La 4ème partie aura pour objectif de présenter une étude de cas concrète de gestion d’un fonds
de rente fermé et nous donnera l’occasion de présenter une méthodologie de calibration des
Drifts.
115
4. Utilisation d’A.L.A.M.O. sur un Fonds de Rentes fermé
4.1. Présentation du contexte et de l’Appel d’Offres
4.1.1. Introduction générale
L’évolution de ma carrière dans les secteurs financiers et assurantiels ainsi que le
développement de l’ESG A.L.A.M.O. sont intimement liés. Lorsque j’ai démarré ma carrière
comme Credit Risk Manager au Crédit Lyonnais, j’ai eu à mettre en place un modèle interne
de calcul du Risque de Crédit sous Bâle III. J’ai alors été confronté au paramétrage d’un premier
ESG développé par Moody’s KMV afin de calculer la « Distance de Défaut » des expositions
en portefeuille. Ce premier modèle basé sur le modèle de Merton donnait une bonne approche
de la mesure des risques (et en particulier de la modélisation des moments d’ordre 3 et 4) mais
se heurtait au problème de la gestion des corrélations et des autocorrélations.
Lorsque j’ai rejoint l’industrie de la gestion Alternative en tant que Market Risk Manager, j’ai
été confronté à la nécessité de quantifier les risques liés aux investissements dans les différents
Hedges Funds et en particulier la mesure du risque de liquidité, des queues de distribution en
ne disposant que de séries de faible profondeur (12 mois à 60 mois en général). Les modèles
classiques ne fonctionnaient pas du fait qu’ils étaient soit basés sur des hypothèses gaussiennes,
soit lorsqu’ils arrivaient à intégrer les moments d’ordres 3 et 4 passaient à côté des phénomènes
à l’origine de ces asymétries à savoir la présence de régimes multiples alternant périodes de
faibles volatilités et périodes de volatilités extrêmes. Dans l’incapacité de résoudre le problème
j’ai alors implémenté un modèle analytique de calcul de la Value at Risque basé sur le modèle
de Cornish Fischer qui intègre les Skewness et Excess Kurtosis dans une formule fermée de
mesure de la VaR dont l’avantage principal réside à modéliser des risques extrêmes avec des
historiques de faible profondeur puisqu’il ne suffit que de 4 points pour calculer un Excess
Kurtosis.
C’est en intégrant BNP Paribas Cardif que la question du développement d’un ESG devant
gérer toutes les problématiques « risque réel » allant de simulation de Browniens Corrélés à la
quantification des risques extrêmes en passant par la gestion des autocorrélations est devenue
cruciale. De par la nature de l’activité d’Assurance impliquant la maîtrise continue des
interactions Actif / Passif, il était insensé de proposer une quantification des risques au moyen
de formules fermées tel que Cornish – Fischer. Néanmoins et à contrario de la Gestion
Alternative, les actifs traités par les Assureurs ont pour avantage d‘avoir des séries historiques
de grande profondeur, ce qui permet d’assurer une certaine stabilité quant à la mesure et à la
simulation des principaux moments (Drift, Volatilité, Skewness, Kurtosis) et des corrélations.
Cette partie aura pour objet de présenter un exemple de réponse à un Appel d’Offres utilisant
le générateur A.L.A.M.O. pour optimiser l’allocation d’actifs d’un Groupe Industriel afin de
maximiser le rendement sous contraintes de maîtriser les risques de marché (volatilité
principalement), de défaut (insuffisance des capitaux constitutifs incluant la revalorisation de
l’actif pour régler les flux de passif) et de concentration.
116
4.1.2. Contexte et problématique
Les retraites en France se sont développées tout d'abord dans certaines branches d'activités et
dans certaines grandes entreprises dès l'entre-deux guerres avant d'être généralisées à
l'ensemble de la population dans le cadre des ordonnances de la sécurité sociale en 1945. Le
système de retraite institué à cette date est basé sur le principe de la solidarité
intergénérationnelle au travers d'un système par répartition. Les grandes entreprises ont mis en
place des régimes de retraites à destination de leurs employés. Les cotisations versées par les
employés durant leur période d’activité sont ensuite stockées dans un régime géré par
l’entreprise. Avec la faillite d'ENRON, 20.000 personnes de l'entreprise perdirent leur emploi
et plusieurs centaines de millions de dollars constituant l'essentiel de fonds de pension : la
retraite de milliers d'américains parti en fumée.
Cette affaire et le procès qui s'en suivit sont hautement instructifs. Ils sont d'ailleurs à l'origine
de nouvelles lois et règles comptables afin de mieux encadrer dirigeants et auditeurs et d'assurer
une meilleure transparence des comptes, comme la loi Sarbanes Oxley, les nouvelles règles
comptables IAS IFRS. Suite à la faillite du régime de retraite d’ENRON et du scandale qui s’en
est suivi, le gouvernement Fillon obligea les Entreprises à déléguer leur gestion de leur régime
de retraites à des Organismes d’Assurance. Entre 2005 et 2009, l’intégralité des Groupes du
CAC40 lancèrent des appels d’offres à destination des Assureurs afin de déléguer leur Passif
de Retraite. Les Assureurs étaient responsables dans la collecte des capitaux constitutifs des
salariés de l’Entreprise, de l’optimisation de la gestion d’actifs (en accord avec les CCE de
l’Entreprise), du paiement des rentes aux retraités. Par ailleurs, les Assureurs n’ayant pas
d’obligation de résultats mais de moyens, ces derniers sont en charge de demander des Appels
de Fonds aux Entreprises dans le cas où les capitaux constitutifs initialement versés s’avéraient
insuffisants pour payer les rentes.
4.1.3. Présentation de l’Appel d’Offres
C’est dans ce contexte que j’ai été amené dans le cadre de mes missions chez BNP Paribas
Cardif à répondre à des Appels d’Offres lancés par de nombreux groupes du CAC40. Ce
paragraphe a pour objectif de présenter un exemple simple et surtout anonyme d’un appel
d’offres auquel j’ai dû répondre.
A la fin des années 2000 (en Octobre 2009 plus précisément), une entreprise cotée au sein du
CAC40 nous a lancé un Appel d’Offres à destination de grands Assureurs dont mon ancien
employeur BNP Paribas Cardif afin de déléguer la gestion de leurs Provisions Mathématiques
dans le cadre du régime Article 83. Dans le cadre de l’Appels d’Offres, l’Entreprise envoie aux
différents Assureurs les flux de prestations à payer aux rentiers ainsi que les flux de capitaux
constitutifs à venir des actifs ainsi que les stocks initiaux des Provisions Mathématiques et des
Actifs sous Gestion.
Le schéma ci-dessous décrit le rôle des différents départements de BNP Paribas pour répondre
à un Appel d’Offres de ce type. Ce schéma n’a rien de confidentiel puisque transposable à tous
les autres Assureurs et Bancassureurs de la place Parisienne.
117
- L’Entreprise que nous appellerons « E » est responsable de :
o La transmission des Provisions Mathématiques tête par tête à l’instant t 0,
o De la valorisation de l’Actif à t = 0,
o De l’évaluation des flux de capitaux constitutifs tête par tête
o De l’évaluation des flux de rentes tête par tête.
- A la réception des données en provenance de l’entreprise, le département Actuariat de BNP
Paribas Cardif se charge :
o De l’étude de la pyramide des âges de l’Entreprise « E »
o De l’analyse des mouvements historiques des embauches mobilités et départs de
l’Entreprise « E »
o De la détermination du taux de Turnover par classe d’âge.
o Du choix de la table de mortalité
o Du Choix du Taux Technique
o Du calcul des flux de capitaux constitutifs et des flux de rentes agrégés par année
civile, probabilisés par les taux de tunrover & de décès et actualisés avec le taux
technique.
Entreprise « E » du CAC 40
Actuariat
ALM
Asset Management
118
- L’ALM avec l’appui de l’Ingénierie Financière de BNP Paribas Cardif auquel j’appartiens
a pour objectif
o De valider le montant de l’actif disponible à l’instant t = 0, ainsi que les flux
agrégés et actualisés des capitaux constitutifs et de rentes.
o De choisir les principales classes d’actifs qui vont constituer l’allocation
stratégique
o De déterminer sur la base de considérations macroéconomiques et
économétriques les hypothèses de rendement de chacune des classes d’actifs
o De déterminer sur la base de calculs de primes de risques les hypothèses de
volatilité de chacune des classes d’actifs
o De calculer à partir des historiques d’indices les corrélations, Skewness et Exces
Kurtosis
o De simuler à partir de l’ESG A.L.A.M.O. les scénarios stochastiques de
comportement des actifs modélisés ci-dessus
o D’évaluer l’aversion globale au risque de l’entreprise « E »
o D’estimer les poids des facteurs de risques que sont les risques de marché
(volatilité, skewness et excess kurtosis) principalement, de défaut (actif évalué
en valeur de marché insuffisant pour payer les rentes) et de concentration.
o De construire une allocation stratégique de long terme optimisant le rendement
moyen sous contraintes des risques de marché, défaut et concentration.
- L’ASSET MANAGEMENT du Groupe BNP Paribas à la réception de l’Allocation d’Actifs
Stratégique transmise par l’ALM a pour rôle :
o De déterminer différentes stratégies de gestion tactiques en fonction des
configurations de marché
o De construire l’allocation tactique à t = 0 notée Ao.
o De déterminer la trajectoire d’investissement pour passer d’une allocation 100%
monétaire à l’allocation Ao.
o De choisir les principaux véhicules d’investissements : OPCVM, Titres vifs,
ETF, Fonds, …
Suite à l’émission de l’Appel d’Offres et du travail de l’Actuariat d’agrégation des flux, voici
la situation initiale du Bilan projeté de l’entreprise avec les flux de cotisations reçues et de
prestations à verser. Pour des raisons de confidentialité, les flux seront modifiés et normés afin
de protéger l’anonymat de l’entreprise « E » ayant soumis l’Appel d’Offres.
119
Les flux de prestations ont été projetés et séparés entre les « pieds de rentes » correspondant à
la valeur actuelle des flux payés dans x années et le montant des revalorisations :
- En vert sur le graphique ci-dessus figurent les capitaux constitutifs transmis par l’entreprise
E à l’Assureur.
- En rouge figurent les prestations à verser aux adhérents matérialisées par les pieds de rentes
nettes de revalorisation. A partir des pieds de rentes individuels transmis par l’entreprise,
l’Actuariat les agrègent par année de projection et les transmets à l’ALM.
- En jaune est représentée la revalorisation des pieds de rente. L’entreprise s’est engagée à
revaloriser les pieds de rente à hauteur du taux de l’inflation cumulée entre l’année 0 de
référence (2009) et l’année k (2009 + k). De ce fait si on note :
o Ik le taux d’inflation à l’année k,
o Pk, la valeur du pied de rente de l’année k,
o La valeur de la revalorisation Rk du pied de rente Pk s’écrit alors :
−+=
=
1)1(0
ik
i
ikk IPR
120
4.2. Présentation des classes d’actifs utilisées
4.2.1. Introduction et problématique
Afin de proposer la meilleure allocation stratégique, il nous faut dans un premier temps définir
les classes d’actifs qui vont être utilisées et définir leurs hypothèses de rendement, de volatilité
et un indice benchmark de marché qui les caractérisent au mieux. Les classes d’actifs ayant été
retenues par la Direction de BNP Paribas Cardif en accord avec l’Entreprise E seront :
- Le cash
- Le monétaire
- Les Obligations gouvernementales d’échéances courtes
- Les Obligations gouvernementales d’échéances longues
- Les Obligations d’entreprises d’échéances courtes
- Les Obligations d’entreprises d’échéances longues
- Les Actions Européennes
- Les Actions Internationales
La Zone Euro ayant été construite entre 1998 et 2002, les indices obligataires ont un historique
moins profond que les indices actions.
4.2.2. Le Cash
Cette classe d’actifs sera matérialisée en pratique par un compte de dépôt très liquide mais avec
un rendement nul. Il s’agit d’une poche utilisée pour recevoir des fonds qui transitent vers une
classe d’actif A à une classe d’actif B. La volatilité associée à cette classe d’actifs sera nulle.
4.2.3. Le Monétaire
Cette classe d’actifs regroupe les instruments monétaires et est caractérisée par les contrats de
dépôts à terme, les certificats de dépôts, les SICAV monétaires et investissements dans des ETF
trackant les indices monétaires tel que l’Euribor 3Mois ou l’EONIA. L’indice benchmark utilisé
pour modéliser cette classe d’actifs sera l’EONIA qui est l’indice monétaire de référence
européen. Les hypothèses de rendements et volatilités utilisés pour cette classe d’actif au vu des
hypothèses macroéconomiques seront de 0,5% pour le rendement moyen annualisé et de 1%
pour la volatilité annualisée. Pour les autres moments tels que la Skewness, Kurtosis et pour
l’autocorrélation d’ordre 1 nous utiliserons l’historique de l’EONIA.
Les caractéristiques et l’évolution historique de l’EONIA de 1999 à 2009 sont regroupées ci-
dessous :
121
Source : Bloomberg
4.2.4. Les Obligations Gouvernementales de maturité courte
Les obligations Gouvernementales de maturité courte (Govies Court Terme) sont caractérisées
par les émissions d’obligations émises par les Etats. Dans nos hypothèses nous prendrons
comme Benchmark un indice obligataire Européen, l’EUROMTS 3 – 5 Ans qui rassemble
l’ensemble des Obligations d’Etat de la Zone Euro. Les caractéristiques et l’évolution historique
de cet indice de sa création en 2003 à 2009 sont regroupées ci-dessous :
Source : Bloomberg
122
4.2.5. Les Obligations Gouvernementales de maturité longue
Les obligations Gouvernementales de maturité longue (Govies Long Terme) sont caractérisées
par les émissions d’obligations émises par les Etats. Dans nos hypothèses nous prendrons
comme Benchmark un indice obligataire Européen, l’EUROMTS 10 – 15 Ans qui rassemble
l’ensemble des Obligations d’Etat de la Zone Euro. Les caractéristiques et l’évolution historique
de cet indice de sa création en 2003 à 2009 sont regroupées ci-dessous :
Source : Bloomberg
4.2.6. Les Obligations d’Entreprise de maturité courte
Les obligations d’Entreprise de maturité courte (Corporate Court Terme) sont caractérisées par
les émissions d’obligations émises par les Entreprises Privées. Ces dernières peuvent par
ailleurs avoir la garantie de l’Etat mais elles représentent une infime partie du stock obligataire
corporate. Dans nos hypothèses nous prendrons comme Benchmark un indice obligataire
Corporate, l’Iboxx 1 – 3 Ans qui rassemble l’ensemble des Obligations Corporate de la Zone
Euro. Les caractéristiques et l’évolution historique de cet indice depuis sa création en 1998 à
2009 sont regroupées ci-dessous :
Source : Bloomberg
123
4.2.7. Les Obligations d’Entreprise de maturité longue
Les obligations d’Entreprise de maturité longue (Corporate Long Terme) sont caractérisées par
les émissions d’obligations émises par les Entreprises Privées. Ces dernières peuvent par
ailleurs avoir la garantie de l’Etat mais elles représentent une infime partie du stock obligataire
corporate. Dans nos hypothèses nous prendrons comme Benchmark un indice obligataire
Corporate, l’IBoxx 5 – 7 Ans qui rassemble l’ensemble des Obligations Corporate de la Zone
Euro. On notera qu’en raison des contraintes de liquidité, les maturités des obligations
d’Entreprises sont généralement inférieures à celles des Etats.
Les caractéristiques et l’évolution historique de cet indice de sa création en 1998 à 2009 sont
regroupées ci-dessous :
Source : Bloomberg
4.2.8. Les Actions Européennes
Au vu du profil des salariés de la société ayant soumis l’Appel d’Offre, nous prendrons comme
benchmark des actions Européenne l’indice phare de la bourse de Paris à savoir le CAC40 pour
lequel nous avons un historique de plus de 20 ans.
Les caractéristiques et l’évolution historique de cet indice de sa création en 1987 à 2009 sont
regroupées ci-dessous :
124
Source : Bloomberg
4.2.9. Les Actions Internationales
Afin d’intégrer le niveau d’aversion au risque de la population du soumissionnaire, nous
prendrons comme indice Benchmark des actions internationales l’indice MSCI Emerging
Markets dans la mesure où les investissements dans les pays émergents sont autorisés
Source : Bloomberg
125
4.3. Hypothèses de taux de rendement monétaire
Pour construire notre jeu de scénarios nous avons besoin, en plus des historiques d’actifs, des
hypothèses de croissance, d’inflation et de politique monétaire.
4.3.1. Hypothèses de croissance réelle
L’hypothèse de croissance servira à construire le scénario central de projection du taux long.
Nous nous basons sur le scénario central défini par les économistes de BNP Paribas Cardif en
accord avec les économistes du Groupe BNP Paribas. Ces derniers tablaient à la fin 2009 sur
une tendance de long terme de 1,0% pour la France.
4.3.2. Hypothèses d’inflation et de croissance nominale
L’hypothèse d’inflation servira à construire le scénario central de projection du taux long mais
aussi à calculer les taux de revalorisation des pieds de rentes. Nous nous basons sur le scénario
central défini par les économistes de BNP Paribas Cardif en accord avec les économistes du
Groupe BNP Paribas. Ces derniers tablaient à la fin 2009 sur une tendance de long terme de
0,65% pour la France. La croissance nominale définie comme étant égale à somme de la
croissance réelle et de l’inflation était donc projetée sur une tendance de long terme de 1,65%.
Concernant la volatilité, la Skewness et l’Excess Kurtosis de l’Inflation nous nous basons sur
les calculs effectués à partir des observations de l’INSEE :
4.3.3. Hypothèses de politique monétaire
Les économistes de Cardif et du Groupe BNP Paribas construisent à partir des publications de
la Banque Centrale Européenne un scénario central de politique monétaire : En effet si les taux
évoluent en fonction de l’offre et de la demande présentes sur le marché, le taux court EONIA
fait figure d’exception puisqu’il est déterminé par la politique de la Banque Centrale
Européenne qui fixe le niveau des taux directeurs européens. Les économistes du Groupe BNP
Paribas avaient tablé à la fin 2009 sur des projections des taux directeurs autour de 1%.
Taux d’inflation en 2009
en %
Année Taux d'infation Moments
2009 0,1 0,10% Volatilité 0,75%
2008 2,8 2,80% Skewness 0,3688
2007 1,5 1,50% Excess Kurtosis 0,6669
2006 1,7 1,70%
2005 1,7 1,70%
2004 2,1 2,10%
2003 2,1 2,10%
2002 1,9 1,90%
2001 1,6 1,60%
2000 1,7 1,70%
1999 0,5 0,50%
1998 0,6 0,60%
1997 1,2 1,20%
1996 2,0 2,00%
1995 1,8 1,80%
1994 1,6 1,60%
1993 2,1 2,10%
1992 2,4 2,40%
1991 3,2 3,20%
Note : variation annuelle.
Champ : France, ensemble des ménages.
Sources : Insee, indices des prix à la consommation.
126
4.4. Définition des hypothèses de rendement des actifs
4.4.1. Position du problème
Pour projeter les scénarios de rendement des actifs, il faut indiquer au Générateur de Scénarios A.L.A.M.O. les hypothèses de projection de rendement de long terme des différents actifs.
Pour calibrer les volatilités, skewness, excess kurtosis, corrélations, et autocorrélations, des différentes classes d’actifs, nous utiliserons les observations historiques.
Il existe trois principales méthodes de projection des rendements des actifs. Deux sont utilisées dans le cadre de l’approche « risque réel » et une dans l’approche « risque neutre ».
Les deux méthodes utilisées en risque réel qui est objet de cette partie sont :
- La méthode historique consistant à projeter les rendements des actifs dans le futur en fonction des rendements observés par le passé.
- La méthode des primes de risques que nous détailleront plus loin.
4.4.2. Limites de l’approche historique
Dans ce paragraphe nous allons démontrer les limites de l’approche historique au travers de l’exemple du CAC40 entre la date de sa création en décembre 1987 et la date de la dernière valeur connue à savoir juin 2017 soit un horizon d’observation de près de 30 ans.
Nous utiliserons la première partie de l’historique allant de décembre 1987 à Décembre 1997 pour calibrer la tendance de projection à appliquer. Sur cette période le CAC40 évolue de 1,000 points en Décembre 1987 à 2,999 points 10 ans plus tard en Décembre 1997.
Si on note :
- CAC31-12-1987 : La valeur du CAC40 au 31/12/1987 - CAC31-12-1997 : La valeur du CAC40 au 31/12/1997
Le rendement moyen historique mensualisé du CAC40 sur cette période (noté Rh) et qui sera utilisé pour la projection sera égal à :
140
40120/1
19871231
19971231 −
=
−−
−−
CAC
CACRh
On obtient ainsi un rendement moyen mensualisé du CAC40 sur les 10 années d’observatio égal à Rh = 0,9194%.
A partir du 1er Janvier 1998, nous projetons la valorisation du CAC40 de mois en mois par récurrence. Si on note CAC40M la valeur du CAC40 au mois M, la valorisation calculée du CAC40 au mois M+1 sera égale à :
CAC40M+1 = CAC40M *(1+Rh)
Le graphique ci-dessous permet de backtester la projection du CAC40 par la méthode historique entre le 31/12/1997 et le 31/05/2017 avec l’évolution réellement observée sur cette même période.
127
Le graphique ci-dessus permet de mesurer l’erreur colossale consistant à projeter dans un futur
éloigné un indice sur la base des rendements observés par le passé. Aussi lorsque l’on compare
le niveau du CAC40 projeté avec cette méthode depuis 1997 jusqu’en 2017 avec le niveau
observé en Juin 2017, on constate un écart allant du simple au quintuple ! Le niveau projeté par
la méthode « historique » indique un niveau de CAC40 à 25,299 au 1er Juin 2017 points alors
que le niveau observé à cette même date et pour le même indice s’élève à … 5,231 points.
Si on ramène cet écart en points à un écart de rendement annualisé entre le 31 Décembre 1997
et le 1er Juin 2017, on a :
AnCAC
CACR
toriqueMethodeHis
toriqueMethodeHis
toriqueMethodeHis /%66,11140
40 25,365
2017/12/312017/06/01
1987/12/31
2017/06/01+=−
=
−
−
−
AnCAC
CACR
Observe
Observe
Observé /%00,3140
40 25,365
2017/12/312017/06/01
1987/12/31
2017/06/01 +=−
=
−
−
−
On constate que même en comparant les performances annualisées entre la méthode projetée
par l’approche historique et l’observation on obtient un écart très significatif.
128
L’explication relative à cet écart réside dans le fait que les mouvements boursiers sur le long
terme suivent une logique macroéconomique. Lorsque dans les années 1980 on avait des
perspectives de croissance réelles de 5% et d’inflation à deux chiffres l’évolution des marchés
actions et obligataires ne pouvaient suivre la même tendance qu’avec des perspectives de
croissance réelles à 1% et d’inflation à 1% également.
L’exemple du Japon est encore plus frappant avec un indice NIKKEI 225 représentatif des
actions japonaises qui a atteint près de 40,000 points en 1989 (croissance nominale annuelle à
5% entre 1980 et 1990) pour ne se situer aujourd’hui qu’à 20,000 points (croissance nominale
annuelle de -1% correspondant à une Déflation entre 1990 et 2017).
Les observations ci-dessus nous amènent à la conclusion que l’approche de projection des
rendements futurs par le biais des rendements passés n’est pas satisfaisante. Nous allons étudier
une autre approche qui présente aussi des imperfections mais qui présente l’avantage de mieux
« coller » à la réalité du terrain.
4.4.3. Présentation de l’approche par Primes de Risques
a) Description littéraire de la méthodologie
L’approche par les primes de risques consiste à projeter les actifs risqués selon une tendance
dont l’intensité est proportionnelle aux risques portés par ces derniers. Ici encore le choix
d’investir sur une classe d’actifs plutôt qu’une autre va dépendre d’une part du risque de marché
porté par la classe d’actif et mesuré en grande partie par la volatilité et d’autre part le retour sur
investissement qu’attend en retour l’investisseur faisant le pari d’investir sur une telle classe
d’actifs. L’approche utilisée basée sur les Primes de Risques part de l’hypothèse fondamentale
qu’il n’y a pas de « Free Lunch » c’est-à-dire qu’on peut difficilement investir dans un actif B
plus rentable qu’un Actif A sans prendre un risque supplémentaire.
b) Formalisation mathématique
L’approche qui a été utilisée pour déterminer le rendement des principales classes d’actifs
consiste à partir du postulat que les Ratio de Sharpe des principales classes d’actifs doivent être
égaux : Autrement dit que le couple formé par la quantité Rendement – Rendement sans Risque
et par la volatilité doit évoluer de la même manière.
Si on note :
1510−EuroMTSr : Le rendement annualisé des Obligations Françaises de maturité longue
1510−EuroMTS : La volatilité annualisée des Obligations Françaises de maturité longue
Monétairer : Le rendement du taux monétaire assimilé au taux « sans risque »
ActifAr : Le rendement de l’Actif A que l’on cherche
ActifA : La volatilité annualisée de l’Actif A calculée à partir de l’historique.
129
Les ratios de Sharpes (notés SR) respectifs de l’Actif A et de l’EuroMTS 10 – 15 ans se
calculent comme suit :
1510
1510
1510
−
−
−
−=
EuroMTS
MonétaireEuroMTS
EuroMTSSR
ActifA
MonétaireActifA
ActifASR
−=
En égalisant les Ratios de Sharpe, on en déduit le rendement théorique moyen de long terme de
l’Actif A :
ActifAEuroMTS SRSR =−1510 1510
1510
−
− −
EuroMTS
MonétaireEuroMTS
ActifA
MonétaireActifA
−=
1510
1510
−
− −+=
EuroMTS
MonétaireEuroMTSActifAMonétaireActifA
c) Application de la méthode au cas du CAC40
L’objectif de ce paragraphe est de backtester la projection du CAC40 avec la méthode des
primes de risques.
Pour 2010 par exemple, les projections du Groupe BNP font état des éléments suivants :
- Taux directeur BCE projeté : 2,25 %
- PIB réel projeté : 0,25 %
- Inflation : 1,75 %
A partir de ces informations, on obtient la projection du taux long de la zone euro égal au PIB
réel projeté incrémenté de l’inflation projeté soit 0,25 % + 1,75 % = 2,00 %
A partir des volatilités historiques du CAC40 et des Obligations d’Etat Européennes de long
terme respectivement égales à 25,52% et 5,32%, on en déduit la performance projetée du
CAC40 pour 2010 :
%05,1%32,5
%25,2%00,2%52,25%25,2201040 =
−+=→CAC
L’exemple ci-dessus peut être reproduit pour chaque année de 1998 (1ère année de projection
pour le backtesting) à 2017 soit une période de près de 20 ans.
Avec cette méthode nous aurons pu remonter avant 1998 mais nous préférons commencer notre
backtesting à partir de 1998 aussi afin de pouvoir la comparer avec l’approche historique sur
une période commune.
130
Le tableau ci-dessous présente les hypothèses utilisées ainsi que le détail des calculs des
performances du CAC40 projetées.
A partir de ces rendements projetés, nous pouvons retropoler les valorisations du CAC40 du 1er
Janvier 1998 au 1er Juin 2017.
Le graphique ci-dessous permet de situer la projection du CAC40 avec la méthode des Primes
de Risques de 1998 à 2017 comparativement avec l’approche historique et les observations
réellement constatées sur le terrain sur la même période.
Volatilité EuroMTS10-15 (Taux Longs Souverains Euro) 5,32% Source : Historique Bloomberg → Taux Longs Souverains Euro
Volatilité CAC40 25,52% Source : Historique Bloomberg
Projections BNP Paribas Calculs par l'approche des Primes de Risques
Infation PIB Réel
Taux
Directeurs
BCE
Rendement
Monétaire
Rendement
EuroMTS10-15
Rendement CAC40
avec la méthode des
Primes de Risque
1998 0,25% 3,00% 3,00% 3,00% 3,25% 4,20%
1999 0,50% 2,50% 3,75% 3,75% 3,00% 0,15%
2000 0,75% 3,00% 3,25% 3,25% 3,75% 5,65%
2001 1,50% 4,00% 2,75% 2,75% 5,50% 15,94%
2002 1,75% 2,00% 2,50% 2,50% 3,75% 8,50%
2003 1,25% 1,00% 2,00% 2,00% 2,25% 3,20%
2004 1,50% 1,00% 2,00% 2,00% 2,50% 4,40%
2005 1,50% 2,00% 2,50% 2,50% 3,50% 7,30%
2006 1,50% 1,50% 3,00% 3,00% 3,00% 3,00%
2007 1,50% 2,50% 3,75% 3,75% 4,00% 4,95%
2008 1,75% 1,50% 3,50% 3,50% 3,25% 2,30%
2009 1,00% 1,25% 2,75% 2,75% 2,25% 0,35%
2010 1,75% 0,25% 2,25% 2,25% 2,00% 1,05%
2011 1,50% 1,00% 1,75% 1,75% 2,50% 5,35%
2012 1,25% 1,25% 1,25% 1,25% 2,50% 7,25%
2013 1,00% 1,00% 1,00% 1,00% 2,00% 5,80%
2014 0,50% 0,50% 1,00% 1,00% 1,00% 1,00%
2015 0,25% 0,75% 1,00% 1,00% 1,00% 1,00%
2016 -0,50% 1,50% 0,00% 0,00% 1,00% 4,80%
2017 -0,50% 1,00% 0,00% 0,00% 0,50% 2,40%
Année
131
Ce graphique montre que au regard des observations de l’évolution du CAC40, l’approche par
primes de risques apparaît bien plus réaliste que l’approche historique.
Le tableau ci-dessous regroupe synthétise les résultats :
Comme on peut le constater l’approche par primes de risque produit de bien meilleurs résultats
que l’approche historique et nous amènera à rejeter cette dernière.
Sur le court terme, l’approche par primes de risques présente des lacunes comme par exemple
l’incapacité à prévoir les crises conjoncturelles comme on a pu l’observer en 2001 et 2008.
Néanmoins dans le cas de cet Appel d’Offres il s’agit de construire une allocation stratégique
de long terme qui optimise le rendement dans le cadre du scénario central tout en limitant les
pertes dans le cas des scénarios adverses. Or si l’approche par Prime de Risques ne peut
construire un scénario central prédictif des crises, les scénarios qui seront générés par
A.L.A.M.O. (à partir de cette tendance centrale et des autres moments) pourront simuler le
déclenchement de crises conjoncturelles et même structurelles. C’est cette « nappe » de
scénarios qui nous permettra de construire un quantile regroupant les scénarios de crises
susceptibles d’obliger l’entreprise à remettre des fonds supplémentaires pour couvrir les
engagements.
0
0
5 000
10 000
15 000
20 000
25 000dé
c.-8
7
nov.
-88
oct.
-89
sept
.-90
ao
ût-
91
juil.
-92
juin
-93
mai
-94
avr.
-95
mar
s-96
févr
.-97
janv
.-98
déc.
-98
nov.
-99
oct.
-00
sept
.-01
ao
ût-
02
juil.
-03
juin
-04
mai
-05
avr.
-06
mar
s-07
févr
.-08
janv
.-09
déc.
-09
nov.
-10
oct.
-11
sept
.-12
ao
ût-
13
juil.
-14
juin
-15
mai
-16
avr.
-17
VA
LOR
ISA
TIO
N D
E L'
IND
ICE
DATES
Comparaion des valorisations du CAC40 projetées avec les méthodes historiques et par Primes de Risques
CAC40 - Observé
CAC40 - Projection Approche Historique
CAC40 - Projection Approche Primes de Risques
Période d'étalonnage
Etude des méthodes de projection du CAC40 déc-98 juin-17 Performance annualisée
Trajectoire réelle 2 999,00 5 321,10 3,00%
Projection - Approche Historique 2 999,00 25 531,75 11,66%
Projection - Approche par Primes de Risques 2 999,00 6 971,97 4,44%
132
4.4.4. Calcul des rendements moyens d’évolution des actifs
Le tableau ci-dessous regroupe les résultats des calculs des rendements moyens projetés à partir
des projections macroéconomiques, et des volatilités historiques selon la méthode des primes
de risques.
4.4.5. Construction du tableau des moments de projection
Une fois les rendements moyens de projection des différentes classes d’actifs calculés, il faut
définir les tendances de projection des moments d’ordre 2 (Volatilité), 3 (Skewness) et 4
(Excess Kurtosis) ainsi que les corrélations et autocorrélations. Ces indicateurs se calculent
directement à partir de l’historique.
Les tableaux ci-dessous synthétisent les moments qui seront calibrés dans A.L.A.M.O.
Indicateurs économiques et monétaires (*)
Croissance Réelle 1,00%
Inflation 0,65%
Taux Directeurs 1,00%
Classe d'Actifs Indice de référence Volatilité (**) Redement (***)
Monétaire EONIA 1,27% 1,00%
Govies Court Terme EuroMTS 3-5 ans 2,73% 1,33%
Govies Long Terme EuroMTS 10 - 15 ans 5,32% 1,64%
Corporate Court Terme Iboxx 1 - 3 ans 2,67% 1,32%
Corporate Long Terme Iboxx 5 - 7 ans 7,31% 1,88%
Actions Européennes CAC 40 25,52% 4,07%
Actions Internationales MSCI Emerging Markets 36,81% 5,43%
(*) Déterminé à partir des hypothèses des chefs économistes de Cardif et BNP paribas(**) Calculé à partir de l'historique(***) Calculé à partir de la méthode des primes de risques
Rendement Volati l i té Skewness Excess Kurtos isAuto
corrélation
Monétaire 1,00% 1,27% -0,52 0,88 0,53
Govies Court Terme 1,33% 2,73% 0,25 0,29 -0,21
Govies Long Terme 1,64% 5,32% 0,98 0,27 -0,22
Corporate Court Terme 1,32% 2,67% 1,48 2,60 -0,08
Corporate Long Terme 1,88% 7,31% 0,43 0,59 -0,26
Actions Européennes 4,07% 25,52% -0,24 -0,18 -0,01
Actions Internationales 5,43% 36,81% 0,33 -0,28 -0,29
Inflation 0,65% 0,75% 0,37 0,67 0,19
MonétaireGovies Court
Terme
Govies Long
Terme
Corporate
Court Terme
Corporate
Long Terme
Actions
Européennes
Actions
Internat.Inflation
Monétaire 1,00 -0,53 -0,52 -0,49 -0,45 -0,13 -0,42 0,60
Govies Court Terme -0,53 1,00 0,71 0,26 -0,06 -0,73 -0,56 -0,40
Govies Long Terme -0,52 0,71 1,00 0,05 0,10 -0,30 -0,39 -0,50
Corporate Court Terme -0,49 0,26 0,05 1,00 0,88 -0,07 0,24 -0,38
Corporate Long Terme -0,45 -0,06 0,10 0,88 1,00 0,17 0,40 -0,35
Actions Européennes -0,13 -0,73 -0,30 -0,07 0,17 1,00 0,62 0,40
Actions Internationales -0,42 -0,56 -0,39 0,24 0,40 0,62 1,00 0,50
Inflation 0,60 -0,40 -0,50 -0,38 -0,35 0,40 0,50 1,00
133
4.5. Génération des scénarios stochastiques avec l’ESG A.L.A.M.O.
4.5.1. Génération des Scénarios
A partir des hypothèses ci-dessus nous allons générer avec l’outil A.L.A.M.O. 1,000 scénarios
d’évolution sur 30 ans en pas annuels des classes d’actifs décrites ci-dessus. Les distributions
des différents actifs générés sont représentées dans l’annexe mais les graphiques ci-dessous
représentent les enveloppes d’évolution des scénarios.
134
135
136
4.5.2. Audit des Moments
a) Etude statistique des moments des rendements générés par l’EGS A.L.A.M.O.
Les moments calculés sur les scénarios générés sont rassemblés dans les tableaux ci-dessous.
En comparant les tableaux ci-dessus résultant des calculs sur les scénarios générés par
A.L.A.M.O. on constate qu’ils sont très voisins dans l’ensemble des tableaux entrés en input
du générateur.
Rendement Volati l i té Skewness Excess Kurtos isAuto
corrélation
Monétaire 1,00% 1,27% 0,14 0,10 0,50
Govies Court Terme 1,33% 2,73% 0,00 -0,09 0,18
Govies Long Terme 1,64% 5,32% -0,01 -0,07 0,10
Corporate Court Terme 1,32% 2,67% 1,25 4,25 0,01
Corporate Long Terme 1,88% 7,31% 0,42 1,04 -0,03
Actions Européennes 4,07% 25,52% -0,01 -0,11 -0,05
Actions Internationales 5,44% 36,78% 0,00 -0,28 -0,36
Inflation 0,65% 0,75% 0,33 1,12 0,25
MonétaireGovies Court
Terme
Govies Long
Terme
Corporate
Court Terme
Corporate
Long Terme
Actions
Européennes
Actions
Internat.Inflation
Monétaire 1,00 -0,34 -0,41 -0,34 -0,28 -0,11 -0,22 -0,01
Govies Court Terme -0,34 1,00 0,68 0,19 -0,05 -0,68 -0,46 0,01
Govies Long Terme -0,41 0,68 1,00 0,02 0,08 -0,30 -0,30 0,01
Corporate Court Terme -0,34 0,19 0,02 1,00 0,84 -0,04 0,15 0,00
Corporate Long Terme -0,28 -0,05 0,08 0,84 1,00 0,19 0,29 0,00
Actions Européennes -0,11 -0,68 -0,30 -0,04 0,19 1,00 0,69 0,00
Actions Internationales -0,22 -0,46 -0,30 0,15 0,29 0,69 1,00 0,01
Inflation 0,60 -0,41 -0,48 -0,37 -0,33 0,37 0,41 1,00
137
b) Cas particulier du monétaire :
En les comparant avec les moments de l’historique en particulier pour les volatilités, skewness,
kurtosis, autocorrélations et corrélations représentés dans les tableaux du paragraphes 4.2.7.1,
on constate que les moments générés sont en moyenne proches de l’historique à une exception
près : La Skewness et Kurtosis des rendements monétaires. L’analyse de l’historique montre la
présence d’une asymétrie négative avec une Skewness négative et une queue de distribution
épaisse. Cela est lié au fait qu’au cours de l’historique nous avons assisté à une chute violente
des taux monétaires passés de +5% à 0%. En partant de 0 % et pour avoir les mêmes
caractéristiques de queue de distribution que l’historique il faudrait un nombre non négligeable
de scénarios pour lesquels l’EONIA passerait de 0% à … - 5% ce qui est inenvisageable étant
donné la difficulté d’avoir des taux très fortement négatifs. Néanmoins bien qu’en moyenne il
soit donc impossible de répliquer la Skewness et l’Excess Kurtosis à cause de la contrainte de
positivité des taux nominaux le Générateur A.L.A.M.O. est suffisamment souple pour générer
des scénarios avec de fortes asymétries négatives comme l’historique. Voici par exemple le
scénario 33 avec une Skewness de -0,96 (-0,52 pour l’historique) et un Excess Kurtosis de 1,39
(0,88 pour l’historique)
c) Cas des actions européennes
L’analyse de l’historique indique que les actions européennes ont la particularité d’avoir un
spectre de corrélations avec les autres actifs le plus large allant de -0,73 (corrélation négative
avec les Obligations d’Etat Européennes de Maturité Courte) à 0,62 (corrélation fortement
positive avec les Actions Internationales). Cela a un sens sur le plan macroéconomique dans la
mesure où :
- Actions et Obligations évoluent généralement de manière opposée depuis que l’inflation a
cessé d’être une menace pour les économies développées. De ce fait lorsque les nouvelles
économiques sont mauvaises ainsi que les résultats d’entreprises, les Actions Européennes
tendent à baisser tandis que dans un mouvement de « Flight to Quality » les Obligations
Européennes (en particulier les maturités courtes) tendent à monter car les investisseurs
vont rechercher la sécurité au détriment du risque.
- Actions Européennes et Actions Internationales évoluent dans le même sens dans la mesure
où l’on évolue dans une économie mondialisée et interconnectée. Une crise touchant les
pays émergents finit par se transmettre au monde développé par des canaux tels que les
Importations ou les Matières premières. De la même manière une crise touchant les pays
développés tels que les Etats Unis finit par se transmettre aux autres pays par le biais du
Marché des Changes : La Fed baisse ses taux directeurs suite à des mauvais chiffres
répétitifs aux Etats Unis ce qui entraine une baisse du Dollar face aux autres devises et en
corolaire provoque une baisse de la compétitivité des entreprises étrangères et in fine une
baisse de leur valorisation boursière.
138
Le graphique ci-dessous compare la corrélation des actions européennes avec les autres actifs
dans le cas de l’historique et dans le cas des scénarios générés par A.L.A.M.O.
Comme on peut le constater le générateur A.L.A.M.O. arrive à reproduire toutes les
configurations de corrélations possibles.
Comparons à présent la distribution des rendements Actions Européennes relativement aux
Obligations Européennes de maturité courte dans le cas de l’historique et dans le cas des
scénarios A.L.A.M.O.
139
Comme le montrent les graphiques ci-dessus (les points bleus représentent l’historique) le
coefficient de régression liant Actions Européennes et Obligations d’Etat Européennes de
maturité courtes dans le cadre des scénarios stochastiques générés par A.L.A.M.O. est très
proche (de l’ordre de -6,60) de l’historique. Les ordonnées à l’origine diffèrent sensiblement
mais ceci est normale dans la mesure où les trend implémentés dans les scénarios divergent de
ceux de l’historique.
Comparons à présent la distribution des rendements Actions Européennes relativement aux
Actions Internationales dans le cas de l’historique et dans le cas des scénarios A.L.A.M.O.
140
Comme le montrent les graphiques ci-dessus, le coefficient de régression entre actions
internationales et actions européennes, dans le cadre des scénarios A.L.A.M.O. est très proche
de celui de l’historique (0,36). Graphiquement on observe que les rendements de l’historique
sont inclus dans l’univers des rendements générés par les scénarios. Les ordonnées à l’origine
diffèrent cependant entre les scénarios et l’historique ce qui n’est pas surprenant dans la mesure
où les trends implémentés dans les scénarios via la méthode des Primes de Risques divergent
des trends historiques.
141
4.6. Construction de l’allocation d’actifs optimale
4.6.1. Détermination des facteurs de risques
Afin de déterminer l’allocation d’actifs qui répond au mieux au besoin du client nous utiliserons
un outil développé par mes soins destiné à construire par « buckets » l’allocation optimale.
Nous ne nous attarderons pas sur les modèles mathématiques ayant permis la construction de
cet outil qui n’est pas l’objet du mémoire. Les critères qui seront utilisés pour construire
l’allocation sont :
- Le niveau global d’aversion au risque de l’entreprise : il est modélisé par un
coefficient allant de 0 (très fort appétit au risque) à 5 (très forte aversion au
risque)
- Le poids relatif de la tolérance au risque de défaut : Ce dernier est modélisé par
la probabilité que l’actif revalorisé par les rendements stochastiques n’arrive pas
à couvrir les flux de Passif.
- Le poids relatif de la tolérance au risque de marché : Ce dernier est modélisé par
l’écart entre la moyenne arithmétique et la moyenne géométrique vue plus haut
soit 0,5 * σ² / 2
- Le poids relatif de la tolérance au risque de concentration : Ce dernier est
modélisé par la racine carrée de l’écart quadratique entre l’allocation testée et
l’allocation assurant une diversité maximale.
4.6.2. Allocation retenue
A partir des éléments ci-dessus et des scénarios nous construisons l’allocation optimale à partir
d’un outil d’Allocation Multicritères qui ne fait l’objet du Mémoire. Nous ne décrirons donc
pas le processus. L’allocation retenue est schématisée dans le graphique ci-dessous :
Le prochain paragraphe décrira de manière plus détaillé le comportement de cette allocation
dans plusieurs configurations.
142
4.7. Analyse du comportement de l’Allocation retenue
4.7.1. Problématique
L’objet de cette partie consiste à étudier de manière détaillée le comportement de l’allocation
d’actifs retenue précédemment dans différentes configurations de marché à l’aide des scénarios
générés par A.L.A.M.O.
On étudiera ainsi l’évolution de l’actif net (actif brut décrémenté des flux de passif) dans le
scénario médian mais aussi dans des scénarios alternatifs. L’objectif sera aussi d’identifier les
cas concrets dans lesquels l’entreprise devra investir des fonds supplémentaires pour couvrir
les engagements envers ses salariés retraités.
4.7.2. Analyse du scénario Médian
Le scénario médian est le scénario dont la tendance centrale des actifs est voisine des espérances
de rendements calculés plus haut.
On observe que dans le scénario Médian, l’allocation retenue permet d’honorer les engagements
de l’entreprise et de dégager un excédent permettant de distribuer aux adhérents une
participation aux bénéfices qui est calculée de manière numérique par optimisations successives
visant à annuler l’actif net. Le graphique ci-dessous permet de visualiser la participation aux
bénéfices attribuée aux adhérents (85% des produits financiers) de l’entreprise
comparativement au taux minimum garanti et à la marge financière dégagée pour l’Assureur
(15% des Produits Financiers).
Actif Allocation Perf Moyenne Performance Médiane
Cash 0,65% 0,00% 0,00%
Instruments Monétaires 12,35% 1,00% 0,90%
Obligations Govies Court Terme 13,00% 1,33% 1,24%
Obligations Govies Long Terme 13,00% 1,64% 1,56%
Obligations Corporates Court Terme 13,00% 1,32% 1,24%
Obligations Corporates Long Terme 13,00% 1,88% 1,75%
Actions Européennes 28,00% 4,07% 4,01%
Actions Internationales 7,00% 5,44% 5,36%
PORTEFEUILLE 100,00% 2,45% 2,36%
143
4.7.3. Distribution des scénarios d’actif net
Si la projection de l’actif net dans le cadre du scénario médian est intéressante, l’utilisation du
générateur de scénarios stochastiques A.L.A.M.O. revêt son importance dans la projection de
la distribution des Actifs Nets à horizon 2040 comme schématisée dans le graphique ci-dessous.
Au travers du graphique ci-dessus, on peut observer :
144
- La position du scénario médian dans la distribution
- Le poids des scénarios pour lesquels l’entreprise ne peut honorer ses engagements
sans rajouter des capitaux supplémentaires.
Il s’agit maintenant de comprendre et d’analyser les scénarios qui posent problème afin de
mieux comprendre les situations financières et macroéconomiques pouvant être à l’origine des
scénarios d’insolvabilité.
4.7.4. Relation Solvabilité / Performance des Actions
En notant :
- rEuropéennes : Performance des Actions Européennes
- ΩEuropéennes : Poids des Actions Européennes
- rInternationales : Performance des Actions Internationales
- ΩInternationales : Poids des Actions Internationales
La performance de la poche actions dans le portefeuille notée rActions se calcule comme suit :
nalesInternationalesInternatiosEuropéennesEuropéenneActionsrrr += ..
Une fois la série des performances de la poche actions générées nous effectuerons plusieurs
régressions linéaires, et exponentielles au moyen de la Méthode des Moindres Carrés Ordinaires
afin de construire une relation liant l’Actif Net avec la performance des Actions.
Cette série aboutie à la formule suivante :
( )( ) 89180000.36192.2,1%6.18,17
+−=+Actionsr
eActifNet
Le graphique ci-dessous permet de représenter la relation liant les valorisations de l’Actif Net
axe des ordonnées) générées par A.L.A.M.O. avec la performance des actions (axe des
abscisses) la formule construite ci-dessus.
145
Les résultats du test statistiques ci-dessous indiquant une P-VAL proche de 0 et un R² voisin
de 0,6 montrent la pertinence de la régression établie précédemment.
Ces calculs démontrent in finé la forte corrélation (de type exponentielle) entre la valeur de
l’actif net et la performance des actions. La grande majorité des scénarios qui aboutissent à une
insolvabilité de l’entreprise nécessitant pour elle de rajouter des fonds supplémentaires est en
grande partie due à une performance action négative.
Le graphique ci-dessous schématise le comportement de la Provision Mathématique et de
l’Actif Net sur un exemple de scénario défavorable aux actions.
RAPPORT DÉTAILLÉ
Statistiques de la régression
Coefficient de détermination multiple 0,763292468
Coefficient de détermination R^2 0,582615391
Erreur-type 33975,57907
Observations 1000
ANALYSE DE VARIANCE
Degré de liberté Somme des carrés Moyenne des carrés F
Régression 1 1,60809E+12 1,60809E+12 1393,080023
Résidus 998 1,15203E+12 1154339973
Total 999 2,76012E+12
Coefficients Erreur-type Statistique t Probabilité
Constante 1,23691E-10 1399,659746 8,83724E-14 1
Variable X 1 1 0,026792422 37,32398724 1,4687E-191
146
En restreignant l’étude sur les 249 scénarios pour lesquels l’entreprise doit remettre des fonds
on observe que la performance moyenne des actions sur ces scénarios est voisine de -1,5% par
an contre +4,40% pour l’ensemble des scénarios.
En conclusion, sur les 249 scénarios nécessitant une obligation de l’entreprise de réalimenter le
Fonds de retraite de ses salariés, 230 présentent des performances actions négatives. Seuls 19
scénarios « insolvables » enregistrent quand même des performances positives sur la durée de
la simulation.
4.7.5. Relation Solvabilité / Performances obligataires
Sur une simulation de 30 ans, un investissement dans un actif obligataire assure la positivité du
rendement sur une telle période sauf dans deux cas :
- Défaut de la contrepartie
- Obligation de vendre des positions pour payer des flux.
Dans notre Appel d’Offres nous avons des flux conséquents à payer en début de simulation. De
ce fait une performance fortement négative sur l’obligataire en début de simulation engendrera
des pertes qui seront difficiles à effacer avant de devoir clôturer les positions en vue d’honorer
les prestations à verser aux adhérents.
Nous observons une quinzaine de scénarios faisant état de « turbulences » au niveau des taux
en début de période affectant la poche obligataire de manière sensible au moment de devoir
clôturer les positions pour honorer les flux. Le graphique ci-dessous illustre un exemple de
147
scénario faisant état d’une forte hausse des spreads de taux d’intérêts corporate les 4 premières
années (se traduisant par une baisse de la valorisation des obligations d’entreprises).
On observe que sur le moyen / long terme, contrairement à un scénario de baisse d’un indice
action qui peut ne pas retrouver son niveau de départ, l’indice obligataire retrouve toujours son
niveau de départ en l’absence de défauts sur la dette.
Néanmoins, dès lors que nous sommes en présence d’engagements à honorer matérialisés par
des flux à décaisser, les performances des actifs ne sont plus commutatives : c’est
particulièrement le cas lorsque l’essentiel des flux à payer arrivent rapidement comme c’est le
cas ici. Il en résulte que la solvabilité du fonds est beaucoup plus sensible aux performances
ayant lieu dans un futur proche que celles ayant lieu dans un futur éloigné. Toujours si on se
réfère au graphique ci-dessus, lorsque à l’année 24, l’indice Iboxx 5-7Y se retrouve à des
niveaux deux fois plus élevé qu’à l’année 0, cela n’a aucun impact sur l’Actif Net dans la
mesure où ce dernier est passé en territoire négatif bien avant la remontée des performances
boursière. L’essentiel des flux ayant été payé, l’actif net était devenu trop faible pour pouvoir
reprendre une croissance dynamique en mesure d’honorer les flux restant à honorer. Ce type de
configuration concerne 16 scénarios sur les 1000 générés.
Il faudrait pour redresser la situation que l’entreprise remettent des fonds vers l’année 10 pour
créer une marge de sécurité afin d’empêcher l’actif net de passer en territoire négatif d’une part
et de profiter du rebond des actifs obligataires d’autre part.
148
4.7.6. Relation Solvabilité / Variations de l’Inflation
Il existe enfin quelques scénarios (3 sur 1000) qui conduisent à une insolvabilité du fonds alors
que les actifs dans lesquels il est investi suivent des évolutions favorables. Cela est lié au
comportement de l’inflation qui connaît un « emballement » dans ces scénarios générant ainsi
une dérive importante des revalorisations.
En analysant de plus près un de ces scénarios, on peut observer comment le choc inflationniste
provoque un emballement des engagements de l’entreprise vis-à-vis de ses salariés aboutissant
ainsi à l’effondrement de l’actif net.
Le graphique ci-dessous représente l’évolution de l’inflation du scénario de choc inflationniste
N°792 relativement au scénario central de projection :
Les conséquences de ce choc d’inflation sont loin d’être négligeables sur les flux des prestations
(garanties inclues) que doit verser l’entreprise à ses salariés. La partie rouge de l’histogramme
mesure l’impact du choc inflationniste sur la chronique de flux.
149
Afin de mieux évaluer l’impact de ce choc inflationniste, nous allons rejouer le scénario N°792
en remplaçant les taux d’inflation générés par l’inflation moyenne projetée de 0,65% par an. Le
graphique ci-dessous compare l’évolution de l’actif net en présence et en l’absence de choc
d’inflation.
Comme le montrent les résultats du graphique ci-dessus, en l’absence de choc inflationniste,
l’Actif net revalorisé des performances des actifs générées par le scénario 792 est en mesure
d’honorer les flux de prestations majorés de l’inflation « centrale » de 0,65% / an. Mais en
présence d’un choc inflationniste se traduisant par une très forte revalorisation des flux de
prestations en particulier autour de la 10ème année de projection, l’actif net s’érode rapidement
sur cette période et passe en territoire négatif à l’année N+10.
150
4.8. Bilan général du comportement du Fonds sur les scénarios
L’allocation retenue pour répondre à la problématique de gestion d’un Fonds de Rentes fermé
émis par l’Entreprise « E » permet d’honorer les flux de Passif dans 75% des cas. Dans le
scénario moyen, l’Actif Net qui vaut au départ 100,000 € termine à +22,424 € en fin de
simulation à l’année N+30 après avoir réglé tous les flux. Si on applique les règles de
distribution de la Participation aux Bénéfices, on observe que dans le scénario moyen, le Fonds
pourra payer toutes rentes en assurant une revalorisation moyenne annuelle de 2% (0,65% au
titre du Taux Minimum Garanti indexé sur l’inflation et 1,35% au titre de la Participation aux
Bénéfices).
Néanmoins, la grande force d’A.L.A.M.O. réside en la capacité du Générateur de Scénarios
Stochastique à simuler des trajectoires extrêmes mais ayant un sens macroéconomique. De ce
fait à partir des nappes de trajectoires obtenues, nous pouvons analyser les causes pour
expliquer pourquoi le Fonds fait défaut dans 25% des cas. De ce fait sur les 249 scénarios
aboutissant à un défaut, on distingue :
- 230 scénarios dont le défaut est essentiellement liés à de mauvaises performances sur
les actions européennes et internationales.
- 16 scénarios dont le défaut est essentiellement liés à des tensions sur les spreads de
crédit qui surviennent dans les premières années
- 3 scénarios dont le défaut est essentiellement liés à un choc inflationniste qui provoque
une réévaluation brutale des engagements provoquant de fait des sorties accrues de
l’actif net qui finit par passer en territoire négatif.
Cette capacité d’A.L.A.M.O. consistant à aller au-delà de l’optimisation de l’allocation en
cartographiant et en probabilisant les scénarios adverses générateurs de défaut, jouera un rôle
décisif dans la victoire de BNP Paribas Cardif à l’Appel d’Offres.
151
Conclusion
Ce mémoire qui a eu pour objet de répondre dans le détail à des problématiques de gestion de
fonds de rentes fermé nous a amené à développer un Générateur de Scénarios Stochastiques qui
devait répondre à un certain nombre de critères.
Trois grands défis développés au travers de ce mémoire se sont posés à nous :
- Le premier résida dans le développement de l’outil en lui-même et des contraintes
« Risque Historique » qu’il doit satisfaire en particulier le respect des moments d’ordre
1 (Drift), d’ordre 2 (Volatilité), d’ordre 3 (Coefficient d’asymétrie ou Skewness),
d’ordre 4 (Excess Kurtosis), des corrélations historiques entre actifs et de
l’autocorrélation historique d’ordre 1. Ce travail a nécessité de définir les limites du
sujet et de déterminer un périmètre précis des contraintes que devra satisfaire l’ESG.
Ce challenge fut l’occasion de manipuler différents modèles mathématiques et
financiers (Processus de Wiener, Processus de Cholesky, Vecteurs Autorégressifs,
Equations de Yuke Walker, Lois Multi normales, Processus à sauts, Copules, Modèle
de GARCH & AMIGARCH) et de tester la pertinence de leur imbrication : en effet
deux modèles peuvent parfaitement être les mieux adaptés pour répondre à des
contraintes précises mais leur imbrication peut s’avérer parfaitement inefficace.
- Le second défi est lié au benchmarking de l’outil qui a été une étape obligée afin de
pouvoir utiliser le Générateur de Scénarios A.L.A.M.O. sur des sujets impliquant la
diffusion d’études à destination de clients extérieurs dans le cas de réponses à des
Appels d'Offres. L’analyse détaillée des scénarios produits par A.L.A.M.O. fera aussi
apparaitre de nombreuses limites de l’outil : modélisation des distributions à très forte
Excess Kurtosis, modélisation de séries très fortement auto-corrélées, gestion du
régime transitoire. Ces limites rendent l’outil difficilement utilisable sur certains pas
de projection (pas quotidien par exemple). Si l’outil nous a été d’une grande aide pour
répondre à des problématiques de gestion Actif / Passif sur des fonds de rentes fermés,
il serait illusoire de l’utiliser sur d’autres sujets comme par exemple le calcul de ratio
de solvabilité qui nécessite d’avoir des scénarios Market Consistant ou encore le calcul
d’une VaR de Monte-Carlo sur un Book de Trading qui nécessite d’avoir des scénarios
compatibles avec des pas de projection de l’ordre de la journée ou de l’heure. Par
ailleurs Le benchmarking avec d’autres ESG de la place fera ressortir A.L.A.M.O.
comme étant le meilleur ESG en Risque Historique du Groupe BNP Paribas le plaçant
à égalité avec l’ESG développé par Barrie – Hibbert : A.L.A.M.O. présente toutefois
l’avantage du coût moindre mais aussi de la transparence puisque le code est
entièrement aux mains de BNP Paribas Cardif.
- Le dernier défi est lié au paramétrage de l’outil : En effet comme l’ont montré les
études développées dans ce mémoire, la calibration du Drift et de la Volatilité n’est
pas verrouillée sur l’historique mais reste à la main de l’utilisateur. Or en fonction de
la typologie d’étude la calibration de ces moments d’ordre 1 et 2 peut varier
sensiblement : Dans le cadre de la construction d’une Allocation d’Actifs Stratégique
de type Fonds de rentes fermé, la volatilité des actifs doit être en rapport avec celle des
152
historiques tandis que les rendements doivent être en phase avec les projections
macroéconomiques de long terme pondérées par les volatilités suivant une approche
de type « Prime de Risque ». L’application numérique portant sur la gestion d’un
Fonds de rentes fermé au moyen des scénarios A.L.A.M.O. nous a permis d’identifier
les situations dans lesquels le Fonds ne peut honorer ses engagements et d’en quantifier
les probabilités de survenance. Cette approche de gestion via des scénarios
économiques permet aussi de faire le lien entre des contraintes ALM inhérentes au
Fonds et des contraintes macroéconomiques pouvant impacter aussi bien l’actif
(variation des actions et des obligations) que le passif (inflation, déflation).
Ce travail autour de la Gestion des Fonds de rentes fermés par le biais des Générateurs de
Scénarios Stochastiques ne s’arrêtera pas à la publication et à la soutenance de ce mémoire car
ce sujet sera amené à évoluer dans les prochaines années en intégrant de nouveaux risques
(risque souverain européen comme le Brexit, limite des taux nominaux négatifs, …) et de
nouvelles opportunités (en particulier le Big Data qui induira la prise en compte de corrélations
exotiques pour mieux pricer le risque).
153
Bibliographie
[1] - A closed-form solution for options with stochastic volatility with application to bond and
currency options, 1993 - Steve HESTON
[2] - A jump-diffusion model for option pricing - Steven KOU
[3] - ARCH Models : properties, estimation and testing, Basil Blackwell, 1993 - Annil BERRA
& Matthew HIGGINS
[4] - Bayesian Econometric Methods, Cambridge University Press, 2007 - Gary KOOP
[5] - Cours de séries temporelles : Théorie et applications, Université Paris Dauphine, 2003 -
Arthur CHARPENTIER
[6] - Econométrie pour la finance, Modèles ARCH-GARCH, Université d’Orléans, Octobre
2004 - Christophe HURLIN
[7] - Économie financière quantitative: actions, obligations et taux de change - Keith
CUTHBERSTON
[8] - Eléments d’analyse multivariée - Gilbert SAPORTA
[9] - Évaluation «Best estimate » de contrats d’épargne en euros - Emmanuel OHNOUNA
[10] - Finance de marché: Instruments de base, produits dérivés, portefeuilles et risques - 4ème
éd. Broché, 27 août 2014 - Patrice PONCET & Roland PORTRAIT
[11] - Gestion Actif Passif en Assurance Vie - Alain TOSETTI & Patrice PALSKY
[12] - Independant Component Analysis by Minimization of Mutual Information - Aapo
HYVÄRINEN
[13] - Introduction au calcul stochastique appliqué à la finance - Bernard LAPEYRE & Damien
LAMBERTON
[14] - Méthode d’évaluation et de comptabilisation des passifs sociaux en norme IFRS/IAS 19
- Richard DEVILLE
[15] - Modélisation asymétrique de titres financiers, Université Laval, Juin 2008 - Walid JBILI
[16] - Options, futures et autres actifs dérivés, 6ème édition - John HULL
[17] - Phénomènes financiers et mélange de lois : Une nouvelle méthode d’estimation des
paramètres. MPRA, Octobre 2011 - Constantin CHILARESCU
[18] - Problèmes d’économétrie en macroéconomie et en finance : mesures de causalité,
asymétrie de la volatilité et risque financier, Université de Montréal, Juin 2007 - Abderrahim
TAAMOUTI
[19] - Régimes de retraites par capitalisation - Laurent FAUCILLON
[20] - Réglementation des Entreprises et Droit du Contrat d'Assurance - Pierre ALLEGRET
[21] - Risques Economiques et réglementation de l'assurance - Daniel ZAJDENWEBER
[22] - Sélection de modèles avec l’AIC et critères d’information dérivés, Novembre 2005 -
Renaud LANCELOT & Matthieu LESNOFF
[23] - The Black Swan - Nassim Nicholas TALEB
[24] - The instability of the correlation structure of the SP 500, October 2011 - Thomas
BAUMÖHL
[25] - Théorie et pratique de l'assurance vie - 4e éd. - Pierre PETAUTON
[26] - Valorisation des Actifs Financiers avec mesure de richesse agrégée - Pierre GILBERT
[27] - La place du générateur de scénarios économiques dans les calculs de solvabilité en
assurance-vie – Mémoire d’Actuariat 02 Mai 2016 – Jean-Marc HECART
154
Annexes
Annexe I – Table présentant les relations entre les paramètres α, β, γ et H avec l’Excess Kurtosis
155
Annexe II – Table reliant Skewness, Excess Kurtosis et le paramètre q
156
Annexe III – Table de passage des ωi aux coefficients d’autocorrélation
ρ0,
000,
050,
100,
150,
200,
250,
300,
350,
400,
450,
500,
550,
600,
650,
700,
750,
800,
850,
900,
951,
00
ω20
0%0%
0%0%
0%0%
0%0%
0%0%
0%0%
0%0%
0%0%
0%1%
1%3%
5%
ω19
0%0%
0%0%
0%0%
0%0%
0%0%
0%0%
0%0%
0%0%
0%1%
1%3%
5%
ω18
0%0%
0%0%
0%0%
0%0%
0%0%
0%0%
0%0%
0%0%
0%1%
2%3%
5%
ω17
0%0%
0%0%
0%0%
0%0%
0%0%
0%0%
0%0%
0%0%
0%1%
2%3%
5%
ω16
0%0%
0%0%
0%0%
0%0%
0%0%
0%0%
0%0%
0%0%
0%2%
3%4%
5%
ω15
0%0%
0%0%
0%0%
0%0%
0%0%
0%0%
0%0%
0%0%
0%2%
3%4%
5%
ω14
0%0%
0%0%
0%0%
0%0%
0%0%
0%0%
0%0%
0%0%
0%2%
4%5%
5%
ω13
0%0%
0%0%
0%0%
0%0%
0%0%
0%0%
0%0%
0%0%
0%2%
4%5%
5%
ω12
0%0%
0%0%
0%0%
0%0%
0%0%
0%0%
0%0%
0%0%
0%3%
5%5%
5%
ω11
0%0%
0%0%
0%0%
0%0%
0%0%
0%0%
0%0%
0%0%
0%3%
5%5%
5%
ω10
0%0%
0%0%
0%0%
0%0%
0%0%
0%0%
0%0%
0%0%
1%3%
5%5%
5%
ω9
0%0%
0%0%
0%0%
0%0%
0%0%
0%0%
0%0%
0%0%
2%4%
5%5%
5%
ω8
0%0%
0%0%
0%0%
0%0%
0%0%
0%0%
0%0%
0%0%
4%5%
6%5%
5%
ω7
0%0%
0%0%
0%0%
0%0%
0%0%
0%0%
0%0%
0%1%
5%6%
6%5%
5%
ω6
0%0%
0%0%
0%0%
0%0%
0%0%
0%1%
1%2%
3%4%
7%7%
7%6%
5%
ω5
0%0%
0%0%
0%0%
0%0%
1%2%
3%3%
4%6%
9%11
%12
%10
%7%
6%5%
ω4
0%0%
0%1%
1%1%
1%2%
3%4%
5%7%
10%
12%
14%
16%
15%
12%
8%7%
5%
ω3
0%0%
2%3%
4%5%
5%7%
8%11
%13
%16
%19
%21
%22
%20
%16
%12
%8%
7%5%
ω2
0%5%
10%
15%
18%
21%
24%
27%
29%
29%
29%
28%
27%
25%
23%
21%
18%
14%
8%7%
5%
ω1
100%
94%
88%
81%
77%
73%
69%
63%
59%
54%
50%
45%
40%
35%
30%
26%
20%
15%
9%8%
5%
Σωi
100%
100%
100%
100%
100%
100%
100%
100%
100%
100%
100%
100%
100%
100%
100%
100%
100%
100%
100%
100%
100%
157
Annexe IV – Présentation sommaire d’autres ESG alternatifs à A.L.A.M.O.
1°) Introduction
Après avoir analysé dans le détail (aussi bien graphiquement que statistiquement) les sorties de
l’ESG A.L.A.M.O. et en avoir identifié les limites, nous allons comparer cet outil avec d’autres
ESG qui ont pu être développés par d’autres équipes. Nous décrivons dans un premier temps
les différents générateurs développés au sein du Groupe BNP Paribas (MLG 2+, KARMA, Val
Risk) puis nous présenterons les modèles proposés par deux prestataires externes (BARRIE &
HIBBERT, ALGHRIM).
2°) MLG 2+
a) Introduction
Le modèle MLG2+ est un générateur de scénarios économiques risque-neutre / monde-réel
développé par l’équipe ALM de BNP Paribas. Ce générateur est essentiellement utilisé pour la
production de tables market consistent pour le calcul de la MCEV de BNP Paribas Cardif.
b) Actifs Modélisés
Les éléments modélisés dans MLG2+ sont : les taux d’intérêt nominaux et réels, un indice
actions, un indice immobilier, un indice inflation et un indice OPCVM obligataire. A noter que
ce générateur n’intègre pas de modélisation du risque de crédit.
Par ailleurs, il est impossible à ce stade de projeter simultanément différentes devises et
d’ajouter des indices supplémentaires (actions, immobilier, indices sectoriels d’inflation).
Néanmoins, des travaux de développement pourraient permettre d’effectuer ces tâches en
fonction des expressions de besoins de BNPPA.
c) Modèles mathématiques sous-jacents
Le tableau ci-dessous recense les modèles mathématiques relatifs aux différents éléments
projetés :
Environnement Risque-neutre / monde-réel
Variables
modélisées
Taux nominaux et réels, inflation, actions, immobilier, indices
d’OPCVM
Elément Modèle
Indice Actions
Brownien géométrique avec prise en compte d’un dividende
constant. L’utilisateur peut choisir de modéliser une volatilité
constante ou une volatilité déterministe par termes
Taux nominaux et
réels
Modèle de Hull-White généralisé à 2 facteurs (niveau et pente) ou
modèle CIR à 2 facteurs (pour les taux nominaux)
Inflation Modèle de Jarrow-Yildirim intégrant un bruit spécifique
Immobilier Brownien géométrique
158
d) Calibrage
Le processus de calibrage des taux d’intérêt s’appuie sur un outil interne utilisé par la salle des
marchés. L’utilisateur a la possibilité de modifier les hypothèses de courbe des taux initiale et
de volatilité. Il a également la possibilité d’inclure des anticipations sur les taux courts et les
taux longs. En environnement risque-neutre, le calage s’effectue prioritairement sur les
swaptions et dans un second temps sur les caps. L’outil interne fournit également un rapport de
calibrage permettant de documenter le processus d’estimation. Pour les autres actifs modélisés,
le processus de calibrage n’apparaît pas totalement défini et n’est à ce stade pas documenté.
e) Tests
Pour valider les tables risque-neutre, MLG2+ effectue des tests martingales et de valorisations
de produits dérivés. Ces tests ne sont automatisés (avec obtention d’un rapport d’exécution) que
pour les taux d’intérêt.
f) Documentation & Contrôle
Le générateur de scénarios économiques est développé en langage C. Notons que le code du
générateur ne fait pas appel à des librairies extérieures et reste ainsi parfaitement auditable. En
revanche, BNPPA ne peut accéder au code ni en lecture seule, ni en écriture, et ne dispose que
d’une interface permettant de générer les scénarios. Les modèles sont néanmoins documentés
par le biais de notes techniques. Ces documents présentent les modèles utilisés ainsi que leur
mise en œuvre.
3°) KARMA
a) Introduction
Le modèle KARMA a été développé par l’équipe « RCM – Capital » de BNP Paribas.
L’objectif de ce générateur « monde-réel » est de calculer le capital économique au titre du
risque de participation equity du Groupe BNP Paribas.
b) Actifs Modélisés
Le générateur effectue des projections sur une période d’une année. Les drivers modélisés sont
les différents indices actions et immobiliers afférents au risque de participation equity du
Groupe BNP Paribas. L’utilisateur a le choix entre trois modes de simulation différents et peut
projeter tous les drivers souhaités si les historiques associés sont suffisamment longs. Tous les
titres de participation equity du Groupe BNP Paribas sont ainsi simulés en standard par le
modèle (environ 400 actifs). KARMA permet également de projeter les taux de change des
devises associées aux différents titres (environ 30 devises). Le générateur ne simule pas les taux
d’intérêt ni l’inflation.
Environnement Monde-réel
Variables modélisées Actions, immobilier et taux de change
159
c) Modèles mathématiques sous-jacents
Trois modèles peuvent être utilisés pour les projections en fonction du choix de l’utilisateur.
Ces modèles s’appuient respectivement sur une fonction de répartition historique log-normale,
normale ou non-normale qui sont interpolées par noyaux gaussiens sur les données historiques.
d) Calibration
Les fonctions de répartition « actions » sont obtenues par calibrage sur données historiques. La
fenêtre de calibrage, d’horizon 7 ans et demi, intègre jusqu’à présent les données des crises
financières de 2000 et 2008. Cette fenêtre évolue tous les trois mois. Si une crise plus
significative que celle de 2008 est observée, les nouvelles données viennent remplacer les
anciennes données de crise, dans le cas contraire elles viennent simplement s’ajouter à la
fenêtre. Ainsi par construction, parmi les données de la fenêtre de calibration, seule une crise
est incorporée. Les fonctions de répartition « immobilier » sont calibrées de manière similaire,
sur une fenêtre historique de 6 ans.
Les volatilités des drivers peuvent être calibrées de deux manières :
- Par une approche historique directe sur l’intégralité de la fenêtre de calibration,
- Par une approche percentile lorsque l'utilisateur souhaite ajuster les projections sur un
quantile.
Les corrélations entre drivers sont obtenues à l’aide de copules gaussiennes.
e) Tests
Le modèle fonctionnant uniquement en univers « monde-réel », aucun test de Market
Consistency n’est effectué. Le modèle ne semble pas fournir de tests statistiques automatisés
lors de la génération des scénarios économiques.
4°) VALRISK
a) Introduction
L’outil ValRisk est un générateur de scénarios économiques risque-neutre / monde-réel
développé par l’équipe MCoRA (Market and Counterparty Risk Analytics) de BNP Paribas. Ce
générateur est essentiellement utilisé pour le calcul et la modélisation du risque de contrepartie
pour les opérations de marché traitées par BNP Paribas. L’outil permet ainsi de traiter cette
problématique d’un point de vue portefeuille (agrégation et diversification des risques) aussi
bien qu’en ligne à ligne.
b) Actifs Modélisés
Les éléments modélisés dans ValRisk sont : les taux d’intérêt nominaux, les actions (et aussi
plus globalement les indices actions), les spreads de crédit, les taux de change et les matières
premières. Ce générateur s’attache à modéliser tous les produits dérivés ou opérations de
marché que le Groupe BNP Paribas traite et qui comporte du risque de contrepartie.
Environnement Risque-neutre / monde-réel
Variables modélisées Taux nominaux, actions, crédit spreads, taux de change, commodity
160
MCoRA a pour mission le développement des modèles de calcul d’exposition pour l’ensemble
du portefeuille de produits dérivés, en équivalent crédit, et ce en tenant compte des effets de
compensation et de collatéralisation.
Une activité de modélisation est assurée par cette équipe dont la mission est de concevoir et de
mettre en place les modèles mathématiques permettant de simuler l’évolution des facteurs de
risques (spreads de crédit, taux d’intérêt, changes, matières premières, etc...) intervenant dans
le calcul du risque de contrepartie et de développer des pricers.
c) Modèles mathématiques sous-jacents
Le tableau ci-dessous recense les modèles mathématiques relatifs aux différents éléments
projetés :
Modèles mathématiques utilisés dans ValRisk
d) Calibrage
Le processus de calibrage des différents modèles s’appuie sur une base de données assez riche.
L’utilisateur n’a pas la main sur le processus de calibrage mais celui-ci est revu fréquemment.
En effet, l’équipe revoit son calibrage de manière trimestrielle à chaque date d’arrêté et se base
sur un historique assez long et riche de manière à ce que le calibrage soit robuste et consistant.
e) Documentation & Contrôle
Le générateur de scénarios économiques est développé en langage C avec une interface web.
En revanche, l’utilisateur ne peut accéder au code ni en lecture seule, ni en écriture, et ne dispose
que d’une interface permettant de générer les scénarios. L’outil a été implémenté avec une
approche « client ».
Les modèles sont néanmoins documentés par le biais de notes techniques et tous les choix de
modélisation ont été certifiés par la commission bancaire.
Elément Modèle
Indice Actions / Actions Brownien géométrique avec prise en compte d’un dividende
constant.
Taux nominaux Modèle de HJM à 3 facteurs
Commodity Modèle HJM à 2 facteurs
Credit spreads Modèle à transition de rating avec un modèle exponentiel-
Vasicek pour les crédits spreads (par bucket de ratings)
Taux de change Modèle de German Kohlhagen
161
5°) BARRIE & HIBBERT (Moody’s)
a) Introduction
Barrie & Hibbert est le leader du marché des prestataires externes en matière de GSE. Cette
firme propose ses services à environ 80% des membres du CFO forum (Aviva, Axa, Allianz...)
Deux types de prestations sont possibles :
- Achat de tables de scénarios économiques (monde-réel et risque-neutre),
- Achat d’un générateur (fonctionnant en monde-réel et en risque-neutre) accompagné de 4 calibrations par an.
b) Actifs Modélisés
Différents éléments financiers sont modélisés : taux d’intérêt nominaux et réels, indices actions,
immobilier, inflation, spreads de crédit, probabilités de défaut, indices OPCVM, taux de
change, …
Ces grandeurs peuvent être générées en univers monde-réel et risque-neutre simultanément
pour différentes économies sur un pas annuel et infra-annuel.
c) Modèles mathématiques sous-jacents
Le tableau ci-dessous recense les modèles implémentés pour les différents drivers du GSE :
Environnement Monde-réel / risque-neutre
Variables modélisées Tous types de variables (taux, actions, spreads de crédit, inflation, immobilier, …)
Type de solution Prestataire externe
Variables Modèle
Indice « actions »
Brownien géométrique avec volatilité par termes
Modèles alternatifs disponibles : modèles à volatilité locale et modèle SVJD (Stochastic Volatility Jump Diffusion) à volatilité stochastique
Taux nominal
Modèle étendu de Black-Karasinski à 2 facteurs
Modèle alternatif disponible : LMM (Libor Market Model)
Taux réel Modèle Vasicek à 2 facteurs
Inflation Différence entre le taux réel et le taux nominal
Risque de crédit Modèle de type Jarrow Landow et Turnbull avec dynamisation d’une matrice de transition par le biais d’un modèle CIR
Immobilier Brownien géométrique
Modèles mathématiques implémentés dans l’ESG Barrie-Hibbert
162
Remarque :
- Le modèle offre également la possibilité de générer des indices d’OPCVM obligataires,
Private Equity, Hedge Funds. Il est également possible de simuler des variables macro-
économiques comme le PIB, le taux de chômage ou un indice de progression des
salaires.
- Pour certains facteurs de risque, le générateur permet d’utiliser des modèles alternatifs
à ceux proposés en standard afin d’ajuster plus finement la modélisation avec les prix
de marché et/ou les historiques observés. Pour les taux d’intérêt par exemple,
l’utilisateur peut choisir d’utiliser un modèle LMM (Libor Market Model) lui permettant
de générer avec une plus grande précision la surface de volatilité des swaptions. Pour
les actions, deux modèles additionnels sont proposés, le premier intégrant une volatilité
locale afin de modéliser la surface de volatilité des options, le second intégrant une
volatilité stochastique reposant sur un processus à saut.
d) Calibration
Il est possible de calibrer les modèles en univers risque-neutre et en univers monde-réel à partir
de la méthode des moindres carrés. Barrie & Hibbert propose trimestriellement des calibrages
standards couvrant 17 économies en univers risque-neutre et 28 économies en environnement
monde-réel. Ces calibrages font l’objet d’un rapport de calibration détaillé. L’utilisateur a
également la possibilité de définir ses propres paramètres de taux, de volatilités, de corrélations,
de primes de risque, …
e) Tests
Le générateur permet de tester automatiquement les tables simulées en univers monde-réel et
risque-neutre.
f) Documentation & Contrôle
Le générateur est développé en C++. Le code source n’est pas disponible en lecture mais les
modèles mathématiques et les méthodes implémentées sont documentés. Ajoutons que des
équipes de recherche de Barrie-Hibbert dédiées à la modélisation mathématique et
économétrique publient régulièrement leurs travaux en ligne.
Toutes les procédures d’archivage des inputs et outputs peuvent être définies par l’utilisateur.
Il existe également un fichier d’audit contenant les adresses de stockages, l’ensemble des
paramètres
163
6°) AHLGRIM
a) Introduction
Le modèle de Ahlgrim et al. est un modèle « monde-réel » qui a été développé en juillet 2004
par une équipe de chercheurs mandatée par la Casualty Actuarial Society et la Society of
Actuaries. Cette étude a répondu à deux objectifs :
- Construction d’un ESG complet adapté aux problématiques des compagnies
d’assurance,
- Détermination de jeux de données pertinents pour le calibrage des modèles du GSE.
Les chercheurs ayant développé cet ESG sont : K. Ahlgrim (ASA, MAAA, Ph.D), S. P. D’Arcy
(FCAS, MAAA, Ph.D) et R. W. Gorvett (FCAS, MAAA, ARM, Ph.D). Les travaux de Ahlgrim
et al. se sont très fortement inspirés du modèle de Wilkie (1995) dans lequel l’indice inflation
constitue l’élément central du GSE, ce driver intervenant ensuite dans la modélisation des autres
actifs.
b) Actifs Modélisés
Le générateur permet de simuler les éléments suivants : les taux d’intérêt nominaux et réels,
différents indices actions, le taux d’inflation, des indices immobilier ainsi que le taux de
chômage de l’économie considérée.
c) Modèles mathématiques sous-jacents
Le tableau ci-dessous recense les modèles implémentés pour les différents drivers du GSE :
Environnement Monde-réel
Variables modélisées
Taux nominaux et réels, inflation, actions, immobilier et taux de chômage
Type de solution Solution externe
Variables Modèle
Inflation Modèle de Vasicek à un facteur
Taux réel Modèle de Vasicek à deux facteurs. Deux drivers sont modélisés : les taux long terme et les taux court terme
Taux nominal Utilisation des structures par terme du taux d'inflation et du taux réel
Indice actions Modèle à changements de régimes de volatilité
Dividende actions Modèle de Vasicek à un facteur sur le log-dividende
Immobilier Modèles de Vasicek à un facteur
Modèles mathématiques implémentés dans l’ESG de Ahlgrim et al
164
Dans l’ESG de Ahlgrim et al., les mouvements browniens des différentes diffusions ne sont pas
corrélés mais l'inflation est incluse dans la plupart des diffusions considérées ce qui crée
mécaniquement une corrélation entre les drivers.
Deux types d’indices sont considérés pour la modélisation des actions (« small stock » ou
« large stock »). Dans les deux cas, les log-rendements sont simulés par le biais d'un modèle à
changements de régimes de volatilité. Deux situations économiques sont envisagées, un régime
central et un régime stressé. Des probabilités de transition entre les deux régimes sont calibrées.
Notons que cette modélisation s’inspire du modèle de Hardy (2001) et permet d’intégrer un
risque de volatilité stochastique (deux états sont possibles).
L’ESG peut potentiellement générer des taux nominaux négatifs. Pour éviter cela, il est possible
de borner inférieurement les taux réels ou simultanément les taux réels et le taux d'inflation.
Notons enfin que les chercheurs se sont appliqués à réaliser un modèle adapté à l’économie
américaine. En outre, ce modèle ne permet pas de simuler simultanément différentes
économies.
d) Calibration
Les sources utilisées pour la calibration des modèles sont en majeure partie publiques. Pour le
modèle inflation, les paramètres sont calibrés sur les données historiques du CPI (fréquence
mensuelle) diffusées par le Bureau of Labor Statistics. Plusieurs fenêtres de données ont été
testées dans cette étude et les résultats qui en découlent sont très différents. Les paramètres ont
été déterminés sur la fenêtre 1946-2001. Les historiques de taux réels ne présentent que très peu
de données, la calibration repose sur des historiques recréés par différence entre les taux
nominaux et le taux d'inflation. Les données historiques sont basées sur les taux CMT à 3 mois
pour le taux court et sur les taux CMT à 10 ans pour le taux long. La fenêtre temporelle du jeu
de données correspond à l'intervalle 1982-2001. Le calibrage des indices « actions » est réalisé
sur des historiques des rendements « large stocks » (site de Robert Schiller, fenêtre 1871-2002)
et des rendements « small stocks » (données de Ibbotson, fenêtre 1926-1999). Le modèle
immobilier est calibré sur les rendements immobiliers trimestriels fournis par la NCREIF. Le
GSE permet d’effectuer des calibrages infra-annuels. Notons que même si l’applicatif ne génère
pas de rapport de calibration exhaustif, différents graphes (probabilités de transition pour les
modèles « actions », intervalles de confiance, …) sont proposés.
e) Tests
Le modèle de Ahlgrim est un modèle « monde-réel », à ce titre aucun test de Market
Consistency n’est réalisé. Les analyses de quantiles empiriques effectuées sur la plupart des
drivers permettent de valider les scénarios générés.
f) Documentation & Contrôle
Un rapport détaillé « Modeling of Economic Scenarios » a été produit par Ahlgrim, d'Arcy et
Gorvett. Il contient un état des lieux des différents modèles financiers (actions, taux, inflation,
…), une formalisation détaillée des modèles utilisés dans le générateur, ainsi qu’une analyse
des résultats obtenus avec l’ESG. Signalons que l’applicatif a été développé sous le logiciel
@Risk et peut être téléchargé librement. Les codes sont accessibles en lecture et en écriture et
peuvent donc être adaptés en fonction des contraintes de l’utilisateur.