197
MASTER MASS 2 Univ. Nice Sophia Antipolis Calcul Stochastique Discret Avec Applications aux math´ ematiques financi` eres P. Del Moral Laboratoire J. A. Dieudonn´ e, Math´ ematiques Unit´ e mixte de Recherche C.N.R.S. No. 6621 Universit´ e de Nice Sophia-Antipolis Parc Valrose, 06 108 Nice, France

MASTER MASS 2 Univ. Nice Sophia Antipolis

Embed Size (px)

Citation preview

Page 1: MASTER MASS 2 Univ. Nice Sophia Antipolis

MASTER MASS 2Univ. Nice Sophia Antipolis

Calcul Stochastique Discret

Avec Applications aux mathematiques financieres

P. Del Moral

Laboratoire J. A. Dieudonne, Mathematiques

Unite mixte de Recherche C.N.R.S. No. 6621

Universite de Nice Sophia-Antipolis

Parc Valrose, 06 108 Nice,

France

Page 2: MASTER MASS 2 Univ. Nice Sophia Antipolis
Page 3: MASTER MASS 2 Univ. Nice Sophia Antipolis

Table des matieres

1 Theorie des probabilites elementaire 51.1 Promenades aleatoires . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5

1.1.1 Experiences aleatoires . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 51.1.2 Paysages uniformes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 81.1.3 Petit traite de lois . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11

1.2 Variables aleatoires . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 161.2.1 Definitions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 161.2.2 Adaptation et mesurabilite . . . . . . . . . . . . . . . . . . . . . . . . . . 171.2.3 Lois et esperances . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 211.2.4 L’independance . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 25

1.3 Le conditionnement . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 281.3.1 Evenements . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 281.3.2 Decompositions et sous algebres . . . . . . . . . . . . . . . . . . . . . . . 311.3.3 Variables aleatoires . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 34

2 Processus aleatoires discrets 392.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 392.2 Arbres et chaınes de Markov . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 40

2.2.1 Feuillages de Bernoulli . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 402.2.2 Feuillages chaotiques . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 422.2.3 Feuillages markoviens . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 43

2.3 Processus aleatoires . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 462.3.1 Marches aleatoires . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 462.3.2 Evenements cylindriques . . . . . . . . . . . . . . . . . . . . . . . . . . . . 492.3.3 Filtrations de partitions . . . . . . . . . . . . . . . . . . . . . . . . . . . . 522.3.4 Filtrations d’algebres . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 53

2.4 Decompositions canoniques . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 542.4.1 Information et filtrations . . . . . . . . . . . . . . . . . . . . . . . . . . . 542.4.2 Adaptation et previsibilite . . . . . . . . . . . . . . . . . . . . . . . . . . . 562.4.3 Integration par parties discrete . . . . . . . . . . . . . . . . . . . . . . . . 582.4.4 Decomposition de Doob . . . . . . . . . . . . . . . . . . . . . . . . . . . . 59

2.5 Exercices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 60

3 Elements de la theorie des martingales 673.1 Definitions et proprietes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 67

3.1.1 Caracterisations . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 673.1.2 Compensateurs . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 693.1.3 Proprietes fondamentales . . . . . . . . . . . . . . . . . . . . . . . . . . . 723.1.4 Martingales exponentielles . . . . . . . . . . . . . . . . . . . . . . . . . . . 733.1.5 Lemme de Girsanov . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 753.1.6 Exercices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 76

3.2 Controle de martingales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 813.2.1 La notion de temps d’arret . . . . . . . . . . . . . . . . . . . . . . . . . . 81

1

Page 4: MASTER MASS 2 Univ. Nice Sophia Antipolis

2 TABLE DES MATIERES

3.2.2 Jeux stochastiques . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 833.2.3 Strategies de jeux equitables . . . . . . . . . . . . . . . . . . . . . . . . . 843.2.4 Jeux a conditions terminales fixees . . . . . . . . . . . . . . . . . . . . . . 873.2.5 Probleme d’arret de Snell . . . . . . . . . . . . . . . . . . . . . . . . . . . 913.2.6 Exercices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 96

4 Mathematiques financieres 994.1 Petit dictionnaire financier . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 99

4.1.1 Activite des marches . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 994.1.2 Gestion de portefeuilles . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1024.1.3 Options europeennes financieres . . . . . . . . . . . . . . . . . . . . . . . . 1034.1.4 Exercices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 104

4.2 Modele binomial sur une periode . . . . . . . . . . . . . . . . . . . . . . . . . . . 1064.2.1 Point de vue des essences . . . . . . . . . . . . . . . . . . . . . . . . . . . 1074.2.2 Prix d’options . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1094.2.3 Point de vue de phenomenes . . . . . . . . . . . . . . . . . . . . . . . . . 1124.2.4 Exercices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 115

4.3 Modele a deux etats sur deux periodes . . . . . . . . . . . . . . . . . . . . . . . . 1184.3.1 L’arbre binomial . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1184.3.2 Gestion de portefeuilles . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1204.3.3 Neutralisation des risques . . . . . . . . . . . . . . . . . . . . . . . . . . . 1214.3.4 Couverture d’options . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1224.3.5 Exercices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 125

4.4 Modele de Cox-Ross-Rubinstein . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1264.4.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1264.4.2 Techniques d’arbitrage . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1274.4.3 Neutralisation des risques . . . . . . . . . . . . . . . . . . . . . . . . . . . 1274.4.4 Couverture d’options . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1294.4.5 Prix d’options . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1304.4.6 Exercices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 131

4.5 Analyse mathematique . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1334.5.1 Actualisation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1334.5.2 Gestion de portefeuilles . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1344.5.3 Arbitrage et viabilite des marches . . . . . . . . . . . . . . . . . . . . . . 1354.5.4 Neutralite des marches . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1374.5.5 Replication d’options et completude . . . . . . . . . . . . . . . . . . . . . 1394.5.6 Couverture d’options . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 141

5 Corriges 1435.1 Chapitre 1 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1435.2 Chapitre 2 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 171

Page 5: MASTER MASS 2 Univ. Nice Sophia Antipolis

TABLE DES MATIERES 3

Avant-propos

L’ebullition des marches financiers, les volumes des transactions, les valeurs des actionsechangees chaque jour, chaque heure, ou chaque minute dans les places boursieresinternationales, sont ils previsibles et regis par des dynamiques deterministes ? Peut on anticiperles variations des taux d’interets de placements financiers ? Ces evolutions sont elles dictees paressence, par des regles deterministes pures, ne laissant pas de place au hasard ? Cette notiond’aleatoire est elle une preuve de notre ignorance, et de notre incapacite a decrire les essencesde ces systemes ?

Supposons un instant que le hasard, et les phenomenes aleatoires existent. Sous cettehypothese assez vraisemblable, serait il envisageable de les modeliser mathematiquement, etde decrire leurs lois d’evolution ? Un phenomene aleatoire donne peut il etre simule, et repeteindefiniment ? Est il possible de les predire, et de les controler ? Peut on dompter le hasard,et construire de nouveau schemas d’exploration aleatoire, et d’approximation numerique de loicomplexes ? En un mot : le hasard serait il lui meme soumis a des regles mathematiques ?

Les reponses a toutes ces questions sont bien positives. La theorie des probabilites et desprocessus aleatoires, en plein essor depuis le debut du vingtieme siecle, vise a modeliser,analyser, estimer, et predire des phenomenes aleatoires. Fondee a la fois sur l’experience, etl’intuition, et sans cesse nourrie par les developpements des mathematiques pures, des sciencesappliquees, et des puissances de calcul informatique, cette theorie propose une variete de modeleset d’algorithmes aleatoires, ainsi qu’une panoplie de techniques algebriques, et analytiques,pour l’etude de phenomenes aleatoires issus de la physique, de la biologie, et des sciences del’ingenieur. Dans chaque domaine d’application, la theorie des probabilites offre une variete demodeles en adequation parfaite avec la realite. Les interpretations de ces modeles dependent dudomaine d’application. Un simple modele de Pile ou Face peut s’interpreter comme l’evolutiond’une particule physique vers la droite, ou vers la gauche sur la droite reelle. Ce modeleelementaire peut aussi etre associe a des evolutions a la hausse, ou a la baisse de marchesfinanciers. Dans un autre registre, certains modeles d’interaction issus de la physique statistique,ou de la theorie des dynamiques de populations biologiques, ont recemment ete utilises avecsucces dans la modelisation de comportement collectifs d’agents financiers, ou dans la calibrationde modeles de prix d’actions [1, 2].

Ces notes de cours proposent une introduction elementaire a la theorie des probabilites, eta ses applications en ingenierie et mathematiques financieres. Elles s’articulent essentiellementautour de deux axes principaux :

La premiere partie offre un expose synthetique des principaux elements de la theorie desprobabilites, et celle des processus aleatoires. La seconde partie porte sur la modelisation, etl’analyse probabiliste de problemes issus de la finance, tels la gestion de portefeuilles, le calculdes prix, et de couvertures d’options financieres.

Chaque partie est developpee selon un ordre de difficulte croissant. Pour des raisonspedagogiques, nous avons neanmoins choisi de restreindre cet expose a l’etude des mesuresde probabilites, et des processus aleatoires, sur des espaces finis. Cette approche nous permetde contourner la theorie de l’integration de Lebesgue sur laquelle est edifiee la theorie generaledes probabilites.

Dans un premier chapitre introductif nous rappelons brievement les principales notions de latheorie des probabilites, telles les notions de variables aleatoires, les proprietes d’independanceentre evenements, ainsi que le conditionnement en des evenements, des partitions, ou plus

Page 6: MASTER MASS 2 Univ. Nice Sophia Antipolis

4 TABLE DES MATIERES

generalement, en des algebres ensemblistes.Le second chapitre concerne l’etude des processus aleatoires a valeurs dans des espaces

finis. Nous examinerons tout d’abord les interpretations arborescentes de ces modeles. Cesrepresentations graphiques permettent notamment de visualiser l’evolution d’un processusaleatoire entre chaque noeud d’un arbre d’epreuves. Nous etudierons par la suite les notionsde filtrations d’algebres sur l’ensemble des evenements. Ces objets mathematiques permettentde modeliser l’information portee par une evolution aleatoire. Nous examinerons enfin lesdecompositions canoniques de processus aleatoires abstraits, par rapport a une filtrationd’algebres donnee.

Le troisieme chapitre est l’un des axes principaux de ce cours. Il presente de facon synthetiqueles principaux elements de la theorie des martingales. Nous etudierons tout d’abord les notionsde compensateurs quadratiques “caracterisant”les tendances locales des carres de martingales.Nous examinerons ensuite la construction de martingales, a conditions terminales fixees. Cesresultats fondamentaux seront utilises dans le chapitre suivant sur le mathematiques financieres,pour “neutraliser” des marches financiers. Apres une etude des martingales exponentielles,intervenant dans la modelisation des evolutions d’actifs financiers, nous developperons uneclasse de strategies de controle de martingales issus de la theorie des jeux. Ces techniquesseront par la suite essentielles pour la simulation, et la couverture d’options financieres.

Le chapitre final est consacre aux mathematiques financieres. Dans une premiere partie,nous presentons un dictionnaire plus ou moins exhaustif des principales notions de la finance,en soulignant leurs liens avec les modeles probabilistes etudies dans les precedents chapitres.Nous avons choisi de restreindre cet expose a l’etude des problemes de calculs de prix d’optionsfinancieres, et les strategies de couverture. Nous commencerons par l’etude d’un modeled’evolution de prix d’actifs binomial, sur une, puis sur deux periodes. Ces etudes elementairespermettent de souligner les strategies d’arbitrage, et la nature probabiliste des modeles demarches viables. Nous examinerons ensuite en detail le modele homogene et binomial de Cox-Ross-Rubinstein, en precisant ses liens avec le modele de Black and Scholes. La derniere partie dece cours offre une analyse mathematique rigoureuse et detaillee des marches financiers complets,et des strategies de couvertures d’options.

Page 7: MASTER MASS 2 Univ. Nice Sophia Antipolis

Chapitre 1

Theorie des probabilites

elementaire

1.1 Promenades aleatoires

Ce premier chapitre offre un expose synthetique des fondations mathematiques de la theoriedes probabilites. Nous avons choisi volontairement de restreindre notre presentation a l’etudedes phenomenes aleatoires ne prenant qu’un nombre fini de valeurs. Ce choix nous permetnotamment de contourner la theorie abstraite de l’integration de Lebesgue, sur laquelle la theoriegenerale des probabilites est edifiee. Dans ce contexte simplifie, la theorie des probabilites seresume a une analyse fonctionnelle elementaire sur des espaces finis. A titre d’exemple, uneexperience aleatoire ne prenant qu’un nombre fini de valeurs correspond tout simplement a ladonnee d’un ensemble fini d’evenements munis d’une mesure representant les de probabilitesde realisation de chacun.

Ce chapitre introductif est consacre a l’etude des divers objets mathematiquescorrespondant aux principales notions probabilistes, telles les notions de variables aleatoires, leconditionnement, et l’independance entre evenements. Ces modeles mathematiques permettentune analyse precise et rigoureuse de nombreux phenomenes aleatoires discrets. De plus, laterminologie probabiliste est en adequation parfaite avec l’experience. Ainsi l’etude de cesmodeles permet d’approfondir conjointement l’analyse mathematique et l’intuition probabilistede phenomenes aleatoires complexes.

Ce chapitre s’organise de la facon suivante :

La premiere section concerne l’etude des mesures de probabilites (sur des espacesd’evenements discrets). Nous insisterons sur les phenomenes aleatoires uniformes ou chaqueevenements peut se realiser avec la meme probabilite. Nous presenterons les modelescombinatoires d’urnes traditionnels.

La seconde section porte sur les notions de variables aleatoires (en abrege v.a.), et lapropriete de mesurabilite par rapport a une algebre d’evenements. Ces modeles ensemblistespermettent de modeliser l’information apportee par la donnee d’une variable aleatoire.

La troisieme et derniere section concerne l’une des notions les plus importantes, et la plusfructueuse de la theorie des probabilites, la notion de conditionnement. Cette notion intervientdes que l’on etudie des phenomenes aleatoires sachant une information partielle sur le resultatde l’experience.

1.1.1 Experiences aleatoires

Une experience aleatoire discrete se decrit mathematiquement par la donnee d’un espacefini Ω. Les points ω ∈ Ω representent les evenements elementaires. Ils sont parfois appeles lesepreuves, les resultats, ou encore les aleas de l’experience. Les sous ensembles A de Ω, sont

5

Page 8: MASTER MASS 2 Univ. Nice Sophia Antipolis

6 CHAPITRE 1. THEORIE DES PROBABILITES ELEMENTAIRE

appeles les evenements. On dit que l’evenement A se produit lorsque ω ∈ A. Ainsi A seproduit autant de fois qu’il y a d’evenements elementaires dans A.

Une mesure de probabilite P sur Ω, est une application P de Ω dans [0, 1], telle que∑

ω∈Ω P(ω) = 1. La probabilite P(A) d’un evenement A, est definie par la formule

P(A) =∑

ω∈A

P(ω) =∑

ω∈Ω

1A(ω) P(ω)

On notera que l’on a P(Ω) = 1, et P(∅) = 0, avec la convention∑

∅ = 0. Les ensembles Ω, et ∅,sont appeles respectivement, l’evenement certain, et l’evenement impossible. Le couple (Ω, P),est appele un espace de probabilite, ou encore un espace de probabilites.

Exemple 1.1.1 Amener un total de points au moins egal a 10, en jetant deux des, est unevenement aleatoire A qui s’exprime dans l’espace produit

Ω = (Ω1 × Ω2) avec Ω1 = Ω2 = 1, . . . , 6

avec la formule

A = (4, 6), (6, 4), (5, 5)

Chaque alea ω = (ω1, ω2), represente les resultats ω1, et ω2, des lancers du premier, et dudeuxieme des. Pour des des non pipes, la probabilite de realisation d’un jet donne, disonsω = (1, 2) est de P[(1, 2)] = 1/36. Ainsi la probabilite pour que A se realise est donnee par

P(A) = P[(4, 6)] + P[(6, 4)] + P[(5, 5)] = 3/36 = 1/12

Si l’on s’interesse uniquement aux resultats du premier des, il est bien plus judicieux de lesexprimer dans l’espace Ω1 = 1, . . . , 6. Obtenir le chiffre 6, lors du lancer de ce des, est unevenement aleatoire qui s’exprime dans Ω1, par la donne du singleton A1 = 6 ⊂ Ω1. Laprobabilite de realisation de chaque alea ω1 ∈ Ω1, correspondant au lancer du premier des, estalors donnee par

P1(ω1) =def. P[ω1 × Ω2] =∑

ω2∈Ω2

P[(ω1, ω2)] = 6/36 = 1/6

L’exemple precedent montre qu’un meme evenement aleatoire peut s’exprimer dansdes espaces probabilises plus ou moins complexes. En pratique, l’on pourra mettraa profit cette souplesse, en choisissant l’espace probabilise le plus simple rendant compte del’experience etudiee.

La representation des evenements comme partie d’un ensemble Ω offre une correspondanceprecieuse entre les operations logiques sur les realisations des experiences, et les operationsd’inclusion/exclusion classiques de la theorie des ensembles : A tout evenement A, on associeson contraire Ac = Ω−A qui se realise uniquement si A ne l’est pas. A tout couple d’evenementsA, B ⊂ Ω, l’evenement A ∩ B est celui qui se realise uniquement si les evenements A et B serealisent simultanement. De meme, l’evenement A ∪ B se realise, lorsque l’evenement A ou Bse realise. Lorsque l’on a A ∩ B = ∅, on dit que les evenements A et B sont incompatibles.

Nous laissons le soin au lecteur de verifier les formule suivantes :

Page 9: MASTER MASS 2 Univ. Nice Sophia Antipolis

1.1. PROMENADES ALEATOIRES 7

– A ∩ B = ∅ =⇒ P(A ∪ B) = P(A) + P(B).– ∀A, B ⊂ Ω P(A ∪ B) + P(A ∩ B) = P(A) + P(B).– ∀A ⊂ ω P(Ac) = 1 − P(A).– Pour tout A, B, C ⊂ Ω

P(A ∪ B ∪ C) = P(A) + P(B) + P(C)

−P(A ∩ B) + P(B ∩ C) + P(A ∩ C) + P(A ∩ B ∩ C)

Exercice 1.1.1 Verifier les formules

A ∪ (B ∩ C) = (A ∪ B) ∩ (A ∪ C) (A ∪ B)c = Ac ∩ Bc

A ∩ (B ∪ C) = (A ∩ B) ∪ (A ∩ C) (A ∩ B)c = Ac ∪ Bc

Exercice 1.1.2 Montrer (par recurrence) que pour toute collection d’evenements A1, . . . , An ⊂Ω, nous avons

P(A1 ∪ . . . ∪ An) ≤ P(A1) + . . . + P(An)

Exercice 1.1.3 Soit A, B un couple d’evenements. Montrer que

A4B = [A ∩ Bc] ∪ [B ∩ Ac] = (A − B) ∪ (B − A)

represente l’evenement ou exactement A ou B se produit. Verifier que l’on a

1A4B = 1A + 1B − 21A∩B

En deduire par le calcul, puis schematiquement, la formule

P(A4B) = P(A) + P(B) − 2P(A ∩ B)

Page 10: MASTER MASS 2 Univ. Nice Sophia Antipolis

8 CHAPITRE 1. THEORIE DES PROBABILITES ELEMENTAIRE

Probleme 1.1.1.1 (formule de Poincare) Soit A1, . . . , An ⊂ Ω une suite d’evenements.

1. Verifier les formules suivantes

1A1∩A2 = 1A1 ∩ 1A2

1A1∪A2 = 1 − (1 − 1A1)(1 − 1A2) = 1A1 + 1A2 − 1A1∩A2

2. Montrer que

1∪np=1Ap

= 1 −n∏

p=1

(1 − 1Ap

)

3. En utilisant la formule

n∏

i=1

(1 + ai) = 1 +

n∑

p=1

1≤i1<...<ip≤n

ai1 . . . aip

qui est valable pour tout n ≥ 0, et pour tout (ai)1≤i≤n ∈ Rn, verifier l’identite

P(∪ni=1Ai) =

n∑

p=1

1≤i1<...<ip≤n

(−1)p−1P(Ai1 ∩ . . . ∩ Aip

) (1.1)

4. Montrer que pour tout A ⊂ Ω, ω ∈ Ω, et u ∈ R, on a

(1 + u)1A(ω) = 1 + u 1A(ω)

avec la convention 00 = 1, lorsque u = −1, et ω 6∈ A. En deduire l’identite

(1 + u)Pn

i=1 1Ai =

n∏

i=1

(1 + u 1Ai)

Par un raisonnement analogue a celui utilise dans la question precedente, verifier l’identite

ω∈Ω

(1 + u)Pn

i=1 1Ai(ω)

P(ω) = 1 +

n∑

p=1

1≤i1<...<ip≤n

upP(Ai1 ∩ . . . ∩ Aip

)

5. Retrouver la formule de Poincare (1.1), en posant u = −1.

1.1.2 Paysages uniformes

Lorsque tous les evenements elementaires ω d’un espace probabilise (Ω, P) ont la memeprobabilite p, le calcul des probabilites des evenements composes A ⊂ Ω se reduit au comptagede nombre d’elements dans A. Plus precisement, nous avons

P(Ω) =∑

ω∈Ω

P(ω) = |Ω| × p = 1 =⇒ p = 1/|Ω|

et par consequent, nous avons

∀A ⊂ Ω P(A) = |A|/|Ω| (1.2)

Dans les expressions precedents,

|A| = Card(A) =∑

ω∈Ω

1A(ω)

designe le cardinal d’un ensemble A. Les mesures de probabilite satisfaisant la condition(1.2) sont dites uniformes sur Ω. Dans ce contexte, le calcul des probabilites d’evenementss’accompagne d’une analyse combinatoire plus ou moins complexe de l’experience aleatoire enquestion.

Page 11: MASTER MASS 2 Univ. Nice Sophia Antipolis

1.1. PROMENADES ALEATOIRES 9

Modeles d’urnes

Dans l’experience qui suit, n boules sont selectionnees au hasard, dans une urne contenantN boules numerotees de 1 a N . Cette experience peut etre representee par les n-uplets

ω = (ω1, . . . , ωn) ∈ 1, . . . , Nn

ou chaque coordonnee ωi designe le numero de la boule selectionnee au n-ieme tirage. Pourpoursuivre notre discussion, il est essentiel de preciser les points suivants :

– Les boules selectionnees sont elles remises dans l’urne ?– L’ordre des selections est il important ?

Par exemple, si les tirages sont sans remise, on ne peut avoir de repetitions d’indices dansles coordonnees des n-uplets (ω1, . . . , ωn). Par exemple si n = 2, et N = 4, on ne peut avoir(1, 1), pas plus que (2, 2).

Dans les deux cas ou les tirages sont avec, ou sans remise, il est aussi important de savoirsi l’on considerer l’ordre des selections. Par exemple si n = 2, et N = 4, doit-on distinguer lesresultats de l’experience ω = (1, 2), et ω = (2, 1) ? En toute generalite, la reponse est oui. Carω = (1, 2) represente le cas ou la premiere boule selectionnee est la boule numero 1, la secondela boule numero 2 ; alors que l’alea ω = (2, 1) represente le cas ou la premiere boule selectionneest la boule numero 2, la seconde la boule numero 1. L’ordre n’est pas important lorsque l’ons’interesse a des evenements de la forme

〈1, 2〉 = (1, 2), (2, 1)= “les boules no. 1 et 2 ont ete selectionnees au cours des 2 tirages”

Dans le cas de tirages avec remise, on remarquera que 〈1, 1〉 = (1, 1).

Pour distinguer ces deux situations, nous noterons

ω = 〈ω1, . . . , ω2〉

les evenements elementaires d’une experience aleatoire ou l’ordre n’est pas important ; et ω =(ω1, . . . , ω2) les evenements elementaires d’une experience aleatoire ou l’ordre est important.Il est parfois commode d’appeler ces evenements, des evenements ordonnes (ω1, . . . , ω2), etdesordonnees 〈ω1, . . . , ω2〉.

1. Selection ordonnee avec remise Dans le cas le plus simple ou l’ordre des tirages estimportant, nous avons

Ω = ω : ω = (ω1, . . . , ωn) avec ωi ∈ 1, . . . , N =⇒ |Ω| = Nn

2. Selection ordonnee sans remise Dans cette experience, chaque boule selectionnee auhasard est conservee a l’exterieur de l’urne. Dans le cas le plus simple ou l’ordre estimportant, on a

Ω = ω : ω = (ω1, . . . , ωn) avec ωi ∈ 1, . . . , N et ωi 6= ωj ∀i 6= j

=⇒ |Ω| = N(N − 1) . . . (N − (n − 1)) =def. (N)n =def. AnN

3. Selection desordonnee sans remise Lorsque l’ordre est sans importance, et on a

Page 12: MASTER MASS 2 Univ. Nice Sophia Antipolis

10 CHAPITRE 1. THEORIE DES PROBABILITES ELEMENTAIRE

Ω = ω : ω = 〈ω1, . . . , ωn〉 avec ωi ∈ 1, . . . , N et ωi 6= ωj ∀i 6= j

=⇒ |Ω| = N(N−1)...(N−(n−1))n! = (N)n

n! =def. CnN

Pour calculer ce dernier cardinal, il suffit de noter qu’a partir de chaque realisation〈ω1, . . . , ωn〉, on peut construire n! evenements ordonnes, en permutant les indices. Plusformellement, si Gn designe le groupe symetrique des permutations sur l’ensemble desindices 1, . . . , n, les n! evenements ordonnes deduits de 〈ω1, . . . , ωn〉, correspondent al’image de l’application suivante

σ ∈ Gn 7→ (ωσ(1), . . . , ωσ(n))

4. Selection desordonnee avec remise Cette situation est la plus complexe des quatre.L’ensemble Ω est ici donne par

Ω = ω : ω = 〈ω1, . . . , ωn〉 avec ωi ∈ 1, . . . , N

=⇒ |Ω| = CnN+(n−1) = (N+(n−1))...(N+1) (N+0)

n!

Le calcul de ce dernier cardinal s’effectue par recurrence sur le parametre n. On note|Ω| = αN (n), le cardinal en question. Pour n = 1, on a clairement

∀N ≥ 1 αN (1) = |ω : ω = ω1, avec ω1 ∈ 1, . . . , N| = N = C1N

Supposons que αN (n) = CnN+(n−1), pour tout N ≥ 1 ; et montrons que cette propriete est

satisfaite au rang suivant.

Puisque l’ordre est sans importance, on peut convenir que les coordonnees ωi, de chaque(n + 1)-uplet ω = [ω1, . . . , ωn+1], sont rangees par ordre croissant

ω1 ≤ ω2 ≤ . . . ≤ ωn ≤ ωn+1

Si ω1 = 1, alors il y a αN (n) facons de choisir les autres composantes

1 ≤ ω2 ≤ . . . ≤ ωn ≤ ωn+1

dans l’ensemble 1, . . . , N. Si maintenant ω1 = 2, alors il n’y a plus que αN−1(n) faconsde choisir les autres composantes

2 ≤ ω2 ≤ . . . ≤ ωn ≤ ωn+1

dans l’ensemble 2, . . . , N. Plus generalement, lorsque ω1 = i + 1, avec i = 0, . . . , N − 1,alors il n’y a plus que αN−i(n) facons de choisir les autres composantes

(i + 1) ≤ ω2 ≤ . . . ≤ ωn ≤ ωn+1

dans l’ensemble i + 1, . . . , i + (N − i). En consequence de cette dichotomie, et d’apresnotre hypothese de recurrence, nous obtenons la formule

αN (n + 1) =

N−1∑

i=0

αN−i(n) =

N−1∑

i=0

Cn(N−i)+(n−1)

Page 13: MASTER MASS 2 Univ. Nice Sophia Antipolis

1.1. PROMENADES ALEATOIRES 11

On remarque maintenant que

Cp−1q + Cp

q =q!

((q − p) + 1)! (p − 1)!+

q!

(q − p)! p!

=(q + 1)!

((q − p) + 1)! p!×(

p

q + 1+

(q − p) + 1

q + 1

)

= Cpq+1

Autrement dit, nous avonsCp−1

q = Cpq+1 − Cp

q

En utilisant ce qui precede, on en conclut que

αN (n + 1) =

N−1∑

i=0

(

Cn+1(N−i)+(n−1)+1 − Cn+1

(N−i)+(n−1)

)

=

N−1∑

i=0

(

Cn+1(N+n)−i − Cn+1

(N+n)−(i+1)

)

= Cn+1N+n

Exercices

Exercice 1.1.4 Une urne contient N = N1+N2 boules, N1 de couleur rouges, et N2 de couleurnoire. Lors d’une selection de n = N1 boules avec remise, quelle est la probabilite de choisir aumoins une fois une boule rouge.

Exercice 1.1.5 Quelle est la probabilite pour qu’au moins deux etudiants dans un classe de npersonnes aient la meme date d’anniversaire ? On supposera que la date d’anniversaire est l’undes 365 jours, et chaque jour est equiprobable. Estimer cette probabilite lorsque n = 31.

Exercice 1.1.6 Un jeu de loterie est forme de n billets gagnants sur un total de N . Onsupposera, ce qui est souvent le cas, que le nombre total de billets est plus que le double dunombre de billets gagnants. Quelle est la probabilite de gagner au moins une fois, si l’on acheten billets ?

Exercice 1.1.7 Un jeu de loto est forme de N = 49 boules numerotees de 1 a 49. Six d’entreelles sont gagnantes, disons les 6 premieres numerotees de 1 a 6. On selectionne sans remisen = 6 boules dans cette urne. Quelle est la probabilite d’avoir choisi precisement ces 6 boules ?

1.1.3 Petit traite de lois

La loi binomiale

Une piece de monnaie est lancee n fois. On note (ω1, . . . , ωn) les resultats obtenus. Nousconviendrons que ωi = 0 lorsque le resultat du i-eme jet est Pile, et ωi = 1 lorsque le resultatde ce lancer est Face. On supposera enfin que les n lancers sont independants, et la probabilitep ∈ [0, 1], d’avoir face a un lancer, ne change pas dans le temps.

Cette experience aleatoire peut aussi s’interpreter comme une succession de n epreuvesaleatoires, ne prenant chacune que deux valeurs possibles. Ces phenomenes biphasesapparaissent dans de nombreuses situations pratiques : echec/succes, realisation/ou non,d’une experience repetee ; fermeture/ouverture d’interrupteurs dans des circuits electriques,presence/absence d’une particularite,...

L’ensemble des evenements elementaires associes a cette experience est clairement donnepar

Ω = ω : ω = (ω1, . . . , ωn) avec ωi ∈ 0, 1 = 0, 1n (|Ω| = 2n)

On definit une probabilite P sur Ω, en posant pour chaque ω = (ω1, . . . , ωn) ∈ Ω

P(ω1, . . . , ωn) =

n∏

i=1

[p 11(ωi) + (1 − p) 10(ωi)]

Page 14: MASTER MASS 2 Univ. Nice Sophia Antipolis

12 CHAPITRE 1. THEORIE DES PROBABILITES ELEMENTAIRE

Cette probabilite peut aussi s’exprimer sous la forme suivante

P(ω1, . . . , ωn) =

n∏

i=1

[

p11(ωi) (1 − p)10(ωi)]

=

n∏

i=1

[pωi (1 − p)1−ωi

]= p

Pni=1 ωi (1 − p)n−

Pni=1 ωi

On s’interesse maintenant aux evenements ou lors des n lancers de la pieces, le resultat“Face” apparaıt exactement k fois

Ak = ω : ω = (ω1, . . . , ωn) ∈ 0, 1n avec

n∑

i=1

ωi = k

avec k ∈ 0, . . . , n. On verifie aisement que

|Ak| = Ckn et ∀ω ∈ Ak P(ω) = pk(1 − p)n−k

Par consequent, on obtient

∀k ∈ 0, . . . , n P (k) =def. P(Ak) = Ckn pk(1 − p)n−k

L’ensemble des probabilites P = (P (k))k=0,...,n est appele la loi binomiale deparametres (n ;p).

La loi multinomiale

Generalisons la loi binomiale, en considerant une succession de n epreuves aleatoires, pouvantprendre chacune r valeurs distinctes numerotees de 1 a r. On conviendra que ces n epreuvessont independantes, et la probabilite pi ∈ [0, 1], que le resultat soit i ∈ 1, . . . , r a chacune desepreuves, ne change pas dans le temps. On notera que le jeux de parametres (pi)i=1,...,r ∈ [0, 1]r

doit necessairement etre choisi de sorte que∑r

i=1 pi = 1.L’espace des evenements associe a cette experience est donne par

Ω = ω : ω = (ω1, . . . , ωn) avec ωi ∈ 1, . . . , r = 1, . . . , rn (|Ω| = rn)

Pour chaque i ∈ 1, . . . , r, on note

Ni(ω) =

n∑

j=1

1i(ωj)

le nombre de fois ou i apparaıt dans la sequence ω = (ω1, . . . , ωn). On definit une probabilite P

sur Ω, en posant pour chaque ω = (ω1, . . . , ωn) ∈ Ω

P(ω1, . . . , ωn) =

n∏

j=1

[p1 11(ωj) + . . . + pr 1r(ωj)]

Cette probabilite peut aussi s’exprimer sous la forme produit suivante

P(ω1, . . . , ωn) =n∏

j=1

[

p11(ωj)1 . . . p1r(ωj)

r

]

= pN1(ω)1 . . . pNr(ω)

r

On s’interesse maintenant aux evenements ou lors des n epreuves, les nombres i apparaıtexactement ni fois

An1,...,nr= (ω1, . . . , ωn) ∈ 1, . . . , rn : N1(ω) = n1, . . . , Nr(ω) = nr

Page 15: MASTER MASS 2 Univ. Nice Sophia Antipolis

1.1. PROMENADES ALEATOIRES 13

avec ni ∈ 0, . . . , n, et∑r

i=1 ni = n. On verifie aisement que

|An1,...,nr| = Cn1

n Cn2n−n1

. . . Cnr

n−(n1+...+nr−1) =n!

n1! . . . nr!=def. Cn1,...,nr

n

et∀ω ∈ An1,...,nr

P(ω) = pn11 . . . pnr

r

Par consequent, pour toutes les possibilites de r-uplets (ni)i=1,...,r ∈ 0, . . . , nr, tel que∑r

i=1 ni = n, on obtient

P (n1, . . . , nr) =def. P(An1,...,nr) =

n!

n1! . . . nr!pn11 . . . pnr

r

L’ensemble des probabilites P (n1, . . . , nr) est appele la loi multinomiale de parametres(n; (p1, . . . , pr)) .

La loi hypergeometrique

On considere une urne contenant m boules numerotees de 1 a m, avec mi boules de couleurci, ou c1, . . . , cr designe un jeu de r couleurs distinctes. Pour fixer les idees, on conviendraque les m1 premieres boules numerotees de 1 a m1 sont de couleur c1, les m2 boules suivantes,numerotees de m1 +1 a m1 +m2, sont de couleur c2, etc. Autrement dit, pour chaque indice decouleur i ∈ 1, . . . , r, les numeros des mi boules de couleur ci sont donnees par les ensembles

Ci = m1 + . . . + mi−1 + 1, 2, . . . , mi

Pour i = 1, on prend la convention m1 + . . . + m1−1 =∑

∅ = 0.On selectionne une serie de n(≤ m) boules sans remise, et l’on s’interesse au resultat de

l’experience. Dans cette situation, l’espace des evenements elementaires est donne par

Ω = ω : ω = (ω1, . . . , ωn) avec ωi ∈ 1, . . . , m et ωi 6= ωj ∀i 6= j

et l’on rappelle que|Ω| = (m)n = m(m − 1) . . . (m − (n − 1))

Pour chaque i ∈ 1, . . . , r, on note

Nni (ω) =

n∑

j=1

1Ci(ωj)

le nombre de fois ou la couleur ci apparaıt dans la sequence ω = (ω1, . . . , ωn). On notera que

r∑

i=1

Nni (ω) =

n∑

j=1

(r∑

i=1

1Ci(ωj)

)

= n

On s’interesse aux evenements ou lors des n tirages, chacune des couleurs ci apparaıtexactement ni fois

An1,...,nr= (ω1, . . . , ωn) ∈ Ω : Nn

1 (ω) = n1, . . . , Nnr (ω) = nr

avec ni ∈ 0, . . . , n, et∑r

i=1 ni = n.Pour calculer le nombre d’evenements elementaires associes a la realisation de An1,...,nr

, onobserve tout d’abord qu’il y a

Cn1,...,nrn =

n!

n1! . . . nr!

Page 16: MASTER MASS 2 Univ. Nice Sophia Antipolis

14 CHAPITRE 1. THEORIE DES PROBABILITES ELEMENTAIRE

possibilites de choisir ni boules de couleurs ci, lors des n tirages. Pour chaque repartition de cesjeux de couleurs lors des n tirages, il y a encore (m1)n1 facons de choisir n1 boules de couleur c1

parmi m1, puis (m2)n2 facons de choisir n2 boules de couleur c2 parmi m2, etc. Par consequent,ces evenements composes ont pour cardinal

|An1,...,nr| =

n!

n1! . . . nr!(m1)n1 . . . (mr)nr

Il en decoule que

P (n1, . . . , nr) = P(An1,...,nr) =

n!n1!...nr! (m1)n1 . . . (mr)nr

(m)n

=

(m1)n1

n1!. . .

(mr)nr

nr!

(m)n

n!

=Cn1

m1. . . Cnr

mr

Cnm

Autrement dit, nous avons

P (n1, . . . , nr) =Cn1

m1. . . Cnr

mr

Cnm

L’ensemble des probabilites P (n1, . . . , nr), ni ≥ 0,∑r

i=1 ni = n, est appele loihypergeometrique de parametres (n : (m1, . . . , mr)).

Interpretation dynamique : Lors du tirage sans remise, les probabilites d’obtenir certainescouleurs diminuent au fur et a mesure qu’elles sont selectionnees. En effet, initialement, chacunedes couleurs ci a une probabilite mi/m d’etre choisie. Supposons maintenant que l’echantillondes k premieres boules choisies soit forme de nk

i boules de couleurs ci, avec∑r

i=1 nki = k.

Autrement dit, supposons que l’on ait

∀i ∈ 1, . . . , r Nki (ω1, . . . , ωk) = nk

i

Dans ce cas, l’urne ne contient plus que (mi − nki ) boules de couleurs ci. Dans cette situation,

la probabilite d’obtenir une boule de couleur ci est desormais plus faible, et egale a

(mi − nki )

(m − k)=

mi

m

(1 − nki /mi)

∑rj=1(1 − nk

j /m)≤ mi

m

Par consequent, la probabilite de choisir les n1 premieres boules de couleur c1, puis les n2 boulessuivantes de couleur c2, etc, est donnee par la formule

P((ωi)1≤i≤n1 ∈ C1, (ωi)n1+1≤i≤n1+n2 ∈ C2, . . .)

=(

m1

mm1−1m−1 . . . m1−(n1−1)

m−(n1−1)

)(m2

(m−n1)m2−1

(m−n1)−1 . . . m2−(n2−1)(m−n1)−(n2−1)

)

. . .

=(m1)n1

(m)n1

(m2)n2

(m−n1)n2. . .

(mr)nr

(m−n1−...−nr−1)nr=

(m1)n1 ...(mr)nr

(m)n

Bien entendu, il en est de meme si les ni boules de couleur ci, sont choisies a des instantsti1, . . . , t

ini

P((ωt1j)1≤j≤n1 ∈ C1, (ωt2j

)1≤j≤n2 ∈ C2, . . .) =(m1)n1 . . . (mr)nr

(m)n

Comme il y a n!n1!...nr! facon de choisir ses instants ti1, . . . , t

ini

, on retrouve le fait que

P(An1,...,nr) =

n!

n1! . . . nr!

(m1)n1 . . . (mr)nr

(m)n

Page 17: MASTER MASS 2 Univ. Nice Sophia Antipolis

1.1. PROMENADES ALEATOIRES 15

Approximation polynomiale : Supposons que l’on ait

m1 ↑ ∞, . . . , mr ↑ ∞ avecm1

m→ p1, . . . ,

mr

m→ pr

Dans cette situation, il y a tellement de boules dans l’urne, que tout se passe comme dans untirage avec remise ! En effet, nous avons dans ce cas

(m1

mm1−1m−1 . . . m1−(n1−1)

m−(n1−1)

)(m2

(m−n1)m2−1

(m−n1)−1 . . . m2−(n2−1)(m−n1)−(n2−1)

)

. . .

=(

m1

m

)n1(

1−1/m1

1−1/m . . . 1−(n1−1)/m1

1−(n1−1)/m

)

×(

m2

m

)n2(

1(1−n1/m)

1−1/m2

(1−n1/m)−1/m . . . 1−(n2−1)/m2

(1−n1/m)−(n2−1)/m

)

. . .

→ pn11 pn2

2 . . . pnrr

On en conclut que la loi hypergeometrique convergence vers la loi multinomiale

n!

n1! . . . nr!

(m1)n1 . . . (mr)nr

(m)n

mi↑∞−→ n!

n1! . . . nr!pn11 pn2

2 . . . pnrr

Page 18: MASTER MASS 2 Univ. Nice Sophia Antipolis

16 CHAPITRE 1. THEORIE DES PROBABILITES ELEMENTAIRE

1.2 Variables aleatoires

1.2.1 Definitions

La notion de variable aleatoire (en abrege v.a.) permet une analyse approfondie et simplifieedes experience aleatoires que nous avons rencontrees, et de bien d’autres a venir. La definitionfonctionnelle suivante presente ces nouveaux objets comme une variable abstraite dont la valeurdepend du resultat ω de d’une experience.

Definition 1.2.1 Une v.a. (discrete) X est une application d’un espace probabilise(Ω, P) dans un espace fini E. Lorsque E ⊂ R, on dit que la v.a. est reelle.

Exemple 1.2.1 Dans l’exemple du lancer de n des, la fonction identite

(X1, . . . , Xn) : Ω = 1, . . . , 6n −→ E = 1, . . . , 6n

ω = (ω1, . . . , ωn) −→ (X1(ω), . . . , Xn(ω)) = (ω1, . . . , ωn)

est une v.a. representant le resultat du lancer. De meme, les fonctions coordonnees

Xp : ω = (ω1, . . . , ωn) ∈ Ω −→ Xp(ω) = ωp ∈ 1, . . . , 6

representent le resultat du lancer du p-ieme des. La somme, et le produit definis par

Sn(ω) =

n∑

p=1

Xp(ω) et Πn(ω) =

n∏

p=1

Xp(ω)

sont a nouveau des v.a. (reelles).

Exemple 1.2.2 La v.a. indicatrice Y = 1A associee a un evenement A ⊂ Ω, represente larealisation, ou non de cet evenement. Notons que si A = X−1(B), avec B ⊂ E, la v.a. Y =1X−1(B) = 1B X represente la realisation ou non de l’evenement X−1(B) = ω ∈ Ω : X(ω) ∈B.

Le lemme suivant est d’un usage assez frequent dans l’etude de modeles probabilistes. Sademonstration est immediate !

Lemme 1.2.1 Si X : Ω → E est une v.a. a valeurs dans E, et si f : E → F est une applicationarbitraire de E vers un espace fini auxiliaire F , alors l’application f(X) = f X est une v.a. avaleurs dans F .

La representation canonique suivante offre une formulation algebrique precise de variablesaleatoires. Sa demonstration ne pose aucun probleme particulier.

Proposition 1.2.1 Soit X(Ω) = x1, . . . , xd ⊂ E, l’ensemble des realisationspossibles d’une v.a. X : Ω → E. Dans cette situation, la famille d’ensemblesAi = X−1(xi), 1 ≤ i ≤ d, forme une partition de Ω, et on a la representation

X =

d∑

i=1

xi 1Ai

Page 19: MASTER MASS 2 Univ. Nice Sophia Antipolis

1.2. VARIABLES ALEATOIRES 17

Exercice 1.2.1 Soit X : Ω → E une v.a., et f : E → F une fonction de E dans un ensemblefini F . Si X(Ω) = x1, . . . , xd ⊂ E, l’ensemble des realisations possibles de v.a. X, montrerque la v.a. f(X) peut s’ecrire sous la forme suivante

f(X) =

d∑

i=1

f(xi) 1X−1(xi)

Exercice 1.2.2 Soit (Ai)≤i≤d une partition de l’ensemble Ω. Montrer que pour toute collectionde nombres reels a = (ai)≤i≤d, les fonctions

Xa =d∑

i=1

ai 1Ai

sont des v.a. reelles. Verifier que toutes les v.a. reelles sont de cette forme.

Exercice 1.2.3 Verifier que pour tout couple d’ensembles A, B, on a les decompositionsd’indicatrices suivantes

1A∩B = 1A1B

1A∪B = 1A + 1B − 1A1B = 1A ∨ 1B

1A−B = 1A (1 − 1B) = 1A − 1A1B

1A4B = (1A − 1B)2 = |1A − 1B |

1.2.2 Adaptation et mesurabilite

Pour toute v.a. X a valeurs dans un espace fini E, l’ensemble des evenements

σ(X) = X−1(P(E)) = X−1(A) : A ⊂ E

forme une algebre de parties de l’ensemble Ω. Plus precisement, on verifie que σ(X) herite dela structure d’algebre sur l’ensemble des parties de E, en remarquant que

X−1(∅) = ∅ et X−1(E) = Ω

De plus, pour tout couple de sous ensembles A, B ⊂ E, on a

X−1(A) ∪ X−1(B) = X−1(A ∪ B) et X−1(A) ∩ X−1(B) = X−1(A ∩ B)

Chaque sous ensembleX−1(A) = ω ∈ Ω : X(ω) ∈ A

est forme des evenements conduisant la variable X dans l’ensemble A. Autrement dit X−1(A)contient tous les aleas ou l’evenement X ∈ A se realise. Les evenements composes X−1(A)∪X−1(B) = X−1(A ∪ B) correspondent aux evenements ou X prend ses valeurs dans A oudans B. De meme, evenements composes X−1(A) ∩X−1(B) = X−1(A∩B) correspondent auxevenements ou X prend ses valeurs dans A et dans B.

Definition 1.2.2 Soit X une v.a. a valeurs dans un espace fini E, et definie sur unespace probabilise (Ω, P). L’ensemble des evenements

σ(X) = X−1(P(E)) = X−1(A) : A ⊂ E

est appele l’algebre sur E engendree par la v.a. X. Ces algebres ensemblistesrepresentent tous les evenements aleatoires que l’on peut decrire par des phrasesgrammaticales logiques.

Page 20: MASTER MASS 2 Univ. Nice Sophia Antipolis

18 CHAPITRE 1. THEORIE DES PROBABILITES ELEMENTAIRE

On notera que l’algebre σ(X) engendree par une v.a. X , coıncide avec la plus petite sous algebrede P(Ω) contenant les evenements

X−1(x) ⊂ Ω avec x ∈ E

Pour verifier cette assertion, on remarquera que chacun des evenements X−1(A), avec A ⊂ E,s’exprime sous la forme

X−1(A) = ∪x∈AX−1(x)Par consequent, pour toute sous algebre F ⊂ P(Ω) contenant les evenements (X−1(x))x∈E , etd’apres les proprietes de stabilite par reunion, on obtient l’inclusion

σ(X) ⊂ F

L’observation precedente souligne le fait que σ(X) correspond a l’ensemble de tous lesevenements de Ω que l’on peut construire et decrire “en observant” les valeurs prises par lav.a. X . A titre d’exemple, l’ensemble

X−1(x1, x2) = ω ∈ Ω : X(ω) = x1 ou X(ω) = x2

correspond a l’evenement ou la v.a. X prend soit la valeur x1, soit la valeur x2. Comme nousl’avons vu dans la proposition 1.2.1, la v.a. X s’exprime alors en terme d’evenements de σ(X)par la formule

X =∑

x∈E

x 1X−1(x)

Toute algebre F ⊃ σ(X) plus fine que σ(X), contient plus d’information que necessaire pourdecrire X . En effet, supposons que

F = σ(X, Y ) (⊃ σ(X))

soit l’algebre engendree par un couple de v.a. (X, Y ) a valeurs dans un espace produit (E ×F ),et definies sur un meme espace de probabilites (Ω, P). Dans cette situation, nous avons ladecomposition

X−1(x) = ∪y∈F (X, Y )−1((x, y))Autrement dit, l’evenement X−1(x) ne permet par de distinguer les valeurs prises parla v.a. Y . En ce sens les evenements X−1(x) sont plus grossiers que les evenements(X, Y )−1((x, y)). Pour conclure, on remarquera comme precedemment que la v.a. (X, Y )s’exprime sous la forme

(X, Y ) =∑

(x,y)∈(E×F )

(x, y) 1(X,Y )−1((x,y))

alors que l’on a

X =∑

(x,y)∈(E×F )

x 1(X,Y )−1((x,y))

=∑

x∈E

x

y∈F

1(X,Y )−1((x,y))

=∑

x∈E

x 1X−1(x)

Definition 1.2.3 Soit X une v.a. a valeurs dans un espace fini E, et definie sur unespace probabilise (Ω, P). On dit que X est mesurable par rapport, ou adaptee a unealgebre d’evenements F ⊂ P(Ω), et on note X ∈ F , lorsque l’on a

∀A ⊂ E X−1(A) ⊂ F

Page 21: MASTER MASS 2 Univ. Nice Sophia Antipolis

1.2. VARIABLES ALEATOIRES 19

Exemple 1.2.3 La fonction identite

(X1, X2) : Ω = 1, . . . , 62 −→ E = 1, . . . , 62

ω = (ω1, ω2) −→ (X1(ω), X2(ω)) = (ω1, ω2)

est une v.a. representant le resultat du lancer de deux des. Par construction, nous avons

σ(X1, X2) = F2 =def. P(1, . . . , 62)

On notera que∀i ∈ 1 . . . , 6 X−1

1 (i) = i × 1, . . . , 6L’algebre engendree par la v.a. representant le lancer du premier des est alors clairement donneepar

F1 =def. σ(X1)

= P(1, . . . , 6) × 1, . . . , 6 = A × 1, . . . , 6 : A ⊂ 1, . . . , 6⊂ σ(X1, X2) = P(1, . . . , 62)

avec la convention ∅ × 1, . . . , 6 = ∅. Chaque element de l’algebre σ(X1)

B = A × 1, . . . , 6= ω ∈ Ω : X1(ω) ∈ A avec A ⊂ 1, . . . , 6

correspond a l’evenement “le lancer du premier des est a valeur dans A”. On notera dans cecas que

X1 ∈ F1 ⊂ F2

On a aussi les representations

(X1, X2) =

6∑

i,j=1

(i, j) 1(X1,X2)−1((i,j)) =

6∑

i,j=1

(i, j) 1(i,j)

et

X1 =

6∑

i=1

i 1X−11 (i) =

6∑

i=1

i 1(i×1,...,6)

Chaque alea donne ω, appartient a l’un des ensembles (i × 1, . . . , 6), avec i ∈ 1, . . . , 6.Par exemple l’alea ω = (2, 5) representant la situation ou les lancers des des sont 2, puis 5,appartient a l’ensemble (2 × 1, . . . , 6). Il en est de meme des aleas ω = (2, 1), ω = (2, 2),ω = (2, 3),..., et ω = (2, 6). Dans tous ces cas, nous avons

1(2×1,...,6)(ω) = 1 et ∀i 6= 2 1(i×1,...,6)(ω) = 0

Autrement dit, pour tous les aleas de la forme ω = (2, j), l’evenement aleatoire (2 ×1, . . . , 6) ∈ σ(X1) se realise, et on a

ω = (2, j) =⇒ X1(ω) =

6∑

i=1

i 1(i×1,...,6)(ω) = 2

D’apres les discussions precedentes, une v.a. donnee Y a valeurs dans un espace fini E, s’exprimede facon naturelle en terme des evenements Y −1(y) ∈ σ(Y ), y ∈ E, par la formule

Y =∑

y∈E

y 1Y −1(y)

Page 22: MASTER MASS 2 Univ. Nice Sophia Antipolis

20 CHAPITRE 1. THEORIE DES PROBABILITES ELEMENTAIRE

Ce representations evenementielles peuvent clairement s’etendre a tout algebre F plus fine queσ(Y ), en ce sens ou σ(Y ) ⊂ F . Par consequent, une algebre contenant l’algebre engendreepar une v.a. Y contient toute l’information relative a la realisation de cette variable.Il en est intuitivement de meme pour toute v.a. auxiliaire X , adaptee ou mesurable par rapporta σ(Y ). La proposition suivante montre que l’adaptation d’une v.a. a une algebre donnee estune propriete fonctionnelle tres forte.

Proposition 1.2.2 Pour tout un couple de v.a. (X, Y ) a valeurs dans un espaceproduit fini (E×F ), et defini sur un meme espace probabilise (Ω, P), on a l’equivalencesuivante

X ∈ σ(Y ) ⇐⇒ ∃h : F → E X = h(Y )

Preuve:La condition suffisante est immediate. En effet, il suffit de noter que

∀B ⊂ E X−1(B) = h(Y )−1(B) = Y −1(h−1(B)) ∈ σ(Y )

Pour verifier que toute v.a. X ∈ σ(Y ) est necessairement de la forme X = h(Y ), avec h : F → E,on observe que

X−1(x) ∈ σ(Y ) ⇐⇒ ∃Ax ⊂ F X−1(x) = Y −1(Ax)

Il reste alors a noter que 1X−1(x) = 1Y −1(Ax). En effet, en utilisant la decomposition

X =∑

x∈E

x 1X−1(x)

on obtient bien X = h(Y ), avec la fonction h(y) =∑

x∈E x 1Ax.

Exemple 1.2.4 La fonction identite

X : Ω = 1, . . . , 6 −→ E = 1, . . . , 6ω −→ X(ω) = ω

est une v.a. representant le resultat du lancer d’un des. L’algebre engendree par cette v.a.coıncide clairement avec l’algebre discrete sur Ω

σ(X) = P(Ω)

L’application indicatrice

Y = 12,4,6 X

est une v.a. representant la parite ou non du resultat du lancer. L’algebre engendree par cettev.a. est donnee par

σ(Y ) = ∅, Ω, 2, 4, 6, 1, 3, 5 ⊂ σ(X)

Exercice 1.2.4 Soit D = (Di)i∈I une partition d’un ensemble fini Ω, muni de l’algebre discreteP(Ω). On note a(D) la plus petite algebre contenant les evenements (Di)i∈I .

1. Verifier que pour toute algebre b(D) contenant D, on a

b(D) ⊂ a(D) =⇒ a(D) = b(D)

Page 23: MASTER MASS 2 Univ. Nice Sophia Antipolis

1.2. VARIABLES ALEATOIRES 21

2. On considere les v.a. indicatrices

∀i ∈ I Xi = 1Di

Montrer queσ(Xi, i ∈ I) = a(D)

L’algebre a(D) est souvent notee abusivement σ(D).

3. Montrer que pour toute fonction f : 0, 1I → R nous avons

f((Xi)i∈I) ∈ σ(D)

Verifier que toutes les v.a. Z ∈ σ(D) sont necessairement de cette forme.

Exercice 1.2.5 Soit F une algebre de parties sur un ensemble fini Ω.

1. Montrer qu’il existe une partition D de Ω telle que

F = σ(D)

2. En deduire qu’il existe une collection finie de v.a. (Xi)i∈I a valeurs reelles sur Ω, tellesque

F = σ(Xi, i ∈ I)

1.2.3 Lois et esperances

Soit X : Ω → E une v.a. a valeurs dans un ensemble fini E, et definie sur un espaceprobabilise (Ω, P). Pour tout x ∈ X(Ω), le sous ensemble X−1(x) ⊂ Ω represente l’evenementsur lequel la v.a. X prend la valeur x. La probabilite de ces evenements est donnee par lafonction

PX : x ∈ E 7→ P

X(x) = P(X−1(x)) ∈ [0, 1]

Plus generalement, la probabilite pour que la v.a. X prenne ses valeurs dans B ⊂ E,est donnee par

∀B ⊂ E PX(B) = P(X−1(B))

La mesure de probabilite PX sur E ainsi definie est appelee la loi ou la distribution

de la v.a. X .

On note que

PX(B) = P(X−1(B)) = P(∪x∈BX−1(x)) =

x∈B

P(X−1(x))

On obtient ainsi une formule permettant de calculer directement la loi de chaque evenementA = X ∈ B ⊂ Ω, sans passer par l’espace probabilise (Ω, P)

PX(B) =

x∈B

PX(x)

Definition 1.2.4 L’esperance, ou la moyenne E(X) d’une v.a. reelle definie sur unespace de probabilites (Ω, P), est la quantite donnee par

E(X) =∑

ω∈Ω

X(ω) P(ω) =∑

x∈X(Ω)

x PX(x)

Page 24: MASTER MASS 2 Univ. Nice Sophia Antipolis

22 CHAPITRE 1. THEORIE DES PROBABILITES ELEMENTAIRE

Pour verifier la seconde formulation, on note simplement que

ω∈Ω

X(ω) P(ω) =∑

x∈X(Ω)

x∑

ω:X(ω)=x

P(ω) =∑

x∈X(Ω)

x PX(x)

Si X = (X1, X2) designe une v.a. a valeurs dans un espace produit fini (E1 × E2),nous avons pour toute fonction f : E1 × E2 → R

E(f(X1, X2)) =∑

ω∈Ω

f((X1, X2)(ω)) P(ω)

=∑

(x1,x2)∈(E1×E2)

f(x1, x2)

ω:(X1,X2)(ω)=(x1,x2)

P(ω)

=∑

(x1,x2)∈(E1×E2)

f(x1, x2) P(X1,X2)(x1, x2)

Lorsque les v.a. sont reelles, on obtient clairement la propriete de linearite

∀(a1, a2) ∈ R2

E(a1X1 + a2X2) = a1 E(X1) + a2 E(X2)

Exemple 1.2.5 Soit Ω = 0, 1, P(1) = 1 − P(0) = p ∈ [0, 1], l’espace probabilise associe a unjeu de pile ou face, avec probabilite de succes p. On note X la variable aleatoire canonique

X : ω ∈ Ω = 0, 1 −→ X(ω) = ω ∈ E = 0, 1

On a ainsi de facon immediate

∀x ∈ E PX(x) = px (1 − p)1−x

On note aussi queE(X) = 0 × (1 − p) + 1 × p = p

Exemple 1.2.6 On considere l’espace Ω = 0, 1n, muni de la probabilite

P(ω1, . . . , ωn) =

n∏

i=1

[p 11(ωi) + (1 − p) 10(ωi)]

Cet espace probabilise (Ω, P) correspond a une succession de n lancers d’une piece de monnaie,ayant une probabilite de succes p. On introduit la sequence de v.a.

Xi : ω = (ωi)1≤i≤n ∈ Ω = 0, 1n −→ Xi(ω) = ωi ∈ E = 0, 1

Ces n v.a. correspondent aux resultats des i-eme lancers. La loi du vecteur aleatoire identite

X = (X1, . . . , Xn) : ω ∈ Ω = 0, 1n −→ X(ω) = ω ∈ En = 0, 1n

est donnee pour tout x = (xi)1≤i≤d ∈ En, par la formule produit

PX(x) = P

(X1,...,Xn)(x1, . . . , xn) =

n∏

i=1

pxi (1 − p)1−xi =

n∏

i=1

PXi(xi)

Exemple 1.2.7 Soit Ω = −1, 1, P(1) = 1− P(−1) = p ∈ [0, 1], l’espace probabilise associe aune v.a. de Bernoulli a valeurs dans −1, 1. On note X la variable aleatoire canonique

X : ω ∈ Ω = −1, 1 −→ X(ω) = ω ∈ E = −1, 1

Page 25: MASTER MASS 2 Univ. Nice Sophia Antipolis

1.2. VARIABLES ALEATOIRES 23

On a clairement∀x ∈ E P

X(x) = px+12 (1 − p)−

x−12

On verifie enfin queE(X) = (−1) × (1 − p) + 1 × p = 2p − 1

Exemple 1.2.8 On considere l’espace Ω = −1, 1n, muni de la probabilite

P(ω) = P(ω1, . . . , ωn)

=

n∏

i=1

[p 11(ωi) + (1 − p) 1−1(ωi)]

=

n∏

i=1

pωi+1

2 (1 − p)1−ωi

2 = pn+

Pni=1 ωi2 (1 − p)

n−Pn

i=1 ωi2

Autrement dit, on a aussi

P(ω) = pn+

Pni=1 ωi2 (1 − p)n−

n+Pn

i=1 ωi2 = pN(ω) (1 − p)n−N(ω)

avec

N(ω) =

n∑

i=1

11(ωi) =n +

∑ni=1 ωi

2

On remarquera que

n +

n∑

i=1

ωi =

n∑

i=1

(ωi + 1)

=

n∑

i=1

(11(ωi) + 1) +

n∑

i=1

(1−1(ωi) + 1)

=n∑

i=1

(11(ωi) + 1) + 0 = 2n∑

i=1

11(ωi)

Cet espace probabilise (Ω, P) modelise les n deplacements aleatoires vers le haut, ou vers le bas,d’une particule evoluant sur Z. Ce modele probabiliste peut aussi representer les evolutions ala hausse, ou a la baisse, du cours d’un actif financier ; les successions de pertes ou gains lorsd’un processus de jeu d’argent,...

On introduit la sequence de v.a.

Xi : ω = (ωi)1≤i≤n ∈ Ω = −1, 1n −→ Xi(ω) = ωi ∈ E = −1, 1

Ces n v.a. correspondent aux i-eme deplacements de la particule. La loi du vecteur aleatoireidentite

X = (X1, . . . , Xn) : ω ∈ Ω = −1, 1n −→ X(ω) = ω ∈ En = −1, 1n

est ainsi donnee pour tout x = (xi)1≤i≤d ∈ En, par la formule produit

PX(x) = P

(X1,...,Xn)(x1, . . . , xn) =

n∏

i=1

p11(xi) (1 − p)1−1(xi) =

n∏

i=1

PXi(xi)

ou de facon equivalente, en terme du nombre de montees

PX(x) = p

n+Pn

i=1 xi2 (1 − p)n−

n+Pn

i=1 xi2

On notera enfin que

E(

n∑

i=1

Xi) =

n∑

i=1

E(Xi) = (2p − 1) n

Page 26: MASTER MASS 2 Univ. Nice Sophia Antipolis

24 CHAPITRE 1. THEORIE DES PROBABILITES ELEMENTAIRE

Proposition 1.2.3 Soit X : Ω → E une v.a. definie sur un espace probabilise (Ω, P) a valeursdans un espace fini E, et soit f : E → F une application arbitraire de E dans un espace finiauxiliaire F . Alors, la fonction composee

Y = f(X) = f X : ω ∈ Ω −→ Y (ω) = f(X(ω)) ∈ F

est une v.a. definie sur le meme espace probabilise (Ω, P), et distribuee sur F selon la loi

∀y ∈ Y PY (y) = P

X(f−1(y)) =∑

x : f(x)=y

PX(x)

Corollaire 1.2.1 Soit (X, Y ) un couple de v.a. sur un espace probabilise (Ω, P), distribue surun espace fini produit (E × F ) selon une loi P

(X,Y ). Alors, les lois respectives PX , et P

Y , desv.a. individuelles X, et Y , sont donnees par

PX(x) =

y∈F

P(X,Y )(x, y) et P

Y (y) =∑

x∈E

P(X,Y )(x, y)

Les formules precedentes s’etendent clairement au cas de plusieurs v.a. en “sommant lesv.a. indesirables”. Ainsi, la loi d’un vecteur (X1, . . . , Xn) se deduit d’un autre vecteur(X1, . . . , Xn+m) par la formule

P(X1,...,Xn)(x1, . . . , xn)

=∑

xn+1,...,xn+mP

((X1,...,Xn),(Xn+1,...,Xn+m))((x1, . . . , xn), (xn+1, . . . , xn+m))

Exercices

Les exercices suivants concernent de modeles d’urnes contenant m boules numerotees de 1a m. On selectionne successivement, et avec remise, n boules, et on note X1, X2, . . . , Xn lesnumeros des boules obtenues a la 1ere, 2eme,..., et nieme etape.

Exercice 1.2.6 Verifier que le n-uplet (X1, X2, . . . , Xn) est une v.a. pouvant etre realisee surl’espace produit introduit a la page 9. Montrer que pour tout indice 1 ≤ p ≤ n, et pour toutn-uplet (x1, . . . , xn) ∈ En = 1, . . . , mn, on a

P(X1,...,Xn)(x1, . . . , xn) = 1/mn et P

Xp(xp) = 1/m

Verifier queP(∀i 6= j Xi 6= Xj) = (m)n/mn

Exercice 1.2.7 Supposons que parmi les m boules, m1 sont noires et m2 sont rouges, avecm = m1 + m2. On note respectivement B1, et B2, l’ensemble des numeros des boules noires, etdes boules rouges. On considere la collection de v.a.

Yi = 1B1(Xi)

Verifier que pour tout 1 ≤ i ≤ n, et tout n-uplet (y1, . . . , yn) ∈ 0, 1n, on a

PYi(yi) =

(m1

m

)yi(m2

m

)1−yi

et

P(Y1,...,Yn)(y1, . . . , yn) =

(m1

m

)Pni=1 yi

(m2

m

)n−Pn

i=1 yi

On pose Sn =∑n

i=1 Yi. Montrer que l’on a pour tout k ∈ 0, . . . , n

PSn(k) = Ck

n

(m1

m

)k (m2

m

)n−k

Page 27: MASTER MASS 2 Univ. Nice Sophia Antipolis

1.2. VARIABLES ALEATOIRES 25

Exercice 1.2.8 Dans ce dernier exercice, les boules selectionnees ne sont pas remises dansl’urne.

1. Verifier que le n-uplet (X1, . . . , Xn) est une v.a. a valeurs dans l’espace produit E =1, . . . , mn, et sa loi est donnee par la formule suivante

P(X1,...,Xn)(x1, . . . , xn) = 1D(x1, . . . , xn)

1

(m)n

avec D = (x1, . . . , xn) ∈ E : ∀i 6= j xi 6= xj2. On note respectivement B1, et B2, l’ensemble des indices des boules noires, et des boules

rouges. Montrer que

|D ∩ Bn1 | = (m1)n et |D ∩ Bn

2 | = (m2)n

Plus generalement, verifier que pour toute collection d’indices (i1, . . . , in) ∈ 1, 2n, on a

|D ∩ (Bi1 × . . . × Bin)| = (m1)n1 (m2)n2 avec n1 =

n∑

p=1

11(i1) = n − n2

En deduire les formules

P(X1,...,Xn)(D ∩ (Bi1 × . . . × Bin

)) =(m1)n1 (m2)n2

(m)n

3. On pose Sn =∑n

k=1 1B1(Xk), verifier que la v.a. Sn est distribuee sur 0, . . . , n selon laloi

PSn(k) = Ck

n × (m1)k (m2)n−k

(m)n=

Ckm1

× Cn−km2

Cnm

1.2.4 L’independance

Definition 1.2.5 Deux v.a. X1 : Ω → E1, et X2 : Ω → E2, definies sur un memeespace probabilise (Ω, P), sont dites independantes, lorsque l’on a pour tout (x1, x2) ∈(E1 × E2)

P(X1,X2)(x1, x2) = P

X1(x1) × PX2(x2)

Plus generalement, n v.a. Xi : Ω → Ei, avec 1 ≤ i ≤ n, sont dites independantes,lorsque l’on a pour tout n-uplet (x1, . . . , xn) ∈ (E1 × . . . × En)

P(X1,...,Xn)(x1, . . . , xn) = P

X1(x1) × . . . × PXn(xn)

L’egalite precedente revient a dire que la loi du n-uplet (X1, . . . , Xn) est le produit tensorieldes lois des v.a. Xi ; on utilise parfois la notation synthetique suivante

P(X1,...,Xn) = P

X1 ⊗ . . . ⊗ PXn

On notera que cette condition est equivalente au fait que pour tout 1 ≤ k ≤ n, et toute collectiond’indices 1 ≤ ii < . . . < ik ≤ n,

P(Xi1 ,...,Xik

) = PXi1 ⊗ . . . ⊗ P

Xin

Definition 1.2.6 Deux evenements A1, A2 ∈ F sont dits independants lorsque les v.a.indicatrices (X1, X2) = (1A1 , 1A2) sont independantes.

Page 28: MASTER MASS 2 Univ. Nice Sophia Antipolis

26 CHAPITRE 1. THEORIE DES PROBABILITES ELEMENTAIRE

On notera que

A1, A2 independants ⇔ P(A1 ∩ A2) = P(X1,X2)((1, 1))

= PX1(1) × P

X2(1)= P

X1(1) × PX2(1)

= P(A1) × P(A2)

De meme que

P(A1 ∩ Ac2) = P

(X1,X2)((1, 0)) = PX1(1)PX2(0) = P(A1)P(Ac

2)

P(Ac1 ∩ A2) = P

(X1,X2)((0, 1)) = PX1(0)PX2(1) = P(Ac

1)P(A2)

P(Ac1 ∩ Ac

2) = P(X1,X2)((0, 0)) = P

X1(0)PX2(0) = P(Ac1)P(Ac

2)

Cependant, on a

P(A1 ∪ A2) = P(X1,X2)((1, 0), (0, 1), (1, 1))

= P(A1) + P(A2) − P(A1)P(A2) ≤ P(A1) + P(A2)

Definition 1.2.7 Les evenements A1, . . . , An, sont dits independants, si pour tout1 ≤ k ≤ n, et 1 ≤ ii < . . . < ik ≤ n, les v.a.

(Xi1 , . . . , Xik) = (1Ai1

, . . . , 1Aik)

sont independantes, ou encore de facon equivalente lorsque l’on a

P(Ai1 ∩ . . . ∩ Aik) = P(Ai1 ) × . . . × P(Aik

)

Exemple 1.2.9 Comme son nom l’indique, la notion d’independance reflete l’absence de touteinteraction entre les realisations de phenomenes aleatoires.

1. Les v.a. (X1, . . . , Xn) representant les resultats successifs de lancers de pieces de monnaie,ou encore celles associees aux montees et descentes lors d’une evolution de particule,etudiees dans les exemples 1.2.6, et 1.2.7, forment des collections de v.a. independantes.

2. Les v.a. (X1, . . . , Xn) representant les numeros des boules selectionnees avec remise dansune urne, et etudiees dans l’exercice 1.2.6, sont independantes.

3. Les indicatrices Xi = 1Aid’evenements independants Ai, forment des sequences de v.a.

independantes.

La notion d’independance entre v.a. permet d’elaborer une multitude de modelesprobabilistes, sans passer par une description precise de l’espace de probabilite sur lequelles v.a. se realisent, mais plutot fondes sur de nouvelles interpretations probabilistes. A titred’exemple, nous verrons tres bientot que la loi binomiale peut s’interpreter comme la sommev.a. elementaires de Bernoulli.

Cette notion d’independance est donc tres naturelle et intuitive. Neanmoins, dans certainessituations, certains jugements hatifs peuvent s’averer catastrophiques ! Nous laissons le soin aulecteur d’apprecier cette observation, en s’exercant sur les trois exercices suivants.

Exercice 1.2.9 On considere un espace d’evenements a quatre etats

Ω = ω1, ω2, ω3, ω4muni de la probabilite uniforme P(ωi) = 1/4. On considere les evenements suivants

A1 = ω1, ω2 A2 = ω2, ω3 A3 = ω1, ω4Verifier que ces trois evenements sont deux a deux independants, mais l’on a neanmoins

P(A1 ∩ A2 ∩ A3) 6= P(A1) × P(A2) × P(A3)

Page 29: MASTER MASS 2 Univ. Nice Sophia Antipolis

1.2. VARIABLES ALEATOIRES 27

Exercice 1.2.10 Soit Ω = 1, . . . , 62, l’espace des epreuves correspondant au lancer de deuxdes. On considere les evenements suivants.

A1 = (i, j) ∈ Ω : j ∈ 1, 2, 5 A2 = (i, j) ∈ Ω : j ∈ 4, 5, 6A3 = (i, j) ∈ Ω : i + j = 9 = (3, 6), (6, 3), (4, 5), (5, 4)

1. Verifier que

A1 ∩ A2 = (i, j) ∈ Ω : j = 5 A1 ∩ A3 = (4, 5)A2 ∩ A3 = (4, 5), (3, 6), (5, 4) A1 ∩ A2 ∩ A3 = (4, 5)

2. Montrer queP(A1 ∩ A2 ∩ A3) = P(A1) × P(A2) × P(A3)

mais, pour tout i 6= jP(Ai ∩ Aj) 6= P(Ai) × P(Aj)

Exercice 1.2.11 On considere un modele d’urne contenant m1 boules de couleur c1, m2 boulesde c2,..., et mr boules de couleur cr. On selectionne au hasard n boules avec remise, et l’on noteX1, . . . , Xn leurs couleurs.

1. Verifier que le n-uplet (X1, . . . , Xn) peut etre realise sur l’espace des suites

ω = (ω1, . . . , ωn) ∈ Ω = c1, . . . , crn

muni de la probabilite uniforme. Verifier que l’on a pour tout n-uplet d’indices(i1, . . . , in) ∈ 1, . . . rn

P(X1,...,Xn)(ci1 , . . . , cin

) =

n∏

p=1

mip

mavec m =

r∑

i=1

mi

2. Verifier que l’on a pour tout 1 ≤ p ≤ n, et pour tout i ∈ 1, . . . , r

PXp(ci) = mi/m

En conclure que les v.a. Xi sont independantes.

Exercice 1.2.12 On considere une suite d’evenements independants A1, . . . , An, se deroulantau cours du temps, avec la meme probabilite de realisation

p = P(Ai)

On associe a cette suite, la v.a. X =∑n

i=1 1Airepresentant le nombre de fois ou les evenements

se realisent.

1. Montrer que pour tout I ⊂ 1, . . . , n, tel que |I | = k, on a

P([∩i∈IAi] ∩ [∩i6∈IAci ]) = pk(1 − p)n−k

2. En deduire que X est distribuee sur E = 0, . . . , n, selon la loi

PX(k) = Ck

n pk(1 − p)n−k

Exercice 1.2.13 Soient X1, . . . , Xn une suite de n copies independantes d’une v.a. deBernoulli X sur 0, 1

P(X = 1) = 1 − P(X = 0) = p ∈ [0, 1]

1. Verifier que pour tout n-uplet (x1, . . . , xn) ∈ 0, 1n, on a

P(X1,...,Xn)(x1, . . . , xn) = p

Pni=1 xi(1 − p)n−

Pni=1 xi

2. Quelle est la loi de la v.a. de comptage Sn =∑n

i=1 Xi.

Page 30: MASTER MASS 2 Univ. Nice Sophia Antipolis

28 CHAPITRE 1. THEORIE DES PROBABILITES ELEMENTAIRE

1.3 Le conditionnement

1.3.1 Evenements

L’information la plus elementaire que l’on puisse considerer correspond a la donnee d’unevenement simple ; tel la connaissance de la parite d’un lancer de des, une region precise visiteepar une evolution aleatoire, la valeur d’un actif boursier a un date donnee, ou encore le niveaude saturation d’un reseau de communication. Pour predire d’autres evenements connexes aune telle information, il est necessaire de restreindre toutes les situations envisageables acette donnee. Cette restriction evenementielle se traduit mathematiquement par une simpleintersection ensembliste. Cette discussion nous amene a introduire les notions suivantes.

Definition 1.3.1 Soit (Ω, P) un espace de probabilites. La probabilite d’un evenementA ⊂ Ω, conditionnelle en un evenement B ⊂ Ω, tel que P(B) > 0, est la quantitedefinie par

P(A | B) = P(A ∩ B)/P(B)

Lorsque P(B) = 0, on pose P(A | B) = 0. Si X designe une v.a. reelle (a valeursdans un espace fini E), on definit l’esperance conditionnelle de X en l’evenement B,avec P(B) > 0, par la quantite

E(X | B) = E(X 1B)/E(1B) = E(X 1B)/P(B)

Lorsque P(B) = 0, on pose E(X | B) = 0.

Pour des variables indicatrices d’evenements X = 1A, avec A ⊂ Ω, ces deux notions coıncidentE(1A | B) = P(A | B).

L’esperance conditionnelle en un evenement herite des proprietes de linearite des esperancessimples. Plus precisement, pour tout couple de v.a. sont reelles (X1, X2), nous avons la proprietede linearite

∀(a1, a2) ∈ R2

E(a1X1 + a2X2 | B) = a1 E(X1 | B) + a2 E(X2 | B)

Avant de developper une serie de proprietes, commencons par visualiser ces deux objets sur unexemple elementaire.

Exemple 1.3.1 Dans l’exemple du jet de des uniforme sur Ω = 1, 2, . . . , 6, on a

P(2 | 2, 4, 6) =1/6

3/6= 1/3 et P(2 | 1, 3, 5) = 0

On notera que le resultat du lancer de des peut se representer par la v.a. identite

X : ω ∈ Ω = 1, . . . , 6 7→ X(ω) = ω ∈ R

Dans ce cas, nous avons

E(X | 2, 4, 6) =∑

x∈2,4,6

x P(x|2, 4, 6) = (2 + 4 + 6)/3 = 4

E(X | 1, 3, 5) =∑

x∈1,3,5

x P(x|1, 3, 5) = (1 + 3 + 5)/3 = 3

Il est important de souligner que ces notions de conditionnement sont en adequation parfaiteavec l’intuition et l’experience. Sachant que le resultat du lancer de des est l’une des trois valeurs

Page 31: MASTER MASS 2 Univ. Nice Sophia Antipolis

1.3. LE CONDITIONNEMENT 29

2, 4, ou 6, il y a bien evidement une chance sur 3 que le resultat soit le chiffre 2. La moyennedu lancer sera dans ce cas, le barycentre 4 des trois valeurs possibles 2, 4, 6.

1. [Evenements ordonnes.] Lorsque A ⊂ B, on dit que la realisation de l’evenement Aentraıne celle de B, ou plus formellement “A ⇒ B”, en ce sens ou ω ∈ A ⇒ ω ∈ B, soitencore en terme d’indicatrices 1A ≤ 1B . Cette interpretation est tres claire dans l’exempledu lancer de des. L’inclusion 2, 4 ⊂ 2, 4, 6 temoigne du fait que le resultat du lancersera necessairement pair si les chiffres 2 ou 4 se realisent. De meme que la realisation deschiffres 2 ou 4 est bien plus probable si l’on sait par avance que le resultat du lancer serapair. Le resultat qui suit est aussi intuitivement tres clair

A ⊂ B =⇒ P(A|B) = P(A)/P(B) ≥ P(A) et P(B|A) = 1

La premiere assertion montre que la probabilite a posteriori P(A|B) d’un evenement Aentraınant un evenement B est toujours plus grande que sa probabilite de realisation apriori P(A). Autrement dit, la connaissance d’un evenement B necessaire a la realisationde A apporte toujours de l’information. Autrement dit, la donnee de l’evenement B rendplus probable la realisation de A. La seconde assertion s’interprete de la facon suivante.Si la realisation de A entraıne celle de B ; lorsque A se realise, il en est de meme de B.

2. [Independance et conditionnement.] Lorsque les evenements A, et B, sontindependants, on note que

P(A ∩ B) = P(A) P(B) ⇒ P(A | B) = P(A) et P(B | A) = P(B)

3. [Conditionnement uniforme.]

Pour des probabilites uniformes P sur des espaces mesurables discrets (Ω,F), on a

P(A) = |A|/|Ω| ⇒ P(A | B) = |A ∩ B|/|B|

Dans cette situation, tout se passe comme si l’on “restreint” toute l’experience al’evenement B. Dans ce contexte, la notion de conditionnement est donc clairement lieea l’acquisition d’une nouvelle information sur l’experience : “l’evenement B se realise”.

4. [Formule de Bayes.]

Soit (Ai)i∈I une partition (finie) de Ω, et soit B un evenement de probabilite nonnulle P(B) > 0. La formule de Bayes permet de transformer une suite de probabilitesa priori (P(Ai))i∈I , en une suite de probabilites a posteriori (P(Ai|B))i∈I

∀i ∈ I P(Ai|B) =P(B|Ai) P(Ai)

j∈I P(B|Aj) P(Aj)

Preuve:On verifie aisement ce resultat en utilisant la symetrie de la formule

P(Ai ∩ B) = P(Ai|B)P(B) = P(B|Ai)P(Ai)

⇓P(Ai|B) =

1

P(B)P(B|Ai) P(Ai)

Page 32: MASTER MASS 2 Univ. Nice Sophia Antipolis

30 CHAPITRE 1. THEORIE DES PROBABILITES ELEMENTAIRE

La forme additive de la constante de normalisation, resulte simplement du fait que

j∈I

P(Aj |B) = 1 ⇒ P(B) =∑

j∈I

P(B|Aj) P(Aj)

L’exercice suivant offre une initiation a l’analyse statistique d’un probleme pratique. Le lecteurest vivement encourage a decrire un espace de probabilite precis rendant compte des evenementsen question. Pour developper son intuition probabiliste, on pourra s’exercer a trouver (ouretrouver) les reponses sans faire de calcul !

Exercice 1.3.1 Deux machines industrielles M1 et M2 ont des taux de production quotidienned’objets defectueux egaux a p1 = 5% et p2 = 10%. Chacune de ces machines M1 et M2 produitrespectivement m1 = 100, et m2 = 200 objets. Qu’elle est la probabilite pour qu’un objet prisau hasard soit defectueux ? Qu’elle est la probabilite pour que ce soit la premiere machine M1

qui l’ait produit ?

L’exercice suivant possede une structure temporelle interessante, permettant notamment deguider l’intuition probabiliste, et trouver ainsi une solution elementaire. Cette etude est paressence assez proche de la notion de processus de Markov que nous aborderons a la fin de cecours.

Exercice 1.3.2 Un sac contient 2 pieces de monnaie. L’une equitable, et ayant une probabilite1/2 de donner “pile” ou “face” ; la seconde ayant une probabilite 1/3 de donner “face”. Onlance au hasard l’une des pieces, et l’on observe un resultat “face”. Quelle est la probabilited’avoir choisi la piece equitable ?

Exercice 1.3.3 (Formule de Bayes sequentielle) Montrer que la probabilite conditionnelled’une realisation conjointe de n evenements (Ap)1≤p≤n par rapport a un evenement B (deprobabilite non nulle) est donnee par la formule multiplicative

P(∩np=1An|B)

= P(An|B ∩ [∩n−1p=1Ap]) P(An−1|B ∩ [∩n−2

p=1Ap]) . . . P(A2|B ∩ A1)P(A1|B)

=∏n

p=1 P(Ap|B ∩ [∩p−1q=1Aq ])

avec la convention∏

∅ = Ω, lorsque p = 1.

Exercice 1.3.4 Soient X1, . . . , Xn une suite de n copies independantes d’une v.a. de BernoulliX sur 0, 1

P(X = 1) = 1 − P(X = 0) = p ∈ [0, 1]

On note Sk =∑k

i=1 Xi, les variables de comptage du nombre de succes. Montrer que pour toutm ≤ n, et 0 ≤ k ≤ l ≤ n, on a

PSm|Sn(k|l) =

Cl−kn−m Ck

m

Cln

et PX1|Sn(1|l) =

l

n

Page 33: MASTER MASS 2 Univ. Nice Sophia Antipolis

1.3. LE CONDITIONNEMENT 31

1.3.2 Decompositions et sous algebres

La connaissance d’une famille d’evenements disjoints apporte bien entendu une informationplus fine que celle liee a un seul ! C’est le cas de la parite ou non d’un lancer de des, l’echec ou lesucces d’une experience, ou encore la donnee du niveau de saturation d’une file d’attente. Pourtraiter l’information contenue dans chaque evenement, on est amene a introduire un nouveaucadre fonctionnel pour detecter quel evenement “s’est realise”.

Definition 1.3.2 Soit D = (Di)i∈I une partition denombrable d’un espace fini Ω.Autrement dit, D est une decomposition de l’espace Ω en une suite d’evenementsdisjoints, c’est a dire

∀i > j ≥ 1 Di ∩ Dj = ∅, et Ω = ∪i∈IDi

La probabilite conditionnelle P(.|D) par rapport a D est la fonction (mesurable) sur(Ω ×P(Ω)) definie par

(ω, A) ∈ (Ω ×P(Ω)) 7→ P(A | D)(ω) =∑

i∈I

P(A|Di) 1Di(ω)

L’esperance conditionnelle d’une v.a. reelle X par rapport a une decomposition D estla fonction donnee par par

E(X | D)(ω) =∑

i∈I

E(X |Di) 1Di(ω)

Pour des variables indicatrices X = 1A, A ⊂ Ω, on a E(1A | D) = P(A | D). Enfin, on noteraque les fonctions

E(X | D) : ω ∈ Ω 7→ E(X | D)(ω)

sont mesurables non seulement par rapport a l’algebre discrete de reference P(Ω), mais aussipar rapport a l’algebre F = σ(D) (⊂ P(Ω)) engendree par la decomposition D. Pour verifiercette assertion, il suffit de noter que

E(X |D)−1(A) = ω ∈ Ω : E(X |D)(ω) ∈ A= ω ∈ Ω :

i∈I

E(X |Di) 1Di(ω) ∈ A = ∪i∈I : E(X|Di)∈ADi ∈ F = σ(D)

Pour souligner cette propriete on utilise souvent les notations suivantes :

F = σ(D) =⇒ E(X | F) = E(X | D)

Avec ces notations, et dans le cas de l’algebre triviale ∅, Ω (associee a la partition D = Ω),on notera que

E(X |∅, Ω) = E(X | Ω) = E(X)

Il est a nouveau important de souligner que les objets fonctionnels que nous venons dedefinir heritent des proprietes d’additivite, et de linearite des probabilites et des esperancesconditionnelles par rapport a un evenement. Plus precisement, pour tout couple de v.a. sontreelles (X1, X2), nous avons la propriete de linearite

Page 34: MASTER MASS 2 Univ. Nice Sophia Antipolis

32 CHAPITRE 1. THEORIE DES PROBABILITES ELEMENTAIRE

∀(a1, a2) ∈ R2

E(a1X1 + a2X2 | D) = a1 E(X1 | D) + a2 E(X2 | D)

Exemple 1.3.2 Reprenons l’exemple du jet de des uniforme decrit dans l’exemple 1.3.1, avecla partition D = 2, 4, 6, 1, 3, 5 de Ω = 1, . . . , 6 en evenements pairs ou impairs. Danscette situation, nous avons

P(2 | D) = P(2 | 2, 4, 6) 12,4,6 + P(2 | 1, 3, 5) 11,3,5

=1

312,4,6

et P(1, 3 | D) = 23 11,3,5. Ces decompositions fonctionnelles s’interpretent de la facon

suivante. Si le resultat de l’experience est pair, autrement dit si l’evenement 2, 4, 6 se realise,alors la probabilite d’avoir le chiffre 2 est de 1/3

ω ∈ 2, 4, 6 =⇒ P(2 | D)(ω) = 1/3

Inversement, si le resultat de l’experience est impair, autrement dit si l’evenement 1, 3, 5 serealise, alors la probabilite d’avoir le chiffre 2 est nulle. Autrement dit, nous avons

ω ∈ 1, 3, 5 =⇒ P(2 | D)(ω) = 0

Avec les notations de l’exemple 1.3.1, on obtient

E(X | D) = E(X | 2, 4, 6) 12,4,6 + E(X | 1, 3, 5) 11,3,5

= 4 12,4,6 + 3 11,3,5

Dans cette exemple, la propriete de a(D)-mesurabilite soulignee precedemment est assez simplea voir. On notera que

ω : P(2|D) = 1/3 = 2, 4, 6 = ω : E(X |D) = 4

1. [Representations fonctionnelles]. Lorsque D = B, Bc est la decomposition associeea un evenement B ⊂ Ω, avec P(B) ∈ (0, 1), on remarque que

P(A | D)(ω) = P(A|B) 1B(ω) + P(A|Bc) 1Bc(ω)

Dans cette situation, l’esperance conditionnelle d’une variable X par rapport a D =B, Bc est donnee par la v.a.

E(X | D)(ω) = E(X |B) 1B(ω) + E(X |Bc) 1Bc(ω)

Pour la partition triviale D = ∅, Ω, on a bien entendu la formule suivante

E(X |∅, Ω) = E(X |Ω) = E(X)

2. [Decompositions ordonnees].

Definition 1.3.3 Soit D′ = (D′i)i∈I′ et D = (Di)i∈I un couple de partitions sur Ω.

On dit que D′ est plus fine que D, ou encore D est plus grossiere que D′, et on noteD ⊂ D′, lorsque tout element de D s’exprime comme la reunions d’elements de D′

D ⊂ D′ ⇐⇒(∀i ∈ ∃Ii ⊂ I ′ Di = ∪j∈Ii

D′j

)

Cette propriete induit relation d’ordre partiel sur l’ensemble des partitions.

Page 35: MASTER MASS 2 Univ. Nice Sophia Antipolis

1.3. LE CONDITIONNEMENT 33

Dans cette situation, et d’apres la formule de factorisation, on a

Di ∩ D′j = (∪k∈Ii

D′k) ∩ D′

j = ∪k∈Ii(D′

k ∩ D′j) = 1Ii

(j) D′j

Par consequent, on obtient P(Di|D′j) = 1Ii

(j).

On montre alors aisement la formule de conditionnements emboıtes

D ⊂ D′ =⇒ E(E(X | D′) | D) = E(X | D)

valable pour toute v.a. reelle. En particulier, pour D = ∅, Ω, on trouve que

E(E(X | D′)) = E(X)

Preuve:On commence par noter que

E(E(X | D′) | Di) = E(∑

j∈I′

E(X | D′j) 1D′

j| Di)

=∑

j∈I′

E(X | D′j) P(D′

j ∩ Di)/P(Di)

D’apres la discussion precedente, on obtient

E(E(X | D′) | Di) =∑

j∈I′

E(X 1D′

j)

P(D′j ∩ Di)

P(D′j)P(Di)

=∑

j∈I′

E(X 1D′

j) P(Di|D′

j)/P(Di)

=∑

j∈Ii

E(X 1D′

j)/P(Di) = E(X 1Di

)/P(Di)

Par consequent, on aE(E(X | D′) | Di) = E(X | Di)

On en conclut que

E(E(X | D′) | D) =∑

i∈I

E(X |Di) 1Di= E(X | D)

3. [Sous algebres ordonnees]. Commencons par montrer qu’une sous algebred’evenements F ⊂ P(Ω) est toujours engendree par une partition D de Ω. Autrementdit, pour toute algebre F , il existe une unique partition D de Ω telle que

F = σ(D) = σ(1D : D ∈ D)

On construit cette partition, en choisissant le plus grand sous-ensemble D = (Di)i∈I formed’evenements deux a deux disjoints de F (voir exercice 1.2.5).

Soit F ′ une sous algebre de P(Ω), plus fine qu’une algebre donnee F , en ce sens ou

F = σ(D) ⊂ F ′ = σ(D′)

pour un couple (D,D′) de partitions de Ω. La formule de conditionnements emboıtesdecrite precedemment s’exprime en terme de sous algebres sous la forme suivante

Page 36: MASTER MASS 2 Univ. Nice Sophia Antipolis

34 CHAPITRE 1. THEORIE DES PROBABILITES ELEMENTAIRE

F ⊂ F ′ =⇒ E(E(X | F ′) | F) = E(X | F)

4. [Mesurabilite.] Pour toute v.a. reelle X , et pour toute algebre F = σ(D), engendree parune partition D, nous avons

X F − mesurable =⇒ E(X | F) = X

Preuve:On remarque que toute v.a. X , mesurable par rapport a une algebre σ((D), peut semettre sous la forme discrete X =

i∈I xi 1Di, pour certains nombres reels xi, tels que

Di = X−1(xi). Avec ces notations, on obtient

E(X | D) =∑

i∈I

xi P(Di | D) =∑

i∈I

xi [∑

j∈I

P(Di | Dj) 1Dj]

=∑

i∈I

xi [∑

j∈I

1i(j) 1Dj] =

i∈I

xi 1Di= X

1.3.3 Variables aleatoires

La notion de conditionnement entre v.a. discretes est par essence “assez proche” de lanotion de conditionnement par rapport a une decomposition de l’espace des evenements. Pours’en convaincre, on notera que les evenements associes aux differentes valeurs prises par une v.a.discrete forment une partition de l’espace des evenements elementaires, et inversement. Afinde souligner les liens entre cette nouvelle notion et les processus aleatoires, nous avons choisid’indicer les v.a. par des nombres entiers. Dans la suite du cours, lorsque nous aborderons lanotion de processus, ces indices entiers correspondront aux parametres temporels.

Definition 1.3.4 On se donne un couple de v.a. (X1, X2) a valeurs dans un espaceproduit fini (E1 × E2), muni de la tribu discrete P(E1 × E2). On supposera que cesvariables sont definies sur un espace probabilise (Ω, P). La loi conditionnelle de X2

en X1, est la collection de lois de probabilites PX2|X1(. | x1) sur (E2,P(E2)), indexee

par les x1 ∈ E1 et donnees par

x2 ∈ E2 7→ PX2|X1(x2|x1) = P(X2 = x2|X1 = x1) ∈ [0, 1]

pour tout x1 tel que PX1(x1) > 0. Lorsque P

X1(x1) = 0, on convient queP

X2|X1(x2|x1) = 0.

Lorsque PX1(x1) = 0, on observe que

PX1(x1) =

x2∈E2

PX1,X2(x1, x2) = 0 ⇒ ∀x2 ∈ E2 P

X1,X2(x1, x2) = 0

Notre convention (PX1(x1) = 0 ⇒ PX2|X1(x2|x1) = 0), est de ce fait naturelle, et coherente.

Lorsque les v.a. sont egales X1 = X2, on a clairement

PX1|X1(x2|x1) =

P(X1 = x1, X1 = x2)

P(X1 = x1)= 1x1(x2)

pour tout PX1(x1) > 0. On notera enfin la formule de conditionnement

Page 37: MASTER MASS 2 Univ. Nice Sophia Antipolis

1.3. LE CONDITIONNEMENT 35

P(X1,X2)(x1, x2) = P

X2|X1(x2|x1) PX1(x1) (1.3)

Exemple 1.3.3 Le jeu du lancer de des etudie dans l’exemple 1.3.1 peut etre decrit par lecouple de variables (X1, X2) sur Ω = 1, . . . , 6 definies par

X1(ω) = 12,4,6(ω) et X2(ω) = ω

La v.a. X2 represente le resultat de l’experience, et la v.a. X1 la parite du resultat. On noteraque X2 = i = i, pour chaque i = 1, . . . , 6, alors que

X1 = 1 = 2, 4, 6 et X1 = 0 = 1, 3, 5

On obtient ainsi immediatement les formules

∀i ∈ 2, 4, 6 PX2|X1(i|1) = 1/3 et P

X2|X1(i|0) = 0

∀i ∈ 1, 3, 5 PX2|X1(i|1) = 0 et P

X2|X1(i|0) = 1/3

On remarque que pour toute fonction f sur (E1 × E2)

E(f(X1, X2)) =∑

(x1,x2)∈(E1×E2)

f(x1, x2) PX2|X1(x2|x1) P

X1(x1)

=∑

x1∈E1

[∑

x2∈E2

f(x1, x2) PX2|X1(x2|x1)

]

PX1(x1) (1.4)

Definition 1.3.5 La quantite entre crochet dans la formule (1.4) correspond al’esperance de la v.a. f(X1, X2) en l’evenement X1 = x1

E(f(X1, X2)|X1 = x1) =∑

x2∈E2

f(x1, x2) pX2|X1(x2|x1) dx2

En particulier, lorsque X2 est une v.a. reelle on a

E(X2 | X1 = x1) =∑

x2∈E2

x2 PX2|X1(x2|x1)

Pour des fonctions indicatrices f = 1A2 , avec A2 ⊂ E2, on obtient

E(1A2(X2) | X1 = x1) = PX2|X1(A2|x1)

On verifie sans trop de peine que l’ensemble des evenements

Dx1 = X−11 (x1) = ω ∈ Ω : X1(ω) = x1 ⊂ Ω

lorsque x1 parcours E1, est une partition de Ω. Cette partition est dite engendree par la variableX1, et on la note DX1 = (Dx1)x1∈E1 . On notera que toute partition D = (Di)i∈I de Ω estengendree par une variable aleatoire X . Il suffit de poser

X =∑

i∈I

i 1Di

Dans cette situation, la v.a. X est a valeurs dans I , et on a Di = X−1(i), pour chaque i ∈ I ;autrement dit, nous avons D = DX .

Page 38: MASTER MASS 2 Univ. Nice Sophia Antipolis

36 CHAPITRE 1. THEORIE DES PROBABILITES ELEMENTAIRE

Avec ces notations, on retrouve les formules de conditionnement par rapport a desdecompositions, introduites dans la section precedente :

P(X2 = x2 | DX1 )(ω) =∑

x1∈E1

PX2|X1(x2|x1) 1X−1

1 (x1)(ω)

E(f(X2) | DX1 )(ω) =∑

x1∈E1

E(f(X2)|X1 = x1) 1X−11 (x1)

(ω)

Comme precedemment, on notera que les fonctions

E(f(X2)| DX1) : ω ∈ Ω 7→ E(f(X2) | DX1)(ω)

sont mesurables non seulement par rapport a l’algebre discrete P(Ω), mais aussi par rapporta la sous algebre σ(X1) = σ(DX1 ) ⊂ F , engendree par la decomposition DX1 ; ou de maniereequivalente, par la variable X1. En pratique, les deux formules precedentes sont d’un usage trescourant, et elles sont souvent notees

E(f(X2) | X1) = E(f(X2) | σ(X1)) = E(f(X2) | DX1)

Il est a nouveau important de souligner que les objets fonctionnels que nous venons de definirheritent des proprietes de linearite des probabilites et des esperances conditionnelles par rapporta une decomposition.

Exemple 1.3.4 On reprenant l’enoncer et les notations de l’exemple 1.3.3, nous avonsσ(X1) = Ω, ∅, 2, 4, 6, 1, 3, 5. Pour toute fonction f sur R, on obtient la formule

E(f(X2)|σ(X1))

= E(f(X2)|X1 = 1) 12,4,6 + E(f(X2)|X1 = 0) 11,3,5

= [f(2) + f(4) + f(6)]1

312,4,6 + [f(1) + f(3) + f(5)]

1

311,3,5

1. [Formule de Bayes.] Comme dans le cas des probabilites conditionnelles entreevenements, en utilisant la symetrie de la formule (1.3), on a

PX2|X1(x2|x1) P

X1(x1) = PX1|X2(x1|x2) P

X2(x2)

D’autre part, on remarque que

PX1(x1) =

(x1,x2)∈(E1×E2)

PX1,X2(x1, x2) =

x2∈E2

PX1|X2(x1|x2)P

X2(x2)

Ceci nous conduit assez rapidement a la formule de Bayes

PX2|X1(x2|x1) =

PX1|X2(x1|x2) P

X2(x2)∑

y2∈E2PX1|X2(x1|y2)PX2(y2)

2. [Formule de Bayes sequentielle.] La formule de conditionnement (1.3) s’etend a dessequences de v.a. (Xp)0≤p≤n definies sur un meme espace de probabilites (Ω,F , P), et avaleurs dans des espaces finis (Ep,P(Ep))0≤p≤n. Plus precisement, si on remplace dansdans (1.3) le couple X2, et X1, par Xn, et (X0, . . . , Xn−1), alors on obtient la formulerecursive suivante

Page 39: MASTER MASS 2 Univ. Nice Sophia Antipolis

1.3. LE CONDITIONNEMENT 37

P(X1...,Xn)|X0(x1, . . . , xn|x0)

= PXn|(X0,...,Xn−1)(xn|x0, . . . , xn−1) P

(X1...,Xn−1)|X0(x1, . . . , xn−1|x0)

On en deduit aisement la formule multiplicative

P(X1...,Xn)|X0(x1, . . . , xn|x0) = [

n∏

p=1

PXp|(X0,...,Xp−1)(xp|x0, . . . , xp−1)]

3. [Formule de decorrelation.] Pour tout couple de fonctions fi : Ei → R, avec i = 1, 2,on a

E(f1(X1)f2(X2))

=∑

(x1,x2)∈(E1×E2)f1(x1) f2(x2) P

X2|X1(x2|x1) PX1(x1)

=∑

x1∈E1

[∑

x2∈E2f2(x2) P

X2|X1(x2|x1)]

f1(x1) PX1(x1)

= E(E(f2(X2) | X1) f1(X1))

Par consequent, pour toute fonction f2 nous avons la propriete suivante

∀Y1 ∈ σ(X1) E(Y1 f2(X2)) = E(Y1 E(f2(X2) | X1)) (1.5)

4. [Independance et conditionnement]. Lorsque les variables X1 et X2 sontindependantes, on remarque que

P(X1,X2)(x1, x2) = P

X1(x1) PX2(x2) ⇒

P

X2|X1(x2|x1) = PX2(x2)

PX1|X2(x1|x2) = P

X1(x1)

Exercice 1.3.5 Soit (Xp)0≤p≤n une suite de v.a. definies sur un meme espace de probabilites(Ω,F , P), et a valeurs dans des espaces au plus denombrables (Ep,P(Ep))0≤p≤n. Supposons quela loi conditionnelle de la sequence (X1, . . . , Xn) en l’evenement X0 = x0 soit de la forme

P(X1...,Xn)|X0(x1, . . . , xn|x0)

= pn(xn|x0, . . . , xn−1) pn−1(xn−1|x0, . . . , xn−2) . . . p2(x2|x0, x1)p1(x1|x0)(1.6)

Dans la formule precedente, pk designe une suite de fonctions boreliennes positives, et tellesque

xkpk(xk |x0, . . . , xk−1) = 1, pour tout k ≥ 1, et pour toute sequence (x0, . . . , xk−1) ∈

(E0 × . . . Ek−1). Montrer que l’on a necessairement

PXk|(X0,...,Xk−1)(xk |x0, . . . , xk−1) = pk(xk|x0, . . . , xk−1)

Exercice 1.3.6 Soit (X1, X2) un couple de v.a. a valeurs dans un espace produit fini (E1×E2),muni de l’algebre discrete P(E1 × E2). Montrer que pour toute fonction f : E2 → R, on a laformule

E((f(X2) − E(f(X2) | X1))2)

= inf E((f(X2) − Y1)2) : Y1 v.a. σ(X1) − mesurable

Cette description variationnelle montre l’esperance conditionnelle est un estimateur optimal,en ce sens ou elle minimise la variance d’erreur.

Page 40: MASTER MASS 2 Univ. Nice Sophia Antipolis

38 CHAPITRE 1. THEORIE DES PROBABILITES ELEMENTAIRE

Exercice 1.3.7 Soit (X1, X2, X3) un triple de v.a. a valeurs un espace produit fini (E1 ×E2 ×E3), muni de l’algebre discrete. Montrer que pour toute fonction f : E3 → R, on a la formulede conditionnements emboıtes

E(E(f(X3) | X2, X1) | X1) = E(f(X3) | X1)

Page 41: MASTER MASS 2 Univ. Nice Sophia Antipolis

Chapitre 2

Processus aleatoires discrets

2.1 Introduction

La notion de processus aleatoire est l’une des notions les plus fructueuses de la theoriede probabilites. Ces modeles apparaissent des que l’on etudie des phenomenes evoluantaleatoirement au fil du temps : dynamiques de populations en biologie, ou de particuleselementaires en physique, processus de ruine dans des jeux de hasard, evolution de filesd’attentes dans des reseaux de communication, etc.

Nous avons deja rencontre de tels phenomenes dans les sections precedentes. En effet, touteexperience aleatoire formee d’une succession d’epreuves elementaires, peut s’interpreter commeun processus aleatoire. Ainsi, les lancers de pieces de monnaie, ou encore les selections de boulesdans une urne, peuvent s’interpreter sequentiellement, comme une succession d’experienceselementaires se deroulant dans le temps. Le resultat de telles experiences s’exprime comme unevenement elementaire dans un espace produit

ω = (ω0, . . . , ωn) ∈ Ωn = E × . . . × E︸ ︷︷ ︸

(n+1)−termes

= En+1

ou ω0 represente le resultat de l’experience initiale, et chaque composante ωp reflete le resultatde la p-ieme epreuve. Dans le jeu de pile ou face, ces aleas ωp ∈ E = 0, 1 representent leresultat du p-ieme lancer ; ωp = 0, si le resultat est pile, et ωp = 1, si le resultat est face.

Nous etudierons dans ce chapitre les differents modes de realisation d’un processus aleatoire.La premiere section offre un expose sur les interpretations de processus en terme d’arbresd’epreuves. Ces modeles graphiques permettent de visualiser la realisation d’un processusa chaque etape de son evolution. Nous examinerons separement les cas ou les transitionselementaires du processus dependent ou non du point de depart.

La seconde section concerne l’etude de l’information portee par un processus aleatoireau cours de son evolution. Dans un premier temps, nous examinerons en detail deux typesde realisations de marches aleatoires sur la droite reelle. Cette exemple nous permettra devisualiser graphiquement l’information decrite par l’evolution du processus. Par la suite, nousexaminerons les notions plus generales d’evenements cylindriques, et de filtrations d’algebressur des espaces d’aleas. Ces modeles ensemblistes nous permettront de decrire de facongenerale et abstraite des evolutions d’environnements aleatoires complexes. Dans le cadredes mathematiques financieres, ces environnements aleatoires correspondent a des evolutionsde prix d’actions, des strategies de financements de portefeuilles d’agents, des variations detaux d’interets d’emprunts ou de placement, des evolutions de conjonctures economiquesou geopolitiques nationales, ou internationales. Dans ce contexte, ces filtrations croissantesd’algebres correspondent aux informations percues par un observateur du marche financier, etdes conjonctures internationales.

La troisieme partie de ce chapitre concerne les decompositions canoniques de processusaleatoires sur la base d’une filtration croissante d’algebres evenementielles. Les decompositions

39

Page 42: MASTER MASS 2 Univ. Nice Sophia Antipolis

40 CHAPITRE 2. PROCESSUS ALEATOIRES DISCRETS

presentees dans cette section refletent les tendances locales, previsibles ou non, d’un processusaleatoire donne, par rapport aux informations recues au cours du temps.

Les quatrieme et cinquieme sections sont consacrees a l’etude des martingales. Ces processusrepresentent en quelque sorte des processus aleatoires imprevisibles par rapport a une sequenced’observations donnee. La premiere partie offre un expose synthetique sur les principalesproprietes de ces processus. Dans la seconde partie, nous examinerons les applications de latheorie des martingales a la theorie des jeux aleatoires. Nous presenterons notamment desstrategies de jeux equitables et aleatoires permettant de gagner la mise sur des evenementstres probables. Enfin, nous presenterons une technique de simulation d’une martingale aconditions terminales fixees. Cet algorithme sera utilise dans le chapitre suivant, concernantles mathematiques financieres, pour simuler une option, et decrire le portefeuille de couvertureassocie.

2.2 Arbres et chaınes de Markov

L’evolution temporelle de ces phenomenes aleatoires peut s’interpreter comme l’explorationaleatoire d’un arbre deterministe representant toutes les realisations possibles de l’experienceen question.

La construction naturelle de cet arbre consiste a tracer pas a pas, et depuis unnoeud originel, tous les chemins conduisant aux resultats envisageables (deux a deuxincompatibles avec les premieres epreuves). Chaque evenement elementaire

ω = (ω0, . . . , ωn) ∈ Ωn = En

correspond ainsi a un chemin, ou a une branche, allant du noeud initial a l’undes noeuds terminaux. Il est important de noter que l’instant n joue ici le rolebien particulier d’horizon terminal du processus. En d’autres termes, le parametren correspond a la hauteur de l’arbre des epreuves.On affecte ensuite a chacun des chemins elementaires, leurs probabilites de realisationrespectives.La probabilite de suivre un chemin donne au cours de l’experience, n’est autreque le produit des probabilites elementaires le long du chemin. La probabilite d’unevenement aleatoire forme de plusieurs chemins est la somme des probabilites deschemins.

2.2.1 Feuillages de Bernoulli

Les processus aleatoires les plus elementaires sont formes de n successions d’evenementselementaires independants, et a valeurs dans des espaces reduits a deux points. Ces phenomenesaleatoires biphases peuvent etre representes mathematiquement par des sequences de v.a.independantes εk, de lois de Bernoulli

µk(u) = αk 11(u) + (1 − αk) 10(u) avec αk ∈ [0, 1], et 0 ≤ k ≤ n

Le couple de symboles 0, 1 peut representer tout type de phenomene biophysiques, tel le jeudu pile ou face, l’ouverture ou la fermeture d’un interrupteur electrique, ou l’echec ou le succesd’une experience. Ces processus s’expriment de facon naturelle sur l’espace produit

Ωn = ω : ω = (ω0, . . . , ωn) ∈ En+1 = En+1 avec E = 0, 1 (2.1)

muni de la mesure de probabilite produit

Pn(ω0, . . . , ωn) =

n∏

k=0

(αk 11(ωk) + (1 − αk) 10(ωk))

Page 43: MASTER MASS 2 Univ. Nice Sophia Antipolis

2.2. ARBRES ET CHAINES DE MARKOV 41

Plus precisement, si l’on considere les v.a. canoniques

(ε0, . . . , εn) : ω ∈ Ωn 7→ ω = (ω0, . . . , ωn) ∈ En+1

on verifie aisement que pour toute sequence (u0, . . . , un) ∈ En+1, on a

(ε0, . . . , εn)−1((u0, . . . , un)) = (u0, . . . , un)

Par consequent, et par definition des lois de probabilites de v.a., la sequence (ε0, . . . , εn) estdistribuees selon la loi trajectorielle definie par la mesure produit

P(ε0,...,εn)(u0, . . . , un) = Pn((ε0, . . . , εn)−1((u0, . . . , un)))

= Pn(u0, . . . , un) =

n∏

k=0

(αk 11(uk) + (1 − αk) 10(uk))

La figure suivante represente l’arbre des epreuves associe a ce modele de Bernoulli lorsque n = 2.

k=0 k=1 k=2

0

1

1

1

1

0

0

0

0

1

1

0

1

1−a0

a0

1−a1

1−a2

1−a2

1−a2

1−a2

1−a2

a1

a1

a2

a2

a2

a2

w^1=(0,0,0)

w^2=(0,0,1)

w^3=(0,1,0)

w^4=(0,1,1)

w^5=(1,0,0)

w^6=(1,0,1)

w^7=(1,1,0)

w^8=(1,1,1)

Omega_n=w^i : i=1,...,8

n=2

Fig. 2.1 – Arbre de Bernoulli

Exemple 2.2.1 La mesure de probabilite correspondant a une succession de n experiencesaleatoires homogenes en temps, et a valeurs dans 0, 1, est donnee par la mesure produit

Pn(ω) = Pn((ω1, . . . , ωn)) = pω1(1 − p)1−ω1 × . . . × pωn(1 − p)1−ωn avec p ∈ [0, 1]

Dans ce contexte, l’evenement Ak correspondant a k succes (i.e.∑n

i=1 ωi = k), est forme deschemins ω = (ω1, . . . , ωn) ∈ 0, 1n contenant exactement k fois 1. La probabilite de chacun deses chemins est donnee par

Pn(ω) = Pn((ω1, . . . , ωn)) = pPn

i=1 ωi(1 − p)n−Pk

i=1 ωi = pk (1 − p)n−k

Comme il y a Ckn chemins possibles contenant exactement k fois le chiffre 1, la probabilite de

l’evenement en question est donnee par la loi binomiale

P(Ak) = Ckn pk(1 − p)n−k

Page 44: MASTER MASS 2 Univ. Nice Sophia Antipolis

42 CHAPITRE 2. PROCESSUS ALEATOIRES DISCRETS

2.2.2 Feuillages chaotiques

Comme nous l’avons souligne dans l’introduction, une suite de v.a. independantes

(ε0, ε1, . . . , εn)

arbitraires, de lois respectives µ0, . . . , µn sur un espace fini E, peu s’interpreter comme unprocessus aleatoire evoluant chaotiquement dans E. Ce processus elementaire prend a chaqueinstant k, une valeur aleatoire εk, independante des etats passes de l’evolution ε0, . . . , εk−1.La sequence de v.a. de Bernoulli examinee precedemment est un cas particulier de telsprocessus. Les trajectoires aleatoires de ce modele probabiliste peuvent a nouveau etre decritescanoniquement sur l’espace produit

Ωn = ω : ω = (ω0, . . . , ωn) ∈ En+1 = En+1

muni de la mesure de probabilite

Pn(ω0, . . . , ωn) = µ0(ω0) . . . µn(ωn)

Par un raisonnement analogue a celui utilise dans le cadre des v.a. de Bernoulli, on verifie sanstrop de peine que les variables aleatoires trajectorielles canoniques

(ε0, . . . , εn) : ω ∈ Ωn = En+1 7→ ω ∈ En+1

sont distribuees selon la mesure produit

P(ε0,...,εn)(u0, . . . , un) = µ0(u0) . . . µn(un)

Ce processus elementaire, lorsque E = 0, 1, 2, peut se representer schematiquement par l’arbredes epreuves decrit dans la figure suivante. Compte tenu de l’explosion combinatoire, poursimplifier la presentation, certaines branches ont ete omises, et seule une partie des transitionssont specifiees.

Page 45: MASTER MASS 2 Univ. Nice Sophia Antipolis

2.2. ARBRES ET CHAINES DE MARKOV 43

0

0

11

1

2

2

2

2

1

0

2

1

0

0

1

22

0

1

0

k=0 k=1 k=2

mu_0(0)

mu_0(2)

mu_0(1)

mu_1(0)

mu_1(0)

mu_1(2)

mu_1(2)

mu_1(2)

mu_1(0)

mu_2(0)

mu_2(2)

mu_2(0)

mu_2(2)

Fig. 2.2 – Arbre chaotique

2.2.3 Feuillages markoviens

Dans les sections precedentes, nous avons etudie les interpretations en terme d’arbres,d’espace d’evenements Ωn definis par des espaces produits

Ωn = ω : ω = (ω0, . . . , ωn) ∈ En+1 = En+1

ou E designe un espace fini. Dans ce contexte, chaque alea ω = (ω0, . . . , ωn) ∈ Ωn corresponda la donnee d’une branche sur l’arbre des epreuves

ω0 −→ ω1 −→ . . . −→ ωn−1 −→ ωn

Les feuillages markoviens correspondent a la situation ou les probabilite de passage d’un noeuddonne ωp a un autre ωp+1 ne sont pas independantes du noeud de depart. Pour decrire cettesituation, on se donne une famille de matrice stochastiques

Mk = (Mk(x, y))x,y∈E

avec 0 ≤ k ≤ n.

Page 46: MASTER MASS 2 Univ. Nice Sophia Antipolis

44 CHAPITRE 2. PROCESSUS ALEATOIRES DISCRETS

Une matrice stochastique Mk, est une matrice a entrees positives, dont la somme destermes de chaque ligne vaut 1

∀(x, y) ∈ E2 Mk(x, y) ≥ 0 et∑

y∈E

Mk(x, y) = 1

On interprete les entrees de chaque ligne (Mk(x, y))y∈E , comme les probabilites de passage dupoint x vers l’un des etats possibles y ∈ E.

x

E=1,2,....,d

1

2

i

(d−1)

d

M(x,1)

M(x,2)

M(x,(d−1))

M(x,d)

M(x,i)

Fig. 2.3 – Probabilites de transitions

On affecte ensuite a chaque chemin elementaire (ωk−1 ωk) de l’arbre des epreuves, laprobabilite Mk(ωk−1, ωk).

w1 w2 w3 w4 w5w0

M1(w0,w1) M2(w1,w2) M3(w2,w3) M4(w3,w4) M5(w4,w5)

v0 v1 v2 v3 v4 v5mu0(v0)

mu0(w0)

M1(v0,v1) M5(v4,v5)M2(v1,v2) M3(v2,v3) M4(v3,v4)

Fig. 2.4 – Probabilites de transitions

Comme precedemment, la probabilite de partir d’un etat initial ω0, choisi selon une loi µ0

sur E, puis suivre un chemin donnee

ω0 −→ ω1 −→ . . . −→ ωk−1 −→ ωk −→ . . . −→ ωn

au cours de l’experience, est donnee par le produit des probabilites elementaires le long de cechemin

Pn(ω0, . . . , ωn) = µ0(ω0)M1(ω0, ω1) . . . Mn(ωn−1, ωn)

Il est souvent utile d’etendre les modeles precedents a des processus evoluant a chaqueinstants p dans des espaces Ep dependants du parametre temporel.

Page 47: MASTER MASS 2 Univ. Nice Sophia Antipolis

2.2. ARBRES ET CHAINES DE MARKOV 45

L’espace des evenements associes a ces situations non homogenes sont definis de lafacon suivante

Ωn = ω : ω = (ω0, . . . , ωn) ∈ E0 × . . . × En= E0 × E1 × . . . × En

ou (Ep)0≤p≤n designe une suite d’espaces finis. Les interpretations arborescentes deces espaces sont definies comme precedemment, en considerant des feuillages nonhomogenes. La probabilite de suivre un chemin

ω0 −→ ω1 −→ . . . −→ ωk−1 −→ ωk −→ . . . −→ ωn

est toujours donnee par le produit des probabilites elementaires le long de ce chemin

Pn(ω0, . . . , ωn) = µ0(ω0)M1(ω0, ω1) . . . Mn(ωn−1, ωn)

Dans ce cadre non homogene en temps, Mk designe une collection de matricesstochastiques representant les probabilites de transition de l’espace Ek−1, vers l’espaceEk.

La figure suivante represente l’arbre des epreuves associe a une evolution aleatoire entre lesespaces suivants

E0 = 1 E1 = 1, 2, 3 E2 = 1, 2 E3 = 1 E4 = 1, 2

1

1

1 1

1

2

2

2

2

2

2

2

2

3

1

1

1

1

1

1

12

1

1

1

1

w^1=(1,1,1,1)

w^3=(1,1,2,1,1)

2

w^5=(1,2,1,1,1)

w^6=(1,2,1,1,2)

w^7=(1,2,2,1,1)1

w^8=(1,2,1,1,2)

w^9=(1,3,1,1,1)

w^11=(1,3,2,1,1)

w^12=(1,3,2,1,2)

w^10=(1,3,1,1,2)

w^4=(1,1,2,1,2)

w^2=(1,1,1,2)

Fig. 2.5 – Evolution non homogene

La loi P(X0,...,Xn)n de la v.a. trajectorielle (X0, . . . , Xn) canonique

(X0, . . . , Xn) : ω ∈ Ωn 7→ (X0(ω), . . . , Xn(ω)) = (ω0, . . . , ωn) ∈ (E0 × . . . × En)

est donnee pour toute trajectoire (x0, . . . , xn) ∈ (E0× . . .×En) par la formule produit

P(X0,...,Xn)n (x0, . . . , xn) = µ0(x0)M1(x0, x1) . . . Mn(xn−1, xn)

De telles sequences de v.a. (Xk)0≤k≤n sont appeles des chaınes de Markov, a valeursdans les espaces (Ek)0≤k≤n, de probabilites de transitions (Mk)0≤k≤n, et de loi initialeµ0.

Page 48: MASTER MASS 2 Univ. Nice Sophia Antipolis

46 CHAPITRE 2. PROCESSUS ALEATOIRES DISCRETS

2.3 Processus aleatoires

Cette section a pour objectif d’introduire un certain nombre de notions abstraites, etfondamentales, sur lesquelles est edifiee la theorie des processus aleatoires. Les notions defiltration d’algebres, d’adaptation, et de previsibilite, font partie du langage courant duprobabiliste. Elles permettent en quelques mots de preciser les caracteristiques d’un modelealeatoire, sans rentrer dans la construction detaillee des espaces probabilises sur lesquels sontdefinis les processus etudies. Enfin, ce cadre abstrait revele de nombreuses proprietes analytiquesou algebriques universelles de phenomenes aleatoires spatio-temporels.

2.3.1 Marches aleatoires

Considerons une suite de v.a. independantes ε0, . . . , εn, a valeurs dans −1, 1, de meme loide Bernoulli

µ(u) = α 11(up) + (1 − α) 1−1(up) avec α ∈ [0, 1]

On associe a cette suite aleatoire, la sequence des v.a. (Xk)0≤k≤n definies par

Xk = ε1 + . . . + εk = Xk−1 + εk k = 1, . . . , n

avec X0 = 0. La suite aleatoire ainsi construite forme clairement un processus aleatoire aincrements independants

∆Xk =def. (Xk − Xk−1) = εk

Ce processus est initialise en l’origine X0 = 0, et il evolue de l’espace

Ek =

k∑

l=1

ul : (u1, . . . , uk) ∈ −1, 1k

= (1) × l + (−1) × (k − l) : l = 0, . . . , k = 2k − l : l = 0, . . . , k

vers Ek+1 selon les transitions de probabilites Mk+1(x, y) donnees pour tout x ∈ Ek par laformule

Mk+1(x, y) = α 1x+1(y) + (1 − α) 1x−1(y)

Cette chaıne de Markov est appelee une marche aleatoire sur la droite reelle. Son interpretationdepend du domaine d’application. En physique, Xk represente la position d’une particuleelementaire evoluant a chaque etape, soit d’un pas vers l’avant, soit d’un pas vers l’arriere.En biologie, ce processus aleatoire s’interprete plutot comme un processus de naissance et mortdans une population initialement formee de X0 individus. En theorie des jeux, Xk representeles pertes et gains successifs au cours d’un jeu de hasard. Enfin, en mathematiques financieres,les v.a. de Bernoulli εk correspondent aux tendances a la hausse, ou a la baisse, du cours d’uneaction.

Le processus que nous venons de definir admet deux types d’interpretations arborescentes :

1) La premiere interpretation est associee associee aux multiples choix des incrementsaleatoires ∆Xp = εp, lors de l’evolution du processus depuis son origine, jusqu’au tempsterminal n. Ce modele d’arbre coıncide avec l’interpretation arborescente de l’espace des aleas

Ωεn = ω : ω = (ω1, . . . , ωn) ∈ −1, 1n

muni de la mesure de probabilite produit

Pεn(ω1, . . . , ωn) = µ(ω1) . . . µ(ωn)

La figure suivante donne l’interpretation graphique de l’espace des aleas Ωεn, lorsque n = 2.

Page 49: MASTER MASS 2 Univ. Nice Sophia Antipolis

2.3. PROCESSUS ALEATOIRES 47

+1

+1

+1

−1

−1

−1

−1

+1

+1

−1

+1

−1

+1

−1

n=3

Omega_3^epsilon

w^1=(+1,+1,+1)

w^4=(+1,−1,−1)

w^8=(−1,−1,−1)

w^6=(−1,+1,−1)

w^7=(−1,−1,+1)

w^5=(−1,+1,+1)

w^3=(+1,−1+1)

w^2=(+1,+1,−1)

Fig. 2.6 – L’espace Ωε2 = ωi : i = 1, . . . , 8

On observe que chaque sequence d’increments

ω = (ω1, . . . , ωn) ∈ Ωεn = −1, 1n

conduit le processus a suivre la trajectoire

0 ∈ E0 → ω1 ∈ E1 → (ω1 + ω2) ∈ E2 → . . . → (ω1 + . . . + ωn) ∈ En

On definit ainsi le processus (X0, . . . , Xn) sur l’espace probabilise (Ωεn, Pε

n). Plus precisement,on realise la chaıne de Markov X en terme du processus canonique des increments

(ε1, . . . , εn) : ω = (ω1, . . . , ωn) ∈ Ωεn 7→ ω = (ω1, . . . , ωn) ∈ −1, 1n

par la donnee de l’application

(X0, . . . , Xn) : ω ∈ Ωεn 7→ (X0(ω), . . . , Xn(ω)) ∈ (E0 × . . . × En)

avec, pour chaque sequence d’increments ω = (ω1, . . . , ωn) ∈ Ωεn

(X0(ω), X1(ω), X2(ω), . . . , Xn(ω))

= (0, ε1(ω), ε1(ω) + ε2(ω), . . . ,∑n

p=1 εp(ω))

= (0, ω1, ω1 + ω2, . . . ,∑n

p=1 ωp) ∈ (E0 × E1 × E2 × . . . × En)

Par construction, la loi de la trajectoire (X0, . . . , Xn) est donnee par

P(X0,...,Xn)n (x0, . . . , xn)

= Pεn(ω ∈ Ωε

n : (X0(ω), . . . , Xn(ω)) = (x0, . . . , xn))

= Pεn(ω ∈ Ωε

n : (0, ω1, ω1 + ω2, . . . ,∑n

p=1 ωp) = (x0, x1, . . . , xn)

= 10(x0) Pεn((x1, x2 − x1, x3 − x2, . . . , xn − xn−1)

Par definition de Pεn, on obtient

P(X0,...,Xn)n (x0, . . . , xn) = 10(x0) µ(x1) µ(x2 − x1) . . . µ(xn − xn−1)

= 10(x0) M1(x0, x1) . . . Mn(xn−1, xn)

Page 50: MASTER MASS 2 Univ. Nice Sophia Antipolis

48 CHAPITRE 2. PROCESSUS ALEATOIRES DISCRETS

2) La seconde interpretation est associee aux chemins canoniques de l’evolution de la chaıne deMarkov. Dans cette situation, le modele d’arbre coıncide avec l’interpretation arborescente del’espace canonique

ΩXn = (E0 × E1 × . . . × En)

muni de la mesure de probabilite markovienne

PXn (ω0, ω1, . . . , ωn) = 10(ω0)M1(ω0, ω1) . . . Mn(ωn−1, ωn)

et de la v.a. canonique

(X0, . . . , Xn) : ω ∈ ΩXn 7→ (X0(ω), . . . , Xn(ω)) = (ω0, . . . , ωn) ∈ (E0 × . . . × En)

Par construction, la loi de la trajectoire (X0, . . . , Xn) est clairement donnee par

P(X0,...,Xn)n (x0, . . . , xn) = 10(x0) M1(x0, x1) . . . Mn(xn−1, xn)

La figure suivante represente l’interpretation graphique de l’espace des aleas ΩXn , lorsque

n = 4, en terme d’un arbre binomial.

+1

−1

+2

0

−2

+3

+4

2

0

+1

−1

−3

−4

0

E_0=0 E_2=−2,0,2]E_1=−1,+1 E_3=−3,−1,+1,+3

−2

E_4=−4,−2,0,2,−4

Fig. 2.7 – L’espace ΩX4

Page 51: MASTER MASS 2 Univ. Nice Sophia Antipolis

2.3. PROCESSUS ALEATOIRES 49

En resume, une marche aleatoire est une chaıne de Markov (Xk)0≤k≤n definie surun espace de probabilites (Ω, P), d’origine X0 = 0 et de probabilites de transitionshomogenes

M(x, y) =def. P(Xk = y | Xk−1 = x) = PXk|Xk−1(y|x)

= α 1x+1(y) + (1 − α) 1x−1(y) avec α ∈ [0, 1]

Pour decrire une realisation dynamique de cette chaıne, on se donne une suite de v.a.independantes (εk)1≤k≤n distribuees sur −1, +1 selon la meme loi de Bernoulli

P(εk = +1) = 1 − P(ε= − 1) = α

On associe a cette sequence, le systeme dynamique aleatoire donne par

Xk = Xk−1 + εk

X0 = 0(2.2)

2.3.2 Evenements cylindriques

Dans l’exemple de la marche aleatoire, nous avons exhibe deux types de realisations d’unmeme processus aleatoire (X0, . . . , Xn) ; l’une associee a la realisation canonique d’une suite dev.a. independantes (ε1, . . . , εn) sur un espace probabilise (Ωε

n, Pεn) ; la seconde correspondant a

la realisation canonique classique de la chaıne sur un espace probabilise (ΩXn , PX

n ).

Il existe donc en general de nombreux choix d’espaces probabilises (Ωn, Pn) sur lesquelsun meme processus aleatoire (X0, . . . , Xn) peut etre realise. En pratique, le choix d’un espacedepend du degre de finesse avec lequel on souhaite decrire le processus.

Afin d’eclaircir la presentation, et de preciser les interpretations graphiques des diversesnotions que nous allons introduire, nous conviendrons par la suite qu’une chaıne de Markovdonnee est toujours definie sur son espace probabilise canonique

Ωn = (E0 × E1 × . . . × En)

Pn(ω0, ω1, . . . , ωn) = µ0(ω0)M1(ω0, ω1) . . . Mn(ωn−1, ωn)

avec

(X0, . . . , Xn) : ω ∈ Ωn 7→ (X0(ω), . . . , Xn(ω)) = (ω0, . . . , ωn) ∈ (E0 × . . . × En)

On rappelle que la loi P(X0,...,Xn)n de la v.a. trajectorielle (X0, . . . , Xn) sur (E0 × . . . × En) est

donnee pour toute trajectoire (x0, . . . , xn) ∈ (E0 × . . . × En) par la formule produit

P(X0,...,Xn)n (x0, . . . , xn) = µ0(x0)M1(x0, x1) . . . Mn(xn−1, xn)

Ce modele canonique nous permettra a la fois d’introduire naturellement, et d’etudierrigoureusement, diverses notions structurelles associees a l’evolution du processus aleatoire.Nous reviendrons sur la non unicite du choix des espaces probabilises, lorsque nous aborderonsla notion d’adaptation du processus a une filtration d’algebres d’evenements.

Page 52: MASTER MASS 2 Univ. Nice Sophia Antipolis

50 CHAPITRE 2. PROCESSUS ALEATOIRES DISCRETS

On represente l’information associee au deroulement d’un processus

X0 → X1 → . . . → Xk−1 → Xk

depuis son origine jusqu’a un instant k ∈ 0, . . . , n, par la donnee de la decompositionDn,X

p de Ωn, definie ci-apres

Dn,Xk =def.

An

k (x0, . . . , xk), (x0, . . . , xk) ∈ Ek+1

avec les evenements

Ank (x0, . . . , xp) = (X0, . . . , Xk)−1((x0, . . . , xk))

= ω ∈ Ωn : (X0(ω), . . . , Xk(ω)) = (x0, . . . , xk)

On notera que chaque evenement cylindrique Ank (x0, . . . , xk) contient bien toute

l’information connue sur la trajectoire, depuis son origine jusqu’au temps p. En effet, parconstruction, nous avons

∀ ω ∈ Ank (x0, . . . , xk) X0(ω) = x0, X1(ω) = x1, . . . , Xk(ω) = xk

On retiendra que l’evenement compose Ank (x0, . . . , xk) est forme de tous les aleas

elementaires ω ∈ Ωn conduisant le processus a suivre la trajectoire (x0, . . . , xk) depuisson origine, jusqu’au temps k.

Il est particulierement interessant de visualiser graphiquement ces evenements cylindriquessur l’arbre de epreuves. Plus precisement, sur l’espace canonique l’evenement

Ank (x0, . . . , xk) = ω ∈ Ωn : (X0(ω), . . . , Xk(ω)) = (x0, . . . , xk)

= (x0, . . . , xk) × Ek+1 × . . . × En

correspond au sous-arbre ou a la ramification, forme de la branche issue du noeud originel,passant respectivement par les noeuds intermediaires x1, ..., et xk, puis complete par le restede l’arbre issu du dernier noeud xk .

x0 x1 x2 xk

A_k^n(x0,x_1,...,xk)

n=k+(n−k)k+3k+2k+1

x(k−1)

Fig. 2.8 – Evenements cylindriques

Page 53: MASTER MASS 2 Univ. Nice Sophia Antipolis

2.3. PROCESSUS ALEATOIRES 51

La trajectoire du processus, depuis l’origine jusqu’au temps k. s’exprime sur chacunde ces evenements, par la formule synthetique suivante

(X0, . . . , Xk) =∑

(x0,...,xk)∈(E0×...×Ek)

(x0, . . . , xk) 1Ank(x0,...,xk)

Cette representation fonctionnelle souligne le fait suivant :Si l’evenement An

k (x0, . . . , xk) se realise, la trajectoire du processus prend la valeur(x0, . . . , xk), et inversement. Plus formellement, nous avons l’equivalence

ω ∈ Ank (x0, . . . , xk) ⇐⇒ (X0, . . . , Xk)(ω) = (x0, . . . , xk) (2.3)

Lorsque k coıncide avec l’horizon terminal k = n, et sur l’espace canonique, les evenementscylindriques se reduisent a des singletons trajectoriels

Ann(x0, . . . , xn) = ω ∈ Ωn : (X0(ω), . . . , Xn(ω)) = (x0, . . . , xn)

= (x0, . . . , xn)

Dans ce cas, la partitionDn,Xn de l’espace canonique est formee de tous les singletons trajectoriels

envisageables

Dn,Xn = (x0, . . . , xn) : (x0, . . . , xn) ∈ (E0 × . . . × En)

Par definition des lois conditionnelles par rapport a des partitions, et avec desnotations abusives evidentes, nous avons

P(Xk+1,...,Xn)n ((xk+1, . . . , xn) | Dn,X

k )

=∑

(x0,...,xk)

P(Xk+1,...,Xn)|(X0,...,Xk)n ((xk+1, . . . , xn) | (x0, . . . , xk)) 1An

k(x0,...,xk)

En combinant (2.3) avec les proprietes de Markov, on trouve que

P(Xp+1,...,Xn)|(X0,...,Xp)n ((xp+1, . . . , xn) | (x0, . . . , xp))

= Mp+1(xp, xp+1)Mp+2(xp+1, xp+2) . . .Mn(xn−1, xn)

On obtient finalement la representation fonctionnelle suivante.

P(Xp+1,...,Xn)n ((xp+1, . . . , xn) | Dn,X

p )

= Mp+1(Xp, xp+1)Mp+2(xp+1, xp+2) . . . Mn(xn−1, xn)

Cette formule reflete le fait que les evenements passes associes a la trajectoire (X0, . . . , Xk)n’influencent pas le futur du processus (Xk+1, . . . , Xn), sinon par la valeur de l’etat du systemeXk a l’instant present. La plupart des processus que nous avons rencontre verifient cettepropriete de Markov. C’est bien entendu le cas des marches aleatoires sur la droite reelle,les evolutions de population biologiques, ou encore le nombre des succes et echecs dans unerepetition d’experiences biphases.

Page 54: MASTER MASS 2 Univ. Nice Sophia Antipolis

52 CHAPITRE 2. PROCESSUS ALEATOIRES DISCRETS

2.3.3 Filtrations de partitions

Commencons par remarquer que l’on a les decompositions evenementielles suivantes

Anp (x0, . . . , xp) = (X0, . . . , Xp)

−1((x0, . . . , xp))= ∪yp+1∈Ep+1A

np+1(x0, . . . , xp, yp+1)

= ∪yp+1,yp+2∈(Ep+1×Ep+2)Anp+2(x0, . . . , , xp, yp+1, yp+2)

= . . .

= ∪yp+1,...,yn∈(Ep+1×...×En)Anp+2(x0, . . . , xp, yp+1, . . . , yn)

Sur l’espace canonique, ces decompositions d’evenements s’expriment sous la forme equivalente

Anp (x0, . . . , xp)

= ∪yp+1∈Ep+1(x0, . . . , xp, yp+1) × (Ep+2 × . . . × En)

= ∪yp+1,yp+2∈(Ep+1×Ep+2)(x0, . . . , xp, yp+1, yp+2) × (Ep+3 × . . . × En)

= . . .

= ∪yp+1,...,yn∈(Ep+1×...×En)(x0, . . . , xp, yp+1, yp+2, . . . , yn)

Autrement dit, chaque evenement Anp (x0, . . . , xp) representant une information precise jusqu’au

temps p, peut etre decompose sur toute l’information future envisageable. Neanmoins, savoir quel’une d’entre elles pourra se produire, ne permet bien evidemment pas de predire grand chose !Ces representations n’apportent donc aucune information sur l’evolution future du processus.

En conclusion, nous avons decompose les informations selon une filtration croissantede partitions

Dn,X0 ⊂ Dn,X

1 ⊂ . . . ⊂ Dn,Xp−1 ⊂ Dn,X

p ⊂ . . . ⊂ Dn,Xn

En terme d’arbres, ces proprietes de monotonie expriment le fait que tout sous arbreAn

p (x0, . . . , xp) de Dn,Xp , peut etre decompose en une famille de sous-arbres de Dn,X

p+1 .

Exemple 2.3.1 Considerons l’espace canonique des aleas associe a des v.a. de Bernoulli decriten (2.1). Dans cette situation, nous avons

Dn,εp =

(u0, . . . , up) × 0, 1(n−p) : (u0, . . . , up) ∈ 0, 1p+1

Ainsi, sur l’evenement cylindrique

(0, 1, 0, 1, 1, 1, 0)× 0, 1(n−7)

la trajectoire depuis son origine jusqu’au temps 6, est parfaitement connue

(ε0, . . . , ε6) = (0, 1, 0, 1, 1, 1, 0)

Neanmoins, lorsque cet evenement se realise, nous avons aucune information sur les valeursdes etats suivants εp, avec p > 6. Par exemple, lorsque n = 9, la decomposition de l’evenementcylindrique

(0, 1, 0, 1, 1, 1, 0)× 0, 12 = ∪u,v∈0,1(0, 1, 0, 1, 1, 1, 0, u, v)exprime le fait que sur l’evenement

(0, 1, 0, 1, 1, 1, 0)× 0, 12

Page 55: MASTER MASS 2 Univ. Nice Sophia Antipolis

2.3. PROCESSUS ALEATOIRES 53

l’une des 4 possibilites suivantes pourra se produire

(0, 1, 0, 1, 1, 1, 0, u, v) avec (u, v) ∈ 0, 12

Notons pour conclure que chaque v.a. trajectorielle ((ε0, . . . , εp)) s’exprime sur la partitiond’evenements Dn,ε

p par la formule

(ε0, . . . , εp) =∑

(u0,...,up)∈0,1p+1

(u0, . . . , up) 1Dn,εp

2.3.4 Filtrations d’algebres

La plus petite algebre Fn,Xp contenant Dn,X

p est donnee par la formule suivante

Fn,Xp = σn(X0, . . . , Xp)

=(X0 . . . , Xp)

−1(Bp) avec Bp ⊂ (E0 × . . . × Ep)

De plus, chaque evenement de Fn,Xp peut s’ecrire sous la forme

(X0 . . . , Xp)−1(Bp) = ∪(x0,...,xp)∈Bp

Anp (x0, . . . , xp)

avecAn

p (x0, . . . , xp) = (X0, . . . , Xp)−1((x0, . . . , xp))

Sur l’espace canonique

ΩXn = (E0 × . . . × En)

on rappelle que chaque evenement cylindrique est donne par la formule explicite suivante

(X0 . . . , Xp)−1(Bp) = Bp × (Ep+1 × . . . × En)

= ∪(x0,...,xp)∈Bp( (x0, . . . , xp) × (Ep+1 × . . . × En) )

Par consequent, en terme graphique, chaque evenement

(X0 . . . , Xp)−1(Bp) = (Bp × (Ep+1 × . . . × En)) ∈ Fn,X

p

correspond donc a la foret formee par les arbres Anp (x0, . . . , xp), dont les troncs (x0, . . . , xp)

sont dans Bp.

Les trajectoires depuis l’origine jusqu’au temps p, sont bien mesurables par rapport a cesalgebres

∀0 ≤ p ≤ n (X0, . . . , Xp) ∈ Fn,Xp

neanmoins, on a en general

∀0 ≤ q < p ≤ n (X0, . . . , Xp) 6∈ Fn,Xq

Autrement dit, l’information contenue dans Fn,Xp−1 est insuffisante pour decrire les trajectoires

depuis leurs origines, jusqu’au temps p. Par exemple, nous avons sur l’espace canonique

X−1p (xp) = (E0 × . . . × Ep−1) × xp × (Ep+1 × . . . × En)

6∈ FXp−1 = Bp−1 × Ep × (Ep+1 × . . . × En) : Bp−1 ⊂ (E0 × . . . × Ep−1)

Page 56: MASTER MASS 2 Univ. Nice Sophia Antipolis

54 CHAPITRE 2. PROCESSUS ALEATOIRES DISCRETS

En conclusion, nous avons construit sur l’espace canonique (ΩXn , PX

n ) une filtrationcroissante d’algebres representant l’adaptation du processus lors de son evolution

Fn,X0 ⊂ Fn,X

1 ⊂ . . . ⊂ Fn,Xp−1 ⊂ Fn,X

p ⊂ . . . ⊂ Fn,Xn = P(E0 × . . . × En)

De plus, par definition des lois conditionnelles par rapport a une algebre, nous avonspour tout 0 ≤ p ≤ n

P(Xp+1,...,Xn)n ((xp+1, . . . , xn) | Fn,X

p )

= P(Xp+1,...,Xn)n ((xp+1, . . . , xn) | Dn,X

p )

= Mp+1(Xp, xp+1)Mp+2(xp+1, xp+2) . . . Mn(xn−1, xn)

Ces proprites de Markov peuvent alternativement s’exprimer par la formule suivante

P(Xp+1,...,Xn)n ((xp+1, . . . , xn) | σn(X0, . . . , Xn))

= P(Xp+1,...,Xn)n ((xp+1, . . . , xn) | σn(Xn))

= Mp+1(Xp, xp+1)Mp+2(xp+1, xp+2) . . . Mn(xn−1, xn)

2.4 Decompositions canoniques

2.4.1 Information et filtrations

Dans les sections precedentes, nous avons etudie la notion de filtrations d’algebres associeesa des processus aleatoires. Ces objets ensemblistes representent l’information que l’on peutacquerir en observant l’evolution d’un processus depuis son origine jusqu’au temps terminal.D’un point de vue mathematique, cette information est modelisee par des partitions ensemblistesde plus en plus fine de l’espace des evenements elementaires. Chaque partition reflete tous lesevenements aleatoires que l’on peut observer au cours de l’evolution du processus.

En accord avec la discussion menee a la section 1.3.2, page 33 (voir aussi l’exercice 1.2.5),chaque algebre d’evenements abstraite peut s’interpreter comme une algebre engendree par unecollection de v.a. numeriques. En pratique, ces v.a representent l’evolution d’un phenomenealeatoire plus ou moins complexe : evolutions de cours d’actions financieres, variations desvaleurs de portefeuilles, ou de taux d’interets d’emprunts. La propriete de monotonie refletele degre croissant de finesse, et de pertinence, de l’information que l’on acquiert au cours dutemps en observant le processus. En ce sens, une filtration croissante d’algebres d’evenementspeut s’interpreter comme l’information mesurable associee a l’observation de l’evolution d’unenvironnement aleatoire au cours du temps. De telles situations sont decrites par le modeleprobabiliste suivant.

Definition 2.4.1 Un espace de probabilise filtre (Ω, (Fp)0≤p≤n, P), est un espaceprobabilites (Ω, P) muni d’une filtration croissante d’algebres

F0 ⊂ F1 ⊂ . . . ⊂ Fp−1 ⊂ Fp ⊂ . . . ⊂ Fn

Page 57: MASTER MASS 2 Univ. Nice Sophia Antipolis

2.4. DECOMPOSITIONS CANONIQUES 55

Pour poursuivre notre analyse, il convient de rappeler que chaque algebre Fp est engendree parune partition Dp = (Di,p)i∈Ip

de Ω, formee d’evenements deux a deux incompatibles, et ayantpu se realiser au temps p. Pour fixer les idees, supposons que l’alea en cours de realisation ω ∈ Ωappartient a l’un des ensembles Di,p ⊂ Dp. Dans cette situation, nous avons trivialement

ω ∈ Di,p et ∀j 6= i ω 6∈ Dj,p

Autrement dit, a l’instant p, nous savons que seul l’evenement Di,p s’est realise ! Neanmoinsl’ensemble Di,p ⊂ Ω est lui meme forme d’evenements elementaires et il nous est impossible dediscerner lequel des evenements ω′ ∈ Di,p c’est reellement produit !

A l’instant suivant (p + 1), l’algebre Fp+1 est engendree par une partition Dp+1 plus fineque Dp. Par consequent, il existe une collection d’indices Ii,p+1 ⊂ Ip telle que

ω ∈ Di,p = ∪j∈Ii,p+1Dj,p+1

Les ensembles Dj,p+1 formant une partition de Di,p, l’evenement en cours ω appartientnecessairement a l’un d’entre eux

ω ∈ Di,p = ∪j∈Ii,p+1Dj,p+1 =⇒ ∃!j ∈ Ii,p+1 ω ∈ Dj,p+1

A l’instant (p+1), nous savons que desormais que c’est l’evenement Dj,p+1 ⊂ Di,p s’est realise.Cette inclusions souligne le fait que nous avons plus d’information sur l’evenement elementairequi s’est produit, sans toutefois discerner lequel des evenements elementaire

ω′ ∈ Dj,p+1 ⊂ Di,p

c’est reellement produit ! Neanmoins, au cours du temps, la finesse des partitions nous renseignede plus en plus sur cette question.

Exemple 2.4.1 L’espace canonique (ΩXn , PX

n ), associe a une chaıne de Markov (Xk)0≤k≤n, etmuni de la filtration d’algebres

Fn,Xk = σn(X0, . . . , Xk) avec 0 ≤ k ≤ n

decrites dans la section 2.3.4, est un espace de probabilites filtre. Cette filtration est appelee lafiltration canonique naturelle associee au processus Xp.

Exemple 2.4.2 Considerons a nouveau une suite de v.a. independantes ε0, . . . , εn, a valeursdans −1, 1 ⊂ R, de meme loi de Bernoulli

µ(u) = α 11(up) + (1 − α) 1−1(up) avec α ∈ [0, 1]

On conviendra que ces v.a. sont definies sur l’espace probabilise canonique (Ωεn, Pε

n), avec

Ωεn = −1, 1n et P

εn(ω1, . . . , ωn) = µ(ω1) . . . µ(ωn)

La filtration canonique naturelle associee a la suite εp est donnee par

Fn,εp = σn(ε1, . . . , εp)

et (Ωεn, (Fn,ε

p )0≤p≤nPεn) est clairement un espace probabilise filtre.

Exemple 2.4.3 On associe a la suite de v.a. de Bernoulli ε0, . . . , εn decrite dans l’exempleprecedent, le processus aleatoire initialise en X0 = 0, et evoluant de Ep−1 vers l’ensembleEp(= 2p− k, k = 0, ..., p) selon la formule

∆Xp =def. (Xp − Xp−1) = εp

L’espace (Ωεn, (Fn,X

p )0≤p≤nPεn) muni des sous algebres

Fn,Xp = σ(X0, . . . , Xp) ( ⊂ P(Ωε

n))

Page 58: MASTER MASS 2 Univ. Nice Sophia Antipolis

56 CHAPITRE 2. PROCESSUS ALEATOIRES DISCRETS

est encore un espace probabilise filtre. On notera que cette filtration d’algebre coıncide avec cellepresentee dans l’exemple 2.4.2. Plus precisement, nous avons

Fn,Xp = σ(X0, . . . , Xp) = σn(ε1, . . . , εp) = Fn,ε

p

A titre d’exemple, nous avons

(ε1, ε2, ε3)−1((1,−1, 1)) = ω ∈ Ωε

n : (ε1, ε2, ε3)(ω) = (1,−1, 1)= ω ∈ Ωε

n : (X1, X2, X3)(ω) = (1, 0, 1)= (X1, X2, X3)

−1((1, 0, 1)

2.4.2 Adaptation et previsibilite

Nous avons vu dans la section precedentes que les filtrations d’algebres (Fp)0≤p≤n sur desespaces d’evenements sont bien souvent en pratique associees a des phenomenes aleatoires tropcomplexes pour etre decrits par un unique processus aleatoire simple. Ces modeles probabilistesabstraits representent l’information percue par un observateur. En theorie des jeux, l’algebreFp represente l’information dont dispose un joueur sur le deroulement du jeu jusqu’au temps p.Dans les modeles de mathematiques financieres, ces filtrations representent plutot la diversitedes informations qu’un agent financier peut utiliser pour amenager son portefeuille d’action,tout en observant l’evolution d’un certain nombre de parametres aleatoires. Dans ce contexte,les flux des valeurs des actifs, les strategies d’amenagements de portefeuilles, ou encore lesvariations des taux d’interets bancaires, sont ils mesurables, et quantifiables, par rapport aces informations ? Peut on prevoir leurs evolutions ? En langage probabiliste, ces deux notionscorrespondent aux proprietes d’adaptation et de previsibilite definies ci-apres.

Definition 2.4.2 Une suite de v.a. (Xp)0≤p≤n, a valeurs dans des espaces(Ep)0≤p≤n, et definie sur un espace de probabilites filtre (Ω, (Fp)0≤p≤n, P), est diteadaptee lorsque l’on a

∀0 ≤ p ≤ n (X0, . . . , Xp) ∈ Fp

La suite de v.a. (Xp)0≤p≤n est dite previsible lorsque l’on a

∀0 ≤ p ≤ n (X0, . . . , Xp) ∈ Fp−1

avec la convention F−1 = ∅, Ω, lorsque p = 0.

La propriete d’adaptation souligne le fait que les v.a. trajectorielles (X0, . . . , Xp) peuvent serepresenter en terme d’evenements de Fp. Autrement dit les evenements

Ap(x0, . . . , xp) = (X0, . . . , Xp)−1((x0, . . . , xp))

sont dans l’algebre Fp, et font partie de l’information que l’on peut observer jusqu’au temps p.Plus precisement, nous avons la decomposition fonctionnelle

(X0, . . . , Xp) =∑

(x0,...,xp)∈(E0×...×Ep)

(x0, . . . , x0) 1Ap(x0,...,xp)

La propriete de previsibilite reflete une situation ou les les evenements Ap(x0, . . . , xp) sontdans l’algebre Fp−1. Ces evenements font desormais partie de l’information que l’on peutobserver au temps (p− 1). Dans ce cas, la valeur Xp du processus au temps p est previsible desl’instant (p − 1).

Page 59: MASTER MASS 2 Univ. Nice Sophia Antipolis

2.4. DECOMPOSITIONS CANONIQUES 57

Exemple 2.4.4 En reprenant les exemples precedents, on verifie aisement que les suites(εp)0≤p≤n, et (Xp)0≤p≤n sont toutes deux adaptees a la filtration (Fn,ε

p )0≤p≤n. De meme, onverifie les processus retardes

X−p =def. Xp−1 et ε−p =def. εp−1

sont previsibles par rapport a la filtration (Fn,εp )0≤p≤n.

Nous arrivons enfin a la definition abstraite tant attendue d’un processus aleatoire.

Definition 2.4.3 Un processus aleatoire a valeurs dans un ensemble (fini) E estune suite de v.a. adaptees (Xp)0≤p≤n a valeurs dans E, et definies sur un espaceprobabilise filtre (Ω, (Fp)0≤p≤n, P).

Il peut etre utile de souligner a nouveau que pour tout processus aleatoire (Xp)0≤p≤n defini surun espace probabilise filtre (Ω, (Fp)0≤p≤n, P), nous avons les inclusions d’algebres

FXp =def. σ(X0, . . . , Xp) ⊂ Fp

La definition abstraite precedente nous permet donc d’analyser des processus aleatoires definissur des espace probabilises muni de filtrations d’algebres autres que les filtrations canoniques.Cette souplesse de modelisation est particulierement utile lorsque l’on etudie plusieurs processusaleatoires sur le meme espace probabilise filtre. Dans cette situation, les algebres Fp

representent l’adaptation de tous les phenomenes aleatoires en jeu, jusqu’au tempsp.

Exemple 2.4.5 Supposons que (Xp, Yp)0≤p≤n soit une chaıne de Markov a valeurs dans unespace produit (E × F ), definie sur l’espace filtre canonique

(Ωn, (Fp)0≤p≤n, Pn)

avec

∀0 ≤ p ≤ n Fp = F (X,Y )p (= σ((X0, Y0), . . . , (Xp, Yp)))

Dans ce cas, la sequence (Xp)0≤p≤n est un processus aleatoire a valeurs dans E, a nouveaudefini sur (Ωn, (Fp)0≤p≤n, Pn). Dans cette situation, nous avons

FXp = σ(X0, . . . , Xp) ⊂ Fp

La notion abstraite de processus aleatoire que nous venons d’introduire nous permetde definir tres simplement divers processus aleatoires a partir d’un processus de referencedonne. Supposons que (X ′

p)0≤p≤n, soit processus aleatoire a valeurs dans des espaces finis(E′

p)0≤p≤n, et defini sur un espace de probabilise filtre (Ω, (Fp)0≤p≤n, P). Pour toute collectionde transformations

fp : E′0 × . . . × E′

p −→ Ep

de E′0×. . .×E′

p dans des espaces produit, et finis, auxiliaires Ep, la sequence des transformations

Xp = fp(X′0, . . . , X

′p)

est a nouveau un processus aleatoire defini sur le meme espace de probabilise filtre(Ω, (Fp)0≤p≤n, P).

Page 60: MASTER MASS 2 Univ. Nice Sophia Antipolis

58 CHAPITRE 2. PROCESSUS ALEATOIRES DISCRETS

2.4.3 Integration par parties discrete

On considere un processus (Xk)0≤k≤n a valeurs reelles, et defini sur un espace probabilisefiltre (Ω, (Fk)0≤k≤n, P). On notera (∆Xp)0≤p≤n la suite des accroissements definis par

∀0 ≤ p ≤ n ∆Xp = (Xp − Xp−1)

avec la convention ∆X0 = X0, lorsque p = 0. La version discrete de l’integrale stochastiquecorrespond a la notion suivante.

Definition 2.4.4 On considere un processus previsible reel (Xk)0≤k≤n, et unprocessus aleatoire reel (Yk)0≤k≤n, sur un meme espace probabilise filtre(Ω, (Fk)0≤k≤n, P). On appelle transformee de Y par X, et on note ((X.Y )k)0≤k≤n,le processus decrit par

∀0 ≤ k ≤ n (X.Y )k =

k∑

l=0

Xl ∆Yl

On notera que les accroissements du processus ((X.Y )k)0≤k≤n sont donnes par

∆(X.Y )k = Xk ∆Yk

A chaque instant (k− 1), les v.a. Xk et Yk−1, sont connues, seule la v.a. Yk est imprevisible, ence sens ou Yk ∈ Fp.

Definition 2.4.5 La variation quadratique entre deux processus reels (Xk)0≤k≤n et(Yk)0≤k≤n, definis sur un meme espace probabilise filtre (Ω, (Fp)0≤p≤n, P), est leprocessus aleatoire ([X, Y ]k)0≤k≤n defini par

∀0 ≤ k ≤ n [X, Y ]k = [Y, X ]k =

k∑

l=0

∆Xl∆Yl

avec, lorsque l = 0, les conventions

X−1 = 0 = Y−1, ∆X0 = X0, et ∆Y0 = Y0

On remarque que

∆(XY )k = XkYk − Xk−1Yk−1

= Xk−1 (Yk − Yk−1) + Yk (Xk − Xk−1)Yk

= Xk−1 (Yk − Yk−1) + Yk−1 (Xk − Xk−1)

+(Xk − Xk−1)(Yk − Yk−1)

= Xk−1 ∆Yk + Yk−1 ∆Xk + ∆Xk ∆Yk

On obtient ainsi la formule d’integration par parties discrete

XkYk =∑k

l=1 Xl−1 ∆Yl +∑k

l=1 Yl−1 ∆Xl + [X, Y ]k (2.4)

En terme de transformees de processus, cette formule s’ecrit sous la forme

(XY )k = (Y X)k = (X.Y )k + (Y .X)k + [X, Y ]k

Page 61: MASTER MASS 2 Univ. Nice Sophia Antipolis

2.4. DECOMPOSITIONS CANONIQUES 59

2.4.4 Decomposition de Doob

Dans la section 2.4.1, nous avons presente la notion de filtration d’algebres (Fp)0≤p≤n sur unespace d’aleas Ω. Ces algebres abstraites permettent de modeliser, sans rentrer dans le detail,des evolutions d’environnements aleatoires observables. L’information connue a un temps p, seresume ainsi a la donnee d’une algebre Fp sur Ω.

Chaque increment d’un processus reel (Xp)0≤p≤n sur (Ω, (Fp)0≤p≤n, P) se decomposeen une partie previsible, et une partie imprevisible

∆Xp = E(∆Xp | Fp−1)︸ ︷︷ ︸

partie previsible

+ [∆Xp − E(∆Xp | Fp−1)]︸ ︷︷ ︸

partie imprevisible

Plus generalement, nous avons la decomposition de Doob :

Xk =

k∑

p=0

∆Xp = AXk + MX

k

avec le couple de processus (AXk , MX

k )0≤k≤n donnes par

AXk =

k∑

p=0

E(∆Xp | Fp−1) =

k∑

p=0

[E(Xp | Fp−1) − Xp−1]

MXk =

k∑

p=0

[∆Xp − E(∆Xp | Fp−1)] =

k∑

p=0

[Xp − E(Xp | Fp−1)]

Dans les formules precedentes, lorsque p = 0, nous avons a nouveau utilise les conventions

X−1 = 0 et E(∆X0 | F−1) = E(X0 | F−1) = E(X0)

En accord avec les remarques precedentes, le premier processus (AXk )0≤k≤n, est forme des

tendances locales previsibles∆AX

k = E(∆Xk | Fk−1)

Par consequent (AXk )0≤k≤n est previsible par rapport a l’information portee par la filtration

(Fk)0≤k≤n

∀0 ≤ k ≤ n E(AXk | Fk−1) = AX

k

L’evolution du second processus (MXk )0≤k≤n, est au contraire totalement imprevisible, en

ce sens ou l’on a∀0 ≤ k ≤ n E(MX

k | Fk−1) = MXk−1

Comme leur nom ne l’indique pas, les processus verifiant cette propriete sont appeles desmartingales.

Le processus (MXk )0≤k≤n est appele la partie martingale de (Xk)0≤k≤n. Le

processus (AXk )0≤k≤n est parfois appele la partie previsible, ou encore le

compensateur de (Xk)0≤k≤n, en ce sens ou

Mk = Xk − AXk

forme une martingale.

Page 62: MASTER MASS 2 Univ. Nice Sophia Antipolis

60 CHAPITRE 2. PROCESSUS ALEATOIRES DISCRETS

Du fait de leur importance en pratique, la section suivante est consacree a l’etude de telsprocessus aleatoires.

Terminons cette section par une remarque elementaire concernant la condition initiale X0

du processus (Xk)0≤k≤n. Dans les decompositions precedentes, nous avons inclue la moyenneE(X0) de X0 dans la partie previsible du processus, de sorte a avoir

AX0 = E(X0) et MX

0 = X0 − E(X0)

Dans ces conditions, la partie martingale (MXk )0≤k≤n du processus est de moyenne nulle

E(MX0 ) = 0. En remplacant Xk par (Xk − X0), on peut alternativement utiliser les

decompositions suivantes :

Xk =def. (Xk − X0) =

k∑

l=1

∆Xl = AX

k + MX

k (2.5)

avec

AX

k = AXk − AX

0

=

k∑

p=1

E(∆Xp | Fp−1) =

k∑

p=0

[E(Xp | Fp−1) − Xp−1]

MX

k = MXk − MX

0

=k∑

p=1

[∆Xp − E(∆Xp | Fp−1)] =k∑

p=1

[Xp − E(Xp | Fp−1)]

Dans ces conditions, les parties previsibles, et martingales, sont initialement nulles

AX

0 = 0 et MX

0 = 0

2.5 Exercices

Exercice 2.5.1 En utilisant un modele d’arbre, calculer la probabilite des evenements suivants :(B1) obtenir exactement une fois le chiffre 6 lors de 3 lancer de des successifs ; (B2) obtenirexactement deux fois le chiffre 6 lors de 3 lancer de des successifs ; (B3) obtenir exactementtrois fois le chiffre 6 lors de 3 lancer de des successifs.

Exercice 2.5.2 Decrire l’arbre des epreuves associe a une suite de v.a. independantes(εi)i=1,2,3,4, de meme loi de Bernoulli

P(ε1 = 1) = 1 − P(ε1 = 0) = 1/3

Expliciter l’espace des evenements associe a ce modele.

Exercice 2.5.3 Decrire l’arbre des epreuves associe a une suite de v.a. independantes(εi)i=1,2,3,4, de lois de Bernoulli

P(εi = 1) = 1 − P(εi = 0) =1

i + 1

Expliciter l’espace des evenements associe a ce modele.

Page 63: MASTER MASS 2 Univ. Nice Sophia Antipolis

2.5. EXERCICES 61

Exercice 2.5.4 Decrire l’arbre des epreuves associe a une evolution markovienne entre lesespaces suivants

E0 = 1, 2 −→ E1 = 1, 2, 3 −→ E2 = 1, 2 −→ E3 = 1 −→ E4 = 1, 2

On note η0 la loi initiale de la chaıne, et l’on designe par Mk(xk−1, xk) la probabilite detransition d’un etat xk−1 ∈ Ek−1, vers un etat xk ∈ Ek. Decrire les probabilites pour quele processus (Xk)0≤k≤4 suive les trajectoires suivantes

1. X0 = 1 −→ X1 = 2 −→ X2 = 1 −→ X3 = 1 −→ X4 = 2.

2. X0 = 1 −→ X1 = 3 −→ X2 = 2 −→ X3 = 1 −→ X4 = 1.

3. X0 = 2 −→ X1 = 2 −→ X2 = 2 −→ X3 = 1 −→ X4 = 1.

Exercice 2.5.5 Decrire l’arbre des epreuves associe a une evolution markovienne sur uneperiode, entre les espaces suivants

E0 = x0 −→ E1 = x1,1, x1,2

1. Verifier que cette evolution elementaire peut etre synthetisee par le tableau suivant

Ω X0 X1

ω1 x0 x1,1

ω2 x0 x1,2

2. Expliciter un espace des evenements, et les evenements cylindriques

A0(x0) = X−10 (x0)

A1(x0, x1,1) = (X0, X1)−1((x0, x1,1))

A1(x0, x1,2) = (X0, X1)−1((x0, x1,2))

3. Decrire dans cette situation les decompositions de l’espace Ω

DX0 = X−1

0 (x) : x ∈ E0DX

1 = (X0, X1)−1((x, y)) : (x, y) ∈ (E0 × E1)

4. Determiner les algebres FXk engendrees par les partitions DX

k , avec k = 0, 1.

5. Verifier les formules suivantes

X0 = x0 et X1 =2∑

i=1

x1,i 1ωi

6. Determiner la quantite moyenne E(X1|FX0 ). Pour quelle probabilite P

? sur Ω a-t-on

E(X1|FX0 ) = X0

Exercice 2.5.6 Decrire l’arbre des epreuves associe a une evolution markovienne sur deuxperiodes, entre les espaces

E0 = x0 −→ E1 = x1,1, x1,2 −→ E2 = x2,1, x2,2, x2,3, x2,4

et synthetisee par le tableau suivant

Ω X0 X1 X2

ω1 x0 x1,1 x2,1

ω2 x0 x1,1 x2,2

ω3 x0 x1,2 x2,3

ω3 x0 x1,2 x2,4

Page 64: MASTER MASS 2 Univ. Nice Sophia Antipolis

62 CHAPITRE 2. PROCESSUS ALEATOIRES DISCRETS

1. Expliciter un espace des evenements, et les evenements cylindriques

A0(x0) = X−10 (x0)

A1(x0, x1,1) = (X0, X1)−1((x0, x1,1))

A1(x0, x1,2) = (X0, X1)−1((x0, x1,2))

A2(x0, x1,1, x2,1) = (X0, X1, X2)−1((x0, x1,1, x2,1))

A2(x0, x1,1, x2,2) = (X0, X1, X2)−1((x0, x1,1, x2,2))

A2(x0, x1,2, x2,3) = (X0, X1, X2)−1((x0, x1,2, x2,3))

A2(x0, x1,2, x2,4) = (X0, X1, X2)−1((x0, x1,2, x2,4))

2. Decrire dans cette situation les decompositions de l’espace Ω

DX0 = X−1

0 (x) : x ∈ E0DX

1 = (X0, X1)−1((x, y)) : (x, y) ∈ (E0 × E1)

DX2 = (X0, X1, X2)

−1((x, y, z)) : (x, y, z) ∈ (E0 × E1 × E2)

3. Determiner les algebres FXk engendrees par les partitions DX

k , avec k = 0, 1.

4. Verifier les formules suivantes

X0 = x0

X1 = x1,1 1ω1,ω2 + x1,2 1ω3,ω4 et X2 =

4∑

i=1

x2,i 1ωi

5. Determiner les quantites moyennes

E(X1|FX0 ) et E(X2|FX

1 )

6. Existe-t-il une probabilite P? sur Ω telle que

E?(X2|FX

1 ) = X1 et E?(X1|FX

0 ) = X0

Exercice 2.5.7 On considere l’evolution markovienne (Xk)k=0,1,2,3 sur trois periodes decritespar l’arbre des epreuves suivant

x(0)

x(1,1)

x(1,2)

x(1,3)

x(2,1)

x(2,2)

x(2,3)

x(2,4)

x(2,5)

x(2,6)

x(3,3)

x(3,7)

x(3,8)

x(3,6)

x(3,5)

x(3,4)

x(3,1)

x(3,2)

omega^1

omega^2

omega^4

omega^3

omega^5

omega^6

omega^7

omega^8

Fig. 2.9 –

Page 65: MASTER MASS 2 Univ. Nice Sophia Antipolis

2.5. EXERCICES 63

1. Determiner les evenements Ai,j pour lesquels les decompositions suivantes sontsatisfaites :

X0 = x0 , X1 =3∑

i=1

x1,i 1A1,i

X2 =6∑

i=1

x2,i 1A2,i, et X3 =

8∑

i=1

x3,i 1A3,i

Determiner les decompositions (DXk )k=0,1,2,3 definies par

DX0 = X−1

0 (x) : x ∈ E0DX

1 = (X0, X1)−1((x, y)) : (x, y) ∈ (E0 × E1)

DX2 = (X0, X1, X2)

−1((x, y, z)) : (x, y, z) ∈ (E0 × E1 × E2)DX

3 = (X0, X1, X2, X3)−1((x, y, z, t)) : (x, y, z, t) ∈ (E0 × E1 × E2 × E3)

avec les espaces d’etats

E0 = x0 −→ E1 = x1,i i = 1, 2, 3 −→ E2 = x2,i, i = 1, . . . , 6

−→ E3 = x3,i, i = 1, . . . , 8

2. Determiner les probabilites suivantes en fonction des probabilites des evenementselementaires ωi.

P(X3 = x3,1|X2 = x2,1) P(X2 = x2,1|X1 = x1,1)P(X3 = x3,2|X2 = x2,1) P(X2 = x2,2|X1 = x1,1)P(X3 = x3,6|X2 = x2,5) P(X2 = x2,4|X1 = x1,3)P(X3 = x3,7|X2 = x2,5) P(X2 = x2,5|X1 = x1,3) , P(X2 = x2,6|X1 = x1,3)

et enfin

P(X1 = x1,1|X0 = x0) P(X1 = x1,2|X0 = x0) P(X1 = x1,3|X0 = x0)

3. On note FXk les algebres engendrees par les decompositions DX

k , avec la sequence d’indicesk = 0, 1, 2, 3. Determiner les esperances conditionnelles

E(X3|FX2 ), E(X2|FX

1 ) et E(X1|FX0 )

4. Existe-t-il une probabilite P? sur Ω telle que

E?(X3|FX

2 ) = X2 E?(X2|FX

1 ) = X1 et E?(X1|FX

0 ) = X0

Exercice 2.5.8 Soit (Xk)0≤k≤n un processus de Markov, a valeurs dans les espaces (Ek)0≤k≤n,de probabilites de transitions (Mk)0≤k≤n, et de loi initiale η0. On rappelle qu’une mesurede probabilites µk sur Ek est une suite de nombres (µk(xk))xk∈Ek

∈ [0, 1] telle que∑

xk∈Ekµk(xk) = 1. On associe a une telle mesure µk sur Ek, la mesure (µkMk+1) sur Ek+1

definie par

∀xk+1 ∈ Ek+1 (µkMk+1)(xk+1) =∑

xk∈Ek

µk(xk)Mk+1(xk , xk+1)

1. Verifier que l’on a(µkMk+1)Mk+2 = µk(Mk+1Mk+2)

avec la probabilite de transition (Mk+1Mk+2) de Ek vers Ek+2 definie par la formule

(Mk+1Mk+2)(xk , xk+2) =∑

xk+1∈Ek+1

Mk+1(xk , xk+1)Mk+2(xk+1, xk+2)

= P(Xk+2 = xk+2 | Xk = xk)

Page 66: MASTER MASS 2 Univ. Nice Sophia Antipolis

64 CHAPITRE 2. PROCESSUS ALEATOIRES DISCRETS

2. Plus generalement, on note (Mk+1 . . . Mk+l) la probabilite de transition de Ek vers Ek+l

definie par la formule

(Mk+1 . . . Mk+l)(xk, xk+l)

=∑

xk+1∈Ek+1,...,xk+l−1∈Ek+l−1Mk+1(xk, xk+1) . . .Mk+l(xk+l−1, xk+l)

= P(Xk+l = xk+l | Xk = xk)

Verifier que l’on a

∀xk ∈ Ek ηk(xk) = def.P(Xk = xk)

= η0(M1 . . .Mk)(xk)

= (η0M1)(M2 . . . Mk)(xk)

= ((η0M1)M2)(M3 . . . Mk)(xk)

= . . .

= ((. . . ((η0M1)M2) . . . Mk−1)Mk)(xk)

3. On associe a une fonction fk+1 ∈ REk+1 , la fonction Mk(fk+1) ∈ R

Ek definie par

Mk(fk+1)(xk) =∑

xk+1∈Ek+1

Mk(xk , xk+1) fk+1(xk+1)

= E(fk+1(Xk+1) | Xk = xk)

Montrer que pour toute fonction fk+l ∈ REk+l , nous avons

E(fk+l(Xk+l) | Xk = xk) = (Mk+1 . . .Mk+l)(fk+l)(xk)

En deduire que

ηk+l(fk+l) =def. E(fk+l(Xk+l))

= [ηk(Mk+1 . . . Mk+l)](fk+l) = ηk[(Mk+1 . . .Mk+l)(fk+l)]

= [η0(M1 . . . Mk+l)](fk+l) = η0[(M1 . . . Mk+l)(fk+l)]

Exercice 2.5.9 Soit (Xk)0≤k≤n un processus de Markov, a valeurs dans un espace homogeneet fini E = x1, . . . , xd, de probabilites de transitions (Mk)0≤k≤n, et de loi initiale µ0. Dansce contexte, les probabilites de transitions sont donnees par les matrices

Mk =

Mk(x1, x1) . . . Mk(x1, xd)...

......

Mk(xd, x1) . . . Mk(xd, xd)

On identifie les mesures de probabilites µ, et les fonctions f sur E aux vecteurs lignes et colonnessuivants

µ = [µ(x1), . . . , µ(xd)] et f =

f(x1)...

f(xd)

1. Verifier les formules matricielles suivantes

∀xi, xj ∈ E P(Xk+l = xj | Xk = xi) = (Mk+1 . . . Mk+l)(xi, xj)

et∀f ∈ R

E ∀xi ∈ E E(f(Xk+l) | Xk = xi) = [Mk+1 . . .Mk+lf ](xi)

et enfin∀f ∈ R

EE(f(Xk)) = η0M1 . . .Mkf

Page 67: MASTER MASS 2 Univ. Nice Sophia Antipolis

2.5. EXERCICES 65

Exercice 2.5.10 On considere une chaıne de Markov homogene sur un espace a deux points

E = 1, 2, et associee a la matrice de transition M =

(p1,1 p1,2

p2,1 p2,2

)

. Les entrees pi,j ∈ [0, 1]

sont telles que p1,1 + p1,2 = 1 = p2,1 + p2,1. On conviendra que c = p1,2 + p2,1 > 0. Montrer(par recurrence sur le parametre temporel) que les iterees M n de la matrice M sont donneespar la formule

Mn =1

c

(p2,1 p1,2

p2,1 p1,2

)

+(1 − c)n

c

(p1,2 −p1,2

−p2,1 p2,1

)

(2.6)

Exercice 2.5.11 Soit (X ′k)0≤k≤n un processus de Markov, a valeurs dans les espaces

(E′k)0≤k≤n, de probabilites de transitions (M ′

k)0≤k≤n, et de loi initiale η′0. On note (Xk)0≤k≤n

le processus historique de (X ′k)0≤k≤n defini par

Xk = (X ′0, . . . , X

′k)

1. Verifier que (Xk)0≤k≤n est une chaıne de Markov a valeurs dans les espaces produits

Ek = (E′0, . . . , E

′k)

2. Decrire les probabilites de transitions de (Xk)0≤k≤n.

Exercice 2.5.12 On considere une marche aleatoire (Xk)0≤k≤n definie sur un espace deprobabilites (Ω, P), d’origine X0 = 0 et de probabilites de transitions homogenes

M(x, y) = α 1x+1(y) + (1 − α) 1x−1(y) avec α ∈ [0, 1]

1. Decrire l’arbre des epreuves associe au processus (Xk)0≤k≤n.

2. Montrer que la position moyenne de la particule au temps n est donnee par la formule

∀0 ≤ k ≤ n E(Xk) = k × (2α − 1)

3. Verifier que les transitions de la chaıne entre deux instants, l et (l+m) ≤ n, sont donneespar la formule

P(Xl+m = x + [k − (m − k)] | Xl = x) = Ckm αk (1 − α)m−k

pour tous les k ∈ 0, . . . , m, et

P(Xl+m 6∈ 2k − m : k = 0, . . . , m|Xl = x) = 0

4. En deduire que

P(Xl+2k = 0 | Xl = 0) =(2k)!

k!k!(α(1 − α))k

En utilisant la formule de Stirling (k! '√

2πk kk e−k), montrer que

P(Xl+2k = 0 | Xl = 0) ' (4α(1 − α))k

√πk

(= 1/√

πk si α = 1/2)

Exercice 2.5.13 Soit (Xk)0≤k≤n, une promenade aleatoire sur R, associee a une suite de v.a.(εk)0≤k≤n independantes

Xk =k∑

p=0

εp = Xk−1 + εk

Decrire la partie previsible, et la partie martingale de ce processus.

Exercice 2.5.14 Soit (Xk)0≤k≤n, une promenade aleatoire sur R, associee a une suite de v.a.(εk)0≤k≤n independantes

Xk =k∏

p=0

εp = Xk−1 × εk

Decrire la partie previsible, et la partie martingale de ce processus.

Page 68: MASTER MASS 2 Univ. Nice Sophia Antipolis

66 CHAPITRE 2. PROCESSUS ALEATOIRES DISCRETS

Page 69: MASTER MASS 2 Univ. Nice Sophia Antipolis

Chapitre 3

Elements de la theorie des

martingales

3.1 Definitions et proprietes

3.1.1 Caracterisations

Definition 3.1.1 Une martingale est un processus aleatoire M = (Mk)0≤k≤n, avaleurs reelles, defini sur un espace probabilise filtre (Ω, (Fk)0≤k≤n, P), et verifiantla propriete suivante

∀0 ≤ k < n E(Mk+1 | Fk) = Mk

On dit aussi qu’un processus aleatoire reel M = (Mk)0≤k≤n est une sous-martingale(resp. une sur-martingale), s’il verifie les inegalites suivantes

∀0 ≤ k < n E(Mk+1 | Fk) ≥ Mk (resp. E(Mk+1 | Fk) ≤ Mk)

Les proprietes de martingales que nous avons introduites precisent les tendances locales d’unprocessus aleatoire. Plus precisement, on note que tout processus aleatoire M = (Mk)0≤k≤n

peut se mettre sous la forme

Mk = M0 +

k∑

l=1

∆Mk avec ∆Mk = (Mk − Mk−1)

La propriete de martingale (resp. sous-martingale, ou sur-martingale), exprime le fait que lesaccroissements conditionnels moyens et previsibles, sont nuls (resp. positifs, ou negatifs).

Supposons par exemple que Mk represente l’evolution aleatoire de la fortune d’un joueur.Dans ce cas, la propriete de martingale exprime le fait que le jeu est equitable en moyenne, ence sens ou le joueur ne peut accroıtre ou diminuer son esperance de gain (Mk+1 −Mk), a l’aidedes information precedentes

E(Mk+1 − Mk | Fk) = 0

On remarquera dans ce cas que le fortune moyenne du joueur reste constante

∀0 ≤ k ≤ n E(Mk) = E(M0)

La propriete de sous martingale correspond a un jeu favorable au joueur avec des gainsconditionnels certains

∀0 ≤ k < n E(Mk+1 − Mk | Fk) ≥ 0

67

Page 70: MASTER MASS 2 Univ. Nice Sophia Antipolis

68 CHAPITRE 3. ELEMENTS DE LA THEORIE DES MARTINGALES

conduisant a la croissance en moyenne de sa fortune

E(M0) ≤ . . . ≤ E(Mk) ≤ E(Mk+1) ≤ . . . ≤ E(Mn)

Terminons cette section par une caracterisation pratique de la propriete de martingale, en termede processus transformes. Nous utiliserons cette caracterisation dans le chapitre concernant lesmathematiques financieres, lorsque nous “neutraliserons” des marches financiers.

Proposition 3.1.1 Soit (Mk)0≤k≤n un processus aleatoire defini sur un espace probabilise filtre(Ω, (Fk)0≤k≤n, P). Le processus (Mk)0≤k≤n est une martingale si, et seulement si, pour toutprocessus previsible (Uk)0≤k≤n, on a la propriete suivante

E

(n∑

l=0

Uk ∆Mk

)

= E(U0M0)

Preuve:Si (Mk)0≤k≤n est une martingale, alors on a clairement

E

(n∑

l=0

Uk ∆Mk

)

=

n∑

l=0

E (Uk ∆Mk)

= E(U0M0) +n∑

l=1

E (E(Uk ∆Mk | Fk−1))

= E(U0M0) +

n∑

l=1

E (Uk E(∆Mk | Fk−1)) = E(U0M0)

Pour montrer la reciproque, on commence par noter que l’on a necessairement

∀0 ≤ k ≤ n E(Mk) = E(M0)

Pour verifier cette assertion, il suffit de choisir le processus previsible constant Uk = 1. En effet,dans cette situation, nous avons

Mk =

k∑

l=0

∆Ml =

k∑

l=0

Ul ∆Ml

D’apres nos hypotheses, on obtient

E(Mk) = E(

k∑

l=0

Ul ∆Ml) = E(U0M0) = E(M0)

Soit T une v.a. positive entiere, telle que les evenements T ≥ k soient previsibles, c’est a dire1T≥k ∈ Fk−1. On a clairement

MT =T∑

k=0

∆Mk =n∑

k=0

Uk ∆Mk

avec le processus previsible Uk = 1T≥k ∈ Fk−1. D’apres nos hypotheses, nous obtient que

E(MT ) = E(U0M0) = E(M0)

On associe a tout evenement A ∈ Fk, la v.a. entiere

T = k 1A + (k + 1) 1Ac

Page 71: MASTER MASS 2 Univ. Nice Sophia Antipolis

3.1. DEFINITIONS ET PROPRIETES 69

Par construction, les evenements

T ≥ l =

Ω si l ≤ kAc si l = k + 1∅ si l > (k + 1)

sont previsibles. D’autre part, nous avons les decompositions

MT = Mk 1A + Mk+1 1Ac

= Mk 1A + Mk+1 (1 − 1A) = Mk+1 − 1A ∆Mk+1

D’apres la discussion precedente, on obtient

∀A ∈ Fk (E(MT ) =)E(Mk+1) − E(1A ∆Mk+1) = E(M0)

Compte tenu du fait que E(Mk+1) = E(M0), ceci entraıne que

∀A ∈ Fk E(1A ∆Mk+1) = 0

D’apres les proprietes des esperances conditionnelles, on en conclut que

E(∆Mk+1 | Fk) = 0

En repetant ces raisonnement, pour tous les indices k ∈ 0, . . . , n, on montre que le processusMk est necessairement une martingale. Ceci acheve la preuve de la proposition.

3.1.2 Compensateurs

Soit (Mk)0≤k≤n une martingale definie sur un espace probabilise filtre

(Ω, (Fk)0≤k≤n, P)

Le processus aleatoire forme des carres (M 2k )0≤k≤n est une sous martingale sur

(Ω, (Fk)0≤k≤n, P). Cette propriete resulte simplement de l’inegalite de Cauchy-Schwartz

E(M2k+1 | Fk) ≥ E(Mk+1 | Fk)2 = M2

k

Definition 3.1.2 On associe a une martingale (Mk)0≤k≤n sur un espace probabilise(Ω, (Fk)0≤k≤n, P), le processus previsible (〈M〉k)0≤k≤n defini par

〈M〉k =

k∑

l=0

[E(M2l | Fl−1) − M2

l−1] =

k∑

l=0

E([Ml − Ml−1]2 | Fl−1)

Le processus aleatoire (〈M〉k)0≤k≤n, est appele le compensateur, la variationquadratique previsible, ou encore le processus croissant, associe a la martingale(Mk)0≤k≤n.

Dans la definition precedente, nous avons utilise la convention E([M0−M−1]2 | F−1) = E(M2

0 ),lorsque l = 0. L’importance de ce processus resulte de la proposition suivante.

Page 72: MASTER MASS 2 Univ. Nice Sophia Antipolis

70 CHAPITRE 3. ELEMENTS DE LA THEORIE DES MARTINGALES

Proposition 3.1.2 Soit (Mk)0≤k≤n une martingale reelle definie sur un espaceprobabilise filtre (Ω, (Fk)0≤k≤n, P). Le processus aleatoire

M2k − 〈M〉k

est une martingale par rapport a la filtration (Fk)0≤k≤n.

Preuve:Pour verifier la premiere assertion, on observe que

E(M2k+1 | Fk) = E([Mk + (Mk+1 − Mk)]2 | Fk)

= M2k + 2MkE((Mk+1 − Mk) |Fk ) + E((Mk+1 − Mk)2 | Fk)

= M2k + E((Mk+1 − Mk)2 | Fk)

On en deduit la decomposition suivante

[M2k+1 − 〈M〉k+1] − [M2

k − 〈M〉k] = [M2k+1 − M2

k ] − [〈M〉k+1 − 〈M〉k]

= [M2k+1 − M2

k ] − E((Mk+1 − Mk)2 | Fk)

= [M2k+1 − M2

k ] − [E(M2k+1 | Fk) − M2

k ]

Il est alors clair que la propriete de martingale est satisfaite

E(M2k+1 − 〈M〉k+1 | Fk) = M2

k − 〈M〉k

Definition 3.1.3 On associe a un couple de martingales reelles (Mk)0≤k≤n et(Nk)0≤k≤n, sur un meme espace probabilise filtre (Ω, (Fk)0≤k≤n, P), le processusprevisible (〈M, N〉k)0≤k≤n, defini par

〈M, N〉k =k∑

l=0

[E(MlNl | Fl−1) − Ml−1Nl−1] =k∑

l=0

E(∆Ml∆Nl | Fl−1)

avec la convention E([M0 − M−1][N0 − N−1] | F−1) = E(M0N0), lorsque l = 0.

Le prochain theoreme est une extension de la proposition precedente a des produits quelconquesde martingales.

Theoreme 3.1.1 Soit (Mk)0≤k≤n et (Nk)0≤k≤n, un couple de martingales reelles, etdefinies sur un meme espace probabilise filtre (Ω, (Fk)0≤k≤n, P). Dans cette situation,les processus aleatoires defini par

MkNk − [M, N ]k et MkNk − 〈M, N〉k

sont des martingales par rapport a la filtration (Fk)0≤k≤n

Page 73: MASTER MASS 2 Univ. Nice Sophia Antipolis

3.1. DEFINITIONS ET PROPRIETES 71

Preuve:D’apres la formule d’integration par parties (2.4), nous avons la decomposition

MkNk =

k∑

l=1

Ml−1 ∆Nl +

k∑

l=1

Nl−1 ∆Ml + [M, N ]k

D’autre part, nous avons vu dans l’exercice 3.1.5 que les processus

k∑

l=1

Ml−1∆Nl etk∑

l=1

Nl−1∆Ml

sont des martingales. On en conclut que

MkNk − [M, N ]k = M0N0 +

k∑

l=1

Ml−1 ∆Nl +

k∑

l=1

Nl−1

est une martingale.

Pour verifier la derniere assertion du theoreme, on remarque tout d’abord que l’on a

E(Mk+1Nk+1 | Fk) = E([Mk + (Mk+1 − Mk)][Nk + (Nk+1 − Nk)] | Fk)

= MkNk + E([Mk+1 − Mk][Nk+1 − Nk] | Fk)

On en deduit la decomposition

[Mk+1Nk+1 − 〈M, N〉k+1] − [MkNk − 〈M, N〉k]

= [Mk+1Nk+1 − MkNk] − [〈M, N〉k+1 − 〈M, N〉k]

= [Mk+1Nk+1 − MkNk] − E([Mk+1 − Mk][Nk+1 − Nk] | Fk)

= [Mk+1Nk+1 − MkNk] − [E(Mk+1Nk+1 | Fk) − MkNk]

On en conclut que la propriete de martingale est satisfaite

E(Mk+1Nk+1 − 〈M, N〉k+1 | Fk) = MkNk − 〈M, N〉k

Les compensateurs ([M, N ]k)0≤k≤n, et (〈M, N〉k)0≤k≤n, decrits dans le theoreme 3.1.1, sontdes processus aleatoires initialises en

[M, N ]0 = M0N0 et 〈M, N〉0 = E(M0N0)

Comme dans l’etude des decompositions (2.5), nous pouvons alternativement utiliser descompensateurs initialises en 0. Plus precisement, il est facile de verifier que les deux processussuivants

MkNk − M0N0 − (〈M, N〉k − 〈M, N〉0)

et

MkNk − M0N0 − ([M, N ]k − [M, N ]0)

sont des martingales nulles a l’origine.

Page 74: MASTER MASS 2 Univ. Nice Sophia Antipolis

72 CHAPITRE 3. ELEMENTS DE LA THEORIE DES MARTINGALES

3.1.3 Proprietes fondamentales

La proposition suivante offre un catalogue synthetique de proprietes classiques utilisees dansla suite du cours.

Proposition 3.1.3 Soit (Mk)0≤k≤n une martingale (reelles) definie sur un espaceprobabilise filtre (Ω, (Fk)0≤k≤n, P).

1. Pour tout 0 ≤ k ≤ l ≤ n, on a E(Ml | Fk) = Mk. En particulier, la martingaleMk s’exprime en fonction de son etat terminal, par la formule

Mk = E(Mn | Fk)

On a de plus, E(Mk) = E(M0).

2. Pour toute fonction convexe f sur R, le processus (f(Mk))0≤k≤n une sousmartingale. En particulier, les processus aleatoires (M 2

k )0≤k≤n, et (|Mk|)0≤k≤n,sont des sous martingales.

3. Toute combinaison lineaire de martingales, est une martingale.

Preuve:Le premier point est equivalent au fait que

∀0 ≤ p + m ≤ n E(Mm+p | Fm) = Mm

Le cas p = 1 resulte de la definition meme d’une martingale. On raisonne ensuite par recurrencesur cet indice. Supposons donc le resultat vrai au rang p. Compte tenu du fait que Fm+p ⊃ Fm,nous avons

E(Mm+(p+1) | Fm) = E( E(Mm+(p+1) | Fm+p)| Fm)

= E(Mm+p | Fp)

= Mp

Le dernier point resulte de l’hypothese de recurrence. Ceci acheve la preuve du resultatrecherche. Le second point est une consequence immediate de l’inegalite de Jensen

E(f(Mn+1) | Fn) ≥ f (E(Mn+1 | Fn)) = f(Mn)

La verification de la derniere propriete ne pose aucune difficulte majeure.

La proposition suivante est une consequence de la premiere propriete enoncee dans laproposition 3.1.3. Nous utiliserons ce resultat dans les prochains chapitres de ce cours, lorsquenous aborderons les strategies de financement de portefeuilles, et la simulation d’options, dansdes marches financiers viables.

Page 75: MASTER MASS 2 Univ. Nice Sophia Antipolis

3.1. DEFINITIONS ET PROPRIETES 73

Proposition 3.1.4 Soit Fk = σ(X0, . . . , Xk), 0 ≤ k ≤ n, la filtration naturelleassociee a un processus aleatoire (Xk)0≤k≤n, a valeurs dans un espace d’etats fini E.On associe a une fonction gn : En+1 → R, la suite de fonctions

Vk : (x0, . . . , xk) ∈ Ek+1 7→ Vk(x0, . . . , xk) ∈ R , 0 ≤ k ≤ n

definies par les formules de recurrence inverse

Vn(x0, . . . , xn) = gn(x0, . . . , xn)

Vk(x0, . . . , xk) = E (Vk+1(x0, . . . , xk, Xk+1) | (X0, . . . , Xk) = (x0, . . . , xk))

pour tout 0 ≤ k < n. Le processus aleatoire (Mk)0≤k≤n defini par

∀0 ≤ k ≤ n Mk = Vk(X0, . . . , Xk)

est l’unique martingale, par rapport a la filtration (Fk)0≤k≤n, dont la valeur terminaleMn coıncide avec la v.a. gn(X0, . . . , Xn).

Preuve:Par construction, le processus

Mk = Vk(X0, . . . , Xk)

forme une martingale, telle que Mn = gn(X0, . . . , Xn). On notera que les relations de recurrenceinverse sont equivalentes a la propriete de martingale

Mk = E (Mk+1 | Fk)

De plus, d’apres la premiere propriete enoncee dans la proposition 3.1.3, nous avons

Mk = E(Mn | Fk) = E(gn(X0, . . . , Xn) | Fk)

pour toute martingale (Mk)0≤k≤n, telle que Mn = gn(X0, . . . , Xn). Par consequent, si(Mk)0≤k≤n, et (M ′

k)0≤k≤n, designent un couple de martingales telles que

Mn = M ′n = gn(X0, . . . , Xn)

alors on a necessairement

Mk = E(gn(X0, . . . , Xn) | Fk) = M ′k

Ceci demontre l’unicite d’une martingale a condition terminale fixe, et acheve la preuve de laproposition.

3.1.4 Martingales exponentielles

Afin d’eviter des repetitions inutiles, on conviendra dans ce qui suit que tous les processusaleatoires consideres sont definis sur le meme espace probabilise filtre (Ω, (Fk)0≤k≤n, P).

Page 76: MASTER MASS 2 Univ. Nice Sophia Antipolis

74 CHAPITRE 3. ELEMENTS DE LA THEORIE DES MARTINGALES

Definition 3.1.4 Le processus exponentiel (Ek(X))0≤k≤n d’un processus aleatoirereel (Xk)0≤k≤n est defini de la facon suivante

Ek(X) =

k∏

l=1

(1 + ∆Xl) = Ek−1(X) (1 + ∆Xk)

On notera que (Ek(X))0≤k≤n est defini de maniere equivalente, par la donnee desaccroissements

∆Ek(X) = Ek−1(X) × ∆Xk

On adoptera la convention usuelle∏

∅ = 1, de sorte que E0(X) = 1.

Proposition 3.1.5 Pour tout couple de processus aleatoires (Xk)0≤k≤n, et(Yk)0≤k≤n, on a la formule produit

Ek(X) × Ek(Y ) = εk(X + Y + [X, Y ])

En particulier, lorsque les accroissements du processus (Xk)0≤k≤n sont tels que (1 +∆Xk) > 0, on a la formule d’inversion

Ek(X) × Ek(−X?) = 1

avec le processus aleatoire (X?k )0≤k≤n, donne par les accroissements

∆X?k = ∆Xk/(1 + ∆Xk)

Preuve:Pour verifier la premiere assertion, il suffit de noter que

(1 + ∆Xk)(1 + ∆Yk) = 1 + ∆Xk + ∆Yk + ∆Xk∆Yk

= 1 + ∆(X + Y + [X, Y ])k

La seconde assertion est une consequence immediate de la premiere. En effet, par definition de(X?

k )0≤k≤n, nous avons

1 + ∆Xk − ∆X?k − ∆Xk∆X?

k = 1 + ∆Xk − ∆X?k(1 + ∆Xk) = 1

Par consequent, on obtient

1 + ∆(X − X? − [X, X?])k = 1

et finalement

Ek(X) × Ek(−X?) = Ek(X − X? − [X, X?]) = 1

Page 77: MASTER MASS 2 Univ. Nice Sophia Antipolis

3.1. DEFINITIONS ET PROPRIETES 75

Proposition 3.1.6 Soit (Xk)0≤k≤n, et (Yk)0≤k≤n, un couple de processus aleatoires.On suppose que (Yk)0≤k≤n est previsible, et ses accroissements sont tels que (1 +∆Yk) > 0. Dans cette situation, nous avons les equivalences suivantes

(Ek(X))0≤k≤n martingale ⇐⇒ (Xk)0≤k≤n martingale

(Ek(X)/Ek(Y ))0≤k≤n martingale ⇐⇒ (Xk − Yk)0≤k≤n martingale

Preuve:La premiere equivalence est une consequence directe du fait suivant

E(1 + ∆Xk | Fk−1) = 1 ⇐⇒ E(∆Xk | Fk−1) = 0

Pour verifier la seconde, on remarque que l’on a

Ek(X)/Ek(Y ) = Ek(X) Ek(−Y ?) = εk(X − Y ? − [X, Y ?])

et

∆Xk − ∆Y ?k − ∆Xk∆Y ?

k = ∆Xk − ∆Yk

1 + ∆Yk− ∆Xk∆Yk

1 + ∆Yk

=∆Xk + ∆Xk∆Yk − ∆Yk − ∆Xk∆Yk

1 + ∆Yk

=∆Xk − ∆Yk

1 + ∆Yk

La fin de la demonstration est desormais claire.

3.1.5 Lemme de Girsanov

La donnee d’une martingale positive (Zk)0≤k≤n, sur un espace probabilise filtre(Ω, (Fk)0≤k≤n, P), peut s’interpreter comme un changement de probabilite. On definit cettenouvelle probabilite P

′ en posant

∀A ⊂ Ω P′(A) = E(Zn 1A)

(

=∑

ω∈A

Zn(ω) P(ω)

)

(3.1)

On verifie aisement que P′ est bien une mesure de probabilite sur Ω. De plus, on a pour tout

0 ≤ k ≤ n

A ∈ Fk =⇒ P′(A) = E(Zn 1A)

= E(E(Zn 1A | Fk)) = E(E(Zn | Fk) 1A)

=⇒ P′(A) = E(Zk 1A)

Ces deux proprietes sont souvent notees “de facon synthetique”

∀0 ≤ k ≤ ndP

dP |Fk

= Zk

Avec ces notations, les formules precedentes s’expriment sous la forme suivante

A ∈ Fk ⇒ P′(A) =

ω∈A

P′(ω) =

ω∈A

P(ω) × dP′

dP |Fk

(ω) = E(Zk 1A)

Page 78: MASTER MASS 2 Univ. Nice Sophia Antipolis

76 CHAPITRE 3. ELEMENTS DE LA THEORIE DES MARTINGALES

Les resultats que nous venons d’examiner s’etendent aux variables aleatoires. En effet,lorsque U ∈ Fk, avec 0 ≤ k ≤ n, on obtient

E′(U) =

ω∈Ω

U(ω) P′(ω)

= E(UZn) = E(UE(Zn | Fk)) = E(UZk)

Remarquons que pour tout V ∈ Fk−1, on a (UV ) ∈ Fk, et en accord avec ce qui precede,nous avons

E′(UV ) = E(UV Zk)

= E(E(UV Zk | Fk−1)) = E(V E(UZk | Fk−1))

= E(V ZkZ−1k−1 E(UZk | Fk−1))

= E′(V Z−1

k−1E(UZk | Fk−1))

L’egalite ci-dessus etant satisfaite pour tout V ∈ Fk−1, on en conclut que

E′(U | Fk−1) = Z−1

k−1E(UZk | Fk−1)

On verifie alors aisement le lemme suivant.

Lemme 3.1.1 (Lemme de Girsanov) Si (Mk)0≤k≤n est une martingale sous laprobabilite P, alors le processus

M ′k = Mk −

k∑

l=0

Z−1l−1E(Zl ∆Ml | Fl−1)

est une martingale sous la probabilite P′ defini en (3.1). Lorsque l = 0, on utilise les

conventions Z−1−1 = 1, Fl−1 = ∅, Ω, et ∆M0 = M0, de sorte que

M ′0 = M0 − E(Z0 M0)

3.1.6 Exercices

Exercice 3.1.1 On considere un processus previsible (Xk)0≤k≤n, et un processus aleatoire(Yk)0≤k≤n, sur un espace probabilise filtre (Ω, (Fk)0≤k≤n, P). Montrer que si (Yk)0≤k≤n estune martingale, il en est de meme de ((X.Y )k)0≤k≤n. Lorsque (Xk)0≤k≤n est positif, verifierque ((X.Y )k)0≤k≤n est une sous martingale (resp. une sur martingale), des que (Yk)0≤k≤n estune sous martingale (resp. une sur martingale).

Exercice 3.1.2 Soit (εk)1≤k≤n une suite de v.a. i.i.d. de Bernoulli definies sur un meme espaceprobabilise (Ω, P), avec

P(εk = 1) = 1− P(εk = −1) = p ∈ [0, 1]

On conviendra que εk = +1 represente l’evenement favorable ou le joueur gagne a la k ieme

sequence de jeu une unite de mise. On note

Fk = σ(ε1, . . . εk)

la filtration associee au deroulement du jeux, avec la convention F0 = ∅, Ω, pour k = 0.Verifier que le processus de comptage des succes

Mk =

k∑

l=1

εl = Mk−1 + εk

Page 79: MASTER MASS 2 Univ. Nice Sophia Antipolis

3.1. DEFINITIONS ET PROPRIETES 77

est une martingale si p = 1/2, une sur-martingale lorsque p ≤ 1/2, et enfin une sous-martingalelorsque p ≥ 1/2.

Exercice 3.1.3 Soit (εk)1≤k≤n une suite de v.a. independantes, centrees (i.e. E(εk) = 0), etdefinies sur un meme espace probabilise (Ω, P). Montrer que le processus aleatoire (Mk)0≤k≤n

defini par

Mk =

k∑

l=0

εl = Mk−1 + εk

est une martingale par rapport a la filtration Fk = σ(ε1, . . . εk).

Exercice 3.1.4 Soit (εk)1≤k≤n une suite de v.a. independantes, de moyenne unite (i.e. E(εk) =1), et definies sur un meme espace probabilise (Ω, P). Verifier que processus aleatoire (Mk)0≤k≤n

defini par le produit

Mk =

k∏

l=0

εl = Mk−1 × εk

est une martingale par rapport a la filtration Fk = σ(ε1, . . . εk).

Exercice 3.1.5 Soit L0, une v.a., et (Mk)0≤k≤n et (Nk)0≤k≤n, un couple de martingalesdefinies sur un meme espace probabilise filtre (Ω, (Fk)0≤k≤n, P). Verifier que le processus(Lk)0≤k≤n defini ci-dessous

Lk = L0 +

k∑

l=1

Ml−1∆Nl

est une martingale par rapport a la filtration (Fk)0≤k≤n.

Exercice 3.1.6 Soit (εk)1≤k≤n une suite de v.a. reelles independantes, centrees (i.e. E(εk) =0), et definies sur un meme espace probabilise (Ω, P). On note Fk = σ(ε1, . . . , εk), la filtrationd algebres associee.

1. Verifier que le processus aleatoire (Mk)0≤k≤n defini par

∀0 ≤ k ≤ n Mk =k∑

l=0

εl = Mk−1 + εk

est une martingale sur (Ω, (Fk)0≤k≤n, P).

2. On notera par la suite σ2k = E(ε2k), les variances des v.a. εk. Montrer que

E([Mk+1 − Mk]2 | Fk) = σ2k+1

En deduire que les processus aleatoires

∀0 ≤ k ≤ n M2k −

k∑

l=0

σ2l et M2

k − M20 −

k∑

l=1

σ2l

sont des martingale par rapport a la filtration Fk.

3. Dans le cas ou les v.a. (εk)1≤k≤n sont i.i.d. et centrees, les processus aleatoires

M2k − (k + 1)σ2 et M2

k − M20 − k σ2 avec σ2 = E(ε2k)

forment des martingales.

Exercice 3.1.7 Soit (εk)1≤k≤n une suite de v.a. reelles independantes, de moyenne unite (i.e.E(εk) = 1), et definies sur un meme espace probabilise (Ω, P). On note Fk = σ(ε1, . . . , εk), lafiltration d algebres associee.

Page 80: MASTER MASS 2 Univ. Nice Sophia Antipolis

78 CHAPITRE 3. ELEMENTS DE LA THEORIE DES MARTINGALES

1. Montrer que le processus aleatoire (Mk)0≤k≤n defini par

Mk =k∏

l=0

εl = Mk−1 × εk

est une martingale par rapport a la filtration Fk.

2. On notera par la suite σ2k = E([εk − E(εk)]2), les variances des v.a. εk. Verifier que le

processus aleatoire

[

k∏

l=0

ε2l ] −k∑

l=0

[

l−1∏

m=0

ε2m] σ2l

est une martingale par rapport a la filtration Fk.

Exercice 3.1.8 Soit ((εk, ε′k))0≤k≤n une suite de v.a. a valeurs dans R2, independantes et

centrees (en ce sens ou E(εk) = 0 = E(ε′k)), et definies sur un meme espace probabilise (Ω, P).On note

Fk = σ((ε1, ε′1), . . . , (εk, ε′k))

la filtration d algebres associee. On associe a ces suites, le couple de martingales (Yk)0≤k≤n, et(Y ′

k)0≤k≤n, definies par

Yk = ε0 + . . . + εk et Y ′k = ε′0 + . . . + ε′k

1. Montrer que le compensateur (〈Y, Y ′〉k)0≤k≤n du processus produit Xk = YkY ′k, est donnee

par la formule suivante

〈Y, Y ′〉k =

k∑

l=0

E(εlε′l)

2. En deduire que le processus

[

k∑

l=0

εl] × [

k∑

l=0

ε′l] −n∑

k=0

E(εkε′k)

est une martingale par rapport a la filtration Fk.

Exercice 3.1.9 Soit ((εk, ε′k))0≤k≤n une suite de v.a. a valeurs dans R2, independantes et telles

queE(εk) = 1 = E(ε′k)

et definies sur un meme espace probabilise (Ω, P). On note

Fk = σ((ε1, ε′1), . . . , (εk, ε′k))

la filtration d algebres associee. On associe a ces suites, le couple de martingales (Yk)0≤k≤n, et(Y ′

k)0≤k≤n, definies par

Yk =k∏

l=0

εl et Y ′k =

k∏

l=0

ε′l

1. Verifier que la formule

Cov(εk, ε′k) =def. E([εk − E(εk)][ε′k − E(ε′k)]) = E(εkε′k) − 1

2. Montrer que le compensateur (〈Y, Y ′〉k)0≤k≤n du processus produit Xk = YkY ′k, est donnee

par la formule suivante

〈Y, Y ′〉k =

k∑

l=0

[

l−1∏

m=0

εmε′m] × Cov(εl, ε′l)

Page 81: MASTER MASS 2 Univ. Nice Sophia Antipolis

3.1. DEFINITIONS ET PROPRIETES 79

3. En deduire que le processus

[

k∏

l=0

εl] × [

k∏

l=0

ε′l] −k∑

l=0

[

l−1∏

m=0

εmε′m] × Cov(εl, ε′l)

est une martingale par rapport a la filtration Fk.

Exercice 3.1.10 Soit (Xk)0≤k≤n un processus de Markov, a valeurs dans les espaces(Ek)0≤k≤n, de probabilites de transitions (Mk)0≤k≤n, et de loi initiale η0. On associe a toutefonction fk+1 sur Ek+1, la fonction Mk+1(fk+1) sur Ek definie par

∀xk ∈ Ek Mk+1(fk+1)(xk) =∑

xk+1∈Ek+1

Mk+1(xk , xk+1)f(xk+1) = E(fk+1(Xk+1) | Xk = xk)

1. Soit f = (fk)0≤k≤n une famille de fonctions definies sur les espaces (Ek)0≤k≤n. Montrerque le processus

Mk(f) =

k∑

l=1

[fl(Xl) − Ml(fl)(Xl−1)]

est une martingale nulle en l’origine, par rapport a la filtration naturelle (FXk )0≤k≤n

associee au processus (Xk)0≤k≤n.

2. Determiner le compensateur de la martingale (Mk(f))0≤k≤n.

Exercice 3.1.11 Soit (εk)0≤k≤n une suite de v.a. reelles, independantes et centrees, et avaleurs dans des espaces reduits a deux points Ek = uk, vk, avec

uk < 0 ≤ vk et P(εk = uk) = 1 − P(εk = vk) = pk ∈ (0, 1)

On note Fk = σ(ε0, . . . , εk), avec 0 ≤ k ≤ n, la filtration naturelle associee a ces variablesaleatoires.

1. Verifier la propriete suivante :

∀0 ≤ k ≤ n uk pk + vk (1 − pk) = 0

2. Montrer que le processus defini par

∀0 ≤ k ≤ n Yk = ε0 + . . . + εk = Yk−1 + εk

est une martingale (par rapport a la filtration (Fk)0≤k≤n) a valeurs dans les espaces

EYk =

k∑

l=0

wl : wl ∈ ul, vl, 0 ≤ l ≤ k = EYk−1 + uk, vk

3. Verifier que le processus (Yk)0≤k≤n est aussi une chaıne de Markov. Determiner sa loiinitiale, et ses probabilites de transitions.

Exercice 3.1.12 Soit (εk)0≤k≤n une suite de v.a. reelles, independantes, et a valeurs dans desespaces reduits a deux points Ek = uk, vk, avec

uk < 1 ≤ vk E(εk) = 1 et P(εk = uk) = 1 − P(εk = vk) = pk ∈ (0, 1)

On note Fk = σ(ε0, . . . , εk), avec 0 ≤ k ≤ n, la filtration naturelle associee a ces variablesaleatoires.

1. Verifier la propriete suivante :

∀0 ≤ k ≤ n uk pk + vk (1 − pk) = 1

Page 82: MASTER MASS 2 Univ. Nice Sophia Antipolis

80 CHAPITRE 3. ELEMENTS DE LA THEORIE DES MARTINGALES

2. Montrer que le processus defini par

∀0 ≤ k ≤ n Yk = ε0 × . . . × εk = Yk−1 × εk

est une martingale (par rapport a la filtration (Fk)0≤k≤n) a valeurs dans les espaces

EYk =

k∏

l=0

wl : wl ∈ ul, vl, 0 ≤ l ≤ k

3. Verifier que le processus (Yk)0≤k≤n est aussi une chaıne de Markov. Determiner sa loiinitiale, et ses probabilites de transitions.

Exercice 3.1.13 Soit X une v.a. reelle definie sur un espace probabilise (Ω, P). On considereune filtration croissante de sous algebres (Fk)0≤k≤n de P(Ω). Verifier que la processus aleatoire(Xk)0≤k≤n defini par

∀0 ≤ k ≤ n Xk = E(X | Fk)

est une martingale sur l’espace filtre (Ω, (Fk)0≤k≤n, P). Inversement, si (Xk)0≤k≤n designe unemartingale par rapport a la filtration (Fk)0≤k≤n, montrer qu’il existe une v.a. reelle X, telleque Xk = E(X | Fk), pour tout 0 ≤ k ≤ n.

Exercice 3.1.14 Soit (εk)0≤k≤n une suite de v.a. reelles, independantes, centrees, etequidistribuees. On considere la martingale

∀0 ≤ k ≤ k Mk =

k∑

l=1

εl = Mk−1 + εk

et la fonction λ ∈ R 7→ ϕ(λ) = E(eλε1) ∈ R.

1. Verifier que le processus defini

Zλk = eλMk−k log ϕ(λ)

(

= eλMk−1−(k−1) log ϕ(λ) eλεk

E(eλεk)

)

est une martingale exponentielle

2. Plus generalement, montrer que pour toute martingale (Mk)0≤k≤n, le processus suivantest a nouveau une martingale exponentielle

Zλk = eλMk/

k∏

l=1

E(eλ∆Ml | Fl−1)

Exercice 3.1.15 Soit (Ek(X))0≤k≤n le processus exponentiel d’une martingale (Xk)0≤k≤n,definie sur (Ω, (Fk)0≤k≤n, P), et telle que (1 + ∆Xk) > 0, pour tout indice 0 ≤ k ≤ n.

1. Verifier que Zk est une martingale par rapport a la filtration (Fk)0≤k≤n.

2. On note P′ la probabilite sur Ω, definie par

∀A ⊂ Ω P′(A) = E(Zn 1A) avec Zn = En(X)

Montrer que pour toute martingale (Mk)0≤k≤n sur (Ω, (Fk)0≤k≤n, P), le processusaleatoire (M ′

k)0≤k≤n defini par

∀0 ≤ k ≤ n M ′k = Mk − 〈M, X〉k

est une martingale sur (Ω, (Fk)0≤k≤n, P′).

Page 83: MASTER MASS 2 Univ. Nice Sophia Antipolis

3.2. CONTROLE DE MARTINGALES 81

Exercice 3.1.16 Soit ((εk, ε′k))0≤k≤n une suite de v.a. a valeurs dans R2, independantes et

centrees (en ce sens ou E(εk) = 0 = E(ε′k)), et definies sur un meme espace probabilise (Ω, P).On note

Fk = σ((ε1, ε′1), . . . , (εk, ε′k))

la filtration d algebres associee. On associe aux suites (εk)0≤k≤n, et (ε′k)0≤k≤n, les processus(Xk)0≤k≤n, et (Yk)0≤k≤n, donnes par

Xk =

n∑

k=0

εk et Yk =

n∑

k=0

ε′k

1. Verifier que le processus exponentiel de (Xk)0≤k≤n est donne par

Zk = Ek(X) =k∏

l=0

(1 + εl)

2. On suppose que les v.a. εk sont telles que εk > −1, et on note P′ la probabilite sur Ω,

definie par∀A ⊂ Ω P

′(A) = E(Zn 1A) avec Zn = En(X)

Verifier que (Yk)0≤k≤n est une martingale sur (Ω, (Fk)0≤k≤n, P). Montrer que le processus

Y ′k = Yk −

k∑

l=0

E(εl ε′l)

est une martingale sur (Ω, (Fk)0≤k≤n, P′).

3.2 Controle de martingales

3.2.1 La notion de temps d’arret

Dans la theorie des jeux la donnee d’une filtration d’algebres (Fk)0≤k≤n sur un espaceprobabilise (Ω, P) correspond a l evolution de l’information dont dispose un joueur surles resultats du jeu. En pratique, ces algebres sont engendrees par des sequences de v.a.numerique representant par exemple les successions des gains et des pertes a chaque misedans le deroulement du jeu. La suite des gains aleatoires au cours des differentes mises est“malheureusement” souvent donne par une martingale (Mk)0≤k≤n

∀1 ≤ k ≤ n E(Mk | Fk−1) = Mk−1 (3.2)

Cette propriete represente le caractere imprevisible de l’accroissement des gains dans des jeuxequitables

(3.2) ⇐⇒ ∀1 ≤ k ≤ n E(∆Mk | Fk−1) = E([Mk − Mk−1] | Fk−1) = 0

Il est d’autant plus desesperant de noter que toute transformee

(X.M)k =

k∑

l=0

Xl ∆Ml

de (Mk)0≤k≤n par un processus quelconque previsible (Xk)0≤k≤n, est a nouveau une martingale

∀1 ≤ k ≤ n E(Xk ∆Mk | Fk−1) = Xk E(∆Mk | Fk−1) = 0

Il est donc impossible de controler honnetement les accroissements des gains au cours du jeu.Existe-t-il neanmoins des strategies aleatoires pour quitter le jeu, en augmentant ses chancesde gain ? Peut-on maximiser son esperance de gain ? Ces regles d’arret sont l’un des notions lesplus importantes de la theorie de probabilites. Nous examinerons des exemples classiques destrategies d’arret de jeu dans les sections 3.2.3, et 3.2.5.

Page 84: MASTER MASS 2 Univ. Nice Sophia Antipolis

82 CHAPITRE 3. ELEMENTS DE LA THEORIE DES MARTINGALES

Un temps d’arret sur un espace probabilise filtre (Ω, (Fk)0≤k≤n, P) est une application

T : ω ∈ Ω 7→ T (ω) ∈ 0, 1, . . . , n ∪ ∞

telle que

∀0 ≤ k ≤ n T−1(k) = T = k = ω ∈ Ω : T (ω) = k ∈ Fk

On notera que pour tout 0 ≤ k ≤ n, les evenements T ≥ k sont previsibles. Plusprecisement, nous avons

T ≥ k = Ω − T < k = ∩0≤l<kT 6= l ∈ Fk−1

La valeur T = ∞ correspond au cas ou le jeu n’est pas arrete, nous conviendrons doncdans ce cas que l’on a

T = ∞ = T > n ∈ Fn

On definit l’arret d’un processus aleatoire (Xk)0≤k≤n au temps T en decomposant ceprocessus sur les evenements T = k ∈ Fk

∀0 ≤ k ≤ n XTk =def. XT∧k =

n∑

l=0

Xl 1(T∧k)=l =[∑k−1

l=0 Xl 1T=l

]

1T<k + Xk 1T≥k

= XT 1T<k + Xk 1T≥k

Les proprietes de martingales, sous-martingales, et sur-martingales, sont stables parl’operation d’arret.

Montrons par exemple qu’une martingale arretee (MTk )0≤k≤n au temps T , est a nouveau

une martingale. Pour verifier ce resultat, on rappelle que les evenements T ≥ k ∈ Fk−1 sontprevisibles. Par consequent, en utilisant la decomposition precedente, nous avons

E(MTk | Fk−1) = E(

[k−1∑

l=0

Ml 1T=l

]

1T<k + Mk 1T≥k | Fk−1)

=

[k−1∑

l=0

Ml 1T=l

]

1T<k + E(Mk | Fk−1) 1T≥k

= MT 1T<k + Mk−1 1T≥k

= MT 1T≤(k−1) + Mk−1 1T>(k−1) = MT∧(k−1) × [1T≤(k−1) + 1T>(k−1)]

On en conclut queE(MT

k | Fk−1) = MT∧(k−1) = MTk−1

En iterant ce procede on montre que

∀0 < k ≤ l ≤ n E(MTl | Fk−1) = MT∧(k−1)

En choisissant l = n, on obtient la formule suivante

∀0 ≤ k ≤ n E(MT | Fk) = MT∧k

Page 85: MASTER MASS 2 Univ. Nice Sophia Antipolis

3.2. CONTROLE DE MARTINGALES 83

3.2.2 Jeux stochastiques

On considere la marche aleatoire

Yk =k∑

l=1

εl = Yk−1 + εk

associee a une suite de v.a. de Bernoulli, independantes, et equidistribuees, avec

P(ε1 = +1) = 1 − P(ε1 = −1) = p ∈ [0, 1]

On interprete dans ce qui suit les valeurs prises par les v.a. εk, comme le succes (εk = +1), oul’echec (εk = −1), d’un joueur a la kieme etape d’un jeu.

On notera que la mise aleatoire Xk du joueur a la kieme etape ne peut dependre que desinformations fournies par le deroulement du jeu, jusqu’a l’instant k, exclu ! Autrement dit, lamise Xk est previsible par rapport a la filtration d’information associee aux successions de gainset pertes jusqu’a l’instant k. Plus formellement, nous avons

∀1 ≤ k ≤ n Xk ∈ Fk−1 =def. σ(ε1, . . . , εk−1)

La variable deterministe X1 = 1 represente la mise initiale, fixee a l’avance, pour que le joueurgagne, ou perde, une quantite d’argent donnee.

On notera que

∀1 ≤ k ≤ n E(εk | Fk−1) = E(εk) = (+1) p + (−1) (1 − p) = 2p − 1

Les accroissements aleatoires (Zk)1≤k≤n du portefeuille du joueur, utilisant au cours du jeuune strategie de mises (Xk)2≤k≤n, sont donnees par la transformee de (Yk)1≤k≤n par (Xk)1≤k≤n,c’est a dire

Zk = (X.Y )k =

k∑

l=1

Xl ∆Yl =

k∑

l=1

Xl εl

Dans cette situation, la decomposition de Doob

Zk = AZk + MZ

k

est donnee par le processus previsible

AZk =

k∑

p=1

E(∆Zl | Fl−1)

=k∑

p=1

E(Xl εl | Fl−1) =k∑

p=1

Xl E(εl) =k∑

p=1

Xl (2p − 1)

et la martingale

MZk =

k∑

l=1

[∆Zl − E(∆Zl | Fl−1)]

=

k∑

l=1

[Xl εl − E(Xl εl | Fl−1)] =

k∑

l=1

Xl (εl − (2p − 1))

Trois cas se presentent :

1. Lorsque p > 1/2, le jeu est favorable au joueur, et la partie previsible des gains AZk est

un processus croissant. Dans ce cas, la strategie du joueur consistera a miser le maximumd’argent a chaque tour du jeu.

Page 86: MASTER MASS 2 Univ. Nice Sophia Antipolis

84 CHAPITRE 3. ELEMENTS DE LA THEORIE DES MARTINGALES

2. Lorsque p < 1/2, le jeu est defavorable au joueur, et la partie previsible des gains AZk est

un processus decroissant. Dans ce cas, la strategie consistera a eviter de jouer, ou bienquitter le jeu le plus rapidement possible.

3. Lorsque p = 1/2, le jeu est imprevisible, et equitable, en ce sens ou l’on a AZk = 0,

pour tout 0 ≤ k ≤ n. Dans ce cas, les gains et pertes successifs du joueur forment unemartingale.

3.2.3 Strategies de jeux equitables

Examinons plus en detail le jeu stochastique decrit dans la section precedente. On supposeraque le jeu est imprevisible, c’est a dire p = 1/2. Dans ces conditions, le processus aleatoire desgains et pertes du joueur est donne par la martingale

∀1 ≤ k ≤ n Zk =

k∑

l=1

Xl ∆Yl avec ∆Yl = εl

Le processus previsible (Xk)1≤k≤n represente la strategie utilisee par le joueur, les v.a. deBernoulli (εk)1≤k≤n, a valeurs dans −1, +1, represente les gains et pertes aleatoires, a chaqueetape du jeu. Le parametre n represente la duree du jeu. A titre illustratif, sur l’evenement

ε1 = . . . = εk−1 = −1, εk = +1

le joueur perd ses (k − 1)iere mises, et gagne a la kieme. Sur cet evenement, les accroissementsdu portefeuille du joueur sont donnes par

Zk = −(X1 + . . . + Xk−1) + Xk

A la premiere etape, le joueur peut gagner ou perdre une quantite d’argent proportionnelle asa mise X1, et fixee a l’avance

Z1 = X1 ε1 = (+X1) 1ε1=1 + (−X1) 1ε1=−1

Ainsi, sur l’evenement ε1 = −1, le joueur perd sa mise

Z1 1ε1=−1 = −X1 1ε1=−1

Sur l’evenement contraire ε1 = +1, le joueur gagne l’equivalent de sa mise ; autrement dit, ilaccroıt son portefeuille de la valeur

Z1 1ε1=+1 = +X1 1ε1=+1

1. Supposons tout d’abord que le joueur, quelque peu experimente, cherche a gagner lemontant des gains relatifs a sa mise initiale X1 = 1.

Une strategie consiste a doubler la mise, jusqu’au premier instant ou l’on gagne, etl’on quitte le jeu :

Xk =

2k−1X1 si ε1 = . . . = εk−1 = −1

0 sinon

Une realisation possible de cette strategie est decrite ci-dessous

X1 = 1 fixeeX2 = 2 × 1 si ε1 = −1X3 = 2 × 2 × 1 si ε1 = −1, ε2 = −1X4 = 2 × 2 × 2 × 1 si ε1 = −1, ε2 = −1, ε3 = −1. . .

Page 87: MASTER MASS 2 Univ. Nice Sophia Antipolis

3.2. CONTROLE DE MARTINGALES 85

On note T le premier instant ou le joueur gagne

T = inf 1 ≤ k ≤ n : εk = 1

avec la convention T = ∞ sur l’evenement ε1 = . . . = εn = −1. Pour chaque instantk ∈ 0, . . . , n, on a l’equivalence entre evenements

T = k = ε1 = . . . = εk−1 = −1, εk = 1

de sorte que sur les evenements T = k, le joueur augmente son capital de la quantite

ZT 1T=k = 1T=k

[k−1∑

l=1

Xl εl + Xk εk

]

= 1T=k

[

−k−1∑

l=1

2l−1 + 2k−1

]

= 1T=k

[−(2k−1 − 1) + 2k−1

]= 1T=k × 1

Par consequent, nous avons

E(ZT 1T<∞) =n∑

l=1

E(ZT 1T=l) =n∑

l=1

E(1T=l)

= P(T < ∞) = 1 − P(T = ∞)

= 1− P(ε1 = . . . = εn = −1) = 1 − 1

2n

On notera que sur l’evenement T = ∞, les dettes du joueur s’elevent a

ZT 1T=∞ = −1T=∞

n∑

l=1

2l−1 = −1T=∞ (2n − 1)

2. Supposons qu’un joueur bien plus gourmand, cherche a augmenter son capitalproportionnellement a toutes les pertes qu’il a pu subir ! Une strategie envisageable, maisquelque peu couteuse, consiste a miser a chaque instant le double des pertes totales,jusqu’au premier instant ou l’on gagne, et l’on quitte le jeu. A l’instant du gain, le joueuraura a la fois rembourse ses dettes, et son portefeuille aura augmente proportionnellementa cette meme somme.

Cette strategie peut s’ecrire sous la forme

Xk =

2 (X1 + X2 + . . . + Xk−1) si ε1 = . . . = εk−1 = −10 sinon

Une telle strategie est equivalente a miser, jusqu’a l’instant tant attendu du gain, lessommes suivantes

Xk = 2 (X1 + X2 + . . . + Xk−1)

= 2 (X1 + X2 + . . . + Xk−2 + 2(X1 + X2 + . . . + Xk−2))

= 2 × 3 (X1 + X2 + . . . + Xk−2)

= 2 × 3 (X1 + X2 + . . . + Xk−3 + 2(X1 + X2 + . . . + Xk−3))

= 2 × 32 (X1 + X2 + . . . + Xk−3)

. . .

= 2 × 3k−2 (pour tout k ≥ 2)

Page 88: MASTER MASS 2 Univ. Nice Sophia Antipolis

86 CHAPITRE 3. ELEMENTS DE LA THEORIE DES MARTINGALES

Cette strategie consiste donc a triple la mise, jusqu’au premier instant ou l’on gagne,et l’on quitte le jeu :

Xk =

3 Xk−1 si ε1 = . . . = εk−1 = −1

0 sinon

Comme precedemment, on note T le premier instant ou le joueur gagne, avec la convention

T = ∞ = ε1 = . . . = εn = −1

Pour chaque instant k ∈ 0, . . . , n, on a l’equivalence entre evenements

T = k = ε1 = . . . = εk−1 = −1, εk = 1

Sur chacun des evenements T = k, avec k ≥ 2, le joueur augmente son capital de lasomme

ZT 1T=k = 1T=k

[k−1∑

l=1

Xl εl + Xk εk

]

= 1T=k

[

−k−1∑

l=1

Xl + Xk

]

= 1T=k

[k−1∑

l=1

Xl

]

= 1T=k 3k−2

Si le joueur gagne des le premier, ou le second instant de jeu, il accroıt son portefeuilled’une unite

ZT 1T=1 = X1 1T=1 = 1 × 1T=1

ZT 1T=2 = (−X1 + X2) 1T=2 = 1 × 1T=2

Si la chance ne lui sourit qu’au troisieme instant, il accroıt son portefeuille de trois unites

ZT 1T=3 = (−[X1 + X2] + X3) 1T=3 = (1 + 2) × 1T=2

Les probabilites P(T < ∞), ou P(T = ∞), pour que le joueur gagne, ou bien perde, aucours de la partie sont donnees respectivement par

P(T < ∞) =

n∑

k=1

P(T = k)

=n∑

k=1

P(ε1 = . . . = εk−1 = −1, εk = 1)

=

n∑

k=1

1

2k= 1 − 1

2n

P(T = ∞) = P(ε1 = . . . = εn−1 = −1, εn = −1) =1

2n

Page 89: MASTER MASS 2 Univ. Nice Sophia Antipolis

3.2. CONTROLE DE MARTINGALES 87

Par consequent, nous avons

E(ZT 1T<∞) =

n∑

l=1

E(ZT 1T=l)

= P(T = 1) +

n∑

l=2

3l−2P(T = l) =

1

2+

n∑

l=2

3l−2 1

2l

=1

2+

1

22

n∑

l=2

(3

2

)l−2

=1

2+

1

22

[(32

)n−1 − 1]

32 − 1

=1

2+

1

2

[(3

2

)n−1

− 1

]

=1

2

(3

2

)n−1

L’accroissement moyen du portefeuille du joueur chanceux est alors donne par la formule

E(ZT | T < ∞) =E(ZT 1T<∞)

E(1T<∞)=

1

2

(3

2

)n−1

/

(

1 − 1

2n

)

Neanmoins, sur l’evenement T = ∞, le joueur s’est endette de

ZT 1T=∞ = −1T=∞

n∑

l=1

Xl = −1T=∞ 3n−1

D’autre part, nous avons

E(ZT 1T=∞) = −3n−1P(T = ∞) = −1

2

(3

2

)n−1

Ainsi, l’endettement moyen du joueur malchanceux est alors donne par la formule

E(ZT | T = ∞) =E(ZT 1T=∞)

E(1T=∞)= −3n−1

On remarquera que l’esperance de gain au cours du jeu reste nulle

E(ZT ) = E(ZT 1T<∞) + E(ZT 1T=∞) = 0

3.2.4 Jeux a conditions terminales fixees

On se donne une martingale reelle (Yk)0≤k≤n, definie sur un espace probabilise (Ω, P), munide la filtration naturelle

Fk = σ(Y0, . . . , Yk)

associee au processus (Yk)0≤k≤n. On conviendra que l’etat Yk est a valeurs dans un espacereduit a deux points ak, bk, sachant (Y0, . . . , Yk−1). Autrement dit, il existe des couples dev.a. (ak, bk) ∈ Fk−1, avec ak(ω) 6= bk(ω), et tels que

P(Yk = ak | Fk−1) = 1 − P(Yk = bk | Fk−1)

Les deux exemples suivants illustrent ces modeles biphases, plus ou moins abstraits.

Exemple 3.2.1 Soit (εk)0≤k≤n une suite de v.a. reelles independantes, et centrees definies surun espace probabilise (Ω, P). On considere la filtration naturelle

Fk = σ(ε0, . . . , εk)

associee a cette sequence aleatoire. Sur l’espace filtre (Ω, (Fk)0≤k≤n, P), on definit la martingale

∀0 ≤ k ≤ n Yk = ε0 + . . . + εk = Yk−1 + εk

Page 90: MASTER MASS 2 Univ. Nice Sophia Antipolis

88 CHAPITRE 3. ELEMENTS DE LA THEORIE DES MARTINGALES

On remarque tout d’abord que

Fk = σ(ε0, . . . , εk) = σ(Y0, . . . , Yk)

D’autre part, si les v.a. εk ne prennent que deux valeurs

∀ω ∈ Ω εk(ω) ∈ Ek = uk, vk

alors on a

∀ω ∈ Ω Yk(ω) = Yk−1(ω) + εk(ω) ∈ Yk−1(ω) + uk, vkAutrement dit, nous avons

P(Yk ∈ ak, bk | Fk−1) = 1 avec (ak, bk) = (Yk−1 + uk, Yk−1 + vk) ∈ Fk−1

Exemple 3.2.2 Soit (εk)0≤k≤n une suite de v.a. reelles, independantes, et centrees definiessur un espace probabilise (Ω, P). On considere la filtration naturelle

Fk = σ(ε0, . . . , εk)

associee a cette sequence aleatoire. Sur l’espace filtre (Ω, (Fk)0≤k≤n, P), on definit la martingaleexponentielle

∀0 ≤ k ≤ n Yk = (1 + ε0) . . . (1 + εk) = Yk−1(1 + εk)

Si les v.a. εk ne prennent que deux valeurs

∀ω ∈ Ω εk(ω) ∈ Ek = uk, vk avec 0 < 1 + uk < 1 + vk

alors on a Fk = σ(Y0, . . . , Yk), et

∀ω ∈ Ω Yk(ω) = Yk−1(ω) (1 + εk(ω)) ∈ Yk−1(ω) × 1 + uk, 1 + vk

Autrement dit, nous avons

P(Yk ∈ ak, bk | Fk−1) = 1 avec (ak, bk) = (Yk−1 × (1 + uk), Yk−1 × (1 + vk))

On se donne une fonction gn : Rn+1 → R. L’objectif de cette section est de trouver

une condition initiale M0 ∈ F0, et construire une strategie de controle previsible(Xk)1≤k≤n telle que la martingale definie ci dessous

∀0 ≤ k ≤ n Mk = M0 +

k∑

l=1

Xl ∆Yl

termine au temps final n, en la valeur aleatoire

Mn = gn(Y0, . . . , Yn)

Pour resoudre ce probleme de controle, on considere la suite de fonctions

Vk : (y0, . . . , yk) ∈ Rk+1 7→ Vk(y0, . . . , yk) ∈ R , 0 ≤ k ≤ n

decrites dans la proposition 3.1.4, et definies par les formules de recurrence inverse

Vn(y0, . . . , yn) = gn(y0, . . . , yn)

Vk(y0, . . . , yk) = E (Vk+1(y0, . . . , yk, Yk+1) | (Y0, . . . , Yk) = (y0, . . . , yk))

Page 91: MASTER MASS 2 Univ. Nice Sophia Antipolis

3.2. CONTROLE DE MARTINGALES 89

pour tout 0 ≤ k < n. D’apres la proposition 3.1.4, le processus aleatoire

∀0 ≤ k ≤ n Vk(Y0, . . . , Yk)

est l’unique martingale, par rapport a la filtration (Fk)0≤k≤n, dont la valeur terminale coıncideavec la v.a. recherchee

Vn(Y0, . . . , Yn) = gn(Y0, . . . , Yn)

La solution de notre probleme, si elle existe, nous sera donc donnee par les formules

∀0 ≤ k ≤ n Vk(Y0, . . . , Yk) = Mk = M0 +

k∑

l=1

Xk ∆Yk

On commence par noter que la condition initiale M0 est necessairement donnee par

M0 = V0(Y0)

et les accroissement de la martingale (Mk)0≤k≤n sont tels que

∀1 ≤ k ≤ n ∆Mk = Xk ∆Yk = Vk(Y0, . . . , Yk−1, Yk) − Vk−1(Y0, . . . , Yk−1)

Autrement dit, en raisonnant conditionnellement aux valeurs (Y0, . . . , Yk−1), nous avons

Xk (ak − Yk−1) = Vk(Y0, . . . , Yk−1, ak) − Vk−1(Y0, . . . , Yk−1)

Xk (bk − Yk−1) = Vk(Y0, . . . , Yk−1, bk) − Vk−1(Y0, . . . , Yk−1)

Une simple soustraction de ces deux equations nous conduit a la valeur previsible du processusde controle previsible

Xk =Vk(Y0, . . . , Yk−1, bk) − Vk(Y0, . . . , Yk−1, ak)

(bk − ak)∈ Fk−1

Nous arrivons ainsi au theoreme suivant.

Theoreme 3.2.1 Pour toute fonction gn : Rn+1 → R, il existe une unique v.a.

initiale M0 ∈ F0, et un unique processus de controle previsible Xk ∈ Fk−1, 1 ≤ k ≤ n,tel que la martingale

∀0 ≤ k ≤ n Mk = M0 +

k∑

l=1

Xk ∆Yk

se termine en Mn = gn(Y0, . . . , Yn). De plus, le couple (M0, (Xk)1≤k≤n)est donneepar les formules

M0 = V0(Y0)

Xk =Vk(Y0, . . . , Yk−1, bk) − Vk(Y0, . . . , Yk−1, ak)

(bk − ak)

ou (Vk)0≤k≤n designe la famille de fonctions definies par les formules de recurrenceinverse

Vk(y0, . . . , yk) = E (Vk+1(y0, . . . , yk, Yk+1) | (Y0, . . . , Yk) = (y0, . . . , yk))

avec la condition terminale Vn = gn.

Page 92: MASTER MASS 2 Univ. Nice Sophia Antipolis

90 CHAPITRE 3. ELEMENTS DE LA THEORIE DES MARTINGALES

Preuve:D’apres la discussion precedente, il reste bien entendu a verifier que la strategie obtenue repondbien a notre probleme. On commence par remarquer que l’on a

Xk ∆Yk = Xk (bk − Yk−1) 1Yk=bk+ Xk (ak − Yk−1) 1Yk=ak

D’autre part, en utilisant le fait que Yk est une martingale, on obtient la propriete suivante

Yk−1 = E(Yk | Fk−1) = ak P(Yk = ak | Fk−1) + bk P(Yk = bk | Fk−1)

de sorte que

(bk − Yk−1) = bk − (ak P(Yk = ak | Fk−1) + bk P(Yk = bk | Fk−1))

= bk (P(Yk = ak | Fk−1) + P(Yk = bk | Fk−1))

− (ak P(Yk = ak | Fk−1) + bk P(Yk = bk | Fk−1))

= (bk − ak)P(Yk = ak | Fk−1)

et

(ak − Yk−1) = ak − (ak P(Yk = ak | Fk−1) + bk P(Yk = bk | Fk−1))

= ak (P(Yk = ak | Fk−1) + P(Yk = bk | Fk−1))

− (ak P(Yk = ak | Fk−1) + bk P(Yk = bk | Fk−1))

= (ak − bk)P(Yk = bk | Fk−1)

On en deduit que l’on a

(bk − Yk−1) 1Yk=bk+ (ak − Yk−1) 1Yk=ak

= (bk − ak) (P(Yk = ak | Fk−1)1Yk=bk− P(Yk = bk | Fk−1) 1Yk=ak

)

Par definition de Xk, ceci entraıne que

Xk ∆Yk = (Vk(Y0, . . . , Yk−1, bk) − Vk(Y0, . . . , Yk−1, ak))

× (P(Yk = ak | Fk−1)1Yk=bk− P(Yk = bk | Fk−1) 1Yk=ak

)

Notons enfin que

P(Yk = ak | Fk−1)1Yk=bk− P(Yk = bk | Fk−1) 1Yk=ak

= P(Yk = ak | Fk−1) (1 − 1Yk=ak) − P(Yk = bk | Fk−1) 1Yk=ak

= P(Yk = ak | Fk−1) − 1Yk=ak

= (1Yk=bk− P(Yk = bk | Fk−1))

On en conclut que

Xk ∆Yk = Vk(Y0, . . . , Yk−1, bk) × (1Yk=bk− P(Yk = bk | Fk−1))

+Vk(Y0, . . . , Yk−1, ak) × (1Yk=ak− P(Yk = ak | Fk−1))

= Vk(Y0, . . . , Yk) − E(Vk(Y0, . . . , Yk) | Fk−1)

= Vk(Y0, . . . , Yk) − Vk−1(Y0, . . . , Yk−1) = ∆Vk(Y0, . . . , Yk)

Il en decoule que Mk = Vk(Y0, . . . , Yk), pour tout 0 ≤ k ≤ n.

Page 93: MASTER MASS 2 Univ. Nice Sophia Antipolis

3.2. CONTROLE DE MARTINGALES 91

Pour conclure, supposons que la martingale (Yk)0≤k≤n forme un processus de Markov,et la fonction gn ne depend que du point terminal

gn(y0, . . . , yn) = hn(yn)

avec hnune fonction donnee. Dans ces conditions, et d’apres les proprietes de Markov,les fonctions (Vk)0≤k≤n definies par les formules de recurrence inverse ne dependentque du point terminal

Vk(y0, . . . , yk) = Wk(yk) = E(Wk+1(Yk+1) | Yk = yk)

Dans ces conditions, la strategie de controle (M0, (Xk)1≤k≤n) s’exprime plussimplement par les formules

M0 = V0(Y0) et Xk =Wk(bk) − Wk(ak)

(bk − ak)(3.3)

3.2.5 Probleme d’arret de Snell

Soit (Zk)0≤k≤n une suite de nombres reels aleatoire representant les gains successifs d’unjoueur au cours du temps. Nous conviendrons que ces v.a. forment un processus sur un espaceprobabilise filtre (Ω, (Fk)0≤k≤n). Autrement dit, les v.a. Zk sont adaptes a une filtrationd’algebre Fk representant l’information dont dispose le joueur sur les resultats du jeu a chaqueinstant k

∀0 ≤ k ≤ n Zk ∈ Fk

Lorsque les algebres sont reduites a l’algebre triviale sur Ω, les v.a. Zk sont necessairementconstantes

Fk = ∅, Ω =⇒ ∃zk ∈ R t.q. ∀ω ∈ Ω Zk(ω) = zk

A chaque etape k du jeu, notre joueur a pour objectif de quitter le jeu en optimisantson esperance de gain. A cet instant k, le joueur dispose d’une information Fk, etsouhaite trouver un temps d’arret Tk avec Tk ≥ k, et tel que

Uk =def. E(ZTk| Fk) = sup

T∈Tk

E(ZT | Fk)

ou Tk designe l’ensemble des temps d’arrets T superieurs ou egaux a k. La suite(Uk)0≤k≤n que nous venons de definir est appelee l’enveloppe de Snell duprocessus (Zk)0≤k≤n.

Page 94: MASTER MASS 2 Univ. Nice Sophia Antipolis

92 CHAPITRE 3. ELEMENTS DE LA THEORIE DES MARTINGALES

Cas deterministe

Dans le cas deterministe ou les Fk sont reduites a des algebres triviales, l’ensemble Tk estreduit a l’ensemble des entiers de k a n. Dans cette situation, l’enveloppe de Snell de la suitede reel (zk)0≤k≤n est aussi deterministe Uk(ω) = uk, tout comme le temps d’arret optimalTk(ω) = tk introduit ci-dessus. L’indice tk correspond a un instant sur lequel ztk

est superieura toutes les valeurs zk, zk+1, . . . , zn. Dans ces conditions, nous avons

∀0 ≤ k ≤ n Fk = ∅, Ω =⇒ ∀0 ≤ k ≤ n

Tk = k, k + 1, . . . , n

uk = ztk= supl≥k zl

L’enveloppe de Snell (uk)0≤k≤n = (ztk)0≤k≤n, associee a une suite de reel (zk)0≤k≤n, peut etre

decrite schematiquement par le diagramme suivant.

0 k

uk

z(n)

z(0)

z(k)

l t(t)

z(tk)

t(k)

Fig. 3.1 – Enveloppe de Snell

On peut noter que le supremum des zk peut etre atteint en differents instants. Le premier deces indices

tk = inf k ≤ t ≤ n : zt = supl≥k

zl

correspond au premier instant ou la suite (zt)k≤t≤n touche l’enveloppe de Snell (ut)k≤t≤n

D’autre part, nous avons

tk = inf k ≤ t ≤ n : zt = supl≥k

zl = k 1zk≥uk+ tk+1 1zk<uk

Par consequent, ces instants (tk)0≤k≤n peuvent se calculer par les formules de recurrence inverse

tn = n =⇒ ztn= supt=n zt

tn−1 = (n − 1) 1zn−1≥ztn+ tn 1zn−1<ztn

=⇒ ztn−1 = supt∈n−1,n zt

tn−2 = (n − 2) 1zn−2≥ztn−1+ tn−1 1zn−2<ztn−1

=⇒ ztn−2 = supt∈n−2,n−1,n zt

. . . = . . .tk = k 1zk≥ztk+1

+ tk+1 1zk<ztk+1=⇒ ztk

= supt∈k,k+1,...,n zt

. . . = . . .t0 = 0 1z0≥zt1

+ t1 1z0<zt1=⇒ zt0 = supt∈0,...,n zt

La suite (tk)0≤k≤n correspondant a la situation examinee dans la figure precedente est donneeci dessous

Page 95: MASTER MASS 2 Univ. Nice Sophia Antipolis

3.2. CONTROLE DE MARTINGALES 93

0 k

uk

z(n)

z(0)

z(k)

l t(t)

z(tk)

t(k)

n0 l

l

k

t(k)

Fig. 3.2 –

Page 96: MASTER MASS 2 Univ. Nice Sophia Antipolis

94 CHAPITRE 3. ELEMENTS DE LA THEORIE DES MARTINGALES

Cas aleatoire

Dans le cas aleatoire, la situation peut se resoudre de facon similaire en introduisant la suitede temps d’arret (Tk)0≤k≤n definie par les formules de recurrence inverse

Tn = n

Tk = k 1Zk≥E(ZTk+1| Fk) + Tk+1 1Zk<E(ZTk+1

| Fk)

Pour verifier que ces temps d’arret repondent au probleme de Snell, on raisonne parrecurrence inverse sur le parametre temporel.

– Pour l’horizon terminal k = n, l’ensemble Tn des temps d’arret superieur a n est reduitau temps d’arret deterministe Tn(ω) = n. Dans cette situation, il est clair que l’on a

Tn(ω) = n ⇒ ZTn(ω) = Zn(ω) ⇒ E(ZTn

| Fn) = Zn = supT∈Tn

E(ZT | Fn)

– (k + 1) ⇒ (k) : Supposons que l’on a au rang (k + 1)

E(ZTk+1| Fk+1) = sup

T∈Tk+1

E(ZT | Fk+1)

Par definition de Tk, on obtient la decomposition

ZTk= Zk 1Zk≥E(ZTk+1

| Fk) + ZTk+11Zk<E(ZTk+1

| Fk)

Apres avoir note queZk et E(ZTk+1

| Fk) ∈ Fk

on en deduit que

E(ZTk| Fk) = Zk 1Zk≥E(ZTk+1

| Fk) + E(ZTk+1| Fk) 1Zk<E(ZTk+1

| Fk)

On en conclut que

E(ZTk| Fk) = Zk ∨ E(ZTk+1

| Fk)

Le temps d’arret Tk etant dans Tk, nous obtient la majoration

E(ZTk| Fk) = Zk ∨ E(ZTk+1

| Fk) ≤ supT∈Tk

E(ZT | Fk)

Notons enfin que pour tout T ∈ Tk, nous avons la decomposition suivante

T = k 1T=k + T 1T≥(k+1) = k 1T=k + (T ∨ (k + 1)) 1T≥(k+1)

avecT = k, T ≥ (k + 1) ∈ Fk et (T ∨ (k + 1)) ∈ Tk+1 ⊂ Tk

En prenant les esperances par rapport a Fk, et en utilisant notre hypothese de recurrence,nous arrivons aux majorations suivantes

∀T ∈ Tk E(ZT | Fk) = Zk 1T=k + E(ZT∨(k+1) | Fk) 1T≥(k+1)

= Zk 1T=k + E( E(ZT∨(k+1) | Fk+1) | Fk) 1T≥(k+1)

≤ Zk 1T=k + E( supS∈Tk+1E(ZS | Fk+1) | Fk) 1T≥(k+1)

= Zk 1T=k + E( E(ZTk+1| Fk+1) | Fk) 1T≥(k+1)

= Zk 1T=k + E(ZTk+1| Fk) 1T≥(k+1)

≤ Zk ∨ E(ZTk+1| Fk)

Page 97: MASTER MASS 2 Univ. Nice Sophia Antipolis

3.2. CONTROLE DE MARTINGALES 95

En prenant le supremum sur tous les T ∈ Tk, on en conclut que

E(ZTk| Fk) = Zk ∨ E(ZTk+1

| Fk) = supT∈Tk

E(ZT | Fk)

Autrement dit, en terme d’enveloppe de Snell, nous avons demontre les majorations, etles formules de recurrence inverse suivantes :

Zk ≤ Zk ∨ E(Uk+1 | Fk) = Uk

(

=def. supT∈Tk

E(ZT | Fk) = E(ZTk| Fk)

)

Comme dans le cas deterministe, l’enveloppe de Snell majore la suite Zk, et les tempsd’arret Tk correspondent aux premiers instants de rencontre entre ces deux processus

Tk = inf k ≤ t ≤ n : Zt = Ut

Pour verifier cette assertion, on note simplement que l’on a

Tk = k 1Zk≥E(Uk+1|Fk)︸ ︷︷ ︸

mUk = Zk

+ Tk+1 1Zk<E(Uk+1|Fk)︸ ︷︷ ︸

mUk > Zk

mUk = E(Uk+1 | Fk)

Page 98: MASTER MASS 2 Univ. Nice Sophia Antipolis

96 CHAPITRE 3. ELEMENTS DE LA THEORIE DES MARTINGALES

3.2.6 Exercices

Exercice 3.2.1 Verifier que les fonctions constantes T (ω) = k, sont des temps d’arrets parrapport a une filtration quelconque d’algebre.

Exercice 3.2.2 Soit (Xk)0≤k≤n un processus de Markov, a valeurs dans un espace E, et definisur un espace probabilise filtre (Ω, (Fk)0≤k≤n). On convient que le processus est initialise avecune v.a. X0 a valeurs dans une region A ⊂ E donnee. Montrer que le temps de sortie SA de A

SA = inf 0 ≤ k ≤ n : Xk 6∈ A

est un temps d’arret. On note enfin TB l’instant d’impact du processus dans une region B ⊂ E

TB = inf 0 ≤ k ≤ n : Xk ∈ B

Montrer que TB est un temps d’arret. Pour eviter des discussions inutiles, on pourra supposerque A ∩ B = ∅.

Exercice 3.2.3 Soit T un temps d’arret par rapport a une filtration donnee (Fk)leqk≤n.On considere une sous-martingale (Mk)0≤k≤n sur l’espace probabilise filtre (Ω, (Fk)leqk≤n, P).Montrer que le processus arrete (MT

k )0≤k≤n est une sous-martingale. Verifier enfin que leprocessus arrete (MT

k )0≤k≤n d’une sur-martingale est a nouveau une sur-martingale.

Exercice 3.2.4 On note (Zk)1≤k≤n le processus des gains et pertes du joueur

∀1 ≤ k ≤ n Zk =k∑

l=1

Xl εl

Le processus previsible (Xk)1≤k≤n represente la strategie utilisee par le joueur, les v.a. deBernoulli (εk)1≤k≤n, a valeurs dans −1, +1, represente les gains et pertes aleatoires, a chaqueetape du jeu. Plutot que de miser le double des pertes subies au cours du jeu, qui peut s’averertrop couteux, le joueur peut aussi envisager de ne miser qu’une plus faible proportion (1+α) > 1de ce pertes.

1. Proposer un modele probabiliste associe a cette strategie d’arret.

2. Montrer que l’on aZT 1T=k = α (2 + α)k−2 1T=k

3. Verifier que

E(ZT 1T<∞) =1

2

(

1 +α

2

)n−1

Exercice 3.2.5 Soit (Yk)0≤k≤n un processus de Markov, a valeurs dans les espaces (Ek)0≤k≤n,de probabilites de transitions (Mk)0≤k≤n, et de loi initiale η0. On associe a toute fonction fn

sur En, le processus (Zk(fn))0≤k≤n defini par

∀0 ≤ k ≤ n Zk(fn) = E(fn(Yn) | Yk) = Mk+1Mk+2 . . .Mn(fn)(Yk)

avec la convention Mk+1Mk+2 . . . Mn = Id, lorsque k = n.

1. Montrer que (Zk(fn))0≤k≤n est une martingale par rapport a la filtration naturelle(FY

k )0≤k≤n associee au processus (Yk)0≤k≤n.

2. On considere la suite de fonctions (Vk)0≤k≤n definies par la formule de recurrence inverse

Vn(yn) = fn(yn)

Vk(yk) = E(Vk+1(Yk+1) | Yk = yk)

Montrer que l’on a

∀0 ≤ k ≤ n Vk = Mk+1Mk+2 . . . Mn(fn)

En deduire que le processus (Vk(Yk))0≤k≤n coıncide avec (Zk(fn))0≤k≤n.

Page 99: MASTER MASS 2 Univ. Nice Sophia Antipolis

3.2. CONTROLE DE MARTINGALES 97

Exercice 3.2.6 Soit (Zk)0≤k≤n une suite de nombres reels aleatoire sur un espace probabilisefiltre (Ω, (Fk)0≤k≤n). Soit (Uk)0≤k≤n l’enveloppe de Snell associee a (Zk)0≤k≤n definie par laformule suivante

Uk =def.= supT∈Tk

E(ZT | Fk) (≥ Zk)

ou Tk designe l’ensemble des temps d’arrets T superieurs ou egaux a k. On note (Tk)0≤k≤n lestemps d’arret correspondent aux premiers instants de rencontre entre ces deux processus

Tk = inf k ≤ t ≤ n : Zt = Ut

1. Verifier que l’on a∀k ≤ l < Tk Zl < Ul

2. Montrer que les processus arretes (UTk

l )l≥k, avec 0 ≤ k ≤ n, sont des martingales.

3. Verifier que l’on a∀k ≤ l ≤ n E(ZTk

| Fl) = UTk

l

Exercice 3.2.7 Soit (Xk)0≤k≤n une chaıne de Markov a valeurs dans des espaces (Ek)0≤k≤n,et definie sur un espace probabilise filtre canonique (Ω, (FX

k )0≤k≤n). Soit (Uk)0≤k≤n l’enveloppede Snell associee a la suite de nombres aleatoires (Zk)0≤k≤n definie par

Zk = gk(Xk)

ou (gk)0≤k≤n designe une suite de fonctions numeriques sur les espaces (Ek)0≤k≤n.

1. On note Mk(xk−1, xk) les probabilites de transitions de la chaıne Xk

P(Xk = xk | Xk−1 = xk−1) = Mk(xk−1, xk)

Montrer que l’enveloppe de Snell (Uk)0≤k≤n peut s’ecrire sous la forme suivante

Uk = Uk(Zk)

avec la suite de fonctions (Uk)0≤k≤n sur les espaces (Ek)0≤k≤n definies par les formulesde recurrence inverse

Un(xn) = gn(xn)

Uk(xk) = gk(xk) ∨ Mk+1(Uk+1)(xk) (= gk(xk) ∨ E(Uk+1(Xk+1) | Xk = xk))

Page 100: MASTER MASS 2 Univ. Nice Sophia Antipolis

98 CHAPITRE 3. ELEMENTS DE LA THEORIE DES MARTINGALES

Page 101: MASTER MASS 2 Univ. Nice Sophia Antipolis

Chapitre 4

Mathematiques financieres

4.1 Petit dictionnaire financier

4.1.1 Activite des marches

Un marche financier est represente par l’evolution d’un certain nombre d’actifs. Ces actifssont parfois appeles des titres, ou des actions. L’evolution temporelle du prix d’une part d’untitre est represente par la donnee d’une chaıne de Markov (Sk)0≤k≤n. Dans ces notes, nous neconsidererons que des evolutions discretes. L’unite de temps peut correspondre a une annee,un mois, une heure, une seconde, ou encore a la cloture de la bourse chaque jour a 17 heures.Afin de simplifier l’expose, nous n’examinerons que des marches a deux titres (S1

k)0≤k≤n, et(S2

k)0≤k≤n :

Le premier actif S1k , joue un role bien particulier. Il represente le cours d’un titre non risque,

tel un livret de caisse d’epargne, un bon du tresor a taux fixe ou previsible, ou encore uneobligation. Les obligations sont des dettes d’entreprises remunerees a taux fixe, et convertiblesen actions, en cas de croissance. Le second actif S2

k joue lui aussi un role bien particulier. Ilrepresente le cours d’une part d’un titre risque, tel les actions de compagnie privees cotees enbourse.

Le parametre n joue le role d’un horizon temporel, et terminal fixe, souvent appele horizondu marche. Dans l’etude qui suit, il represente a la fois, le temps d’observation du marche, ainsique la date d’echeance des activites economiques considerees.

Nous representerons l’evolution aleatoire des actifs par le couple d’equations

∆Si

k = Sik−1 ∆U i

k avec 1 ≤ k ≤ ni = 1, 2

et les conditions initiales Si0, i = 1, 2, Les processus aleatoires (U i

k)0≤k≤n, i = 1, 2,representent les rendements des titres pendant une unite de temps.

Nous conviendrons pour simplifier, que ces rendements sont discrets, en ce sens ou les v.a.U i

k sont a valeurs dans des espaces finis. Cette hypothese est assez realiste car les processusde prix Si

k correspondent a des informations bancaires, ou a des cotations boursieres, toujoursdonnees avec un nombre fini de chiffres apres la virgule.

99

Page 102: MASTER MASS 2 Univ. Nice Sophia Antipolis

100 CHAPITRE 4. MATHEMATIQUES FINANCIERES

L’information dont dispose un investisseur au temps k est modelisee par la donneed’une algebre finie Fk, c’est a dire engendree par une partition finie d’un ensemble finid’aleas Ω. On conviendra que F0 = ∅, Ω, pour souligner que les prix (S1

0 , S20) des

titres a la date initiale sont connus. On conviendra enfin que l’investisseur possede deplus en plus d’information au cours du temps. Plus formellement, on supposera que(Fk)0≤k≤n est une filtration croissante d’algebres sur Ω

F0 ⊂ F1 ⊂ . . . ⊂ Fn−1 ⊂ Fn = P(Ω)

L’algebre terminale contenant toute l’information sur les evolution des prix jusqu’al’echeance, coıncide avec l’algebre engendree par les singletons ω de tous lesevenements elementaires de Ω. Autrement dit, les investisseurs ont de plus en plusd’information, et a la date d’echeance n, ils peuvent determiner avec certitude lasuccession des alea qui se sont produits.

Le choix de l’espace probabilise filtre (Ω, (Fk)0≤k≤n, P) est loin d’etre unique. Neanmoins,comme les cours des actions (S2

0 , . . . , S2k) sont connus au temps k, on doit avoir

Fk ⊃ σ(S20 , . . . , S2

k)

D’autre part, puisque l’investisseur peut prevoir l’evolution de l’actif sans risque a chaquedate k, les taux d’interets instantanes ∆U 1

k de ces actifs sont previsibles

∆U1k ∈ Fk−1

Autrement dit, a la date k, l’investisseur connaıt U 1k . Ceci se traduit mathematiquement par le

fait que la v.a. est Fk−1 mesurable, ce que l’on note U1k ∈ Fk−1.

Il en est tout autrement de l’evolution du cours de l’actif risque. Au temps (k − 1),l’investisseur ne connaıt pas U 2

k . Il doit attendre la prochaine cotation au temps k. Plusformellement, nous avons

∆U2k ∈ Fk

Par construction, le processus de prix (S1k , S2

k)0≤k≤n est une chaıne de Markov discrete, etadaptee a la filtration (Fk)0≤k≤n. On conviendra que les prix des actifs Si

k sont des v.a.strictement positives.

L’actif S1n etant sans risque, il est naturel de considerer que

∀1 ≤ k ≤ n ∆U1k ≥ 0

Cette hypothese conduit a une evolution favorable du titre non risque

S1k = (1 + ∆U1

k ) S1k−1 ≥ S1

k−1

Pour simplifier l’analyse du marche, et sans perdre de generalite, nous supposeronsque S1

0 = 1. La valeur de l’actif sans risque au temps k est alors donnee par la formuleproduit

S1k =

k∏

l=1

(1 + ∆U1l ) =def. Ek(U1) avec U1

k =

k∑

l=1

∆U1l

Ainsi par exemple, un investissement initial de S10 = 1 Euro dans l’actif sans risque permet

de disposer de S1k = Ek(U1) Euros, apres k unites de temps. Lorsque le taux d’interet par unite

de temps est constant, et deterministe

∆U1k = r

Page 103: MASTER MASS 2 Univ. Nice Sophia Antipolis

4.1. PETIT DICTIONNAIRE FINANCIER 101

cet investissement sans risque rapporte

S1k = Ek(U1) = (1 + r)k Euros

Ce gain peut aussi s’interpreter comme une depreciation monetaire de l’euro par rapport a uneautre monnaie de reference plus forte. Le coefficient

βk =1

Ek(U1)(≤ 1)

correspond alors a la valeur d’un euro dans cette monnaie.

Le prix reactualise d’une action Sik est alors defini par la quantite

Si

k = βk Sik = Ek(U1)−1 Si

k

On notera que la valeur de l’actif sans risque reactualises S1

k = 1 peut s’interpreter comme uneunite monetaire de reference. On remarque aussi que le prix reactualise de l’actif risque, calculedans cette monnaie de reference et plus forte, est toujours inferieur au prix courant

S2

k = Ek(U1)−1 S2k ≤ S2

k

Pour conclure, notons que l’actif sans risque peut aussi etre interprete comme laremuneration d’un pret financier. Dans ce contexte, S1

0 = 1 Euro prete, rapportera S1k Euros a

son investisseur, apres k unites de temps. Ainsi, un investisseur proposant un pret de 100.000Euros, avec un taux d’interet fixe de R = 4% par an, s’assure une remuneration de 4.000Euros dans l’annee. Pour estimer le rendement quotidien r, dans un marche journalier, on doitresoudre l’equation

(1 + r)365 = 1 + R = 1, 04 =⇒ r = 1, 041

365 − 1 ' 1, 0746 10−4

Les 100.000 Euros rapportent ainsi

100.000× 1, 0746 10−4 = 10, 746 Euros

par jour, et dans l’annee

100.000× (1 + r)365 = 100.000× (1 + R) = 100.000 + 4.000 = 104.000 Euros

Exercice 4.1.1 On considere le modele de marche suivant

Ω S0 = (S10 , S2

0) S1 = (S11 , S2

1)ω1 (1; 4) (1, 05; 5)ω2 (1; 4) (1, 05; 10)

1. Construire l’arbre des epreuves representant l’evolution de ce marche financier.

2. On note F0 = σ(S0), et F1 = σ(S0, S1) les algebres representant l’information disponiblea l’origine, et au temps 1. Montrer que

F0 = ∅, Ω et F1 = ∅, Ω, ω1, ω2 = P(Ω)

3. Calculer le taux d’interet r =∆S1

1

S10

de l’actif sans risque.

Exercice 4.1.2 Resoudre les memes questions que celles posees dans l’exercice 4.1.1 pour lemodele de marche financier suivant

Ω S0 = (S10 , S2

0) S1 = (S11 , S2

1) S2 = (S12 , S2

2)ω1 (1; 5) (1, 05; 10) (1, 10; 20)ω2 (1; 5) (1, 05; 5) (1, 10; 10)ω3 (1; 5) (1, 05; 5) (1, 10; 5)

Page 104: MASTER MASS 2 Univ. Nice Sophia Antipolis

102 CHAPITRE 4. MATHEMATIQUES FINANCIERES

4.1.2 Gestion de portefeuilles

Le portefeuille d’un investisseur possede a chaque instant k un certain nombre departs Φ1

k du titre non risque, et un nombre de parts Φ2k du titre risque. La valeur de

ce portefeuille au temps k est ainsi donne par

Vk(Φ) = Φ1k S1

k + Φ2k S2

k

Contrairement aux valeurs des titres Sik, les v.a. Φi

k peuvent etre negatives. Si Φ1k est negatif,

cela signifie qu’il y a eu vente a decouvert de (−Φ1k) parts du titre non risque. Vendre a decouvert

signifie dans le jargon financier que l’on vend des actions que l’on ne possede pas ! On peutaussi interpreter le cas ou Φ1

k est negatif comme un emprunt, et une dette de (−Φ1k S1

k) Euros.Cette situation peut encore refleter la prise en pension, ou le rachat de (−Φ1

k) parts de titresnon risques (au cout S1

k). Dans tous les cas, lorsque Φ1k est negatif, on recoit une somme de

(−Φ1kS1

k) Euros, a investir si possible sur des actifs risques pour rembourser la dette.Le cas ou Φ1

k est positif correspond plutot a une vente de Φ1k titres non risques, et a un

gain de (Φ1kS1

k) Euros.A titre illustratif, examinons les strategies de gestion de portefeuilles dans un marche

financier sur deux periodes de temps. Tout d’abord, on remarquera que la valeur d’unportefeuille initial forme de Φi

0 parts de titres §i0 est donne par

V0(Φ) = Φ10 S1

0 + Φ20 S2

0 = Φ10 + Φ2

0 S20

Si V0(Φ) ≥ 0, on doit debourser V0(Φ) Euros pour son acquisition. Si au contraire V0(Φ) < 0,nous recevrons (−V0(Φ)) Euros lors de son acquisition. L’investisseur reamenage son portefeuilleen Φi

1 parts de titres Si0, de sorte a avoir

Φ11 S1

0 + Φ21 S2

0 = V0(Φ)(= Φ10 S1

0 + Φ20 S2

0)

Autrement dit, en liquidant le portefeuille initial V0(Φ), l’investisseur possede un montant deV0(Φ) Euros pour acheter le portefeuille Φ1 = (Φ1

1, Φ21).

A l’instant suivant, les prix (S11 , S2

1) sont annonces, et le portefeuille prend la valeur

V1(Φ) = Φ11 S1

1 + Φ21 S2

1

A cet instant l’investisseur peut profiter de l’information qu’il a acquise F1 = σ(S0, S1), pourmodifier son portefeuille. Avec le montant obtenu lors de l’operation initiale V1(Φ), il reamenageson portefeuille en Φ2 = (Φ1

2, Φ22), de sorte que

Φ12 S1

1 + Φ22 S2

1 = V1(Φ)(= Φ11 S1

2 + Φ21 S2

1)

Comme precedemment, en liquidant V1(Φ), l’investisseur possede un montant V1(Φ) pouracheter le portefeuille Φ2. A l’annonce des prix des titres a l’instant k = 2, la valeur duportefeuille associee a cette strategie d’investissement Φ2, est donnee par

V2(Φ) = Φ12 S1

2 + Φ22 S2

2

Dans la description precedente, nous avons implicitement suppose que les strategies degestion Φk = (Φ1

k, Φ2k) de portefeuilles sont previsibles et autofinancees.

La condition de previsibilite souligne le fait que l’investisseur, a la date (k−1), doitchoisir la repartition Φk des titres de son portefeuille pour la date k, avec l’informationFk−1 dont il dispose a cette date. La valeur de ce portefeuille a la cloture de la seanceboursiere du lendemain sera Vk(Φ).

Page 105: MASTER MASS 2 Univ. Nice Sophia Antipolis

4.1. PETIT DICTIONNAIRE FINANCIER 103

La condition d’autofinancement caracterise le comportement d’un investisseurreorganisant son portefeuille entre la date k et (k + 1), et reamenageant ses actifsΦk Φk+1 de facon a conserver la valeur totale du portefeuille

Φ1k+1 S1

k + Φ2k+1 S2

k = Vk(Φ) = Φk S1k + Φ2

k S2k

En terme des variations des quantites d’actifs, cette condition d’autofinancement est equivalenteau fait que

∆Φ1k+1 × S1

k+1 + ∆Φ2k+1 × S2

k+1 = 0

L’autofinancement met ainsi de cote les investisseurs prelevant une partie des gainsrealises, ou injectant de l’argent frais pour couvrir les pertes subies. On notera que cette estautomatiquement verifiee des lors que l’investisseur est passif, c’est a dire lorsque Φk = Φk+1. Onremarquera enfin que les variations des valeurs des portefeuilles autofinances sont uniquementliees aux variations des prix des actifs

∆Vk+1(φ) = Vk+1(φ) − Vk(φ)

= Φ1k+1 [S1

k+1 − S1k ] + Φ2

k+1 [S2k+1 − S2

k ]

= Φ1k+1 ∆S1

k+1 + Φ2k+1 ∆S2

k+1

Une opportunite d’arbitrage est une strategie de gestion de portefeuille(Φk)0≤k≤n verifiant les trois conditions suivantes :

1. ∀ω ∈ Ω V0(Φ)(ω) = 0.

2. ∀ω ∈ Ω Vn(Φ)(ω) ≥ 0.

3. ∃ω ∈ Ω Vn(Φ)(ω) > 0.

Autrement dit, une telle strategie permet , avec un investissement initial nul (1), et sans essuyerde pertes (2), d’avoir a l’echeance k = n la possibilite de realiser un gain (3).

Nous dirons qu’un marche financier est viable s’il n’existe aucune opportunited’arbitrage.

4.1.3 Options europeennes financieres

Une option europeenne est un droit conditionnel intervenant initialement entre deuxparties : le vendeur et l’acheteur. A une date d’echeance n, elle permet a l’acquereurde vendre ou acheter une part du titre risque a un prix K fixe initialement, et appeleprix d’exercice. Il existe deux types d’options. Les options de vente, et les optionsd’achat, appelees parfois sur les marches financiers les “put”et les “call”.

– Une option (europeenne) de vente (un “put”), permet a l’acquereur de vendre unepart du titre risque a un prix K fixe initialement, et appele prix d’exercice.Deux cas se presentent : Si S2

n < K, l’acquereur vendra sa part de titre risque a unmontant K (bien) superieur a celui qu’il obtiendrait sur le marche financier, soit au prixS2

n. Par contre, si S2n ≥ K, l’acquereur n’exercera pas son option, car il obtiendra un

meilleur prix sur le marche.

Page 106: MASTER MASS 2 Univ. Nice Sophia Antipolis

104 CHAPITRE 4. MATHEMATIQUES FINANCIERES

La fonction de paiement, ou la valeur de cette option de vente, est la v.a. donnee parla formule

f = (K − S2n)+

– Une option (europeenne) d’achat (un “call”), permet a l’acquereur d’acheter unepart du titre risque a un prix K fixe initialement, et appele prix d’exercice.Deux cas se presentent : Si S2

n > K, l’acquereur achetera sa part de titre risque a unmontant K (bien) inferieur a celui qu’il obtiendrait sur le marche financier, soit au prixS2

n. Par contre, si K ≥ S2n, l’acquereur n’exercera pas son option, car il pourra acheter le

titre risque a un meilleur prix sur le marche.La fonction de paiement, ou la valeur de cette option de vente, est la v.a. donnee parla formule

f = (S2n − K)+

Le vendeur de telles options n’offrira pas de tels avantages a son client sans echange ! Leprix de l’option, ou de ce droit conditionnel, correspond au montant verse initialement parl’acheteur au vendeur, pour acquerir cette option.

Le vendeur de son cote acceptera tout montant lui permettant l’acquisition d’unportefeuille dont la valeur a l’echeance n sera superieure ou egale, a la fonction depaiement qu’il s’est engage a honorer. Un tel portefeuille est appele un portefeuillede couverture. Le plus petit montant lui permettant d’honorer sans perte sesengagements est donne par la formule

C?(f) = inf x ∈ [0,∞) : ∃(Φk)0≤k≤n t.q. V0(Φ) = x et Vn(Φ) ≥ f

D’un autre cote, si l’acquereur du contrat accepte de s’endetter d’un montant mafin d’acheter ce droit conditionnel, alors il voudra en echange etre en mesure derembourser cette dette a l’echeance n. Par consequent, l’acquereur souhaite pouvoirtrouver un portefeuille (−Φk)0≤k≤n de sorte a avoir

V0(−Φ) = −m et Vn(−Φ) + f = −Vn(Φ) + f ≥ 0

Ainsi, le plus grand montant qu’il acceptera de payer est donne par la formule

C?(f) = sup x ∈ [0,∞) : ∃(−Φk)0≤k≤n

t.q. V0(−Φ) = −x et Vn(−Φ) + f ≥ 0= sup x ∈ [0,∞) : ∃(Φk)0≤k≤n t.q. V0(Φ) = x et Vn(Φ) ≤ f

La determination rationnelle de ces prix, et la mise en place de strategies de couverture, estl’un des principaux objectifs des mathematiques financieres.

4.1.4 Exercices

Exercice 4.1.3 On considere le modele de marche suivant

Ω S0 = (S10 ; S2

0) S1 = (S11 ; S2

1)ω1 (1; 4) (1, 05; 5)ω2 (1; 4) (1, 05; 10)

1. Calculer le cout d’acquisition du portefeuille initial d’un investisseur vendant a decouvert8 parts d’actifs sans risque, pour acheter 2 parts d’actifs risque.

Page 107: MASTER MASS 2 Univ. Nice Sophia Antipolis

4.1. PETIT DICTIONNAIRE FINANCIER 105

2. Calculer les valeurs possibles du portefeuille apres evolution du cours des actifs. risques.

3. Trouver une strategie pour gagner au moins 800 Euros a moindre frais.

Exercice 4.1.4 On considere le modele de marche suivant

Ω S0 = (S10 ; S2

0) S1 = (S11 ; S2

1)ω1 (1; 4) (1, 05; 2)ω2 (1; 4) (1, 05; 3)

1. Calculer le cout d’acquisition du portefeuille initial d’un investisseur vendant a decouvert2 parts d’actifs risques, pour acheter 8 parts d’actifs sans risque. Autrement dit,l’investisseur vend deux parts d’actions risquees qu’il ne possede pas, et deposeimmediatement l’argent obtenu par cette vente dans un compte epargne qui rapporte 5%.

2. Calculer les valeurs possibles du portefeuille apres evolution du cours des actifs.

3. Trouver une strategie pour gagner au moins 1.200 Euros a moindre frais.

Exercice 4.1.5 On considere le modele de marche suivant

Ω S0 = (S10 ; S2

0) S1 = (S11 ; S2

1)ω1 (1; 10) (1, 05; 5)ω2 (1; 10) (1, 05; 10)

1. Calculer le cout d’acquisition du portefeuille initial d’un investisseur vendant a decouvert20 parts d’actifs risques, et depose immediatement l’argent obtenu, soit 200 Euros, dansun compte epargne a 5%.

2. Calculer les valeurs possibles du portefeuille apres evolution du cours des actifs, lorsquel’on rembourse nos vingt parts d’actifs risques, et l’on conserve nos deux cents partsd’actifs sans risques.

3. Trouver une strategie pour gagner au moins 100 Euros a moindre frais.

Exercice 4.1.6 Montrer que le modele de marche suivant est viable

Ω S0 = (S10 ; S2

0) S1 = (S11 ; S2

1)ω1 (1; 5) (1, 05; 10)ω2 (1; 5) (1, 05; 5)

Exercice 4.1.7 On considere le marche viable etudie dans l’exercice 4.1.6.

Ω S0 = (S10 ; S2

0) S1 = (S11 ; S2

1) f = (7 − S21)+

ω1 (1; 5) (1, 05; 5) 2ω2 (1; 5) (1, 05; 10) 0

1. Calculer la valeur d’acquisition du portefeuille d’un investisseur vendant a decouvert 2/5de part de titre risque, et achetant 4/1, 05 parts d’actifs sans risques.

2. Calculer les valeurs possibles du portefeuille, apres evolution des cours des actifs.

3. En deduire que ce portefeuille permet de couvrir l’option de vente associee a la fonctionde paiement f .

Exercice 4.1.8 On reprend le modele de marche, et la fonction de paiement, decrits dansl’exercice 4.1.7.

1. Calculer l’endettement initial d’un investisseur empruntant 4/1, 05 parts d’actifs sansrisques, et achetant 2/5 de part de titres risques.

2. Calculer les valeurs possibles de ce portefeuille, apres l’evolution des cours du marche.En deduire que l’acheteur de l’option f pourra, avec ce portefeuille rembourser sa detteinitiale.

Page 108: MASTER MASS 2 Univ. Nice Sophia Antipolis

106 CHAPITRE 4. MATHEMATIQUES FINANCIERES

Exercice 4.1.9 On reprend a nouveau le modele de marche, et la fonction de paiement, decritsdans l’exercice 4.1.7.

1. Caracteriser les amenagement de portefeuilles initiaux dont la valeur d’acquisition vaut1.

2. Pour de tels portefeuilles, combien de parts d’actifs risques doit-on vendre a decouvert, desorte a couvrir l’option dans le premier jeu d’alea. Verifier qu’une telle strategie d’empruntne permettra pas de couvrir l’option dans le second jeu d’alea.

3. En conclure que le prix de l’option f est necessairement plus eleve que 1.

Exercice 4.1.10 Soit (Ω, (Fk)0≤k≤n, P) un marche financier a deux titres. (S1k , S2

k)0≤k≤n. Onconvient que l’actif sans risque est donne par

S10 = 1 et S1

k = (1 + r) S1k−1 = (1 + r)k avec r > 0

On note (S1

k, S2

k)0≤k≤n, et (V k(Φ))0≤k≤n les valeurs reactualisees des actifs, et des portefeuillesdefinies par

Si

k =Si

k

(1 + r)ket V k(Φ) =

Vk(Φ)

(1 + r)k

1. Verifier que les prix C?(f), et C?(f), associes a une option de fonction de paiement f ,peuvent s’exprimer sous la forme suivante

C?(f) = infx ∈ [0,∞) : ∃(Φk)0≤k≤n t.q. V 0(Φ) = x et V n(Φ) ≥ f

C?(f) = supx ∈ [0,∞) : ∃(Φk)0≤k≤n t.q. V 0(Φ) = x et V n(Φ) ≤ f

ou f = f/(1 + r)n designe la fonction de paiement reactualisee a la date d’echeance.

2. Soit K = K/(1 + r)n le prix d’exercice reactualise a la date d’echeance. Verifier lesequivalences suivantes

f = (K − S2n)+ ⇐⇒ f = (K − S

2

n)+

etf = (S2

n − K)+ ⇐⇒ f = (S2

n − K)+

4.2 Modele binomial sur une periode

Nous allons analyser dans cette premiere section, l’evolution d’un marche financierelementaire a deux etats, sur une unite de temps n = 1. L’evolution du prix d’une part d’untitre sans risque S1

k , a taux d’interet constant ∆U 1k = r > 0 est simplement donne par les

formulesS1

0 = 1 et S11 = (1 + r)

Le prix actuel d’une part du titre risque est connu avec certitude initialement

S20 = s0 ∈ R+ = (0,∞)

A la periode suivante, S21 ne peut prendre que deux valeurs

∀ω ∈ Ω S21(ω) ∈ s1,1, s1,2 avec 0 < s1,1 < s1,2

Autrement dit, ce marche binomial evolue de deux facons differentes. Pour un certain alea,disons ω1, nous avons

S0(ω1) = (S1

0(ω1), S20(ω1)) = (1, s0)

S1(ω1) = (S1

1(ω1), S21(ω1)) = ((1 + r), s1,1)

Dans un autre contexte aleatoire, disons pour un alea ω2, on a plutot

S0(ω2) = (S1

0(ω2), S20(ω2)) = (1, s0)

S1(ω2) = (S1

1(ω2), S21(ω2)) = ((1 + r), s1,2)

Page 109: MASTER MASS 2 Univ. Nice Sophia Antipolis

4.2. MODELE BINOMIAL SUR UNE PERIODE 107

Le modele binomial sur une periode correspond au tableau des epreuves suivant :

Ω S0 = (S10 , S2

0) S1 = (S11 , S2

1)ω1 (1; s0) ((1 + r); s1,1)ω2 (1; s0) ((1 + r); s1,2)

Ce marche financier s’exprime donc de facon naturelle sur l’espace des aleas

Ω = ω1, ω2

muni de la filtration elementaire :

F0 = σ(S0) = ∅, Ω ⊂ F1 = σ(S0, S1) = P(Ω) = ∅, Ω, ω1, ω2

A l’instant initial k = 0, nous acquerons le portefeuille Φ1 = (Φ11, Φ

21) ∈ R

2, au cout

V0(Φ) = Φ11 S1

0 + Φ21 S2

0 = Φ11 + Φ2

1 s0

A l’instant suivant, les nouveaux prix des actifs S1 = (S11 , S2

1) sont annonces, et notre portefeuilleprend la valeur

V1(Φ) = Φ11 S1

1 + Φ21 S2

1 = Φ11 (1 + r) + Φ2

1 S21

4.2.1 Point de vue des essences

Nous allons analyser les opportunites d’arbitrage, et estimer les prix des options de vente,sans faire appel a un quelconque raisonnement probabiliste. Cette approche necessite un examenprecis des differentes situations (aleatoires) pouvant se produire. Dans le cadre de marche fiables,les prix des options de vente, s’expriment simplement en terme d’un probleme d’optimisation.

Trois cas se presentent :

– Cas 1 : s0(1 + r) ≤ s1,1 < s1,2

– Cas 2 : s1,1 < s1,2 ≤ s0(1 + r)

– Cas 3 : s1,1 < s0(1 + r) < s1,2

Dans les deux premiers cas, les strategies d’arbitrages sont claires.

Cas 1 :

Dans cette situation, les prix des actifs risques sont toujours superieurs aux prix des actifsnon risques. Il est clairement plus avantageux de vendre a decouvert ou emprunter le plus departs possibles d’actifs sans risques, pour acheter des actifs risques.

Un portefeuille peu couteux consiste initialement a vendre a decouvert ms0 parts d’actifs nonrisques, pour acheter m parts d’actifs risques. Plus formellement, on amenage notre portefeuilleinitial somme suit

Φ1 = (Φ11, Φ

21) = (−ms0, m)

Le cout d’acquisition d’un tel portefeuille est nul :

V0(Φ) = Φ11 + Φ2

1 s0 = (−ms0) × 1 + m × s0 = 0

Page 110: MASTER MASS 2 Univ. Nice Sophia Antipolis

108 CHAPITRE 4. MATHEMATIQUES FINANCIERES

A l’instant suivant k = 1, nous vendons les m parts de titres risques, et nous remboursonsnotre pret de ms0 actifs non risques avec les interets. L’amenagement du portefeuillecorrespondant est donne par

Φ2 = Φ1 = (Φ11, Φ

21) = (−ms0, m)

La vente de ce portefeuille nous rapporte :

V1(Φ)(ω1) = (−ms0) (1 + r) + m s1,1 = m [s1,1 − s0(1 + r)] ≥ 0

V1(Φ)(ω1) = (−ms0) (1 + r) + m s1,2 = m [s1,2 − s0(1 + r)] > 0

Cas 2 :

Dans cette situation, les prix des actifs non risques sont toujours superieurs aux prix desactifs risques. Ces conditions peuvent aussi refleter une conjoncture ou les placements bancairessont a des taux si eleves, qu’il est preferable de placer son argent plutot que d’acheter des actifs,ici tres risques.

Il est clairement ici plus avantageux de vendre a decouvert le plus de parts d’actifs risques,disons m parts, et placer cette somme d’argent ms0 dans un compte epargne (i.e. en investissantdans ms0 parts d’actifs non risques). Plus formellement, on amenage notre portefeuille initialsomme suit

Φ1 = (Φ11, Φ

21) = (ms0,−m)

Le cout d’acquisition d’un tel portefeuille est toujours nul :

V0(Φ) = Φ11 + Φ2

1 s0 = (ms0) × 1 − m × s0 = 0

A l’instant suivant k = 1, en revendant les ms0 parts de titres non risques avec les interets,nous achetons m parts d’actifs risques. L’amenagement du portefeuille correspondant est donnepar

Φ2 = Φ1 = (Φ11, Φ

21) = (ms0,−m)

La vente de ce portefeuille nous rapporte :

V1(Φ)(ω1) = (ms0) (1 + r) − m s1,1 = m [s0(1 + r) − s1,1] > 0

V1(Φ)(ω1) = (ms0) (1 + r) − m s1,2 = m [s0(1 + r) − s1,2] ≥ 0

Cas 3 :

Le troisieme cas correspond a la situation ou un investissement sur l’actif risque peut ou nonetre plus avantageux, qu’un investissement sur l’actif non risque.

Dans cette situation, on notera qu’un defaut d’investissement initial

V0(Φ) = Φ11 + Φ2

1 s0 = 0 ⇐⇒ Φ11 = −Φ2

1 s0

conduit a deux situation opposees, sans aucune opportunite d’arbitrage

V1(Φ)(ω1) = Φ11 (1 + r) + Φ2

1 s1,1 = −Φ21 [s0(1 + r) − s1,1] < 0

V1(Φ)(ω2) = Φ11 (1 + r) + Φ2

1 s1,2 = Φ21 [s1,2 − s0(1 + r)] > 0

En conclusion, nous avons l’equivalence suivante

Le marche est viable ⇐⇒ s1,1 < s0(1 + r) < s1,2

Page 111: MASTER MASS 2 Univ. Nice Sophia Antipolis

4.2. MODELE BINOMIAL SUR UNE PERIODE 109

4.2.2 Prix d’options

Dans un modele de marche viable

s1,1 < s0(1 + r) < s1,2

une banque souhaite proposer a des investisseurs une option de vente, avec pour la dated’echeance n = 1, la fonction de paiement f(ωi) = fi ∈ R+, i = 1, 2. Ce modele de marche peutetre represente synthetiquement par le tableau suivant :

Ω S0 = (S10 , S2

0) S1 = (S11 , S2

1) fω1 (1; s0) ((1 + r); s1,1) f1

ω2 (1; s0) ((1 + r); s1,2) f2

Afin d’offrir a ses clients un prix competitif de droit conditionnel, tout en honorant sesengagements, la banque vendra son option de vente au montant suivant

C?(f) = inf x ∈ R+ : ∃Φ = (Φk)k=0,1 t.q. V0(Φ) = x et V1(Φ) ≥ f

Comme nous l’avons vu precedemment, C?(f) correspond au prix d’acquisition du portefeuilleinitial le moins onereux permettant a la banque de couvrir a l’echeance la fonction de paiementproposee.

Dans ce modele de marche a une periode, la condition d’autofinancement d’un portefeuillede cout initial x, s’exprime par la condition

Φ11 × 1 + Φ2

1 s0 = V0(Φ) = x(= Φ10 × 1 + Φ2

0 s0)

Les donnees initialesS0 = (S1

0 , S20) = (1, s0)

etant constantes, La previsibilite de la strategie Φ = (Φk)k=0,1, revient tout simplement a direque l’amenagement du portefeuille Φ1 = (Φ1

1, Φ21) est une v.a. constante, independante du jeu

d’alea ωi, i = 1, 2,

∀i = 1, 2 Φ1(ωi) = (Φ1

1(ωi), Φ2

1(ωi)) = (φ1, φ2)

Avec ces notations, la condition d’autofinancement d’un portefeuille de cout initial x, s’exprimesous la forme suivante

V0(Φ) = φ1 × 1 + φ2 s0 = x

Minoration du prix

La propriete de couverture dans ce marche binomial s’exprime simplement par les deuxformules

V1(Φ)(ω1) = φ1 (1 + r) + φ2 s1,1 ≥ f1

V1(Φ)(ω2) = φ1 (1 + r) + φ2 s1,2 ≥ f2

Par consequent, un portefeuille de couverture (φ1, φ2) doit necessairement satisfaire la conditionsuivante

φ2 ≥ max

f1 − φ1 (1 + r)

s1,1;

f2 − φ1 (1 + r)

s1,2

On en deduit que le cout minimal d’acquisition du portefeuille initial est tel que

V0(Φ) = φ1 + φ2 s0

≥ maxi=1,2

φ1 +s0

s1,i[fi − φ1 (1 + r)]

= maxi=1,2

s0

s1,ifi + φ1

(

1 − s0(1 + r)

s1,i

)

Page 112: MASTER MASS 2 Univ. Nice Sophia Antipolis

110 CHAPITRE 4. MATHEMATIQUES FINANCIERES

D’apres nos hypotheses, nous avons

s1,1 < s0(1 + r) < s1,2

Ainsi, la droite

φ1 −→ s0

s1,ifi + φ1

(

1 − s0(1 + r)

s1,i

)

est decroissante si i = 1, et croissante lorsque i = 2. Ces deux droites s’intersectent en un pointφ?,1 determine par la formule

s0

s1,1f1 + φ?,1

(

1 − s0(1 + r)

s1,1

)

=s0

s1,2f2 + φ?,1

(

1 − s0(1 + r)

s1,2

)

En simplifiant cette equation, nous obtenons la formule equivalente

1

s1,1f1 − φ?,1 (1 + r)

s1,1=

1

s1,2f2 − φ?,1 (1 + r)

s1,2

soit encores1,2 f1 + φ?,1(1 + r)s1,1 = s1,1 f2 + φ?,1(1 + r)s1,2

On en conclut que ces deux droites s’intersectent en

φ?,1 =s1,2 f1 − s1,1 f2

(1 + r)(s1,2 − s1,1)

Par consequent, pour tout portefeuille de couverture Φ nous avons

V0(Φ) ≥ s0

s1,1f1 + φ?,1

(

1 − s0(1 + r)

s1,1

)

=s0

s1,1f1 +

s1,2 f1 − s1,1 f2

(1 + r)(s1,2 − s1,1)

(

1 − s0(1 + r)

s1,1

)

=1

(1 + r)(s1,2 − s1,1)

×[

(s1,2 f1 − s1,1 f2)

(

1 − s0(1 + r)

s1,1

)

+s0(1 + r)

s1,1(f1s1,2 − f1s1,1)

]

On en deduit que

C?(f) ≥ 1

(1 + r)(s1,2 − s1,1)[(s1,2 f1 − s1,1 f2) + s0(1 + r)(f2 − f1)]

=1

(1 + r)(s1,2 − s1,1)[(s1,2 − s0(1 + r)) f1 + (s0(1 + r) − s1,1) f2]

Formule du delta de couverture

Afin de s’assurer que cette borne inferieure est atteinte, on remarque que la strategied’investissement

φ?,1 =s1,2 f1 − s1,1 f2

(1 + r)(s1,2 − s1,1)=

1

1 + r

[

f1 − s1,1f2 − f1

s1,2 − s1,1

]

φ?,2 =f2 − f1

s1,2 − s1,1

est l’unique solution du systeme d’equations

φ1(1 + r) + φ2s1,1 = f1

φ1(1 + r) + φ2s1,2 = f2

Le couple Φ?1 = (φ?,1, φ?,2) est parfois appele formule du delta de couverture.

Page 113: MASTER MASS 2 Univ. Nice Sophia Antipolis

4.2. MODELE BINOMIAL SUR UNE PERIODE 111

Un calcul elementaire montre que

V0(Φ?) = φ?,1 + φ?,2s0

=s1,2 f1 − s1,1 f2

(1 + r)(s1,2 − s1,1)+

f2 − f1

s1,2 − s1,1s0

=1

(1 + r)(s1,2 − s1,1)((s1,2 f1 − s1,1 f2) + (f2 − f1)s0(1 + r))

=s1,2 − s0(1 + r)

(s1,2 − s1,1)(1 + r)× f1 +

s0(1 + r) − s1,1

(s1,2 − s1,1)(1 + r)× f2 = C?(f)

En resume, le vendeur proposera une option de vente au montant

C?(f) =s1,2 − s0(1 + r)

(s1,2 − s1,1)(1 + r)× f1 +

s0(1 + r) − s1,1

(s1,2 − s1,1)(1 + r)× f2

De plus, il utilisera la strategie de couverture

Φ?1 = (φ?,1, φ?,2) =

(1

(1 + r)

s1,2 f1 − s1,1 f2

(s1,2 − s1,1),

f2 − f1

s1,2 − s1,1

)

pour honorer la fonction de paiement proposee.

Le point de vue de l’acheteur

La plus grande dette que l’acheteur acceptera de debourser, de sorte a pouvoir s’en acquitterau moment ou il exercera (ou non) son droit, est donnee par la formule

C?(f) = sup x ∈ [0,∞) : ∃(Φk)k=0,1 t.q. V0(Φ) = x et V1(Φ) ≤ f

Par des arguments analogues a ceux utilises dans l’analyse du point de vue du vendeur, nousavons l’equivalence suivante

V1(Φ) ≤ f ⇐⇒ φ2 ≤ min

f1 − φ1 (1 + r)

s1,1;

f2 − φ1 (1 + r)

s1,2

Cette equivalence conduit aisement a la majoration

V0(Φ) = φ1 + φ2 s0 ≤ mini=1,2

φ1 +s0

s1,i[fi − φ1 (1 + r)]

D’apres les calculs precedents, on obtient la majoration

V0(Φ) ≤ φ?,1 +s0

s1,1[f1 − φ?,1 (1 + r)] = φ?,1 +

s0

s1,2[f2 − φ?,1 (1 + r)]

avec

φ?,1 =s1,2 f1 − s1,1 f2

(1 + r)(s1,2 − s1,1)

La formule du delta de couverture nous permet de conclure que le vendeur et l’acheteurs’entendront sur un prix egal a

C(f) = C?(f) = C?(f)

=1

1 + r

(s1,2 − s0(1 + r)

(s1,2 − s1,1)× f1 +

s0(1 + r) − s1,1

(s1,2 − s1,1)× f2

)

=1

1 + r

(s1,2 − s0(1 + r)

(s1,2 − s1,1)× f1 +

[

1 − s1,2 − s0(1 + r)

(s1,2 − s1,1)

]

× f2

)

Page 114: MASTER MASS 2 Univ. Nice Sophia Antipolis

112 CHAPITRE 4. MATHEMATIQUES FINANCIERES

On remarquera qu’avec une dette d’un montant

V0(−Φ?) = −φ?,1 − φ?,2 s0

l’acheteur pourra utiliser la strategie d’investissement

−Φ?1 = (−φ?,1,−φ?,2)

pour obtenir a l’echeance le portefeuille lui permettant de la rembourser

V1(−Φ?) = −φ?,1(1 + r) − φ?,2 S21 = −f

4.2.3 Point de vue de phenomenes

Nous commencons par remarquer que la condition de non arbitrage

s1,1 < s0(1 + r) < s1,2

est equivalente au fait suivant

p? =def.

s1,2 − s0(1 + r)

(s1,2 − s1,1)∈ (0, 1)

On notera P? la mesure de probabilite sur Ω = ω1, ω2, definie par

P(ω1) = p? = 1 − P?(ω2)

Par construction, le prix du droit conditionnel C(f) calcule precedemment correspond a lavaleur esperee sous P

?, de la fonction de paiement actualisee, c’est a dire

C(f) = E?

(f

(1 + r)

)

D’autre part, sous la mesure P?, nous avons

E?(

S1

1 | F0

)

= E?

(S1

1

(1 + r)1| F0

)

=1 + r

1 + r= 1 =

S10

(1 + r)0= S

1

0

et

E?(

S2

1 | F0

)

= E?

(S2

1

(1 + r)1| F0

)

=s1,1

(1 + r)p? +

s1,2

(1 + r)(1 − p?)

=s1,1

(1 + r)

s1,2 − s0(1 + r)

(s1,2 − s1,1)+

s1,2

(1 + r)

s0(1 + r) − s1,1

(s1,2 − s1,1)

= s0 =S2

0

(1 + r)0= S

2

0

Autrement dit, en termes probabilistes, les prix reactualises sont des P?-martingales.

La mesure P? que nous venons d’introduire, ne correspond bien evidemment pas a la

probabilite regissant les statistiques du marche financier. Cette probabilite virtuelle est appeleemesure a risque neutre, ou mesure martingale, pour souligner le caractere “imprevisible”des actifs reactualises, la neutralite des prix des droits conditionnels entre acheteur et vendeur,ou encore pour mettre en evidence, la correspondance entre le prix de l’option de vente et lavaleur reactualisee moyenne de la fonction de paiement.

Cette mesure P? peut aussi s’interpreter comme une technique de neutralisation du marche

financier reactualise suivant

Page 115: MASTER MASS 2 Univ. Nice Sophia Antipolis

4.2. MODELE BINOMIAL SUR UNE PERIODE 113

overlines_0=s_0

overlines_1,1=s_1,1/(1+r)

overlines_1,2=s_1,2/(1+r)

w^1

w^2

Ω= w^1,w^2

(1−p)

p

Fig. 4.1 – Arbre binomial

Plus precisement, si l’on considere les valeurs reactualisees

s1,1 =s1,1

(1 + r)et s1,2 =

s1,2

(1 + r)

la mesure P? est determinee par l´equation suivante

E?(

S2

1 | S2

0

)

= S1

0 ⇐⇒ s1,1 P?(S

2

1 = s1,1 | S2

0 = s0) + s1,2 P?(S

2

1 = s1,2 | S2

0 = s0) = s0

⇐⇒ s1,1 P?(ω1) + s1,2 P

?(ω2) = s0

⇐⇒ s1,1 P?(ω1) + s1,2 (1 − P

?(ω1)) = s0

⇐⇒ P?(ω1) =

s0 − s1,2

s1,1 − s1,2=

s1,2 − s0

s1,2 − s1,1

La propriete de martingale

E?(

S2

1 | S2

0

)

= S2

0

peut aussi s’interpreter comme une caracterisation des coordonnees barycentriquesdu point s0 dans l’intervalle [s1,1, s1,2]

overlines_1,2=s_1,2/(1+r)overlines_1,1=s_1,1/(1+r)

overlines_0=s_0

A=[s_0−overlines_1,1] B=[overlines_1,2−s_0]

A+B=[overlines_1,2−overlines_1,1]

Fig. 4.2 – Arbre binomial

Dans cette interpretation, nous avons clairement

s0 =A

A + Bs1,2 +

B

A + Bs1,1 =⇒ P

?(ω1) =B

A + B=

s1,2 − s0

s1,2 − s1,1

Apres avoir neutraliser le marche financier, on note que les valeurs des portefeuilles reactualises

Page 116: MASTER MASS 2 Univ. Nice Sophia Antipolis

114 CHAPITRE 4. MATHEMATIQUES FINANCIERES

sont donnees par les formules suivantes

V 0(Φ) =V0(Φ)

(1 + r)0= Φ1

1

S10

(1 + r)0+ Φ2

1

S20

(1 + r)0= Φ1

1 × 1 + Φ21 s0

V 1(Φ) =V1(Φ)

(1 + r)1=

V1(Φ)

(1 + r)= Φ1

1

S11

(1 + r)1+ Φ2

1

S21

(1 + r)1= Φ1

1 × 1 + Φ21 S

2

1

Autrement dit, nous avons

V 1(Φ) = V 0(Φ) + Φ21 [S

2

1 − S2

0]

De plus, sous la mesure P?, le portefeuille reactualise est une martingale

E?(V 1(Φ) | S

2

0) = V 0(Φ) + Φ21 E

?([S2

1 − S2

0] | S2

0)

= V 0(Φ) + Φ21 [E?(S

2

1 | S2

0) − S2

0] = V 0(Φ)

Dans la section 3.2.4, consacree a la simulation de jeux a conditions terminales fixees, nousavons demontre le resultat suivant.

La seule martingale (Mk)k=0,1 terminant en la valeur

h1(S2

1) =def. f(⇐⇒

[h1(s1,1) = f1 et h1(s1,2) = f2

])

au temps n = 1, est donnee par la formule suivante :

M0 = g0(S2

0) et M1 = g1(S2

1) =def. h1(S2

1)

avec la fonction g0(S2

0) determinee par la formule de recurrence inverse

g0(S2

0) = E?(g1(S

2

1) | S2

0) = E?(h1(S

2

1) | S2

0)

Nous retrouvons que le prix de l’option correspond a la valeur initiale du portefeuillede couverture

V 0(Φ) = C(f) = g0(s0)

=s0 − s1,2

s1,1 − s1,2f1 +

(

1 − s0 − s1,2

s1,1 − s1,2

)

f2

De plus, le portefeuille de couverture est determine par la relation suivante

V 1(Φ) − V 0(Φ) = M1 − M0 ⇒ Φ21 [S

2

1 − S2

0] = g1(S2

1) − g0(S2

0)

En considerant les deux situations

S2

1 = s1,1 et S2

1 = s1,2

on obtient les equations

Φ21 [s1,1 − s0] = g1(s1,1) − g0(s0)

Φ21 [s1,2 − s0] = g1(s1,2) − g0(s0)

On en conclut que

Page 117: MASTER MASS 2 Univ. Nice Sophia Antipolis

4.2. MODELE BINOMIAL SUR UNE PERIODE 115

Φ21 =

g1(s1,2) − g1(s1,1)

s1,2 − s1,1=

f2 − f1

s1,2 − s1,1

Enfin, d’apres les proprietes d’autofinancement, nous avons

Φ11 = V 0(Φ) − Φ2

1 s0 = g0(s0) −g1(s1,2) − g1(s1,1)

s1,2 − s1,1s0

=

[s0 − s1,2

s1,1 − s1,2f1 +

(

1 − s0 − s1,2

s1,1 − s1,2

)

f2

]

− f2 − f1

s1,2 − s1,1s0

=

[s0 − s1,2

s1,1 − s1,2− s0

s1,2 − s1,1

]

f1 +

[s1,1 − s0

s1,1 − s1,2+

s0

s1,2 − s1,1

]

f2

Par consequent, on obtient

Φ11 =

s1,2 f1 − s1,1 f2

s1,2 − s1,1

Ces portefeuilles de couverture peuvent etre retrouves plus facilement en utilisant la formuledu delta de couverture decrite a la page 110.

4.2.4 Exercices

Exercice 4.2.1 On appelle le rendement instantane d’un titre Sk au temps k, la quantite RSk

definie par

RSk =

Sk − Sk−1

Sk−1=

∆Sk

Sk−1

On rappelle que Sk represente le prix d’une part d’un titre donne au temps k. On note(S1

k , S2k)k=0,1 le modele a deux etats decrit par le tableau

Ω S0 = (S10 , S2

0) S1 = (S11 , S2

1)ω1 (1; s0) ((1 + r); s1,1)ω2 (1; s0) ((1 + r); s1,2)

On suppose que ce marche est viable

s1,1 < s0(1 + r) < s1,2

et l’on note P? la mesure a risque neutre definie par

P?(ω1) = p? =def.

s1,2 − s0(1 + r)

(s1,2 − s1,1)∈ (0, 1)

1. Soit P une mesure de probabilite sur Ω = ω1, ω2 avec

P(ω1) = p = 1 − P(ω2)

Verifier que l’on a

E(RS1

1 ) = r et E(RS2

1 ) =s1,2 − s0

s0− p × s1,2 − s1,1

s0

Page 118: MASTER MASS 2 Univ. Nice Sophia Antipolis

116 CHAPITRE 4. MATHEMATIQUES FINANCIERES

2. Deduire de la question precedente que le rendement instantane du titre risque est superieura celui du titre non risque, si la probabilite p est suffisamment petite.

3. Montrer que sous P?, le rendement instantane du titre risque est le meme que celui du

titre non risque.

Exercice 4.2.2 On considere le modele de marche viable decrit dans l’exercice 4.2.1.

1. Decrire les prix des actifs reactualises (S1

k, S2

k)k=0,1, ainsi que les valeurs reactualiseesd’un portefeuille (V k(Φ))k=0,1 associe a une strategie d’amenagement Φ1 = (Φ1

1, Φ21).

2. Verifier que l’on a

Φ11 = V 0(Φ) − Φ2

1 s0

et montrer que

V 0(Φ) = Φ11 + Φ2

1 s0 et V 1(Φ) = V 0(Φ) + Φ21 [S

2

1 − S2

0]

3. En deduire que les valeurs reactualisees des portefeuilles (V k(Φ))k=0,1 sont des P?-

martingales.

Exercice 4.2.3 Determiner les valeurs reactualisees des portefeuilles V k(Φ) = Vk(Φ)/(1+ r)k

aux instants k = 0, 1, en fonction des prix des actifs reactualises Si

k = Sik/(1 + r)k. Verifier les

formules suivantes :

∆V 1(Φ) = Φ21 × ∆S

2

1 et Φ11 = V 0(Φ) − Φ2

1 × S2

0

Exercice 4.2.4 On considere le modele de marche a deux etats sur une periode (S1k , S2

k)k=0,1

decrit par le tableau suivant

Ω S0 = (S10 , S2

0) S1 = (S11 , S2

1)ω1 (1; s0) ((1 + r); s1,1)ω2 (1; s0) ((1 + r); s1,2)

1. Decrire le tableau, et l’arbre des epreuves correspondant au marche reactualise

(S1

k, S2

k)k=0,1.

2. Determiner les valeurs reactualisees d’un portefeuille associe a une strategied’amenagement sans investissement initial.

3. Discuter les situations ou l’on peut enrichir son portefeuille ∆V 1(Φ) > 0, sans apportinitial.

4. Discuter les possibilites d’arbitrage dans les neuf modeles de marches suivants :

Ω S0 = (S10 , S2

0) S1 = (S11 , S2

1)ω1 (1; 5) ((1 + 5 10−2); s1,1)ω2 (1; 5) ((1 + 5 10−2); s1,2)

avec

1)

s1,1 = 1, 05 × 6s1,2 = 1, 05 × 4

2)

s1,1 = 1, 05 × 6s1,2 = 1, 05 × 7

3)

s1,1 = 1, 05 × 10s1,2 = 1, 05 × 1

4)

s1,1 = 1, 05 × 3s1,2 = 1, 05 × 2

5)

s1,1 = 1, 05 × 5s1,2 = 1, 05 × 6

6)

s1,1 = 1, 05 × 5s1,2 = 1, 05 × 4

7)

s1,1 = 1, 05 × 3s1,2 = 1, 05 × 10

8)

s1,1 = 1, 05 × 8s1,2 = 1, 05 × 9

9)

s1,1 = 1, 05 × 2s1,2 = 1, 05 × 10

Page 119: MASTER MASS 2 Univ. Nice Sophia Antipolis

4.2. MODELE BINOMIAL SUR UNE PERIODE 117

Exercice 4.2.5 On considere un modele de marche viable decrit par le tableau suivant

Ω S0 = (S1

0, S2

0) S1 = (S1

1, S2

1)ω1 (1; s0) (1; s1,1)ω2 (1; s0) (1; s1,2)

avec 0 < s1,1 < s0 < s1,2

Une banque emet une option de vente de fonction de paiement f(ωi) = fi, avec i = 1, 2. Onnote f i = fi/(1 + r) les valeurs reactualisees de cette option.

1. Determiner les strategies de couverture de cette option, en fonction des portefuilles et desactifs reactualises.

2. Montrer qu’une strategie de couverture est donnee par

φ2, ? =(f1 − φ1, ?

)/s1,1

ou φ1, ? designe le point d’intersection des deux droites (∆i)i=1,2 determinees par lesequations suivantes :

∆i : φ1 7→ s0

s1,if i + φ1

(

1 − s0

s1,i

)

On verifiera que la strategie de couverture (φ1, ?, φ2, ?) est l’unique solution du systemed’equations

φ1 + φ2 s1,1 = f1

φ1 + φ2 s1,2 = f2

3. Montrer que le cout initial du portefeuille (reactualise) permettant de couvrir l’option estdonne par la formule

V 0(Φ) = f1

(s1,2 − s0

s1,2 − s1,1

)

+ f2

(

1 − s1,2 − s0

s1,2 − s1,1

)

Exercice 4.2.6 Verifier la viabilite des marches suivants, et determiner les prix C(f), et lesstrategies de couverture (φ1, ?, φ2, ?) dans chaque situation.

Ω S0 = (S1

0, S2

0) S1 = (S1

1, S2

1)ω1 (1; 5) (1; s1,1)ω2 (1; 5) (1; s1,2)

avec

1)

s1,1 = 3s1,2 = 6

2)

s1,1 = 1s1,2 = 10

3)

s1,1 = 4s1,2 = 7

4)

s1,1 = 1s1,2 = 6

5)

s1,1 = 1s1,2 = 20

6)

s1,1 = 2s1,2 = 7

7)

s1,1 = 3s1,2 = 50

8)

s1,1 = 4s1,2 = 100

9)

s1,1 = 2s1,2 = 1000

Exercice 4.2.7 On considere un modele de marche viable decrit par le tableau suivant

Ω S0 = (S1

0, S2

0) S1 = (S1

1, S2

1)ω1 (1; s0) (1; s1,1)ω2 (1; s0) (1; s1,2)

avec 0 < s1,1 < s0 < s1,2

1. Determiner l’unique probabilite P? sur Ω = ω1, ω2 telle que

E?(S

2

1 | S2

0) = S2

0

Page 120: MASTER MASS 2 Univ. Nice Sophia Antipolis

118 CHAPITRE 4. MATHEMATIQUES FINANCIERES

2. Montrer que pour tout portefeuille autofinance, nous avons

E?(V 1(Φ) | S

2

0) = V 0(Φ)

3. Determiner la valeur moyenne sous P? d’une fonction de paiement reactualisee f .

4. Decrire une strategie de couverture Φ? = (φ1, ?, φ2, ?) de l’option f , et verifier que le coutinitial d’acquisition du portefeuille de couverture est tel que V 0(Φ

?) = E?(f) = C(f).

Exercice 4.2.8 Determiner les prix, et les strategies de couverture des options de ventesuivantes

1) Ω S0 = (S1

0, S2

0) S1 = (S1

1, S2

1) f = (10 − S2

1)+ω1 (1; 5) (1; 3) 7ω2 (1; 5) (1; 6) 4

2) Ω S0 = (S1

0, S2

0) S1 = (S1

1, S2

1) f = (8 − S2

1)+ω1 (1; 5) (1; 1) 7ω2 (1; 5) (1; 10) 0

3) Ω S0 = (S1

0, S2

0) S1 = (S1

1, S2

1) f = (8 − S2

1)+ω1 (1; 5) (1; 2) 6ω2 (1; 5) (1; 7) 1

4) Ω S0 = (S1

0, S2

0) S1 = (S1

1, S2

1) f = (10 − S2

1)+ω1 (1; 5) (1; 3) 7ω2 (1; 5) (1; 50) 0

5) Ω S0 = (S1

0, S2

0) S1 = (S1

1, S2

1) f = (100− S2

1)+ω1 (1; 5) (1; 1) 99ω2 (1; 5) (1; 20) 80

6) Ω S0 = (S1

0, S2

0) S1 = (S1

1, S2

1) f = (6 − S2

1)+ω1 (1; 5) (1; 2) 4ω2 (1; 5) (1; 7) 0

7) Ω S0 = (S1

0, S2

0) S1 = (S1

1, S2

1) f = (6 − S2

1)+ω1 (1; 5) (1; 3) 3ω2 (1; 5) (1; 50) 0

4.3 Modele a deux etats sur deux periodes

4.3.1 L’arbre binomial

Le modele de marche financier binomial sur deux periodes est decrit par le tableau

Ω S0 = (S10 , S2

0) S1 = (S11 , S2

1) S2 = (S12 , S2

2)ω1 (1; s0) ((1 + r); s1,1) ((1 + r)2; s2,1)ω2 (1; s0) ((1 + r); s1,1) ((1 + r)2; s2,2)ω3 (1; s0) ((1 + r); s1,2) ((1 + r)2; s2,3)ω4 (1; s0) ((1 + r); s1,2) ((1 + r)2; s2,4)

peut etre schematise alternativement par l’arbre des epreuves suivant

Page 121: MASTER MASS 2 Univ. Nice Sophia Antipolis

4.3. MODELE A DEUX ETATS SUR DEUX PERIODES 119

((1+r),s_1,1)

(1,s_0)

((1+r),s_1,2)

((1+r)^2,s_2,1)

((1+r)^2,s_2,2)

((1+r)^2,s_2,3)

((1+r_^2,s_2,4)

Fig. 4.3 – Arbre binomial

La version reactualisee de ce modele est donnee par le tableau

Ω S0 = (S1

0, S2

0) S1 = (S1

1, S2

1) S2 = (S1

2, S2

2)ω1 (1; s0) (1; s1,1) (1; s2,1)ω2 (1; s0) (1; s1,1) (1; s2,2)ω3 (1; s0) (1; s1,2) (1; s2,3)ω4 (1; s0) (1; s1,2) (1; s2,4)

avec les valeurs reactualisees

s0 =s0

(1 + r)0= s0 , s1,i =

s1,i

(1 + r)1, et s2,i =

s2,i

(1 + r)2

Sans perte de generalite, nous conviendrons par la suite que

s1,1 < s1,2 , s2,1 < s2,2 , et s2,3 < s2,4

On notera enfin que ce modele a deux periodes est une repetition du modele a une periode.Plus precisement, sachant S1 = ((1 + r); s1,1), l’arbre des epreuves correspond exactement aumodele binomial sur une periode examine dans la section precedente.

La filtration de sous algebres

F0 = σ(S0) ⊂ F1 = σ(S0, S1) ⊂ F2 = σ(S0, S1, S2)

caracterisant l’information presente dans le marche aux temps k = 0, 1, 2 estclairement donnee par

F0 = ∅, Ω ⊂ F1 = ∅, Ω, ω1, ω2, ω3, ω4 ⊂ F2 = P(Ω)

Afin d’eviter toute possibilite d’arbitrage, ce modele de marche sur deux periodesdoit necessairement satisfaire les trois conditions suivantes

1. Pas d’arbitrage sur une periode : −→ s1,1 < s0(1+r) < s1,2

2. Pas d’arbitrage sachant que S1 = ((1+r); s1,1) : −→ s2,1 < s1,1(1+r) < s2,2

3. Pas d’arbitrage sachant que S1 = ((1+r); s1,2) : −→ s2,3 < s1,2(1+r) < s2,4

Page 122: MASTER MASS 2 Univ. Nice Sophia Antipolis

120 CHAPITRE 4. MATHEMATIQUES FINANCIERES

4.3.2 Gestion de portefeuilles

Les valeurs des portefeuilles associees a des strategies de re-amenagement

Φ1 = (Φ11, Φ

21) ∈ F0 et Φ2 = (Φ1

2, Φ22) ∈ F1

sont donnees par les formules suivantes

V0(Φ) = Φ11 S1

0 + Φ21 S2

0 = Φ11 + Φ2

1 S20

V1(Φ) = Φ11 S1

1 + Φ21 S2

1 = Φ11 (1 + r) + Φ2

1 S21

(= Φ1

2 (1 + r) + Φ22 S2

1

)

V2(Φ) = Φ12 S1

2 + Φ22 S2

2 = Φ12 (1 + r)2 + Φ2

1 S22

L’egalite entre parenthese dans la seconde formule, est une consequence de la proprieted’autofinancement des amenagements de portefeuilles. Leurs valeurs reactualisees definies par

V k(Φ) =def.

Vk(Φ)

(1 + r)k

s’expriment en terme des actifs reactualises

∀i = 1, 2 Si

k =def.

Sik

(1 + r)k

selon les formules

V 0(Φ) = V0(Φ) = Φ11 + Φ2

1 S2

0

V 1(Φ) = Φ11 + Φ2

1 S2

1

(

= Φ12 + Φ2

2 S2

1

)

V 2(Φ) = Φ12 + Φ2

1 S2

2

On notera que l’on a

V 1(Φ) = Φ11 + Φ2

1 S2

1 = V 0(Φ) + Φ21 [S

2

1 − S2

0]

V 2(Φ) = Φ12 + Φ2

2 S2

2 = V 1(Φ) + Φ22 [S

2

2 − S2

1]

Les valeurs reactualisees des portefeuilles sont donc donnees par les formulessuivantes :

∀k = 1, 2 ∆V k(Φ) = Φ2k ∆S

2

k et Φ1k = V k−1(Φ) − Φ2

k S2

k−1 (4.1)

Page 123: MASTER MASS 2 Univ. Nice Sophia Antipolis

4.3. MODELE A DEUX ETATS SUR DEUX PERIODES 121

4.3.3 Neutralisation des risques

Supposons dans un premier temps l’existence d’une mesure de probabilite sur l’espace Ω =ωi, i = 1, 2, 3, 4, muni de la filtration (Fk)k=0,1,2, neutralisant les opportunites d’arbitrage.Plus precisement, et plus formellement, supposons qu’il existe une mesure de probabilite surl’espace filtre (Ω, (Fk)k=0,1,2), sous laquelle les actifs risques soient des martingales. Dans cettesituation, les valeurs des portefeuilles reactualises (V k(Φ))k=0,1,2 forment une P

?-martingale.Cette derniere est decrite par les equations

∀0 ≤ k ≤ 2 V k(Φ) = V 0(Φ) +

k∑

l=1

Φ2l ∆S

2

l

Par definition, les actifs risques S2

k ne peuvent prendre que deux valeurs ak, bk, previsiblespar l’investisseur. Plus precisement, nous avons

P?(S

2

1 ∈ a1, b1 | F0) = 1 avec (a1, b1) = (s1,1, s1,2)

P?(S

2

2 ∈ a2, b2 | F1) = 1 avec

(a2, b2)(ω

1) = (a2, b2)(ω2) = (s2,1, s2,2)

(a2, b2)(ω3) = (a2, b2)(ω

4) = (s2,3, s2,4)

On peut aussi noter que l’on a

ω ∈ Ω : S2

1(ω) = a1 = ω ∈ Ω : S2

1(ω) = s1,1 = ω1, ω2ω ∈ Ω : S

2

1(ω) = b1 = ω ∈ Ω : S2

1(ω) = s1,2 = ω3, ω4

Les premieres transitions des prix reactualises sont alors donnees par les formules suivantes

P?(S

2

1 = s1,1 | S2

0 = s0) = P?(ω1, ω2)

P?(S

2

1 = s1,2 | S2

0 = s0) = P?(ω3, ω4)

De meme, sur chacun des evenements ω1, ω2, et ω3, ω4 ∈ F1 les probabilites de transitionsentre ces phenomenes biphases

S2

1 S2

2

peuvent s’ecrire,

P?(S

2

2 = s2,1 | S2

1 = s1,1) = P?(ω1 | ω1, ω2)

P?(S

2

2 = s2,2 | S2

1 = s1,1) = P?(ω2 | ω1, ω2)

si le premier evenement ω1, ω2 = S2

1 = s1,1 se realise, et dans le cas ou le second evenement

ω3, ω4 = S2

1 = s1,2 se produit

P?(S

2

2 = s2,3 | S2

1 = s1,2) = P?(ω3 | ω3, ω4)

P?(S

2

2 = s2,4 | S2

1 = s1,2) = P?(ω4 | ω3, ω4)

Plus schematiquement, ces statistiques sont decrites par l’arbre des transitions suivant

Page 124: MASTER MASS 2 Univ. Nice Sophia Antipolis

122 CHAPITRE 4. MATHEMATIQUES FINANCIERES

P(w^1,w^2)

P(w^3,w^4)

P(w^3|w^3,w^4)

P(w^4|w^3,w^4)

P(w^2|w^1,w^2)

P(w^1|w^1,w^2)

s_2,4

s_2,3

s_2,2

s_2,1

s_0

s_1,2

s_1,1

Fig. 4.4 – Statistique d’arbre neutralise

La propriete de P?-martingale de l’actif risque reactualise S

2

k peut etre lue sur l’arbre,en terme des formules de moyennisation suivantes

E?(S

2

1 | S2

0) = S2

0 ⇐⇒ s1,1 P?(ω1, ω2) + s1,2 P

?(ω3, ω4) = s0

et

E?(S

2

2 | S2

1) = S2

1 ⇔

s2,1 P?(ω1|ω1, ω2) + s2,2 P

?(ω2|ω1, ω2) = s1,1

s2,3 P?(ω3|ω3, ω4) + s2,4 P

?(ω4|ω3, ω4) = s1,2

On deduit aisement de ces trois formules la nature de cette probabilite a risque neutre

P?(ω1, ω2) = 1 − P

?(ω3, ω4) =s0 − s1,2

s1,1 − s1,2

P?(ω1|ω1, ω2) = 1 − P

?(ω2|ω1, ω2) =s1,1 − s2,2

s2,1 − s2,2

P?(ω3|ω3, ω4) = 1 − P

?(ω4|ω3, ω4) =s1,2 − s2,4

s2,3 − s2,4

On en conclut que

P?(ω1) = P

?(ω1|ω1, ω2) × P?(ω1, ω2) =

s1,1 − s2,2

s2,1 − s2,2× s0 − s1,2

s1,1 − s1,2

P?(ω2) = P

?(ω2|ω1, ω2) × P?(ω1, ω2) =

(

1 − s1,1 − s2,2

s2,1 − s2,2

)

× s0 − s1,2

s1,1 − s1,2

P?(ω3) = P

?(ω3|ω3, ω4) × P?(ω3, ω4) =

s1,2 − s2,4

s2,3 − s2,4×(

1 − s0 − s1,2

s1,1 − s1,2

)

P?(ω4) = P

?(ω4|ω3, ω4) × P?(ω3, ω4) =

(

1 − s1,2 − s2,4

s2,3 − s2,4

)(

1 − s0 − s1,2

s1,1 − s1,2

)

4.3.4 Couverture d’options

On considere un droit conditionnel de fonction de paiement reactualisee

f = f/(1 + r)2 = g(S2

2)

Page 125: MASTER MASS 2 Univ. Nice Sophia Antipolis

4.3. MODELE A DEUX ETATS SUR DEUX PERIODES 123

associe a une fonction g. La couverture de cette option revient a trouver une strategie (Φ2k)k=1,2

previsible, et une condition initiale V 0(Φ), pour lesquelles le portefeuille reactualise

V k(Φ) = V 0(Φ) +

k∑

l=1

Φ2l ∆S

2

l

atteint a l’echeance k = 2 cette valeur

V 2(Φ) = V 0(Φ) +

2∑

k=1

Φ2k ∆S

2

k = g(S2

2)

Sous la probabilite a risque neutre, nous savons que les valeurs des portefeuilles reactualises(V k(Φ))k=0,1,2 forment une P

?-martingale. Dans ces conditions, le theoreme 3.2.1 permet deconstruire la strategie de couverture.

On commence par introduire les fonctions (gk)k=0,1,2 definies par les equations derecurrence inverse

g2(S2

2) = g(S2

2)

g1(S2

1) = E?(g2(S

2

2) | S2

1)(

= E?(g(S

2

2) | S2

1))

g0(S2

0) = E?(g1(S

2

1) | S2

0)(

= E?(g(S

2

2) | S2

0)) = E?(g(S

2

2)))

Un simple calcul montre que

∀1 ≤ i ≤ 4 g2(s2,i) = g(s2,i)

puis

g1(s1,1) = g(s2,1) P?(ω1 | ω1, ω2) + g(s2,2) P

?(ω2 | ω1, ω2)g1(s1,2) = g(s2,3) P

?(ω3 | ω3, ω4) + g(s2,4) P?(ω4 | ω3, ω4)

et enfin

g0(s0) = g1(s1,1) P?(ω1, ω2) + g1(s1,2) P

?(ω3, ω4)(

=

4∑

i=1

g(s2,i)P?(ωi)

)

En invoquant le theoreme 3.2.1, le portefeuille de couverture est donne par

Φ21 =

g1(s1,1) − g1(s1,2)

s1,1 − s1,2

et

Φ22 =

g2(b2) − g2(a2)

b2 − a2=

g(s2,2)−g(s2,1)

s2,2−s2,1sur ω1, ω2 (i.e. si S

2

1 = s1,1)g(s2,4)−g(s2,3)

s2,4−s2,3sur ω3, ω4 (i.e. si S

2

1 = s1,2)

Autrement dit, en distinguant les evenements S2

1 = s1,1 ∈ F1, et S2

1 = s1,2 ∈ F1, on obtientla formule suivante.

Page 126: MASTER MASS 2 Univ. Nice Sophia Antipolis

124 CHAPITRE 4. MATHEMATIQUES FINANCIERES

Φ22 = 1

S21=s1,1

× g(s2,2) − g(s2,1)

s2,2 − s2,1+ 1

S21=s1,2

× g(s2,4) − g(s2,3)

s2,4 − s2,3

D’apres les proprietes d’autofinancement (voir par exemple 4.1), les amenagementsdes actifs non risques Φ1

k sont donnes par les formules

Φ11 = V 0(Φ) − Φ2

1 S2

0 et Φ12 = V 1(Φ) − Φ2

2 S2

1

Sous la probabilite a risque neutre, le cout d’acquisition du portefeuille correspond toutsimplement a la moyenne de la fonction de paiement

V 0(Φ) = g0(s0) = E?(g(S

2

2))

La propriete de P?-martingale entraıne que

V 0(Φ) = E?(V 2(Φ)) = E

?(g(S2

2)) = g0(s0)

D’autre part, pour toute autre strategie

(V 0(Φ′), (Φ′ 2

1 , Φ′ 22 ))

nous avons

V 2(Φ′) ≤ g(S

2

2) =⇒ V 0(Φ′) = E

?(V 2(Φ′)) ≤ E

?(g(S2

2))

V 2(Φ′) ≥ g(S

2

2) =⇒ V 0(Φ′) = E

?(V 2(Φ′)) ≥ E

?(g(S2

2))

Par consequent, on obtient les majorations suivantes

C?(f) = sup x ∈ [0,∞) : ∃(Φk)k=0,1,2 t.q. V0(Φ) = x et V2(Φ) ≤ f= sup

x ∈ [0,∞) : ∃(Φk)k=0,1,2 t.q. V 0(Φ) = x et V 2(Φ) ≤ g(S2

2)

≤ E?(g(S

2

2))

et

E?(g(S

2

2)) ≤ C?(f)

= inf x ∈ [0,∞) : ∃(Φk)k=0,1,2 t.q. V0(Φ) = x et V2(Φ) ≥ f= inf

x ∈ [0,∞) : ∃(Φk)k=0,1,2 t.q. V 0(Φ) = x et V 2(Φ) ≥ g(S2

2)

Ceci entraıne que

C?(f) ≤ E?(g(S

2

2)) ≤ C?(f)

La strategie de couverture, sous la probabilite a risque neutre, que nous venons de construire(V 0(Φ), (Φ2

1, Φ22)) fait partie de ces deux jeux de sous/sur-couverture. On a donc

C?(f) ≤ V 0(Φ) = E?(g(S

2

2)) ≤ C?(f)

On en conclut que

V 0(Φ) = E?(g(S

2

2)) = C?(f) = C?(f) = g0(s0)

Page 127: MASTER MASS 2 Univ. Nice Sophia Antipolis

4.3. MODELE A DEUX ETATS SUR DEUX PERIODES 125

La neutralisation “virtuelle” du marche nous a permis de calculer le cout d’acquisition, ainsi que

la strategie de financement (V 0(Φ), (Φ21, Φ

22)), permettant a l’emetteur d’une option f = g(S

2

2)d’honorer son contrat.

V 2(Φ) = V 0(Φ) + Φ21 ∆S

2

1 + Φ22 ∆S

2

2 = g(S2

2)

4.3.5 Exercices

Exercice 4.3.1 On considere un marche financier viable a deux etats sur deux periodes. Unemetteur d’une option f offre un prix C. Etudier les gains et pertes de ce vendeur dans les troiscas de figure suivants

1) C = C?(f) , 2) C > C?(f) , et 3) C < C?(f)

Exercice 4.3.2 On considere le modele de marche reactualise decrit par l’arbre des epreuvessuivant :

P(w^3,w^4)

P(w^1,w^2)

P(w^2|w^1,w^2)

P(w^1|w^1,w^2)

P(w^3|w^3,w^4)

P(w^4|w^3,w^4)

w^3

w^4

w^2

w^1

s_0=5

s_2,1=2

s_2,2=7

s_2,3=4

s_2,4=10

s_1,1=3

s_1,2=6

Fig. 4.5 – Evolution des actifs reactualises

On considere un droit conditionnel de fonction de paiement reactualisee

∀i ∈ 1, 2, 3, 4 f(ωi) = f(ωi)/(1 + r)2 = g(S2

2(ωi)) = f i

1. Neutraliser ce modele de marche financier. Autrement dit, determiner l’unique probabiliteP

? sur Ω = ωi, i = 1, 2, 3, 4 telle que

∀k = 2, 1 E?(S

2

k | S2

k−1) = S2

k

2. Determiner un portefeuille de couverture permettant de couvrir l’option f .

3. Verifier que ce portefeuille de couverture permettra a l’emetteur de l’option d’honorer soncontrat dans chaque jeu d’aleas.

Exercice 4.3.3 Dans le modele de marche decrit dans l’exercice 4.3.2, un agent financier emetune option d’achat de fonction de paiement reactualisee

f =(

S2

2 − 9)

+

Determiner le prix de cette option, et son portefeuille de couverture.

Exercice 4.3.4 Dans le modele de marche decrit dans l’exercice 4.3.2, un agent financier emetune option de vente de fonction de paiement reactualisee

f =(

7 − S2

2

)

+

Determiner le prix de cette option, et son portefeuille de couverture.

Page 128: MASTER MASS 2 Univ. Nice Sophia Antipolis

126 CHAPITRE 4. MATHEMATIQUES FINANCIERES

4.4 Modele de Cox-Ross-Rubinstein

4.4.1 Introduction

Le modele de Cox-Ross-Rubinstein (en abrege CRR) est une simplification de modelebinomial etudie dans la section 4.3. Il represente un marche financier elementaire, etpour le moins simpliste, dans lequel le rendement instantane des actifs risques sont atout instant a valeurs dans le meme espace a deux points

1

S2k

∆S2k =def. ∆U2

k ∈ b, h

Autrement dit, nous avons

S2k = S2

k−1 (1 + ∆U2k )

Les valeurs b, et h, representent une baisse, ou une hausse du rendement. On conviendra queces fluctuations sont telles que

0 < 1 + b < 1 + h

Comme dans le modele binomial, le rendement de l’actif sans risque est suppose constant,avec

S10 = 1 et

1

S1k

∆S1k =def. ∆U1

k = r

Autrement dit, nous avons

∀0 ≤ k ≤ n S1k = S1

k−1 (1 + ∆U1k ) = (1 + r)k

Ce modele CRR est bien un cas particulier du modele binomial, ou l’actif risque S2k

ne peut prendre que deux valeurs possibles, sachant l’information accumulee Fk−1

jusqu’a cet instant

S2k ∈ S2

k−1 × (1 + b), S2k−1 × (1 + h)

Les valeurs reactualisees des actifs risques sont donnees par les formules de recurrence usuelles

∆S2

k = S2

k − S2

k−1

=S2

k

(1 + r)k− S2

k−1

(1 + r)k−1=

S2k−1(1 + ∆U2

k )

(1 + r)k−1(1 + r)− S2

k−1

(1 + r)k−1

=S2

k−1

(1 + r)k−1×(

(1 + ∆U2k )

(1 + r)− 1

)

= S2

k−1 ×∆U2

k − r

1 + r

ou encore

S2

k = S2

k−1

(1 + ∆U2k )

(1 + r)= S

2

0

1

(1 + r)k(1 + ∆U2

1 ) . . . (1 + ∆U2k )

Page 129: MASTER MASS 2 Univ. Nice Sophia Antipolis

4.4. MODELE DE COX-ROSS-RUBINSTEIN 127

4.4.2 Techniques d’arbitrage

Examinons le marche CRR lorsque les rendements des actifs satisfont l’une desconditions suivantes :

1. r < b < h2. b < h < r

Dans les deux cas, il est tres aise de gagner beaucoup d’argent a coup sur, et sansapport initial !

Par exemple dans la premiere situation, les actifs risques ont un rendement superieur a celuides actifs sans risques. C’est le cas lorsque les comptes epargnes ont des taux plus faibles queles rendements d’actions plus risquees. Dans ce cas, il faut emprunter a la banque, ou vendre adecouvert le maximum d’actif non risques

Φ11 = −Φ2

1 S20

pour acheter le plus possible Φ21 d’actifs risques. La valeur d’acquisition du portefeuille initial

est tout simplement nulle

V0(Φ) = (−Φ21 S2

0) × 1 + Φ21 × S2

0 = 0

Sans reamenager notre portefeuille, on attend patiemment jusqu’a la date n

∀1 ≤ k < n (Φ1k, Φ2

k) = (−Φ21 S2

0 , Φ21)

A la date n, on revend nos Φ21 parts d’actifs risques, pour rembourser les Φ2

1 S20 parts d’actifs

non risques empruntees initialement. Autrement dit, on utilise a nouveau la strategie

(Φ1n, Φ2

n) = (−Φ21 S2

0 , Φ21)

La valeur du portefeuille au temps n est donnee par la formule

Vn(Φ) = (−Φ21 S2

0) × (1 + r)n + Φ21 × (S2

0 (1 + ∆U21 ) . . . (1 + ∆U2

n))

≥ Φ21 S2

0 ((1 + b)n − (1 + r)n)

≥ n Φ21 S2

0 (1 + b)n−1(b − r)

La derniere sous estimation est deduite de la minoration

∀(x, y) ∈ R2+ xn ≥ yn + n xn−1 (x − y)

4.4.3 Neutralisation des risques

On conviendra dans cette section que les rendements des actifs sont tels que

b < r < h

On convient que l’actif risque a une valeur initiale connue

S20 = s0

On note Ω = h, bn l’ensemble des aleas elementaires associes aux tendances aleatoires desrendements des actifs risques. Les v.a. (∆U 2

k )1≤k≤n sont definies par les fonctions coordonneescanoniques

∀ω = (ωk)1≤k≤n ∈ Ω ∀1 ≤ k ≤ n ∆U2k (ω) = ωk

Page 130: MASTER MASS 2 Univ. Nice Sophia Antipolis

128 CHAPITRE 4. MATHEMATIQUES FINANCIERES

On note enfinFk = σ(∆U2

1 , . . . , ∆U2k )

la filtration d’information connue a chaque instant 1 ≤ k ≤ n, avec la convention F0 = ∅, Ω.

Proposition 4.4.1 Il existe une seule probabilite P? sur l’espace des aleas filtre

(Ω, (Fk)0≤k≤n) sous laquelle les prix reactualises de actifs risques (S2

k)0≤k≤n

forment une martingale. De plus, sous P?, les v.a. de rendement (∆U 2

k )0≤k≤n sontindependantes et equidistribuees selon la loi

P?(∆U2

1 = b) = 1 − P?(∆U2

1 = h) =h − r

h − b

Page 131: MASTER MASS 2 Univ. Nice Sophia Antipolis

4.4. MODELE DE COX-ROSS-RUBINSTEIN 129

Preuve:L’existence de P

? resulte de la serie d’equivalences suivantes

E?(S

2

k | Fk−1) = E?(

S2

k−1

(∆U2

k−r1+r

)

| Fk−1

)

= S2

k−1

⇐⇒ E?(∆U2

k | Fk−1) = r

⇐⇒ b P?(∆U2

k = b | Fk−1) + h P?(∆U2

k = h | Fk−1) = r

⇐⇒

P?(∆U2

k = b | Fk−1) = r−hb−h = h−r

h−b

P?(∆U2

k = h | Fk−1) = 1 − h−rh−b = r−b

h−b

La construction de P? decrite ci-dessus souligne le fait que ∆U 2

k est une v.a. independante deFk−1, et a fortiori des v.a. de rendements passes ∆U 2

1 , . . . , ∆U2k−1. Ceci demontre l’unicite de

P?, et acheve ainsi la preuve de la proposition.

4.4.4 Couverture d’options

On se place dans le marche financier CRR neutralise decrit dans la section 4.4.3. Un emetteurd’une option propose une option, de fonction de paiement reactualisee a l’echeance n, et donneepar

f =f

(1 + r)n= g(S

2

n)

ou g designe une fonction de R+ dans lui meme. Afin d’honorer son contrat, il souhaite trouverun portefeuille de couverture (previsible et autofinance) (Φ2

k)1≤k≤n, ainsi qu’un portefeuilleinitial V 0(Φ), tels que

V n(Φ) = V 0(Φ) +

n∑

k=1

Φ2k ∆S

2

k = g(S2

n)

Pour construire ce portefeuille, on utilise les techniques de controle de martingalesdeveloppees dans la section 3.2, du premier chapitre. On commence donc par introduire lasuite de fonctions (gk)0≤k≤n definies par les formules de recurrence inverse

gn(S2

n) = g(S2

n)

gk(S2

k) = E?(

gk+1(S2

k+1) | S2

k

)(

= E?(

g(S2

n) | S2

k

))

Ces fonctions peuvent etre decrites explicitement, selon les formules

gk(S2

k) = E?(

gk+1(S2

k+1) | S2

k

)

= E?

(

gk+1

(

S2

k

1 + ∆U2k+1

1 + r

)

| S2

k

)

= gk+1

(

S2

k

1 + b

1 + r

)

× h − r

h − b+ gk+1

(

S2

k

1 + h

1 + r

)

× r − b

h − b

(4.2)

Plus precisement, en terme de la loi binomiale de comptage des hausses et baisses, on a pour

Page 132: MASTER MASS 2 Univ. Nice Sophia Antipolis

130 CHAPITRE 4. MATHEMATIQUES FINANCIERES

tout indice temporel 0 ≤ k ≤ n

gk(S2

k) = E?(

gn(S2

n) | S2

k

)

= E?

(

gn

(

S2

k ×[1 + ∆U2

k+1

1 + r

1 + ∆U2k+2

1 + r. . .

1 + ∆U2n

1 + r

])

| S2

k

)

=n−k∑

l=0

g

(

S2

k

(1 + b

1 + r

)l (1 + h

1 + r

)(n−k)−l)

× Cln−k

(h − r

h − b

)l (r − b

h − b

)(n−k)−l

D’apres le theoreme 3.2.1, le portefeuille de couverture, et la valeur initiale duportefeuille, sont donnes par les formules

V 0(Φ) = g0(S2

0) = g0(s0)

Φ2k =

gk

(

S2

k−11+h1+r

)

− gk

(

S2

k−11+b1+r

)

S2

k−1h−b1+r

(4.3)

Comme d’habitude, la condition d’autofinancement permet de trouver les parts d’actifs nonrisques qu’il convient d’acquerir pour couvrir l’option

V k−1(Φ) = Φ1k−1 + Φ2

k−1 S2

k−1 = Φ1k + Φ2

k S2

k−1

=⇒ Φ1k = V k−1(Φ) − Φ2

k S2

k−1

D’autre part, d’apres le theoreme 3.2.1, les valeurs du portefeuille de couverture reactualise sontdonnees par les fonctions (gk)0≤k≤n. Plus precisement, nous avons

∀0 ≤ k ≤ n V k(Φ) = gk(S2

k)

On en conclut que

Φ1k = gk−1(S

2

k−1) − Φ2k S

2

k−1

= gk−1(S2

k−1) −(

1 + r

h − b

)[

gk

(

S2

k−1

1 + h

1 + r

)

− gk

(

S2

k−1

1 + b

1 + r

)]

En utilisant les formules de recurrence inverse (4.2), on a aussi

Φ1k =

(

gk

(

S2

k−1

1 + b

1 + r

)

× h − r

h − b+ gk

(

S2

k−1

1 + h

1 + r

)

× r − b

h − b

)

−(

1 + r

h − b

)[

gk

(

S2

k−1

1 + h

1 + r

)

− gk

(

S2

k−1

1 + b

1 + r

)]

=1

h − b

[

(h + 1) gk

(

S2

k−1

1 + b

1 + r

)

− (b + 1) gk

(

S2

k−1

1 + h

1 + r

)]

4.4.5 Prix d’options

Comme le portefeuille reactualise est une P?-martingale, nous avons

V 0(Φ) = E?(V n(Φ)) = E

?(g(S2

n))

Page 133: MASTER MASS 2 Univ. Nice Sophia Antipolis

4.4. MODELE DE COX-ROSS-RUBINSTEIN 131

D’autre part, pour toute strategie (V 0(Φ′), (Φ′ 2

k )1≤k≤n), nous avons

V n(Φ′) ≤ g(S2

n) =⇒ V 0(Φ′) = E

?(V n(Φ′)) ≤ E?(g(S

2

n))

V n(Φ′) ≥ g(S2

n) =⇒ V 0(Φ′) = E

?(V n(Φ′)) ≥ E?(g(S

2

n))

Il en decoule les majorations suivantes

C?(f) = sup

x ∈ [0,∞) : ∃(Φk)0≤k≤n t.q. V 0(Φ) = x et V n(Φ) ≤ g(S2

n)

≤ E?(g(S

2

n))

et

E?(g(S

2

n)) ≤ C?(f)

= inf

x ∈ [0,∞) : ∃(Φk)0≤k≤n t.q. V 0(Φ) = x et V n(Φ) ≥ g(S2

n)

Ceci entraıne que

C?(f) ≤ E?(g(S

2

n)) ≤ C?(f)

La strategie de couverture(V 0(Φ), (Φ2

k)1≤k≤n)

construite dans la section 4.4.4, verifie ces deux jeux de sous/sur couverture. Par consequent,nous avons

C?(f) ≤ V 0(Φ) = E?(g(S

2

n)) ≤ C?(f)

Finalement, on en conclut que

V 0(Φ) = E?(g(S

2

n)) = C?(f) = C?(f) = g0(s0)

4.4.6 Exercices

Exercice 4.4.1 On considere un marche financier CRR ou les actifs non risques sont plusrentables que les actif risques (i.e. b < h < r). C’est le cas de conjonctures economiques ou lescomptes epargnes bancaires ont des taux plus eleves que les rendements d’actions plus risquees.Developper une strategie d’arbitrage dans ce marche financier.

Exercice 4.4.2 On considere un marche financier CRR ou les actifs non risques et risquessont tels que

b < r < h

Decrire explicitement la mesure martingale P? sur Ω.

Exercice 4.4.3 Montrer que l’existence de P? entraine qu’un investisseur ne peut arbitrer le

marche financier.

Exercice 4.4.4 On considere un marche financier CRR avec des rendements d’actifs tels queb < r < h. La statistique d’evolution des prix d’actifs associees a une conjoncture economiquea tendance a la hausse, est representee par la donnee d’une mesure de probabilite P1 telleque

P1(∆U2k = h | Fk−1) = 0, 999 = 1 − P1(∆U2

k = b | Fk−1)

De meme, la statistique d’evolution des prix d’actifs associees a une conjoncture economique atendance a la baisse, et en perpetuels cracks boursiers, est representee par la donnee d’unemesure de probabilite P1 telle que

P1(∆U2k = b | Fk−1) = 0, 999 = 1− P1(∆U2

k = h | Fk−1)

Existe-t-il des opportunites d’arbitrage dans de tels marches financiers ?

Page 134: MASTER MASS 2 Univ. Nice Sophia Antipolis

132 CHAPITRE 4. MATHEMATIQUES FINANCIERES

Dans un marche viable de type CRR, un conseiller financier propose une option de fonctionde paiement a l’echeance n, donnee par la v.a.

f = (S2n − K)+

ou K designe un prix d’exercice fixe.

Exercice 4.4.5 1. Construire le portefeuille de couverture que l’emetteur de l’option devrautiliser pour honorer son contrat.

2. Montrer que l’investissement initial V0(Φ) necessaire pour couvrir l’option est donne parla formule

V0(Φ)

= (1 + r)−n∑n

l=0

(

s0 (1 + b)n−l

(1 + h)l − K

)

+Cl

n

(h−rh−b

)n−l (r−bh−b

)l

3. On note C le prix de l’action offert par le conseiller financier. Etudier ses gains et sespertes dans les trois cas de figure suivants

1) C = V0(Φ) , 2) C > V0(Φ) , et 3) C < V0(Φ)

4. On note k0 le plus petit entier k pour lequel

s0 ×(

1 + h

1 + b

)k

>K

(1 + b)n

(a) Verifier que

k0 = 1 +

[

log

(K

s0(1 + b)n

)

/ log

(1 + h

1 + b

)]

ou [a] designe la partie entiere d’un nombre a.

(b) Montrer queV0(Φ) = s0 × Fn,p′(k0) − (1 + r)−n K Fn,p?(k0) (4.4)

avec les fonctions definies par

Fn,p(k) =

n∑

l=k

Cln pl (1 − p)

n−lavec p ∈ [0, 1]

et le jeu de parametres (p?, p′) ∈ [0, 1] donnes par

p? =r − b

h − bet p′ =

(h + 1)(r − b)

(1 + r)(h − b)

(c) Verifier que les fonctions Fn,p correspondent aux fonctions de repartition

∀0 ≤ k ≤ n P(Σp,n ≥ k) = Fn,p(k)

des variables aleatoires Σp,n =∑n

i=1 εip, ou (εi

p)1≤i≤n designent une suite de v.a. iidde meme loi

P(εip = 1) = p = 1 − P(εi

p = 0)

Exercice 4.4.6 On suppose de plus que l’horizon temporel n, et les parametres de rendement(r, b, h) sont de la forme

n = T/∆ , r = ρ ∆ , h = σ√

∆ , et b = −σ√

Page 135: MASTER MASS 2 Univ. Nice Sophia Antipolis

4.5. ANALYSE MATHEMATIQUE 133

avec (∆, T, ρ, σ) ∈ R4+. On rappelle que la suite de v.a.

Wp,n =Σp,n − E(Σp,n)

E([Σp,n − E(Σp,n)]2)

converge faiblement vers une v.a. gaussienne centree normee, en ce sens ou

∀x ∈ R limn→∞

P(Wp,n ≥ x) = F (x) =def.

1√2π

∫ ∞

x

e−y2

2 dy

Ce resultat n’est autre que le theoreme de la limite centrale pour des suite de v.a. independantes,et identiquement distribuees.

1. Montrer que

Wp,n =

∑ni=1 εi

n − np√

np(1 − p)

2. Lorsque ∆ → 0, verifier les equivalences suivantes

np′ ' T

2σ√

∆(ρ + σ2 + σ/

√∆) et np? ' T

2σ√

(

ρ + σ/√

∆)

et√

np′(1 − p′) '√

np?(1 − p?) '√

T

(2√

∆)

et enfin

k0 ' 1

2σ√

(

log

(K

s0

)

+ T

(σ2

2+

σ√∆

))

En deduire les estimations

np′ − k0√

np′(1 − p′)' 1

σ√

T

(

T

(

ρ +σ2

2

)

+ log (s0/K)

)

np? − k0√

np?(1 − p?)' 1

σ√

T

(

T

(

ρ − σ2

2

)

+ log (s0/K)

)

3. En utilisant le fait que

Fn,p (k0) = P

(

Wp,n ≥ k0 − np√

np(1 − p)

)

n∼∞' F

(

k0 − np√

np(1− p)

)

montrer que l’on a

V0(Φ) ' s0 F

(1

σ√

T

(T(ρ + σ2/2

)+ log (s0/K)

))

−e−ρT K F

(1

σ√

T

(T(ρ − σ2/2

)+ log (s0/K)

))

4.5 Analyse mathematique

4.5.1 Actualisation

On considere un marche financier defini, sur un espace probabilise et filtre (Ω, (Fk)0≤k≤n, P),par l’evolution d’un couple d’actifs

∆S1

k = S1k−1 (1 + ∆U1

k )∆S2

k = S2k−1 (1 + ∆U2

k )

Page 136: MASTER MASS 2 Univ. Nice Sophia Antipolis

134 CHAPITRE 4. MATHEMATIQUES FINANCIERES

Le premier titre a un role bien particulier. Il represente un placement sans risque, avec unrendement previsible ; c’est a dire que

∀1 ≤ k ≤ n (1 + ∆U1k ) =

∆S1k

S1k−1

∈ Fk−1

On conviendra que l’on aS1

0 = 1 , et (1 + ∆U1k (ω)) > 1

pour chaque alea ω ∈ Ω, et pour tout 1 ≤ k ≤ n.Le rendement de l’actif risque n’est pas previsible, sinon adapte a la filtration d’information

∀1 ≤ k ≤ n (1 + ∆U2k ) =

∆S2k

S2k−1

∈ Fk

On conviendra que la valeur initiale de cet actif est connue

S20 = s0 > 0

Le coefficient d’actualisation des actifs est donnee par le processus aleatoire

βk =1

Ek(U1)(∈ [0, 1]) ou Ek(U1) = S1

k =

k∏

l=1

(1 + ∆U1l )

Les prix re-actualise sont alors definis par

∀0 ≤ k ≤ n S1

k = βk S1k = 1 et S

2

k = βk S2k ≤ S2

k

4.5.2 Gestion de portefeuilles

Le portefeuille d’un investisseur est defini par la donnee d’un processus aleatoire previsible

∀1 ≤ k ≤ n Φk = (Φ1k , Φ2

k) ∈ Fk−1

A chaque instant 1 ≤ k ≤ n, le couple (Φ1k, Φ2

k) represente la gestion du couple d’actifs (S1k , S2

k).Ainsi,

V0(Φ) = Φ11 S1

0 + Φ20 S2

0 = Φ11 + Φ2

0 s0

represente le cout d’acquisition du portefeuille. La valeur de ce dernier, a la k ieme periode estdonnee par

Vk(Φ) = Φ1k S1

k + Φ2k S2

k

= Φ1k+1 S1

k + Φ2k+1 S2

k (Autofinancement)

La condition d’autofinancement entraıne que

∆Vk+1(Φ) = Vk+1(Φ) − Vk(Φ)

= Φ1k+1 [S1

k+1 − S1k ] + Φ2

k+1 [S2k+1 − S2

k ]

= Φ1k+1 ∆S1

k+1 + Φ2k+1 ∆S2

k+1

De plus, cette condition entraıne que les parts d’actifs non risques Φ1k+1 sont determinees

par la formule

Φ1k+1 =

1

S1k

×(Vk(Φ) − Φ2

k+1 S2k

)

= V k(Φ) − Φ2k+1 S

2

k

Page 137: MASTER MASS 2 Univ. Nice Sophia Antipolis

4.5. ANALYSE MATHEMATIQUE 135

ou V k(Φ) = βk Vk(Φ) represente la valeur reactualisee du portefeuille Vk(Φ) a la kieme periode.Enfin, toujours d’apres la condition d’autofinancement, l’evolution de la valeur du

portefeuille reactualise ne depend que de l’evolution du titre risque. Plus precisement, on a

∆V k+1(Φ) = βk+1 Vk+1(Φ) − βk Vk(Φ)

= [Φ1k+1 S

1

k+1 + Φ2k+1 S

2

k+1] − [Φ1k+1 S

1

k + Φ2k+1 S

2

k]

= Φ1k+1 ∆S

1

k+1 + Φ2k+1 ∆S

2

k+1

= Φ2k+1 ∆S

2

k+1

4.5.3 Arbitrage et viabilite des marches

Definition 4.5.1 Une strategie d’arbitrage est une gestion de portefeuille (autofinancee)(Φk)1≤k≤n telle que

V0(Φ) = 0 , Vn(Φ) ≥ 0 , et P(Vn(Φ) > 0) > 0 (4.5)

On dit qu’un marche est viable, s’il n’existe aucune strategie d’arbitrage.

On notera que la condition P(Vn(Φ) > 0) > 0 implique qu’il existe au moins un alea ω ∈ Ωpour lequel Vn(Φ)(ω) > 0 (sinon on aurait Vn(Φ) > 0) = ∅ et P(Vn(Φ) > 0) = P(∅) = 0).Inversement, l’existence d’un tel alea ω (avec P(ω) > 0) entraıne que P(Vn(Φ) > 0) > 0. Cettedefinition d’arbitrage est bien donc equivalente a celle introduite dans la section 4.1.2.

L’arbitrage permet donc, sans aucun investissement initial (V0(Φ) = 0), de ne jamais perdrede l’argent a l’echeance (Vn(Φ) ≥ 0), tout en ayant une possibilite de realiser un gain (P(Vn(Φ) >0) > 0). Ces possibilites d’arbitrage, et ces evenements inattendus (ω t.q. Vn(Φ)(ω) > 0), telsles delits d’inities, sont en principe interdits, et controles par les autorites de regulation, tellela Cours des comptes. La morale moderne semble ainsi reposer sur le principe qu’il est interditde s’enrichir sans prendre de risques...

On verifie sans trop de peine que ces definitions de l’arbitrage peut etre reformuleede facon equivalente en remplacant (Vk(Φ))0≤k≤n par les valeurs du portefeuille reactualise(V k(Φ))0≤k≤n

(4.5) ⇐⇒ V 0(Φ) = 0 , V n(Φ) ≥ 0 , et P(V n(Φ) > 0) > 0

Proposition 4.5.1 Les trois conditions suivantes sont equivalentes

1. ∃1 ≤ k ≤ n ∃φ ∈ Fk−1 tels que

φ ∆S2

k ≥ 0 et P(φ ∆S2

k > 0) > 0

2. Il existe une strategie d’arbitrage (Φk)1≤k≤n telle que

∀0 ≤ k ≤ n V k(Φ) ≥ 0

3. Il existe une strategie d’arbitrage (Φk)1≤k≤n.

Preuve:(1) ⇒ (2) : On pose simplement Φ2

l = φ 1k(l), ou le couple (k, φ) est tel que

φ ∆S2

k ≥ 0 et P(φ ∆S2

k > 0) > 0

Dans ce cas, on a

∀0 ≤ l ≤ n V l = 0 +

l∑

m=1

Φ2m ∆S

2

m = 1l≥k φ ∆S2

k ≥ 0

Page 138: MASTER MASS 2 Univ. Nice Sophia Antipolis

136 CHAPITRE 4. MATHEMATIQUES FINANCIERES

et a l’echeance

V n = φ ∆S2

k ⇒ P(V n > 0) = P(φ ∆S2

k > 0) > 0

Il reste cependant a verifier que la strategie que nous venons de definir

∀1 ≤ l ≤ n Φ2l = φ 1k=l

est bien autofinancee. Pour cela on rappelle que les parts de titres non risques Φ1l sont

necessairement donnees par la formule

Φ1l =

1

S1l−1

×(Vl−1(Φ) − Φ2

l S2l−1

)

= V l−1(Φ) − Φ2l S

2

l−1 = 1(l−1)≥k φ ∆S2

k − φ 1k=l S2

l−1

Par construction, nous avons donc

Φ1l =

0 si l < k

−φ S2

k−1 si l = k

φ ∆S2

k si l > k

Il est donc clair que

∀l 6∈ k, k + 1 ∆Φ1l = 0 , ∆Φ1

k = −φ S2

k−1 et ∆Φ1k+1 = φ S

2

k

D’autre part, par definition de Φ2l = φ 1k(l), nous avons aussi

∀l 6∈ k, k + 1 ∆Φ2l = 0 , ∆Φ1

k = φ et ∆Φ1k+1 = −φ

On en conclut que

∀1 ≤ l ≤ n ∆Φ1k + ∆Φ2

k S2

l−1 = 0

Il en decoule que

Φ1l S1

l−1 + Φ2l S2

l−1 = Φ1l−1 S1

l−1 + Φ2l−1 S2

l−1

Ceci acheve la preuve de la condition d’autofinancement.(2) ⇒ (3) : trivial.(3) ⇒ (1) : Soit (Φk)1≤k≤n une strategie d’arbitrage. On introduit les fonctions

a(k) = P(V k(Φ) ≥ 0) et b(k) = P(V k(Φ) > 0)(≤ a(k))

On note k?, le premier instant ou l’on a

a(k?) = 1 et a(k?) > 0

Cet instant existe, et on a k? > 0, car nous avons a l’echeance

a(n) = P(V n(Φ) ≥ 0) = 1 et b(n) = P(V n(Φ) > 0) > 0

et a l’origine

a(0) = P(V 0(Φ) ≥ 0) = 1 et b(0) = P(V 0(Φ) > 0) = 0

Au temps precedent (k? − 1) ≥ 0, deux cas se presentent

1. Soit a(k? − 1) < 1, et dans ce cas P(V k?−1(Φ) < 0) > 0.

2. Soit b(k? − 1) = 0, ou de facon equivalente V k?−1(Φ) ≤ 0.

Page 139: MASTER MASS 2 Univ. Nice Sophia Antipolis

4.5. ANALYSE MATHEMATIQUE 137

1. Examinons tout d’abord le premier cas,

a(k? − 1) < 1(=⇒ P(V k?−1(Φ) < 0) > 0

)

Dans cette situation, il suffit de poser

φ = Φ2k? 1V k?−1(Φ)<0 ∈ Fk?−1

En effet, pour ce choix nous avons

φ ∆S2

k? = 1V k?−1(Φ)<0 Φ2k? ∆S

2

k?

= 1V k?−1(Φ)<0 ∆V k?(Φ)

= 1V k?−1(Φ)<0 [V k?(Φ) − V k?−1(Φ)] ≥ 0

La positivite provient du fait que

1V k?−1(Φ)<0 × (−V k?−1(Φ)) ≥ 0

et

a(k?) = 1 =⇒ V k?(Φ) ≥ 0

On a donc montre que la condition (1) est satisfaite lorsque k = k?.

2. Dans la seconde situation

b(k? − 1) = 0(V k?−1(Φ) ≤ 0

)

on pose plus simplement φ = Φ2k? , et on verifie que

φ ∆S2

k? = Φ2k? ∆S

2

k?

= ∆V k?(Φ) = [V k?(Φ) − V k?−1(Φ)]

≥ V k?(Φ)

On obtient donc l’inclusion entre ’evenements

V k?(Φ) > 0 ⊂ φ ∆S2

k? > 0

On en deduit que

P(φ ∆S2

k? > 0) ≥ P(V k?(Φ) > 0) > 0

Dans les deux situations que nous venons d’examiner, on remarque que sur l’evenementV k?−1(Φ) < 0, on recoit une somme de (−V k?−1(Φ)) Euros que l’on reinvestit dans l’achatde titres risquees.

4.5.4 Neutralite des marches

Definition 4.5.2 Une probabilite a risque neutre est une mesure de probabilite P? sur l’espace

filtre (Ω, (Fk)0≤k≤n) representant le marche financier ; equivalente a la probabilite P, et sous

laquelle le cours des actifs risques reactualises (S2

k)0≤k≤n forme une martingale. Cette mesure,lorsqu’elle existe, est parfois appelee mesure martingale.

La proposition suivante est une consequence immediate de la proposition 3.1.6 (page 75), et dela proposition 3.1.1 (page 68).

Page 140: MASTER MASS 2 Univ. Nice Sophia Antipolis

138 CHAPITRE 4. MATHEMATIQUES FINANCIERES

Proposition 4.5.2 Sous reserve de l’existence d’une probabilite a risque neutre P? sur l’espace

filtre (Ω, (Fk)0≤k≤n), nous avons les equivalences suivantes

(S2

k)0≤k≤n P? − martingale ⇐⇒ (U2

k − U1k )0≤k≤n P

? − martingale

⇐⇒ ∀Φ (V k(Φ))0≤k≤n P? − martingale

Exercice 4.5.1 Sous reserve de l’existence d’une probabilite a risque neutre P? sur l’espace

filtre (Ω, (Fk)0≤k≤n), montrer qu’il ne peut exister de possibilite d’arbitrage.

Theoreme 4.5.1 Un marche financier est viable si, et seulement si, il existe une probabilite arisque neutre.

Preuve:D’apres l’exercice 4.5.1, il suffit de montrer qu’il existe une possibilite de neutraliser un marcheviable. Pour verifier cette propriete, on definit sur l’espace vectoriel E des v.a. reelles X : Ω → R,le produit scalaire

〈X, Y 〉 =∑

ω∈Ω

X(ω)Y (Ω)

On note V le sous espace vectoriel de E , forme par les v.a. V n(Φ), ou Φ = (Φk)1≤k≤n parcoursl’ensemble des portefeuilles autofinances (avec V 0(Φ) = 0). Pour verifier que V est bien unsous-espace vectoriel (en abrege s.e.v.), on considere un couple de strategies d’amenagement(Φ, Φ′), telles que

V 0(Φ) = 0 = V 0(Φ′)

et conduisant a deux valeurs donnees V n(Φ), et V n(Φ′). Pour tout couple de reels (a, a′),

a Φ + a′ Φ′ = (a Φk + a′ Φ′k)1≤k≤n

est a nouveau une strategie d’amenagement de portefeuilles autofinancee. De plus, on a

V k(a Φ + a′ Φ′) = a V k(Φ) + a′ V k(Φ′)

et par consequent,

V 0(a Φ + a′ Φ′) = 0 et a V n(Φ) + a′ V n(Φ′) ∈ V

Ceci demontre que V est un s.e.v. de E . On notera que V est un s.e.v. de E de dimension fini,et donc V est un s.e.v. ferme de E .

Le marche etant suppose viable, le s.e.v. V ne contient aucune v.a. V n(Φ) positive, sinon laseule v.a. nulle V n(Φ) = 0.

L’espace V est donc disjoint du sous-ensemble convexe et compact K, defini par

K = X : ω → [0, 1] :∑

ω∈Ω

X(ω) = 1

On pose alorsC = K + V = X + Vn(Φ) : X ∈ K et Vn(Φ) ∈ V

On verifie aisement que C est un ensemble convexe, ferme, et ne contenant pas la v.a. nulle. Eneffet, on a

(0 ∈ V et V ∩ K = ∅) =⇒ 0 6∈ C = K + VOn note C le point de C a plus courte distance de cette v.a. nulle, autrement dit C correspondau point de C de norme minimale.

Par construction, nous avons

∀Y ∈ C, ∀ε ∈ (0, 1] C + ε (Y − C) ∈ C

Page 141: MASTER MASS 2 Univ. Nice Sophia Antipolis

4.5. ANALYSE MATHEMATIQUE 139

et‖C‖2 ≤ ‖C + ε(Y − C)‖2(= ‖C‖2 + 2ε〈C, (Y − C)〉 + ε2‖(Y − C)‖2

Par consequent, nous avons

∀Y ∈ C, ∀ε ∈ (0, 1] 2〈C, (Y − C)〉 + ε‖(Y − C)‖2 ≥ 0

En faisant tendre ε ↓ 0, on obtient

∀Y ∈ C(⊃ K) 〈C, Y 〉 ≥ ‖C‖2 > 0 (4.6)

Cette propriete entraıne que

∀(λ, X, Vn(Φ)) ∈ (R ×K× V) 〈C, X + λVn(Φ)〉 = 〈C, X〉 + λ 〈C, Vn(Φ)〉 ≥ ‖C‖2

Cette minoration ne peut clairement etre satisfaite pour tous les λ, sauf si l’on a

∀Vn(Φ) ∈ V 〈C, Vn(Φ)〉 = 0

On pose alorsP

?(ω) = C(ω)/‖C‖et la propriete (4.6) entraıne que

∀Y ∈ K 〈P?, Y 〉 =∑

ω∈Ω

Y (ω)P?(ω) > 0

Ceci entraıne que∀ω ∈ Ω P

?(ω) > 0

D’autre part, pour tout portefeuille autofinance avec

(Φ10, Φ

20) = (0, 0) =⇒ V0(Φ) = Φ1

0 S10 + Φ2

0 S20 = 0

on a

〈P?, Vn(Φ)〉 =∑

ω∈Ω

Vn(Φ)(ω)P?(ω) = E?(

n∑

k=1

Φ2k ∆S

2

k) = 0 = E?(Φ2

0 S2

0)

En invoquant la proposition 3.1.1, page 68, on en deduit que les actifs risques reactualises

(S2

k)0≤k≤n forment une P?-martingale.

4.5.5 Replication d’options et completude

Dans cette section, nous supposerons implicitement que le modele de marche financier(Ω, (Fk)0≤k≤n, P) est viable.

Definition 4.5.3 Une option d’echeance n, ou encore de date d’exercice n, est une v.a. positivef ∈ Fn. La v.a. f = βn f est appelee l’option actualisee de f . On dit que l’option f est simulable,ou replicable, s’il existe une strategie autofinancee Φ = (Φk)0≤k≤n telle que f = Vn(Φ), ou defacon equivalente telle que f = V n(Φ).

Un marche financier est dit complet lorsque toutes les options sont replicables.

On notera que sous une mesure de probabilites a risque neutre P?, les valeurs des portefeuilles

reactualises forment des martingales par rapport a la filtration (Fk)0≤k≤n. Ainsi, les optionsreplicables f = V n(Φ) sont telles que

∀0 ≤ k ≤ n E?(f | Fk) = E

?(V n(Φ) | Fk) = V k(Φ)

En particulier, leur P?-moyenne actualisees coıncident avec le prix d’acquisition du portefeuille

qui la repliqueE

?(f) = E?(f | F0) = E

?(V 0(Φ) | F0) = V 0(Φ)

Page 142: MASTER MASS 2 Univ. Nice Sophia Antipolis

140 CHAPITRE 4. MATHEMATIQUES FINANCIERES

Theoreme 4.5.2 Un marche financier (viable) est complet si, et seulement si, il existe uneunique mesure de probabilite a risque neutre.

Preuve:Supposons que le marche est complet, et qu’il existe neanmoins deux probabilites a risqueneutre, notees P

?1, et P

?2. Si ces mesures sont distinctes, on peut choisir un evenement A ⊂ Ω,

tel que P?1(A) 6= P

?2(A). D’apres la completude du marche, l’option reactualisee f = 1A = V n(Φ)

est replicable par une gestion de portefeuille Φ. Le processus (V k(Φ))0≤k≤n etant a la fois uneP

?1-martingale, et une P

?2-martingale, nous avons simultanement

P?1(A) = E

?1(f) = V 0(Φ) et P

?2(A) = E

?2(f) = V 0(Φ)

Notre raisonnement nous conduit donc a la contradiction P?1(A) = P

?2(A).

Supposons desormais qu’il existe une seule probabilite mesure de probabilite a risque neutreP

? dans un marche incomplet. Dans cette situation, le sous espace forme des valeurs a l’echeancede portefeuilles reactualises

V = V n(Φ) : Φ autofinanceest un sous espace strict de l’espace

E = X : X v.a. reellesmuni du produit scalaire

(X, Y ) ∈ E × E 7→ 〈X, Y 〉 =def. E?(XY )

Il existe donc une v.a. X non nulle, orthogonale a V (donc aussi orthogonale aux constantes).Autrement dit, nous avons pour toute option replicable V n(Φ) par une gestion de portefeuilleΦ

E?(X × 1) = 0 et E

?(X × V n(Φ)) = 0

On choisit un reel positif a suffisamment grand de sorte que X +a > 0. On associe a ce dernierla probabilite P

?a definie par

∀ω ∈ Ω P?a(ω) =

a + X(ω)

a× P

?(ω)

On verifie aisement les deux faits suivants :

E?(X) = 0 =⇒

ω∈Ω

P?a(ω) =

ω∈Ω

a + X(ω)

aP

?(ω) = 1

et(∃ω ∈ Ω : X(ω) 6= 0) =⇒ (∃ω ∈ Ω : P

?a(ω) 6= P

?(ω))

D’autre part, pour toute strategie de gestion previsible Φ, nous avons

V 0(Φ) + E?a

(n∑

k=1

Φ2k∆S

2

k

)

= E?a(V n(Φ))

= E?

(

V n(Φ) × a + X(ω)

a

)

= E?(V n(Φ))

= V 0(Φ)

On en conclut que pour toute strategie de gestion previsible Φ

E?a(

n∑

k=1

Φ2k∆S

2

k) = 0

D’apres la proposition 3.1.1, on en conclut que (S2

k)0≤k≤n est une P?a-martingale, et par

consequent P?a est aussi une mesure de probabilites a risque neutre. Ceci est en contradiction

avec notre hypothese de depart.

Page 143: MASTER MASS 2 Univ. Nice Sophia Antipolis

4.5. ANALYSE MATHEMATIQUE 141

4.5.6 Couverture d’options

Soit f ∈ Fn une fonction de paiement reactualisee sur un marche financier (Ω, (Fk)0≤k≤n, P).On rappelle qu’un portefeuille de couverture est une gestion de portefeuille Φ (autofinancee etprevisible), telle que

V n(Φ) ≥ f

Du point de vue du vendeur, ou de l’acquereur de l’option, les prix coherents de ce droitconditionnel sont donnes respectivement par les formules variationnelles suivantes.

C?(f) = infV 0(Φ) : ∃Φ V n(Φ) ≥ f

C?(f) = supV 0(Φ) : ∃Φ V n(Φ) ≤ f

Dans un marche viable, et pour toute probabilite a risque neutre P?, on a toujours

C?(f) ≤ E?(f) ≤ C?(f)

Pour verifier ce couple d’inegalites, on rappelle que sous une probabilite a risque neutre, nousavons

V 0(Φ) = E?(V n(Φ)) ≤ E

?(f)

pour tout portefeuille Φ tel que V n(Φ) ≤ f . Par definition de C?(f), et en prenant le supremumsur les valeurs V 0(Φ)

C?(f) ≤ E?(f)

De meme, pour tout portefeuille Φ tel que V n(Φ) ≥ f , nous avons

V 0(Φ) = E?(V n(Φ)) ≥ E

?(f)

Par definition de C?(f), et en prenant l’infimum sur les valeurs V 0(Φ), on obtient la minorationdesiree

C?(f) ≥ E?(f)

Theoreme 4.5.3 Dans un marche viable et complet (Ω, (Fk)0≤k≤n, P), nous avons

∀f ∈ Fn C?(f) = E?(f) = C?(f)

De plus, il existe une gestion de portefeuille Φf telle que

V 0(Φf ) = C?(f) et ∀0 ≤ k ≤ n V k(Φf ) = E?(f | Fk)

Preuve:Lorsque le marche est complet, il existe une gestion de portefeuille Φf repliquant l’option f ∈ Fn.Cette strategie est dans l’intersection des deux ensembles sur lesquels les prix du vendeur, etde l’acheteur, sont calcules

Φf ∈Φ : V n(Φ) ≤ f

∩Φ : V n(Φ) ≥ f

On a donc dans ce casC?(f) = E

?(f) = C?(f)

La derniere assertion provient simplement du fait que pour cette strategie replicante Φf , nousavons V n(Φ) = f . Plus precisement, sous la probabilite a risque neutre P

?, le portefeuillereactualise (V k(Φf ))0≤k≤n est une martingale. Ainsi, V n(Φ) = f correspond au pointterminal d’une martingale. D’apres les proprietes classiques des martingales decrites dans laproposition 3.1.3, on en conclut que

∀0 ≤ k ≤ n V k(Φf ) = E?(V n(Φ | Fk) = E

?(f | Fk)

Page 144: MASTER MASS 2 Univ. Nice Sophia Antipolis

142 CHAPITRE 4. MATHEMATIQUES FINANCIERES

Page 145: MASTER MASS 2 Univ. Nice Sophia Antipolis

Chapitre 5

Corriges

5.1 Chapitre 1

Exercice 1.1.1 : Les quatre formules recherchees se demontrent par des arguments delogique elementaire. Pour la premiere, nous avons

ω ∈ A ∪ (B ∩ C) ⇔ (ω ∈ A ou ω ∈ (B ∩ C))

⇔ (ω ∈ A ou (ω ∈ B et ω ∈ C))

⇔ ((ω ∈ A ou ω ∈ B) et (ω ∈ A ou ω ∈ C))

= (A ∪ B) ∩ (A ∪ C)

Par un raisonnement analogue, on obtient

ω ∈ A ∩ (B ∪ C) ⇔ (ω ∈ A et ω ∈ (B ∪ C))

⇔ (ω ∈ A et (ω ∈ B ou ω ∈ C))

⇔ ((ω ∈ A et ω ∈ B) ou (ω ∈ A et ω ∈ C))

= (A ∩ B) ∪ (A ∩ C)

Enfin on note que

ω ∈ (A ∪ B)c ⇔ ω 6∈ (A ∪ B)

⇔ (ω 6∈ A et ω 6∈ B) ⇔ ω ∈ (Ac ∩ Bc)

et

ω ∈ (A ∩ B)c ⇔ ω 6∈ (A ∩ B)

⇔ (ω 6∈ A ou ω 6∈ B) ⇔ ω ∈ (Ac ∪ Bc)

Exercice 1.1.2 : L’inegalite recherchee est triviale lorsque n = 1. Supposons qu’elle soitsatisfaite au rang n. Comme l’on a

P([A1 ∪ . . . ∪ An] ∪ An+1)

= P([A1 ∪ . . . ∪ An]) + P(An+1) − P([A1 ∪ . . . ∪ An] ∩ An+1)

≤ P([A1 ∪ . . . ∪ An]) + P(An+1)

d’apres notre hypothese, on en conclut que

P([A1 ∪ . . . ∪ An] ∪ An+1) ≤ [P(A1) + . . . + P(An)] + P(An+1)

143

Page 146: MASTER MASS 2 Univ. Nice Sophia Antipolis

144 CHAPITRE 5. CORRIGES

Exercice 1.1.3 : En toute logique, nous avons

ω ∈ A4B ⇔ (ω ∈ [A ∩ Bc] ou ω ∈ [B ∩ Ac])

⇔ ((ω ∈ A etω 6∈ B) ou (ω ∈ B etω 6∈ A))

⇔ (ω est exclusivement dans A ou dans B)

Par ailleurs, les ensembles [A ∩ Bc] et [B ∩ Ac] etant disjoints, on note que

1A4B = 1[A∩Bc]∪[B∩Ac] = 1A∩Bc + 1A∩Ac

= 1A (1 − 1B) + 1B(1 − 1A) = 1A + 1B − 21A∩B

On en conclut que

P(A4B) =∑

ω∈Ω

1A4B(ω) P(ω) = P(A) + P(B) − 2P(A ∩ B)

Probleme 1.1.1 :

1. On a clairement 1A1∩A2 = 1A1 ∩ 1A2 . De meme, lorsque deux evenements A, B sontdisjoints, nous avons

A ∩ B = ∅ =⇒ 1A∪B = 1A + 1B

En particulier, on a 1A+1Ac = 1, pour tout evenement A ⊂ Ω. Par consequent, on obtient

1A1∪A2 = 1 − 1[A1∪A2]c = 1 − 1[Ac1∩Ac

2]= 1 − 1Ac

11Ac

2

Comme l’on a aussi 1cA = 1 − 1A, on en conclut que

1A1∪A2 = 1 − (1 − 1A1)(1 − 1A2) = 1A1 + 1A2 − 1A1∩A2

2. En utilisant les remarques precedentes, on obtient

1∪np=1Ap

= 1 − 1[∪np=1Ap]c = 1 − 1∩n

p=1Acp

= 1 −n∏

p=1

1Acp

= 1 −n∏

p=1

(1− 1Ap

)

3. En utilisant la formule

n∏

i=1

(1 + ai) = 1 +

n∑

p=1

1≤i1<...<ip≤n

ai1 . . . aip(5.1)

nous avons

1 −n∏

p=1

(1 − 1Ap

)= −

n∑

p=1

1≤i1<...<ip≤n

(−1)p 1Ai1. . . 1Aip

Comme −(−1)p = (−1)p+1 = (−1)p−1, on en conclut que

P(∪ni=1Ai) =

ω∈Ω

1∪ni=1Ai

(ω) P(ω)

=n∑

p=1

1≤i1<...<ip≤n

(−1)p−1P(Ai1 ∩ . . . ∩ Aip

)

Page 147: MASTER MASS 2 Univ. Nice Sophia Antipolis

5.1. CHAPITRE 1 145

4. Lorsque ω ∈ A, on a(1 + u)1A(ω) = 1 + u = 1 + u 1A(ω)

Dans le cas contraire, on ω 6∈ A, et dans cette situation on a encore

(1 + u)1A(ω) = 1 = 1 + u 1A(ω)

Il est alors clair que

(1 + u)Pn

i=1 1Ai =

n∏

i=1

(1 + u)1Ai =

n∏

i=1

(1 + u 1Ai)

En utilisant a nouveau la formule (5.1), on trouve que

(1 + u)Pn

i=1 1Ai =

n∏

i=1

(1 + u 1Ai)

= 1 +n∑

p=1

1≤i1<...<ip≤n

up 1Ai1. . . 1Aip

En sommant sur tous l’espace Ω, on obtient l’identite recherchee

ω∈Ω

(1 + u)Pn

i=1 1Ai(ω)

P(ω) = 1 +

n∑

p=1

1≤i1<...<ip≤n

upP(Ai1 ∩ . . . ∩ Aip

)

5. Si on pose u = −1, alors on a

0Pn

i=1 1Ai(ω) = 10[

n∑

i=1

1Ai(ω)] = 1∩n

i=1Aci(ω) = 1[∪n

i=1Ai]c(ω)

Il en decoule la formule∑

ω

1[∪ni=1Ai]c(ω) = P([∪n

i=1Ai]c) = 1 − P(∪n

i=1Ai)

= 1 +

n∑

p=1

1≤i1<...<ip≤n

(−1)pP(Ai1 ∩ . . . ∩ Aip

)

On retrouve ainsi la formule de Poincare

P(∪ni=1Ai) =

n∑

p=1

1≤i1<...<ip≤n

(−1)p−1P(Ai1 ∩ . . . ∩ Aip

)

Exercice 1.1.4 : L’ordre de selection de boules etant sans effet, ce procede de selection peutetre decrit par l’ensemble

Ω = ω : ω = [ω1, . . . , ωN1 ] avec ωi ∈ 1, . . . , NPar construction, on a donc |Ω| = CN1

N+(N1−1) = CN1

2N1+(N2−1). En supposant que les N1 boules

rouges sont numerotees de 1 a N1, Le contraire Ac de l’evenement recherche A est donnee par

Ac = ω : ω = [ω1, . . . , ωN1 ] avec ωi ∈ N1 + 1, . . . , N1 + N2On a donc |Ac| = CN1

N2+(N1−1) = CN1

N−1, et par consequent

P(Ac) = CN1

N−1/CN1

N−1+N1=

(N−1)!N1!(N−N1−1)!

(N−1+N1)!N1!(N−1)!

=(N − 1)!2

(N2 − 1)!(N + (N1 − 1))!

Page 148: MASTER MASS 2 Univ. Nice Sophia Antipolis

146 CHAPITRE 5. CORRIGES

On pourra noter que

P(Ac) =N2 (N2 + 1) . . . (N2 + (N1 − 1))

(N + (N1 − 1))([N + (N1 − 2)) . . . (N + 1) × N

=(N2 + N1 − N1) (N2 + 1 + N1 − N1) . . . ((N2 + (N1 − 1)) + N1 − N1)

(N1 + N2) (N1 + (N2 + 1)) . . . (N1 + (N2 + N1 − 1))

=

(

1 − N1

N

)

×(

1 − N1

N + 1

)

× . . . ×(

1 − N1

N + (N1 − 1)

)

≤(

1 − N1

N + (N1 − 1)

)N1

≤ exp

(

− N21

N + (N1 − 1)

)

En particulier, lorsque(N1 − 1)2 ≥ N2

on a N21 ≥ 2N1 − 1 + N2 = N + (N1 − 1), et dans ce cas on trouve que

P(A) ≥ 1 − 1

e' 0, 63

Exercice 1.1.5 : On interprete ce probleme comme une selection de n boules avec remisedans une urne a N = 365 boules. Le choix d’une boule s’interprete comme le choix d’une dated’anniversaire. Dans cette interpretation, l’espace des evenements elementaires est donnee par

Ω = ω : ω = (ω1, . . . , ωn) avec ωi ∈ 1, . . . , N

L’evenement ou il n’y a aucune coıncidence de date est donnee par

A = ω : ω = (ω1, . . . , ωn) avec ωi 6= ωj ∀i 6= j

On a clairement

|Ω| = Nn et |A| = (N)n(= N(N − 1) . . . (N − (n − 1)))

de sorte que

P(A) =|A||Ω| =

(N)n

Nn=

(

1 − 1

N

)(

1 − 2

N

)

. . .

(

1 − (n − 1)

N

)

En utilisant la formule (1− x) ≤ e−x, valable pour tous les x ∈ [0, 1], on obtient la majoration

P(A) ≤ exp

− 1

N

n∑

j=1

j

= exp−n(n − 1)

2N

La probabilite Pn pour qu’au moins deux etudiants dans un classe de n personnes aient la memedate d’anniversaire, est donnee alors par

Pn = 1 − (365)n

365n≥ 1 − e−

n(n−1)2×365

Pour n = 31, on peut remarquer que

n(n − 1) > (n − 1)2 = 302 = 900 > 730 = 2 × 365 ⇒ P31 > 1 − 1

e' 0, 63

Exercice 1.1.6 : On commence par remarquer que l’ordre d’achat des n billets est sans effets.Ce jeu de hasard peut donc etre decrit par l’ensemble

Ω = ω : ω = 〈ω1, . . . , ωn〉 avec ωi ∈ 1, . . . , N et ωi 6= ωj ∀i 6= j

Page 149: MASTER MASS 2 Univ. Nice Sophia Antipolis

5.1. CHAPITRE 1 147

On a alors |Ω| = CnN . En supposant que les billets gagnants sont numerotes de 1a n, le contraire

Ac de l’evenement recherche est donne par

Ac = ω : ω = 〈ω1, . . . , ωn〉 avec ωi ∈ n + 1, . . . , N et ωi 6= ωj ∀i 6= jOn a donc |Ac| = Cn

N−n, et de ce fait

P(Ac) =Cn

N−n

CnN

=(N − n)!

n!(N − 2n)!× n!(N − n)!

N !

=(N − n)(N − (n + 1)) . . . (N − (2n − 1))

N(N − 1) . . . (N − (n − 1))

=(N − n)((N − 1) − n) . . . ((N − n + 1) − n)

N(N − 1) . . . (N − (n − 1))

=(

1 − n

N

)(

1 − n

N − 1

)

. . .

(

1 − n

N − (n − 1)

)

On note que

P(Ac) ≤(

1 − n

N − (n − 1)

)n

≤ exp−n2

N

Pour N ≤ n2, on remarque que P(A) ≥ 1 − 1e ' 0, 63

Exercice 1.1.7 : Ce jeu de loto peut etre decrit par l’ensemble des aleas desordonnes suivant

Ω = ω : ω = 〈ω1, . . . , ωn〉 avec ωi ∈ 1, . . . , N et ωi 6= ωj ∀i 6= javec n = 6, et N = 49. On note que |Ω| = Cn

N , et l’evenement ou l’on choisi les 6 premieresboules correspond au singleton 〈1, . . . , n〉. La probabilite P recherchee est alors simplementdonnee par

P =1

C649

' 7.2 10−8

Exercice 1.2.3 : On a les equivalences

1A∩B(ω) = 1 ⇔ (ω ∈ A et ω ∈ B)

⇔ (1A(ω) = 1 et 1B(ω) = 1) ⇔ 1A(ω)1B(ω) = 1

On a aussi, pour tout couple d’ensembles A, B disjoints

1A∪B(ω) = 1 ⇔ (ω ∈ A ou ω ∈ B)

⇔ (1A(ω) = 1 ou 1B(ω) = 1) ⇔ 1A(ω) + 1B(ω) = 1

En particulier, on notera que 1Ac + 1A = 1. On a ainsi

1A−B = 1A∩Bc = 1A1Bc = 1A (1 − 1B) = 1A − 1A1B

En utilisant la decomposition

A ∪ B = (A − B) ∪ (B − A) ∪ (A ∩ B)

on obtient

1A∪B = 1A(1 − 1B) + 1B(1 − 1A) + 1A1B

= 1A + 1B − 1A1B = 1A ∨ 1B

1A4B = 1A (1 − 1B) + 1B (1 − 1A)

= 1A + 1B − 21A1B = (1A − 1B)2 = |1A − 1B |

Exercice 1.2.4 :

Page 150: MASTER MASS 2 Univ. Nice Sophia Antipolis

148 CHAPITRE 5. CORRIGES

1. L’algebre a(D) etant la plus petite algebre contenant D, il suffit de noter que

D ⊂ b(D) ⊂ a(D) =⇒ a(D) = b(D)

2. On peut commencer par noter que

∀i ∈ I X−1i (1) = Di et X−1

i (0) = Ω − Di = ∪j∈I−iDj ∈ σ(D)

Plus generalement, nous avons

ω : Xi(ω) = 1 et Xj(ω) = 0 ∀j ∈ I − i = Di ∈ σ(D)

et pour toute suite (ui)i∈I contenant au moins deux composantes egales a 1

ω : Xj(ω) = uj ∀j = ∅

On en conclut que

σ(Xi, i ∈ I) ⊂ σ(D)

L’inclusion inverse est a nouveau une consequence du fait que

∀i ∈ I Di = ω : Xi(ω) = 1 et Xj(ω) = 0 ∀j ∈ I − i ∈ σ(Xi, i ∈ I)

3. Cette question decoule de la proposition 1.2.2

Exercice 1.2.5 :

1. On construit la partition D, en choisissant le plus grand sous-ensemble D = (Di)i∈I formed’evenements deux a deux disjoints de F . Si D n’etait pas une partition de Ω, l’ensemble

(∪i∈IDi)c = ∩i∈ID

ci ∈ F

serait un evenement non vide, et disjoint a tous les Di. Par consequent cet ensemble auraitete omis dans la construction de D. Par construction, on a

D ⊂ F =⇒ σ(D) ⊂ F

D’autre part, l’algebre F est formee des reunions (finies) d’ensembles de D. On a donc

F ⊂ σ(D) =⇒ σ(D) = F

2. Cette question est une consequence immediate de l’exercice 1.2.4

Exercice 1.2.10 :

1. On obtient facilement que

A1 ∩ A2 = (i, j) ∈ Ω : j ∈ 1, 2, 5 et j ∈ 4, 5, 6= (i, j) ∈ Ω : j = 5 A1 ∩ A3 = (4, 5)

A2 ∩ A3 = (i, j) ∈ Ω : j ∈ 4, 5, 6 ∩ (3, 6), (6, 3), (4, 5), (5, 4)= (4, 5), (3, 6), (5, 4)

A1 ∩ A3 ∩ A3 = A1 ∩ A3 = (4, 5)

Page 151: MASTER MASS 2 Univ. Nice Sophia Antipolis

5.1. CHAPITRE 1 149

2. On a

P(A1 ∩ A2 ∩ A3) =1

36=

18

36× 18

36× 4

36= P(A1) × P(A2) × P(A3)

De meme, on montre que

P(A1 ∩ A2) =6

36=

1

66= 18

36× 18

36=

1

4= P(A1) × P(A2)

P(A2 ∩ A3) =3

36=

1

126= 18

36× 4

36=

1

18= P(A2) × P(A3)

Exercice 1.3.1 Pour comprendre ce probleme de statistique, il convient de noter que l’on asuppose implicitement que les taux d’objets defectueux p1, p2 ont ete calcules sur la meme basede production. Autrement dit, M1 et M2 produisent chaque jours

d1 = m1p1 = 5 et d2 = m2p2 = 20

objets defectueux. On represente le choix au hasard d’un objet parmi les m1 + m2 objet parl’ensemble des indices Ω = 1, . . . , (m1 + m2), muni de la tribu discrete F = P(Ω), et de laprobabilite uniforme

∀ω ∈ Ω P(ω) =1

m1 + m2=

1

300

Sans perte de generalite, et a une permutation d’indices pres, on peut supposer que lesevenements A1 = 1, . . . , m1, et A2 = m1 + 1, . . . , m2, representent respectivement lesobjets produits par M1, et par M2. Le couple A1, A2 forme clairement une partition de Ω,et l’on a

P(A1) = 1 − P(A2) =|A1||Ω| =

m1

m1 + m2=

1

3

L’ensemble des objets defectueux quotidien B est forme de d1 + d2 objets, dont d1 dans A1, etd2 dans A2. On retrouve ainsi le fait que

P(B|Ai) = |B ∩ Ai|/|Ai| = di/mi = pi

On obtient alors

P(B) =∑

i∈1,2

P(B|Ai)P(Ai)

=m1p1 + m2p2

m1 + m2=

d1 + d2

m1 + m2=

1

60+

1

15=

1

12

Ce resultat peut etre retrouve de facon immediate, en notant que tout simplement que P(B) =|B|/|Ω|. Ceci repond a la premiere question. Les probabilites pour que l’une des machines Mi,i = 1, 2, est produit cet objet defectueux, correspondent aux probabilites P(Ai|B), i = 1, 2, dechoisir cet objet dans Ai, i = 1, 2, sachant que ce dernier est dans B. D’apres la formule deBayes, on a

P(Ai|B) =P(B|Ai)P(Ai)

j∈1,2 P(B|Aj)P(Aj)

=pimi

p1m1 + p2m2=

di

d1 + d2

(

=1

51i=1 +

4

51i=2

)

On remarque que cette formule est bien coherente avec notre intuition. En effet, si l’on restreintnotre choix aux pieces defectueuses, on a bien evidemment di/(d1+d2) = |Ai∩B|/|B| “chances”pour qu’elle provienne de la machine Mi !

Exercice 1.3.2 Cette experience aleatoire se deroule en deux temps. On choisit tout d’abord

Page 152: MASTER MASS 2 Univ. Nice Sophia Antipolis

150 CHAPITRE 5. CORRIGES

une piece ω1 = 0, 1 dans un sac Ω1 contenant deux pieces de monnaie ; la valeur ω1 = 1correspond au choix de la piece equitable, et la valeur ω1 = 0 represente le choix de la pieceayant une probabilite 1/3 de donner le cote“face”. Une fois la piece choisie, on la lance et l’onobserve un resultat ω2 ∈ Ω2 = 0, 1. Dans ce cas, la valeur ω2 = 1 correspond au cote “face”,et la valeur ω2 = 0 represente le cote “pile”. L’exercice peut etre resolu selon deux approchesconnexes. La premiere consiste a decrire avec precision l’espace des evenements possibles. Laseconde est liee a une interpretation dynamique naturelle de l’experience en question.

1. L’espace des epreuves associe a l’experience complete est donc donne par Ω = 0, 12.Chaque evenement elementaire ω = (ω1, ω2) ∈ 0, 12, represente le choix de la piece ω1,et le resultat du lancer ω2. D’apres l’enonce, nous avons

P((1, 1)) =1

2× 1

2= P((1, 0))

et

P((0, 1)) =1

2× 1

3, P((0, 0)) =

1

2× 2

3

Les evenements

F = (0, 1), (1, 1), F c = (0, 0), (1, 0)E = (1, 0), (1, 1), Ec = (0, 1), (0, 0)

representent respectivement la situation ou le resultat du lancer est “face” (F ), celle oule lancer est “pile”(F c), le fait d’avoir choisi la piece equitable (E), et celui d’avoir choisila piece non equitable (Ec). On a donc

P(F ) =1

6+

1

4et P(E) =

1

4+

1

4=

1

2

De meme on montre que

P(F |E) =1/4

1/4 + 1/4=

1

2= 1 − P(F c|E) et P(F |Ec) =

1/6

1/2=

1

3

On en conclut que

P(E|F ) =P(F |E)P(E)

P(F |E)P(E) + P(F |Ec)P(Ec)=

1/4

1/4 + 1/6

=3

5= 1 − P(Ec|F )

2. La seconde methode consiste a exploiter l’aspect temporel de l’experience, de sorte a eviterune representation complete de l’espace des epreuves. On note X1 et X2 les variablesaleatoires a valeurs dans 0, 1 representant le choix initial X1 de la piece, et le resultatdu lancer. D’apres l’enoncer, le choix de la piece dans le sac est uniforme

P(X1 = 1) = P(X1 = 0) =1

2

D’autre part, sachant que la piece est equitable, le resultat du lancer sera encore uniforme

P(X2 = 1|X1 = 1) = P(X2 = 0|X1 = 1) =1

2

Si la piece choisie n’est pas equitable, alors nous aurons une probabilite 1/3 de voir lecote“face” represente par la valeur 1

P(X2 = 1|X1 = 0) =1

3= 1 − P(X2 = 0|X1 = 0)

Page 153: MASTER MASS 2 Univ. Nice Sophia Antipolis

5.1. CHAPITRE 1 151

On retrouve ainsi le resultat recherche

P(X1 = 1|X2 = 1)

= P(X2=1|X1=1)P(X1=1)P(X2=1|X1=1)P(X1=1)+P(X2=1|X1=0)P(X1=0)

= 1/41/4+1/6 = 3

5 = 1− P(X1 = 0|X2 = 1)

On remarquera que cette methode est une reformulation dynamique de la precedente.Plus precisement, si l’on considere les variables canoniques

X1(ω1, ω2) = ω1 et X2(ω1, ω2) = ω2

les equations precedentes sont une reformulation de celles decrites dans la premieremethode.

Exercice 1.3.3 La formule multiplicative recherchee est une consequence directe de la formulerecursive suivante

P(An ∩ [∩n−1p=1 An] | B) = P(An | B ∩ [∩n−1

p=1 Ap]) P(∩n−1p=1 An | B)

Exercice 1.3.4 Par definition des v.a. Sk =∑k

i=1 Xi, nous avons pour tout m ≤ n, et0 ≤ k ≤ l ≤ n

PSm|Sn(k|l) =

P(Sn = l, Sm = k)

P(Sn = l)=

P(Sn − Sm = (l − k), Sm = k)

P(Sn = l)

=P(∑n

i=m+1 Xi = (l − k),∑m

i=1 Xi = k)

P(Sn = l)

=P(Sn−m = (l − k)) × P(Sm = k)

P(Sn = l)

=

[Cl−k

n−m pl−k (1 − p)(n−m)−(l−k)] [

Ckm pk (1 − p)m−k

]

Cln pl (1 − p)n−l

=Cl−k

n−m Ckm

Cln

Lorsque m = 1, et k = 1, on obtient clairement

PX1|Sn(1|l) =

Cl−1n−1 C1

1

Cln

= l/n

Exercice 1.3.5 Tout d’abord, on note que

PXn|(X0...,Xn−1) =

P(X1...,Xn)|X0(x1, . . . , xn|x0)

P(X1...,Xn−1)|X0(x1, . . . , xn−1|x0)

D’apres l’equation (1.6), on a necessairement

PXn|(X0...,Xn−1) = pn(xn|x0, . . . , xn−1)

Page 154: MASTER MASS 2 Univ. Nice Sophia Antipolis

152 CHAPITRE 5. CORRIGES

Exercice 1.3.6 En utilisant la formule (1.5), on montre que pour toute v.a. Y1 mesurablepar rapport a σ(X1) on a

E(Y1 [f2(X2) − E(f2(X2) | X1)]) = 0

Si l’on remplace Y1 par la v.a. [E(f2(X2) | X1) − Y1], on trouve

E([E(f2(X2) | X1) − Y1] [f2(X2) − E(f2(X2) | X1)]) = 0

On demontre ainsi que pour toute v.a. Y1 mesurable par rapport a σ(X1)

E((f2(X2) − Y1)2)

= E(([f2(X2) − E(f2(X2) | X1)] + [E(f2(X2) | X1) − Y1])2)

= E([f2(X2) − E(f2(X2) | X1)]2) + E([E(f2(X2) | X1) − Y1]

2)

La preuve du resultat recherche est desormais claire.

Exercice 1.3.7 On remarque tout d’abord que

PX3,X2|X1(x3, x2|x1) = P

X3|X1,X2(x3|x1, x2) PX2|X1(x2|x1)

En sommant sur la seconde coordonnee, on obtient

PX3|X1(x3|x1) =

x2∈E2

PX3|X1,X2(x3|x1, x2) P

X2|X1(x2|x1)

On en conclut que

E(E(f(X3) | X2, X1) | X1 = x1)

=∑

x2

x3f(x3)

×PX3|X2,X1(x3 | x2, x1)P

X2|X1(x2|x1)

=∑

x3f(x3)

×[∑

x2P

X3|X2,X1(x3 | x2, x1)PX2|X1(x2|x1)

]

= E(f(X3) | X1 = x1)

Exercice 2.5.1 : On represente les echecs ou les succes des trois lancers par trois v.a. deBernoulli independantes

P(Xi = 1) = 1 − P(Xi = 0) = 1/6 avec i = 1, 2, 3

Pour calculer P(B1), on utilise le modele d’arbre binomial donne par la figure suivante

Page 155: MASTER MASS 2 Univ. Nice Sophia Antipolis

5.1. CHAPITRE 1 153

0

01

0

0

1

1

1

0

0

1

1

1

0

X_1=1_6

B_1=(0,0,1), (0,1,0), (1,0,0)

P(B_1)=P(X_1+X_2+X_3=1)=3 (1/6)^1 (5/6)^2

Fig. 5.1 – Chemins dans B1

Pour calculer P(B2), on utilise le modele d’arbre binomial

0

01

0

0

1

1

1

0

1

1

0

X_1=1_6

1

0

B_2=(0,1,1), (1,0,1), (1,1,0)

P(B_2)=P(X_1+X_2+X_3=2)=3 (1/6)^2 (5/6)^1

Fig. 5.2 – Chemins dans B2

Enfin, pour calculer P(B3), on note simplement que

P(B3) = P(X1 + X2 + X3 = 3) = P(X1 = 1, X2 = 1, X3 = 1) = (1/6)3

Exercice 2.5.2 :L’arbre des epreuves est donne par

Page 156: MASTER MASS 2 Univ. Nice Sophia Antipolis

154 CHAPITRE 5. CORRIGES

0

1

1

1

1

0

0

0

0

1

1

0

1

0

0

0

0

0

0

0

0

1

1

1

1

1

1

1

1

w^1=(0,0,0,0)

w^2=(0,0,0,1)

w^3=(0,0,1,0)

w^4=(0,0,1,1)

w^5=(0,1,0,0)

w^6=(0,1,0,1)

w^7=(0,1,1,0)

w^8=(0,1,1,1)

0

w^9=(1,0,0,0)

w^10=(1,,0,0,1)

w^11=(1,0,1,0)

w^12=(1,0,1,1)

w^13=(1,1,0,0)

w^14=(1,10,1)

w^15=(1,1,1,0)

w^16=(1,1,1,1)

Omega_n=w^i : i=1,...,16

1/3

1/3

1/3

1/3

1/3

1/3

1/3

1/3

1/3 1/3

1/3

1/3

1/3

1/3

1/32/3

2/3

2/3

2/3

2/3

2/3

2/3

2/3

2/3

2/3 2/3

2/3

k=1 k=2 k=3 k=4

Fig. 5.3 – Arbre binomial

L’espace des epreuves associe a ce modele binomial sur 4 periodes correspond a l’ensembleproduit

Ω = 0, 11,2,3,4 = ωi : i = 1, . . . , 16

Exercice 2.5.3 :L’arbre des epreuves est donne par

0

1

1

1

1

0

0

0

0

1

1

0

1

0

0

0

0

0

0

0

0

1

1

1

1

1

1

1

1

w^1=(0,0,0,0)

w^2=(0,0,0,1)

w^3=(0,0,1,0)

w^4=(0,0,1,1)

w^5=(0,1,0,0)

w^6=(0,1,0,1)

w^7=(0,1,1,0)

w^8=(0,1,1,1)

0

w^9=(1,0,0,0)

w^10=(1,,0,0,1)

w^11=(1,0,1,0)

w^12=(1,0,1,1)

w^13=(1,1,0,0)

w^14=(1,10,1)

w^15=(1,1,1,0)

w^16=(1,1,1,1)

Omega_n=w^i : i=1,...,16

1/2

1/2

1/3

2/31/4

3/4 1/5

4/5

2/3

1/3

3/4

3/4

3/4

1/4

1/4

1/4

4/5

4/5

4/5

4/5

4/5

4/5

4/5

1/5

1/5

1/5

1/5

1/5

1/5

1/5

Fig. 5.4 – Arbre binomial

Page 157: MASTER MASS 2 Univ. Nice Sophia Antipolis

5.1. CHAPITRE 1 155

L’espace des epreuves associe a ce modele binomial sur 4 periodes correspond a l’ensembleproduit

Ω = 0, 11,2,3,4 = ωi : i = 1, . . . , 16

Exercice 2.5.4 :L’arbre des epreuves peut etre decrit par un raisonnement similaire a ceux utilises dans lesexercices precedents. On a aussi clairement

P(X0 = 1, X1 = 2, X2 = 1, X3 = 1, X4 = 2) = M1(1, 2)M2(2, 1)M3(1, 1)M4(1, 2)

P(X0 = 1, X1 = 3, X2 = 2, X3 = 1, X4 = 1) = M1(1, 3)M2(3, 2)M3(2, 1)M4(1, 1)

P(X0 = 1, X1 = 2, X2 = 2, X3 = 1, X4 = 1) = M1(1, 2)M2(2, 2)M3(2, 1)M4(1, 1)

Exercice 2.5.5 :

1. L’arbre des epreuves associe a l’evolution markovienne sur une periode

X0 = x0 ∈ E0 = x0 −→ X1 ∈ E1 = x1,1, x1,2

est donne par la figure suivante.

x0

x(1,1)

x(1,2)

omega^1

omega^2

Omega=omega^1,\omega^2

Fig. 5.5 –

Cette evolution markovienne correspond au tableau suivant

Ω X0 X1

ω1 x0 x1,1

ω2 x0 x1,2

2. Les evenements cylindriques sur l’espace Ω = ω1, ω2 sont donnes par

A0(x0) = X−10 (x0) = ω1, ω2 = Ω

A1(x0, x1,1) = (X0, X1)−1((x0, x1,1)) = ω1

A1(x0, x1,2) = (X0, X1)−1((x0, x1,2)) = ω2

3. Les decompositions de l’espace Ω sont decrites par

DX0 = X−1

0 (x) : x ∈ E0 = Ω, ∅DX

1 = (X0, X1)−1((x, y)) : (x, y) ∈ (E0 × E1) = ∅, Ω, ω1, ω2

Page 158: MASTER MASS 2 Univ. Nice Sophia Antipolis

156 CHAPITRE 5. CORRIGES

4. Les algebres FXk engendrees par les partitions DX

k , avec k = 0, 1, sont donnees par

FX0 = Ω, ∅ et FX

1 = ∅, Ω, ω1, ω25. Immediat. Il suffit en effet de noter que l’on a

∀ω ∈ Ω = ω1, ω2 X0(ω) = x0

et

X1(ω) =

2∑

i=1

x1,i 1ωi(ω) =

x1,1 si ω = ω1

x1,2 si ω = ω2

6. La quantite moyenne E(X1|FX0 ) est donnee par la formule

E(X1|FX0 ) = E(X1) = x1,1 P(X1,1 | X0 = x0) + x1,2 P(X1,1 | X0 = x0)

= E(X1) = x1,1 P(ω1) + x1,2 P(ω2)Pour trouver la probabilite P

? il suffit de resoudre l’equation

E?(X1|FX

0 ) = X0 ⇐⇒ x1,1 P(ω1) + x1,2 P(ω2) = x0

⇐⇒ x1,1 P(ω1) + x1,2 (1 − P(ω1)) = x0

Il est clair que cette equation admet une solution si, et seulement si, nous avons

x1,1 < x0 < x1,2 ou x1,2 < x0 < x1,1

Dans ces deux situations, P? est donnee par

P(ω1) =x0 − x1,2

x1,1 − x1,2et P(ω2) =

x1,1 − x0

x1,1 − x1,2

Exercice 2.5.6 : L’arbre des epreuves correspondant a ce modele est decrit dans la figuresuivante.

x0

x(1,1)

x(2,1)

x(2,2)

x(2,4)

x(2,3)

x(1,2)

omega^1

omega^2

omega^3

omega^4

Fig. 5.6 – Arbre binomial

1. Sur l’espace des evenements Ω = ωi, i = 1, 2, 3, 4, nous avons

A0(x0) = X−10 (x0) = Ω

A1(x0, x1,1) = (X0, X1)−1((x0, x1,1)) = ω1, ω2

A1(x0, x1,2) = (X0, X1)−1((x0, x1,2)) = ω3, ω4

A2(x0, x1,1, x2,1) = (X0, X1, X2)−1((x0, x1,1, x2,1)) = ω1

A2(x0, x1,1, x2,2) = (X0, X1, X2)−1((x0, x1,1, x2,2)) = ω2

A2(x0, x1,2, x2,3) = (X0, X1, X2)−1((x0, x1,2, x2,3)) = ω3

A2(x0, x1,2, x2,4) = (X0, X1, X2)−1((x0, x1,2, x2,4)) = ω4

Page 159: MASTER MASS 2 Univ. Nice Sophia Antipolis

5.1. CHAPITRE 1 157

2. Les decompositions DXk de Ω sont donnees par

DX0 = Ω

DX1 = ω1, ω2, ω3, ω4

DX2 = ω1, ω2, ω3, ω4

3. Les algebres FXk engendrees par les partitions DX

k , sont decrites ci-apres

FX0 = ∅, Ω

FX1 = ∅, Ω, ω1, ω2, ω3, ω4 et FX

2 = P(Ω)

4. Immediat. Il suffit en effet de noter que pour tout ω ∈ Ω, nous avons

X0(ω) = x0

X1(ω) = x1,1 1ω1,ω2(ω) + x1,2 1ω3,ω4(ω) et X2 =

4∑

i=1

x2,i 1ωi(ω)

5. Par construction, nous avons

E(X1|FX0 ) = E(X1|)

= x1,1P(X1 = x1,1 | X0 = x0) + x1,2P(X1 = x1,2 | X0 = x0)

= x1,1 P(ω1, ω2) + x1,2 P(ω2, ω4)

E(X2|FX1 ) = E(X2|X1 = x1,1)1ω1,ω2 + E(X2|X1 = x1,2)1ω3,ω4

=(x2,1 P(ω1 | ω1, ω2) + x2,2 P(ω2 | ω1, ω2)

)1ω1,ω2

+(x2,3 P(ω3 | ω3, ω4) + x2,4 P(ω4 | ω3, ω4)

)1ω3,ω4

6. Pour quelle probabilite P? sur Ω a-t-on

E?(X2|FX

1 ) = X1 et E?(X1|FX

0 ) = X0

D’apres la question precedente, la condition E(X2|FX1 ) = X1 est equivalente au fait que

x1,1 = x2,1 P?(ω1 | ω1, ω2) + x2,2 P

?(ω2 | ω1, ω2)= x2,1 P

?(ω1 | ω1, ω2) + x2,2

(1 − P

?(ω1 | ω1, ω2))

x1,2 = x2,3 P?(ω3 | ω3, ω4) + x2,4 P

?(ω4 | ω3, ω4)= x2,3 P

?(ω3 | ω3, ω4) + x2,4

(1 − P

?(ω3 | ω3, ω4))

Par un raisonnement analogue a celui utilise dans l’exercice 2.5.5 ces equations admettentune solution si, et seulement si, les deux conditions suivantes sont satisfaites

1) x2,1 < x1,1 < x2,2 ou x2,2 < x1,1 < x2,1

et2) x2,3 < x1,2 < x2,4 ou x2,4 < x1,2 < x2,3

Dans ces conditions, nous avons

P?(ω1 | ω1, ω2) =

x1,1 − x2,2

x2,1 − x2,2= 1 − P

?(ω2 | ω1, ω2)

et

P?(ω3 | ω3, ω4) =

x1,2 − x2,4

x2,3 − x2,4= 1 − P

?(ω3 | ω3, ω4)

Page 160: MASTER MASS 2 Univ. Nice Sophia Antipolis

158 CHAPITRE 5. CORRIGES

Il nous reste a noter que la condition E?(X1|FX

0 ) = X0 est equivalente au fait que

x0 = x1,1 P?(ω1, ω2) + x1,2 (1 − P

?(ω1, ω2))Comme precedemment, cette equation admet une solution si, et seulement si, nous avons

3) x1,1 < x0 < x1,2 ou x1,2 < x0 < x1,1

Dans ce cas, on obtient

P?(ω1, ω2) =

x0 − x1,2

x1,1 − x1,2= 1 − P

?(ω3, ω4)

Lorsque les trois conditions 1), 2), 3) sont verifiees, on obtient aisement les valeurs deP

?. On a par exemple

P?(ω1) = P

?(ω1 | ω1, ω2) × P?(ω1, ω2)

=x1,1 − x2,2

x2,1 − x2,2× x0 − x1,2

x1,1 − x1,2

Exercice 2.5.7 :

1. Par construction de l’espace des aleas, nous avons les decompositions suivantes

X0 = x0

X1 = x1,1 1ω1,ω2,ω3 + x1,2 1ω4 + x1,3 1ω5,ω6,ω7,ω8

X2 = x2,1 1ω1,ω2 + x2,2 1ω3 + x2,3 1ω4

+x2,4 1ω5 + x2,5 1ω6,ω7 + x2,6 1ω8

X3 =

8∑

i=1

x3,i 1ωi

D’apres ce qui precede, nous avons

DX0 = Ω

DX1 = ω1, ω2, ω3, ω4, ω5, ω6, ω7, ω8

DX2 = ω1, ω2, ω3, ω4, ω5, ω6, ω7, ω8

DX3 = ω1, ω2, ω3, ω4, ω5, ω6, ω7, ω8

avec les espaces d’etats

E0 = x0 −→ E1 = x1,i i = 1, 2, 3 −→ E2 = x2,i, i = 1, . . . , 6

−→ E3 = x3,i, i = 1, . . . , 82. En utilisant les decompositions precedentes, on montre que

P(X3 = x3,1|X2 = x2,1) = P(ω1 | ω1, ω2)P(X3 = x3,2|X2 = x2,1) = P(ω2 | ω1, ω2)P(X3 = x3,6|X2 = x2,5) = P(ω6 | ω6, ω7)P(X3 = x3,7|X2 = x2,5) = P(ω7 | ω6, ω7)

et

P(X2 = x2,1|X1 = x1,1) = P(ω1, ω2 | ω1, ω2, ω3)P(X2 = x2,2|X1 = x1,1) = P(ω3 | ω1, ω2, ω3)P(X2 = x2,4|X1 = x1,3) = P(ω5 | ω5, ω6, ω7, ω8)P(X2 = x2,5|X1 = x1,3) = P(ω6, ω7 | ω5, ω6, ω7, ω8)P(X2 = x2,6|X1 = x1,3) = P(ω8 | ω5, ω6, ω7, ω8)

Page 161: MASTER MASS 2 Univ. Nice Sophia Antipolis

5.1. CHAPITRE 1 159

et enfin

P(X1 = x1,1|X0 = x0) = P(ω1, ω2, ω3)P(X1 = x1,2|X0 = x0) = P(ω4)P(X1 = x1,3|X0 = x0) = P(ω5, ω6, ω7, ω8)

3. L’esperance conditionnelle de la v.a. X3 en FX2 est donnee par

E(X3|FX2 )

= E(X3|X2)

= E(X3|X2 = x2,1) 1ω1,ω2 + E(X3|X2 = x2,2) 1ω3

+E(X3|X2 = x2,3) 1ω4 + E(X3|X2 = x2,4) 1ω5

+E(X3|X2 = x2,5) 1ω6,ω7 + E(X3|X2 = x2,6) 1ω8

avec

E(X3|X2 = x2,1) =∑

i∈1,2

x3,iP(X3 = x3,i|X2 = x2,1)

= x3,1 × P(ω1 | ω1, ω2) + x3,2 × P(ω2 | ω1, ω2)E(X3|X2 = x2,2) = x3,2

E(X3|X2 = x2,3) = x3,4

E(X3|X2 = x2,4) = x3,5

E(X3|X2 = x2,5) =∑

i∈6,7

x3,iP(X3 = x3,i|X2 = x2,5)

= x3,6 × P(ω6 | ω6, ω7) + x3,7 × P(ω7 | ω6, ω7)E(X3|X2 = x2,6) = x3,8

L’esperance conditionnelle de la v.a. X2 en FX1 est donnee par

E(X2|FX1 ) = E(X2|X1)

= E(X2|X1 = x1,1) 1ω1,ω2,ω3 + E(X2|X1 = x1,2) 1ω4

+E(X2|X1 = x1,3) 1ω5,ω6,ω7,ω8

avec

E(X2|X1 = x1,1) =∑

i∈1,2

x2,iP(X2 = x2,i|X1 = x1,1)

= x2,1P(ω1, ω2 | ω1, ω2, ω3) + x2,2P(ω3 | ω1, ω2, ω3)E(X2|X1 = x1,2) = x2,3

etE(X2|X1 = x1,3)

=∑

i∈4,5,6 x2,iP(X2 = x2,i|X1 = x1,3)

= x2,4P(ω5 | ω5, ω6, ω7, ω8) + x2,5P(ω6 | ω5, ω6, ω7, ω8)

+x2,6P(ω8 | ω5, ω6, ω7, ω8)

Page 162: MASTER MASS 2 Univ. Nice Sophia Antipolis

160 CHAPITRE 5. CORRIGES

Afin l’esperance conditionnelle de la v.a. X1 en FX0 est donnee par

E(X1|FX0 ) = E(X1|FX

0 )

=∑

i∈1,2,3

x1,iP(X1 = x1,i|X0 = x0)

= x1,1P(ω1, ω2, ω3) + x1,2P(ω4) + x1,3P(ω5, ω6, ω7, ω8)

4. Supposons qu’il existe une probabilite P? sur Ω telle que

E?(X3|FX

2 ) = X2 E?(X2|FX

1 ) = X1 et E?(X1|FX

0 ) = X0

Dans cette situation, et en utilisant les decompositions precedentes, cette probabilite P?

doit satisfaire les cinq conditions suivantes

x2,1(1)= x3,1 × P(ω1 | ω1, ω2) + x3,2 × P(ω2 | ω1, ω2)

x2,5(2)= x3,6 × P(ω6 | ω6, ω7) + x3,7 × P(ω7 | ω6, ω7)

puis

x1,1(3)= x2,1P(ω1, ω2 | ω1, ω2, ω3) + x2,2P(ω3 | ω1, ω2, ω3)

x1,3(4)= x2,4P(ω5 | ω5, ω6, ω7, ω8) + x2,5P(ω6 | ω5, ω6, ω7, ω8)

+x2,6P(ω8 | ω5, ω6, ω7, ω8)

et enfin

x0(5)= x1,1P(ω1, ω2, ω3) + x1,2P(ω4) + x1,3P(ω5, ω6, ω7, ω8)

Les trois premieres conditions expriment le fait que les etats x2,1, x2,5, et x1,1, sontrespectivement des barycentres des couples de points x3,1, x3,2, x3,6, x3,7, et enfinx2,1, x2,2. On peux donc resoudre ces trois equations, si et seulement si, les troisconditions suivantes sont verifiees

1) x3,1 < x2,1 < x3,2 ou x3,2 < x2,1 < x3,1

2) x3,6 < x2,5 < x3,7 ou x3,7 < x2,5 < x3,6

3) x2,1 < x1,1 < x2,2 ou x2,2 < x1,1 < x2,1

Dans ces conditions, on obtient

P?(ω1|ω1, ω2) =

x2,1 − x3,2

x3,1 − x3,2= 1 − P

?(ω2|ω1, ω2)

P?(ω6|ω6, ω7) =

x2,5 − x3,7

x3,6 − x3,7= 1 − P

?(ω7|ω6, ω7)

P(ω1, ω2 | ω1, ω2, ω3) =x1,1 − x2,2

x2,1 − x2,2

= 1 − P(ω3 | ω1, ω2, ω3)

Les deux dernieres equations (4) et (5) conditions expriment le fait que les etats x1,3,et x0, sont respectivement des barycentres des triples de points x2,4, x2,5, x2,6, etx1,1, x1,2, x1,3. On peux donc resoudre ces deux equations, si et seulement si, les etatsx1,3, et x0, sont dans les intervalles convexes contenant ces points. A l’inverse des situationsexaminees precedemment, il existe plusieurs solutions. Par exemple, lorsque l’on a

x1,1 < x0 < x1,2 < x1,3

Page 163: MASTER MASS 2 Univ. Nice Sophia Antipolis

5.1. CHAPITRE 1 161

l’equation (5) admet pour solution (non unique)

P(ω5, ω6, ω7, ω8) = 0

P(ω1, ω2, ω3) =x0 − x1,2

x1,1 − x1,2= 1 − P(ω4)

Enfin, si l’on ax2,4 < x1,3 < x2,5 < x2,6

l’equation (4) admet pour solution (non unique)

P(ω8 | ω5, ω6, ω7, ω8) = 0

P(ω5 | ω5, ω6, ω7, ω8) =x1,3 − x2,5

x2,4 − x2,5= 1 − P(ω6 | ω5, ω6, ω7, ω8)

Pour calculer les quantites P(ωi) correspondantes, on procede de facon usuelle. On apar exemple

P?(ω1) = P

?(ω1|ω1, ω2) × P(ω1, ω2 | ω1, ω2, ω3)×P(ω1, ω2, ω3)

=x2,1 − x3,2

x3,1 − x3,2× x1,1 − x2,2

x2,1 − x2,2× x0 − x1,2

x1,1 − x1,2

Exercice 2.5.10 : On verifie la formule (2.6) par recurrence sur n. Pour n = 1 on a

1c

(p2,1 p1,2

p2,1 p1,2

)

+ ( 1c − 1)

(p1,2 −p1,2

−p2,1 p2,1

)

=

(1 − p1,2 p1,2

p2,1 1 − p2,1

)

=

(p1,1 p1,2

p2,1 p2,2

)

= M

Supposons la formule (2.6) vraie au rang n. Dans ce cas, nous avons

Mn+1 = 1c

(p2,1 p1,2

p2,1 p1,2

)(p1,1 p1,2

p2,1 p2,2

)

+ (1−c)n

c

(p1,2 −p1,2

−p2,1 p2,1

)(p1,1 p1,2

p2,1 p2,2

)

= 1c

(p2,1 p1,2

p2,1 p1,2

)

+ (1−c)n

c

(p1,2(p1,1 − p2,1) −p1,2(p2,2 − p1,2)−p2,1(p1,1 − p2,1) p2,1(p2,2 − p1,2)

)

Il reste a remarquer que

(1 − c) = (1 − p1,2 − p2,1) = (p1,1 − p2,1) = (p2,2 − p1,2)

La fin de la preuve par recurrence est desormais claire.

Exercice 2.5.12 :

1. En utilisant la realisation dynamique de la marche aleatoire on obtient

Xk = Xk−1 + εk =⇒ Xk =

k∑

l=1

εl

Page 164: MASTER MASS 2 Univ. Nice Sophia Antipolis

162 CHAPITRE 5. CORRIGES

On verifie ainsi aisement que la position moyenne de la marche est donnee par la formule

E(Xk) =

k∑

l=1

E(εl) = k(α − (1 − α)) = k × (2α − 1)

Lorsque α ∈ (0, 1/2), les v.a. εk ont tendance a prendre plus frequemment la valeur −1.La marche est alors en moyenne attiree vers la gauche. Lorsque α = 1/2, la marche resteen moyenne en son origine X0 = 0. Autrement dit, la chaıne Xk oscille entre la droite etla gauche. La quantite v = (2α − 1) correspond a la vitesse moyenne de la particule.

2. Pour chaque p ≥ 0, les evenements

ω ∈ Ω : Xl(ω) = x, Xl+m(ω) = x + [k − (m − k)]

avec 0 ≤ k ≤ m correspondent a la situation ou la particule passe par x a l’instant l, eteffectue entre les instants l et l+m, k deplacements vers la droite, et (m−k) deplacementsvers la gauche. La figure ci-dessous represente un exemple d’evolution sur m = 12 periodes,avec k = 5 montees, et (m − k) = 7 descentes.

x

−1 −1 +1 −1 +1 −1 +1 +1 −1 +1 −1 −1

Fig. 5.7 – Points accessibles

Par consequent, nous avons

P(Xl+m = x + [k − (m − k)] | Xl = x) = Ckm αk (1 − α)m−k

3. D’apres ce qui precede, lorsque x = 0 et m = 2k, on obtient

P(Xl+2k = 0 | Xl = 0) = Ck2k αk (1 − α)k =

(2k)!

k!k!(α(1 − α))k

On notera que les evenements

Xl = x, Xl+m = y

sont vides pour les couples de points (y − x) 6∈ 2l − m : l = 0, . . . , m. En particulier,pour x = 0 = y et m = 2k+1, on a P(Xl+2k+1 = 0 | Xl = 0). En utilisant l’approximationde Stirling

k! '√

2πk kk e−k

Page 165: MASTER MASS 2 Univ. Nice Sophia Antipolis

5.1. CHAPITRE 1 163

on obtient l’estimation

P(Xl+2k = 0 | Xl = 0) ' (4α(1 − α))k

√πk

(= 1/√

πk si α = 1/2)

Lorsque α 6= 1/2, on a 4α(1 − α) < 1 et la probabilite de revenir a 0 en un temps (2k)decroıt exponentiellement vite lorsque k augmente.

Exercice 2.5.13 : On a

∆Xk = E(∆Xk | Fk−1)︸ ︷︷ ︸

partie previsible

+ [∆Xk − E(∆Xk | Fk−1)]︸ ︷︷ ︸

partie imprevisible

= E(εk) + [εk − E(εk)]

La decomposition de Doob du processus est don donnee par la formule

Xk =

k∑

p=0

∆Xp = AXk + MX

k

avec le couple de processus (AXk , MX

k )0≤k≤n definis par

AXk =

k∑

p=0

E(∆Xp | Fp−1) =

k∑

p=0

E(εp)

MXk =

k∑

p=0

[εp − E(εp)]

Exercice 2.5.14 : On commence par noter que

∆Xk = Xk − Xk−1 = Xk−1 × [εk − 1]

On obtient ainsi la decomposition locale

∆Xk = E(∆Xk | Fk−1)︸ ︷︷ ︸

partie previsible

+ [∆Xk − E(∆Xk | Fk−1)]︸ ︷︷ ︸

partie imprevisible

= Xk−1 × E(εk − 1) + Xk−1 × [εk − E(εk)]

La decomposition de Doob du processus est don donnee par la formule

Xk =k∑

p=0

∆Xp = AXk + MX

k

avec le couple de processus (AXk , MX

k )0≤k≤n definis par

AXk =

k∑

p=0

E(∆Xp | Fp−1) =

k∑

p=0

[p−1∏

l=0

εl

]

× E(εp − 1)

MXk =

k∑

p=0

[p−1∏

l=0

εl

]

× [εp − E(εp)]

Page 166: MASTER MASS 2 Univ. Nice Sophia Antipolis

164 CHAPITRE 5. CORRIGES

Exercice 3.1.2 : Il suffit de noter que l’on a

E(Mk+1 − Mk | Fk) = E(εk+1 | σ(ε1, . . . , εk))

= E(εk+1) = (+1) p + (−1) (1 − p) = 2p − 1

On observe que les evenements εk = +1 sont plus frequents des que p ≥ 1/2. Dans ce cas, lejeux est alors favorable au joueur.

Exercice 3.1.3 : Comme dans l’exercice precedent, on note simplement que

E(Mk+1 − Mk | Fk) = E(εk+1 | σ(ε1, . . . , εk)) = 0

Exercice 3.1.4 : Il suffit d’observer que l’on a

E(Mk+1 | Fk) = E(Mk × εk+1 | Fk) = Mk × E(εk+1 | σ(ε1, . . . , εk)) = Mk

Exercice 3.1.5 : On observe que le processus retarde

M ′k = Mk−1 ∈ Fk−1

est previsible. On a donc

E(∆Lk | Fk−1) = E(Lk − Lk−1 | Fk−1) = E(Mk−1∆Nk | Fk−1)

= Mk−1 E(∆Nk | Fk−1)

= Mk−1 E(Nk − Nk−1 | Fk−1) = Mk−1 [E(Nk | Fk−1) − Nk−1] = 0

On obtient donc la propriete de martingale

E(Lk | Fk−1) = Lk−1

Exercice 3.1.6 :

1. La demonstration de ce premier point est decrite dans la solution de l’exercice 3.1.3.

2. On a clairement

E([Mk+1 − Mk]2 | Fk) = E(ε2k+1 | σ(ε1, . . . εk)) = σ2k+1

Par consequent, nous avons

〈M〉k =

k∑

l=0

E([Ml − Ml−1]2 | Fl−1) =

k∑

l=0

σ2l

En invoquant la proposition 3.1.2, on en conclut que le processus aleatoires

M2k −

k∑

l=0

σ2l

est une martingale par rapport a la filtration Fk. Par un raisonnement analogue, onmontre que

M2k − M2

0 − (〈M, N〉k − 〈M, N〉0) = M2k − M2

0 −k∑

l=1

σ2l

est une martingale par rapport a la filtration Fk.

Page 167: MASTER MASS 2 Univ. Nice Sophia Antipolis

5.1. CHAPITRE 1 165

3. Dans le cas ou les v.a. (εk)1≤k≤n sont i.i.d. et centrees, le processus processus croissantassocie a la martingale est donne par

〈M〉k =

k∑

l=0

σ2l = (k + 1)σ2

D’apres la question precedente, les processus

M2k − (k + 1)σ2 et M2

k − M20 − k σ2 avec σ2 = E(ε2k)

forment des martingales par rapport a la filtration Fk.

Exercice 3.1.7 :

1. La demonstration de ce premier point est decrite dans la solution de l’exercice 3.1.4.

2. Avant de commencer, on peut noter que l’on a

σ2k = E([εk − E(εk)]2) = E([εk − 1]2) = E(ε2k) − 1

D’autre part, un simple calcul montre que

E([Mk+1 − Mk]2 | Fk) = E(M2k [εk+1 − 1]2 | σ(ε1, . . . εk)) = M2

k σ2k+1 = [

k∏

l=0

εl] σ2k+1

D’apres la proposition 3.1.2, le processus aleatoire

M2k − 〈M〉k =

k∏

l=0

ε2l −k∑

l=0

[

l−1∏

m=0

ε2m] σ2l

est une martingale par rapport a la filtration Fk.

Exercice 3.1.8 :

1. Par definition du compensateur (〈Y, Y ′〉k)0≤k≤n, nous avons

〈Y, Y ′〉k =

n∑

k=0

E(∆Yl∆Y ′l | Fl−1) =

k∑

l=0

E(εlε′l)

2. En utilisant le theoreme 3.1.1, on en conclut que le processus

YkY ′k − 〈Y, Y ′〉k = [

k∑

l=0

εl] × [

k∑

l=0

ε′l] −k∑

l=0

E(εlε′l)

est une martingale par rapport a la filtration Fk.

Exercice 3.1.9 :

1. On a clairement

Cov(εk, ε′k) = E([εk − E(εk)][ε′k − E(ε′k)]) = E([εk − 1][ε′k − 1]) = E(εkε′k) − 1

Page 168: MASTER MASS 2 Univ. Nice Sophia Antipolis

166 CHAPITRE 5. CORRIGES

2. Par definition du compensateur (〈Y, Y ′〉k)0≤k≤n, nous avons

〈Y, Y ′〉k =k∑

l=0

E(∆Yl∆Y ′l | Fl−1) =

k∑

l=0

E([Yl−1 × (εl − 1)] [Y ′l−1 × (ε′l − 1)] | Fl−1)

=

k∑

l=0

[Yl−1Y′l−1]E((εl − 1)(ε′l − 1)| Fl−1) =

n∑

k=0

[Yl−1Y′l−1]E((εl − 1)(ε′l − 1))

=

k∑

l=0

[

l−1∏

m=0

εmε′m] × E((εl − 1)(ε′l − 1))

3. En utilisant le theoreme 3.1.1, on en conclut que le processus

YkY ′k − 〈Y, Y ′〉k = [

k∏

l=0

εl] × [k∏

l=0

ε′l] −k∑

l=0

[l−1∏

m=0

εmε′m] × E((εl − 1)(ε′l − 1))

est une martingale par rapport a la filtration Fk.

Exercice 3.1.10 :

1. Il suffit de noter que l’on a

∆Mk(f) = Mk(f) − Mk−1(f) = fk(Xk) − Kk(fk)(Xk−1) = fk(Xk) − E[fk(Xk) | Xk−1)

On en deduit de cette observation que

E(∆Mk(f) | FXk−1) = E(∆Mk(f) | Xk−1) = 0

On en conclut que

E(Mk(f) | FXk−1) =

k−1∑

l=1

∆Ml(f) + E(∆Mk(f) | FXk−1) = Mk−1(f)

2. Le compensateur de la martingale (Mk(f))0≤k≤n est donne par la formule

〈M(f)〉k = 〈M(f), M(f)〉k

=

k∑

l=1

[E(Ml(f)Ml(f) | FXl−1) − Ml−1(f)Ml−1(f)]

=

k∑

l=1

E([∆Ml(f)]2 | FXl−1) =

k∑

l=1

E([fl(Xl) − E[fl(Xl) | Xl−1)]2 | Xl−1)

Exercice 3.1.11 :

1. Les v.a. εk etant supposees centrees, nous avons

∀0 ≤ k ≤ n E(εk) = uk pk + vk (1 − pk) = 0

Autrement dit, les probabilites pk sont necessairement donnees par

∀0 ≤ k ≤ n pk = vk/[vk − uk]

On notera que

uk < 0 ≤ vk =⇒ −uk > 0 ≤ vk =⇒ pk = vk/[vk − uk] ∈ [0, 1)

Page 169: MASTER MASS 2 Univ. Nice Sophia Antipolis

5.1. CHAPITRE 1 167

2. Le processus defini par

∀0 ≤ k ≤ n Yk = ε0 + . . . + εk = Yk−1 + εk

est clairement a valeurs dans les espaces

EYk =

k∑

l=0

wl : wl ∈ ul, vl, 0 ≤ l ≤ k = EYk−1 + uk, vk

Pour verifier que ce dernier est une martingale par rapport a la filtration (Fk)0≤k≤n, ilsuffit de noter que l’on a

E(∆Yk | Fk−1) = E(εk | Fk−1) = E(εk) = 0

3. On remarque que l’on a

Yk = Yk−1+εk =⇒ P(Yk = yk−1+uk | Yk−1 = yk) = 1−P(Yk = yk−1+vk | Yk−1 = yk) = pk

Par consequent, Yk est un processus de Markov de loi initiale

η0(y0) = P(ε0 = y0) == p0 1u0(y0) + (1 − p0) 1v0(y0)

et de probabilites de transitions

Mk(yk−1, yk) = P(Yk = yk | Yk−1 = yk) = pk 1yk−1+uk(yk) + (1 − pk) 1yk−1+vk

(yk)

Exercice 3.1.12 :

1. Les v.a. εk etant supposees telles que E(εk) = 1, nous avons

∀0 ≤ k ≤ n E(εk) = uk pk + vk (1 − pk) = 1

Autrement dit, les probabilites pk sont necessairement donnees par

∀0 ≤ k ≤ n pk = (1 − vk)/[uk − vk]

On notera que cette condition exprime le fait que 1 est un barycentre des points uk, vk.Cette propriete de ne peut donc etre realisee que si les etats du systeme uk, vk sont telsque

uk < 1 ≤ vk ou vk < 1 ≤ uk

2. Le processus defini par

∀0 ≤ k ≤ n Yk = ε0 × . . . × εk = Yk−1 × εk

est clairement a valeurs dans les espaces

EYk =

k∏

l=0

wl : wl ∈ ul, vl, 0 ≤ l ≤ k

= EYk−1.uk, vk

Pour verifier que ce dernier est une martingale par rapport a la filtration (Fk)0≤k≤n, ilsuffit de noter que l’on a

E(∆Yk | Fk−1) = Yk−1 × E([εk − 1] | Fk−1) = Yk−1 × [E(εk) − 1] = 0

Page 170: MASTER MASS 2 Univ. Nice Sophia Antipolis

168 CHAPITRE 5. CORRIGES

3. On remarque que l’on a

Yk = Yk−1 × εk =⇒ P(Yk = yk−1uk | Yk−1 = yk) = 1 − P(Yk = yk−1vk | Yk−1 = yk) = pk

Par consequent, Yk est un processus de Markov de loi initiale

η0(y0) = P(ε0 = y0) == p0 1u0(y0) + (1 − p0) 1v0(y0)

et de probabilites de transitions

Mk(yk−1, yk) = P(Yk = yk | Yk−1 = yk) = pk 1yk−1uk(yk) + (1 − pk) 1yk−1vk

(yk)

Exercice 3.1.15 :

1. Cette question est une consequence immediate de la proposition 3.1.6

2. On observe que

Zl = Zl−1(1 + ∆Xl) ⇒ Z−1l−1E(Zl ∆Ml | Fl−1) = E((1 + ∆Xl) ∆Ml | Fl−1)

⇒ Z−1l−1E(Zl ∆Ml | Fl−1) = E(∆Xl ∆Ml | Fl−1) = ∆〈M, X〉l

Ainsi, d’apres le lemme de Girsanov, le processus aleatoire (M ′k)0≤k≤n defini par

M ′k = Mk −

k∑

l=0

E(∆Xl ∆Ml | Fl−1) = Mk − 〈M, X〉k

est une martingale sur (Ω, (Fk)0≤k≤n, P′).

Exercice 3.1.16 :

1. Par definition du processus exponentiel de (Xk)0≤k≤n, nous avons

Zk = Ek(X) =

k∏

l=0

(1 + ∆Xl) =

k∏

l=0

(1 + εl)

2. Le fait que (Yk)0≤k≤n est une martingale sur (Ω, (Fk)0≤k≤n, P) est immediat. On verifieque (Y ′

k)0≤k≤n est une martingale sur (Ω, (Fk)0≤k≤n, P′) en remarquant que

〈X, Y 〉k =k∑

l=0

E(∆Xl ∆Yl | Fl−1)

=

k∑

l=0

E(εl ε′l | Fl−1) =

k∑

l=0

E(εl ε′l)

En utilisant l’exercice 3.1.15, on en deduit que le processus

Y ′k = Yk − 〈X, Y 〉k = Yk −

k∑

l=0

E(εl ε′l)

est une martingale sur (Ω, (Fk)0≤k≤n, P′).

Exercice 3.2.1 : Les fonctions constantes T (ω) = k sont telles que

ω : T (ω) = k = Ω ∈ Fk

Page 171: MASTER MASS 2 Univ. Nice Sophia Antipolis

5.1. CHAPITRE 1 169

On en deduit que ces v.a. sont bien des temps d’arrets.

Exercice 3.2.2 : On a clairement

SA = k = X0 ∈ A, . . . , Xk−1 ∈ A, Xk ∈ E − A ∈ Fk

etTB = k = X0 ∈ E − B, . . . , Xk−1 ∈ E − B, Xk ∈ B ∈ Fk

On en deduit que ces couples de v.a. sont bien des temps d’arrets.

Exercice 3.2.3 : Supposons tout d’abord que (Mk)0≤k≤n est une sous martingale sur l’espaceprobabilise filtre (Ω, (Fk)leqk≤n , P)

∀1 ≤ k ≤ n E(Mk | Fk−1) ≥ Mk−1

Dans cette situation, en utilisant la decomposition

MTk = MT∧k

=

[k−1∑

l=0

Xl 1T=l

]

1T<k + Xk 1T≥k

= XT 1T<k + Xk 1T≥k

on obtient

E(MTk | Fk−1) = E(

[k−1∑

l=0

Ml 1T=l

]

1T<k + Mk 1T≥k | Fk−1)

=

[k−1∑

l=0

Ml 1T=l

]

1T<k + E(Mk | Fk−1) 1T≥k

≥ MT 1T<k + Mk−1 1T≥k

= MT 1T≤(k−1) + Mk−1 1T>(k−1) = MT∧(k−1) × [1T≤(k−1) + 1T>(k−1)]

On en conclut queE(MT

k | Fk−1) ≥ MT∧(k−1) = MTk−1

Par un raisonnement analogue, on montre que le processus arrete (MTk )0≤k≤n d’une sur-

martingale est a nouveau une sur-martingale.

Exercice 3.2.4 :

1. Cette strategie prend la forme suivante

Xk =

(1 + α) (X1 + X2 + . . . + Xk−1) si ε1 = . . . = εk−1 = −10 sinon

On peut aussi montrer que telle strategie est equivalente a miser, jusqu’a l’instant dugain, les sommes suivantes

Xk = (1 + α) (X1 + X2 + . . . + Xk−1)

= (1 + α) [(X1 + X2 + . . . + Xk−2)

+(1 + α) (X1 + X2 + . . . + Xk−2)]

= (1 + α) × (2 + α) (X1 + X2 + . . . + Xk−2)

= (1 + α) × (2 + α)

× [(X1 + X2 + . . . + Xk−3) + (1 + α)(X1 + X2 + . . . + Xk−3)]

= (1 + α) × (2 + α)2 (X1 + X2 + . . . + Xk−3)

. . .

= (1 + α) × (2 + α)k−2 (pour tout k ≥ 2)

Page 172: MASTER MASS 2 Univ. Nice Sophia Antipolis

170 CHAPITRE 5. CORRIGES

2. Nous avons pour tous les k ≥ 2

ZT 1T=k = 1T=k

[k−1∑

l=1

Xl εl + Xk εk

]

= 1T=k

[

−k−1∑

l=1

Xl + Xk

]

= 1T=k

[

αk−1∑

l=1

Xl

]

= α (2 + α)k−2 1T=k

3. L’analyse de ce modele est analogue a celle developpee dans le cours lorsque α = 1. On aainsi

E(ZT 1T<∞) =

n∑

l=1

E(ZT 1T=l)

= P(T = 1) +

n∑

l=2

α (2 + α)l−2P(T = l)

=1

2+

α

22

n−2∑

k=0

(

1 +α

2

)k

=1

2+

α

22

[(1 + α

2

)n−1 − 1]

α2

=1

2

(

1 +α

2

)n−1

Exercice 3.2.5 :

1. On a clairement

E(Zk(fn) | FYk−1) = E(E(fn(Yn) | FY

k ) | FYk−1) = E(fn(Yn) | FY

k−1)

= Zk−1(fn)

Par consequent, le processus (Zk(fn))0≤k≤n est une martingale par rapport a (FYk )0≤k≤n.

2. D’apres les formules de recurrence inverse, nous avons

Vn(yn) = fn(yn)

Vn−1(yn−1) = E(Vn(Yn) | Yn−1 = yn−1) = Mn(Vn)(yn−1)

Vn−2(yn−2) = E(Vn−1(Yn−1) | Yn−2 = yn−2) = E(Mn(Vn)(Yn−1) | Yn−2 = yn−2)

= Mn−1Mn(Vn)(yn−2)

. . . = . . .

Vk(yk) = E(Vk+1(Yk+1) | Yk = yk) = E(Mk+2 . . . Mn(Vn)(Yk+1) | Yk = yk)

= Mk+1Mk+2 . . . Mn(Vn)(yk)

On en conclut que

Vk = Mk+1Mk+2 . . . Mn(fn) et Vk(Yk) = Mk+1Mk+2 . . .Mn(fn)(Yk) = Zk(fn)

Exercice 3.2.6 :

1. Par definition des temps d’arret Tk, nous avons

∀k ≤ l < Tk Zk < Uk, Zk+1 < Uk+1, . . . , ZTk−1 < UTk−1 et ZTk< UTk

Autrement dit, on a

∀k ≤ l < Tk Zl < Ul et ZTk< UTk

Page 173: MASTER MASS 2 Univ. Nice Sophia Antipolis

5.2. CHAPITRE 2 171

2. On rappelle que l’enveloppe de Snell satisfait l’equation de recurrence inverse

∀0 ≤ l ≤ n Ul = Zl ∨ E(Ul+1 | Fl)

D’apres la question precedente, on a donc

∀k ≤ l < Tk Zl < Ul = Zl ∨ E(Ul+1 | Fl) =⇒ ∀k ≤ l < Tk Ul = E(Ul+1 | Fl)

Autrement dit, le processus arrete (UTk

l )l≥k est une martingale.

3. Les processus (UTk

l )l≥k etant des martingales, nous avons

∀k ≤ l ≤ l′ ≤ n E(UTk

l′ | Fl) = UTk

l

En posant l′ = n, on obtient

∀k ≤ l ≤ n E(UTkn | Fl) = E(UTk

| Fl) = E(ZTk| Fl) = UTk∧l = UTk

l

Exercice 3.2.7 :

1. On rappelle que l’enveloppe de Snell (Uk)0≤k≤n est determinee par les formules derecurrence inverse suivantes

Un = gn(Xn)

Uk = gk(Xk) ∨ E(Uk+1 | FXk ) = gk(Xk) ∨ E(Uk+1 | X0, . . . , Xk)

Ainsi, si on poseUk = Uk(Zk)

nous obtenons

Un = gn(Xn)

Uk = gk(Xk) ∨ E(Uk+1(Xk+1) | X0, . . . , Xk) = gk(Xk) ∨ E(Uk+1(Xk+1) | Xk)

La derniere assertion permet de s’assurer que l’enveloppe de Snell peut se mettre sousla forme Uk = Uk(Zk), avec la suite de fonctions (Uk)0≤k≤n sur les espaces (Ek)0≤k≤n

definies par les formules de recurrence inverse

Un = gn et ∀0 ≤ k < n Uk = gk ∨ Mk+1(Uk+1)

5.2 Chapitre 2

Exercice 4.1.1 : Les deux premieres questions sont immediates. Pour resoudre la derniere,on notera que

r =∆S1

1

S10

==1, 05− 1

1= 5%

Exercice 4.1.2 : Les deux premieres questions sont a nouveau immediates. Pour resoudre laderniere, on notera que

r =∆S1

1

S10

=1, 05− 1

1= 5%

' ∆S12

S11

=1, 10− 1, 05

1, 05=

0, 05

1, 05' 5%

Page 174: MASTER MASS 2 Univ. Nice Sophia Antipolis

172 CHAPITRE 5. CORRIGES

Il convient de souligner que les valeurs des actifs sont des valeurs arrondies. Pour un rendementfixe de 5%, la valeur “mathematique”exacte de S1

2 est donnee par

S12 = (1 + 0, 05)2 = 1, 1025 =⇒ ∆S1

2

S11

=1, 1025− 1, 05

1, 05=

0, 0525

1, 05= 5%

Exercice 4.1.3 :

1. Les prix initiaux etant fixes (S10 ; S2

0)(ω1) = (S10 ; S2

0)(ω2) = (1; 4), le cout d’acquisitiondu portefeuille initial d’un investisseur vendant a decouvert −Φ1

1 = 8 parts d’actifs sansrisque, pour acheter Φ2 = 2 parts d’actifs risque

Φ1 = (Φ11, Φ

21) = (−8 ; 2)

est donne par

V0(Φ) = Φ11 S1

0 + Φ21 S2

0 = −8 × 1 + 2 × 4 = 0

2. Apres evolution du cours des actifs, nous avons

V1(Φ)(ω1) = Φ11(ω

1) S11(ω1) + Φ2

1(ω1) S2

1(ω1)

= −8 × 1, 05 + 2 × 5 = 10− 8, 4 = 1, 6

et

V1(Φ)(ω2) = Φ11(ω

2) S11(ω2) + Φ2

1(ω2) S2

1(ω2)

= −8× 1, 05 + 2 × 10 = 20− 8, 4 = 11, 6

3. Pour gagner de l’argent a moindre frais, la strategie consiste a s’endetter de 4m partsd’actifs non risque (ou vendre a decouvert 4m part de ces actifs non risques), pour acheterm parts d’actif risque. Le cout initial d’une telle operation est nul

Φ1 = (−4m, m) ⇒ V0(Φ) = (−4m) × 1 + (m) × 4 = 0

Les valeurs possibles du portefeuille a l’instant suivant sont donnees par

V1(Φ)(ω1) = (−4m) × 1, 05 + (m) × 5 = 0, 8 m

V1(Φ)(ω2) = (−4m) × 1, 05 + (m) × 10 = 5, 8 m

Si l’on rembourse les (−4m) parts actifs sans risque, et l’on conserve les m parts d’actifsrisques, la valeur de notre portefeuille sera telle que

Φ2 = (−4m, m) ⇒ Φ12 × S1

1 + Φ12 × S2

1 = V1(Φ) ≥ 0, 8 m

Pour gagner 800 Euros a moindre frais, il suffit donc d’emprunter 4000 parts d’actifs nonrisque, pour acheter 1000 parts d’actifs risques. Le cout initial de cette operation sera nul,et apres l’annonce des prix S1 des actifs, notre gain prendra l’une des valeurs

V1(Φ)(ω1) = 800 ou V1(Φ)(ω2) = 5.800

Exercice 4.1.4 :

Page 175: MASTER MASS 2 Univ. Nice Sophia Antipolis

5.2. CHAPITRE 2 173

1. La strategie initiale d’un investisseur vendant a decouvert 2 parts d’actifs risques, pouracheter 8 parts d’actifs sans risque est represente par le vecteur

Φ1 = (Φ11, Φ

21) = (8 ; −2)

Le cout d’acquisition du portefeuille correspondant est nulle

V0(Φ) = Φ11 S1

0 + Φ21 S2

0 = 8 × 1 + (−2) × 4 = 0

2. Apres evolution du cours des actifs, nous avons

V1(Φ)(ω1) = Φ11(ω

1) S11(ω1) + Φ2

1(ω1) S2

1(ω1)

= 8 × 1, 05 + (−2) × 2 = 8, 4− 4 = 4, 4

et

V1(Φ)(ω2) = Φ11(ω

2) S11(ω2) + Φ2

1(ω2) S2

1(ω2)

= 8 × 1, 05 + (−2) × 3 = 8, 4− 6 = 2, 4

Lorsque l’on rembourse nos deux parts d’actifs risques, et l’on conserve nos huit partsd’actifs sans risques, nous utilisons la strategie de reamenageant

Φ2 = Φ1 = (8,−2) ⇒ Φ12 × S1

1 + Φ12 × S2

1 = V1(Φ) = Φ11 S1

1 + Φ21 S2

1

3. Pour gagner de l’argent a moindre frais, une strategie consiste a vendre a decouvert mparts d’actifs risques, pour acheter 4 m parts d’actif non risque. Le cout initial d’une telleoperation est nul

Φ1 = (4m,−m) ⇒ V0(Φ) = (4m) × 1 + (−m) × 4 = 0

Les valeurs possibles du portefeuille a l’instant suivant sont donnees par

V1(Φ)(ω1) = (4m) × 1, 05 + (−m) × 2 = 2, 2 m

V1(Φ)(ω2) = (4m) × 1, 05 + (−m) × 3 = 1, 2 m

Si l’on rembourse les (−m) parts actifs risques, et l’on conserve les (4m) parts d’actifsnon risques, la valeur de notre portefeuille sera telle que

Φ2 = (4m,−m) ⇒ Φ12 × S1

1 + Φ12 × S2

1 = V1(Φ) ≥ 1, 2 m

Pour gagner 1.200 Euros a moindre frais, il suffit donc de vendre a decouvert 1000 partsd’actifs risques, pour acheter 4000 parts d’actifs non risques. Le cout initial de cetteoperation sera nul, et apres l’annonce des prix S1 des actifs, notre gain prendra l’une desvaleurs

V1(Φ)(ω1) = 2.200 ou V1(Φ)(ω2) = 1.200

Exercice 4.1.5 :

1. La strategie initiale d’un investisseur vendant a decouvert 20 parts d’actifs risques, pouracheter 200 parts d’actifs sans risques est represente par le vecteur

Φ1 = (Φ11, Φ

21) = (200 ; −20)

Le cout d’acquisition du portefeuille correspondant est nulle

V0(Φ) = Φ11 S1

0 + Φ21 S2

0 = 200× 1 + (−20) × 10 = 0

Page 176: MASTER MASS 2 Univ. Nice Sophia Antipolis

174 CHAPITRE 5. CORRIGES

2. Apres evolution du cours des actifs, nous avons

V1(Φ)(ω1) = Φ11(ω

1) S11(ω1) + Φ2

1(ω1) S2

1(ω1)

= 200× 1, 05 + (−20) × 5 = 210− 100 = 110

et

V1(Φ)(ω2) = Φ11(ω

2) S11(ω2) + Φ2

1(ω2) S2

1(ω2)

= 200× 1, 05 + (−20) × 10 = 210− 100 = 10

Lorsque l’on rembourse nos deux vingt parts d’actifs risques, et l’on conserve nos deuxcents parts d’actifs sans risques, nous utilisons la strategie de reamenagenemt

Φ2 = Φ1 = (200 ; −20) ⇒ Φ12 × S1

1 + Φ12 × S2

1 = V1(Φ) = Φ11 S1

1 + Φ21 S2

1

3. Pour gagner de l’argent a moindre frais, une strategie consiste a vendre a decouvert mparts d’actifs risques, pour placer (10 m) Euros dans un un compte epargne a 5%. Le coutinitial d’une telle operation est nul

Φ1 = (10m ; −m) ⇒ V0(Φ) = (10m) × 1 + (−m) × 10 = 0

Les valeurs possibles du portefeuille a l’instant suivant sont donnees par

V1(Φ)(ω1) = (10m) × 1, 05 + (−m) × 5 = 5, 5 m

V1(Φ)(ω2) = (10m) × 1, 05 + (−m) × 10 = 0, 5 m

Si l’on rembourse les (−m) parts actifs risques, et l’on conserve les (10m) parts d’actifsnon risques, la valeur de notre portefeuille sera telle que

Φ2 = (10m ; −m) ⇒ Φ12 × S1

1 + Φ12 × S2

1 = V1(Φ) ≥ 0, 5 m

Pour gagner 100 Euros a moindre frais, il suffit donc de vendre a decouvert 200 partsd’actifs risques, pour placer 2000 Euros dans un compte epargne a 5%. Le cout initial decette operation sera nul, et apres l’annonce des prix S1 des actifs, notre gain prendra l’unedes valeurs

V1(Φ)(ω1) = 100 ou V1(Φ)(ω2) = 1.100

Exercice 4.1.6 : S’il existait une strategie d’arbitrage, on aurait initialement

V0(Φ) = Φ11 S1

0 + Φ21 S2

0 = Φ11 1 + Φ2

1 5 = 0 ⇒ Φ11 = −5× Φ2

1

Apres evolution du cours des actifs, nous aurions

V1(Φ)(ω1) = Φ11(ω

1) S11(ω1) + Φ2

1(ω1) S2

1(ω1)

= (−5Φ21) × 1, 05 + Φ2

1 × 10 = (10− 5, 25) Φ21 = 4, 75 Φ2

1

ou

V1(Φ)(ω2) = Φ11(ω

2) S11(ω2) + Φ2

1(ω2) S2

1(ω2)

= (−5Φ21) × 1, 05 + Φ2

1 × 5 = (−5, 25 + 5) Φ21 = −0, 25 Φ2

1

Par consequent, les valeurs possibles des portefeuilles V1(Φ)(ω1), et V1(Φ)(ω2) sont de signescontraires. On ne peut donc pas trouver de strategie d’arbitrage.

Exercice 4.1.7 :

Page 177: MASTER MASS 2 Univ. Nice Sophia Antipolis

5.2. CHAPITRE 2 175

1. La strategie initiale d’un investisseur vendant a decouvert 2/5 de part de titre risque, etachetant 4/1, 05 parts d’actifs sans risques, est donnee par le vecteur

Φ1 = (Φ11, Φ

21) =

(4

1, 05; −2

5

)

La valeur d’acquisition du portefeuille initial est donc donnee par

V0(Φ) = Φ11 S1

0 + Φ21 S2

0

=4

1, 05× 1 +

(

−2

5

)

× 5

=4

1, 05− 2 =

4 − 2, 1

1, 05=

1, 9

1, 05' 1, 81

2. Apres evolution des cours des actifs, les deux valeurs possibles de ce portefeuille sontdeterminees par

V1(Φ)(ω1) = Φ11(ω

1) S11(ω1) + Φ2

1(ω1) S2

1(ω1)

=4

1, 05× 1, 05 +

(

−2

5

)

× 5 = 4 − 2 = 2

et

V1(Φ)(ω2) = Φ11(ω

2) S11(ω2) + Φ2

1(ω2) S2

1(ω2)

=4

1, 05× 1, 05 +

(

−2

5

)

× 10 = 4 − 4 = 0

3. D’apres la question precedente, nous avons

∀ω ∈ Ω V1(Φ)(ω) ≥ f(ω)

On en conclut que ce portefeuille permet de couvrir l’option de vente associee a la fonctionde paiement f .

Exercice 4.1.8 :

1. La strategie initiale (−Φ1) d’un investisseur empruntant 4/1, 05 de part de titres sansrisques, et achetant 2/5 de part part d’actifs risques, est donnee par le vecteur

−Φ1 = (−Φ11,−Φ2

1) =

(

− 4

1, 05;

2

5

)

La valeur d’acquisition du portefeuille initial est donc donnee par

V0(−Φ) = −Φ11 S1

0 − Φ21 S2

0

= − 4

1, 05× 1 +

(2

5

)

× 5

= − 4

1, 05+ 2 = −4− 2, 1

1, 05= − 1, 9

1, 05' −1, 81

2. Apres evolution des cours des actifs, les deux valeurs possibles de ce portefeuille sontdeterminees par

V1(−Φ)(ω1) = −Φ11(ω

1) S11(ω1) − Φ2

1(ω1) S2

1(ω1)

= − 4

1, 05× 1, 05 +

2

5× 5 = −4 + 2 = −2

Page 178: MASTER MASS 2 Univ. Nice Sophia Antipolis

176 CHAPITRE 5. CORRIGES

et

V1(−Φ)(ω2) = −Φ11(ω

2) S11(ω2) − Φ2

1(ω2) S2

1(ω2)

= − 4

1, 05× 1, 05 +

2

5× 10 = −4 + 4 = 0

3. D’apres la question precedente, nous avons

∀ω ∈ Ω V1(−Φ)(ω) + f(ω) ≥ 0

On en conclut que le portefeuille −Φ1 permet a l’acheteur de l’option f de rembourser sadette initiale, s’elevant a −1, 81.

Exercice 4.1.9 :

1. Les amenagement Φ1 = (Φ11, Φ

21) de portefeuilles initiaux dont la valeur d’acquisition vaut

V0(Φ) = 1 sont donnees par

V0(Φ) = Φ11 S1

0 + Φ21 S2

0 = 1 ⇐⇒ Φ11 + 5 Φ2

1 = 1

2. Apres l’evolution des cours des actifs correspondant au premier jeu d’alea ω1, la valeurdu portefeuille est donnee par

V1(Φ)(ω1) = Φ11S

11(ω1) + Φ2

1 S21(ω1) = Φ1

1 × 1, 05 + Φ21 × 5

= (1 − 5 Φ21) × 1, 05 + Φ2

1 × 5 = 1, 05− 0, 25× Φ21

Pour couvrir l’option dans le premier jeu d’alea, nous devons avoir

V1(Φ)(ω1) = 1, 05− 0, 25× Φ21 ≥ 2 = f(ω1) ⇐⇒ Φ2

1 ≤ −95

25= −19

5

Autrement dit, nous devons vendre a decouvert au moins 19/5 de parts de titres risques.

Dans le second jeu d’alea, une telle strategie conduit a la valeur du portefeuille

V1(Φ)(ω2) = Φ11S

11(ω2) + Φ2

1 S21(ω2) = Φ1

1 × 1, 05 + Φ21 × 10

= (1 − 5 Φ21) × 1, 05 + Φ2

1 × 10 = 1, 05 + 4, 75× Φ21

≤ 1, 05− 4, 75× 19

5= 1, 05− 0, 95× 19 < 0

3. Nous avons montre que le vendeur ne pourra jamais honorer son engagement, et couvrirson option, s’il son prix de vente est 1. Autrement dit, nous avons

x ∈ [0, 1] : ∃(Φk)0≤k≤n t.q. V0(Φ) = x et Vn(Φ) ≥ f = ∅Par consequent, par definition de C?(f), nous avons

C?(f) = inf x ∈ (1,∞) : ∃(Φk)0≤k≤n t.q. V0(Φ) = x et Vn(Φ) ≥ f≥ 1

Exercice 4.2.1 :

1. Par definition du rendement instantane, on verifie aisement que

E(RS1

1 ) = E

(S1

1 − S10

S10

)

=(1 + r) − 1

1= r

et

E(RS2

1 ) = E

(S2

1 − S20

S20

)

=s1,1 − s0

s0p + (1 − p)

s1,2 − s0

s0

=s1,2 − s0

s0− p × s1,2 − s1,1

s0

Page 179: MASTER MASS 2 Univ. Nice Sophia Antipolis

5.2. CHAPITRE 2 177

2. Il suffit de noter que l’on a

E(RS2

1 ) > E(RS1

1 ) ⇐⇒ s1,2 − s0

s0− p × s1,2 − s1,1

s0> r

⇐⇒ p <s0

s1,2 − s1,1

(s1,2 − s0

s0− r

)

⇐⇒ p < p? =s1,2 − s0(1 + r)

(s1,2 − s1,1)

3. Lorsque P = P?, on a bien evidement

E(RS1

1 ) = r

De plus, un simple calcul montre que

E?(RS2

1 ) =s1,2 − s0

s0− s1,2 − s0(1 + r)

(s1,2 − s1,1)× (s1,2 − s1,1)

s0

=s1,2 − s0

s0− s1,2 − s0(1 + r)

s0= (1 + r) − 1 = r

Par consequent, sous P?, les rendement instantanes des titres risques et non risques

coıncident.

Exercice 4.2.2 :

1. Les valeurs des portefeuilles associees a une strategie de reamenagement

Φ1 = (Φ11, Φ

21)

sont donnees par les formules suivantes

V0(Φ) = Φ11 S1

0 + Φ21 S2

0 = Φ11 + Φ2

1 s0

V1(Φ) = Φ11 S1

1 + Φ21 S2

1 = Φ11 (1 + r) + Φ2

1 S21

Leurs valeurs reactualisees sont definies par la formule

V 0(Φ) =V0(Φ)

(1 + r)0= V0(Φ) et V 1(Φ) =

V1(Φ)

(1 + r)1=

V1(Φ)

(1 + r)

s’expriment en terme des actifs reactualises

S1

0 =S1

0

(1 + r)0= S1

0 = 1 , S2

0 =S2

0

(1 + r)0= S2

0 = s0

et

S1

1 =Si

1

(1 + r)1=

(1 + r)

(1 + r)= 1 , S

2

1 =Si

2

(1 + r)1

selon les formules

V 0(Φ) = V0(Φ) = Φ11 + Φ2

1 S2

0 = Φ11 + Φ2

1 s0

V 1(Φ) = Φ11 + Φ2

1 S2

1

2. D’apres la question precedente, on obtient

Φ11 = V 0(Φ) − Φ2

1 S2

0

Pour conclure, on note simplement que l’on a

V 1(Φ) = Φ11 + Φ2

1 S2

1 = V 0(Φ) + Φ21 [S

2

1 − S2

0]

Page 180: MASTER MASS 2 Univ. Nice Sophia Antipolis

178 CHAPITRE 5. CORRIGES

3. D’apres la formule precedente, nous avons

E?(V 1(Φ) | F0

)= V 0(Φ) + Φ2

1 [E?(

S2

1 | F0

)

− S2

0]

= V 0(Φ) + Φ21 × 0 = V 0(Φ)

Exercice 4.2.3 : Nous avons

V 0(Φ) = V0(Φ) = Φ10 S1

0 + Φ20 S2

0 = Φ11 S1

0 + Φ21 S2

0 (par autofinancement)

= Φ11 + Φ2

1 S2

0

V 1(Φ) =V1(Φ)

(1 + r)= Φ1

1

S11

1 + r+ Φ2

1

S21

1 + r= Φ1

1

(1 + r) × 1

(1 + r)+ Φ2

1

S21

(1 + r)

= Φ11 + Φ2

1 S2

1

On en conclut que

V 0(Φ) = Φ11 + Φ2

1 S2

0 et V 1(Φ) = Φ11 + Φ2

1 S2

1

On en deduit que

∆V 1(Φ) = [V 1(Φ) − V 0(Φ)] = Φ21 × ∆S

2

1 et Φ11 = V 0(Φ) − Φ2

1 S2

0

Exercice 4.2.4 :

1. Le tableau des epreuves correspondant au marche reactualise (S1

k, S2

k)k=0,1 est donne par

Ω S0 = (S1

0, S2

0) S1 = (S1

1, S2

1)ω1 (1; s0) (1; s1,1)ω2 (1; s0) (1; s1,2)

avec s0 = s0/(1 + r)0 = s0, s1,1 = s1,1/(1 + r)1, et s1,2 = s1,2/(1 + r)1.

2. Les strategie d’amenagement Φ1 = (φ1, φ2) sans investissement initial sont definies par lapropriete suivante :

V 0(Φ) = φ1 S1

0 + φ2 S2

0 = φ1 + φ2 s0 = 0 ⇐⇒ φ1 = −φ2 s0

Par consequent, les valeurs reactualisees d’un portefeuille associe a de telles strategiessont donnees par

V 1(Φ) = φ1 S1

1 + φ2 S2

1 = φ1 + φ2 S2

1 = φ2 [S2

1 − s0]

On a donc

V 1(Φ)(ω1) = φ2 [s1,1 − s0] et V 1(Φ)(ω2) = φ2 [s1,2 − s0]

3. D’apres la question precedente, on peut enrichir de facon certaine son son portefeuille

∆V 1(Φ) = [V 1(Φ) − 0] = V 1(Φ) = φ2 [S2

1 − s0]

sans apport initial, si, et seulement si, les quantites φ2 et [S2

1 − s0] ont toujours le memesigne. Ces possibilites sont discutees dans les cas suivants :– s0 < s1,1 < s1,2 ou s0 < s1,2 < s1,1 :

Dans ces deux situations, nous avons [s1,1 − s0] > 0, et [s1,2 − s0] > 0. L’arbitrage estclair, il suffit de vendre a decouvert φ1 = −φ2 s0 parts de titre non risque, pour acheterφ2 parts de titre risque

φ1 = −φ2 s0 =⇒ V 0(Φ) = 0 et V 1(Φ) = φ2 [S2

1 − s0] > 0

Page 181: MASTER MASS 2 Univ. Nice Sophia Antipolis

5.2. CHAPITRE 2 179

– s1,1 < s1,2 < s0 ou s1,2 < s1,1 < s0 :Dans ce cette situation, nous avons [s1,1 − s0] < 0, et [s1,2 − s0] < 0. L’arbitrageest clair, il suffit de vendre a decouvert −φ2(> 0) parts de titre risque, pour acheterφ1 = −φ2 s0(> 0) parts de titre non risque

φ1 = −φ2 s0 =⇒ V 0(Φ) = 0 et V 1(Φ) = φ2 [S2

1 − s0] > 0

– s1,1 < s0 < s1,2 ou s1,2 < s0 < s1,1 :Dans ce cette situation, les quantites [s1,1 − s0], et [s1,2 − s0], sont de signes opposes,et l’on ne peut arbitrer sans prendre de risque.

4. Dans toutes les cas de marches financiers, nous avons s0 = s0 = 5. D’apres les questionsprecedentes, nous avons

1)

s1,1 = 6 < s0 = 5 < s1,2 = 4 ⇒ marche viable

2)

s0 = 5 < s1,1 = 6 < s1,2 = 7 ⇒ ∃arbitrage

3)

s1,2 = 1 < s0 = 5 < s1,1 = 10 ⇒ marche viable

4)

s1,2 = 2 < s1,1 = 3 < s0 = 5 ⇒ ∃arbitrage

5)

s0 = 5 ≤ s1,1 = 5 < s1,2 = 6 ⇒ ∃arbitrage

6)

s1,2 = 4 < s0 = 5 ≤ s1,1 = 5 ⇒ marche viable

7)

s1,1 = 3 < s0 = 5 ≤ s1,2 = 10 ⇒ marche viable

8)

s0 = 5 ≤ s1,1 = 8 < s1,2 = 9 ⇒ ∃arbitrage

9)

s1,1 = 2 < s0 = 5 ≤ s1,2 = 10 ⇒ marche viable

Exercice 4.2.5 :

1. Les portefeuilles de couverture (φ1, φ2) doivent necessairement satisfaire la conditionsuivante

V 1(Φ) = φ1 + φ2 S2

1 ≥ f

⇐⇒(φ1 + φ2 s1,1 ≥ f1 et φ1 + φ2 s1,2 ≥ f2

)⇐⇒ φ2 ≥ max

f1 − φ1

s1,1;

f2 − φ1

s1,2

Par consequent, le cout minimal d’acquisition du portefeuille initial est tel que

V 0(Φ) = V0(Φ) = φ1 + φ2 s0

≥ maxi=1,2

φ1 +s0

s1,i[f i − φ1]

= maxi=1,2

s0

s1,if i + φ1

(

1 − s0

s1,i

)

2. D’apres nos hypotheses, nous avons

s1,1 < s0 < s1,2

Ainsi, la droite

φ1 −→ s0

s1,1f1 + φ1

(

1 − s0

s1,1

)

︸ ︷︷ ︸

negatif

Page 182: MASTER MASS 2 Univ. Nice Sophia Antipolis

180 CHAPITRE 5. CORRIGES

est decroissante, et la droite

φ1 −→ s0

s1,2f2 + φ1

(

1 − s0

s1,2

)

︸ ︷︷ ︸

positif

croissante. Ces deux droites s’intersectent en un point φ1, ? determine par la formule

s0

s1,1f1 + φ1, ?

(

1 − s0

s1,1

)

=s0

s1,2f2 + φ1, ?

(

1 − s0

s1,2

)

Autrement dit, nous avons

φ1, ? =

(s0

s1,2− s0

s1,1

)−1 [s0

s1,2f2 −

s0

s1,1f1

]

=

(1

s1,2− 1

s1,1

)−1 [1

s1,2f2 −

1

s1,1f1

]

=s1,2s1,1

s1,1 − s1,2× f2s1,1 − f1s1,2

s1,2s1,1

On obtient finalement

φ1, ? =f2s1,1 − f1s1,2

s1,1 − s1,2

Il nous reste a verifier que la strategie de couverture proposee

φ2, ? =(f1 − φ1, ?

)/s1,1

permet de realiser l’option f . Pour cela, on note que

φ1, ? + φ2, ?s1,1 = φ1, ? +(f1 − φ1, ?

)= f1

et

φ1, ? + φ2, ?s1,2 = φ1, ? +(f1 − φ1, ?

) s1,2

s1,1= φ1, ?

(

1 − s1,2

s1,1

)

+ f1 ×s1,2

s1,1

=f2s1,1 − f1s1,2

s1,1 − s1,2×(

1 − s1,2

s1,1

)

+ f1 ×s1,2

s1,1= f2

3. D’apres la propriete d’autofinancement, le cout initial V 0(Φ) du portefeuille permettantde couvrir l’option est donne par

V 0(Φ) = φ1, ? + φ2, ?s0

On obtient ainsi la formule

V 0(Φ) =f2s1,1 − f1s1,2

s1,1 − s1,2+

(

f1 −f2s1,1 − f1s1,2

s1,1 − s1,2

)s0

s1,1

=f2s1,1 − f1s1,2

s1,1 − s1,2+

(f1s1,1 − f2s1,1

s1,1 − s1,2

)s0

s1,1

=f2s1,1 − f1s1,2

s1,1 − s1,2+

(f1 − f2

s1,1 − s1,2

)

s0

= f1

(s1,2 − s0

s1,2 − s1,1

)

+ f2

(

1 − s1,2 − s0

s1,2 − s1,1

)

Page 183: MASTER MASS 2 Univ. Nice Sophia Antipolis

5.2. CHAPITRE 2 181

Exercice 4.2.6 :On rapelle que les prix C(f), et les strategies de couverture (φ1, ?, φ2, ?) sont donnees par

C(f) = f1

(s1,2 − s0

s1,2 − s1,1

)

+ f2

(

1 − s1,2 − s0

s1,2 − s1,1

)

et

φ1, ? =f1s1,2 − f2s1,1

s1,2 − s1,1

φ2, ? =(f1 − φ1, ?

)/s1,1 =

1

s1,1

(

f1 −f2s1,1 − f1s1,2

s1,1 − s1,2

)

=f2 − f1

s1,2 − s1,1

Leurs valeurs dans les differents modeles de marches proposes sont donnees ci-dessous.

1) Ω S0 = (S1

0, S2

0) S1 = (S1

1, S2

1) f C(f) (φ1, ?, φ2, ?)

ω1 (1; 5) (1; 3) f1

ω2 (1; 5) (1; 6) f213f1 + 2

3f2

(6f1−3f2

3 , f2−f1

3

)

2) Ω S0 = (S1

0, S2

0) S1 = (S1

1, S2

1) f C(f) (φ1, ?, φ2, ?)

ω1 (1; 5) (1; 1) f1

ω2 (1; 5) (1; 10) f259f1 + 4

9f2

(10f1−f2

9 , f2−f1

9

)

3) Ω S0 = (S1

0, S2

0) S1 = (S1

1, S2

1) f C(f) (φ1, ?, φ2, ?)

ω1 (1; 5) (1; 2) f1

ω2 (1; 5) (1; 7) f225f1 + 3

5f2

(7f1−2f2

5 , f2−f1

5

)

4) Ω S0 = (S1

0, S2

0) S1 = (S1

1, S2

1) f C(f) (φ1, ?, φ2, ?)

ω1 (1; 5) (1; 3) f1

ω2 (1; 5) (1; 50) f24547f1 + 2

47f2

(50f1−3f2

47 , f2−f1

47

)

5) Ω S0 = (S1

0, S2

0) S1 = (S1

1, S2

1) f C(f) (φ1, ?, φ2, ?)

ω1 (1; 5) (1; 1) f1

ω2 (1; 5) (1; 20) f21519f1 + 4

19f2

(20f1−f2

19 , f2−f1

19

)

6) Ω S0 = (S1

0, S2

0) S1 = (S1

1, S2

1) f C(f) (φ1, ?, φ2, ?)

ω1 (1; 5) (1; 2) f1

ω2 (1; 5) (1; 7) f225f1 + 3

5f2

(7f1−2f2

5 , f2−f1

5

)

7) Ω S0 = (S1

0, S2

0) S1 = (S1

1, S2

1) f C(f) (φ1, ?, φ2, ?)

ω1 (1; 5) (1; 3) f1

ω2 (1; 5) (1; 50) f24547f1 + 2

47f2

(50f1−3f2

47 ,f2−f1

47

)

8) Ω S0 = (S1

0, S2

0) S1 = (S1

1, S2

1) f C(f) (φ1, ?, φ2, ?)

ω1 (1; 5) (1; 4) f1

ω2 (1; 5) (1; 100) f29596f1 + 1

96f2

(100f1−4f2

96 ,f2−f1

96

)

9) Ω S0 = (S1

0, S2

0) S1 = (S1

1, S2

1) f C(f) (φ1, ?, φ2, ?)

ω1 (1; 5) (1; 2) f1

ω2 (1; 5) (1; 1000) f2995998f1 + 3

998f2

(1000f1−2f2

998 ,f2−f1

998

)

Exercice 4.2.7 :

Page 184: MASTER MASS 2 Univ. Nice Sophia Antipolis

182 CHAPITRE 5. CORRIGES

1. L’unique probabilite P? sur Ω = ω1, ω2 telle que E

?(S2

1 | S2

0) = S2

0, est donnee par laformule suivante

E?(S

2

1 | S2

0 = s0) = s1,1 P?(ω1) + s1,2 (1 − P

?(ω1)) = s0

Autrement dit, nous avons

P?(ω1) = 1 − P

?(ω2) =s1,2 − s0

s1,2 − s1,1

2. Pour tout portefeuille autofinance (et previsible), nous avons

E?(V 1(Φ) | S

2

0) = V 0(Φ) + Φ21 E

?(∆S2

1 | S2

0) = V 0(Φ)

3. Sous P?, d’une fonction de paiement reactualisee f , est donnee par

E?(f) =

s1,2 − s0

s1,2 − s1,1f1 +

(

1 − s1,2 − s0

s1,2 − s1,1

)

f2

avec f(ωi) = f i, pour chaque i = 1, 2.

4. En utilisant la formule du delta de couverture,

φ1 + φ2s1,1 = f1

φ1 + φ2s1,2 = f2

on obtient la strategie de couverture Φ? = (φ1, ?, φ2, ?) de l’option f ,

φ1, ? =

(1

s1,1− 1

s1,2

)−1(f1

s1,1− f2

s1,2

)

=s1,2f1 − s1,1f2

s1,2 − s1,1et φ2, ? =

f2 − f1

s1,2 − s1,1

Le cout initial du portefeuille de couverture est donne par

V 0(Φ?) = E

?(f)

Par definition de C?(f) et C?(f)

C?(f) = infx ∈ R+ : ∃Φ = (Φk)k=0,1 t.q. V0(Φ) = x et V 1(Φ) ≥ f

C?(f) = supx ∈ [0,∞) : ∃(Φk)k=0,1 t.q. V0(Φ) = x et V 1(Φ) ≤ f

nous avons,

∀Φ : V 1(Φ) ≥ f =⇒ E?(V 1(Φ)) ≥ E

?(f) = V 0(Φ?)

et

∀Φ : V 1(Φ) ≤ f =⇒ E?(V 1(Φ)) ≤ E

?(f) = V 0(Φ?)

Par consequent, on obtient l’encadrement suivant

C?(f) ≤ V 0(Φ?) = E

?(f) ≤ C?(f)

Comme la strategie de couverture Φ? appartient aux deux ensembles decrits ci-dessus, ona aussi

C?(f) ≤ V 0(Φ?) ≤ C?(f)

On en conclut que

V 0(Φ?) = E

?(f) = C(f) = C?(f) = C?(f)

Page 185: MASTER MASS 2 Univ. Nice Sophia Antipolis

5.2. CHAPITRE 2 183

Exercice 4.2.8 : Les prix, et les strategies de couverture des options de vente sont donnesci-dessous :

1) Ω S0 = (S1

0, S2

0) S1 = (S1

1, S2

1) f = (10 − S2

1)+ C(f) (φ1, ?, φ2, ?)

ω1 (1; 5) (1; 3) 7 13f1 + 2

3f2

(6f1−3f2

3 ,f2−f1

3

)

ω2 (1; 5) (1; 6) 4 = 73 + 8

3 = 5 =(

303 , −3

3

)= (10;−1)

2) Ω S0 = (S1

0, S2

0) S1 = (S1

1, S2

1) f = (8 − S2

1)+ C(f) (φ1, ?, φ2, ?)

ω1 (1; 5) (1; 1) 7 59f1 + 4

9f1

(10f1−f2

9 , f2−f1

9

)

ω2 (1; 5) (1; 10) 0 = 359 =

(709 , −7

9

)

3) Ω S0 = (S1

0, S2

0) S1 = (S1

1, S2

1) f = (8 − S2

1)+ C(f) (φ1, ?, φ2, ?)

ω1 (1; 5) (1; 2) 6 25f1 + 3

5f2

(7f1−2f2

5 , f2−f1

5

)

ω2 (1; 5) (1; 7) 1 = 155 = 3 =

(405 , −5

5

)= (8;−1)

4) Ω S0 = (S1

0, S2

0) S1 = (S1

1, S2

1) f = (10− S2

1)+ C(f) (φ1, ?, φ2, ?)

ω1 (1; 5) (1; 3) 7 4547f1 + 2

47f2

(50f1−3f2

47 ,f2−f1

47

)

ω2 (1; 5) (1; 50) 0 = 31547 =

(35047 , −7

47

)

5) Ω S0 = (S1

0, S2

0) S1 = (S1

1, S2

1) f = (100− S2

1)+ C(f) (φ1, ?, φ2, ?)

ω1 (1; 5) (1; 1) 99 1519f1 + 4

19f2

(20f1−f2

19 , f2−f1

19

)

ω2 (1; 5) (1; 20) 80 180519 = (100;−1)

6) Ω S0 = (S1

0, S2

0) S1 = (S1

1, S2

1) f = (6 − S2

1)+ C(f) (φ1, ?, φ2, ?)

ω1 (1; 5) (1; 2) 4 25f1 + 3

5f2

(7f1−2f2

5 , f2−f1

5

)

ω2 (1; 5) (1; 7) 0 = 85 =

(285 , −4

5

)

7) Ω S0 = (S1

0, S2

0) S1 = (S1

1, S2

1) f = (6 − S2

1)+ C(f) (φ1, ?, φ2, ?)

ω1 (1; 5) (1; 3) 3 4547f1 + 2

47f2

(50f1−3f2

47 , f2−f1

47

)

ω2 (1; 5) (1; 50) 0 = 13547

(15047 , −3

47

)

Exercice 4.3.1 : Lorsque C = C?(f), l’emetteur de l’option pourra honorer son contrat enutilisant le portefeuille de couverture calcule dans la section 4.3.4.

Si l’emetteur d’une option f offre un prix

C > C?(f)

il aura ainsi l’opportunite de gagner (C − C?(f)) Euros. Pour cela, il lui suffira simplementd’utiliser la strategie de couverture definie ci-dessus pour honorer son contrat ; puis il empochera,sans trop effort, la somme residuelle !

Inversement, si l’emetteur de l’option f offre un prix

C < C?(f) = V 0(Φ)

il s’expose a une perte certaine de (C?(f) − C) Euros (on rappelle que C?(f) correspond a laplus petite valeur d’acquisition permettant de couvrir l’option).

Exercice 4.3.2 :

Page 186: MASTER MASS 2 Univ. Nice Sophia Antipolis

184 CHAPITRE 5. CORRIGES

1. La probabilite a risque neutre P? est donnee par les formules suivantes

P?(S

2

1 = s1,1|S2

0 = s0) = 1− P?(S

2

1 = s1,2|S2

0 = s0)

=s1,2 − s0

s1,2 − s1,1=

6− 5

6− 3=

1

3

P?(S

2

2 = s2,1|S2

1 = s1,1) = 1− P?(S

2

2 = s2,2|S2

1 = s1,1)

=s2,2 − s1,1

s2,2 − s2,1=

7− 3

7− 2=

4

5

P?(S

2

2 = s2,3|S2

1 = s1,2) = 1− P?(S

2

2 = s2,4|S2

1 = s1,2)

=s2,4 − s1,2

s2,4 − s2,3=

10− 6

10− 4=

2

3

Ces probabilites de transitions sont resumees dans le diagramme suivant

((1+r),s_1,1)

(1,s_0)

((1+r),s_1,2)

((1+r)^2,s_2,1)

((1+r)^2,s_2,2)

((1+r)^2,s_2,3)

((1+r_^2,s_2,4)

1/3

2/3

4/5

1/5

2/3

1/3

Fig. 5.8 – Transitions neutres

On en conclut que

P?(ω1) = P

?(S2

2 = s2,1, S2

1 = s1,1|S2

0 = s0)

= P?(S

2

2 = s2,1|S2

1 = s1,1) × P?(S

2

1 = s1,1|S2

0 = s0) =1

3× 4

5

P?(ω2) = P

?(S2

2 = s2,2, S2

1 = s1,1|S2

0 = s0)

= P?(S

2

2 = s2,2|S2

1 = s1,1) × P?(S

2

1 = s1,1|S2

0 = s0) =1

3× 1

5

P?(ω3) = P

?(S2

2 = s2,3, S2

1 = s1,2|S2

0 = s0)

= P?(S

2

2 = s2,3|S2

1 = s1,2) × P?(S

2

1 = s1,2|S2

0 = s0) =2

3× 2

3

P?(ω4) = P

?(S2

2 = s2,4, S2

1 = s1,2|S2

0 = s0)

= P?(S

2

2 = s2,4|S2

1 = s1,2) × P?(S

2

1 = s1,2|S2

0 = s0) =2

3× 1

3

2. La couverture de l’option f revient a trouver une strategie (Φ21, Φ

22) previsible, et une

condition initiale V 0(Φ), pour lesquelles le portefeuille reactualise

V k(Φ) = V 0(Φ) +

k∑

l=1

Φ2l ∆S

2

l

Page 187: MASTER MASS 2 Univ. Nice Sophia Antipolis

5.2. CHAPITRE 2 185

atteint a l’echeance k = 2 cette valeur

V 2(Φ) = V 0(Φ) +

2∑

k=1

Φ2k ∆S

2

k = g(S2

2)

Sous la probabilite a risque neutre, le cout initial du portefeuille de couverture est donnepar l’une des formules suivantes :

V 0(Φ) = g0(s0)

= g1(s1,1) P?(ω1, ω2) + g1(s1,2) P

?(ω3, ω4)

=

4∑

i=1

g(s2,i)P?(ωi)

ou (gk)k=0,1,2 designent les fonctions definies par les equations de recurrence inverse

g2(S2

2) = g(S2

2)

g1(S2

1) = E?(g2(S

2

2) | S2

1)(

= E?(g(S

2

2) | S2

1))

g0(S2

0) = E?(g1(S

2

1) | S2

0)(

= E?(g(S

2

2) | S2

0)) = E?(g(S

2

2)))

Ces formules de recurrence inverse sont synthetisees dans le schema suivant :

1/3

2/3

w^1,w^2,w^3,w^4Ω=

=

w^1

w^2

w^3

w^4overlinef_4

overlinef_3

overlinef_2

overlinef_1

2/3

1/3

1/5

4/5

g_1(overlines_1,1)

4/5 overlinef_1 + 1/5 overlinef_2

g_1(overlines_1,2)

= 2/3 overlinef_3 1/3 overlinef_4+

g_0(s_0)

g_0(s_0)= 1/3 g_1(overlines_1,1) 2/3 g_1(overlines_1,2)+

= 1/3 4/5 overlinef_1 1/3 1/5 overlinef_2 2/3 2/3 overlinef_3 2/3 1/3 overlinef_4+ + +

Fig. 5.9 –

Le portefeuille de couverture est aussi donne par

Φ21 =

g1(s1,2) − g1(s1,1)

s1,2 − s1,1

=

(23f3 + 1

3f4

)−(

45f1 + 1

5f2

)

6 − 3=

1

3

[2f3 + f4

3− 4f1 + f2

5

]

Page 188: MASTER MASS 2 Univ. Nice Sophia Antipolis

186 CHAPITRE 5. CORRIGES

et

Φ22 =

g2(b2) − g2(a2)

b2 − a2=

g(s2,2)−g(s2,1)s2,2−s2,1

= f2−f1

7−2 = f2−f1

5 si S2

1 = 3 (= s1,1)g(s2,4)−g(s2,3)

s2,4−s2,3= f4−f3

10−4 = f4−f3

6 si S2

1 = 6 (= s1,2)

D’apres les proprietes d’autofinancement, les amenagements des actifs non risques (Φ11, Φ

12)

sont donnes par les formules

Φ11 = V 0(Φ) − Φ2

1 S2

0 = g0(s0) − Φ21 s0

Φ12 = V 1(Φ) − Φ2

2 S2

1 = g0(s0) + Φ21 [S

2

1 − S2

0] − Φ22 S

2

1

3. Nous avons

V 2(Φ) = V 0(Φ) + Φ21 ∆S

2

1 + Φ22 ∆S

2

2

= g0(s0) +g1(s1,2) − g1(s1,1)

s1,2 − s1,1[S

2

1 − s0] +g2(b2) − g2(a2)

b2 − a2[S

2

2 − S2

1]

En decomposant cette expression sur les evenements S2

1 = 3, et S2

1 = 6, on obtient

V 2(Φ) =

(4

15f1 +

1

15f2 +

4

9f3 +

2

9f4

)

+1

3

[2f3 + f4

3− 4f1 + f2

5

] (

[3 − 5] 1S

21=3

+ [6 − 5] 1S

21=6

)

+f2 − f1

51

S21=3

[S2

2 − 3] +f4 − f3

61

S21=6

[S2

2 − 6]

Par consequent, nous avons

V 2(Φ)(ω1) =

(4

15f1 +

1

15f2 +

4

9f3 +

2

9f4

)

− 2

3

[2f3 + f4

3− 4f1 + f2

5

]

+f2 − f1

5[2 − 3]

=

(4

15f1 +

1

15f2 +

4

9f3 +

2

9f4

)

− 2

3

[2f3 + f4

3− 4f1 + f2

5

]

− f2 − f1

5

= f1

(4

15+

8

15+

3

15

)

+ f2

(1

15+

2

15− 3

15

)

+ f3

(4

9− 4

9

)

+f4

(2

9− 2

9

)

= f1

De meme, on obtient

V 2(Φ)(ω2) =

(4

15f1 +

1

15f2 +

4

9f3 +

2

9f4

)

− 2

3

[2f3 + f4

3− 4f1 + f2

5

]

+f2 − f1

5[7 − 3]

= f1

(4

15+

8

15− 12

15

)

+ f2

(1

15+

2

15+

12

15

)

+ f3

(4

9− 4

9

)

+f4

(2

9− 2

9

)

= f2

Page 189: MASTER MASS 2 Univ. Nice Sophia Antipolis

5.2. CHAPITRE 2 187

et

V 2(Φ)(ω3) =

(4

15f1 +

1

15f2 +

4

9f3 +

2

9f4

)

+1

3

[2f3 + f4

3− 4f1 + f2

5

]

+f4 − f3

6[4 − 6]

=

(4

15f1 +

1

15f2 +

4

9f3 +

2

9f4

)

+1

3

[2f3 + f4

3− 4f1 + f2

5

]

− f4 − f3

3

= f1

(4

15− 4

15

)

+ f2

(1

15− 1

15

)

+ f3

(4

9+

2

9+

3

9

)

+f4

(2

9+

1

9− 3

9

)

= f3

et enfin

V 2(Φ)(ω4) =

(4

15f1 +

1

15f2 +

4

9f3 +

2

9f4

)

+1

3

[2f3 + f4

3− 4f1 + f2

5

]

+f4 − f3

6[10− 6]

=

(4

15f1 +

1

15f2 +

4

9f3 +

2

9f4

)

+1

3

[2f3 + f4

3− 4f1 + f2

5

]

+2

3

(f4 − f3

)

= f1

(4

15− 4

15

)

+ f2

(1

15− 1

15

)

+ f3

(4

9+

2

9− 6

9

)

+f4

(2

9+

1

9+

6

9

)

= f4

Exercice 4.3.3 : Nous avons, dans chaque jeu d’aleas :

f1 = f(ω1) =(

S2

2 − 9)

+= (2 − 9)+ = 0

f2 = f(ω2) =(

S2

2 − 9)

+= (7 − 9)+ = 0

f3 = f(ω3) =(

S2

2 − 9)

+= (4 − 9)+ = 0

f4 = f(ω4) =(

S2

2 − 9)

+= (10− 9)+ = 1

En reprenant les formules obtenues dans l’exercice 4.3.2, on obtient le prix de l’option

V 0(Φ) = g0(s0) =

(4

15f1 +

1

15f2 +

4

9f3 +

2

9f4

)

=2

9= 4, 5

et le portefeuille de couverture

Φ21 =

1

3

[2f3 + f4

3− 4f1 + f2

5

]

=1

9et Φ2

2 =1

61

S21=6

Les amenagements des actifs non risques (Φ11, Φ

12) sont donnes par les formules

Φ11 = V 0(Φ) − Φ2

1 S2

0 =2

9− 5

9= −1

3

Φ12 = V 1(Φ) − Φ2

2 S2

1 =2

9+

1

9[S

2

1 − 5] − 1S

21=6

= −1

3+

S2

1

9− 1

S21=6

Page 190: MASTER MASS 2 Univ. Nice Sophia Antipolis

188 CHAPITRE 5. CORRIGES

Exercice 4.3.3 : Nous avons, dans chaque jeu d’aleas :

f1 = f(ω1) =(

7 − S2

2

)

+= (7 − 2)+ = 5

f2 = f(ω2) =(

7 − S2

2

)

+= (7 − 7)+ = 0

f3 = f(ω3) =(

7 − S2

2

)

+= (7 − 4)+ = 3

f4 = f(ω4) =(

7 − S2

2

)

+= (7 − 10)+ = 0

En reprenant les formules obtenues dans l’exercice 4.3.2, on obtient le prix de l’option

V 0(Φ) = g0(s0) =

(4

15f1 +

1

15f2 +

4

9f3 +

2

9f4

)

=4

15× 5 +

4

9× 3 =

8

3

et le portefeuille de couverture

Φ21 =

1

3

[2f3 + f4

3− 4f1 + f2

5

]

=1

3[2 − 4] = −2

3

et

Φ22 = −1

S21=3

− 1

21

S21=6

Les amenagements des actifs non risques (Φ11, Φ

12) sont donnes par les formules

Φ11 = V 0(Φ) − Φ2

1 S2

0 =8

3+

10

3= 6

Φ12 = V 1(Φ) − Φ2

2 S2

1 =8

3− 2

3(S

2

1 − 5) +

(

1S

21=3

+1

21

S21=6

)

S2

1

= 6 − 2

3S

2

1 + 3(

2 × 1S

21=3

+ 1S

21=6

)

= 6 + 4 × 1S

21=3

− 1S

21=6

= 10 × 1S

21=3

− 5 × 1S

21=6

Exercice 4.4.1 : Lorsque les actifs non risques sont plus rentables que les actif risques, il fautvendre a decouvert le maximum d’actif risques, disons m, et placer par exemple cette argent(m S2

0) dans un compte epargne bancaire au taux r. Plus formellement, on amenage notreportefeuille initial en posant

Φ1 = (Φ11, Φ

21) = (mS2

0 ,−m)

La valeur d’acquisition du portefeuille initial est tout simplement nulle

V0(Φ) = (m S20) × 1 − m × S2

0 = 0

Sans re-amenager notre portefeuille, on attend patiemment jusqu’a la date n

∀1 ≤ k < n Φk = Φ1

A la date n, on revend nos (mS20) parts d’actifs non risques avec les interets, pour rembourser

les m parts d’actifs risques. Autrement dit, on utilise a nouveau la strategie

Φn = (m S20 ,−m)

La valeur du portefeuille au temps n est donnee par la formule

Vn(Φ) = (m S20) × (1 + r)n − m × (S2

0 (1 + ∆U21 ) . . . (1 + ∆U2

n))

≥ m S20 ((1 + r)n − (1 + h)n)

≥ n m S20 (1 + r)n−1(r − h)

Page 191: MASTER MASS 2 Univ. Nice Sophia Antipolis

5.2. CHAPITRE 2 189

Exercice 4.4.2 A chaque instant 1 ≤ k ≤ n, on a pour chaque δ ∈ b, h

P?(∆U2

k = δ) =

(h − r

h − b

)1b(δ) ( r − b

h − b

)1h(δ)

Par consequent, la mesure P? est definie explicitement pour chaque environnement aleatoire

(δ1, . . . , δn) ∈ b, hn, par la formule suivante

P?(∆U2

1 = δ1, . . . , ∆U2n = δn) = P

?(∆U21 = δ1) . . . P

?(∆U2n = δn)

=

(h − r

h − b

)Pnk=1 1b(δk) (

r − b

h − b

)Pnk=1 1h(δk)

Exercice 4.4.3 : L’existence de P? entraıne qu’un investisseur ne peut arbitrer le marche. En

effet, sous P? les portefeuilles reactualises

V k = Φ1k + Φ2

k ∆S2

k

forment une martingale. Il est alors impossible de gagner de l’argent a un horizon donne, sansune mise initiale, et ceci dans n’importe quel environnement aleatoire ! En effet, nous avonsdans cette situation

(0 = V 0(Φ) = E

?(V n(Φ)) et V n(Φ) ≥ 0)

=⇒ ∀ω ∈ Ω V n(Φ)(ω) = 0

Exercice 4.4.4 : D’apres l’exercice precedent, que le marche soit a tendance a la hausse, oua la baisse, l’existence de P

? entraıne qu’il est impossible d’arbitrer le marche financier. Lapossibilite de neutraliser le marche tient compte des probabilites aussi faibles soient elles desevenements a tendances inverses. Ainsi dans un marche a tendance a la hausse, un investisseurayant mise sur les actifs risques ne peut toujours pas predire leur chute avant d’avoir pu s’enseparer. Cette chute imprevisible annulerait dans le meilleur des cas ses espoirs de gain, outout simplement elle le ruinerait.

Exercice 4.4.5 : La fonction de paiement reactualisee peut s’ecrire sous la forme

f = (1 + r)−n (S2n − K)+ =

(

S2

n − K

(1 + r)n

)

+

= g(S2

n)

avec la fonction g : R+ → R+ donnee par

g(s) =

(

s − K

(1 + r)n

)

+

= (1 + r)−n (s (1 + r)n − K)+

1. D’apres les formules (4.3), le portefeuille de couverture associe a cette fonction de paiementest donne par

V 0(Φ) = V0(Φ) = g0(S2

0) = g0(s0)

Φ2k =

1 + r

h − b

[

gk

(

S2

k−1

1 + h

1 + r

)

− gk

(

S2

k−1

1 + b

1 + r

)]

/S2

k−1

Φ1k = gk−1(S

2

k−1) − Φ2k S

2

k−1

Page 192: MASTER MASS 2 Univ. Nice Sophia Antipolis

190 CHAPITRE 5. CORRIGES

avec les fonctions (gk)0≤k≤n definies par

gk(s) =

n−k∑

l=0

(

s

(1 + b

1 + r

)l(1 + h

1 + r

)(n−k)−l

− K

(1 + r)n

)

+

× Cln−k

(h − r

h − b

)l (r − b

h − b

)(n−k)−l

2. L’investissement initial pour couvrir l’option est donne par

V0(Φ) = g0(s0)

=∑n

l=0

(s0

(1+r)n (1 + b)l (1 + h)n−l − K(1+r)n

)

+

× Cln

(h−rh−b

)l (r−bh−b

)n−l

=∑n

l=0

(s0

(1+r)n (1 + b)n−l

(1 + h)l − K

(1+r)n

)

+

× Cln

(h−rh−b

)n−l (r−bh−b

)l

3. Analogue a l’exercice 4.3.1. Supposons, a titre d’exemple que le vendeur offre un prix

C > C?(f) = V0(Φ)

Dans ces conditions, pour gagner (C − C?(f)) il lui suffira d’utiliser la strategie decouverture definie ci-dessus pour honorer son contrat, et empocher la somme residuelle.

4. (a) Par definition de k0, on a

k0 = inf 0 ≤ k ≤ n : k > log

(K

s0(1 + b)n

)

/ log

(1 + h

1 + b

)

= 1 +

[

log

(K

s0(1 + b)n

)

/ log

(1 + h

1 + b

)]

ou [a] designe la partie entiere d’un nombre a.

(b) Par definition de k0, nous avons

∀k0 ≤ l ≤ n s0 ×(

1 + h

1 + b

)k0

>K

(1 + b)n

Par consequent, on obtient

V0(Φ) =

n∑

l=k0

(s

(1 + r)n(1 + b)

n−l(1 + h)

l − K

(1 + r)n

)

× Cln

(h − r

h − b

)n−l (r − b

h − b

)l

= s ×n∑

l=k0

Cln

(1 + b

1 + r

)n−l(1 + h

1 + r

)l(h − r

h − b

)n−l (r − b

h − b

)l

−(1 + r)−nK

n∑

l=k0

Cln

(h − r

h − b

)n−l (r − b

h − b

)l

On en conclut que

V0(Φ)

= s0 ×∑n

l=k0Cl

n p′ l (1 − p′)n−l − (1 + r)−nK

∑nl=k0

Cln p? l (1 − p?)

n−l

Page 193: MASTER MASS 2 Univ. Nice Sophia Antipolis

5.2. CHAPITRE 2 191

avec les parametres (p?, p′) ∈ [0, 1] donnes par

p? =r − b

h − b, 1 − p? =

h − r

h − b

et

p′ = 1 − h − r

h − b

1 + b

1 + r

=1

(1 + r)(h − b)((1 + r)(h − b) − (h − r)(1 + b))

=−b + rh − hb + r

(1 + r)(h − b)=

(h + 1)(r − b)

(1 + r)(h − b)

(c) Par definition des v.a. de Bernoulli (εip)1≤i≤n, nous avons

P(Σp,n = k) = Ckn P(ε1p = . . . = εk

p = 1, et εk+1p = . . . = εk+(n−k)

p = 0)

= Ckn pk (1 − p)

n−k

On en conclut que

P(Σp,n ≥ k) = Fn,p(k) =

n∑

l=k

Cln pl (1 − p)

n−l

Exercice 4.4.6 :

1. On a

E(Σp,n) =

n∑

i=1

E(εip) = np

et

E([Σp,n − E(Σp,n)]2) = E

[n∑

i=1

(εip − E(εi

p))

]2

=n∑

i=1

E((εi

p − E(εip))

2)

= np(1− p)

Par consequent, on trouve que

Wp,n =Σp,n − E(Σp,n)

E([Σp,n − E(Σp,n)]2)=

∑ni=1 εi

n − np√

np(1 − p)

2. Lorsque ∆ → 0, nous avons les equivalences

np? =T

∆× ρ ∆ + σ

√∆

2σ√

∆=

T

2σ√

(

ρ + σ/√

∆)

1 − p? =h − r

h − b=

1

2σ√

∆× (σ

√∆ − ρ ∆)

Par consequent, on obtient

np?(1 − p?) =T

4σ2 ∆

(

ρ + σ/√

∆)

(σ√

∆ − ρ ∆)

=T

4σ2

(

σ/√

∆ + ρ)

(σ√

∆ − ρ)

=T

4σ2

(σ2

∆− ρ2

)

' T

4∆

Page 194: MASTER MASS 2 Univ. Nice Sophia Antipolis

192 CHAPITRE 5. CORRIGES

En utilisant le fait que

∀|u| < 11

1 − u= 1 + u + u2 + . . .

on remarque aussi que les equivalences suivantes

(1 + σ√

∆)

(1 + ρ ∆)' (1 + σ

√∆)(1 − ρ ∆) ' (1 + σ

√∆) ' 1

On a donc

np′ =(1 + σ

√∆)

(1 + ρ ∆)np?

' T

2σ√

(

ρ + σ/√

∆)

(1 + σ√

∆) ' T

2σ√

∆(ρ + σ2 + σ/

√∆)

p′ =(1 + σ

√∆)

(1 + ρ ∆)p? ' (1 + σ

√∆) p? ' p? et (1 − p′) ' (1 − p?)

et par suite

np′(1 − p′) ' np?(1 − p?) ' T

4∆

Pour estimer k0 on utilise le fait que

log (1 + ε)ε∼0' ε − ε2

2

pour verifier tout d’abord que

log

(K

s0(1 + b)n

)

= log (K/s0) −T

∆log (1 − σ

√∆)

= log (K/s0) +T

(

σ√

∆ +σ2∆

2

)

= log (K/s0) + T

(σ2

2+ σ/

√∆

)

et

log

(1 + h

1 + b

)

= log (1 + σ√

∆) − log (1 − σ√

∆) ' 2σ√

On en conclut que

log(

Ks0(1+b)n

)

log(

1+h1+b

) ' 1

2σ√

(

log

(K

s0

)

+ T

(σ2

2+

σ√∆

))

et

k0 ' 1

2σ√

(

log

(K

s0

)

+ T

(σ2

2+

σ√∆

))

3. D’apres les estimations precedentes, nous avons

np′ − k0 ' T

2σ√

(

ρ + σ2 +σ√∆

)

− 1

2σ√

(

log

(K

s0

)

+ T

(σ2

2+

σ√∆

))

=1

2σ√

(

T

(

ρ +σ2

2

)

+ log (s0/K)

)

Page 195: MASTER MASS 2 Univ. Nice Sophia Antipolis

5.2. CHAPITRE 2 193

et

np? − k0 ' T

2σ√

(

ρ +σ√∆

)

− 1

2σ√

(

log

(K

s0

)

+ T

(σ2

2+

σ√∆

))

=1

2σ√

(

T

(

ρ − σ2

2

)

+ log (s0/K)

)

En utilisant les estimations

np′(1 − p′) '√

np?(1 − p?) '√

T

(2√

∆)

on en conclut que

np′ − k0√

np′(1 − p′)' 1

σ√

T

(

T

(

ρ +σ2

2

)

+ log (s0/K)

)

np? − k0√

np?(1 − p?)' 1

σ√

T

(

T

(

ρ − σ2

2

)

+ log (s0/K)

)

4. Pour verifier la derniere assertion, il suffit de noter que

(1 + r)−n = (1 + ρ∆)−T∆ ' e−ρT

La formule recherchee est une consequence immediate de (4.4).

Exercice 4.5.1 : Supposons qu’il existe une probabilite a risque neutre P? sur l’espace

filtre (Ω, (Fk)0≤k≤n). Dans ces conditions, et d’apres la proposition 4.5.2, pour toutestrategie d’amenagement (Φk)1≤k≤n de portefeuilles (autofinances), leurs valeurs reactualisees(V k(Φ))0≤k≤n forment une P

?-martingale. Par consequent, nous avons

(V 0(Φ) = 0 , V n(Φ) ≥ 0

)=⇒ E

?(V n(Φ) | F0) = V 0(Φ) = 0, V n(Φ) ≥ 0

=⇒ V n(Φ) = 0

Page 196: MASTER MASS 2 Univ. Nice Sophia Antipolis

194 CHAPITRE 5. CORRIGES

Page 197: MASTER MASS 2 Univ. Nice Sophia Antipolis

Bibliographie

[1] S. Ben Hamida, and R. Cont. Recovering volatility from option prices by evolutionaryoptimization. Journal of Computional Finance, (2005).

[2] R. Cont, and M. Lowe. Social distance, heterogeneity and social interaction. CMAP No549, Ecole Polytechnique (2003).

195