Upload
hakhue
View
245
Download
2
Embed Size (px)
Citation preview
EXERCICES DE CALCUL STOCHASTIQUE
DESS IM Evry, option finance
Monique JeanblancUniversite d’EVRY
Octobre 2005
2
Contents
1 Rappels 71.1 Tribu . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 71.2 Variables gaussiennes . . . . . . . . . . . . . . . . . . . . . . . . . 81.3 Esperance conditionnelle . . . . . . . . . . . . . . . . . . . . . . . 91.4 Martingales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 111.5 Temps d’arret . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 131.6 Temps discret . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 141.7 Algebre beta-Gamma . . . . . . . . . . . . . . . . . . . . . . . . . 151.8 Divers . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15
2 Mouvement Brownien 172.1 Proprietes elementaires . . . . . . . . . . . . . . . . . . . . . . . . 172.2 Processus Gaussiens . . . . . . . . . . . . . . . . . . . . . . . . . 202.3 Multidimensionnel . . . . . . . . . . . . . . . . . . . . . . . . . . 212.4 Temps d’atteinte . . . . . . . . . . . . . . . . . . . . . . . . . . . 222.5 Scaling . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 252.6 Complements . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 262.7 Finance . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 282.8 Probleme . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 29
2.8.1 Partie I : Resultats preliminaires . . . . . . . . . . . . . 292.8.2 Partie II . . . . . . . . . . . . . . . . . . . . . . . . . . . . 302.8.3 Partie III . . . . . . . . . . . . . . . . . . . . . . . . . . . 30
3 Integrale d’Ito 333.1 Integrale de Wiener . . . . . . . . . . . . . . . . . . . . . . . . . 333.2 Formule d’Ito . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 343.3 Cas multidimensionnel . . . . . . . . . . . . . . . . . . . . . . . . 393.4 Complements . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 403.5 Brownien geometrique et extensions. . . . . . . . . . . . . . . . . 423.6 Le crochet . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 433.7 Finance . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 44
3
4 CONTENTS
4 Equations differentielles stochastiques 494.1 Equation lineaire . . . . . . . . . . . . . . . . . . . . . . . . . . . 494.2 Finance . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 544.3 Equations differentielles . . . . . . . . . . . . . . . . . . . . . . . 56
5 Exemples 595.1 Processus de Bessel . . . . . . . . . . . . . . . . . . . . . . . . . . 595.2 Processus de Bessel carre . . . . . . . . . . . . . . . . . . . . . . 615.3 Autres processus. . . . . . . . . . . . . . . . . . . . . . . . . . . . 645.4 Des calculs . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 64
6 Girsanov 676.1 Resultats elementaires. . . . . . . . . . . . . . . . . . . . . . . . . 676.2 Crochet. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 696.3 Processus. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 696.4 Cas multidimensionel . . . . . . . . . . . . . . . . . . . . . . . . . 756.5 Temps d’arret. . . . . . . . . . . . . . . . . . . . . . . . . . . . . 766.6 Finance . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 78
7 Complements 877.1 Theoreme de Levy. . . . . . . . . . . . . . . . . . . . . . . . . . . 877.2 Equations retrogrades . . . . . . . . . . . . . . . . . . . . . . . . 887.3 Theoremes de representation . . . . . . . . . . . . . . . . . . . . 927.4 Temps local. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 927.5 Lois . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 937.6 Filtrations . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 947.7 Options barrieres . . . . . . . . . . . . . . . . . . . . . . . . . . . 957.8 Meandres, ponts, excursions . . . . . . . . . . . . . . . . . . . . . 967.9 Divers . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 96
8 Processus a sauts 998.1 Processus de Poisson . . . . . . . . . . . . . . . . . . . . . . . . . 998.2 Poisson compose . . . . . . . . . . . . . . . . . . . . . . . . . . . 1018.3 Formule d’Ito . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1028.4 Defaut . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1038.5 Marche complets, incomplets . . . . . . . . . . . . . . . . . . . . 103
1 Rappels, Corriges 1071.1 Tribu . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1071.2 Variables gaussiennes. . . . . . . . . . . . . . . . . . . . . . . . . 1081.3 Esperance conditionnelle . . . . . . . . . . . . . . . . . . . . . . . 1111.4 Martingales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1131.5 Temps d’arret . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1141.6 Temps discret . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1151.7 Algebre beta-gamma . . . . . . . . . . . . . . . . . . . . . . . . . 1151.8 Divers . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 115
CONTENTS 5
2 Mouvement Brownien, Corriges 1172.1 Proprietes elementaires . . . . . . . . . . . . . . . . . . . . . . . . 1172.2 Processus Gaussien . . . . . . . . . . . . . . . . . . . . . . . . . . 1212.3 Multidimensionnel . . . . . . . . . . . . . . . . . . . . . . . . . . 1242.4 Temps d’atteinte . . . . . . . . . . . . . . . . . . . . . . . . . . . 1252.5 Scaling . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1272.6 Complements . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1272.7 Finance . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 129
3 Integrale d’Ito, Corriges 1313.1 Integrale de Wiener . . . . . . . . . . . . . . . . . . . . . . . . . 1313.2 Formule d’Ito . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1323.3 Cas multidimensionnel . . . . . . . . . . . . . . . . . . . . . . . . 1373.4 Complements . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1383.5 Brownien geometrique et extensions . . . . . . . . . . . . . . . . 1393.6 Le crochet . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1423.7 Finance . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 142
4 Equations differentielles stochastiques, Corriges 1454.1 Equation Lineaire . . . . . . . . . . . . . . . . . . . . . . . . . . . 1454.2 Finance . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1494.3 Equations differentielles . . . . . . . . . . . . . . . . . . . . . . . 151
5 Exemples, Corriges 1535.1 Processus de Bessel . . . . . . . . . . . . . . . . . . . . . . . . . . 1535.2 Processus de Bessel carre . . . . . . . . . . . . . . . . . . . . . . 1555.3 Autres processus . . . . . . . . . . . . . . . . . . . . . . . . . . . 1555.4 Des Calculs . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 156
6 Girsanov, Corriges 1596.1 Resultats elementaires . . . . . . . . . . . . . . . . . . . . . . . . 1596.2 Crochet . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1606.3 Processus . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1606.4 Cas multidimensionnel . . . . . . . . . . . . . . . . . . . . . . . . 1636.5 Temps d’arret . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1636.6 Finance . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 165
7 Complements, Corriges 1677.1 Theoreme de Levy. . . . . . . . . . . . . . . . . . . . . . . . . . . 1677.2 Equations retrogrades . . . . . . . . . . . . . . . . . . . . . . . . 1687.3 Theoremes de representation . . . . . . . . . . . . . . . . . . . . 1687.4 Temps local. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1687.5 Lois . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1707.6 Filtrations . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1707.7 Options barrieres . . . . . . . . . . . . . . . . . . . . . . . . . . . 1717.8 Meandres, ponts, excursions . . . . . . . . . . . . . . . . . . . . . 172
6 Rappels
8 Sauts, Corriges. 1758.1 Processus de Poisson . . . . . . . . . . . . . . . . . . . . . . . . . 1758.2 Poisson compose . . . . . . . . . . . . . . . . . . . . . . . . . . . 1778.3 Marche complets, incomplets . . . . . . . . . . . . . . . . . . . . 178
Chapter 1
Rappels
1.1 Tribu
Exercice 1.1.1 Ensembles appartenant a une tribu.
1. Montrer que si F est une tribu, et si A et B appartiennent a F avecA ⊂ B, alors B − A ∈ F ou B − A est l’ensemble des elements de B quine sont pas dans A.
2. Montrer que 11B−A = 11B − 11A.
3. Montrer que si C et D appartiennent a F , alors C∆Ddef= C ∩ Dc ∪
Cc ∩D aussi.
Exercice 1.1.2 Exemples de tribus.
1. Decrire la tribu engendree par un ensemble A.
2. Decrire la tribu engendree par deux ensembles A et B disjoints.
Exercice 1.1.3 Fonctions indicatrices.On note 11A la v.a. qui vaut 1 pour ω ∈ A et 0 sinon.
1. Montrer que 11A∩B = 11A11B .
2. Montrer que, si A ∩B = ∅, on a 11A∪B = 11A + 11B .
3. Montrer que 11A∪B = 11A + 11B − 11A∩B .
Exercice 1.1.4 Union et intersection.Soit F1 et F2 deux tribus. Montrer que F1 ∩ F2 est une tribu. Montrer qu’engeneral F1 ∪ F2 n’est pas une tribu.
Exercice 1.1.5 Tribu grossie par un ensemble.(*)Soit F une tribu et A n’appartenant pas a F . Montrer que la tribu engendreepar F et A est composee des ensembles B tels que il existe C et D appartenanta F verifiant B = (C ∩A) ∪ (D ∩Ac).
7
8 Rappels
Exercice 1.1.6 Tribu engendree par une v.a.(*)Soit X une v.a. sur un espace (Ω,G). La tribu engendree par X, notee σ(X),est la plus petite sous tribu F telle que X soit mesurable de (Ω,F) dans (IR,B).Elle est engendree par C = F ⊂ Ω, |F = X−1(B), B ∈ B). Montrer que Cest une tribu. Verifier que si Y = h(X) avec h borelienne, alors Y est σ(X)mesurable. On admettra que la reciproque est vraie.
Exercice 1.1.7 Lois de v.a.Soit (X,Y ) un couple de variables independantes et (Z, T ) deux variables independantestelles que X
loi= Z et Yloi= T .
1. Comparer E(f(X)) et E(f(Z)).
2. Comparer E(X2Y ) et E(Z2T ).
3. Comparer E(f(X)g(Y )) et E(f(Z)g(T )).
4. Comparer E(f(X, Y )) et E(f(Z, T )).
1.2 Variables gaussiennes
Exercice 1.2.1 Moments.Soit X une v.a.r. de loi N (0, σ2). Calculer E(X3), E(X4), E(|X|) et E(|X3|).
Exercice 1.2.2 Moments. Soit X un v.a. normale. Calculer les moments deeX .
Exercice 1.2.3 Exponentielles. Soit N une v.a. de loi N (0, 1). CalculerE(exp(aN2 + bN)). Montrer que E(exp a2
2 N2) = E(exp aNN ′) avec N et N ′
i.i.d.
Exercice 1.2.4 Somme de variables gaussiennes independantes.Soit X et Y deux v.a. gaussiennes independantes. Montrer que X + Y est unevariable gaussienne. Precisez sa loi.
Exercice 1.2.5 Transformee de Laplace.Soit X une v.a.r. de loi N (m,σ2).
1. Quelle est la loi de X−mσ ? Calculer E|X −m|.
2. Montrer que E(eλX) = exp(λm + 12λ2σ2). Calculer E(XeλX).
3. Soit Φ(x) = 1√2π
∫ x
−∞e−
y2
2 dy. Calculer, dans le cas m = 0 et σ = 1 la
valeur de E(11X≤b exp λX) en fonction de (Φ, λ, b).
4. Calculer E(expλX2 + µX) pour 1− 2λσ2 ≥ 0.
Enonces. 2005-06 9
5. Montrer que E(eθXf(X)) = emθ+σ2θ2/2E(f(X + θσ2) pour f continuebornee.
6. Montrer que, si f est ”reguliere” E(f(X)(X −m)) = σ2E(f ′(X)).
7. Montrer que si G est une va de loi N (0, 1)
E(eaGN (bG + c)) = ea2/2N (c + ab√1 + b2
Exercice 1.2.6 Convergence.Soit (Xn, n ≥ 1) une suite de v.a. gaussiennes qui converge dans L2 vers X.Quelle est la loi de X?
Exercice 1.2.7 Vecteur gaussien. Soit X un vecteur gaussien a valeurs dansIRn et A une matrice (p, n). Montrer que AX est un vecteur gaussien. Preciserson esperance et sa variance.
Exercice 1.2.8 Vecteur Gaussien. Soit (X, Y ) un vecteur gaussien centretel que E(XY ) = 0. Montrer que X et Y sont independantes.
Exercice 1.2.9 Projection.(*)Rappel : projection dans L2 : Soit A un sous espace de L2(Ω) engendre par lesvariables aleatoires Y1, . . . , Yn, c’est-a-dire si Z ∈ A, il existe (ai) reels tels queZ =
∑i aiYi. Soit X ∈ L2. On appelle projection de X sur A l’unique element
PrX de A tel queE( (X − PrX)Z) = 0,∀Z ∈ A
Soit (X1, X2, . . . , Xd, Y1, . . . , Yn) un vecteur gaussien centre dans Rd+n.Montrer que X = (X1, X2, . . . , Xd) et Y = (Y1, . . . , Yn) sont deux vecteursgaussiens centres.On suppose d = 1. Montrer que PrX est une v.a. gaussienne σ(Y ) mesurable,telle que X − PrX et Y sont independantes.
Exercice 1.2.10 Caracterisation de vecteur gaussien. (*) Soit (X, Y )deux v.a.r. telles que Y est gaussienne et la loi conditionnelle de X a Y estgaussienne de moyenne aY + b et de variance independante de Y , c’est-a-dire
que E(exp(λX)|Y = y) = exp(λ(ay + b)+λ2
2σ2). Montrer que le couple (X, Y )
est gaussien.
1.3 Esperance conditionnelle
On travaille sur un espace (Ω,F , P ) muni d’une sous-tribu de F notee G.
Exercice 1.3.1 Montrer que
E(Y E(X|G)) = E(XE(Y |G))
10 Rappels
Exercice 1.3.2 Montrer que si X ∈ L2 et E(X|G) = Y et E(X2|G) = Y 2 alorsX = Y .
Exercice 1.3.3 Soit (X,Y ) independantes, X strictement positive et Z = XY .Calculer E(11Z≤t|X) en utilisant la fonction de repartition de Y .
Exercice 1.3.4 Soit (X, Y ) independantes, equidristibuees et M = max(X, Y ).Calculer E(11X≤t|M).
Exercice 1.3.5 Conditionnement et independance.Soit X,Y deux v.a. telles que la v.a. X−Y est independante de G, d’esperancem et de variance σ2. On suppose que Y est G-mesurable. Calculer E(X−Y | G).En deduire E(X | G). Calculer E( (X − Y )2 | G). En deduire E(X2 | G).
Exercice 1.3.6 Vecteur gaussien (*) Suite de l’exercice 1.2.9Soit (X,Y1, . . . , Yn) un vecteur gaussien centre dans IR1+n. Montrer que E(X|Y ) =PrX.On suppose n = 1. Montrer que E(X|Y ) = αY . Determiner α.
Exercice 1.3.7 Soit X = X1 + X2. On suppose que X1 est independante deG, que X2 est G mesurable et que X1 est gaussienne.
1. Calculer E(X|G) et var (X|G).
2. Calculer E(eλX |G).
Exercice 1.3.8 Covariance conditionnelle. Soit Z1, Z2 deux variables aleatoiresde carre integrable. On definit
Cov(Z1, Z2|G) = E(Z1Z2|G)− E(Z1|G)E(Z2|G) .
Montrer queCov(Z1, Z2|G) = E[ (Z1 − E(Z1|G))Z2|G ].
Exercice 1.3.9 Tribu grossie.Soit A /∈ G et A ∈ F et X une v.a. integrable. On note H la tribu engendree parG et A. (Voir exercice 1.1.5). On admettra que les v.a. Z qui sont H mesurabless’ecrivent Z = Y111A + Y211Ac , ou les v.a. Yi sont G-mesurables. Montrer que
E(X|H) =E(X11A|G)E(11A|G)
11A +E(X11Ac |G)E(11Ac |G)
11Ac
Exercice 1.3.10 Linearite. Soit Z = αY + β, avec α 6= 0. Montrer queE(aX + b|Z) = aE(X|Y ) + b.
Exercice 1.3.11 Grossissement progressif (*) Soit F une tribu. On con-sidere la tribu G engendree par τ ∧ 1 ou τ est une v.a. a valeurs dans IR+.
1. Montrer que toute v.a. G mesurable s’ecrit h(τ ∧ 1) ou h est borelienne.
Enonces. 2005-06 11
2. Montrer que, si X est une v.a. F mesurable, E(X|G)111≤τ = A111≤τ ou Aest une constante. Montrer que A = E(X111≤τ )/P (1 ≤ τ).
Exercice 1.3.12 Conditionnement et independance 1. Soit G1 et G2
deux σ-algebres independantes, G = G1 ∨ G2 et (Xi, i = 1, 2) deux variablesaleatoires bornees telles que Xi est Gi mesurable. Montrer que E(X1X2|G) =E(X1|G1)E(X2|G2).
Exercice 1.3.13 Conditionnement et independance 2. Montrer que si Gest independante de σ(X) ∨ F , E(X|G ∨ F) = E(X|F).
Exercice 1.3.14 Formule de Bayes. Soit dQ = LdP sur (Ω,F) et G unesous-tribu de F . Montrer que
EQ(X|G) = EP (X|G), ∀X ∈ F
si et seulement si L est G mesurable.
Exercice 1.3.15 Soit f et g deux densites strictement positives sur IR. Soit Xune v.a. de densite f sur un espace (Ω, P ). Montrer qu’il existe une probabiliteQ sur cet espace telle que X soit de densite g.
Exercice 1.3.16 Independance conditionnelle Soit (Ft) et (Gt) deux fil-trations.
1. Montrer que les proprietes suivantes sont equivalentes. (H1) for any t,the σ-algebras F∞ and Gt are conditionally independent given Ft.(H2) ∀F ∈ F∞, ∀Gt ∈ Gt, E(FGt|Ft) = E(F |Ft)E(Gt|Ft)(H3) ∀t,∀Gt ∈ Gt, E(Gt|F∞) = E(Gt|Ft)(H4) ∀t,∀F ∈ F∞, E(F |Gt) = E(F |Ft).
2. Soit F et G deux filtrations telles que Ft ⊂ Gt. Montrer que(H) Every F-square integrable martingale is a G-square integrable mar-tingaleequivaut a (H1).
3. Dans le cas Gt = Ft ∨ σ(t ∧ τ) ou τ est un temps aleatoire, montrer que(H1) equivaut a(H5) ∀s ≤ t, P (τ ≤ s|F∞) = P (τ ≤ s|Ft).
1.4 Martingales
L’espace Ω est muni d’une filtration (Ft).
Exercice 1.4.1 Exemple de base. Soit X une v.a. integrable. Montrer que(E(X |Ft), t ≥ 0) est une martingale.
12 Rappels
Exercice 1.4.2 Surmartingale. On dit que M est une surmartingale si- Mt est adapte, integrable- E(Mt|Fs) ≤ Ms, ∀s ≤ t
Le processus M est une sousmartingale si −M est une surmartingale.
1. Montrer que si M est une martingale et A un processus croissant adapte(As ≤ At, ∀s ≤ t) alors M −A est une surmartingale.
2. Soit M une martingale. Que peut-on dire de M2?
3. Soit M une martingale telle que E(M2∞) < ∞. Montrer que supt E(M2
t ) <∞.
4. Montrer qu’une surmartingale telle que E(ZT ) = E(Z0) est une martin-gale sur [0, T ].
Exercice 1.4.3 Martingale locale. Montrer qu’une martingale locale posi-tive est une surmartingale.
Exercice 1.4.4 Martingale en fonction de la valeur terminale. Soit Xune martingale telle que XT = ζ. Exprimer Xt en fonction de ζ pour t < T aumoyen d’une esperance conditionnelle.
Exercice 1.4.5 Un lemme. On trouve dans la litterature (Duffie) le lemmesuivant:
Lemma: Let φ be an adapted bounded process. Then (Yt = Mt −∫ t
0
φsds, 0 ≤t ≤ T ) for some martingale M if and only if
Yt = E[∫ T
t
φsds + YT |Ft]
Donner une demonstration de ce lemme.
Exercice 1.4.6 Martingale de carre integrable. Soit (Mt, t ≥ 0) une Ft-martingale de carre integrable (telle que M2
t soit d’esperance finie, pour tout t).Montrer que
1. E((Mt −Ms)2|Fs) = E(M2t |Fs)−M2
s pour t > s.
2. E((Mt −Ms)2) = E(M2t )− E(M2
s ) pour t > s.
3. La fonction Φ definie par Φ(t) = E(M2t ) est croissante.
Exercice 1.4.7 Projection de martingale. Montrer que si M est une Ft-martingale, c’est aussi une martingale par rapport a sa propre filtration Gt =σ(Ms, s ≤ t). SoitHt ⊂ Ft. Montrer que Yt = E(Mt|Ht) est uneHt-martingale.
Exercice 1.4.8 Une sousmartingale. Soit τ une v.a. positive. Montrer queZt = P (τ ≤ t|Ft) est une sousmartingale.
Enonces. 2005-06 13
Exercice 1.4.9 Exemples de martingales.
1. Soit X un PAI. Montrer que X est une martingale et que si X est de carreintegrable, X2
t − E(X2t ) est une martingale.
2. Soit X une chaine de Markov. Montrer que
∑
s≤t
f(Xs−, Xs)−∫ t
0
∑qXs,jf(Xs, j)ds
est une martingale.
Exercice 1.4.10 Soit M une martingale positive continue uniformement integrableet τ = inft : Mt = 0. Montrer que M est nulle sur t > τ .
1.5 Temps d’arret
Exercice 1.5.1 Tribu associee a un temps d’arret. Soit τ un tempsd’arret. Montrer que Fτ est une tribu.
Exercice 1.5.2 Soit T un temps d’arret et X une variable aleatoire appar-tenant a FT , verifiant X ≥ T . Montrer que X est un temps d’arret.
Exercice 1.5.3 Exemple de processus adapte. Soit T un temps d’arret.Montrer que le processus Xt = 11]0,T ](t) est adapte.
Exercice 1.5.4 Comparaison de tribus. Soit S et T deux temps d’arret telsque S ≤ T . Montrer que FS ⊂ FT .
Exercice 1.5.5 Propriete de mesurabilite. Soit S un temps d’arret. Mon-trer que S est FS-mesurable.
Exercice 1.5.6 Soit S et T deux temps d’arret. Montrer que S ≤ T, T ≤S appartiennent a FS .
Exercice 1.5.7 Exemple de processus cadlag. Soit S et T deux tempsd’arret tels que S < T . Montrer que le processus Zt = 11[S,T [(t) (egal a 1 siS ≤ t < T et a 0 sinon) est un processus cadlag.
Exercice 1.5.8 Exemple trivial de temps d’arret. Montrer qu’une con-stante τ est un temps d’arret. Quelle est dans ce cas la tribu Fτ?
Exercice 1.5.9 Operations sur les temps d’arret. Montrer que l’inf (resp.le sup) de deux temps d’arret est un temps d’arret.
Exercice 1.5.10 Caracterisation de martingale.
1. Soit s < t,A ∈ Fs et T = t11Ac + s11A. Montrer que T est un tempsd’arret.
14 Rappels
2. Montrer que si E(XT ) = E(X0) pour tout temps d’arret T , alors le pro-cessus X est une martingale.
Exercice 1.5.11 Theoreme d’arret. Soit M une martingale continue telleque M0 = a et limt→∞Mt = 0. Montrer que sup Mt
loi=a
Uou U est une v.a. de
loi uniforme sur [0, 1].
1.6 Temps discret
L’espace Ω est muni d’une filtration (Fn).
Exercice 1.6.1 Soit Fn une suite de tribu decroissante On suppose que si B ∈F∞ = ∩nFn alors P (B) = 0 ou P (B) = 1. Calculer E([P (A|Fn)−P (A|Fm)]2).En deduire que P (A|Fn) converge
Exercice 1.6.2 Soit Fn une suite de tribu croissante et F∞ = ∪nFn. Montrerque E(X|Fn) converge dans L2 vers E(X|F∞).
Exercice 1.6.3 Processus croissant associe a une martingale de carreintegrable. Soit (Xn, n ≥ 0) une (Fn)-martingale verifiant E(X2
n) < ∞ pourtout n.
1. Montrer que, pour tout p ≥ 0, E(Xn+p |Fn) = Xn.
2. Montrer que E((Xn−Xn−1)2 |Fn−1) = E(X2n|Fn−1)−X2
n−1 pour tout n.
3. Montrer qu’il existe un unique processus (An) tel que(i) An est Fn−1 adapte, (ii) A0 = 0, (iii) X2
n −An estune martingale.Verifier que An est un processus croissant.On montrera que la suite de processus definie par A0 = 0, An = An−1 +E(X2
n|Fn−1) − X2n−1 a les proprietes desirees et que si A a les memes
proprietes, An −An−1 = An − An−1.
Exercice 1.6.4 Integrale stochastique. Soit M une martingale et H unprocessus borne previsible (soit Hn est Fn−1-mesurable). 0n note ∆Mk = Mk−Mk−1.
1. Montrer que (H ·M)n =∑n
k=1 Hk∆Mk est une martingale.
2. Soit M et N deux martingales telles que E(M2n) < ∞, E(N2
n) < ∞ Onnote [M, N ] =
∑nk=1 ∆Mk ∆Nk. Montrer que
(MnNn −M0N0 − [M, N ]n ; n ≥ 0)
est une martingale.
Enonces. 2002-03 15
1.7 Algebre beta-Gamma
Exercice 1.7.1 Loi Arc sinus Une variable aleatoire A a une loi Arc Sinus sisa densite est
1√π
1√1− t
11t∈[0,1]. Montrer que cos2(Θ) loi= A si Θ est uniforme
sur [0, 2π].
Soit N et N ′ deux variables N (0, 1) independantes. Montrer queN2
N2 + N ′2loi=
A.Soit C =
N
N ′ . Montrer que C a une loi de Cauchy et que1
1 + C2a une loi Arc
sinus.
1.8 Divers
Exercice 1.8.1 Soit X un processus at Mt = sup0≤s≤t Xs. On note τ une v.a.de loi exponentielle de parametre θ independante de X. Montrer que
E (exp(−λMτ )) = 1− λE
(∫ ∞
0
due−λue−θTu
)
ou Tu = inft : Xt ≥ u.
Exercice 1.8.2 Transformee de Laplace et independance. Soit X etY deux v.a. independantes. Justifier que E(eλ(X+Y )) = E(eλX)E(eλY ). Lareciproque est-elle vraie?
Exercice 1.8.3 Transformee de Laplace et moments. Soit X et Y deuxv.a. bornees telles que E(eλX) = E(eλY ) pour tout λ. Montrer que X et Y ontmeme moments.
Exercice 1.8.4 Markov. Soit X un processus de Markov fort et Ta = inft :Xt = a. Montrer que, pour t < T
P (XT ∈ dx |Xt = a) = P (XT ∈ dx|Ta = t) .
Exercice 1.8.5 Propriete de Markov Soit B un mouvement Brownien et fune fonction. On note T f = inft : Bt = f(t). Montrer que P (Bt ≥ f(s)|T f =
s) =1211s<t. Si f est croissante, montrer que P (T f ≤ t) = 2P (Bt ≥ f(T f )).
16 Brownien.
Chapter 2
Mouvement Brownien
Dans tout ce qui suit, (Bt, t ≥ 0) (ou (Wt, t ≥ 0)) est un mouvement Brownienreel (un processus a accroissements independants issu de 0, tel que pour t > s,Bt − Bs est une v.a. gaussienne centre de variance t − s) et on note (Ft) safiltration naturelle.Dans certains exercices, il sera precise que B est issu de x. On rappelle que Bet (B2
t − t, t ≥ 0) sont des martinales.
2.1 Proprietes elementaires
Exercice 2.1.1 Caracterisation. Montrer qu’un processus X est un mou-vement Brownien si et seulement sia. Pour tout t0 < t1 . . . < tn, le vecteur (Xt0 , Xt1 , . . . , Xtn) est un vecteurgaussien centreb. E(XtXs) = s ∧ tc. X0 = 0
Exercice 2.1.2 Calcul d’esperances.
1. Calculer pour tout couple (s, t) les quantites E(BsB2t ), E(Bt|Fs) et E(Bt|Bs).
2. On a vu, dans Exercice 1.2.1, que si Z est une v.a. gaussienne centree devariance σ2, on a E(Z4) = 3σ4. Calculer E(B2
t B2s ).
3. Quelle est la loi de Bt + Bs?
4. Soit θs une variable aleatoire bornee Fs-mesurable. Calculer pour t ≥ s,E(θs(Bt −Bs)) et E[θs(Bt −Bs)2].
5. Calculer E(11Bt≤a) et E(Bt11Bt≤a) ou 11A(ω) est la v.a. egale a 1 si ω ∈ Aet 0 sinon.
6. Calculer E(∫ t
0exp(Bs)ds) et E(exp(αBt)
∫ t
0exp(γBs)ds).
17
18 Brownien.
Exercice 2.1.3 Lois. Montrer que E(f(Bt)) = E(f(G√
u + Bt−u)) avec Gv.a. independante de Bt−u et de loi gaussienne centre reduite.
Exercice 2.1.4 Soit Θ une variable aleatoire de loi exponentielle de parametreθ (soit P (Θ ∈ dx) = θe−θx11x>0dx) independante de B. Quelle est la loi de BΘ?
Exercice 2.1.5 Des martingales. Parmi les processus suivants, quels sontceux qui sont des martingales. ( On pourra utiliser, sans demonstration, que
E[∫ t
0
Budu|Fs] =∫ t
0
E[Bu|Fs] du.)
1. Mt = B3t − 3
∫ t
0Bs ds.
2. Zt = B3t − 3tBt.
3. Xt = tBt −∫ t
0Bs ds.
4. Ut = sin Bt −∫ t
0
Bs (cos s) ds.
5. Ut = sin Bt +12
∫ t
0
sin(Bs) ds.
6. Yt = t2Bt − 2∫ t
0Bsds.
Exercice 2.1.6 On suppose b < 0 < a. Montrer que (a − Bt)(Bt − b) + t estune Ft-martingale. En deduire E(Ta,b) ou Ta,b = Ta ∧ Tb.
Exercice 2.1.7 Exponentielle de Brownien. Calculer E(ex+Bt) et E(sin(x+Bt)) en utilisant
E(f(x + Bt)) = f(x) +12
∫ t
0
E(f ′′(x + Bs)) ds .
Exercice 2.1.8 Changement de temps. Soit Zt = BA(t) ou A est une fonc-tion deterministe continue strictement croissante.
1. Calculer l’esperance et la variance de Zt. Ce processus est-il une martin-gale par rapport a Ft?.
2. On definit Gt = FA(t). Montrer que Z est une G-martingale.
3. Determiner le processus croissant C tel que (Zt)2−Ct soit une G-martingale.
4. Soit un processus M tel que M est une martingale et il existe A, fonctiondeterministe continue strictement croissante telle que M2
t − A(t) est unemartingale. On note C l’inverse de A, c’est-a-dire la fonction telle queC(A(t)) = t. Montrer que Wt = MC(t) est un mouvement Brownien.
Exercice 2.1.9 Calcul d’esperance. Comment calculer Ex(f(Bt)g(Bs))?
Enonces. 2002-03 19
Exercice 2.1.10 Calculer
E((λ∫ 1
0
duBu + µB1)2)
Exercice 2.1.11 Calcul de transformee de Laplace. Calculer Ex
(exp(−λW 2
t )).
Exercice 2.1.12 Comportement limite.
1. Montrer que limt→∞Bt
t= 0
2. Montrer que limt→∞ Px(Bt < 0) = 1/2. En deduire que pour tout x > 0,si T0 = inft : Bt = 0, on a Px(T0 < ∞) ≥ 1/2. (En fait, on peut montrerque T0 est fini ps.)
Exercice 2.1.13 Montrer que l’integrale∫ 1
0
Bs
sds est convergente.
Exercice 2.1.14 Tribu triviale. On admettra qu’un ensemble appartenant ala filtration F0 = F+
0 a pour probabilite 0 ou 1.
Si τ = inft ≥ 0 : Bt > 0, montrer que P (τ ≤ t) ≥ 12. En deduire que
P (τ = 0) = 1.
Exercice 2.1.15 Application de la propriete de Markov. Montrer que
Ex
( ∫ t
0
h(r,Br)dr|Fs
)=
∫ s
0
h(r,Br)dr + EBs
( ∫ t−s
0
h(s + u,Bu)du)
Exercice 2.1.16 Soit τ un temps d’arret, λ > 0 et u une fonction continue
bornee. On pose g(x) = Ex
(∫ τ
0
e−λtu(Bt)dt
)et f(x) = Ex
(∫ ∞
0
e−λtu(Bt)dt
)
ou comme d’habitude l’indice x precise que le Brownien est issu de x.
1. Montrer que g et f sont definies.
2. Montrer que
Ex
(∫ ∞
τ
e−λtu(Bt)dt
)= Ex
(11τ<∞e−λτf(Bτ )
).
3. Montrer que si τ = T0, alors g(x) = f(x)− f(0)ϕ(x) ou on explicitera ϕ.
Exercice 2.1.17 Polynomes d’Hermite. Les polynomes d’Hermite Hk sont
definis par eαx−α22 =
∑ αk
k!Hk(x). Montrer qu’il existe Hk(x, t), polynomes
en les deux variables (t, x) tels que eαx−α22 t =
∑ αk
k!Hk(x, t). En deduire la
valeur de E(Bkt |Fs).
20 Brownien.
Exercice 2.1.18 Des gaussiennes Soit St = exp(µt+σWt). Calculer l’esperance
et la variance de∫ T
0
Stdt et∫ T
0
ln Stdt. Ces variables sont-elles gaussiennes?
Exercice 2.1.19 Zeros Montrer que
P (Bu 6= 0, ∀u ∈]s, t[) =2π
arcsin
√s
t
Exercice 2.1.20 Filtration Soit Gt = Ft ∨ σ(B1). Verifier que B n’est pasune (Gt)-martingale.
2.2 Processus Gaussiens
Exercice 2.2.1 Montrer que le processus Yt =∫ t
0
Budu est gaussien. Calculer
son esperance et sa covariance.
Exercice 2.2.2 Expliciter la solution de
dXt = −aXtdt + ebtdBt
Calculer E(Xt) et V ar(Xt).
Exercice 2.2.3 Non-existence de processus. Montrer qu’il n’existe pas deprocessus X tel que ∀(s, t), s 6= t, les variables Xt et Xs soient independantes,
centrees gausssiennes, et E(X2t ) localement borne. On considerera
∫ t
0
Xsds et
on montrera que ce processus serait Gaussien, on calculera son esperance et savariance.
Exercice 2.2.4 Le pont Brownien. On definit un pont Brownien par
Zt = Bt − tB1, 0 ≤ t ≤ 1.
1. Montrer que Z est un processus gaussien independant de B1. Preciser saloi, c’est-a-dire sa moyenne et sa fonction de covariance.
2. Montrer que le processus Z avec Zt = Z1−t a meme loi que Z.
3. Montrer que le processus Y avec Yt = (1 − t)B t1−t
, 0 < t < 1 a meme loique Z.
4. Montrer que (Ztloi= (Bt|B1 = 0)).
Exercice 2.2.5 Un exemple surprenant. Montrer que Zt = Bt −∫ t
0
Bs
sds
est un processus gaussien. Calculer sa variance et sa covariance. En deduire queZ est un mouvement Brownien. Montrer que Z n’est pas une (FB
t )-martingale,ou (FB
t ) est la filtration naturelle de B.
Enonces. 2002-03 21
Exercice 2.2.6 Pont. Soit B un MB et Γt l’espace Gaussien engendre par(Bu − u
tBt, u ≤ t). Montrer que Γt est croissant en t. Montrer que Γ(Bu, u ≤
t) = Γt ⊕ Γ(Bt) ou Γ(G) est l’espace engendre par G.
Exercice 2.2.7 Changement de probabilite. Soit B un MB, Lt = exp(mBt−m2
2t) , et Q definie sur FT par dQ = LT dP . Montrer que Bt = Bt − mt est,
sous Q, un processus gaussien a accroissements independants. Montrer que Bt
est un Q-mouvement Brownien.
Exercice 2.2.8 Soit B un mouvement Brownien, p > 1 et T une v.a. positive.On admettra que
E(supt
(|Bt| − tp/2)) < ∞
1. Montrer que
E(supt
(|Bt| − µtp/2)) = λE(sups
(|Bs| − sp/2))
avec λ = (1µ
)1/(p−1).
2. Montrer que E(|BT |) ≤ E(supt(|Bt| − µtp/2)) + µE(T p/2).
3. Montrer que
∀p > 1, ∃Cp,∀T, E(|BT |) ≤ Cp||T 1/2||p
2.3 Multidimensionnel
Exercice 2.3.1 Soit deux mouvements Browniens B(1) et B(2) correles de co-efficient de correlation ρ. Montrer, sans utiliser la formule d’Ito pour des pro-cessus correles, qu’il existe un Brownien B(3), independant de B(2) tel queB(1) = ρB(2) +
√1− ρ2B(3).
Exercice 2.3.2 Somme de browniens. Soit W un mouvement brownienindependant de B et ρ ∈ [0, 1]. Montrer que (Ut = ρWt +
√1− ρ2Bt, t ≥ 0) est
un mouvement Brownien.Soient B(1) et B(2) deux browniens independants et (σi, i = 1, 2) deux fonctionsdeterministes. Montrer qu’il existe une fonction σ3 telle que le processus B(3)
defini parσ3(t)dB
(3)t = σ1(t)dB
(1)t + σ2(t)dB
(2)t
est un Brownien.
Exercice 2.3.3 Soit B un Brownien n-dimensionnel. Soit f une fonction boreliennebornee. Montrer que, pour 0 < s < t Ex(f(Bt)|Fs) = Φ(Bs) avec Φ(x) =Ex[f(Bt−s)]. En deduire que BiBj est une martingale pour i 6= j.
22 Brownien.
Exercice 2.3.4 Mouvement Brownien dans R2.
1. Soit W1 et W2 deux mouvements Browniens independants. Le processusWt = W1(t) + W2(t) est-il un mouvement Brownien? Si oui, justifiez lareponse, sinon, expliquez pourquoi. Meme question avec αW1(t)+βW2(t).
2. Soit W1 et W2 deux processus. Soit c un reel donne. Montrer que si(
exp
aW1(t) + bW2(t)− t
2[a, b]
[1 cc 1
] [ab
], t ≥ 0
)
est une martingale pour tout couple (a, b), W1 et W2 sont des MB. CalculerE[exp(aW1(t) + bW2(t))].
Exercice 2.3.5 Brownien n-dimensionnel Soit B un MB n-dimensionnel etU une matrice telle que UUT = I. Montrer que (UBt, t ≥ 0) est un MB.
2.4 Temps d’atteinte
Dans tous ces exercices, a ∈ IR et Ta = inft : Bt = a ou B est un mouvementBrownien.
Exercice 2.4.1 Transformee de Laplace. Montrer que Ta est un tempsd’arret. Calculer E(e−λTa) pour tout λ reel. Montrer que P (Ta < ∞) = 1 etque E(Ta) = ∞.Memes questions avec St = exp(σBt).
Exercice 2.4.2 Montrer (sans calculs) que pour b > a > 0, la v.a. Tb − Ta estindependante de Ta. Quelle est la loi de Tb−Ta? Que peut-on dire du processus(Ta, a > 0)?
Exercice 2.4.3 Soit a < 0 < b et T = Ta ∧ Tb. Calculer P (Ta < Tb) et E(T ).
Exercice 2.4.4 Processus du temps d’atteinte.
1. Soit f(t) = E(e−rTa11Ta<t). On ne cherchera pas a calculer f ici.Calculer en fonction de f la quantite E(e−r inf(T,Ta)) ou T est un nombrepositif.
2. Montrer que si 0 < a < b, Tb − Ta est independant de Ta et a meme loique Tb−a.
3. Memes questions si Ta = inft; νt + Bt = a.4. Soit S un brownien geometrique( soit St = x exp(νt+σWt)) et τa = inft :
St = a. Calculer E(∫ ∞
0
e−rtStdt) et E(∫ τb
0
e−rtStdt).
Montrer que si 0 < a < b, τb− τa est independant de τa et a meme loi queτb−a.Calculer E(e−rτK 11τK<T 11τH−τK>t).
Enonces. 2002-03 23
Exercice 2.4.5 Temps d’atteinte Soit T un nombre reel. Calculer Zt =P (Ta > T |Ft). On rappelle que supu≤t Wu
loi= |Wt|.
Exercice 2.4.6 Premier instant. Soit W un MB issu de 0 et T d = d+inft :Wt+d = 0. Calculer E(e−λT d
) et E(11Wd≤ae−λT d
).Soit T ∗ = d si Wd ≥ −a et T ∗ = d + T d si Wd ≤ −a,Wd+T d ≥ −a. CalculerE(e−λT∗).
Exercice 2.4.7 Self decomposable Montrer qu’il existe c tel que Trloi= cTr +
X avec X independante de c.
Exercice 2.4.8 Soit Ta et Ta deux v.a. independantes de meme loi que Ta.
Quelle est la loi deTa
Ta + Ta
(Sans faire de calculs).
Exercice 2.4.9 Loi de l’inf. Soit I = − infs≤T1 Bs. Montrer que P (I ∈ dx) =dx
1 + x2.
Exercice 2.4.10 Calculer E(e−λTa) avec Ta = inft : Xt = a et Xt = νt +Wt. Calculer E(e−λT ) pour T = Ta ∧ Tb.
Exercice 2.4.11 Soit T ∗a = infu : Mu − Bu > a avec Mu = supt≤u Bt.Montrer que MT∗a a une loi exponentielle.
Exercice 2.4.12 Temps d’atteinte Soit A et B deux nombres positifs. On
note Xt = µt + σBt et h(x) =exp(−2µx/σ2)− exp(2µB/σ2)exp(−2µA/σ2)− exp(2µB/σ2)
. Verifier que
h(Xt) est une martingale. Le temps d’arret τ est defini par
τ = inft : Xt = A ouXt = −B .
Calculer P (Xτ = A).
Exercice 2.4.13 Soit f une fonction borelienne bornee et et
u(x) = Ex(exp[−θ2
2T0 +
∫ T0
0
duf(Bu)])
ou B est un mouvement Brownien issu de x. Montrer que u est solution de
12u′′ = (
θ2
2+ f)u, u(0) = 1
Exercice 2.4.14 Soient a, d deux nombres reels positifs.
1. Calculer E(e−|Bd|√
2λ11Bd≤−a).
24 Brownien.
2. Soit T1 = inft ≥ d : Bt = 0. Montrer que T1 est un temps d’arret. Cal-culer E(e−λT1) et E(e−λT111Bd≤−a). Montrer que BT1+d est independantde Bd et de T1.
3. On introduit la v.a. τ1 suivante : si Bd ≤ −a, on pose τ1 = d. Si Bd > −aet si BT1+d ≤ −a, on pose τ1 = T1 + d, sinon on pose τ1 = ∞.Calculer pour λ > 0 la transformee de Laplace de τ1, soit E(e−λτ1).
4. On continue. Si Bd ≤ −a, on pose τ2 = d. Si Bd > −a et si BT1+d ≤ −a,on pose Tτ2 = T1 + d, sinon on definit T2 = inft ≥ T1 + d : Bt = 0.Si BT2+d ≤ −a on pose τ2 = T2 + d. Dans tous les autres cas, on poseτ2 = ∞.
(a) Montrer que BT2+d est independant de (BT1+d, Bd) et de T2.
(b) Calculer la transformee de Laplace de τ2.
5. On utilise la meme procedure pour definir par iteration τn et on poseτ = τ∞.
(a) Montrer que τ est fini en utilisant, apres l’avoir justifie que
P (τ < ∞) =∏
i
P (BTi+d < −a)
(b) Calculer la transformee de Laplace de τ .
(c) Calculer la transformee de Laplace de Bτ .
(d) Montrer que Bτ est independant de τ .
Exercice 2.4.15 On trouve parfois (voir exercice precedent, ou les temps d’atteinted’un niveau) des temps d’arret τ tels que τ et Bτ sont independants. Ceci n’estcependant pas tres courant. Dans ce qui suit on admettra le resultat (non triv-ial) suivant (Cramer) Si X et Y sont deux v.a. independantes telles que X + Yest une v.a. gaussienne, alors X et Y sont des gaussiennes.
Le but de cet exercice est de montrer : si τ est borne par K et si τ et Bτ
sont independants, alors τ est une constante.
1. Montrer que si s > K,Bs = Bτ + Bs−τ
avec B un mouvement Brownien independant de Fτ .
2. Montrer que Bτ et Bs−τ sont des v.a. independantes.
3. Calculer l’esperance et la variance de Bτ . (Attention, ce n’est pas trivial.Penser au cas ou τ = Ta.)
4. Montrer que Bs−τ est une v.a. Gaussienne.
5. Montrer que l’on obtient√
K − τ Gloi=
√K − E(τ) G ou G est une v.a.
gaussienne reduite centree.
Enonces. 2002-03 25
6. Conclure.
Exercice 2.4.16 Soit a et µ deux constantes strictement positives et T1 =inft : Bt ≥ a− µt, T2 = inft : Bt ≤ −a + µt. On pose, pour tout λa ≥ 0,Φ(λ) = E(exp[−λτ ]) avec τ = T1 ∧ T2.
1. Montrer que T1loi= T2 et que (T1, T2)
loi= (T2, T1).
2. Verifier que Φ est bien definie et donner un majorant et un minorant sim-ples de Φ (S’aider par un dessin).
3. Montrer que Φ(λ) = 2E (exp(−λT1)11T1<T2).
4. Montrer que
eλaΦ(−λµ− λ2/2) + e−λaΦ(λµ− λ2/2) = 2
Exercice 2.4.17 Soit Xt = νt + σBt. Montrer que, pour tout λ
exp(λXt + βt), t ≥ 0
est une martingale pour un parametre β que l’on determinera.
On note Ta = inft : Xt ≥ a. Calculer E
(exp
(−λ2
2Ta
))et P (Ta < ∞).
Exercice 2.4.18 Calculer P (Mt ≤ y|Wt = x) ou Mt = sup(Ws, s ≤ t).
2.5 Scaling
Exercice 2.5.1 Montrer que le calcul de E(∫ t
0
exp(νs + σBs) ds) se deduit de
E(∫ T
0
exp(2(µs + Bs) ds). On ne demande pas de faire ce calcul.
Exercice 2.5.2 Soit T1 = inft : Bt = 1. Utiliser le scaling du MB pouretablir les egalites en loi suivantes
1. T1loi=
1S2
1
avec S1 = sup(Bu, u ≤ 1)
2. Taloi= a2T1 avec Ta = inft : Bt = a.
3. gtloi= tg1, dt
loi= td1 ou gt = sups ≤ t : Bs = 0 et dt = infs ≥ t : Bs = 0.Montrer que gt < u = du > t. En deduire gt
loi= td1
loi= 1d(1/t) .
26 Brownien.
4. On suppose que A est un processus croissant continu tel que, pout tout c
(Bct, Act, t ≥ 0) loi= (√
cBt, cAt; t ≥ 0)
On note ∆a = inft : At ≥ a. Montrer que d∆a
loi= ad∆1 . En deduireAg
loi= 1/d∆1 .
5. Montrer que At = sups≤t B2s verifie les conditions precedentes.
Exercice 2.5.3 Montrer que
sup0≤t≤1
|Wt| loi=1√T ∗1
ou T ∗1 = inft ≥ 0 : |Wt| = 1.
Exercice 2.5.4 Soit A une fonctionnelle du mouvement brownien. On dit queA a la propriete (hom) s’ il existe r ∈ IR tel que pour tout c,
(Bct, Act; t ≥ 0) loi= (√
cBt, cr+1At; t ≥ 0)
Pour quelle valeur de r la fonctionnelle At =∫ t
0
11(Bs>0)ds a t’elle la propriete
(hom)? Meme question pour le temps local (voir la definition plus loin)
2.6 Complements
Exercice 2.6.1 Projection d’un Brownien. Soit B un MB dans sa filtration(Ft) et (Gt) une filtration plus petite que (Ft). On suppose que E(Bt|Gt) = Bt
est un MB. Montrer que Bt = Bt.
Exercice 2.6.2 Filtration de carres de Browniens. Soit Yt = aB2t + bW 2
t
avec a 6= b et a et b non nuls, W et B etant des Browniens independants.Montrer que σ(Ys, s ≤ t) = σ(Bs,Ws, s ≤ t). Generaliser au cas de n carres.
Exercice 2.6.3 Representation previsible. Soit W (i), i = 1, 2, 3 trois MB,avec W (i), i = 1, 2 independants. Montrer qu’il n’est pas possible d’avoirσ(W (3)
s , s ≤ t)) = σ(W (1)s ,W
(2)s , s ≤ t). On utilisera le theoreme de representation
previsible pour representer W(1)t ,W
(2)t en terme de W (3).
Exercice 2.6.4 Ponts, suite de ex. 2.2.6 Pour chaque t on definit la tribu
Fβt = σ(Bs − s
tBt, s ≤ t
1. Montrer que la famille Fβt est croissante en t.
Enonces. 2002-03 27
2. Soit f ∈ L2(IR+, ds). Calculer la projection Ft sur L2((Fβ)t) de Ft =∫ t
0
f(s)dBs.
3. Montrer que le processus Bt = Bt −∫ t
0
duBu
uest un (Fβ
t )-mouvement
Brownien et queFβ
t = σBu, u ≤ t
4. Montrer que Ft =∫ t
0
f(s)dBt, avec f(t) = f(t)− 1t
∫ t
0
f(u)du.
Exercice 2.6.5 Soit B un MB reel, T0 = inft : Bt = 0, g = supt <1 : Bt = 0 et d = inft > 1 : Bt = 0. Montrer que Px(d > 1 + t) =∫
p(1, x; y)Py(T0 > t)dy et que P0(g ≤ t) =∫
p(t, 0; y)Py(T0 > 1− t)dy.
Exercice 2.6.6 Loi de gt. Montrer que
P ( sups≤u≤t
Bu > 0, Bs < 0) = 2P (Bt > 0, Bs < 0) = 2[14− 1
2πarcsin
√s
t]
En deduire la loi de gt = sups ≤ t : Bs = 0Exercice 2.6.7 Representation previsible. Trouver un processus f previsible
tel que F = E(F ) +∫ T
0
fsdBs pour
1. F = BT ,
2. F =∫ T
0
Bsds,
3. F = B2T ,
4. F = expBT .
Exercice 2.6.8 Le mouvement Brownien B est issu de 0. Soit W un secondmouvement Brownien issu de 0 independant de B et
Xt = (1− t)∫ t
0
Ws
(1− s)2ds + (1− t)
∫ t
0
11− s
dBs .
1. Montrer que∫ t
0
Ws
1− sds−
∫ t
0
ds
∫ s
0
Wu
(1− u)2du = (1− t)
∫ t
0
Ws
(1− s)2ds.
2. En admettant que si f et g sont deux fonctions deterministes on peut
intervertir le sens des integrales dans∫ t
0
dsf(s)∫ s
0
g(u)dBu, montrer que
Bt −∫ t
0
ds
∫ s
0
11− u
dBu = (1− t)∫ t
0
11− s
dBs
28 Brownien.
3. Verifier que X est solution de
Xt = Bt +∫ t
0
Ws −Xs
1− sds .
4. (sans utiliser ce qui precede) Montrer que Xt = (1 − t)∫ t
0
dBs − dWs
1− s+
Wt .
5. Calculer E(XsXt).
Exercice 2.6.9 Soit G une filtration, W un G mouvement brownien. Soit Hune filtration plus petite que G. Montrer que le processus Mt = E(Wt|Ht)est une martingale. (on precisera par rapport a quelle filtration). Soit Xt =
Wt+∫ t
0
Yudu ou Y est un processus G adapte. On note FX la filtration de X et
Yu = E(Yu|FXu ). Verifier que Zt = (Xt−
∫ t
0
Yudu, t ≥ 0) est une FX -martingale
(on calculera l’esperance conditionnelle de Zt par rapport a FXs .
Exercice 2.6.10 Let X be a Brownian motion with drift µ and MXt = sup s ≤
tXt. Prove that
E(MXT |Ft) = MX
t +∫ ∞
MXt −Xt
(1− F (T − t, u)du
where F (T − t, u) = P (MXT−t ≤ u)
2.7 Finance
Exercice 2.7.1 Black et Scholes. Calculer E(e−at(St −K)+) quand
St = xebt exp(σWt − σ2
2t)
Ecrire la formule obtenue quand a = b = r et quand a = r, b = r − δ. CalculerE(e−rt(St −K)+|Fs) pour s < t.
Exercice 2.7.2 Options reset Une option reset est caracterisee par une suitede dates t1, t2, . . . , tn. Le payoff de cette option est
A =∑
i
(ST −Sti)+11Sti
=infK,St1 ,St2 ,...,Stn+(ST −K)+11K=infK,St1 ,St2 ,...,Stn
Calculer le prix d’une telle option, c’est-a-dire calculer E(e−rT A) quand
St = xert exp(σWt − σ2
2t)
.
Enonces. 2002-03 29
2.8 Probleme
2.8.1 Partie I : Resultats preliminaires
Soit (Bt)t≥0 un mouvement Brownien standard sur un espace de probabilit(Ω,F , P ). On note (Ft)t≥0 la filtration naturelle de B.
Etant donne un processus continu (Xt)t≥0 a valeurs reelles, on pose pourt > 0 ,
MXt = sup
s≤tXs ,
mXt = inf
s≤tXs .
Si a est un nombre reel strictement positif, on definit egalement
TXa = inft ≥ 0;Xt = a, TX
a = inft ≥ 0; |Xt| = a .
Il a ete demontre en cours que TBa est un temps d’arret relativement a (Ft)t≥0 ,
fini p.s. , tel que E(TBa ) = ∞ et pour λ ≥ 0 ,
E[exp(−λTB
a )]
= exp(−a√
2λ)
.
1. En inversant la transformee de Laplace de TBa , montrer que la densite de
la loi de TBa est donnee par
a√2πt3
exp(−a2
2t
)1(t>0) .
2. Demontrer que pour λ ≥ 0 ,
E[exp(−λTB
a )]
=(cosh
(a√
2λ))−1
.
3. Prouver que TBa est integrable et calculer E(TB
a ) .
4. Soient c et d deux nombres reels strictement positifs et posons TB =TB
c ∧ TB−d . Montrer que pour λ ∈ IR ,
E
[exp
(−λ2
2TB 1(T B=T B
c )
)]=
sinh(λd)sinh(λ(c + d))
,
E
[exp
(−λ2
2TB
)]=
cosh(λ(c− d)/2)cosh(λ(c + d)/2)
.
5. En utilisant la propriete de Markov forte, demontrer que si c ≥ 0 , b ≤ c ,
P [Bt ≤ c ,MBt > c] = P [Bt > 2c− b].
6. En-deduire que pour chaque t > 0 , les variables aleatoires MBt et |Bt| ont
la meme loi.
30 Brownien.
7. Verifier que pour chaque t > 0 , la densite de la loi du couple (Bt ,MBt )
est donnee par
2(2c− b)√2πt3
exp(− (2c− b)2
2t
)10≤c1b≤c .
8. Retrouver alors la densite de la loi de TBa explicitee au 1. .
2.8.2 Partie II
On considere le processus (Yt)t≥0 defini par : ∀t ≥ 0 , Yt = µ t + Bt , ou µ ∈ IR .
1. Montrer qu’il existe une mesure de probabilite Pµ sous laquelle (Yt)t≥0
est un mouvement Brownien standard.
2. En utilisant le resultat de la question I.7. , en-deduire que pour chaquet > 0 , la densite de la loi du couple (Yt ,MY
t ) est donnee par
2(2c− b)√2πt3
exp(− (2c− b)2
2t
). exp
(µ b− 1
2µ2t
)10≤c1b≤c .
2.8.3 Partie III
Soit (St)t≥0 le processus tel que : ∀t ≥ 0 , St = x exp[(r − 1
2σ2)t + σBt
], ou x,
r et σ sont des nombres reels strictement positifs. Dans la suite, on designerapar N la fonction de repartition de la loi normale centrale reduite.
1. Expliciter la probabilite P θ qui fait de (Bt)t≥0 un mouvement Brownienstandard, avec Bt = θt + Bt et θ = r
σ − σ2 .
2. Trouver une relation entre MSt et M B
t et entre mSt et mB
t pour chaquet > 0.
Dans ce qui suit, H et K designe des nombres reels strictements posi-tifs.
3. Montrer que
P[St ≤ K ,MS
t ≤ H]
= N(d1)−(
H
x
)(2r/σ2)−1
N(d2) ,
avec
d1 =(
log(
K
x
)−
(r − 1
2σ2
)t
)/σ√
t ,
d2 =(
log(
Kx
H2
)−
(r − 1
2σ2
)t
)/σ√
t .
Enonces. 2002-03 31
4. Montrer que
P[St ≥ K , mS
t ≥ H]
= N(d3)−(
H
x
)(2r/σ2)−1
N(d4) ,
avec
d3 =(
log( x
K
)+
(r − 1
2σ2
)t
)/σ√
t ,
d4 =(
log(
H2
xK
)+
(r − 1
2σ2
)t
)/σ√
t .
5. Deduire de la question 3. que (E designant l’esperance sous P )
E[St 1St≤K ,MS
t ≤H]
= x ert
(N(d5)−
(H
x
)(2r/σ2)+1
N(d6)
),
avec
d5 =(
log(
K
x
)−
(r +
12σ2
)t
)/σ√
t ,
d6 =(
log(
Kx
H2
)−
(r +
12σ2
)t
)/σ√
t .
6. En utilisant le resultat de la question 4., verifier que
E[St 1St≥K ,mS
t ≥H]
= x ert
(N(d7)−
(H
x
)(2r/σ2)+1
N(d8)
),
avec
d7 =(
log( x
K
)+
(r +
12σ2
)t
)/σ√
t ,
d8 =(
log(
H2
Kx
)+
(r +
12σ2
)t
)/σ√
t .
7. On pose v1(x, T ) = E[e−rT (ST −K)+ 1mS
T≥H].
Montrer que
v1(x, T ) = x
[N(d7)−
(H
x
)(2r/σ2)+1
N(d8)
]−e−rT K
[N(d3)−
(H
x
)(2r/σ2)−1
N(d4)
].
Determiner la quantite ∂∂xv1(x, T − t) .
8. On pose v2(x, T ) = E[e−rT (ST −K)+ 1MS
T≤H]. Donner une formule
explicite pour v2(x, T ) et ∂∂xv2(x, T − t) .
32 Ito.
9. On posev3(x, T ) = E
[e−rT (ST −K)+ 1MS
T≥H]
,
v4(x, T ) = E[e−rT (ST −K)+ 1mS
T≤H]
,
v(x, T ) = E[e−rT (ST −K)+
].
Donner une relation entre v2(x, T ) ,v3(x, T ) et v(x, T ) d’une part et entrev1(x, T ) ,v4(x, T ) et v(x, T ) d’autre part.
Chapter 3
Integrale d’Ito
Dans tout ce chapitre, B (ou W ) est un mouvement Brownien dont la filtrationest notee (Ft).
3.1 Integrale de Wiener
Exercice 3.1.1 Soit Yt = tBt. Calculer dYt, l’esperance de Yt et E(YtYs).
Exercice 3.1.2 1. Montrer que la v.a. Xt =∫ t
0
(sin s) dBs est definie.
2. Montrer que X est un processus gaussien.Calculer son esperance et la covariance E(XsXt).
3. Calculer E[Xt|Fs].
4. Montrer que Xt = (sin t)Bt −∫ t
0
(cos s)Bsds.
Exercice 3.1.3 1. Montrer que le processus (Yt =∫ t
0(tan s) dBs, 0 ≤ t < π
2 )est defini.
2. Montrer que Y est un processus gaussien, calculer son esperance et savariance et son esperance conditionnelle.
3. Montrer que Yt = (tan t)Bt −∫ t
0
Bs
cos2 sds.
Exercice 3.1.4 Pont. On considere l’equation differentielle stochastique
dXt =Xt
t− 1dt + dBt ; 0 ≤ t < 1
X0 = 0
33
34 Ito.
1. Montrer que
Xt = (1− t)∫ t
0
dBs
1− s; 0 ≤ t < 1 .
2. Montrer que (Xt, t ≥ 0) est un processus gaussien. Calculer son esperanceet sa covariance.
3. Montrer que limt→1 Xt = 0.
Exercice 3.1.5 Montrer que, si f est une fonction deterministe de carre integrable
E(Bt
∫ ∞
0
f(s) dBs) =∫ t
0
f(s) ds .
Exercice 3.1.6 Calculs de moments.
Calculer A = E(∫ t2
t1
(Bt−Bt1) dt|Ft1). Montrer que∫ t2
t1
(Bt−Bt1) dt =∫ t2
t1
(t2−t)dBt. Utiliser cette egalite pour calculer A d’une autre maniere. Calculer
Var[∫ t2
t1
(Bt −Bt1) dt|Ft1
].
3.2 Formule d’Ito
Exercice 3.2.1 Ecrire les processus suivants comme des processus d’Ito enprecisant leur drift et le coefficient de diffusion
1. Xt = B2t
2. Xt = t + eBt
3. Xt = B3t − 3tBt
4. Xt = 1 + 2t + eBt
5. Xt = [B1(t)]2 + [B2(t)]2
6. Xt = (Bt + t) exp(−Bt − 12t)
7. Xt = exp(t/2) sin(Bt)
Exercice 3.2.2 Integration par parties. Soit Xt = exp(∫ t
0
a(s)ds
)et
Yt = Y0 +∫ t
0
[b(s) exp
(−
∫ s
0
a(u)du
)]dBs
ou a et b sont des fonctions deterministes. On pose Zt := XtYt. Montrer quedZt = a(t)Ztdt + b(t)dBt.
Enonces. 2005-06 35
Exercice 3.2.3 Integration par parties. Soit Yt = tX1(t)X2(t) avec
dX1(t) = f(t) dt + σ1(t)dBt
dX2(t) = σ2(t)dBt
Calculer dYt.
Exercice 3.2.4 Montrer que (Yt = sin(Bt) + 12
∫ t
0sin(Bs) ds, t ≥ 0) est une
martingale. Calculer son esperance et sa variance.
Exercice 3.2.5 Equation differentielle. On admet que le systeme suivantadmet une solution
Xt = x +∫ t
0
Ys dBs
Yt = y −∫ t
0
Xs dBs
Montrer que X2t + Y 2
t = (x2 + y2)et.
Exercice 3.2.6 Formule d’Ito. Soit Yt =∫ t
0
esdBs et Zt =∫ t
0
YsdBs.
1. Ecrire l’EDS verifiee par Zt.
2. Calculer E(Zt), E(Z2t ) et E(ZtZs).
Exercice 3.2.7 On suppose que X est un processus d’Ito de drift a(Kt −Xt),que Xt = f(Kt) et que Kt = bt + σBt ou a, b, σ sont des constantes et B unmouvement brownien. Quelle est la forme de f ?
Exercice 3.2.8 Exponentielle. Soit σ un processus adapte continu deL2(Ω× IR) et
Xt =∫ t
0
σs dBs − 12
∫ t
0
σ2s ds .
On pose Yt := exp Xt et Zt = Y −1t .
1. Expliciter la dynamique de Y , c’est-a-dire exprimer dYt.
2. Montrer que Y est une martingale locale. Donner une condition sur σpour que ce soit une martingale.
3. Calculer E(Yt) dans ce cas. Expliciter les calculs quand σ = 1.
4. Calculer dZt.
Exercice 3.2.9 Soit (a, b, c, z) des constantes et
Zt = e(a−c2/2)t+cWt
(z + b
∫ t
0
e−(a−c2/2)s−cWsds
)
Quelle est l’EDS verifiee par Z?
36 Ito.
Exercice 3.2.10 On considere le processus de dynamique
dSt = St((r − q + ht)dt + σdWt)
ou (ht, t ≥ 0) est un processus adapte.
1. On se place dans le cas ht = 0, ∀t. Montrer que (Mt = Ste−(r−q)t, t ≥ 0)
est une martingale positive. On definit une probabilite Q par dQ|Ft=
Mt
M0dP |Ft . Comment se transforme le MB W?
2. Dans le cas h non nul, expliciter St (Utiliser l’exercice 3.2.9).
3. On suppose que ht = h(St) ou h est une fonction continue. On admetqu’il existe une solution de l’EDS correspondante. Montrer que
e−rT E(e−∫ T0 h(Ss)dsΨ(ST )) = e−qT S0EQ(S−1
T Ψ(ST ))
4. On se place maintenant dans le cas ht = S−pt , avec p reel. On admet qu’il
existe une solution de l’EDS. On pose Zt = Spt .
(a) Quelle est la dynamique de Z?(b) Verifier, en utilisant l’exercice 4 que l’on peut expliciter Z.(c) Pour quelles fonctions f , le processus f(Z) est il une martingale
(locale)?
Exercice 3.2.11 Processus d’Ornstein Uhlenbeck. Soit X tel que dXt =(a− bXt)dt + dBt
1. Montrer que Zt = exp(
c
∫ t
0
XsdBs − c2
2
∫ t
0
X2s ds
)est une martingale
locale.
2. Soit Ut = X2t . Ecrire dUt puis la variable Ut comme une somme d’integrales.
3. Montrer que∫ t
0
XsdBs =12(X2
t −X20 − t)− a
∫ t
0
Xsds + b
∫ t
0
X2s ds .
Exercice 3.2.12 Soit Z le processus defini par
Zt =1√
1− texp
(− W 2
t
2(1− t)
).
1. Montrer que Z est une martingale et que Zt tend vers 0 quand t tend vers1..
2. Calculer E(Zt).
3. Ecrire Zt sous la forme
Zt = exp (∫ t
0
ΦsdWs − 12
∫ t
0
Φ2sds)
ou Φ est un processus que l’on precisera.
Enonces. 2005-06 37
Exercice 3.2.13 Moments d’une exponentielle. Soit L le processus solu-tion de
dLt = LtφdWt, L0 = 1
ou φ est une constante. Le processus L est l’exponentielle de Doleans-Dade deφW et se note Lt = E(φW )t.
1. Determiner la fonction λ telle que, pour a ∈ IR, le processus (Lt)a exp(−λ(a)t)est une martingale.
2. En deduire le calcul de E [(Lt)a] pour tout a ∈ IR.
Exercice 3.2.14 Demonstration de l’unicite de l’ecriture d’un proces-sus d’Ito.Soit dXt = atdt+σtdWt. On souhaite demontrer que si X ≡ 0, alors a ≡ 0, σ ≡0.
1. Appliquer la formule d’Ito a Yt = exp(−X2t ).
2. En deduire le resultat souhaite.
Exercice 3.2.15 Soit V = KX avec
dXt = Xt(µ− k − s ln Xt)dt + σXtdWt
dKt = Kt(r + k)dt
Calculer dVt et d ln Xt.
Exercice 3.2.16 Montrer que
Mt = exp(−
∫ t
0
B2sds
)exp
(−B2t
2tanh(T − t)
) 1(cosh(T − t))1/2
est une martingale locale.
Exercice 3.2.17 Soit At =∫ t
0
exp(Ws +νs)ds et dSt = St(rdt+σdWt). Mon-
trer que le processus f(t, St, At) est une martingale si f verifie une equation auxderivees partielles a coefficients deterministes que l’on precisera.
Exercice 3.2.18 Soit dXt = dBt +1
Xtdt. Montrer que
1Xt
est une martingale
(locale). Quelles sont les fonctions f telles que f(t,Xt) soit une martingalelocale?.
Exercice 3.2.19 Soit B et W deux browniens correles et
drt = [a(b− rt)− λσrt]dt + σ√
rtdWt
dVt = (rt − δ)Vtdt + σV VtdBt
On pose Xt =√
rt et Yt = ln Vt − αXt avec α = 2ρσV /σ. Calculer dX et dY .
38 Ito.
Exercice 3.2.20 Soit T fixe et B(t, T ) = exp
(−
∫ T
t
f(t, u)du
)avec
df(t, T ) = α(t, T )dt + σ(t, T )dWt , ∀t < T
Montrer que
dB(t, T ) = (rt − α(t, T ) +12σ(t, T ))B(t, T )dt− σ(t, T )B(t, T )dWt
ou on a note α(t, T ) =∫ T
t
α(u, T )du
Exercice 3.2.21 Soit
drt = (a− brt)dt− σ√
rt(dWt + λdt)
et B un mouvement Brownien independant de W . On note H le processus
Ht = exp(∫ t
0
rsds +12
∫ t
0
(λ21 + λrs)ds +
∫ t
0
λ1dBs +∫ t
0
λ√
rsdWs
)
Montrer que le calcul de E(exp(HαT )|Ft) se reduit a celui de E(exp(−ηrT −
µ
∫ T
t
rsds)|Ft).
Exercice 3.2.22 Fonction d’echelle. Soit X un processus d’Ito. Une fonc-tion s est une fonction d’echelle si s(X) est une martingale locale. Determinerles fonctions d’echelle des processus suivants:
1. Bt + νt
2. Xt = exp(Bt + νt)
3. Xt = x+∫ t
0
b(Xs)ds+∫ t
0
σ(Xs)ds. Identifier le processus croissant A tel
que s(Xt) = βAt ou β est un MB.
Exercice 3.2.23 Soit
dΨt = (1− rΨt)dt + σΨtdWt
Soit u une solution de
σ2
2x2u′′(x) + (1− rx)u′(x)− λu(x) = 0
On definit x∗ comme solution de x∗u′(x∗) = u(x∗) et v(x) =x∗
u(x∗)u(x). On
admettra que v′′(x) ≥ 0.Soit enfin V definie par
V (x) = v(x), 0 ≤ x ≤ x∗
= x, x > x∗
Enonces. 2005-06 39
Montrer que 1− (r + λ)x∗ ≤ 0.Ecrire la formule d’Ito pour e−λtV (Ψt). Il apparait un terme LV (x) − λV (x)avec
LV (x) = (1− rx)V ′(x) +σ2
2x2V ′′(x)
Montrer que sur x > x∗ on a LV (x) − λV (x) ≤ 0 et que sur x ≤ x∗, on aLV (x)− λV (x) = 0En deduire que
V (Ψ0) ≥ E(e−λT V (ΨT ))
(en admettant que l’integrale stochastique est une martingale).
Exercice 3.2.24 Reprendre l’exercice 2.6.8 en utilisant la formule d’Ito.
Exercice 3.2.25 Pont Brownien Calculer P (sup0≤s≤t Bs ≤ y,Bt ∈ dx). Endeduire que, pour un pont brownien b, issu de x a l instant 0, qui doit se trouveren z, z > 0 a l’instant t, on a pour y > z
P ( sup0≤s≤t
bs ≤ y) = exp(− (z + x− 2y)2
2t+
(z − x)2
2t
).
Quelle est la valeur de P (sup0≤s≤t bs ≤ y) pour y < z?
Exercice 3.2.26 Formule de Clark-Ocone Soit f une fonction bornee declasse C1. Justifier rapidement qu’il existe une fonction ψ telle que, pour t ≤ 1
E(f(B1)|Ft) = ψ(t, Bt) .
Expliciter ψ(t, x) sous la forme d’une esperance (non conditionnelle). Ecrire laformule d’Ito pour ψ en faisant les simplifications qui s’imposent. Montrer que
ψ(t, Bt) = E(f(B1)) +∫ t
0
E(f ′(B1)|Fs)dBs .
3.3 Cas multidimensionnel
Exercice 3.3.1 On considere deux processus S1 et S2 definis par
dSi(t) = Si(t)(rdt + σidBit), i = 1, 2 (3.1)
ou B1 et B2 sont deux Browniens independants et ou les coefficients r, σi sontconstants.
1. On pose S3(t)def= S1(t)+S2(t)
2 . Ecrire l’equation differentielle stochastiqueverifiee par S3.
2. Soit S4(t)def=
√S1(t)S2(t). Ecrire l’equation differentielle stochastique
verifiee par S4.
40 Ito.
Exercice 3.3.2 Formule d’Ito multidimensionnelle. Soient (B1(t), t ≥ 0)et (B2(t), t ≥ 0) deux mouvements Browniens independants. Soit (Li(t), i =1, 2 , t ≥ 0)) les processus definis par
dLi(t) = θi(t)Li(t)dBi(t) , Li(0) = 1
ou (θi(t), i = 1, 2) sont des processus adaptes continus bornes. Soit Zt =L1(t)L2(t). Ecrire dZt.Montrer que L1(t)L2(t) est une martingale.
Exercice 3.3.3 Soit (B1(t), t ≥ 0) et (B2(t), t ≥ 0) deux mouvements Brown-iens independants et ρ une constante telle que |ρ| ≤ 1.
1. Montrer que le processus (Wt, t ≥ 0) defini par Wt = ρB1(t)+√
1− ρ2 B2(t)est un mouvement Brownien.
2. Soit (φi(t), t ≥ 0; i = 1, 2) deux processus continus adaptes de carreintegrable (tels que ∀T ≥ 0, E(
∫ T
0φ2
i (t) dt) < ∞).
(a) On definit (Zt, t ≥ 0) par dZt = φ1(t)dB1(t)+φ2(t)dB2(t) et Z0 = z.Montrer que Z est une martingale.
(b) Soit Ψ(t) = φ21(t) + φ2
2(t). On suppose que Ψ(t) > 0. On definit(Yt, t ≥ 0) par
dYt =φ1(t)√Ψ(t)
dB1(t) +φ2(t)√Ψ(t)
dB2(t) , Y0 = y .
Ecrire l’equation verifiee par Y 2t .
Montrer que (Yt, t ≥ 0) est un mouvement Brownien.
3. On definit Rt = B21(t) + B2
2(t). Ecrire l’equation differentielle verifiee parR et celle verifiee par Ut =
√Rt. On montrera que
dUt =a
Utdt + bdB3(t)
ou a et b sont des constantes et B3 un mouvement Brownien.
Exercice 3.3.4 Soit dS(i)t = S
(i)t (µ(i)
t dt + σ(i)t dW
(i)t ) ou W (i), i = 1, 2 sont
deux MB correles. Determiner ki, i = 1, 2 pour que e−rt(S(1)t )k1 (S(2)
t )k2 soitune martingale.
3.4 Complements
Exercice 3.4.1 Formule de Tanaka. Soit f une fonction et F definie par
F (x) =∫ x
−∞dz
∫ z
−∞f(y) dy
Enonces. 2005-06 41
Verifier que
F (x) =∫ ∞
−∞(x− y)+f(y)dy
et que F ′(x) =∫ x
−∞f(y) dy =
∫ ∞
−∞f(y) 11x>y dy.
Montrer, en appliquant la formule d’Ito a F que
∫ t
0
f(Bs)ds = 2∫ ∞
−∞f(y)
((Bt − y)+ − (B0 − y)+ −
∫ t
0
11Bs>ydBs
)dy .
Exercice 3.4.2 Egalite de Bougerol. Soit W1 et W2 deux mouvementsbrowniens independants.
1. Appliquez la formule d’Ito aux processus
Xtdef= exp(W1(t))
∫ t
0
exp(−W1(s)) dW2(s), Ztdef= sinh W1(t)
2. Montrer que dZt =∫ t
0
φ(Zs)dW1(s) +∫ t
0
ψ(Zs)ds.
3. Verifier que Mtdef= W2(t) +
∫ t
0
XsdW1(s) est une martingale. Calculer
E(M2t ). En admettant que Mt =
∫ t
0
γsdW3(s), ou W3 est un mouvement
brownien, identifier γ.
4. En deduire une relation entre Xt et Zt.
Exercice 3.4.3 Soit drt = δdt + 2√
rtdBt et f(t, x) une fonction de C1,2b .
1. Quelle condition doit verifier la fonction s pour que s(rt) soit une martin-gale ?
2. Quelle condition doit verifier la fonction f pour que f(t, rt) soit une mar-tingale ?
3. Soit Zt = r2t et ρt =
√rt. Ecrire les EDS verifiees par Zt et par ρt.
4. Soit dr1t = µ1dt+2
√rtdB1
t et dr2t = µ2dt+2
√rtdB2
t deux processus, avecB1 et B2 deux browniens independants. On admettra que r1 et r2 sontindependants. On note R le processus defini par Rt = r1
t + r2t . Montrer
que R s’ecrit sous la forme (5.1).
Exercice 3.4.4 Temps d’atteinte. Soit τ = Ta = inft : Wt = a. On acalcule Zt = P (τ > T |Ft). Quelle est la dynamique du processus Z?.
42 Ito.
Exercice 3.4.5 Exponentielle. Soit X et Y deux martingales de la formedXt = HtdWt, dYt = KtdWt. On note Mt l’unique solution de l’equationdMt = MtdXt,M0 = 1. Montrer que la solution de dZt = dYt + ZtdXt, Z0 = zest
Zt = Mt(z +∫ t
0
1Ms
(dYs −HsKsds))
Quelle est la solution de dZt = dYt + ZtdXt lorsque dXt = HtdW 1t , dYt =
KtdW 2t ou W 1 et W 2 sont deux MB eventuellement correles?
3.5 Brownien geometrique et extensions.
Dans cette section, S est un Brownien geometrique de dynamique
dSt = St(b dt + σ dBt) (3.2)
ou b et σ sont des constantes.
Exercice 3.5.1 Soit St = e−btSt.
1. Montrer que (St, t ≥ 0) est une martingale. En deduire E(St) et la valeurde E(St|Fs) pour tous les couples (t, s).
2. Ecrire l’equation differentielle verifiee par (St)−1.
3. Montrer que ST = S0 exp[(b − 12σ2)T + σBT ], puis que ST = St exp[(b −
12σ2)(T − t) + σ(BT −Bt)].
4. Soit dLt = −Ltθt dWt ou θt est un processus adapte continu de L2(Ω×IR). On pose Yt = StLt. Calculer dYt.
5. Soit ζt defini pardζt = −ζt(r dt + θt dBt)
Montrer que ζt = Lt exp(−rt). calculer dζ−1t .
6. Calculer d(Stζt). Comment choisir θ pour que ζS soit une martingale ?
Exercice 3.5.2 Soit At =1t
∫ t
0
ln Ss ds.
1. Montrer que ln Ss = ln St + (b− σ2
2 )(s− t) + σ(Bs −Bt) pour s ≥ t.
2. Montrer que At est une variable gaussienne.
3. Soit G(t, T ) =1T
∫ T
t
(Bs −Bt) ds. Montrer que
AT =t
TAt + (1− t
T)[ln St +
12(b− σ2
2)(T − t)] + σG(t, T )
Enonces. 2005-06 43
4. Montrer que G(t, T ) est une variable gaussienne independante de Ft, donton calculera l’esperance conditionnelle et la variance conditionnelle (parrapport a Ft).
5. En deduire que AT = Zt + U ou Zt est Ft mesurable et U une variablegaussienne independante de Ft. Montrer que α(t)eZt = E(eAT |Ft),ou l’onprecisera la valeur de α.
Exercice 3.5.3 Soit VT = 1h
∫ T
T−hSudu ou h est un nombre reel donne tel que
0 < h < T . Soit X le processus defini par
e−btXt = E[e−bT VT |Ft ] .
1. Quelle est la valeur de XT ?
2. Exprimer Xt en fonction de St pour t ≤ T − h.
3. Exprimer Xt en fonction de St et de (Su, T − h ≤ u ≤ t) pour T − h ≤t ≤ T .
4. Montrer que dXt = Xtbdt + σStγtdWt avec γt = 11t<T−h1− e−bh
bh+
11T−h<t<T1− e−b(T−t)
bh.
Exercice 3.5.4 Soit Yt = Sat avec a ≥ 2. Quelle est l’EDS satisfaite par Y ?
Calculer E(Yt).
Exercice 3.5.5 Soit δ une fonction borelienne bornee et
dSt = St((r − δ(t))dt + σdWt), S0 = x .
Les questions qui suivent peuvent etre traitees dans un ordre different.
1. Montrer que e−rtSt +∫ t
0δ(s)e−rsSsds est une martingale locale.
2. Ecrire explicitement la solution S en fonction de S0, r, σ, δ et W .
3. Calculer esperance et variance de S.
4. Calculer avec le minimum de calculs (on peut utiliser des resultats connus),E((ST −K)+) dans le cas δ constant.
3.6 Le crochet
Soit M une martingale continue de carre integrable. On admet qu’il existeun processus croissant A tel que M2
t − At est une martingale. On note At =〈M, M〉t = 〈M〉t ce processus que l’on appelle le crochet de M .
Exercice 3.6.1 Calcul de crochets.
44 Ito.
1. Calculer 〈M〉 pour M = B.
2. Calculer 〈M〉 pour Mt =∫ t
0
σsdBs
Exercice 3.6.2 Crochet de martingales. Soit M et N deux martingales.On pose, par analogie avec 2ab = (a + b)2 − a2 − b2
2〈M,N〉 = 〈M + N, M + N〉 − 〈M,M〉 − 〈N, N〉Montrer que MN − 〈M, N〉 est une martingale.
Exercice 3.6.3 Utilisation de crochets. Ecrire la formule d’Ito en utilisantle crochet.
3.7 Finance
Exercice 3.7.1 Dans un marche incomplet, il existe des actifs contingents du-
plicables. En particulier, montrer que∫ T
0
(aSs + b)ds est duplicable lorsque S
est un processus d’Ito.
Exercice 3.7.2 Equation d’evaluation. Soit dSt = rStdt + Stσ(t, St)dBt,ou r est une constante.
1. Montrer que E(Φ(ST )|Ft) est une martingale pour toute fonction Φ boreliennebornee.
2. Justifier que E(Φ(ST )|Ft) = E(Φ(ST )|St)
3. Soit ϕ(t, x) la fonction definie par ϕ(t, St) = E(Φ(ST )|St). Ecrire dZt avecZt = ϕ(t, St).
4. En utilisant que ϕ(t, St) est une martingale, et en admettant que ϕ estC1,2, montrer que pour tout t > 0 et tout x > 0:
∂ϕ
∂t(t, x) + rx
∂ϕ
∂x(t, x) +
12σ2(t, x)x2 ∂2ϕ
∂x2(t, x) = 0 .
Quelle est la valeur de ϕ(T, x)?
Exercice 3.7.3 Options Europeennes et Americaines. On rappelle l’inegalitede Jensen : si Φ est une fonction convexe et G une tribu, E(Φ(X)|G) ≥Φ(E(X|G)).On admettra que si τ est un temps d’arret borne par T et Z une sous-martingale,E(ZT ) ≥ E(Zτ ). On note dSt = St(rdt + σtdWt) le prix d’un actif ou σest un processus adapte borne. Soit C = E(e−rT (ST − K)+) le prix d’uncall Europeen et CAm = supτ E(e−rτ (Sτ − K)+) le prix d’un call Americain,le sup etant pris sur tous les temps d’arret a valeurs dans [0, T ]. On noteP = E(e−rT (KerT − ST )+) et PAm = supτ E(e−rτ (Kerτ − Sτ )+) les prix deputs a strike actualises.
Enonces. 2005-06 45
1. Montrer que (e−rtSt −K)+ est une sous-martingale.
2. Soit g une fonction convexe de classe C2 telle que g(0) = 0. Montrer que
∀x, ∀α ≥ 1, g(x) ≤ 1α
g(αx)
En deduire que
E(e−rug(Su)|Ft) ≤ E(e−rT g(ST )|Ft)
pour tout t < u ≤ T . Montrer que C = CAm.
3. Montrer que P = PAm.
Exercice 3.7.4 Volatilite stochastique Soit r un reel et (σt, t ≥ 0) un pro-cessus aleatoire (Ft) adapte tel que σ1 ≤ σt ≤ σ2 ou σ1 et σ2 sont des constantes.
1. On note V1 la fonction V1(t, x) definie par V1(t, x) = e−r(T−t)E(h(XT )|Xt =x) lorsque dX(t) = X(t)(rdt + σ1dBt). Montrer que e−rtV1(t,Xt) est unemartingale.
2. Ecrire l’ EDS verifiee par le processus V1(t,Xt). En deduire que la fonctionV1 satisfait une EDP. Dans la suite, on suppose V1 convexe en x.
3. Soit dS1(t) = S1(t)(rdt+σtdWt). Ecrire la formule d’Ito pour e−rtV1(t, St).En deduire e−rTV1(t, ST ) en fonction de e−rtV1(t, St), d’une integrale endt dont on donnera le signe et d’une integrale stochastique.
4. Montrer que e−rtV1(t, St) ≤ E(e−rT h(ST )|Ft) ≤ e−rtV2(t, St).
Exercice 3.7.5 Heath-Jarrow-Morton. Soit T fixe et (rt, 0 ≤ t ≤ T ) unefamille de processus (dependant du parametre T ) que l’on notera, comme danstoute la litterature sur les taux (r(t, T ), 0 ≤ t ≤ T ) telle que, pour tout T fixe
dr(t, T ) = σ(t, T )Σ(t, T )dt + σ(t, T )dWt
ou∂
∂TΣ(t, T ) = σ(t, T ) .
1. On pose Xt =∫ T+a
T
r(t, u)du. Montrer que l’on peut ecrire
Xt = X0 +∫ t
0
µs ds +∫ t
0
φsdWs
ou on explicitera µ et φ.
2. En deduire la dynamique de Yt = exp Xt.
46 Ito.
Exercice 3.7.6 Portefeuille de marche. On considere un marche compor-tant un actif sans risque de taux r et un actif risque de dynamique
dSt = St(µtdt + σtdWt) .
Un portefeuille est un couple (α, β) de processus adaptes et la valeur du porte-feuille est le processus (Vt, t ≥ 0)
Vt = αtS0t + βtSt .
Le portefeuille est dit autofinancant si
dVt = αtdS0t + βtdSt .
1. Montrer qu’un portefeuille autofinancant est caracterise par le couple(v, β) tel que
dVt = rtVtdt + βt(dSt − rtStdt), V0 = v .
On utilise tres souvent le processus H defini par
dHt = −Ht(rtdt + θtdWt)
avec θ =µt − rt
σt.
2. Montrer que Mt = (Ht)−1 est la valeur d’un portefeuille autofinancantdont on precisera la valeur de α et de β. Ce portefeuille est appelle porte-feuille de marche .
Exercice 3.7.7 Dividendes. Soit
dSt = St([r − δ]dt + σdWt), S0 = x (3.3)
1. Montrer que St = S0 exp(at + cWt) ou on explicitera a, c. Montrer que
Ste−rt = E(ST e−rT +
∫ T
t
δSse−rsds|Ft),.
2. Montrer qu’il existe β tel que Sβ soit une Q-martingale.
3. On suppose que dYt = Yt(rdt + νdWt), Y0 = y. Soit γ une constante.Montrer que Y γ verifie une equation du type (3.3) ou l’on precisera lavaleur de δ et de σ.
4. Calculer E((ST −K)+).
Exercice 3.7.8 Assurance de portefeuille.
Enonces. 2005-06 47
1. Soit M une martingale telle que MT ≥ 0. Montrer que Mt ≥ 0 pourt < T . Cette propriete s’etend-elle au cas t > T? Si oui, donner unedemonstration, sinon, donner un contre exemple.Soit τ un temps d’arret borne par T . On suppose que Mτ = 0. Montrerqu’alors Ms = 0 pour s ∈ [τ, T ].
2. Soit V la valeur d’un portefeuille autofinancant dans un modele Black-Scholes. On rappelle que d(RtVt) = πtRtσVtdWt avec Rt = e−rt. Montrerque si VT ≥ K alors Vt ≥ e−r(T−t)K. Montrer que s’il existe τ < T telque Vτ = e−r(T−τ)K, alors Vt = e−r(T−t)K pour t ∈ [τ, T ].
3. Un agent de richesse initiale x souhaite former un portefeuille tel queVT > K. Quelle condition sur x cela implique t’il? Comment peut-ilrealiser cet objectif? (on donnera plusieurs solutions)
Exercice 3.7.9 Soit dXt =√
Yt
T − tXtdWt et dYt = gtdBt + µdt. On note
C(T − t, x, σ) la fonction de Black-Scholes. Donner une relation entre g, µ pour
que C(T − t,Xt,
√Yt
T − t) soit une martingale.
Exercice 3.7.10 Calcul de E(exp−∫ T
0
rsds|Ft) avec rt = f(t) +σ2
2t + σWt
Exercice 3.7.11 Question preliminaire Soit X et Y deux processus d’Ito conti-nus (on ne precisera pas leur dynamique, c’est inutile pour ce qui suit). Rappelerla formule d’integration par parties pour d(XY ). En deduire que
Xtd(1
Xt) +
1Xt
dXt + d〈X,1X〉t = 0 .
On considere un marche comportant deux actifs dont les prix sont des processusd’Ito S1 et S2 tels que S1 est strictement positif. Un portefeuille de valeurVt = π1
t S1t + π2
t S2t est autofinancant si
dVt = π1t dS1
t + π2t dS2
t .
On choisit comme numeraire le premier actif et on note Vt = Vt/S1t , S2
t = S2t /S1
t ,d’ou
Vt = Vt/S1t = π1
t + π2t S2
t .
Le but de cet exercice est de montrer que la notion d’autofinancement ne dependpas du choix de numeraire, c’est-a-dire que
dVt = π1t dS1
t + π2t dS2
t (3.4)
impliquedVt = π2
t dS2t . (3.5)
48 Equa. Diff.
1. Calculer d〈V,1
S(1)〉t en fonction de d〈S(1),
1S(1)
〉t et d〈S(2),1
S(1)〉t
2. Montrer que dV 1t = π2
t
(S
(2)t d
1
S(1)t
+1
S(1)t
dS(2)t + d〈S(2),
1S(1)
〉t)
3. Montrer que dV 1t = π2
t d
(S
(2)t
S(1)t
).
Exercice 3.7.12 On considere un marche dans lequel sont negocies trois actifsUn actif sans risque dont la dynamique est dS0
t = S0t rdt et DEUX actifs risques
dSit = Si
t(µidt + σdWt)
avec µ1 6= µ2 et le meme mouvement Brownien uni-dimensionnel W . Les actifscontingents sont choisis dans FT = σ(S1
s , S2s , s ≤ T ) = σ(Ws, s ≤ T ).
1. Montrer que le marche est complet.
2. Montrer que la marche admet des opportunites d’arbitrage.
3. Construire EXPLICITEMENT une telle opportunite d’arbitrage, c’est-a-dire expliciter un triplet (π0, π1, π2) de processus adaptes tels que leportefuille associe soit autofinancant et V0 = 0, VT > 0. On pourra serestreindre a une OA statique, c’est-a-dire telle que (π0, π1, π2) soient desconstantes.
Chapter 4
Equations differentiellesstochastiques
4.1 Equation lineaire
Exercice 4.1.1 Soit α, σ deux constantes et dX(t) = −12αX(t) dt+
12σdW (t).
Soit Yt = Xteαt/2. Ecrire dYt. En deduire la forme de la solution X(t).
Exercice 4.1.2 Soit l’EDS
dXt = bXtdt + dBt , X0 = x.
1. On pose Yt = e−tXt. Quelle est l’EDS verifiee par Yt ? Exprimer Yt sous
la forme Yt = y +∫ t
0
f(s)dBs ou l’on explicitera la fonction f .
2. Calculer E(Yt) et E(Y 2t ).
3. Justifier que∫ t
0
Ysds est un processus gaussien. Calculer E(exp[∫ t
0
Ysds]).
4. Exprimer Yt pour t > s sous la forme Yt = Ys +∫ t
s
g(u)dBu ou l’on
explicitera la fonction g. Calculer E(Yt|Fs) et Var (Yt|Fs)
5. Calculer E(Xt|Fs) et Var (Xt|Fs).
Exercice 4.1.3 Soit
dΨt = (1− rΨt)dt + σΨtdWt
Soit u une solution de
σ2
2x2u′′(x) + (1− rx)u′(x)− λu(x) = 0
49
50 Equa. Diff.
On definit x∗ comme solution de x∗u′(x∗) = u(x∗) et v(x) =x∗
u(x∗)u(x). On
admettra que v′′(x) ≥ 0.Soit enfin V definie par
V (x) = v(x), 0 ≤ x ≤ x∗
= x, x > x∗
Montrer que 1− (r + λ)x∗ ≤ 0.Ecrire la formule d’Ito pour e−λtV (Ψt). Il apparait un terme LV (x) − λΨ(x)avec
LV (x) = (1− rx)V ′(x) +σ2
2x2V ′′(x)
Montrer que sur x > x∗ on a LV (x) − λV (x) ≤ 0 et que sur x ≤ x∗, on aLV (x)− V (x) = 0En deduire que
V (Ψ0) ≥ E(e−λT V (ΨT ))
(en admettant que l’integrale stochastique est une martingale).
Exercice 4.1.4 Preliminaire. Soit a, α, b, β quatre constantes reelles. Soitx ∈ IR.On considere l’equation differentielle stochastique
dXt = (a + αXt) dt + (b + βXt) dBt (4.1)X0 = x
1. Montrer que (4.1) admet une solution unique.
2. On note m(t) = E(Xt) et M(t) = E(X2t ).
(a) Montrer que m(t) est l’unique solution de l’equation differentielleordinaire
y′ − αy = a (4.2)y(0) = x
(b) Ecrire la formule d’Ito pour X2t ou Xt est solution de (4.1).
(c) En deduire que M(t) est l’unique solution de l’equation differentielleordinaire
y′ − (2α + β2) y = 2(a + bβ)m + b2 (4.3)y(0) = x2
ou m est la solution de (4.2). (On admettra que l’integrale stochas-tique qui intervient est une martingale)
(d) Resoudre (4.2) puis (4.3).
Enonces. 2005-06 51
Exercice 4.1.5 Cas particulier 1.
1. Soit (Yt)t≥0 l’unique solution de l’equation (4.1) quand a = b = 0 verifiantY0 = 1.Montrer que
Yt = exp (α− 12β2)t + βBt .
2. Montrer que si α ≥ 0, Y est une sous-martingale par rapport a la filtration(Ft).A quelle condition sur α, Y est elle une martingale?
3. Soit (Zt)t≥0 le processus defini par
Zt = x + (a− bβ)∫ t
0
Y −1s ds + b
∫ t
0
Y −1s dBs .
Montrer que (Zt)t≥0 est un processus d’Ito. Calculer < Y, Z >t.En deduire que la solution Xt de (4.1) peut s’ecrire Xt = YtZt.
Exercice 4.1.6 Cas particulier 2. On se place dans le cas a = β = 0
dXt = αXt dt + b dBt (4.4)X0 = x .
1. Montrer que l’unique solution de (4.4) s’ecrit
Xt = eαt(X0 + b
∫ t
0
e−αs dBs) .
(On pourra utiliser l’exercice precedent ou poser Yt = e−αtXt et resoudrel’equation verifee par Y .
2. Montrer que X est un processus gaussien, calculer son esperance et savariance.
3. Justifier que∫ t
0
Xsds est un processus gaussien. Calculer E(exp[
∫ t
0Xsds]
).
4. Calculer E(Xt|Fs) et Var (Xt|Fs).
5. Soit Xt solution de (4.4), et φ une fonction de classe C2. Ecrire la formuled’Ito pour Zt = φ(Xt).
En deduire que si φ(x) =∫ x
0
exp(−αy2
b2) dy, alors
Zt = b
∫ t
0
exp(−αB2
s
b2) dBs
Zt est-elle une martingale de carre integrable?
52 Equa. Diff.
6. Soit λ fixe. CalculerΦ(t, y) = E(eλX2
t ) .
Soit t fixe. Etudier la martingale E(eλX2t |Fs) , s ≤ t.
Montrer que Φ est solution d’une equation aux derivees partielles. SoitΨ(t, x) = ln Φ(t, x). Montrer que
Ψ(t, x) = x2a(t) + b(t), avec a′(t) = −a(t)(2α + b2a(t)), b′(t) = −b2a(t) .
Exercice 4.1.7 Cas particulier 3. On se place dans le cas a = α = 0
dXt = (b + βXt)dBt (4.5)X0 = x
ou x 6= − bβ . Soit h la fonction definie par
h(y) =1β
ln | b + βy
b + βx|
pour y 6= − bβ
1. On pose Yt = h(Xt). Quelle est l’equation verifiee par Yt?
2. En deduire que la solution de (4.5) s’ecrit
Xt = (x +b
β) exp(−β2
2t + βBt)− b
β
Exercice 4.1.8 Cas particulier 4. On se place dans le cas a = 1, b = 0. Onpose Yt = e−αtXt. Quelle est l’equation differentielle verifiee par Y ?Calculer E(Xt) et Var (Xt).
Exercice 4.1.9 Soit f, F, g,G des fonctions continues bornees. On note X lasolution de
dXt = [f(t) + F (t)Xt]dt + [g(t) + G(t)Xt]dWt, X0 = x
et Y la solution de
dYt = F (t)Ytdt + G(t)YtdWt, Y0 = 1
1. Expliciter Y .
2. Soit Z defini par
Zt = x +∫ t
0
Y −1s [f(s)−G(s)g(s)]ds +
∫ t
0
Y −1s g(s)dWs .
Montrer que X = Y Z.
Enonces. 2005-06 53
3. Soit m(t) = E(Xt) et Mt = E(X2t ). Montrer que m est l’unique solution
de y′(t)− F (t)y(t) = f(t), y(0) = x. En deduire
m(t) = exp(F (t))[x +
∫ t
0
exp−F (s)f(s)ds
]
ou F (t) =∫ t
0
F (s)ds. Montrer que M est l’unique solution de
Y ′(t)− [2F (t) + G2(t)]y(t) = 2[f(t) + g(t)G(t)]m(t) + g2(t), y(0) = x2
Exercice 4.1.10 Calculer esperance et variance de Xt avec
dXt = a(b−Xt)dt + σ√
XtdWt
Exercice 4.1.11 Soit 0 < s < T et m ∈ IR. Verifier que la solution de
dXt =(s− T )Xt + mT
(s− T )t + T 2dt + dBt
est
Xt =m
Tt + [(ss− T )t + T 2]
∫ t
0
dBu
(s− T )u + T 2
Exercice 4.1.12 Soit π un processus adapte (de carre integrable), σ, θ et rdes processus adaptes (bornes), c un processus positif, adapte, borne et X lasolution de
dXx,π,ct = rtX
x,π,ct dt− ctdt + πT
t σt[dWt + θtdt] (4.6)Xx,π,c(0) = x
On note H le deflateur, soit Ht = exp(∫ t
0rsds +
∫ t
0θsdWs − 1
2
∫ t
0θ2ds
)=
Lt
∫ t
0rsds .Montrer que les processus HtXt +
∫ t
0
Hscsds, t ≥ 0 et Lt(XtRt +∫ t
0cRsds) sont des martingale. Verifier que leur difference est une martingale.
Exercice 4.1.13 Calculer E(exp(λXT )) pour
dXt = (µ− αXt − γVt)dt +√
VtdW1,t
dVt = k(θ − Vt)dt + σ√
VtdW2,t
Exercice 4.1.14 On considere l’equation
dXt = 11Xt≥0dWt, X0 = x . (4.7)
On suppose qu’il existe une solution.
1. Verifier que, pour x = 0, la solution de (4.7) n’est pas identiquement nulle.
54 Equa. Diff.
2. Verifier que, pour x ≥ 0, la solution est a valeurs positives. On pourramontrer, en utilisant la formule d’Ito, que si f est une fonction reguliere,nulle sur IR+, alors f(Xt) est nulle.
3. Montrer que la solution issue de 0 est d’esperance nulle a tout instant t.
4. Que peut on en conclure?
Exercice 4.1.15 Soit
dSt = µ(St)dt + σ(St)dWt
ou µ et σ2 (le carre de σ) sont des fonctions affines : µ(x) = µ0 + µ1x ; σ2(x) =σ0 + σ1x. On souhaite montrer que pour toute fonction affine ψ(x) = ψ0 + ψ1x,pour tout θ, il existe deux fonctions α et β telles que,
E
(eθST exp
(−
∫ T
t
ψ(Ss)ds
)|Ft
)= eα(t)+β(t)St .
1. Montrer qu’il suffit d’etablir l’existence de deux fonctions α et β telles quele processus
eα(t)+β(t)St exp(−
∫ t
0
ψ(Ss)ds
)
est une martingale avec α(T ) = 0, β(T ) = θ.
2. Montrer que la determination de α et β conduit a la resolution d’uneequation de Ricatti (type d’equation differentielle non lineaire) et d’uneequation differentielle lineaire. On ne demande pas la resolution de cesequations.
3. Generaliser le resultat au cas ou dSt = µ(St)dt + σ(St)dWt + dXt ou(Xt, t ≥ 0) est un processus de Poisson.
Exercice 4.1.16 Soit 0 < s < T et m ∈ IR. Verifier que la solution de
dXt =(s− T )Xt + mT
(s− T )t + T 2dt + dWt, X0 = 0
est
Xt =m
Tt + [(s− T )t + T 2]
∫ t
0
dWu
(s− T )u + T 2
4.2 Finance
Exercice 4.2.1 Options Asiatiques. Soit St solution de
dSt = St (r dt + σ dBt)
les parametres r et σ etant constants.
Enonces. 2005-06 55
1. Soit K une constante. Montrer que le processus Mt = E
((1T
∫ T
0
Su du−K)+|Ft
)
est une martingale.
2. Montrer que, si l’on pose ζt = S−1t (K − 1
T
∫ t
0
Su du), on a
Mt = St E
([1T
∫ T
t
Su
Stdu− ζt]+|Ft
).
3. Soit Φ(t, x) = E
([1T
∫ T
t
Su
Stdu− x]+
). Montrer que Φ(t, x) = E
([1T
∫ T
t
Su
Stdu− x]+|Ft
)
et que Mt = StΦ(t, ζt).
4. Ecrire la formule d’Ito pour M . En deduire une equation aux deriveespartielles verifiee par Φ.
Exercice 4.2.2 Black et Scholes, volatilite deterministe. Soit σ une fonc-tion deterministe continue et r une constante et (St, t ≥ 0) la solution de
dSt = St (r dt + σ(t) dBt) , S0 = x
1. Montrer que
St = S0 exp(
rt +∫ t
0
σ(s) dBs − 12
∫ t
0
σ2(s) ds
)
2. Montrer que∫ t
0
σ(s) dBs− 12
∫ t
0
σ2(s) ds est une variable gaussienne dont
on calculera l’esperance et la variance.
3. On rappelle que dans le cas σ constant, le prix d’un call est donne par
C(0, x) = xN (d1)−Ke−rTN (d2)
avec
d1 =1
σ√
T
(ln(
x
K) + T (r +
σ2
2))
, d2 = d1 − σ√
T
En deduire (sans faire de calculs) que, dans le cas de volatilite deterministe,la formule de Black et Scholes s’ecrit
E((ST −K)+) = xN (D1)−Ke−rTN (D2)
Exprimer D1 et D2.
56 Equa. Diff.
Exercice 4.2.3 La formule de Dupire. Soit
dSt = St(rdt + σ(t, St)dWt)
ou σ est une fonction de IR+ × IR+ dans IR et f(t, x) la densite de St, soitf(t, x) = P (St ∈ dx). ON admettra que
∂tf − 12∂xx
[x2σ2(t, x)f(t, x)
]+ ∂x [rxf ] = 0
On note C(K, T ) le prix en zero d’un call Europeen de strike K et de maturiteT . On note ∂1C, ∂2C, ∂11C les derivees partielles de C par rapport a la premierevariable, seconde variable, derivee seconde par rapport a la premiere variable.
1. Montrer que ∂11C(K, T ) = e−rT f(T,K).
2. Montrer que
12
∂2
∂x2
[x2σ2(t, x)f(t, x)
]= ert ∂2
∂x2(rx
∂
∂xC) + ert ∂2
∂x2
∂C
∂t
3. En deduire
12x2σ2(t, x)
∂2C
∂x2(t, x) = rx
∂C
∂x(x, t) +
∂C
∂t(t, x)
4.3 Equations differentielles
Exercice 4.3.1 Soit α une constante et
dXt = −α2X2t (1−Xt)dt + αXt(1−Xt)dWt (4.8)
la condition initiale etant X0 = x avec x ∈]0, 1[. On admet que X prend ses
valeurs dans l’intervalle ]0, 1[. On pose Yt =Xt
1−Xt.
1. Quelle est l’equation differentielle stochastique verifiee par Y ?
2. En deduire que Xt =x exp(αWt − α2t/2)
x exp(αWt − α2t/2) + 1− x.
Exercice 4.3.2 Produit d’exponentielle. Soit W un MB et h un pro-cessus adapte borne. On note E(hW )t
def= Lt l’unique solution de dLt =
LthtdWt, L0 = 1. Etablir une formule du type E(h1W1+h2W2)t = XtE(h1W1)tE(h2W2)t
ou X est a determiner.
Exercice 4.3.3 Soit W un mouvement Brownien issu de a > 0 et T0 = inft :Wt = 0. Pour t < T0, on definit Xt = µ (Wt)α. Montrer que, pour t < T0,
dXt = b(Xt) dt + σ(Xt) dWt
2005-06 57
ou on explicitera b et σ. En deduire la forme de la solution de dYt = Y nt dWt +
12nY 2n−1
t dt, Y0 = y ≥ 0 avant le premier temps d’atteinte de 0. (On admettra
l’unicite de la solution).
Exercice 4.3.4 Ponts
1. Soit N une gaussienne reduite centree independante de B. Verifier que la
solution de dXt = dBt +N −Xt
1− tdt est Xt = tN + (1 − t)
∫ t
0
11− s
dBs.
En deduire que X est un processus gaussien, dont on calculera l’esperanceet la covariance.
2. Soit W un MB independant de B. Verifier que la solution de dXt =
dBt +Wt −Xt
1− tdt est Xt = (1 − t)
∫ t
0
Ws
(1− s)2ds + (1 − t)
∫ t
0
11− s
dBs.
En deduire que X est un processus gaussien, dont on calculera l’esperanceet la covariance.
58 Exemples. Enonces
Chapter 5
Exemples
Dans tout ce chapitre, B (ou W ) est un mouvement Brownien dont la filtrationest notee (Ft).
5.1 Processus de Bessel
Exercice 5.1.1 Soit B1 et B2 deux mouvements Browniens independants et
Zt = B21(t) + B2
2(t) .
1. Ecrire l’EDS verifiee par Zt.
2. On pose Yt =√
Zt. Ecrire l’EDS verifiee par Yt.
3. Ecrire l’EDS verifiee par 1/Yt.
Exercice 5.1.2 Formule d’Ito On considere les processus de la forme
drt = µdt + 2√
rtdBt (5.1)
On admet que rt ≥ 0 presque partout (par rapport a t et a ω.)
1. Soit f(t, x) une fonction de C1,2b . Quelle condition doit verifier la fonction
f pour que f(t, rt) soit une martingale ?
2. Soit Zt = r2t et ρt =
√rt. Ecrire les EDS verifiees par Zt et par ρt.
3. Soit dr1t = µ1dt+2
√rtdB1
t et dr2t = µ2dt+2
√rtdB2
t deux processus, avecB1 et B2 deux browniens independants. On admettra que r1 et r2 sontindependants. On note R le processus defini par Rt = r1
t + r2t . Montrer
que R s’ecrit sous la forme (5.1).
59
60 Exemples. Enonces
Exercice 5.1.3 Processus de Bessel de dimension 3. Soit R le processussolution de
dRt =1Rt
dt + dWt, R0 = 1 .
1. Montrer que Zt =1Rt
est une martingale locale.
2. Montrer que (Ut = exp(−λ2t
2)
sinhλRt
λRt, t ≥ 0) est une martingale locale.
On admetra que c’est une martingale.
3. En deduire la valeur de E(exp(−λ2Tm
2) ou Tm = inft : Rt = m, avec
m > 0.
4. Soit f une fonction continue bornee et a un nombre reel. Quelles condi-tions doit verifier la fonction v pour que
v(Rt) exp[−at−∫ t
0
f(Rs)ds]
soit une martingale?
5. Supposons que v est explicitee. Comment calculerez vous
E(exp[−aTm −∫ Tm
0
f(Rs) ds]) ?
Exercice 5.1.4 Processus de Bessel de dimension 2. Soit dRt = dWt +1
2Rtdt.
1. Montrer que Zt = ln Rt est une integrale stochastique par rapport a W .
2. Soit ν un nombre reel positif. Montrer que Lt = [Rt]ν exp(−ν2
2
∫ t
0
ds
R2s
)
est une martingale locale.
Exercice 5.1.5 Processus de Bessel de dimension δ. Soit dRt = dBt +δ − 12Rt
dt.
1. Pour quelles fonctions s le processus s(Rt) est-il une martingale locale?
2. Quelle est la dynamique de Yt = R2t ?
3. Montrer que Ztdef= exp(−µ
2(Yt − δt)− µ2
2
∫ t
0
Yudu) est une martingale.
4. Soit dQ = ZdP . Quelle est la dynamique de Y sous Q?
Exercice 5.1.6 Minimum d’un BesselQuelle est la loi de infs≤t Xs lorsque X est un processus de Bessel?
2005-06 61
5.2 Processus de Bessel carre
Exercice 5.2.1 Soit α, σ deux constantes et dX(t) = −12αX(t) dt+
12σdW (t).
Soit Yt = Xteαt/2. Ecrire dYt.
1. En deduire la forme de la solution X(t).
2. On suppose que (W1,W2, . . . , Wn) sont des Browniens independants et
on note Xi la solution de dXi(t) = −12αXi(t) dt +
12σdWi(t). Soit r le
processus defini par r(t) = X21 (t) + . . . + X2
n(t).
3. Montrer que le processus B defini par B(0) = 0 et dB(t) =n∑
i=1
Xi(t)dWi(t)√rt
est un mouvement Brownien.
4. Montrer que drt = (a− brt) dt + σ√
rtdBt
Exercice 5.2.2 Processus de Bessel carre. Soit x ≥ 0 et R un processustel que
dRt = µdt + 2√|Rt|dWt, R0 = x (5.2)
On admettra que Rt existe et que Rt ≥ 0.
1. Soit Zt = (Wt)2. Montrer que Z verifie une equation de la forme (5.2).Quelle est la valeur de µ correspondante?
2. Soit W 1 un mouvement Brownien independant de W et Z1t = (Wt)2 +
(W 1t )2. Montrer que Z1 verifie une equation de la forme (5.2). Quelle est
la valeur de µ correspondante? Generalisation a la somme des carres de nBrowniens independants.
3. Soit ρt =√
Rt. Montrer que dρt = b(t, ρt, µ)dt + dWt. On explicitera b.
4. Soit W 1 un mouvement Brownien independant de W . On note R(µ)(x) leprocessus defini en (5.2) et, pour y ≥ 0, le processus R(ν)(y) solution de
dR(ν)t = νdt + 2
√Rt(ν)dW 1
t , R(ν)0 = y (5.3)
On notera simplement R(µ)t et R
(ν)t ces deux processus. On supposera que
les processus R(µ)t et R
(ν)t ne s’annulent pas et on admettra qu’ils sont
independants.
(a) Soit Xt = R(µ)t + R
(ν)t . Calculer dXt.
62 Exemples. Enonces
(b) Montrer que le processus Z defini ci-dessous est un mouvement Brown-ien
dZt =
√R
(µ)t dWt +
√R
(ν)t dW 1
t√R
(µ)t + R
(ν)t
(c) En deduire que Xt = R(µ)t + R
(ν)t verifie
dXt = βdt + 2√
XtdZt
On explicitera β en fonction de µ et ν.
5. (a) On suppose que l’on connaıt E(R(µ)t ) = m(µ) et Var(R(µ)
t ) = v(µ)pour tout µ. Exprimer E(Xt) et Var(Xt) en fonction de m et v.
(b) On admet que, si W est un brownien issu de√
x (voir exo 2.1.11)
E(exp−λ(Wt)2) =1√
1 + 2λtexp(− λx
1 + 2λt) (5.4)
Comment calculer E(exp−λ[ρ(1)t ]2), E(exp−λR
(1)t (x)) et E(exp−λR
(2)t (x)) ?.
On utilisera la question (d) et l’independance de R(µ)t et R
(ν)t .
6. Montrer que
E(exp−λR(µ)t (x)) = E(exp−λR
(1)t (x))
(E(exp−λR
(1)t (0))
)µ−1
Calculer E(exp−λR(µ)t (x)).
7. Comment demontrer l’independance de R(µ)t et R
(ν)t ?
Comment demontrer (5.4) ?
Exercice 5.2.3 Processus de Bessel carre. Soit X un BESQ(δ)(x).
1. Montrer que (1cXct, t ≥ 0) est un BESQ(δ)(x/c).
2. Monter que, si F est un processus adapte
Zt = exp12
∫ t
0
Fsd(Xs − δs)− 12
∫ t
0
F 2s Xsds
est une martingale locale.
3. Montrer que si F est deterministe, derivable
Zt = exp12F (t)Xt − F (0)X0 − δ
∫ t
0
F (s)ds− 12
∫ t
0
F 2s Xsds + XsdF (s)
2005-06 63
4. Soit Φ solution de
Φ′′ = b2Φ , Φ(0) = 1, Φ′(1) = 0
Montrer que Zt = exp12F (t)Xt − F (0)X0 − δ ln Φ(t)− b2
2
∫ t
0
Xsds. On
admettra que Z est une martingale.
5. En deduire que
Q(δ)x (exp−1
2
∫ 1
0
Xsds) = (cosh b)−δ/2 exp(−xb tanh b)
Exercice 5.2.4 En utilisant que
sup1≤t≤1
|Wt| loi=12
∫ 1
0
ds
R(2)s
ou R(2)s = Bs + 1
2
∫ s
0
du
R(2)u
montrer que E sup1≤t≤1(|Wt|) =√
π/2.
Exercice 5.2.5 Application du theoreme de Lamperti The following absolutecontinuity relation between two BES processes (with ν ≥ 0)
P (ν)x =
(Rt
x
)ν
exp−(
ν2
2
∫ t
0
ds
R2s
)P (0)
x
where P (ν) is the law of a BES with index ν. On utilisera
W (ν)|Ft = exp(νWt − ν2
2t)W |Ft
et (Rt; t ≥ 0) loi= x exp(BCt + νCt)
Exercice 5.2.6 Soit dXt = 2√
XtdWt + δ(t)dt ou δ est une fonction (continuebornee). On veut calculer
A = Et,x
(exp
(−1
2
∫ T
t
Xum(u)du
)f(XT )
)
1. On se place dans le cas f = 1, et on note ϕ la solution de
∂uuϕ(u, T ) = m(u)ϕ(u, T ) ; ∂uϕ(T, T ) = 0
Montrer que
Et,x
(exp
(−1
2
∫ T
t
Xum(u)du
))= exp
(∂uϕ(t, T )2ϕ(t, T )
x
)exp
(12
∫ T
t
∂uϕ(s, T )ϕ(s, T )
δ(u)du
)
2. Montrer que le calcul de A se ramene au calcul de la solution d’une EDP.
64 Exemples. Enonces
5.3 Autres processus.
Exercice 5.3.1 Processus d’Ingersoll. Soit a < z < b et Z le processussolution de
dZt = (Zt − a)(b− Zt)σdWt, Z0 = z
On admet que pour tout t, le processus Z verifie a < Zt < b.
1. Calculer d(Z−1t ).
2. soit ζtdef=
Zt − a
b− Zt. Calculer dζt puis d(ln ζt).
3. Soit Xt = (b − Zt)g(t, ζt). Donner une condition sur g pour que X soitune martingale. Sauriez vous resoudre l’equation obtenue ?
4. Soit Y solution de
dYt = (Yt − a)(b− Yt)2dt + (Yr − a)(b− Yt)σdWt
Montrer qu’il existe une probabilite Q que l’on determinera telle que, sousQ Y ait meme loi que Z sous P .
Exercice 5.3.2 Un processus stationnaire. Soit X verifiant dXt = −aXtdt+σdWt, X0 v.a. donnee.
1. Explicitez Xt.
2. Montrer que si X0 est une v.a. gaussienne independante de W , le processusX est un processus gaussien.
3. On suppose que X0 est gaussienne, independante de W . Determiner la loide X0 pour que la loi de la v.a. Xt ne depende pas de t.
Exercice 5.3.3 Soit X solution de (on admet que X existe)
dXt = Xt(1−Xt) ((µ−Xt)dt + dWt) , X0 = x
Soit h0(x) =(
1−xx
)2θ−1 et h1(x) = 2 ln(1−x)−ln x(2µ−1) et τ = inft ≥ 0, St 6∈ [a, b].
1. Montrer que h0(Xt) et h1(Xt)− t sont des martingales.
2. Montrer que P (Xτ = a) = h0(x)−h0(b)h0(a)−h0(b)
et calculer E(τ).
5.4 Des calculs
Exercice 5.4.1 Un calcul de probabilite. On suppose connue
Φ(a, T ) = P (Wt ≤ at , ∀t ≤ T )
2005-06 65
Soit W1 et W2 deux MB independants et
dXt = Xt(rdt + σ1dW1(t)), X0 = 1dYt = Yt(rdt + σ2dW2(t)), Y0 = 1
Calculer, en fonction de Φ la quantite P (Xt ≤ Yt, ∀t ≤ T ).
Exercice 5.4.2 Un calcul de loi Let dXt = µ(t)dt + σ(t)dWt, X0 = 0 whereµ and σ are piece wise constant over known time.Let us restrict our attention to the case
µ(t) = µ∀t ∈ [0, 1[, µ(t) = µ1 ∀t ∈ [1,∞[,σ(t) = σ ∀t ∈ [0, 1[, σ(t) = σ1 ∀t ∈ [1, 2[/, .
Describe the distribution of Yt = max0≤s≤t Xs.
Exercice 5.4.3 Montrer que la solution de
dCt = Ct
[rtdt + m(
dSt
St− rtdt)
]
avec dSt = St(µtdt + σtdWt) s’ecrit sous la forme
Ct = C0
(St
S0exp[a
∫ t
0
rsds + b
∫ t
0
σ2sds]
)m
ou on explicitera a et b.
Exercice 5.4.4 Changement de temps Soit dXt = −λXtdt + σdWt et τ =inft : |Xt| > g(t) ou g est une fonction deterministe. Exprimer P (τ > t) enfonction de Ψ(u) = P (τ∗ > u) avec τ∗ = inft : |Wt| > h(t).
66 Girsanov. Enonces
Chapter 6
Girsanov
Dans tous ces exercices, B (ou W ) designe un P -mouvement Brownien issu de0, Ft sa filtration canonique.
6.1 Resultats elementaires.
Exercice 6.1.1 Changement de probabilite Soit (θt, t ≥ 0) un processus
adapte continu borne et Lt = exp[∫ t
0
θsdBs − 12
∫ t
0
θ2sds]. Soit Q la probabilite
definie sur FT par dQ = LT dP . Soit (φt, t ≥ 0) un processus adapte continu
borne et Mt =∫ t
0
φsdBs −∫ t
0
θsφsds. Montrer que Mt est une Q-martingale.
On pose Zt = MtLt. Calculer dZt. Montrer que Zt est une P -martingale locale.Pouvait-on prevoir ce resultat.
Exercice 6.1.2 Un calcul d’esperance. Soit θ un processus adapte borneet H le processus defini par dHt = −HtθtdWt, H0 = 1. On note dQ|Ft =
HtdP |Ft . Montrer que EP (HT ln HT ) = EQ(12
∫ T
0
θ2sds). On pourra faire une
demonstration a la main (quand θ est deterministe) ou utiliser le theoreme deGirsanov.
Exercice 6.1.3 Calcul d’esperance. Soit p une fonction deterministe donnee.
Pour quelles fonctions h et k le processus exp(h(t) + k(t)W 2t +
∫ t
0
p(s)W 2s ds)
est-il une martingale. Applications :
1. Calculer E[exp(λW 2T +
∫ T
0
p(s)W 2s ds]
2. Calculer E[exp(λW 2T +
∫ T
0
p(s)W 2s ds)Ψ(A + BWT )]
67
68 Girsanov. Enonces
Exercice 6.1.4 Ito+ Girsanov. Soit Γ le processus solution de dΓt = Γt(βtdt+γtdWt), Γ0 = 1 ou β et γ sont des processus F adaptes bornes.
1. Montrer que Γt exp(−
∫ t
0
βsds
)est une martingale locale.
2. Trouver une probabilite Q telle que Γt soit une Q-martingale locale.
3. Calculer dΓ−1. Trouver une probabilite R telle que Γ−1t soit une R-
martingale locale.
Exercice 6.1.5 Longstaff’s Model. Soit rt = Y 2t avec dYt = dWt − (λYt +
α2 )dt.
1. Donner la dynamique de r.
2. Soit f et g deux fonctions deterministes (que l’on supposera continuesbornees). Exprimer
E(exp∫ t
0
[f(s)Ws + g(s)]dWs − 12
∫ t
0
[f2(s)W 2s + 2Wsf(s)g(s)]ds)
en fonction de exp12
∫ t
0
g2(s)ds.
3. Montrer que le calcul de E(exp−∫ t
0
rsds) se deduit du calcul de l’expression
precedente avec des fonctions f et g verifiant des conditions que l’onprecisera.
Exercice 6.1.6 Loi conditionnelle. Soit t > s. Montrer que la densite
P (Bt + νt ∈ dy|Bs + νs = x)
ne depend pas de ν.
Exercice 6.1.7 Loi du sup. On supposera que l’on connait la loi du couple(B∗
t , Bt) ou pour un processus X on note
X∗t = sup
s≤tXs .
Montrer comment calculer la loi de (L∗t , Lt) pour Lt = exp(αBt − α2
2t).
Exercice 6.1.8 Loi de quantiles
2005-06 69
1. Soit F et G deux fonctionnelles definies sur C([0, 1], IR). Montrer que l’ona equivalence entre(i) ∀t,∀µ ∈ IR, F (Xs, s ≤ t) loi= G(Xs, s ≤ t) le processus X etant unBrownien de drift µ
(ii) ∀t, F (Xs, s ≤ t) loi= G(Xs, s ≤ t) le processus X etant un Brownien.
2. Soit At =∫ t
0
ds11Xs≥0 et θt = sups ≤ t : supu≤s Xu = Xs. Montrerque
Atloi= θt, lorsque le processus Xest un mouvement Brownien de drift µ
equivaut a
A1loi= θ1, lorsque le processus Xest un mouvement Brownien
3. Soit X un mouvement Brownien. Montrer que si E(f(X1, A1)11X1>0) =E(f(X1, θ1)11X1>0), alors X1, A1
loi= (X1, θ1).
La preuve de la premiere assertion peut etre trouvee dans Embrechts et al.
6.2 Crochet.
Exercice 6.2.1 Girsanov Soit M une P -martingale et dQ = exp(Mt−12〈M〉t) dP .
Montrer que si N est une P martingale, N− < N, M > est une Q martingale.
Exercice 6.2.2 h-processus. Soit X tel que dXt = µdt + σdWt, X0 = x et hune fonction de classe C1 telle que h(Xt) est une martingale positive. On note
Q la probabilite definie par dQ|Ft =h(Xt)h(x)
dP |Ft . Soit M une P -martingale.
Montrer que Mt −∫ t
0
h′(Xs)h(Xs)
d〈M, X〉s est une Q-martingale.
6.3 Processus.
Exercice 6.3.1 Processus de Bessel. Soit P la probabilite historique, θ etµ deux processus. On note P θ la probabilite telle que le processus W θ defini
par W θt
def= Wt −
∫ t
0
θ(s)ds soit un mouvement Brownien et Pµ la probabilite
telle que Wµ def= Wt −
∫ t
0
µ(s)ds soit un mouvement Brownien.
1. Quelles sont les densites Lθ =dP θ
dPet Lµ =
dPµ
dP?
70 Girsanov. Enonces
2. Soit L =Lθ
Lµ. Expliciter L en fonction de W puis en fonction de Wµ. A
quel changement de probabilite type Girsanov correspond L?
3. Soit R le processus solution de
dRt =δ − 1Rt
dt + dWt, R0 = 1
(a) Montrer que ∫ t
0
dRs
Rs= ln Rt +
12
∫ t
0
1R2
s
ds
(b) Soit θ un processus adapte borne et Lt = exp(∫ t
0
θ(s)dW (s)−12
∫ t
0
θ2(s)ds).
On notera Q la probabiite definie par dQ = LtdP .Comment choisir θ pour que, sous Q
dRt =1Rt
dt + dWt
ou W est un Q-Brownien.
(c) Exprimer dans ce cas Lt en n’utilisant que le processus R
(d) En deduire que
E(f(Rt)) = E
((ρt)δ exp[α
∫ t
0
ds
ρ2s
] f(ρt))
ou α est une constante dependant de n et
dρt =1ρt
dt + dWt, ρ0 = 1 .
Exercice 6.3.2 Fonctionnelles exponentielles
1. Calculer E(∫ t
0exp(Bs)ds) et E(exp(αBt)
∫ t
0exp(γBs)ds).
2. Soit A(t, ν) =∫ t
0
exp(Bs + νs)ds.
(a) Montrer en utilisant le theoreme de Girsanov que le calcul de E(A(t, ν))se ramene au cas ν = 0.
(b) Peut-on faire un calcul direct?
Exercice 6.3.3 Soit X le processus solution de
dXt = −λXtdt + dBt , X0 = x.
2005-06 71
1. On definit
Lt = exp(
λ
∫ t
0
Xs dBs − λ2
2
∫ t
0
X2s ds
)
. Verifier que L est une martingale locale. On admet pour la suite quec’est une martingale.
2. On note Pλ la mesure de probabilite definie sur Ft par dPλ = LtdP .Quelle est la dynamique de X sous Pλ?
3. Montrer que
Lt = exp(∫ t
0
λXsdXs +12
∫ t
0
λ2X2s ds)
4. Calculer
EP
(exp(−b2
2
∫ t
0
X2s ds)
).
5.
6. Montrer que le calcul de E(exp∫ t
0
X2s ds) se deduit de celui de E(exp(a
∫ t
0
BsdBs−
b
∫ t
0
B2sds)). On ne cherchera pas a effectuer ce dernier calcul.
Exercice 6.3.4 Processus d’Ornstein-Uhlenbeck.
1. Soit U une variable gaussienne d’esperance m et de variance σ2. CalculerE(expλU2 + µU) pour 1− 2λσ2 ≥ 0.
2. On definit sur FT la mesure P b par
dP b = exp−b
∫ T
0
Bs dBs − b2
2
∫ T
0
B2s dsdP
(a) Justifier que, sous P b le processus (Wt = Bt + b∫ t
0Bs ds , t ≤ T ) est
un brownien.
(b) En deduire que sous P b, le processus (Bt, t ≥ 0) est un processusd’Ornstein-Uhlenbeck, et que Bt est une variable gaussienne dont onprecisera, en s’appuyant sur le cours, l’esperance et la variance.
(c) Montrer que, sous P , on a
∫ t
0
Bs dBs =12(B2
t − t).
La meme egalite est-elle vraie sous P b?
72 Girsanov. Enonces
(d) Montrer que, pour tout t ≤ T ,
EP (exp−αB2t −
b2
2
∫ t
0
B2s ds) = Eb(exp−αB2
t +b
2(B2
t − t))
ou Eb designe l’esperance sous P b.Montrer que si B est un brownien issu de a, on a
EP (exp−αB2t −
b2
2
∫ t
0
B2s ds) = Eb(exp−αB2
t +b
2(B2
t − a2 − t))
(e) En deduire (il y a des calculs) que, pour tout t,
EP (exp−αB2t −
b2
2
∫ t
0
B2s ds) = (cosh bt + 2
α
bsinh bt)−
12
3. Montrer que si Bt est un Brownien issu de a
EP (exp−αB2t−
b2
2
∫ t
0
B2s ds) = (cosh bt+2
α
bsinh bt)−
12 exp[−xb
21 + 2α
b coth bt
coth bt + 2αb
]
avec x = a2.
Exercice 6.3.5 Soit S solution de
dSt = St (µ dt + σ dBt) , S0 = s ,
les coefficients µ et σ etant constants.
1. Montrer que St = S0 exp(µt + σBt − σ2
2t).
2. On pose θ = −µ− r
σ. Soit Q definie sur Ft par dQ = LtdP avec Lt =
exp(θBt− 12θ2t). Montrer que (Wt = Bt + θt, t ≥ 0) est un Q-mouvement
brownien.
3. Soit P definie sur Ft par dP = ZtdQ avec Zt = exp(σWt − σ2
2t).
Montrer quedSt = St((r + σ2) dt + σ dBt)
ou B est un P -mouvement brownien.
4. Soit Pt = P0ert. Montrer que
(St
Pt, t ≥ 0
)est une Q-martingale.
Montrer quePt
Stest une P -martingale.
2005-06 73
5. Soit Ft = e−λt
(∫ t
0
Su du + sA
)ou A, λ sont des constantes
Soit Ψt =Ft eλt
St. Ecrire l’equation differentielle stochastique verifiee par
Ψt en utilisant le Brownien B.
Exercice 6.3.6 Soit α, β et σ des fonctions (deterministes) bornees et b(t) =∫ t
0
β(s) ds. On note r le processus solution de
drt = (α(t)− β(t)rt) dt + σ(t)dWt
On suppose que σ ne s’annule pas.
1. Verifier que
rt = exp(−b(t))(
r0 +∫ t
0
exp(b(u)) α(u) du +∫ t
0
exp(b(u)) σ(u) dWu
).
2. Calculer E(rt) et Cov(rt, rs).
3. Soit Q1 la probabilite definie sur Ft par dQ1 = LtdP , avec
Lt = exp(∫ t
0
θ(s)dWs − 12
∫ t
0
(θ(s))2 ds)
ou θ(s) = −α(s)σ(s)
. On suppose θ bornee. On note W 1t = Wt −
∫ t
0
θ(s) ds.
Montrer que (exp(b(t)) rt, t ≥ 0) est une Q1 martingale.
4. Soit Q2 la probabilite definie sur Ft par dQ2 = ZtdP , avec
dZt = Ztβ(t)σ(t)
rt dW 1t , Z0 = 1
Montrer que r est une Q2-martingale.
Exercice 6.3.7 Drift non observable Soit BYt = Y t + Bt ou Y est une
variable aleatoire de loi ν, independante de B. Soit F une fonctionnelle surC([0, t], IR). Montrer que
E[F (BYs , s ≤ t)] = E[F (Bs; s ≤ t)h(Bt, y)]
avec h(x, t) =∫
ν(dy) exp(yx− y2
2t) En deduire que, sur l’espace canonique
Xt −∫ t
0
dsh′xh
(Xs, s)
74 Girsanov. Enonces
est une martingale sous Ph avec Ph|Ft= h(Xt, t)W |Ft
. Montrer que BYt =
Bht +
∫ t
0
∫ t
0
dsh′xh
(BYs , s) ou Bh
t est un Brownien.
Soit Q definie par dQ = e−Y Bt− 12 Y 2tdP . Montrer que sous Q, BY
t est independantde Y .
Exercice 6.3.8 Soit B un MB et F sa filtration naturelle. On note h unefonction.
1. Donner des conditions sur h pour que dQ = h(BT )dP definisse, sur FT
une probabililite equivalente a P .
2. Calculer Lt telle que dQ|Ft = LtdP |Ft
3. Montrer que ∀X ∈ FT , on a EQ(X|BT ) = EP (X|BT )
4. Expliciter Q(BT ∈ dx).
5. Soit A ∈ FT , independante de BT . Montrer que Q(A) = P (A). Donnerdes exemples de tels A.
6. Calculer Q(f(BT )|Ft).
7. Montrer que
Lt = 1 +∫ t
0
dBs
∫ ∞
−∞dy
h′(y)e−(y−Bs)2/(2(T−s))
√2π(T − s)
8. Montrer que le processus W defini par
dWt = dBt −
∫ ∞
−∞dyh′(y)e−(y−Bt)
2/(2(T−t))
∫ ∞
−∞dyh(y)e−(y−Bt)
2/(2(T−t))
dt
est un Q mouvement Brownien.
9. (cette question ne depend pas des precedentes) Soit Gt = Ft∨σ(BT ). Mon-
trer que le processus Mt = Bt −∫ t
0
BT −Bs
T − sds est un P -Gt mouvement
Brownien. Montrer que Mt est independante de BT .
10. Montrer que M est un Q-Gt mouvement Brownien.
Exercice 6.3.9 Soit Xt = Wt+∫ t
0
x−Xs
1− sds et Mt = exp
(−
∫ t
0
x−Xs
1− sdWs − 1
2
∫ t
0
(x−Xs
1− s
)2
ds
).
Montrer que
Mt = exp(−x2
2+
(x−Xt)2
2(1− t)+
12
ln(1− t))
Verifier cette formule
2005-06 75
Exercice 6.3.10 Soit dQ|Ft= h(t,Xt)dP |Ft
. Sous quelles conditions sur h Qest-elle une probabilite sur FT ? Montrer que
Bt −∫ t
0
∂xh(s,Bs)ds
est une Q-martingale?
Exercice 6.3.11 Soit Lt = exp(− 1
4
(e−2Wt − 1
)+ 1
2
∫ t
0
(e−2Ws − 1
4e−4Ws)ds
)
1. Question preliminaire: Calculer l’integrale∫ t
0e−2WsdWs.
2. Montrer que L est une martingale. Quelle est son esperance?
3. On pose dQ = LtdP . Quelle est la dynamique de W sous Q?
6.4 Cas multidimensionel
Exercice 6.4.1 Cas multidimensionel. Soient (B1(t), t ≥ 0) et (B2(t), t ≥0) deux mouvements Browniens independants. Soit (Li(t), i = 1, 2 , t ≥ 0) lesprocessus definis par
dLi(t) = θi(t)Li(t)dBi(t) , Li(0) = 1
ou (θi(t), i = 1, 2) sont des processus adaptes continus bornes.
1. Verifier que
Li(t) = exp(∫ t
0
θi(s)dBi(s)− 12
∫ t
0
θ2i (s) ds) .
2. Soit T ≥ 0 et Q1 la probabilite definie sur FT par dQ1 = L1(T )dP .
Soit (φt, t ≥ 0) un processus adapte continu et Mt =∫ t
0
φsdB1(s) −∫ t
0
θ1(s)φsds.
(a) Montrer que (Mt, 0 ≤ t ≤ T ) est une Q1-martingale locale.
(b) On pose Z1(t) = MtL1(t). Calculer dZ1(t). Montrer que Z1 est uneP -martingale. Pouvait-on prevoir ce resultat ?
3. Soit Zt = L1(t)L2(t). Ecrire dZt. Montrer que Z est une P -martingale.
4. Soit Q la probabilite definie sur FT par dQ = ZT dP . Comment se trans-forment les browniens Bi ?
76 Girsanov. Enonces
5. Soit (Si, i = 1, 2) deux processus solutions de
dSi(t) = Si(t)[bi(t)dt + σi(t)dB1(t) + φi(t)dB2(t)]
Montrer qu’il existe une probabilite Q equivalente a P telle que, sous Q
dSi(t) = Si(t)[rdt + σi(t)dW1(t) + φi(t)dW2(t)]
ou (Wi, i = 1, 2) sont des Q-Browniens independants.
6.5 Temps d’arret.
Exercice 6.5.1 Temps d’arret. Soit τ un (Ft)-temps d’arret. Soit Q telleque dQ|FT
= LT dP |FTet X ∈ FT . Comparer EP (LT 11τ>T X) et EQ(X11τ>T ).
Exercice 6.5.2 Let W be a Brownian motion and T = inft : eBt−t/2 > a,where a > 1. Prove that, ∀λ ≥ 1/2,
E(11T<∞ exp(λBT − λ2
2T )) = 1
Exercice 6.5.3 Temps d’atteinte. Soit X un processus tel que
dXt = µdt + νdWt, X0 = 0
ou µ et ν sont des constantes telles que ν > 0. Soit r une constante.
1. Montrer qu’il existe θ tel que
Mtdef= exp(−rt + θXt)
soit une martingale.
2. Soit b un nombre positif et τ le temps d’arret defini par
τ = inft ≥ 0 |Xt = b
Calculer E(exp(−rτ + θXτ )). On admettra que la martingale Mt estuniformement integrable et que le temps d’arret τ est fini. En deduireE(exp(−rτ)).
3. On suppose que les conditions de la premiere question sont satisfaites.Soit Q telle que dQ = MtdP , sur Ft. Comment se transforme W?
4. Soit S le processus defini par
dSt = St[rdt + σdWt], S0 = s
et Yt = lnSt
s. Ecrire dYt.
2005-06 77
5. Soit B une constante telle que s < B. Soit TB le temps d’arret
TB = inft ≥ 0 |St = BCalculer
E(exp(−rTB)) .
Exercice 6.5.4 Soit f et g deux fonctions deterministes, f de classe C‘1, g
continue. On note Ft =∫ t
0
f(u)dWu et u est la solution de
u′′(t)− 2f ′(t)f(t)
u′(t)− 2λg(t)f2(t)u(t) = 0
avec u′(T ) = −2aλu(T )f2(T ). Le but de cet exercice est de montrer que
E
(exp
(−λ
[aF 2
T +∫ T
0
g(t)F 2t dt
]))=
(u(T )u(0)
)2
1. Montrer que, pour toute fonction h continue, le processus L defini par
Lt = exp(∫ t
0
h(s)FsdWs − 12
∫ t
0
h2(s)F 2s ds
)
est une martingale.
2. En deduire que
1 = E
(exp
(∫ T
0
h(s)2f(s)
dF 2s −
12
∫ t
0
(h(s)f(s) + h2(s)F 2s )ds
))
= E
(exp
12
(h(T )f(T )
F 2T −
∫ T
0
F 2t
(h′(t)f(t)− f ′(t)h(t)
f2(t)
)dt−
∫ t
0
(h(s)f(s) + h2(s)F 2s )ds
))
3. Montrer que
E
(exp
[12
(u′(T )
u(T )f2(T )
)F 2
T −∫ T
0
F 2t
(u′′(t)− 2u′(t)f ′(t)/f(t)
u(t)f2(t)
)dt
])=
(u(T )u(0)
)1/2
4. Resoudre le meme probleme par changement de temps.
5. Soit Ψ une fonction borelienne bonee de IR dans IR. Comment calculer
K = E
(exp
(−λ
[aF 2
T +∫ T
0
g(t)F 2t dt
]Ψ(A + BFT +
∫ T
0
φ(t)Ftdt)
))
Exercice 6.5.5 Decomposition canonique Soit W un mouvement Brown-ien et h une fonction positive, verifiant h(0, 0) = 1 et harmonique en es-pace (c’est-a-dire telle que h(t,Wt) est une martingale). On definit Q par
dQ|Ft = h(t, Wt)dPFt . Montrer que Wt−∫ t
0
h′xh
(s, Ws)ds est un Q-mouvement
Brownien.
78 Girsanov. Enonces
6.6 Finance
Exercice 6.6.1 Moyenne. Soit dSt = St(rdt + σdBt), S0 = 1, r et σetant des constantes. On souhaite calculer C = E[(ZT − ST )+] quand ZT =
exp(
1T
∫ T
0
ln St dt
).
1. Soit Q la probabilite definie sur FT par dQ = exp(σBT − σ2T/2)dP .Montrer que
e−rT EP [(ZT − ST )+] = EQ[(ZT
ST− 1)+] .
2. Soit Bt = Bt − σt. Ecrire ZT /ST sous la forme exp(αT −∫ T
0
β(t)dBt).
3. Montrer que le calcul de C se reduit au calcul de E((ST −K)+) pour unBrownien geometrique S dont on precisera la loi.
Exercice 6.6.2 Volatilite stochastique On rappelle le theoreme de representationprevisible a deux dimensions Soit W = (W 1,W 2) un Brownien a valeurs dansIR2 et (Ft) sa filtration canonique. Toute (Ft)-martingale de carre integrable
s’ecrit Mt = m +∫ t
0
φ1(s)dW 1(s) +∫ t
0
φ2(s)dW 2(s) ou (φi, i = 1, 2) sont des
processus adaptes. Soient µ et η deux fonctions deterministes de IR+ dans IR etσ, γ deux fonctions deterministes de IR dans IR. On considere alors un marchefinancier ou l’actif risque verifie
dSt = St(µ(t)dt + σ(Yt)dW 1t ), S0 = s
ou Y est un processus solution de
dYt = η(t)dt + γ(Yt)dW 2t , Y0 = 1
1. Quelles doivent etre les proprietes du processus (Lt, t ≥ 0) pour que laformule dQ|Ft = Lt dP definisse une probabilite Q ?
2. Determiner l’ensemble des probabilites equivalentes a P telles que, sousQ, S soit une martingale.
3. Soit B un actif contingent B ∈ FT . Comment lui donner un prix (le tauxsans risque est nul) ?
Exercice 6.6.3 Options boost. Soit M une Ft-martingale a valeurs stricte-ment positives.
1. Justifier qu’il existe ψ tel que dMt = ψtdWt.
2. Montrer qu’il existe Ψ tel que dMt = ΨtMtdWt.
2005-06 79
3. Soit γ un nombre reel. Calculer d[(Mt)γ ].
4. Soit S un Brownien geometrique tel que S0 = s et
dSt = St(r dt + σdWt) (6.1)
ou r et σ sont des constantes. Montrer qu’il existe γ tel que St = s(Mt)γ
ou M est une martingale de la forme precedente. Expliciter Ψ en fonctionde r et σ. A quel choix de r et σ correspond la valeur γ = 1?
5. Soit K un nombre reel positif et M une martingale telle que dMt =MtσdWt ou σ est une constante et M0 = 1. Montrer que
E((Mt −K)+) = E((1−KMt)+)
On pourra utiliser le theoreme de Girsanov et faire apparaitre une nouvelleprobabilite Q et determiner la loi de 1/M sous Q.
6. Soit S un processus verifiant (6.1), S∗t = sups≤t Ss et W ∗t = sups≤t Ws. La
loi de W ∗t est connue (c’est celle de |Wt|, ce resultat sera admis), on notera
Φ(a) = P (W ∗t ≤ a). Calculer, en utilisant les resultats de la question 3,
E(11S∗T≤a) qui correspond a la valeur d’une option boost (au coefficientexp(−rT ) pres).
Exercice 6.6.4 Volatilite stochastique. Soit W 1 et W 2 deux Browniensindependants, et Ft = σ(W 1
s ,W 2s , s ≤ t) la filtration engendree par les deux
Browniens. Soit µ et η deux fonctions deterministes bornees de IR+ dans IR etσ, γ deux fonctions deterministes bornees definies de IR dans IR. On note S lasolution de
dSt = St(µ(t)dt + σ(Yt)dW 1t ), S0 = s
ou Y est un processus solution de
dYt = η(t)dt + γ(Yt)dW 2t , Y0 = 1
1. Soit θ un processus borne et Z la solution de
dZt = ZtθtdW 1t , Z0 = 1
Ecrire explicitement Zt sous la forme d’une exponentielle.
2. Soit λ et ν deux processus adaptes bornes et L le processus defini par
Lt = exp[∫ t
0
λsdW 1s −
12
∫ t
0
(λs)2ds +∫ t
0
νsdW 2s −
12
∫ t
0
(νs)2ds
](6.2)
Ecrire l’EDS verifiee par L.
3. On pose Wt = W 1t −
∫ t
0
λsds et on note Z la solution de dZt = ZtθdW 1t , Z0 =
1 ou θ est une constante. Montrer que LZ est une martingale.
80 Girsanov. Enonces
4. Soit Q definie sur Ft par dQ = LtdP . Montrer que Z est une Q martingale.En deduire que W 1 est un Q brownien.
5. Montrer que W 2t = W 2
t −∫ t
0
νsds est un Q brownien.
6. On admet que si Q est une mesure equivalente a P il existe λ, ν tels que ladensite de Q par rapport a P soit de la forme (6.2). Decrire l’ensemble descouples λ, ν correspondants a des probabilites Q telles que (Ste
−rt, t ≥ 0)soit une Q-martingale.
7. Le marche financier est-il complet ?
8. Soit X un actif contingent duplicable, c’est-a-dire tel qu’il existe V pro-cessus adapte de la forme
dVt = rVtdt + φt(dSt − rStdt)
verifiant VT = X, avec φ processus adapte borne. (On ne demande pasde justifier cette definition)
(a) Montrer que (Vte−rt, t ≥ 0) est une Q martingale pour tout Q ∈ Q.
(b) On suppose que Vt = v(t, St, Yt). Montrer que v verifie une equationaux derivees partielles que l’on explicitera.
Exercice 6.6.5 Symetrie put-call. Soit M une (Ft)-martingale telle quedMt = MtσdWt ou σ est une constante et M0 = 1.
1. Verifier que M est a valeurs strictement positives.
2. Calculer dYt quand Yt = (Mt)−1.
3. Soit Q telle que dQ = MtdP sur Ft. Determiner la loi de Y sous Q.
4. Montrer que EP ((MT −K)+) = KEP ((K−1 −MT )+).
Exercice 6.6.6 SymetriesOn suppose que le prix d’un actif, sous la probabilite risque neutre Q est donnepar (3.3) ou q est le taux de dividendes. On note C(x,K, r, q) (ou C(x,K, r, q, σ)si besoin est) le prix d’une option d’achat europeenne de prix d’exercice K, soit
C(x,K, r, q) = E(e−rT (ST −K)+)
On rappelle que, dans le cas r = 0 = q, en notant C∗(x,K) = C(x,K, 0, 0) leprix d’un call de strike K sur un sous jacent de valeur initiale x et P ∗ le prixd’un put, on a
C∗(x,K) = xN[d1
( x
K
)]−KN
[d0
( x
K
)], P ∗(x,K) = −xN
[d0
(K
x
)]+KN
[d1
(K
x
)],
(6.3)
2005-06 81
avecd1(α) =
1σ√
Tln(α) +
12σ√
T , d0(α) = d1(α)− σ√
T
et que le delta du call est DeltaC∗(x, K) = N (d1(x
K)).
1. Montrer, en utilisant les resultats de l’exercice 3.3 que C(x,K, r, q) =C∗(xe−qT ,Ke−rT ).
2. Montrer, au vu des formules precedentes que
DeltaC(x,K, r, q) = e−qTN[d1
(xe−qT
Ke−rT
)]DeltaP(x,K, r, q) = −e−qTN
[d0
(Ke−rT
xe−qT
)]
ou DeltaC est le Delta du call.
3. Montrer, au vu des formules (6.3) et de la question (a) que
C(x,K, r, q) = C∗(Ke−µT , x) = P ∗(xe−µT ,K) = P (K,x, q, r) (6.4)
ou µ = r − q et P le prix d’un put. Commenter.
4. On souhaite montrer avec des arguments probabilistes que C∗(K,x) =P ∗(x,K). (cas µ = 0).
(a) On commencera par calculer la dynamique de 1/S, dans le cas dSt =StσdWt.
(b) On transformera E((ST −K)+) en E((x−ST )+) ou E est l’esperancesous une probabilite que l’on precisera.
5. Le payoff d’une option power sur le sous-jacent Y est Y αT (YT −K)+. Mon-
trez que son prix Cpow(y, K, ν, α) peut s’obtenir facilement a partir de calleuropeens portant sur les sous jacents Y α et Y α+1.
Exercice 6.6.7 Options power. Soit
dSt = St((r − δ)dt + σdBt), S0 = x .
Cette dynamique modelise, sous la probabilite risque-neutre P , le prix d’un actifversant des dividendes au taux δ le taux spot etant r.
1. On souhaite evaluer un actif contingent sur S, actif versant des dividendes.Il s’agit donc de calculer
EP (h(ST )e−r(T−t)|Ft) .
Quelle est la valeur de cet actif dans le cas h(x) = (xα−K)+? (On utiliserasans moderation les formules classiques sur l’evaluation de produits etudiesdans le poly ou dans tout ouvrage de reference.)
82 Girsanov. Enonces
2. On suppose r = δ. On pose dQ|Ft= (St/x)dP |Ft
. Justifier rapidementque l’on definit un changement de probabilite. On pose Zt = x2/St. Quelleest la dynamique de (Zt, t ≥ 0) sous Q? Montrer que pour toute fonctionf borelienne bornee
1x
EP (ST f(x2
ST)) = EP (f(ST ))
3. On repasse au cas general. Montrer que Sa est une martingale pourune valeur de a que l’on precisera. Montrer que, pour toute fonctionf borelienne bornee
EP (f(ST )) =1xa
EP (SaT f(
x2
ST))
4. On se place dans le cas
h(x) = xβ(x−K)+
Montrer que h(ST ) s’ecrit comme difference de deux payoffs correspon-dants a des options d’achat Europeennes portant sur Sβ+1 et sur Sβ avecdes strikes que l’on determinera.
Exercice 6.6.8 Option d’echange Soit dS(i)t = S
(i)t (bidt + σidW
(i)t , i = 1, 2
ou les coefficients sont constants, les browniens W (i) etant correlles. Calculer lavaleur d’une option d’echange dont le payoff est (S(1)
T − S(2)T )+.
Exercice 6.6.9 Option quanto
Exercice 6.6.10 Taux de change On considere deux pays. Les quantitesrelatives au pays domestique seront indexees par d, les quantites relatives al’autre pays par f . Chaque pays possede un taux sans risque note respectivementrd et rf . Les marches des deux pays sont diriges par un mouvement BrownienW . Sous la probabilite P , un actif S suit la dynamique
dSt = St(µtdt + σSt dWt)
On suppose que chacun des deux marches est sans arbitrage : il existe uneprobabilite risque neutre domestique notee Qd equivalente a P telle que sousQd le processus (e−rdtSd
t , t ≥ 0) est une Qd martingale.
1. Montrer que tout actif domestique Sd a une dynamique de la forme
dSdt = Sd
t (rddt + σtdW dt )
ou W d est un Qd mouvement Brownien. On notera λd la prime de risquedefinie par dW d
t = dWt + λdt dt. Le taux de change entre ces pays est X
dirige pardXt = Xt[(rd − rf ) dt + σX
t dW dt ]
Si Sf est un prix en unites monetaires du pays etranger, SfX est le prixdu meme produit en unites monetaires domestiques.
2005-06 83
2. Soit Sf un actif etranger de dynaique
dSft = Sf
t (rft dt + σtdW f
t )
Montrer queλf
t − λdt = −σX
t
W dt −W f
t =∫ t
0
σXs ds
3. Quelle est la dynamique du taux de change inverse Y = 1/X ?
4. On souhaite valoriser une option quanto, c’est a dire une option sur pro-duit etranger faisant intervenir le taux de change. Comment evaluer enmonnaie domestique un flux etranger de (SfT −K)+ ? Comment evaluerune option d’achat sur action etrangere avec strike en monnaie domes-tique ?
Exercice 6.6.11 Richesse (Cox-Huang, Karatzas) Un agent financier souhaiteinvestir sur un marche sur lequel deux actifs sont negociables:
Un actif sans risque de dynamique dS0(t) = S0(t)r(t)dt ou r estdeterministe,
Un actif risque dont le prix a pour dynamique dS1(t) = S1(t)(b(t)dt+σ(t)dWt). On suppose que σ ne s’annule pas.La richesse X de cet agent a pour dynamique
dXt = Xtr(t)dt + πt[b(t)− r(t)]dt + σ(t)πtdWt
ou π est un processus (Ft) adapte representant la proportion de la richesseinvestie dans l’actif risque.
1. Montrer qu’il existe une probabilite Q telle que dS1(t) = S1(t)(r(t)dt +σ(t)dWt) ou W est un Q mouvement Brownien.
2. Montrer que (R(t)Xt, t ≥ 0) est une Q martingale locale, avec R(t) =
exp−∫ t
0
r(s)ds
3. Soit θ(t) =b(t)− r(t)
σ(t)et H solution de l’equation dHt = −Ht(r(t)dt +
θ(t)dWt), H0 = 1. Montrer que le processus (HtXt, t ≥ 0) est une P -martingale locale.
4. On suppose que (HtXt, t ≥ 0) est une P -martingale pour tout choix deπ. L’agent souhaite obtenir une richesse terminale egale a ζ, v.a. FT
mesurable (i.e. XT = ζ). Montrer que sa richesse initiale X0 est alorsdeterminee, et que son portefeuille de couverture (i.e. π) egalement.
84 Girsanov. Enonces
Exercice 6.6.12 Optimisation de richesse Sur le marche financier on trouveun actif risque et un actif sans risque. Soit (St, t ≥ 0) le prix de l’actif risque.On suppose que dSt = St(µtdt + σdBt) . L’actif sans risque verifie
dS0(t) = S0(t)rtdt .
Les processus µt , rt sont Ft-adaptes bornes, σ est une constante non nulle.
1. Montrer que St exp(−
∫ t
0
µsds
)est une P -martingale.
2. On pose θt =µt − rt
σ.
Determiner Q telle que, sous Q le processus Bt = Bt +∫ t
0
θsds soit un
mouvement Brownien.Ecrire l’equation verifiee par St en utilisant Bt.
3. Un agent de richesse initiale x investit sa richesse Xt suivant l’actif sansrisque et l’actif risque de prix St suivant Xt = n0(t)S0(t) + n1(t)St. Onsuppose que dXt = n0(t)dS0(t) + n1(t)dSt.
(a) Montrer que dXt = rtXtdt + n1(t)(dSt − Strtdt).
(b) On note πt = n1(t)St et Rt = exp−∫ t
0
rsds.
Ecrire dXt en fonction de πt, rt, et Bt.
(c) Montrer que, sous Q, le processus XtRt est une martingale.
(d) Soit ζ = XT . Ecrire Xt sous forme d’une esperance conditionnellefaisant intervenir ζ et le processus r.
4. On se donne un processus (ct, t ≥ 0) a valeurs positives adapte et unprocessus (πt, t ≥ 0) de carre integrable Ft- adapte.Soit (Xt, t ≥ 0) un processus tel que
dXt = rtXt + πt(dBt + θtdt)− ctdt . (6.5)
(a) Montrer que, sous Q, le processus XtRt +∫ t
0
Rscsds est une martin-
gale. v En deduire que XtRt = EQ(XT RT +∫ T
t
Rscsds|Ft).
(b) Ecrire cette relation sous P .
(c) Montrer que si l’on impose la condition XT ≥ 0, il existe une solutionde (6.5) positive, verifiant cette condition.
Exercice 6.6.13 Soit Xt = µt + σBt. On note Ta = inft|Xt = a. Trouverune probabilite Q telle que sous Q, (Bt = Xt/σ , t ≥ 0) soit un mouvementBrownien. Exprimer Ta en utilisant Bt. Calculer EP (exp−λTa).
2005-06 85
Exercice 6.6.14 Montrer que le prix d’une option Asiatique dont le strike estle sous jacent est le prix d’un call sur un sous jacent de dynamique dZt =(1− rUt)dt− ZtσdWt. Comment faire le calcul?
Exercice 6.6.15 Zero-coupons Soit Yt = h(t)dt+ dWt et rt = σ(t)Yt ou h et
σ sont des fonctions de classe C1. On souhaite calculer E
(exp
[−
∫ t
0
rsds
]).
1. Exprimer dr.
2. Soit LHt = exp
(∫ t
0
H(s)dWs − 12
∫ t
0
H2(s)ds
). Justifier que E(LH
T ) = 1
pour toute fonction H continue. En deduire que
E
(exp
[H(T )WT −
∫ T
0
F ′(s)Wsds− 12
∫ T
0
H2(s)ds
])= 1 .
3. En utilisant Lht , montrer que
E
(exp
[−
∫ T
0
rsds
])= E
(exp
(h(T )WT −
∫ T
0
Ws(h′(s) + σ(s))ds−∫ T
0
12
∫ T
0
h2(s)ds
)).
4. Calculer cette quantite.
Exercice 6.6.16 Soit dYt = 2√
YtdWt +(2β(t)Yt + δ)dt et rt = σ(t)Yt, ou σ etβ sont des fonctions de classe C1. On introduit dXt = 2
√XtdWt + δdt.
1. Calculer drt.
2. Soit H une fonction de classe C2 et
ZHt = exp
(∫ t
0
H(s)√
XsdWs − 12
∫ t
0
H2(s)Xsds
)
On admet que Z est une martingale. Montrer que
Zt = exp(
12
(H(t)Xt − δ
∫ t
0
H(s)ds−∫ t
0
H ′(s)Xsds− 12
∫ t
0
H2(s)Xsds
))
3. Montrer que
E
(exp
[−
∫ T
0
rsds
])=
exp
[12(−β0X0 − δ
∫ T
0
β(s)ds)
]E
(exp
[12(β(T )XT −
∫ T
0
Xs(β2(s) + β′(s) + 2σ(s))ds)])
4. Comment calculer cette derniere expression?
86 Complements. Enonces
Exercice 6.6.17 On se place dans le cas ou St = e2(Wt+νt) Montrer en util-isant la formule d’Ito que S est une sousmartingale pour ν + 1 ≥ 0 et unesurmartingale sinon. En deduire que le prix d’une option asiatique est plus pe-tit que le prix d’une option plain vanilla. Montrer par une minoration simple
que E(1T
∫ T
0
exp(2(Ws + νs))ds) ≥ E(e2(WT +νT ))
Chapter 7
Complements
ENONCES
Dans tout ce chapitre, B (ou W ) est un mouvement Brownien dont la filtra-tion est notee (Ft).
7.1 Theoreme de Levy.
Exercice 7.1.1 Levy’s theorem. Let W be a standard Brownian motion and
D = sup0≤s≤t≤1
(Ws −Wt), D1 = Wθ − infθ≤t≤1
Wt, D2 = sup0≤t≤σ
Wt −Wσ
where θ (resp. σ) is the time of the absolute maximum (resp. minimum) of theBrownian motion over [0, 1], (i.e., ).
1. Prove that Dloi= sup0≤t≤1 |Wt|.
2. En deduire la loi de D.
3. Prove that D1loi= supg≤t≤1 |Wt| where g = supt ≤ 1 : Wt = 0.
Exercice 7.1.2 Loi du couple (|Bt|, Lt).
1. Montrer que la loi du couple (|Bt|, Lt) est
µt(da, d`) = 11a≥011`≥02(a + `)√
2πt3exp
(− (a + `)2
2t
)da d`
2. On note Ta = inft ≥ 0; Bt = a et τ` = inft ≥ 0; Lt = `. Montrer queT`
loi= τ`
87
88 Complements. Enonces
3. Montrer que le processus (|Bt|, Lt) est markovien de semi groupe
Qt(α, λ, f) =∫
µt(da, d`)f(α ∨ `− (`− a), (λ− α) + α ∨ `)
4. Montrer que St(St −Bt) et Bt sont independantes.
5. Montrer que St(St − Bt)loi=
t
2E ou E est une variable exponentielle de
parametre 1.
Exercice 7.1.3 On note W ∗ le processus W ∗t = sups≤t Ws.
1. Justifier rapidement (en se basant sur des resultats classiques) que P (W ∗t >
a) = 2P (Wt > a) pour a > 0. Cette egalite est-elle verifiee egalement poura ≤ 0?
2. Soit s < t. Montrer que
P ( sups≤u≤t
Wu > 0,Ws < 0) = 2P (Wt > 0,Ws < 0)
3. Calculer explicitement cette quantite.
4. On note gt = sups ≤ t : Ws = 0. Calculer la loi de gt.
Exercice 7.1.4 On note Mt = sup0≤s≤t Bs et θ = supt ≤ 1 : Bt = Mt. Onsouhaite calculer la loi de θ.
1. Ecrire θ ≤ t en utilisant les variables Mt et supt≤s≤1 Bs
2. Ecrire θ ≤ t en utilisant Mt et supt≤s≤1(Bs −Bs)
3. Quelle est la loi de supt≤s≤1(Bs −Bs) conditionnelle a Ft?
4. En deduire que P (θ ≤ t|Ft) = Φ(Mt −Bt) ou Φ(x) = P (M1−t < x)
5. En utilisant le cours, calculer Φ(x).
6. On admet que Mt −Bt a meme loi que Bt. Comment obtenir la loi de θ?
7.2 Equations retrogrades
Exercice 7.2.1 Equation retrograde 1. Soit H
dHt = −Ht(rdt + θdWt) , H0 = 1
On notera Ht,s =Hs
Htpour t < s.
1. Soit t fixe. Quelle est l’EDS suivie par (Ht,s, s ≥ t).
2000-01 89
2. Soit ζ une v.a. de FT et Xt = ln E(Ht,T eζ |Ft). Montrer que Ytdef=
exp(Xt)Ht est une martingale que l’on peut ecrire sous la forme z +∫ t
0
zsdWs.
3. Montrer que dXt = (aX2t + bXt + c)dt + XtdWt ou X est un processus
adapte que l’on determinera en fonction de Z, z, r et θ et ou b et c sontdes constantes.
Exercice 7.2.2 Equation retrograde 2. La question (b) est triviale, si l’onadmet (a). Dans tout le probleme ζ est une variable FT -mesurable, integrable.
1. Soit H est une variable FT mesurable, integrable. Justifier qu’il existe un
processus (hs, s ≤ T ) et une constante z tels que E(H|Ft) = z+∫ t
0
hsdWs.
On pourra admettre ce resultat pour poursuivre.
2. On note Xt = E(ζ|Ft). Montrer qu’il existe un processus (Xs, s ≤ T ) telque
dXt = XtdWt, YT = ζ (7.1)
En deduire que, si ζ une variable FT mesurable integrable, il existe uncouple (X, X) de processus (Ft) adaptes verifiant (7.1).
3. Soit r un nombre reel. En utilisant ertE(ζe−rT |Ft) montrer qu’il existeun couple (X, X) de processus (Ft) adaptes tels que
dXt = rXtdt + XtdWt YT = ζ
4. Soit (rt, t ≥ 0) un processus (Ft) adapte borne. En utilisant une methodeanalogue, montrer qu’il existe un couple (X, X) de processus (Ft) adaptestels que
dXt = rtXtdt + XtdWt, YT = ζ
5. Soit Γβ,γ le processus solution de dΓt = −Γt(βtdt + γtdWt), Γ0 = 1 ouβ et γ sont des processus (Ft) adaptes bornes. Soit φ un processus (Ft)adapte borne. En considerant
E(ΓT ζ +∫ T
t
Γsφsds|Ft)
montrer qu’il existe un couple (X, X) de processus (Ft) adaptes tels que
dXt = −(φt + Xtβt + γtXt)dt + XtdWt, XT = ζ
6. Soit a un nombre reel. En considerant12a
ln (E [exp (2aζ) |Ft]), montrer
qu’il existe un couple (X, X) de processus (Ft)-adaptes tels que
dXt = −X2t dt + XtdWt, XT = ζ (7.2)
90 Complements. Enonces
7. Montrer que12a
ln(E
[Γ2ac,b
t,T exp (2aζ) |Ft
])est solution de
dXt = −(aX2t − bX − c)dt + XtdWt, XT = ζ
Exercice 7.2.3 Equation retrograde 3..
1. Soit (αt, t ≥ 0) un processus F-adapte. Donner la solution (Y, Z) del’equation retrograde
−dYt = αt dt− ZtdWt, YT = 0. (7.3)
2. Au moyen du theoreme de Girsanov, donner la solution de
−dYt = (αt + γZt)dt− Zt dW (t), YT = 0. (7.4)
ou γ est un scalaire quelconque. Exprimer Y0 sous la forme d’une esperancedependant des donnees du probleme.
3. On pose αt = Wt. Montrer que Y0 =∫ T
0
E(MtWt) dt ou Mt = exp(γWt−12γ2t). Calculer E(MtWt) et E(Mt signWt)) ou
sign(Ws) = 1 si Ws > 0, et;sign(Ws) = −1 si Ws) ≤ 0 .
4. On introduit le processus
W t =∫ t
0
sign(Ws) dWs,
On rappelle (cf. cours) que ce processus est un mouvement Brownien, onnotera F t = σ(W s; s ≤ t) sa filtration, qui est incluse dans Ft. Montrerque la solution de
−dY t = (W t + γZt) dt− Zt dW t, Y T = 0 ,
verifieY 0 = γT 2/2. (7.5)
5. Montrer que la solution de
−dYt = (W t + γZt)dt− ZtdWt, YT = 0, (7.6)
verifie
Y0 =∫ T
0
E(MT W t
)dt =
∫ T
0
E(Mt W t
)dt.
2000-01 91
6. Montrer, au moyen de la formule d’Ito que
E(Mt W t
)=
∫ t
0
γE (Ms sign(Ws )) ds,
pour 0 ≤ t ≤ T. et en deduire que
Y0 = γT 2/2− 2γ
∫ T
0
(T − s)Φ(−γ√
s)ds. (7.7)
ou Φ est la fonction de repartition de la loi normale centree reduite.
7. Supposons que Y0 represente l’utilite (mesure le bien etre que l’on eprouvequand on consomme c) associee a un plan de consommation (ct = exp(W (t)))et une information F et que Y 0 represente l’utilite associee au meme plande consommation mais avec l’information F. Interpretez alors le resultattrouve en (7.5) et en (7.7) selon que γ > 0 ou que γ < 0.
Exercice 7.2.4 facts on quadratic BSDE The solution of the BSDE −dyt =az2
t − ztdWt, yT = ζ is yt = 12a ln E(e2aζ |Ft). The solution of
−dy = (az2 + bz)dt− zdWt
obtained by Girsanov.
−dy = (az2 + bz)dt− zdWt = az2dt− z(dWt − bdt) = az2dt− ztdWt)
leads to
yt =12a
ln E(e2aζ |Ft)
=12a
ln E(ebWT− 12 b2T e2aζ |Ft)ebWt− 1
2 b2t
=12a
(ln E(ebWT− 1
2 b2T e2aζ |Ft) + bWt − 12b2t
)
The solution of−dy = (az2 + bz + ct)dt− zdWt
follows setting yt = yt +∫ t
0csds. The process y satisfies
−dy = (az2 + bz)dt− zdWt, yT = ζ +∫ T
0
csds
therefore
12a
(ln E(ebWT− 1
2 b2T e2a(ζ+∫ T0 csds)|Ft) + bWt − 1
2b2t
)−
∫ t
0
csds
92 Complements. Enonces
7.3 Theoremes de representation
Exercice 7.3.1 Soit W (i), i = 1, 2, 3 trois MB, avec W (i), i = 1, 2 independants.Montrer qu’il n’est pas possible d’avoir σ(W (3)
s , s ≤ t)) = σ(W (1)s ,W
(2)s , s ≤ t).
Exercice 7.3.2 Changement de temps Soit Mt =∫ t
0
11Ws>0dWs.
1. Justifier que (Mt, t ≥ 0) est une martingale.
2. Trouver un processus (At, t ≥ 0) croissant tel que M2t − At est une (Ft)-
martingale.
3. On admet qu’il existe un processus croissant C tel que A(C(t)) = t. Mon-trer que (MCt , t ≥ 0) est un (Gt)-mouvement Brownien. Preciser quelleest la filtration (Gt)-utilisee.
Exercice 7.3.3 Crochet et indedendance. Soient W1 et W2 deux MB telsque leur crochet soit nul. Montrer qu’ils sont independants.
7.4 Temps local.
Exercice 7.4.1 Formule de Tanaka.
1. Peut-on appliquer la formule d’Ito pour calculer dZt avec Zt = |Wt|?2. On admet qu’il existe un processus croissant L tel que
|Wt| = |W0|+∫ t
0
f(Ws)dWs + Lt
avec f(x) = 1 si x > 0 et f(x) = −1 sinon. Montrer que (∫ t
0
f(Ws)dWs, t ≥0) est un mouvement Brownien que l’on notera β.
3. Soit St = sups≤t Ws. Verifier que S est un processus croissant. Comparerles decompositions |Wt| = βt + Lt et St − Wt = −Wt + St. Pour cettequestion, je ne vous demande aucun raisonnement precis.
Exercice 7.4.2 Temps local. Soit L le temps local. Montrer que Lt =infs≥t(|Bs|+ Ls).
Exercice 7.4.3 Temps aleatoire. Soit B un MB, S son maximum sur [0, 1](soit S = supBs, s ≤ 1 et θ = inft ≤ 1 : Bt = S. La v.a. θ est-elle untemps d’arret? Quelle est la loi de θ? On calculera P (θ ≤ u) et on utilisera leprincipe de reflexion et l’identite de Levy (St −Bt, t ≥ 0) loi= (|Bt|, t ≥ 0).Calculer P (θ ≤ t|Ft).
2000-01 93
Exercice 7.4.4 Des martingales. Soit X une martingale continue et St =sups≤t Xs.
1. Pour quelles fonctions f le processus Yt = f(Xt, St, 〈X〉t) est-il une mar-tingale locale?
2. Montrer que si g est C2 et g(0) = 0, le processus
g(St)− (St −Xt)g′(St)
est une martingale locale.
3. Montrer que si g est C2 et g(0) = 0, le processus
g(Lt)− |Xt|g′(Lt)
est une martingale locale.
Exercice 7.4.5 Scaling Soit B un MB et L son temps local. Montrer que
(Lxλ2t, x ∈ IR, t ≥ 0) loi= (λL
x/λt x ∈ IR, t ≥ 0)
On utilisera ∫ λ2t
0
f(Bs)dsloi= λ2
∫ t
0
f(λBu)du
Exercice 7.4.6 Calculer E(LxTa
).
Exercice 7.4.7 Let M be a continuous martingale such that 〈M〉∞ = ∞ andβ the associated Dubins-Schwarz BM. Prove that La
t (M) = La〈M〉t(β).
Exercice 7.4.8 Let φ be a non negative process indexed by IR+ × IR. Provethat ∫ ∞
−∞dy
∫ t
0
dsLys φ(s, y) =
∫ t
0
ds〈Y 〉s φ(s, Ys) .
7.5 Lois
Exercice 7.5.1 Temps d’atteinte. Soit X solution de
Xt = a(Xt)dt + b(Xt)dWt, X0 = x .
On note Ta = inft ≥ 0 |Xt = a.1. Donner des conditions sur la fonction V pour que (e−λtV (Xt), t ≥ 0) soit
une martingale.
2. En deduire E(e−λTa11(Ta<∞)) en fonction de V . On ne demande pasd’expliciter V .
94 Complements. Enonces
3. Soit f(x) =∫ x
0
y
b(y)dy et Yt = f(Xt). On suppose b ∈ C1. Calculer dYt.
4. En deduire que∫ t
0
XsdWs = f(Xt) − f(x) +∫ t
0
g(Xs) ds ou g est une
fonction que l’on precisera.
Exercice 7.5.2 Temps d’atteinte Soit Vt = v + Wt et τa(V ) = inft : Vt =
a. Montrer que τa(V ) loi=(a− v)2
G2, ou G est une variable de loi N (0, 1).
Comment calculer E(11T<τa(V )h(VT )
)?
Exercice 7.5.3 Soit M une martingale telle que M0 = a et limt→∞Mt = 0.On rappelle (exercice 1.5.11) sup Mt
loi=a
Uou U est une v.a. de loi uniforme sur
[0, 1].On propose des applications de ce resultat.
1. Let B be a BM with initial value a > 0 and T0 = inft : Bt = 0. Identifythe law of supu≤T0
Bu.
2. Prove that, for a > 0, supu(Bu − au) loi=12a
e, where e is a standardexponential variable with mean 1.
3. Let B be a BM and T1 the first hitting time of 1. Define It = − infs≤t Bs.Identify the law of IT1 .
Exercice 7.5.4 Loi du maximum.On rappelle que, pour T fixe, maxt≤T Wt
loi= |WT |. On note C = E[(e−σWT−1)+]et P = [(1− eσWT )+]. Montrer que pour x > 0
E[maxt≤T
(xeσWt − xeσWT )] = x[C + P ]
(Il n’y a aucun calcul a faire)
7.6 Filtrations
Exercice 7.6.1 Agent initie L’agent initie connait la valeur terminale duBrownien. Le probleme est de savoir comment se transforment les martingales.
Soit Ztdef= Wt −
∫ t
0
WT −Wu
T − udu
1. Soit f une fonction deterministe. Montrer que
E[Zu
∫ T
0
f(v)dWv] =∫ u
0
f(v)dv −∫ u
0
ds1
T − s
∫ T
s
dvf(v)
En deduire que si, pour tout u, E[Zu
∫ T
0
f(v)dWv] = 0 , alors f verifie
f(u) =1
T − u
∫ T
u
dvf(v) et montrer que f est une constante.
2000-01 95
2. Soit t < T . On admet que E(Wt|WT ) = aWT + b ou a et b sont des
constantes. Montrer que b = 0 et que a =t
T. (On pourra prendre
l’esperance des deux membres et calculer E(WtWT ))
3. Soit s < t < T . On admet que E(Wt|Ws,WT ) = aWs + bWT + c ou a, b
et c sont des constantes. Montrer que a =T − t
T − s, b =
t− s
T − s, c = 0.
4. On note F∗t = Ft ∨ σ(WT ) la tribu engendree par (Wu, u ≤ t) et par WT .On admet que pour s < t, E(Wt |WT ,Ws) = E(Wt|F∗s ). Montrer que Zest une (F∗t )- martingale. On pourrait montrer que c’est un MB.
Exercice 7.6.2 Soit G une filtration et W un G mouvement brownien.
1. Soit H une filtration plus petite que G. Verifier que le processus Mt =E(Wt|Ht) est une martingale. (on precisera par rapport a quelle filtra-tion).
2. Soit Xt = Wt +∫ t
0
Yudu ou Y est un processus G adapte integrable. On
note FX la filtration de X (qui verifie FXt ⊂ Gt) et Yu = E(Yu|FX
u ).
Verifier que Zt = (Xt −∫ t
0
Yudu, t ≥ 0) est une FX -martingale (on cal-
culera l’esperance conditionnelle de Zt par rapport a FXs ). Montrer que
Z est un mouvement Brownien.
7.7 Options barrieres
Exercice 7.7.1 On note N la fonction de repartition de la loi normale et Mt =sup(Bs, s ≤ t).
1. Soit x ∈ IR. Montrer que P (Bt ≤ x) = P (Bt ≤ −x) = N (x(√
t)−1).
2. Soit y > 0 donne, T = inft ≥ 0 |Bt = y.Soit B∗
t = BT+t−BT . On admet que T est un temps d’arret et (B∗t , t ≥ 0)
est un Brownien independant de FT .
(a) Montrer que
P (Bt ≤ x, Mt > y) = P (T < t, B∗t−T ≤ x− y)
(b) Montrer que
P (T < t, B∗t−T ≤ x−y) =
∫ t
0
P (T ∈ du)P (B∗t−u ≤ x−y) = P (T < t, B∗
t−T ≥ y−x)
96 Complements. Enonces
(c) Montrer que pour y > x, on a
P (Bt ≤ x, Mt > y) = P (Bt ≥ 2y − x)
En deduire que
P (Bt ≤ x, Mt < y) = N (x√t)−N (
x− 2y√t
)
3. En deduire la loi de T , celle de Mt et la densite du couple (Bt,Mt).
4. Soit Xt = µt + Bt, Yt = sup (Xs, 0 ≤ s ≤ t. Montrer, en utilisant letheoreme de Girsanov, que le calcul de
P (Xt < x, Yt < y)
se deduit du calcul precedent.
7.8 Meandres, ponts, excursions
Exercice 7.8.1 Loi conditionnelle. Soit dt = infs ≥ t : Bs = 0. Mon-
trer que dt(W ) loi= t +(−Wt)2
G2ou G est une variable gaussienne de loi N (0, 1)
independante de Wt. Soit g = supt ≤ 1 : Bt = 0. Calculer P (g ≤ t|Ft).
Exercice 7.8.2 Martingale d’Azema. On admet que le processus mu =1√
t− gt|Bgt+u(t−gt)|, u ≤ 1 est independant de Fgt , que sgneBt est Fgt mesurable
et que m1 a pour densite xe−x2/211x>0dx. Calculer E(Bt|Fgt), E(B2t − t|Fgt) et
E(eαBt−α22 t|Fgt). Montrer que ces processus sont des martingales.
7.9 Divers
Exercice 7.9.1 Soit dSt = St(µdt + σdWt) et St = St max(1, max0≤s≤tKSs
).Calculer e−rT E(ST )
Exercice 7.9.2 Soit S un brownien geometrique
dSt = St(µdt + σdWt)
On pose Mt =1t
∫ t
0
Sudu. Calculer
E((MT − k)+|Ft)11Mt≥(Tk/t)
1. Soit s < t Ms = supu≤s Wu,Mst = sups≤u≤t Wu. Calculer P (Ms <
a,Mst < b, Wt < c). On donnera le resultat sous forme d’une integrale.
2005-06 97
2. Soit Xt = e2(Wt+νt)(x +∫ t
0e2(Ws+νs)ds). Montrer que
dXt = f(t,Xt)dt + g(t,Xt)dWt
ou l’on explicitera les fonctions f et g. Comment pourrait-on calculer leprix d’une option europeenne sur le sous jacent X, en presence d’un actifsans risque de taux constant r?
Exercice 7.9.3 Let B be a Brownian motion and Ta = inft ≥ 0 : Bt = awhere a > 0.
1. Using the Doleans-Dade exponential of λB, prove that
E(e−λ2Ta/2|Ft) = e−λa + λ
∫ Ta∧t
0
e−λ(a−Bu)−λ2u/2du
and that
e−λ2Ta/2 = e−λa + λ
∫ Ta
0
e−λ(a−Bu)−λ2u/2du
2. By differentiating the Laplace transform of Ta, and the fact that ϕ satisfiesthe Kolmogorov equation, prove that
λe−λc = 2∫ ∞
0
e−λ2t/2 ∂
∂tϕ(t, c) dt
where ϕ(t, x) = 1√2πt
e−x2/(2t).
3. Prove that, for any f
E(f(Ta)|Ft) = E(f(Ta)) + 2∫ Ta∧t
0
∫ ∞
0
f(u + s)∂
∂uϕ(u,Bs − a)dudBs
4. Deduce that
11Ta<t = P (Ta < t) + 2∫ Ta∧t
0
ϕ(T − t, Bt − a)dBt
98 Sauts. Enonces
Chapter 8
Processus a sauts
8.1 Processus de Poisson
Dans cette section, Nt est un processus de Poisson d’intensite deterministe λ(s)
et Mt = Nt −∫ t
0
λ(s)ds la martingale compensee.
Exercice 8.1.1 Soit N i, i = 1, 2 deux processus de Poisson independants dememe intensite. Montrer que N1 −N2 est une martingale.
Exercice 8.1.2 Soit F∗t = σ(Ns, s ≤ t,NT ). Montrer que
M∗t
def= Nt −
∫ t
0
NT −Ns
T − sds
est une F∗t -martingale.
Exercice 8.1.3 Montrer que les processus
Xt = exp(∫ t
0
sdNs +∫ t
0
λ(s)(1− es)ds)
Yt = exp(∫ t
0
ln(1 + s)dMs +∫ t
0
[ln(1 + s)− s]λ(s)ds)
sont des martingales.
Exercice 8.1.4 Caracterisation de Processus de Poisson.
1. Calculer ψ(z, t) =∑
n
znP (Nt = n).
2. Soit X un processus a accroissements independants, a valeurs dans l’ensembledes entiers, tel que Xt+s −Xt
loi= Xs et ψ(z, t) =∑
n
znP (Xt = n). Mon-
trer que ψ(z, t + h) = ψ(z, t)ψ(z, h). On suppose qu’il existe ν tel que
1h
P (Xh ≥ 2) → 0 ,1h
P (Xh = 1) → ν ,1h
(1− P (Xh = 0)) → ν
99
100 Sauts. Enonces
quand h tend vers 0. Montrer que∂
∂tψ(z, t) = ν(z− 1)ψ(z, t). Quel est le
processus X?
Exercice 8.1.5 Soit (Yi, i ≥ 1) des variables independantes equidistribueesd’esperance µ et independantes de N . On note Xt =
∑Nt
i=1 Yi le processusde Poisson compose. Soit Mt = Nt − λt et Zt = Xt − µλt. Montrer que Z et(MtYt − µλt, t ≥ 0) sont des martingales.
Exercice 8.1.6 On considere l’equation
Xt = x + Nt − c
∫ t
0
Xsds
1. Montrer que cette equation admet au plus une solution.
2. Montrer que
e−ctx +∫ t
0
e−c(t−s)dNs
est une solution.
Exercice 8.1.7 On note τ = T1 le premier saut de N et Dt = Nt∧τ
1. Determiner δ tel que Zt = Dt −∫ t∧τ
0
δudu soit une martingale.
2. On note Lt = (1 − Dt)/(1 − F (t)) ou F (t) = P (τ ≤ t) est supposeecontinue. Montrer que dLt = αtdZt ou on explicitera α. Meme questionsi F est seulement continue a droite.
3. Soit N1 et N2 deux PP d’intensite constante λ1 et λ2 et Di les processusassocies. On note µ1(t) = (
α1
λ1− 1)D2(t−) et µ2(t) = (
α2
λ2− 1)D1(t−).
Soit ρt solution de dρt = ρt−(µ1(t)dZ1(t) + µ2(t)dZ2(t)). Expliciter ρt.Soit dQ = ρtdP . Calculer Q(τ1 > t, τ2 < s) pour s < t.
Exercice 8.1.8 Calculer la TL de∫ t
0
Nsds.
Exercice 8.1.9 Montrer que
f(Nt == f(N0) + ∆f(0)∫ t
0
dNs +∫ t
0
dNs
(∫ s
0
∆2f(Nu−dNu
)
Calculer∫ t
0dNs
(∫ s
0dNu
)et
∫ t
0dNs
(∫ s
0dNu
∫ u
0dNv
)
2005-06 101
8.2 Poisson compose
Let λ0 be a positive number and µ be a probability law on IR. A (λ, µ) compoundPoisson process is a process X = (Xt, t ≥ 0) of the form
Xt =Nt∑
k=1
Yk
where N is a Poisson process with intensity λ > 0 and (Yk, k ∈ IN) are non-negative i.i.d. random variables with law µ, independent of N . It differs from aPoisson process since the sizes of the jump are random variables, independentof the Poisson process.
Exercice 8.2.1 We denote by Y a random variable with law µ. Prove that acompound Poisson process is with independent increments, and
E(Xt) = λtE(Y )
Var (Xt) = λtE(Y 2).
Exercice 8.2.2 Let X be a (λ, µ) componud Poisson process. Prove that theprocess
Mft =
∑
s≤t
f(∆Xs)11∆Xs 6=0 − tλµ(f)
is a martingale; the process
(Mft )2 − tλµ(f2)
is a martingale.Suppose that X is a pure jump process and that there exists a finite positive
measure σ such that ∑
s≤t
f(∆Xs)11∆Xs 6=0 − tσ(f)
is a martingale for any f , then X is a compound Poisson process.
Exercice 8.2.3 If X is a (λ, µ) compound Poisson process,
E(e−αXt) = exp(−λt
(1−
∫ ∞
0
e−αuµ(du)))
.
Exercice 8.2.4 Let X be a (λ, µ) compound Poisson process and f a boundedBorel function. Then,
exp
(Nt∑
k=1
f(Yk) + t
∫(1− ef(x))λµ(dx)
)
is a martingale.
102 Sauts. Enonces
8.3 Formule d’Ito
Exercice 8.3.1 Soit W un mouvement Brownien et Mt = Nt−λt la martingalecompensee associee au processus de Poisson N d’intensite constante λ.
1. Montrer que la solution de
dSt = S(t−)(rdt + σdWt + φdMt), S0 = x
est, pour φ > −1
St = xert exp(σWt − 12σ2t) exp(ln(1 + φ)Nt − φλt) . (8.1)
2. Ecrire la solution en faisant apparaitre la martingale M .
3. Quelle est la dynamique de 1/St?
4. Quelle est la dynamique de S2t ?
5. Calculer E(St) et E(S2t ).
6. Quelle est la solution de (8.1)pour φ = −1? et pour φ < −1?
7. Quelle est la solution de (8.1) lorsque les coefficients dependent du temps?
Exercice 8.3.2 Soit
dXt = µ(t,Xt)dt + σ(t,Xt)dWt + φ(t, Xt−)dMt
et H une fonction de classe C1,2. Sous quelles conditions le processus Yt =H(t, Xt) est-il une martingale locale?
Exercice 8.3.3 Soit un espace de probabilite (Ω,F, P ) sur lequel evoluent unmouvement Brownien W et un processus de Poisson N , d’intensite deterministeλ. On suppose que Ft = σ(Ws, Ns, s ≤ t).
1. Determiner la dynamique de toutes les martingales strictement positives.
2. Soit Q une probabilite equivalente a P sur tout Ft. Caracteriser la dy-namique de la densite Lt de Q par rapport a P .
3. Quelle sont les formes possibles de L si on impose que, sous Q le processusS = e−rtSt ou S a pour dynamique
dSt = S(t−)(rdt + σdWt + φdMt)
soit une martingale?
4. Meme question si
dSt = S(t−)(µdt + σdWt + φdMt)
2005-06 103
8.4 Defaut
Exercice 8.4.1 Soit τ un temps aleatoire sur un espace (Ω,Gt, P ). On suppose
qu’il existe un processus positif, G-adapte (λs, s ≥ 0) tel que 11τ≤t−∫ t∧τ
0
λudu
soit une Gt martingale. Soit h une fonction borelienne, X une variable aleatoireGT mesurable et
Vt = E(X exp−∫ T
t
λsds +∫ T
t
duhuλu
(exp−
∫ u
t
λsds)|Gt) .
Montrer que
11t<τVt = E((∆Vτ )11t<τ≤T + X11T<τ
∣∣∣Gt
).
(Appliquer Ito a Vt exp−∫ t
0
λsds +∫ t
0
duhuλu
(exp−
∫ u
0
λsds)
= Ut et a
Ut(1− 11τ≤t).
8.5 Marche complets, incomplets
Exercice 8.5.1 SoitdSt = St−[µdt + φdMt]
and r = 0. Quelle est la condition pour que ce marche soit sans arbitrage?Quelle est le m.m.e.? Quelle est la dynamique de S sous Q?
Exercice 8.5.2 On etudie un modele dans lequel il y a un actif sans risque detaux r et un actif risque
dSt = S(t−)(rdt + σdWt + φdMt) (8.2)
1. Montrer que ce marche est incomplet, determiner les m.m.e..
2. Quels sont les actifs duplicables?
3. On note Xx,π,C la valeur d’un portefeuille π de richesse initiale x, avecprocessus de consommation cumule C. Montrer que
RtXt = x +∫ t
0
πsXsd(RS)−∫ t
0
RsdCs
4. Soit Q l’ensemble des probabilites risque neutre, et
Vt = esssupQEQ(RT B|Ft)
On admettra que V est une surmartingale pour tout Q et que toute sur-matingale s’ecrit comme une martingale moins un processus croissant.
104 Sauts. Enonces
Montrer qu’il existe AQ processus croissant, µ, ν tels que Vt = v+∫ t
0
µsdWQs +
∫ t
0
dMQs − AQ
t , ou WQ et MQ sont des Q-martingales et WQ un MB..
Preciser le lien entre AP et AQ.
5. Montrer que µtφ
σ− νt ≥ 0
6. Montrer que AP −∫ t
0
λ(µsφ
σ− νs) est un processus croissant.
7. En deduire que V est la valeur d’un portefeuille X dont on explicitera leprocessus de consommation.
Exercice 8.5.3 On considere un actif de prix
dSt = St−(rdt + ϕdMt)
ou M est la martingale compos ee associe a un processus de Poisson d’intensiteconstante λ.
1. Verifier que Ste−rt est une martingale.
2. Soit X le valeur d’un portefuille autofinancant comportant θ parts d’actifrisque, soit
dXt = rXtdt + θt(dSt − rStdt)
Verifier que Xt = ertXt est une martingale. Ecrire la dynamique de X enfonction de S.
3. Ecrire l’EDS verifiee par X/S.
4. On pose dQ = Ste−rt/S0 dP . Verifier que X/S est une martingale sous
Q.
Corriges. 2005-06 105
sCORRIGES
106 Rappels
Chapter 1
Rappels, Corriges
1.1 Tribu
Exercice 1.1.1: L’ensemble B − A s’ecrit B ∩ Ac. Si F est une tribu, elle eststable par passage au complementaire et par intersection, d’ou le resultat.
Exercice 1.1.2 : 1) La tribu engendree par A est constituee des quatre ensem-bles A, Ac, ∅,Ω.2) Cette tribu doit contenir A et B, l’ensemble vide et Ω. Puis les complementaires,soit Ac et Bc (les complementaires de Ω et de l’ensemble vide egaux a l’ensemblevide et a Ω sont deja dans la liste). Puis les unions d’ensembles soit A ∪B, lesautres unions A ∪ Ω = Ω, A ∪ Bc = Bc ,... sont deja dans la liste. Puis lesintersections Ac ∩ Bc. On a termine car les autres ensembles formes a partird’operations de passage au complementaire, d’intersection et d’union sont dansla liste par exemple (Ac ∩Bc) ∪Bc = Bc.
Exercice 1.1.4 : Soit G = F1 ∩ F2 la famille composee des ensembles qui ap-partiennent a F1 et a F2. La famille G est une tribu si
(i) Ω ⊂ G, ce qui est le cas car Ω ⊂ F1,Ω ⊂ F2 donc Ω ⊂ F1 ∩F2.(ii) la famille G est stable par passage au complementaire: si
A ⊂ G, la stabilite des tribus F1 et F2 par passage au complementaire impliqueAc ⊂ F1, A
c ⊂ F2 donc Ac ⊂ F1 ∩ F2.(iii) la famille G est stable par intersection denombrable: si Ai ⊂ G,
la stabilite des tribus F1 et F2 par intersection denombrable implique ∩iAi ⊂F1, A
c ⊂ F2 donc ∩iAc ⊂ F1 ∩ F2.
Les autres proprietes resultent des precedentes: L’ensemble vide appartient a Gcar c’est le complementaire de Ω ( utiliser (i) et (ii)), la famille G est stable parunion denombrable: en passant au complementaire l’identite (∩Ai)c ∪ (Ac
i ) onobtient ∩Ai = (∪iAi)c. Il reste a utiliser (ii) et (iii).L’union de tribus n’est pas une tribu: considerer le cas F1 = σ(A),F2 = σ(B).la famille F1 ∪ F2 ne contient pas Ac ∩ Bc. Ne pas confondre sous ensembles
107
108 Rappels
et elements. Par exemple, un intervalle est un sous ensemble de IR, et n’est pasun element de IR.
Exercice 1.1.6 : On utilise que X−1(B) = ω : X(ω) ∈ B. La famille Cest une tribu: la stabilite requise provient des egalites suivantes: X−1(Bc) =(X−1(B))c, X−1(∩Bn) = ∩X−1(Bn). On trouvera une demonstration de lareciproque dans tout ouvrage de proba, cette demonstration est basee sur letheoreme qui precise que si une tribu contient une classe stable par intersectionfinie, elle ccntient la plus petite tribu engendree par cette classe.
Exercice 1.1.7 : Les diverses quantites que l’on veut comparer sont egales.Les esperances E(f(X)) et E(f(Z)) sont egales parce que X et Z ont memeloi, et E(f(X, Y )) = E(f(Z, T )) car le couple (X,Y ) a meme loi que le couple(Z, T ). Si l’hypothese (Z, T ) sont independantes n’etait pas faite, l’egalite en loides variables X et Z et celle des variables Y et T ne suffirait pas. Par exemple,on peut prendre X
loi= Y de loi gaussienne N (0, 1), X et Y independantes etZ = T = X. On aurait alors E(X2Y 2) = 1 et E(Z2T 2) = E(X4) = 3. (contreexemple pour la question 3)
1.2 Variables gaussiennes.
Exercice 1.2.1 : Par symetrie de la densite et imparite de x3, on a E(X3) = 0
et, par parite de x4 on a E(X4) = 2σ√
2π
∫ ∞
0
x4e−
x2
2σ2 dx. Cette derniere
integrale se calcule par integrations par parties successives et on obtient E(X4) =3σ4.
On a egalement E(|X|) =2
σ√
2π
∫ ∞
0
x exp− x2
2σ2dx, d’ou E(|X|) =
2σ√2π
et,
par des calculs analogues E(|X3|) =4σ3
√2π
.
Exercice 1.2.4 : Si X et Y sont gaussiennes independantes, la somme X +Yest gaussienne: ceci se voit tres facilement avec les fonctions caracteristiques:
E(eit(X+Y )) = E(eitX)E(eitY ) = eitm1− t2σ21
2 eitm2− t2σ22
2 = eitm− t2σ22
avec m = m1 + m2 et σ2 = σ21 + σ2
2 .On peut le voir aussi en se souvenant que si X et Y sont independantes, dedensite f et g, la somme X + Y a pour densite h(x) =
∫∞−∞ f(x − y) g(y) dy
et en effectuant le calcul. Attention, ce resultat n’est pas vrai si on n’a pasl’independance de X et Y .On peut aussi calculer la transformee de Laplace de la somme
E(exp(λ(X+Y ))
)= E(exp(λ(X))E(exp(λ(Y )) = exp[λ(m(X)+m(Y ))+
λ2
2(σ2(X)+σ2(Y ))]
Corriges. 2005-06 109
ce qui montre que la somme a une loi gausienne d’esperance m(X) + m(Y ) etde variance σ2(X) + σ2(Y ).
Exercice 1.2.5 :
1. Si X est N (m, σ2),sa densite est f(x) =1
σ√
2πexp− (x−m)2
2σ2et la v.a.
Y =X −m
σest N (0, 1). On peut le verifier de plusieurs facons.
• En calculant la fonction de repartition de Y : Soit FY la fonction derepartition de Y . On a FY (y) = P (Y ≤ y) = P (X ≤ m + yσ) =FX(m+yσ). Il reste a deriver par rapport a y pour obtenir la densite
de Y qui est σf(m + yσ) =1√2π
exp−y2
2.
• On peut utiliser les fonctions caracteristiques. Soit φ(t) = E(eitX) =eitm− t2σ2
2 la fonction caracteristique de X; la fontion caracteristiquede Y est
E(eitY ) = E(eit X−mσ ) = e−
itmσ φ(
t
σ) = e−
t22
Cette remarque permet de ramener des calculs sur N (m,σ2) a descalculs sur N (0, 1).
La variable X −m est gaussienne centree. D’ou en utilisant l’exercice 1,E(|X −m|) = 2σ√
2π.
2. On a E(eλX) =1
σ√
2π
∫ ∞
−∞eλx exp− (x−m)2
2σ2dx.
On montre que eλx exp− (x−m)2
2σ2 = exp(λm + 12σ2λ2) exp[− 1
2σ2 (x − (m +λσ2))2] et le resultat s’obtient facilement. item Soit X une v.a. de loiN (0, 1). On a
E(11X<beλX) =
1√2π
∫ b
−∞eλxe−
x22 dx =
1√2π
eλ22
∫ b−λ
−∞e−
x22 dx = e
λ22 Φ(b−λ).
3. Soit U une variable gaussienne d’esperance m et de variance σ2. Pourcalculer E(expλU2 + µU), on doit calculer
1σ√
2π
∫ ∞
−∞eλu2+µue−
12σ2 (u−m)2 du .
On montre que
λu2+µu− 12σ2
(u−m)2 = − 12Σ2
(u− (µ +
m
σ2)Σ2
)2
+Σ2
2(µ+
m
σ2)2− m2
2σ2
110 Rappels
avec Σ2 = σ2
1−2λσ2 .Il vient
E(expλU2 + µU) =Σσ
exp(
Σ2
2(µ +
m
σ2)2 − m2
2σ2
).
En particulier
E(exp λU2) =1√
1− 2λσ2exp
m2λ
1− 2λσ2
4. Il est facile, par changement de variable, d’obtenir E(eθXf(X)) = emθ+σ2θ2/2E(f(X+θσ2) pour f continue bornee.
5. Par derivation par rapport a θ, on obtient pour f ”reguliere” E(f(X)(X−m)) = σ2E(f ′(X)).
6. En derivant E(eaGN (bG + c)) par rapport a b, on obtient le resultat.
Exercice 1.2.6 : Rappels:la convergence L2 implique la convergence L1: ||Xn −X||2 converge vers 0
implique ||Xn −X||1 converge vers 0, avec ||X||1 =∫Ω|X|dP . Ce resultat est
evident compte tenu de l’inegalite ||X||1 ≤ ||X||2 qui resulte de la positivite dela variance Var (|X| ) = ||X||22 − ||X||21.
Si Xn converge vers X dans L2 (resp. L1), on a E(X2n) converge vers E(X2)
(resp E(Xn) converge vers E(X)). (La reciproque est fausse)Si Xn converge dans L2 vers X, on a en particulier mn converge vers m et σ2
n
converge vers σ . La suite de fonctions caracteristiques eitmn− t2σ2n
2 converge verseitm− t2σ2
2 et la loi de X est gaussienne.
Exercice 1.2.7 : Soit X un vecteur gaussien. Le vecteur Y = AX est unvecteur gaussien, car toutes les combinaisons lineaires de composantes de Y sontdes combinaisons lineaires de composantes de X, donc une variable gaussienne.Que le vecteur X soit gaussien ou non, on a E(AX) = AE(X) et VarAX =At(VarX)A, ou VarX designe la matrice de variance covariance du vecteur X.On obtient dans le cas p = 1 que At(Var X)A ≥ 0, c’est-a-dire que les matricesde variance covariance sont semi definies positives.
Exercice 1.2.8 : La v.a. λX +µY est gaussienne d’esperance λE(X)+µE(Y )et de variance λ2σ2(X) + µ2σ2(Y ). On en deduit
E(exp(λX + µY )) = exp[λE(X) + µE(Y ) +
12(λ2σ2(X) + µ2σ2(Y ))
]
= exp[λE(X) +
12λ2σ2(X)
]exp
[µE(Y ) +
12µ2σ2(Y )
]= E(exp λX)E(exp µY )
d’ou l’independance.
Corriges. 2005-06 111
Exercice 1.2.9 : Si (X, Y ) est un vecteur gaussien, X et Y sont des vecteursgaussiens.Cas d = 1. La projection de X sur (Y1, Y2, . . . , Yn) est de la forme Pr X =∑n
i=1 aiYi C’est une v.a. gaussienne car Y est gaussien. Le vecteur (X −Pr X, Y ) est gaussien. Les vecteurs X − Pr X et Y sont independants carE((X − Pr X)Yi) = 0 par definition de la projection.
Exercice 1.2.10 : Toujours avec la transformee de Laplace.On verifie dans un premier temps que
E(exp(λX)) = E[E(exp(λX)|Y )] = E[exp(λ(aY + b) +λ2
2σ2)]
= exp[λaE(Y ) +λ2a2
2σ2(Y )] exp[λb +
λ2
2σ2]
donc, la v.a. X est gaussienne d’esperance b+aE(Y ) et de variance σ2+a2σ2(Y ).
On calcule de la meme facon E(Y eλX) = E(Y exp(λ(aY + b) +λ2
2σ2)] et en
derivant par rapport a λ, on trouve E(XY ) = aE(Y 2) + bE(Y ).D’autre part
E(exp(λX + µY )) = E[exp(µY )E(exp(λX|Y )]
= E[exp(µY ) exp(λ(aY + b) +λ2
2σ2)] = E[exp[(λa + µ)Y ]] exp(λb +
λ2σ2
2)
= exp[(λa + µ)E(Y ) +(λa + µ)2
2σ2(Y )] exp(λb +
λ2σ2
2)
et on verifie que ceci est
exp(λE(X) + µE(Y )) +12Var(λX + µY ))
1.3 Esperance conditionnelle
Exercice 1.3.2 : Il suffit de calculer E([X − Y ]2|G) qui vaut 0 (developper lecarre) donc, en prenant l’esperance E([X − Y ]2) = 0.
Exercice 1.3.5 : Sous les hypotheses de l’exercice E(X −Y |G) = E(X|G)−Ycar Y est G-mesurable et E(X−Y |G) = E(X−Y ) = m par independance. D’ouE(X |G) = m+Y . De la meme facon E((X−Y )2 |G) = E(X2|G)−2Y E(X|G)+Y 2 d’ou E(X2|G) = σ2 + (Y + m)2.
Exercice 1.3.6 : Par definition de la projection E(XZ) = E((Pr X)Z) pourtout Z combinaison lineaire des Yi. Cela ne suffit pas a dire que Pr X estl’esperance conditionnelle car il existe des v.a. qui sont Y -mesurable et qui nesont pas combinaison lineaire des Yi. Mais nous avons montre que X − Pr Xet Y sont independantes, d’ou E(X − Pr X |Y ) = E(X − Pr X) = 0. D’ou
112 Rappels
E(X|Y ) = Pr X.Si n = 1, E(X|Y ) = Pr X appartient a l’espace engendre par Y donc s’ecritαY , et on deduit de E(X|Y ) = αY , apres multiplication par Y et integration
α =E(XY )E(Y 2)
.
Exercice 1.3.7 : Soit X = X1 + X2. On a E(X|G) = E(X1|G) + E(X2|G) =E(X1) + X2. Puis E(X2|G) = E(X2
1 ) + X22 + 2X2E(X1) et
Var (X|G) = E(X2|G)− (E(X|G))2 = Var X1.
E(eλX |G) = E(eλX1eλX2 |G) = eλX2E(eλX1) = eλX2 exp(λE(X1) + λ2
2 Var (X1))
Exercice 1.3.8 : Il est facile de montrer la suite d’egalites
Cov (Z1, Z2|G) = E(Z1Z2|G)− E(Z1|G)E(Z2|G)= E(Z1Z2|G)− E(Z2(E(Z1|G))|G)= E((Z1 − E(Z1|G)Z2|G)
Exercice 1.3.9 : Le membre de droite, note K est H mesurable. Il suffit deverifier que
E(X11H) = E(K11H)
pour tout H ∈ H, ce qui se reduit a
E(X11C11A) = E(K11C11A, et E(X11C11Ac) = E(K11C11Ac)
ce qui est routine.
Exercice 1.3.10 : Par linearite, E(aX + b|Z) = aE(X|Z) + b. La tribu en-gendree par Z est composee des sous-ensembles de Ω de la forme Z−1(A) ouA est un borelien de IR et Z−1(A) = ω|Z(ω) ∈ A = ω|αY (ω) + b ∈ A =ω|Y (ω) ∈ B ou B est l’ensemble des nombres reels tels que x ∈ B ⇐⇒αx + b ∈ A et est un borelien (La preuve parfaite exigerait la demonstration dece point, qui tient au fait que B est l’image reciproque de A par l’application
g : y → 1α
y − b, soit B = g−1(A) et que g est continue, donc borelienne)
Exercice 1.3.11 : La premiere question est directe en utilisant le resultat ad-mis dans l’exercice 1.1.6. En utilisant cette question, on a que E(X|G)111≤τ
est de la forme h(1 ∧ τ)111≤τ = h(1)111≤τ . En prenant l’esperance des deuxmembres, on identifie la constante h(1).
Exercice 1.3.12 : Trivial.Exercice 1.3.13 : E(X|F) est G ∨ F mesurable. Soit F ∈ F et G ∈ G, on aalors, en utilisant l’independance
E(X11F 11G) = E(X11F )E(11G)
Corriges. 2005-06 113
etE(11F 11GE(X|F)) = E(11F E(X|F))E(11G)
donc E(X11F 11G) = E(11F 11GE(X|F)). Nous avons donc montre que E(X11H) =E(11HE(X|F)) pour tout H ∈ G ∨ F de la forme H = F ∩ G. Ces en-sembles engendrent la tribu G ∨ F et forment une famille stable par intersec-tion. L’application qui a H associe E(X11H) (resp. E(11HE(X|F))) definit unemesure positive sur cette tribu, les deux mesures, apres normalisation par E(X)sont des probabilites (c’est-a-dire l’application qui a H associe E(X11H)/E(X)est une probabilite) qui coincident sur les ensembles de la forme F ∩ G, donc,par theoreme de classe monotone, elles coincident sur la tribu engendree.
Exercice 1.3.14 : Seule la reciproque demande une demonstration. SiEQ(X|G) = EP (X|G) alors EP (LX|G) = EP (X|G)EP (L|G) = EP (XEP (L|G)|G)D’ou EP (X(L − EP (L|G))|G) = 0 pour tout X. Il en resulte (prendre X =L− EP (L|G)) que L− EP (L|G) = 0.
Exercice 1.3.15 : Soit dQ = Ψ(X)dP . On a EP (φ(X)) =∫
φ(x)f(x)dx,EQ(φ(X)) =
EP (Ψ(X)φ(X)) =∫
Ψ(x)φ(x)f(x)dx. Il suffit de choisir Ψ telle que Ψ(x)f(x) =
g(x).
1.4 Martingales
Exercice 1.4.1 : Soit s ≥ t et Xt = E(X|Ft). On a, en utilisant Ft ⊂ Fs
E(Xs|Ft) = E(X|Fs|Ft) = E(X|Ft) = Xt.
Exercice 1.4.2 : Soit Xt = Mt − At. On a, pour t ≥ s E(Xt|Fs) = Ms −E(At|Fs) et comme As ≤ At ou −At ≤ −As, E(Xt|Fs) ≤ Ms − E(As|Fs) =Ms −As = Xs.
Exercice 1.4.3 : C’est le lemme de Fatou: de l’inegalite
E(Mt∧τn |Fs) = Ms∧τn
on en deduit l’inegalite de surmartingale en utilisant que Ms∧τn converge versMs et que
lim E(Mt∧τn |Fs) ≤ E(lim Mt∧τn |Fs) = E(Mt|Fs)
(le lemme de Fatou assure que lim E(Xn|G) ≤ E(limXn|G) si les v.a. sont pos-itives).Soit F ∈ F et G ∈ G E(X11F 11G) = E(11F 11GE(X|F)) car E(X11F 11G) =E(X11F )E(11G) et E(11F 11GE(X|F)) = E(11F E(X|F))E(11G).
114 Rappels
Exercice 1.4.4 : Par definition de la propriete de martingale, Xt = E(XT |Ft).Cette propriete est a la base de tous les calculs d’evaluation en finance. En ef-fet, ces formules reposent sur le fait qu’un certain processus est une martingaleet donc que sa valeur a l’instant t est l’esperance conditionnelle de sa valeurterminale.
Exercice 1.4.7 : Soit G = (Gt, t ≥ 0) la filtration de M , c’est a dire Gt =σ(Ms, s ≤ t). Par definition, Gt ⊂ Ft (La martingale M est F adaptee, et lafiltration de M est la plus petite filtration telle que la propriete d’adaptationsoit vraie. On a alors E(Mt|Gs) = E(Mt|Fs|Gs) = E(Ms|Gs) = Ms On peutaussi montrer que si que si M est une F-martingale et Ht ⊂ Ft, E(Mt|Ht) estune H-martingale.
Exercice 1.4.8 : Pour s < t, on a (τ ≤ s) ⊂ (τ < t), d’ou
Zt = E(τ ≤ t|Ft) ≥ E(τ ≤ s|Ft)
et le resultat suit en prenant l’esperance conditionnelle par rapport a Fs.
1.5 Temps d’arret
Exercice 1.5.1 : La seule difficulte est la stabilite par passage au complementaire.Si A ∈ Fτ on ecrit
Ac ∩ (τ ≤ t) = (τ ≤ t)− (A ∩ (τ ≤ t) ∈ Ft
Exercice 1.5.2 :Par hypothese sur X, pour tout a, X ≤ a ∈ FT Pardefinition de la tribu FT , X ≤ a ∩ T ≤ t ∈ Ft. Par suite X ≤ a ∩ T ≤a ∈ Fa. Le premier membre de cette inclusion est X ≤ a.
Exercice 1.5.4 : Il suffit d’ecrire
A ∩ (T ≤ t) = A ∩ (S ≤ t) ∩ (T ≤ t)
et donc, si A ∈ FS on a A ∩ (T ≤ t) ∈ Ft.
Exercice 1.5.5: Il suffit d’ecrire
(S ≤ a) ∩ (S ≤ t) = (S ≤ (a ∧ t)) ∈ Fa∧t
Exercice 1.5.6: Montrons que S ≤ T ∈ FT . pour cela , on ecrit
(S ≤ T ) ∩ (T ≤ t) = (S ∧ t ≤ T ∧ t) ∩ (T ≤ t) ∩ (S ≤ t)
et chacu des trois ensembles du membre de droite est dans Ft (car S∧ t est pluspetit que t donc Ft mesurable.
Corriges. 2005-06 115
On introduit R = S ∧ T . C’est un temps d’arret, FR mesurable avecFR ⊂ FT . Donc (R = T ) ∈ FT , et (R < T ) ∈ FT , par suite (S < T ) ∈ FT etS = T ∈ FT , ainsi que T ≤ S et T < S.
Exercice 1.5.7 : Soit ω fixe. La fonction t → Zt(ω) vaut 1 pour t ∈ [S(ω), T (ω[et 0 sinon. Elle est continue sur les trois intervalles [0, S(ω)[, ]S(ω), T (ω)[, ]T (ω),∞[.Elle est continue a droite en S(ω) car si t → S(ω) ”par la droite” (soit t > S(ω)),Zt(ω) = 1 tend vers ZS(ω)(ω) = 1.
Exercice 1.5.11 : Utiliser le theoreme d’arret et le temps d’arret Ty poury > a. On a E(MTy∧t) = a. On fait alors tendre t vers l’infini MTy∧t convergevers y sur Ty < ∞ et vers 0 sinon. (et est borne). D’ou P (Ty < ∞) = a/y. Ilreste a remarquer que P (Ty < ∞) = P (sup Mt ≥ y).
1.6 Temps discret
Exercice 1.6.3 : L’egalite E(Xn+p|Fn) = Xn est vraie pour p = 1. En utilisant
E(Xn+p|Fn) = E(Xn+p|Fn+p−1|Fn) = E(Xn+p−1|Fn)
on demontre le resultat par recurrence.
Exercice 1.6.4 : On obtient
E((H ·M)n|Fn−1) =n∑
k=1
E(Hk(Mk −Mk−1) |Fn−1)
=n−1∑
k=1
Hk(Mk −Mk−1) + E(Hn(Mn −Mn−1) |Fn−1)
=n−1∑
k=1
Hk(Mk −Mk−1) + HnE(Mn −Mn−1 |Fn−1)
=n−1∑
k=1
Hk(Mk −Mk−1)
1.7 Algebre beta-gamma
1.8 Divers
Exercice 1.8.1 :
E(exp−λMτ ) = E(θ∫ ∞
0
dte−θte−λMt) = E(θ∫ ∞
0
dte−θtλ
∫ ∞
Mt
e−λudu)
116 Brownien.
= E(θ∫ ∞
0
dt
∫ ∞
0
due−θtλ11u>Mte−λu) = E(θ
∫ ∞
0
du
∫ ∞
0
dte−θtλ11Tu>te−λu)
= θE(∫ ∞
0
due−λuλ
∫ Tu
0
dte−θt) =∫ ∞
0
due−λuλ(1− e−θTu)
Exercice 1.8.2 : La partie directe est evidente, car eλX et eλY sont independantes.La reciproque n’est pas vraie, comme le montre le contre exemple suivant: SoitX,Y telles que P (X = i, Y = j) = ai,j ou les ai,j sont donnes pas les coefficientsde la matrice
1/9 1/6 1/181/18 1/9 1/61/6 1/18 1/9
La loi de X est egale a celle de Y et P (X = i) = 1/3 = P (Y = j). On verifieque X et Y ne sont pas independantes (par exemple P (X = 1, Y = 3) 6= 1/9.La loi de X + Y est egale a la loi de X1 + Y1 ou X1 a meme loi que X, Y1 ameme loi que Y et X1 et Y1 sont independantes.
Cet exercice montre que la loi de la somme de deux v.a. depend tres forte-ment de la loi du COUPLE. Rappellons a ce sujet que si Z1 et Z2 sont gaussi-ennes, cela n’implique pas que Z1+Z2 est gaussienne: Le contre exemple suivantdu a Nelson le prouve: Soit n la densite gaussienne reduite centree et u une fonc-tion impaire continue, nulle hors de [−1, +1] telle que |u(x)| < (2πe)−1/2. Onverifie que f(x, y) = n(x)n(y)+u(x)u(y) est une densite, que les lois marginalessont normales, et la loi de la somme n’est pas normale.Par contre, si le vecteur (X, Y ) est gaussien, la somme X + Y est gaussienne.Pour que le vecteur (X,Y ) soit gaussien, il faut et il suffit que X soit gaussienet que la loi conditionnelle de Y a X soit gaussienne.
Chapter 2
Mouvement Brownien,Corriges
2.1 Proprietes elementaires
Exercice 2.1.1 : Trivial. Ceci constitue une caracterisation du mouvementBrownien comme processus gaussien.
Exercice 2.1.2 :
1. On a E(BsB2t ) = E(E(BsB
2t |Fs)). La variable Bs est Fs-mesurable,
d’ou, si t > s, E(BsB2t ) = E(BsE(B2
t |Fs)).On sait que B2
t − t est une martingale, d’ou E(B2t |Fs) = B2
s − s + t. Enutilisant que Bt est centre et que E(B3
t ) = 0, on obtient que
E(BsB2t ) = E(Bs(B2
s − s + t)) = E(B3s ) = 0.
Si s > t, on a E(BsB2t ) = E(E(BsB
2t |Ft)) = E(B2
t E(Bs|Ft)) = E(B3t ) =
0.
2. Le MB est une martingale, donc E(Bt|Fs) = Bs pour t ≥ s et E(Bt|Fs) =Bs pour t < s car Bt est Fs-mesurable dans ce cas. Si s < t, E(Bt|Bs) =E(Bt−Bs+Bs|Bs) = E(Bt−Bs|Bs)+Bs = Bs car Bt−Bs est independantde Bs et centre. Si t < s, on s’inspire du pont Brownien (voir ex suivant)
pour ecrire E(Bt|Bs) = E(Bt − t
sBs|Bs) +
t
sBs. La v.a. Bt − t
sBs
est centree et independante de Bs: en effet, le couple (Bt − t
sBs, Bs)
est un couple gaussien centre et sa covariance est nulle. On en deduit
E(Bt|Bs) =t
sBs.
On peut aussi utiliser les resultats sur le conditionnement d’un vecteurgaussien.
117
118 Brownien.
3. La variable Bt + Bs est gaussienne (car B est un processus gaussien)centree. On peut aussi ecrire (Bt +Bs) comme une somme de v.a. gaussi-ennes independantes: Bt + Bs = Bt − Bs + 2Bs. On en deduit que savariance est t + 3s.
4. Soit θs une variable aleatoire bornee Fs-mesurable. On a, pour s ≤ t
E(θs(Bt −Bs)) = E(E(θs(Bt −Bs)|Fs)) = E(θsE((Bt −Bs)|Fs)) = 0.
De meme
E(θs(Bt−Bs)2) = E(E(θs(Bt−Bs)2|Fs)) = E(θsE((Bt−Bs)2|Fs)) = (t−s)E(θs).
5. E(11Bt≤a) =∫
Ω
11Bt≤adP =∫ a
−∞
1√2πt
exp(−x2
2t) dx =
∫ a/√
t
−∞
1√2π
exp(−y2
2) dy =
N (a√t). On peut aussi ecrire
E(11Bt≤a) = P (Bt ≤ a) = P (√
tU ≤ a) = P (U ≤ a/√
t) ou U est une v.a.de loi N (0, 1).
E(Bt11Bt≤a) =∫ a
−∞x
1√2πt
exp(−x2
2t) dx =
√t
∫ a/√
t
−∞y
1√2π
exp(−y2
2) dy
et la derniere integrale se calcule facilement.
Exercice 2.1.3 :Pour t > u, la propriete d’independance et de stationarite des accroissementsconduit a
f(Bt) = f(Bt −Bu + Bu) loi= f(Bt−u + Bu)) loi= f(Bt−u +√
uG))
ou Bs = Bs+u −Bu est un MB independant de Fu.Exercice 2.1.4 :On peut calculer la densite de BΘ
P (BΘ ∈ dx) =∫
P (Bt ∈ dx)θe−θt11t>0dt =∫ ∞
0
1√2πt
exp(−x2
2t)θe−θtdt
On trouve
P (BΘ ∈ dx) =
√2θ
2e−|x|
√2θdx
mais ce calcul d’integrale n’est pas trivial. Cependant, on peut y arriver sansutiliser un attirail lourd de changement de variables. On sait que la transformeede Laplace du temps d’atteinte du niveau a par un mouvement Brownien est
e−|a|√
2λ et que la densite de ce temps d’atteinte est|a|√2πu3
e−a2/2u. Ce qui
s’ecrit−|a|
√2λ = E(e−λTa) =
∫ ∞
0
e−λt |a|√2πt3
e−a2/2tdt .
Corriges. 2002-03 119
Par derivation par rapport a λ, on obtient
|a|√2λ
e−|a|√
2λ =∫ ∞
0
e−λt |a|√2πt
e−a2/2tdt .
D’ou
λ
∫ ∞
0
e−λt 1√2πt
e−a2/2tdt =
√2λ
2e−|a|
√2λ .
Exercice 2.1.5 :
1. Le processus M est F-mesurable. Mt est integrable: E(|B3t |) = Ct
32 ou C
est une constante et E|∫ t
0
Bsds| ≤∫ t
0
E(|Bs|) ds =∫ t
0
√2s
πds < ∞.
En utilisant que, pour t > s, la v.a. Bt − Bs est independante de Fs, onobtient
E(B3t |Fs) = E((Bt−Bs+Bs)3|Fs) = E((Bt−Bs)3)+3BsE(Bt−Bs)2+3B2
sE(Bt−Bs)+B3s
d’ou E(B3t |Fs) = 3Bs(t− s) + B3
s .D’autre part
E(∫ t
0
Budu|Fs) =∫ t
0
E(Bu|Fs) du =∫ s
0
E(Bu|Fs) du+∫ t
s
E(Bu|Fs) du =∫ s
0
Bu du+Bs(t−s)
La propriete de martingale est alors facile a verifier.
2. Des calculs analogues montrent que B3t − 3tBt est une martingale. Il
suffit de montrer que pour s < t, E(B3t − 3tBt|Fs) = B3
s − 3sBs. Or, enutilisant que Bt−Bs est independant de Fs, on obtient E((Bt−Bs)3|Fs) =E((Bt−Bs)3) = 0 car E(X3) = 0 si X est une variable gaussienne centree.Il reste a utiliser (a− b)3 = a3 − 3a2b + 3ab2 − b3 pour obtenir
E(Bt −Bs)3|Fs) = E(B3t |Fs)− 3BsE(B2
t |Fs) + 3B2sE(Bt|Fs)−B3
s
= E(B3t |Fs)− 3Bs(B2
s − s + t) + 3B2sBs −B3
s
Le processus B3t − 3tBt est une martingale, donc par difference tBt −∫ t
0
Bsds est une martingale, egale (integration par parties) a∫ t
0
sdBs.
3. La v.a. Xt est Ft mesurable et integrable : en effet |Xt| ≤ t|Bt| +∫ t
0
|Bs|ds = Z et il est facile de verifier que Z est integrable (soit E(Z) <
∞, car E(|Bt|) =2t√2π
).
Soit t > s.
E(Xt|Fs) = E(tBt −∫ t
0
Budu|Fs) = tE(Bt|Fs)−∫ t
0
E(Bu|Fs)du
= tBs −∫ s
0
Budu−∫ t
s
Bsdu = tBs −∫ s
0
Budu−Bs(t− s) = −∫ s
0
Budu + Bss = Xs
120 Brownien.
le processus X est une martingale.On peut aussi appliquer la formule d’Ito et verifier que dXt = tdBt.
Comme f(s) = s est de carre integrable (soit∫ t
0
s2ds < ∞) , l’integrale
de Wiener∫ t
0
sdBs est une martingale. On peut aussi remarquer que, par
integration par parties, Xt =∫ t
0
sdBs.
4. On verra plus tard que U n’est pas une martingale. On peut remarquerque E(Ut) n’est sans doute pas constant.
5. Soit t > s. E(Yt|Fs) = E(t2Bt−2∫ t
0
Budu|Fs) = t2E(Bt|Fs)−2∫ t
0
E(Bu|Fs)du =
t2Bs − 2∫ s
0
Budu− 2∫ t
s
Bsdu = t2Bs − 2∫ s
0
Budu− 2Bs(t− s) = Ys +
(t2 − s2)Bs − 2Bs(t − s) Pour que Y soit une martingale, il faudrait que0 = (t2 − s2)Bs − 2Bs(t− s) = (t− s)Bs(t + s− 2), ce qui n’est pas.
Exercice 2.1.6 : En ecrivant Mt = −(B2t − t) + (a + b)Bt − ab et en utilisant
que B et (B2t − t, t ≥ 0) sont des martingales, le caractere martingale de M
provient de la structure espace vectoriel de l’ensemble des martingales. Le pro-cessus Mt∧Ta,b
est une martingale de valeur initiale −ab, donc E[Mt∧Ta,b] = −ab.
Le temps d’arret Ta,b, majore par Ta est fini. Lorsque t converge vers l’infiniMt∧Ta,b
= (a−Bt∧Ta,b)(Bt∧Ta,b
−b)+t ∧ Ta,b converge vers (a−BTa,b)(BTa,b
−b)+Ta,b = Ta,b, car (a−BTa,b
)(BTa,b−b) = 0. La quantite (a−Bt∧Ta,b
)(Bt∧Ta,b−b)
est majoree par (a − b)2 et la quantite t ∧ Ta,b converge en croissant vers Ta,b
dont on ne sait pas qu’elle est integrable. On peut conclure en appliquant letheoreme de Lebesgue domine pour la partie E(a − Bt∧Ta,b
)(Bt∧Ta,b− b) et le
theoreme de convergence monotone pour la partie portant sur le temps d’arret.On en deduit E(Ta,b) = −ab.
Exercice 2.1.9 :Soit t ≥ s. Ex(f(Bt)g(Bs)) = Ex(f(Bt−s + Bs)g(Bs)) =
E
[∫dyf(y)pt−s(Bs, y)g(Bs)
]= E(Ψ(Xs)) avec Ψ(z) = g(z)
∫f(y)pt−s(z, y)dy.
D’ou Ex(f(Bt)g(Bs)) =∫
ps(x, z)Ψ(z)dz.
Autre mode de raisonnement: On applique la propriete de Markov.
Ex(f(Bt)g(Bs)) = Ex(g(Bs)E((f(Bt)|Fs)) = Ex(g(Bs)E((f(Bt)|Bs)) = Ex(g(Bs)ϕ(Bs))
avec ϕ(z) = Ez(f(Bt−s)) =∫
f(y)pt−s(z, y)dy.
Exercice 2.1.11 :
Ex(exp−λ(Wt)2) =1√
1 + 2λtexp(− λx2
1 + 2λt)
Corriges. 2002-03 121
Exercice 2.1.13 : E|∫ 1
0
Bs
sds| ≤
∫ 1
0
E|Bs
s|ds = c
∫ 1
0
1√sds < ∞.
Exercice 2.1.14 Utiliser que Bt < 0 ⊂ τ ≤ t.
Exercice 2.1.16 La quantite e−λtu(Bt) est majoree par e−λtM , qui est integrablesur [0,∞], d’ou l’existence de f et g.La suite d’egalites
Ex
(∫ ∞
τ
dte−λtu(Bt))
= Ex
(Ex
[∫ ∞
τ
dte−λtu(Bt) |Fτ
])
Ex
[∫ ∞
τ
dte−λtu(Bt)|Fτ
]= e−λτEx
[∫ ∞
0
dte−λtu(Bt+τ −Bτ + Bτ )|Fτ
]
Ex
[∫ ∞
0
dte−λtu(Bt+τ −Bτ + Bτ )|Fτ
]=
∫ ∞
0
dte−λtEx(u(Bt+τ −Bτ + Bτ )|Fτ )
Ex(u(Bt+τ −Bτ + Bτ )|Fτ ) = EBτ[u(Bt)]
ou la derniere egalite resulte de la propriete forte de Markov, B etant le Brownien(Bt+τ −Bτ , t ≥ 0), independant de Fτ , conduisent a
Ex
(∫ ∞
τ
dte−λtu(Bt))
= Ex(e−λτψ(Bτ ))
avec ψ(x) =∫ ∞
0
dte−λtEx[u(Bt)] = f(x) ce qui est le resultat souhaite.
Exercice 2.1.17 : Il suffit d’ecrire
∑ αk
k!E(Bk
t |Fs) =∑ αk
k!Hk(Bs,−(t− s))
Exercice 2.1.19 :P (au moins un zero dans ]s, t[|Bs = a) = T (Ta ≤ t − s).Il reste a calculer
2∫ ∞
0
da1√2πs
e−a2/2s
∫ t−s
0
dx(2πx3)−1/2a exp(− a2
2x)
On utilise Fubini et de la trigo.
2.2 Processus Gaussien
Exercice 2.2.1 : Soit Yt =∫ t
0
Bu du. Le processus Y est defini trajectoire
par trajectoire, comme integrale de Riemann d’une fonction continue. En par-ticulier, on a dYt = Btdt. Le processus Y est un processus gaussien. Toutd’abord, Yt est une gaussienne comme limite de sommes de Riemann qui sontdes gaussiennes car B est un processus gaussien. Le caractere gaussien du pro-cessus s’obtient par un raisonnement analogue.
122 Brownien.
On a E(Yt) =∫ t
0
E(Bu) du = 0.
La covariance de Y est E(YtYs) =∫ t
0
du
∫ s
0
dvE(BuBv). Il reste a integrer
∫ t
0
du
[∫ s
0
dv(u ∧ v)]
.
On se place dans le cas s < t et il vient
E(YtYs) =∫ s
0
du
[∫ s
0
(v ∧ u)dv
]+
∫ t
s
du
[∫ s
0
(v ∧ u)dv
]=
∫ s
0
du
[∫ u
0
vdv +∫ s
u
udv
]+
∫ t
s
du
[∫ s
0
vdv
].
Tous calculs faits, pour s < t: E(YtYs) =s2
6(3t− s).
Exercice 2.2.2La solution est
Xt = e−atx + e−at
∫ t
0
e(a+b)tdBt
On procede comme pour le processus d’OU. On peut aussi resoudre dXt =−aXtdt ce qui donne Xt = ce−at et appliquer une methode de variation de laconstante. On cherche un processus c tel que Xt = Cte
−at verifie l’equation(cette methode ne prend toute sa signification que si on a vu le lemme d’Ito)
dXt = −aCte−atdt + e−atdCt = −aXtdt + ebtdBt
d’ou e−atdCt = ebtdBt soit dCt = e(b+a)tdBt. Il resterait a verifier que l’on abien trouve une solution, car on ne dispose pas du lemme d’Ito et on ne sait pasjustifier que la derivee de Cte
−at est −aCte−atdt + e−atdCt.
Exercice 2.2.4 :
1. Le processus (Zt = Bt − tB1, 0 ≤ t ≤ 1) est un processus gaussien carpour tout choix de (ai, ti)
∑aiZti =
∑aiBti − (
∑aiti)B1
est une v.a.r. gaussienne (B est un processus gaussien). De la meme facon,on obtient que le vecteur (Zt, B1) est gaussien. Ses deux composantes Zt
et B1 sont independantes car E(ZtB1) = E(BtB1) − tE(B21) = 0. La
covariance de Z est
E(ZtZs) = E(BsBt)− sE(B1Bt)− tE(BsB1) + tsE(B21) = (s ∧ t)− st.
On appelle Z un pont Brownien.
Corriges. 2002-03 123
2. Le processus (Yt = Z1−t, 0 ≤ t ≤ 1) est gaussien centre. Sa covariance est,pour s ≤ t,
E(YtYs) = (1− t) ∧ (1− s)− (1− s)(1− t) = (s ∧ t)− st = s(1− t).
3. Soit Yt = (1 − t)B t1−t
. Le processus Y est un processus gaussien car∑aiYti
=∑
biBsi. On a E(Yt) = 0 et pour s < t
E(YsYt) = (1− t)(1− s)E(B t1−t
B s1−s
) = (1− t)(1− s)s
1− s= s(1− t)
Exercice 2.2.5 : Par definition de l’integrale de Riemann, toute combinaisonlineaire
∑
i
aiZti est limite dans L2 de sommes du type∑
j
bjBtj , d’ou le car-
actere gaussien. (Attention, il ne faut pas se contenter de dire que Z est lasomme de deux processus gaussiens. La somme de deux v.a. gaussiennes n’estpas necessairement une gaussienne. Cette propriete est vraie si les variables
sont independantes) On utilise ici que∫ t
0
Bs
sds = lim
n∑
i=0
Bti
ti(ti+1 − ti).
Pour caracteriser la loi du processus gaussien Z, il suffit de donner sonesperance et sa covariance( sa variance s’en deduira)Il est immediat de montrer que E(Zt) = 0. Il reste a calculer la covariance. Soits < t.
E(ZsZt) = E(BsBt)−E[∫ t
0
BsBu
udu]−E[Bt
∫ s
0
Bu
udu]+E[
∫ t
0
duBu
u
∫ s
0
dvBv
v
On utilise que E(∫ b
a
f(Bu)du) =∫ b
a
E[f(Bu)]du et que E(BuBv) = u ∧ v).
Apres quelques calculs d’integration sur les integrales doubles, il vient E(ZsZt) =s. Le processus Z est un processus gaussien d’esperance nulle et de covariances ∧ t.Le processus Z est donc un mouvement Brownien. Cependant le processus Zn’est pas une (Ft) martingale: pour s > t
E(Zs − Zt|Ft) =∫ s
t
1u
Bsdu 6= 0
On a ici l’exemple d’un processus qui est un MB (et une martingale par rapporta sa propre filtration), mais qui n’est pas un brownien, ni meme une martingalepar rapport a une filtration plus grosse. Le probleme est connu sous le nom degrossissement de filtration. (Voir l’exercice sur l’agent initie, dans le chapitrecomplements)
124 Brownien.
Exercice 2.2.6 : Bu− u
tBt = (Bu− u
t + hBt+h)− u
t(Bt− t
t + hBt+h) montre
la croissance et Bt est orthogonal a Bu − u
tBt .
Exercice 2.2.7 : Rappel : soit X est une v.a. de loi N(m;σ2) et Y =expλ(X −m) − 1
2λ2σ2. Soit dQ = Y dP . Sous Q, X est une v.a. de densiteN(m + λσ2, σ2).On montre alors que Bt = Bt −mt a une loi gaussienne sous Q.On verifie ensuite l’independance des accroissements: il s’agit de montrer que
EQ(φ(Bt+s − Bs)ψ(Bs)) = EQ(φ(Bt+s − Bs)) EQ(ψ(Bs))
pour toutes fonctions boreliennes bornees (φ, ψ). On a, par changement de
probabilite, avec Lt = exp(mBt − m2
2t)
A = EQ(φ(Bt+s − Bs) ψ(Bs)) = EP (Lt+sφ(Bt+s − Bs)ψ(Bs).
On a Bt+s − Bs = Bt+s −Bs −mt.En utilisant l’independance de Bt+s − Bs et de Bs (sous P ) et la forme de L,on obtient
A = EP [exp(m(Bt+s−Bs)−12m2t)) φ(Bt+s−Bs−mt)] EP [exp(mBs−1
2m2s)ψ(Bs)].
Sous P , Bt+s −Bs et Bt ont meme loi, d’ou
A = EP [exp(mBt − 12m2t)φ(Bt −mt)] EP [exp(mBs − 1
2m2s)ψ(Bs)]
= EP [exp(mBt − 12m2t)φ(Bt)] EP [exp(mBs − 1
2m2s)ψ(Bs)]
ce qui conduit aA = EQ(φ(Bt))EQ(ψ(Bs)) .
Exercice 2.2.8 :
supt
(|Bt|−µtp/2)| = sups
(|Bλ2s)|−µ(λ2s)p/2) loi= sups
(λ|Bs|−µ(λ2s)p/2) = λ sups
(|Bs|−sp/2)
E(|BT |) ≤ E((|BT | − µT p/2)) + µE(T p/2) ≤ E(supt(|Bt| − µtp/2)) + µE(T p/2)
2.3 Multidimensionnel
Exercice 2.3.2 : Si les coefficients σi sont des constantes, il suffit de definirB3(t) = 1√
σ21+σ2
2
(σ1B1(t) + σ2B2(t)). Ce processus est un Brownien car c’est
une martingale telle que (B23(t) − t; t ≥ 0) est une martingale. Si les σ sont
Corriges. 2002-03 125
deterministes, on pose dB3 = 1√σ21(t)+σ2
2(t)(σ1(t)dB1(t) + σ2(t)dB2(t)).
Le processus
B(3)(t) =1√
1− ρ2(B(2)(t)− ρB(1)(t))
est une martingale
B2(3)(t) =
11− ρ2
(B2(2) + ρ2B2
(1)(t)− 2ρB(1)(t)B(2)(t)
Par definition de la correlation, B(1)(t)B(2)(t) − ρt est une martingale. Il s’ensuit que B2
(3)(t)− t est une martingale, donc B(3) est un MB. Il reste a montrerque B(3) est independant de B(1). On peut utiliser le theoreme de RP pouretablir que si le coefficient de correlation de deux MB est nul, ces processus sontindependants.
2.4 Temps d’atteinte
Exercice 2.4.1 : Soit λ > 0. Le processus M defini par Mt = exp(λBt− 12λ2t)
est une martingale. On applique le theoreme d’arret de Doob. Si a > 0,la martingale Mt∧Ta est uniformement integrable, car majoree par exp(λa).Donc E(exp(λBTa − 1
2λ2Ta)) = 1, soit E(exp(λa − 12λ2Ta)11Ta<∞) = 1. D’ou
E(exp(−12λ2Ta) 11Ta<∞) = exp−λa. Pour λ = 0; on obtient P (Ta < ∞) = 1,
puis E(exp(−12λ2Ta) ) = exp−λa. En derivant par rapport a λ2, et en prenant
λ = 0, on en deduit l’esperance de Ta.
Exercice 2.4.2 : La propriete de Markov fort montre que Bt = BTa+t−BTa =BTa+t − a est independant de FTa , donc de Ta. Comme b > a, on a
Tb = inft : Bt = b = inft ≥ Ta : Bt = b = Ta + inft : Bt = b− a
On en deduit que la v.a. Tb−Ta est independante de Ta et que Tb−Taloi= Tb−a.
Le processus Ta est donc a accroissements independants et stationnaires. C’estdonc un processus de Levy.
Exercice 2.4.3 : Appliquer le theoreme d’arret de Doob a la martingale Bt eta B2
T∧n − (T ∧ n).
Exercice 2.4.5 : On note St = maxs≤t Ws. En remarquant que ST =maxs≤t Ws ∨maxt<s≤T Ws on en deduit
P (τ > T |Ft) = P (ST < a|Ft) = 11St<aP ( maxt<s<T
Ws −Wt < a−Wt|Ft)
126 Brownien.
Le processus Wu = Wt+u−Wt est un MB independant de Ft. D’ou P (maxt<s<T Ws−Wt < a−Wt|Ft) = Ψ(a−Wt) avec
Ψ(x) = P ( max0<u<T−t
Wu < x) = P (|WT−t| < x) = P (|√
T − tG| < x) =2√2π
∫ x√T−t
0
e−u2/2du .
Exercice 2.4.6 : Des calculs simples montrent que E(e−λT d
) = E(exp−|Bd|√
2λ)e−λd.De meme, E(11Bd≤αe−λT d
) = E(11Bd≤αΦ(Bd))e−λd avec Φ(x) = Ex(e−λT0) =E0(e−λTx) = exp(−|x|
√2λ. D’ou
E(11Bd≤αe−λT d
) = E(11Bd≤α exp(−|Bd|√
2λ)e−λd) = E(11G≤α/√
d exp(G√
2dλ)e−λd)
Exercice 2.4.9 : Par definition P (I ≤ x) = P (infs≤T1 Bs ≥ −x) = P (T1 ≤T−x). En utilisant le theoreme d’arret E(BT1∧T−x) = E(B0) = 0, d’ou
P (T1 ≤ T−x)− xP (T1 ≥ T−x) = 0 = P (T1 ≤ T−x)− x(1− P (T1 ≤ T−x))
et P (T1 ≤ T−x) =x
1 + x.
Exercice 2.4.10 : On regarde la martingale exp θXt− λt pour un θ . Ensuite,on montre que
(eβb − eβa)eαXt−λt + (eαab − eαb)eβXt−λt
est une martingale pour β =√
ν2 + 2λ− ν, α = −√ν2 + 2λ− ν.
Exercice 2.4.11 : On utilise que (MT∗a < y) = (supu<v Bu < y).
P (MT∗a − y > x|MT∗a > y) = P (T ∗ > Tx+y|T ∗a > Ty)= P (Mu −Bu ≤ a, Ty < u < Tx+y|Mu −Bu < a, ∀u < Ty)
= P (Mu − Bu ≤ a,∀u, 0 < u < Tx) = P (MT∗a ≥ x)
Pour obtenir le parametre, on calcule l’esperance
0 = E(BT∗∧n = E(MT∗a∧n)− E(MT∗a∧n −BT∗a∧n)
et on passe a la limite E(MT∗a∧n) = a.
Exercice 2.4.12 : Le processus exp[−2µXt/σ2] est une martingale, en ef-fet il est facile de mettre ce processus sous la forme exp(λBt − 1
2λ2t). On endeduit que h(Xt) est une martingale et que E(h(Xτ∧t)) = h(0). L’inegalite|h(Xτ∧t))| ≤ supx∈[−B,A](h(x)) permet d’appliquer le theoreme de convergencedominee.
Exercice 2.4.18 : On sait que (poly, Lamberton et Lapeyre 2nd edition, page96, Musiela et Rutkowski p. 49, Voir aussi Karatzas et Shreve, page 95) siMt = sups≤t Ws
P (Wt ≤ x , Mt ≤ y) = P (Wt ≤ x)− P (Wt ≥ 2y − x)
Corriges. 2002-03 127
pour 0 ≤ y, x ≤ y. On en deduit, par derivation
P (Wt ∈ dx ,Mt ≤ y) =1√2πt
exp(−x2
2t)− 1√
2πtexp(− (2y − x)2
2t)
et
P (Mt ≤ y|Wt = x) =P (Wt ∈ dx , Mt ≤ y)
P (Wt ∈ dx)= 1− exp(− (2y − x)2
2t+
x2
2t)
Si le MB est issu de x, on utilise
P (sups≤t
Ws + x ≤ y|Wt + x = z) = P (Mt ≤ y − x|Wt = z − x)
2.5 Scaling
Exercice 2.5.2 : La partie a) resulte de
(T1 > t) = (1 > St)loi= (1 >
√tS1) = (
1S2
1
> t)
La partie c) resulte de
d∆a = inft ≥ ∆a : Bt = 0 = inft :1aAt ≥ 1,
1√aBt = 0
loi= inft : At/a ≥ 1, Bt/a = 0 = ad∆1
et(Ag ≤ a) = (g ≤ ∆1) = (1 ≤ d∆a
loi= (1 ≤ ad∆1) = (1
d∆1
≤ a)
La partie d) est facile. Dans ce cas ∆1loi= T ∗1 = inft : sups≤t |Bs| ≥ 1.
Exercice 2.5.3 :
P ( sup1≤t≤1
|Wt| ≤ x) = P ( sup1≤t≤(1/x2)
|Wt| ≤ 1) = P (M1 ≥ 1x2
)
2.6 Complements
Exercice 2.6.1 : On calcule E((Bt − Bt)2)
E((Bt − Bt)2) = E(B2t ) + E(B2
t )− 2E(BtBt)
= 2t− 2E(BtBt)
Il reste a calculer
E(BtBt) = E[ E((BtBt|Gt
)]) = E(B2
t ) = t
128 Brownien.
d’ou E((Bt − Bt)2) = 0; il s’en suit l‘egalite souhaitee.
Exercice 2.6.4 : Soit s < t. Nous devons montrer que pour u ≤ s, β(s)u
def=
Bu − u
sBs ∈ Πt. Il suffit d’ecrire β
(s)u = Bu − u
tBt +
u
s(s
tBt − Bs) = β(t)
u −u
sβ(t)
s . Le processus (β(t)u ; u ≤ t) est independant de la variable
u
tBt (calculer
les covariances), et Bu = (β(s)u +
u
tBt est la decomposition orthogonale de B,
la projection de Ft est donc∫ t
0
f(s)dsβ(t)s . Le processus B est un processus
gaussien centre de covariance t ∧ s, c’est un MB (On peut aussi le voir enutilisant des resultats d’unicite en loi de solution d’equa diff) Il est facile demontrer que
Bs = β(t)s −
∫ s
0
du
uβ(t)
u
et que, en particulier
Bt = −∫ t
0
du
uβ(t)
u
D’ou l’egalite des tribus. Il en resulte, en notant F (t) =∫ t
0
f(s)ds et en utilisant
une integration par partie que∫ t
0
f(s)dBs =∫ t
0
f(s)dBs − Bt
tF (t) +
∫ t
0
F (s)s
dBs .
Exercice 2.6.7 : On utilisera le theoreme de representation previsible pourrepresenter W
(1)t ,W
(2)t en terme de W (3). Si l’egalite etait possible, on aurait
W(i)t =
∫ t
0
Φ(i)s dWs avec
∫ t
0
E[Φ(i)s ]2ds = t et E(W (1)
t W(2)t ) = E(
∫ t
0
Φ(1)s Φ(2)
s ds) =
0.
Exercice 2.6.8 : Les premieres questions se traitaient en utilisant des formulesd’integration par parties, ou la formule d’Ito. A la main, on calcule
Bt +∫ t
0
Ws −Xs
1− sds = Bt +
∫ t
0
Ws
1− sds−
∫ t
0
ds
∫ s
0
Wu
(1− u)2du−
∫ t
0
ds
∫ s
0
11− u
dBu
= Bt −∫ t
0
t− u
1− udBu +
∫ t
0
Ws
1− s(1− t− s
1− s)ds
=∫ t
0
(1− t− u
1− u)dBu +
∫ t
0
Ws
1− s(1− t− s
1− s)ds
= (1− t)∫ t
0
11− u
dBu + (1− t)∫ t
0
Ws
(1− s)2ds
Par differentiation
dXt = (1− t)Wt
(1− t)2dt− dt
∫ t
0
Ws
(1− s)2ds + (1− t)
11− t
dBt − dt
∫ t
0
11− s
dBs
2002-03 129
=Wt
1− tdt + dBt − 1
1− tXtdt
Le calcul de la covariance du processus Gaussien X s’obtenait en appliquantplusieurs fois le resultat d’isometrie
E(∫ t
0
f(u)dWu
∫ s
0
g(u)dWu) =∫ t∧s
0
f(u)g(u)du
et en remarquant que les v.a.∫ t
0
f(u)dWu et∫ s
0
g(v)dBv sont independantes.
On trouvait pour s < t
E(XsXt) = s + 2s(1− t) + (2− s− t) ln(1− s)
2.7 Finance
Exercice 2.7.1 : On calcule separement E(St11St<K) et E(11St<K). On trouve
E(e−rt(St −K)+) = xN (d1(t))−Ke−rtN (d2(t))
avecd1(t) =
1σ√
t(ln(
x
K+
12σ2t + rt), d2(t) = d1 − σ
√t
En appliquant la propriete de Markov, on en deduit
E(e−r(t−s)(St −K)+|Fs) = xN (d1(t− s))−Ke−r(t−s)N (d2(t− s)) .
Exercice 2.7.2 : Nous presentons le calcul pour deux dates. Il s’agit de calculerl’esperance de
(ST − St1)+11St1<K + (ST −K)+11K<St1
On utilise la formule de BS.
E[(ST − St1)+11St1<K ] = E[11St1<KE((ST − S+
t1 |Ft1)]
E((ST − S+t1 |Ft1) = E((ST − S+
t1 |§t1)= St1N (d1)− St1e
−r(T−t1)N (d2)
avecd1 =
1σ√
T − t1(12σ2(T − t1) + r(T − t1))
Il vientE[(ST − S+
t111St1<K = aE(St111St1<K
aveca = N (d1)−N (d2)e−r(T−t1)
E[(ST −K)+11K<St1] = E[11K<St1(St1N (d∗1)−Ke−r(T−t1)N (d∗2)
d∗1 =1
σ√
T − t1(ln(
St1
K+
12σ2(T − t1) + r(T − t1))
130 Ito. Corriges
Chapter 3
Integrale d’Ito, Corriges
3.1 Integrale de Wiener
Exercice 3.1.1 : On a tBt =∫ t
0sdBs +
∫ t
0Bsds (en utilisant la formule
d’integration par parties) et E(Yt) = 0, E(YsYt) = ts(t∧ s). Le processus Y estun processus gaussien (c’etait d’ailleurs evident par definition de Y ). On peutaussi utiliser la formule d’Ito (voir plus loin) qui conduit a dYt = tdBt + Btdt.
Exercice 3.1.2 : La v.a. Xt =∫ t
0
(sin s) dBs est definie, car∫ t
0sin2 s ds < ∞,
pour tout t. Le processus X est gaussien d’esperance nulle et de covarianceE(XsXt) =
∫ s∧t
0sin2 u du. Il vient alors E(XtXs) = s∧t
2 − 14 sin 2(s ∧ t).
Le processus X est une martingale, d’ou, pour s < t, on a E(Xt|Fs) = Xs. Laderniere egalite resulte d’une IP.
Exercice 3.1.3 : La v.a. Yt =∫ t
0
(tan s) dBs est definie, car∫ t
0tan2 s ds < ∞
pour t < π2 . Le processus Y est gaussien, centre de covariance E(YtYs) =∫ s∧t
0tan2 u du = tan(s ∧ t)− (s ∧ t).
Le processus Y est une martingale.
Exercice 3.1.4 : Soit
Xt = (1− t)∫ t
0
dBs
1− s; 0 ≤ t < 1
En appliquant le Lemme d’Ito (ou une I.P.) a f(t, y) = (1−t)y et Yt =∫ t
0
dBs
1− s
131
132 Ito. Corriges
(donc dYt =dBt
1− t) il vient dXt = (−dt)
∫ t
0
dBs
1− s+ (1− t)
dBt
1− t, d’ou
dXt =
Xt
t− 1dt + dBt ; 0 ≤ t < 1
X0 = 0
On admet l’unicite de la solution. Le processus X est gaussien car∫ t
0
dBs
1− sest
une integrale de Wiener, et on a E(Xt) = 0 et pour s < t
E(XsXt) = (1−t)(1−s)E(∫ t
0
dBu
1− u
∫ s
0
dBu
1− u) = (1−t)(1−s)
∫ s
0
du
(1− u)2= (1−t)s
En particulier E(X2t ) = t(1 − t) d’ou Xt tend vers 0 quand t tend vers 1. Le
processus X est un pont Brownien.
Exercice 3.1.5 : Formule evidente en ecrivant Bt =∫ t
0
dBs et en utilisant
l’isometrie.
Exercice 3.1.6 : E(∫ t2
t1
(Bt − Bt1) dt|Ft1) =∫ t2
t1
E((Bt − Bt1)|Ft1) , dt = 0.
Par integration par parties∫ t2
t1
Bt − Bt1) dt = t2(Bt2 − Bt1) −∫ t2
t1
tdBt =∫ t2
t1
(t2 − t)dBt On en deduit que la variance cherchee est∫ t2
t1
(t2 − t)2dt.
3.2 Formule d’Ito
Exercice 3.2.1 : 1. Soit Xt = B2t . On a, en posant f(x) = x2
dXt = f ′(Bt)dBt +12f ′′(Bt) dt = 2BtdBt + dt .
2. Soit Xt = t + exp Bt. En posant f(t, x) = t + ex, on a
dXt = dt + exp BtdBt +12
exp Btdt .
3. Soit Xt = B3t − 3tBt. En posant f(t, x) = x3 − 3tx on obtient
dXt = 3B2t dBt − 3tdBt − 3Btdt +
123 2BtdBtdBt = (3B2
t − 3t)dBt .
On retrouve le caractere martingale de X etabli au chapitre precedent.
Exercice 3.2.2 : Soit Xt = exp∫ t
0a(s) ds et Yt = Y0+
∫ t
0[b(s) exp(− ∫ s
0a(u)du) dBs,
ou a et b sont des fonctions deterministes. En utilisant la notation differentielle
2002-03 133
dXt = a(t)(exp
∫ t
0a(s) ds
)dt et dYt = b(t) exp(− ∫ t
0a(u)du) dBt, d’ou dXtdYt =
0. On pose Zt = XtYt. Par la formule d’Ito, on a
dZt = Xt dYt + Yt dXt = b(t) dBt + a(t)XtYtdt
soit dZt = a(t)Ztdt + b(t)dBt. Le processus (Zt exp− ∫ t
0a(s) ds = Yt; t ≥ 0) est
une martingale locale.
Exercice 3.2.3 : La formule d’Ito donne (nous omettons les indices t
dY = X1X2dt + t(X1dX2 + X2dX1 + d〈X1, X2〉= X1X2dt + t(X2f(t) + σ1σ2)dt + t(X1σ2 + X2σ1)dB
Exercice 3.2.4 : La formule d’Ito appliquee a sin Bt donne
sin Bt = 0 +∫ t
0
cosBs dBs − 12
∫ t
0
sin Bs ds,
d’ou Yt =∫ t
0cos Bs dBs. C’est une martingale, car E(
∫ t
0cos2 Bs ds) < ∞, pour
tout t. On a E(Yt) = 0 et varYt = E(∫ t
0cos2 Bs ds).
Exercice 3.2.5 : En appliquant la formule d’Ito, on obtient
d(X2t +Y 2
t ) = 2XtdXt+2YtdYt+d〈X〉t+d〈Y 〉t = 2XtYtdBt−2xtYtdBt+(X2t +Y 2
t )dt
En posant Zt = X2t + Y 2
t on montre que le processus Z verifie dZt = Ztdt cequi s’integre en Zt = zet.
Exercice 3.2.6 : Il est evident que dZt = YtdBt. On calcule facilement
E(Y 2s ) =
∫ t
0
e2sds. Par suite L’integrale stochastique est une martingale car
E(∫ t
0
Y 2s ds) =
∫ t
0
E(Y 2s )ds < ∞
et E(Zt) = 0, E(Z2t ) = E(
∫ t
0Y 2
s ds).
Exercice 3.2.7 : Soit dXt = a(Kt − Xt) dt + σdBt. On voudrait que Xt =f(Kt). La formule d’Ito appliquee a f(Kt) donne
dXt = f ′(Xt)dKt +12f ′′(Kt)σ2 dt
soitdXt = (f ′(Kt)b +
12f ′′(Kt)σ2) dt + f ′(Kt)σdBt
Si on identifie les deux drifts, on obtient
a(Kt − f(Kt)) = f ′(Kt)b +12f ′′(Kt)σ2
134 Ito. Corriges
d’ou f est solution de
12σ2f ′′(x) + bf ′(x) + af(x) = ax .
On resout cette EDO et on montre que f est de la forme
αeλ1x + βeλ2x + (x− b
a)
avec λ1 et λ2 solutions de 12σ2λ2 + bλ + a = 0.
Exercice 3.2.8 : Soit Xt =∫ t
0σ(s) dBs − 1
2
∫ t
0σ2(s) ds. On a
dXt = σ(t) dBt − 12σ2(t) dt.
Soit Yt = exp Xt. On applique la formule d’Ito avec f(x) = ex.
dYt = exp(Xt) dXt +12
exp(Xt) σ2(t) dt
= Yt (−12σ2(t) dt + σ(t)dBt) +
12Yt σ2(t) dt
= Yt σ(t) dBt .
Le processus Y est une martingale locale. C’est une martingale si
E
(∫ t
0
Y 2t σ2(t) dt
)< ∞ .
Ce critere n’est pas tres bon, nous en verrons d’autres par la suite.Si σ est une constante, Y est un brownien geometrique avec drift nul. Enparticulier,
Yt = exp(σBt − σ2
2t)
est une (vraie) martingale:Verifions a titre d’exercice dans ce cas les conditions d’integrabilite:
Yt = exp Xt = exp(σBt − 12σ2t)
d’ou
E(|Yt|) = E(Yt) = E(exp(σBt − σ2
2t)) =
1√2πt
∫ ∞
−∞eσx− 1
2 σ2te−x22t dx = 1
E(Y 2t ) = E(exp(2σBt − σ2t)) = exp(σ2t) .
En particulier, si σ = 1 le processus exp( Bt − t2 ) est une martingale.
2002-03 135
Soit Zt = 1Yt
. Pour calculer dZt, on peut utiliser la formule d’Ito
dZt = −Ytσ(t)Y 2
t
dBt +12
2Y 2t σ2(t)Y 3
t
dt = Zt(−σ(t)dBt + σ2(t)dt)
ce qui va s’ecrire
Zt = Z0 exp(−∫ t
0
σ(s)dBs +12
∫ t
0
σ2(s) ds)
formule que l’on peut obtenir directement en inversant l’exponentielle.
Exercice 3.2.9 : Par simple application de la formule d’Ito
dZt = (aZt + b)dt + cZtdWt
Exercice 3.2.10 : Dans le cas h = 0, on a
St = S0e(r−q)teσWt− 1
2 σ2t = e(r−q)tMt .
Donc Mt = M0eσWt− 1
2 σ2t est une martingale positive, d’esperance 1 et on peutl’utiliser comme densite de RN. Sous Q, le processus Wt = Wt − σt est un MB.Dans le cas general
St = S0e(r−q)te
∫ t0 hsdseσWt− 1
2 σ2t .
On en deduit e−∫ t0 hsds = 1
StMte
−(r−q)t. Donc
e−rT E(e−∫ T0 h(Ss)dsΨ(ST )) = e−rT E(
1ST
MT e−(r−q)T Ψ(ST )) = e−qT EQ(1
STΨ(ST )) .
On se place dans le cas ht = S−pt et on pose Zt = Sp
t . Le calcul d Ito conduit a
dZt = pSpt σdWt + (r − q)pSp
t dt + pdt +12p(p− 1)Sp−2
t S2t σ2dt
= pZtσdWt +([
(r − q)p +12p(p− 1)σ2
]Zt + p
)dt
= (aZt + b)dt + cZtdWt
Le processus f(Zt) est une martingale locale si
f ′(z)(az + b) +12f ′′(z)c2z2 = 0 .
On pose g = f ′. L’equation
g(z)(az + b) +12g′c2z2 = 0
a pour solution g(z) = α exp( 2bc2z )z−1/c2
. Les fonctions f recherchees (ce quel’on appelle les fonctions d’echelle) sont les primitives de g.
136 Ito. Corriges
Exercice 3.2.11 : Le processus Z est une martingale locale car dZt = cXtZtdBt.On a
dUt = 2XtdXt + d〈X〉t= 2Xt(a− bXt)dt + 2XtdBt + dt
soit Ut = U0 + 2∫ t
0
XsdBs +∫ t
0
(2Xs(a− bXs) + 1)ds On en deduit
12(X2
t −X20 − t) =
∫ t
0
XsdBs + a
∫ t
0
Xsds− b
∫ t
0
X2s ds
Exercice 3.2.12 : Pour montrer que Z est une martingale locale, on cal-cule dZ et on verifie que son drift est nul. On a Zt = f(t, Bt) avec f(t, x) =
1√1− t
exp− x2
2(1− t)Il en resulte que
dZt = − Bt
(1− t)3/2exp− B2
t
2(1− t)dBt
Le processus (Zt, t < 1) est une martingale locale. C’est une vraie martingalesi pour tout T ≤ 1
E[∫ T
0
B2t
(1− t)3exp− B2
t
(1− t)dt] < ∞
Le terme de gauche est majore par E[∫ T
0
B2t
(1− t)3dt] =
∫ T
0
t
(1− t)3dt < ∞.
Exercice 3.2.13 : Soit Zt = (Lt)a exp(−Γ(a)t). Alors
dZt = dMt + e−Γ(a)t(Lt)a(−Γ(a) + a(a− 1)φ)
ou M est une martingale.
Exercice 3.2.14 : Il est facile d’etablir que
dYt = −Yt[(2Xtat + σ2t (1 + 2X2
t ))dt + 2XtσtdWt]
et, en utilisant que Xt = 0 et Yt = 1 on obtient 0 = −σ2t dt.
Exercice 3.2.22 : La fonction d’echelle de Xt = exp(Bt + νt) est s(x) = x−2ν .
Le processus croissant de s(X) est At =∫ t
0
(s′σ)2(Xs)ds.
Exercice 3.2.26 : On obtient facilement
E(f(B1)|Ft) = E(f(B1 −Bt + Bt)|Ft) = E(f(B1−t + Bt)|Ft) = ψ(t, Bt)
2002-03 137
avecψ(t, x) = E(f(x + B1−t)) . (3.1)
D autre part, la formule d’Ito et la propriete de martingale de ψ(t, Bt) conduisent
a ψ(t, Bt) = E(f(B1)) +∫ t
0
∂xψ(s,Bs)dBs. On ecrit (grace a 3.1)
∂xψ(t, x) = E(f ′(x + B1−t))
et un raisonnement analogue au precedent montre que si on pose ϕ(t, x) =E(f ′(x + B1−t)) on obtient
ϕ(t, Bt) = E(f ′(B1)|Ft)
3.3 Cas multidimensionnel
Exercice 3.3.1 : De facon evidente, on a
dS3(t) =12
[dS1(t) + dS2(t)] =12
[r(S1(t) + S2(t)] dt+σ1S1(t)dB1(t)+σ2S2(t)dB2(t) .
On peut remarquer que√
σ21S2
1(t) + σ22S2
2(t) dB3(t) = (σ1S1(t)dB1(t) + σ2S2(t)dB2(t))
definit un Brownien B3 qui permet d’ecrire
dS3(t) = r S3(t)dt + σ(t)S3(t)dB3t
ou σ(t) =√
σ21S2
1(t)+σ22S2
2(t)
S1(t)+S2(t)est un processus.
En utilisant le lemme d’Ito, on obtient
dS4(t) = S4(t)(r dt− 18(σ2
1 + σ22) dt +
σ1
2dB1(t) +
σ2
2dB2(t)) ,
ce que l’on peut ecrire
dS4(t) = S4(t)(r dt− 18(σ2
1 + σ22) dt + σdB4(t)) .
Pour verifier que B3 et B4 sont des browniens, on peut proceder de differentesfacons (voir aussi les exercices sur le Brownien)a. Bi(t + s)−Bi(t) a meme loi que Bi(s), cette loi est N (0, s) et les accroisse-ments sont independantsb. Bi et (B2
i (t)− t, t ≥ 0) sont des martingales et Bi est un processus continuc. pour tout λ, le processus exp(λBi(t)− λ2
2 t) est une martingale.
138 Ito. Corriges
3.4 Complements
Exercice 3.4.1 : En utilisant le theoreme de Fubini pour les integrales doubles
F (x) =∫ x
−∞dz
∫ z
−∞dyf(y) =
∫ x
−∞dyf(y)
∫ x
y
dz =∫ x
−∞dyf(y)(x− y)+
Par derivation par rapport a la borne superieure
F ′(x) =∫ x
−∞dyf(y) =
∫ ∞
−∞f(y)11x>ydy
Le lemme d’Ito conduit alors au resultat. La formule finale s’ecrit aussi∫ t
0
f(Bs)ds = 2∫ ∞
−∞LB(t, y)f(y)dy
avec LB(t, y) =(
(Bt − y)+ − (B0 − y)+ −∫ t
0
11Bs>ydBs
)et est connue sous
le nom formule de temps d’occupation. Le processus LB(·, y) est le temps localde B au point y entre 0 et t. La difficulte est de verifier que le processus L(·, y)est un processus croissant.Exercice 3.4.2 : On a, en exprimant Xt comme le produit de expW1(t) et de
Ut =∫ t
0
exp[−W1(s)] dW2(s) qui verifie dUt = exp[−W1(t)] dW2(t)
dXt = exp W1(t)(exp−W1(t)) dW2(t) + Ut(exp[W1(t)]dW1(t) +12
exp[W1(t)]dt)
= dW2(t) + XtdW1(t) +12Xtdt
Soit f(x) = sinh x, alors, f ′(x) =12(ex+e−x) = cosh x et f ′′(x) =
12(ex−e−x) =
sinhx. O applique le lemme d’Ito:
dZt = cosh(W1(t)) dW1(t) +12
sinh(W1(t)) dt =√
1 + Z2t dW1(t) +
12Ztdt
Mtdef= W2(t) +
∫ t
0
XsdW1(s) est une martingale locale comme somme de deux
martingales locales. Son crochet est t +∫ t
0
X2s ds =
∫ t
0
(1 + X2s )ds, d’ou γs =
√1 + X2
s . En regroupant les resultats Xt =∫ t
0
√1 + X2
s dW3(t) +12
∫ t
0
Xtdt
et Zt =∫ t
0
√1 + Z2
s dW1(s) +12
∫ t
0
Zsds. On obtient donc l’egalite en loi de X
et de Z.
2002-03 139
Exercice 3.4.4 : (voir Brownien) Le processus Z est une martingale, et lelemme d’Ito conduit a
dZt = 11St<a2√2π
a−Wt√T − t
exp− (a−Wt)2
2dWt .
3.5 Brownien geometrique et extensions
Exercice 3.5.1 : Soit dSt = St(b dt + σ dBt) un brownien geometrique etSt = e−btSt. La formule d’Ito montre que
d(St) = e−btdSt − be−btStdt = e−btσSt dBt = StσdBt.
D’apres les exercices precedents
St = S0 exp(σBt − 12σ2t)
et S est une martingale. Il en resulte
St = S0 exp((b− 12σ2)t + σBt)
ou encoreSt = Ss exp((b− 1
2σ2)(t− s) + σ(Bt −Bs)), s ≤ t
On obtient
E(St) = S0 exp((b− 12σ2)t) E(exp σBt) = S0 exp bt
en utilisant la transformee de Laplace de la gaussienne Bt, et en utilisant lesproprietes de l’esperance conditionnelle
E(St|Fs) = SsE
(exp((b− 1
2σ2)(t− s) + σ(Bt −Bs))|Fs
)
Le calcul de E(exp((b− 1
2σ2)(t− s) + σ(Bt −Bs))|Fs
)se fait aisement a partir
de celui de E(exp(σ(Bt − Bs))|Fs) = E(exp(σ(Bt − Bs))) pour lequel il suffitd’utiliser la transformee de Laplace de la v.a. gaussienne Bt −Bs. On obtient
E(St|Fs) = exp(b(t− s))Ss .
Cette derniere formule s’obtient aussi directement en utilisant que S est unemartingale.Si Zt = (St)−1, on a dZt = Zt((σ2 − b) dt− σdBt).
Ces calculs se generalisent. Soit dSt = St(bt dt+σt dBt) et Yt = St exp(− ∫ t
0bs ds).
On a d(exp(− ∫ t
0bs ds) = bt exp(− ∫ t
0bs ds)dt. Le processus Y verifie
dYt = exp(−∫ t
0
bs ds)dSt−Stbt exp(−∫ t
0
bs ds)dt = exp(−∫ t
0
bs ds)StσtdBt = YtσtdBt
140 Ito. Corriges
et est une martingale locale.
La solution de dLt = −Ltθt dBt est une martingale locale, qui s’ecrit
Lt = L0 exp(−∫ t
0
θsdBs − 12
∫ t
0
θ2sds).
On pose Yt = StLt. On a
dYt = StdLt + LtdSt + d < S,L >t .
Par definition d〈S, L〉t = −StσtLtθt dt, d’ou
dYt = Yt((bt − θtσt) dt + σtdBt) .
En finance, on utilise souvent le cas θt = − r(t)−bt
σt. Il vient alors
dYt = Yt(r(t) dt + σtdBt) .
Soit Rt = exp(− ∫ t
0r(s) ds). Le processus Y R = LRS est une martingale locale
qui verifie d(LRS) = LRSσdB.
Exercice 3.5.2 : SoitdSt = St(rdt + σdBt)
et At = 1t
∫ t
0ln Ssds. On a St = S0 exp(σBt − 1
2σ2t + rt) et
ln St = ln Ss + σ(Bt −Bs) + (r − σ2
2)(t− s)
Le processus lnSt est un processus gaussien, d’ou At est une variable gaussi-enne.Soit G(t, T ) = 1
T
∫ T
t(Bs − Bt) ds. Le processus s → Bs − Bt est gaussien,
d’ou G(s, T ) est une variable gaussienne. Le processus (Bs − Bt, s ≥ t) estindependant de Ft donc G(t, T ) aussi, d’ou E(G(t, T )|Ft) = 1
T
∫ T
tE(Bs −
Bt) ds = 0.
Var (G(t, T )|Ft) = E(G2(t, T )) =1
T 2
∫ T
t
∫ T
t
E((Bs −Bt)(Bu −Bt))ds du .
E((Bs −Bt)(Bu −Bt)) = (s ∧ u)− t. Tous calculs faits
Var (G(t, T )|Ft) =1
T 2(13T 3 − 1
3t3 + tT (t− T ))
En ecrivant AT = 1T
(∫ t
0ln Ss ds +
∫ T
tln Ss ds
)et en remarquant que
∫ T
t
ln Ss ds = (T − t) ln St +12
r − σ2
2(T − t)2 + σG(t, T )
2002-03 141
on obtient
AT =t
TAt + (1− t
T)[ln St +
12(r − σ2
2(T − t)] + σG(t, T ).
Exercice 3.5.4 : Soit St = e−rtSt. On a vu deja plusieurs fois que St est unemartingale (par exemple verifier, en utilisant le lemme d’Ito, que dSt = StσdBt).Soit Xt defini par
e−rtXt = E[e−rT
h
∫ T
T−h
Sσudu |Ft ] .
On a, XT = VT et si t ≤ T − h
e−rtXt = e−rT 1h
∫ T
T−h
E(Su|Ft) du
soit
e−rtXt = Sσt e−rt 1− e−rh
rh
et si T − h ≤ t ≤ T
e−rtXt = e−rT 1h
∫ T
T−h
E(Su|Ft) du
= e−rT 1h
∫ t
T−h
E(Su|Ft) du+1h
∫ T
t
E(Su|Ft) du =e−rT
h
∫ t
T−h
Sσudu+Sσ
t e−rt 1− e−r(T−t)
rh.
dXt
Xt= rdt +
σSσt
Xt
1t<T−h
1− e−rh
rh+ 1T−h<t<T
1− e−r(T−t)
rh
dWt
= rdt + σ
1t<T−h + 1T−h<t<T
Sσt
Xt
1− e−r(T−t)
rh
dWt.
Exercice 3.5.5: Soit Zt = e−rtSt +∫ t
0δ(s)e−rsSsds. On a alors
dZt = −re−rtStdt + e−rtdSt + δte−rtStdt
= Ste−rtσdWt
Le processus Z est une martingale locale. On peut expliciter S qui est la solutiond’une equation du type dSt = St(a(t)dt + σdWt par
St = S0 exp(rt−∆(t) + σWt)
avec ∆(t) =∫ t
0δ(s)ds. En ecrivant
St = S0 exp(rt−∆(t)) exp(σWt − 12σ2t)
142 Ito. Corriges
et en utilisant que exp(σWt− 12σ2t) est une martingale d’esperance 1, on obtient
E(St) = S0 exp(rt−∆(t)) .
On montre que S est de carre integrable : en effet
S2t = S2
0 exp(2rt−2∆(t)+2σWt) = S20 exp(2rt−2∆(t)+
12(2σ)2t) exp(2σWt−1
2(2σ)2t)
et l’on sait que exp(2σWt− 12(2σ)2t) est une martingale egale a 1 en t = 0, d’ou
E(S2t ) = S2
0 exp(2rt− 2∆(t) +12(2σ)2t)
et E(∫ t
0S2
se−2rsds) < ∞, ce qui etablit le caractere martingale de la martingalelocale Z.On sait que (formule de Black et Scholes en changeant de nom les parametres)si dSt = St(adt + σdWt), S0 = x alors
E(e−aT (ST −K)+)) = xN (d1)−Ke−aTN (d2)
avec d1 =1
σ√
Tln(
x
Ke−aT) +
12σ2T ). Le calcul demande est alors facile.
3.6 Le crochet
3.7 Finance
Exercice 3.7.3 : Pour g(x) = (x−K)+
CAmt ≥ Ct = E(e−rT (ST −K)+|Ft) = E(e−rT g(ST )|Ft)
et aussi
e−rug(Su) ≤ e−rT g(Suer(T−u)) = e−rT g(erT E(ST e−rTFu)) = e−rT g(E(erT ST e−rTFu))= e−rT g(E(STFu)) ≤ E(e−rT g(ST )|Ft))
P ≤ PAm et la propriete de sous martingale de (K−Ste−rt) permet de conclure.
Exercice 3.7.11 : On ecrit la formule d’integration par parties
d(Xt
Yt) = Xtd(
1Yt
) +1Yt
dXt + d〈X,1Y〉t .
En particulier (on omet les indices t) (X = Y )
d(X
X) = d(1) = 0 = Xd(
1X
) +1X
dX + d〈X,1X〉 .
Corriges. 2005-06 143
Soit dV = π1dS1 + π2dS2. On a donc
d〈V,1S1〉 = π1d〈S1,
1S1〉+ π2d〈S2,
1S1〉 .
Par suite, si V 1 = V/S1, on peut ecrire la suite d’egalites (on utilise V =π1S1 + π2S2)
dV 1t = V d(
1S1
) +1S1
dV + d〈V,1S1〉
= (π1S1 + π2S2)d(1S1
) +1S1
(π1dS1 + π2dS2
)+ π1d〈S1,
1S1〉+ π2d〈S2,
1S1〉
= π1
(S1d(
1S1
) +1S1
dS1 + d〈S1,1S1〉)
+ π2
(S2d(
1S1
) +1S1
dS2 + d〈S2,1S1〉)
= π2d(S2
S1)
Exercice 3.7.12 : On remarque que
FT = σ(Ws, s ≤ t) = σ(S1s , s ≤ t) = σ(S2
s , s ≤ t)
Le marche est complet: en effet, toute v.a. FT mesurable s’ecrit comme valeurterminale d’un portefeuille auto-financant compose des actifs sans risque et del’actif 1, donc le marche compose d’un actif supplementaire (avec les memesactifs contingents) est egalement complet. La seule probabilite equivalente a laprobabilite P telle que l’actif sans risque et l’actif 1, actualises, sont des mar-
tingales est Q definie par dQ|Ft = exp(−θWt − 12θ2t)dP |Ft avec θ =
µi − r
σ.
L’actif 2, actualise n’est pas une martingale sous Q, il n’existe donc pas de prob-abilite equivalente a la probabilite P telle que TOUS les actifs actualises soientdes martingales. Le marche presente des opportunites d’arbitrage. Supposonsµ1 > µ2. Si, a la date 0, on achete une part de l’actif 1 et on vend une part del’actif 2 (capital initial investi nul) et que l’on maintient cette position jusqu’enT , on a un portefeuille de valeur
S1T − S2
T =[exp(µ1T )− exp(µ2T )
]exp(σWT − 1
2σ2T ) > 0
ce qui constitue un arbitrage.
144 Equa. Diff.
Chapter 4
Equations differentiellesstochastiques, Corriges
4.1 Equation Lineaire
Exercice 4.1.4 : L’equation a une solution unique car b(t, x) = a + αx etσ(t, x) = b + βx sont lipschitziennes et ont une croissance lineaire. On a
Xt = x +∫ t
0
(a + αXs) ds +∫ t
0
(b + βXs) dBs
L’integrale stochastique est une martingale car E(∫ t
0(b+βXs)2 ds) ≤ E(
∫ t
02(b2+
β2X2s ) ds) et la solution de l’equation verifie E(sups≤t X2
s ) < ∞. D’ou enprenant l’esperance de Xt et en posant m(t) = E(Xt)
m(t) = x +∫ t
0
(a + αm(s)) ds .
La fonction m est derivable et verifie m′(t) = a + αm(t). Compte tenu de lacondition initiale m(0) = x, la solution est
m(t) = (x +a
α)eαt − a
α
La formule d’Ito conduit a
d(X2t ) = 2Xt(a + αXt) dt + 2Xt(b + βXt) dBt + (b + βXt) dt .
En admettant que l’integrale stochastique est une martingale et en posantM(t) = E(X2
t )
M(t) = x2 + 2∫ t
0
(am(s) + αM(s)) ds +∫ t
0
(b2 + β2 + 2bβm(s)) ds
145
146 Equa. Diff.
soit M ′(t)− (2α + β2)M(t) = 2(a + bβ)m(t) = b2
M(0) = x2
la solution est
M(t) = Ce2α+β2)t + keαt + ck(−α− β2) = 2(a + bβ)(x + a
α )c = (b2 − 2(a + bβ) a
α ) 12α+β2
K + k + c = x2
Exercice 4.1.5 : On a dYt = Yt(αdt + βdBt) dont la solution est (cf browniengeometrique)
Yt = exp[(α− 12β2)t + βBt)]
On a (cf propriete de martingale du Brownien)
E(Yt|Fs) = exp(αt)E(exp[−12β2t + βBt] |Fs) = exp(αt) exp[−1
2β2s + βBs]
D’ou, si α ≥ 0, on a E(Yt|Fs) ≥ Ys. Le processus Y est une martingale si on aegalite soit si α = 0.c. Le processus Y ne s’annule pas. Le processus Zt est un processus d’Ito carY −1
t est de carre integrable (voir brownien geometrique) et
dZt = (a− bβ)Y −1t dt + bY −1
t dBt
On a ainsi d〈Y,Z〉t = bY −1t Ytβ = bβ.
Soit Ut = YtZt. La formule d’Ito conduit a
dUt = (a−bβ) dt+b dBt +Ut(α dt+β dBt)+bβ dt = (a+αUt) dt+(b+βUt) dBt
et comme U0 = x on a par unicite Xt = Ut.
Exercice 4.1.6: Soit dXt = αXt dt + b dBt. On sait (ex precedents) quecette equation admet une solution unique. En posant Zt = e−αtXt on voit quedZt = e−αt
¯dBt d’ou
Xt = eαtx + eαt
∫ t
0
e−αsb dBs
Il en resulte que X est un processus gaussien de moyenne E(Xt) = eαtx et devariance
V (Xt) = b2e2αt 1− e−2αt
2α
def= σ2(t) .
Si Yt = φ(Xt), la formule d’Ito conduit a
dYt = φ′(Xt)dXt +12φ′′(Xt)b2dt .
Corriges. 2005-06 147
Dans le cas particulier de l’enonce,
dYt = exp(− α
b2X2
t )(bdBt)
soit
Yt = b
∫ t
0
exp(− α
b2X2
s )dBs
C’est une martingale car E(∫ t
0exp(− 2α
b2 X2s )ds) < ∞ (faire le calcul en utilisant
ce qui suit) de carre integrable.
En utilisant le calcul de E(eλU2) quand U est une gaussienne, on trouve, en
posant m(t) = eαt
E(eλX2t ) =
1√1− 2λσ2(t)
expλm2(t)x2
1− 2λσ2(t)= Φ(t, x)
et
E(eλX2t |Fs) =
1√1− 2λσ2(t− s)
expλm2(t− s)X2
s
1− 2λσ2(t− s)= Φ(t− s,Xs)
Soit t fixe. Par definition, le processus d’Ito V defini par Vs = Φ(t− s,Xs)est une martingale, donc son drift est nul. On a donc
−∂1Φ(t− s, x) + αx∂2Φ(t− s, x) +12b2∂22Φ(t− s, x) = 0
∂1Φ(u, x) + αx∂2Φ(u, x) +12b2∂22Φ(u, x) = 0
En posant Ψ = lnΦ et en recherchant Ψ sous la forme
Ψ(t, x) = x2a(t) + b(t)
on a (voir la forme de Φ) les conditions de l’enonce sur les fonctions a et b.Exercice 4.1.13 : Dans un premier temps, on pose Yt = eαtXt. Ce processusverifie
dYt = eαt(µ− γVt)dt) + eαt√
VtdW1,t
Calculer ϕ(λ) = E(exp(λXT )) revient a calculet ψ(λ) = E(exp(λYT )). On aen effet ϕ(λ) = ψ(λeαT . Le calcul des esperances conditionneles se reduit a uncalcul d’esperance par la propriete de Markov. On a
Yt = Y0 +∫ t
0
eαs(µ− γVs)ds +∫ t
0
eαs√
VsdW1,s
On est donc ramene a calculer
A = E
(exp
(−γ
∫ t
0
eαsVsds +∫ t
0
eαs√
VsdW1,s
))
148 Equa. Diff.
En decorrelant W1,t, le terme sous l’exponentielle est
−γ
∫ t
0
eαsVsds + ρ
∫ t
0
eαs√
VsW2,s +√
1− ρ2
∫ t
0
eαs√
VsdWs
En utilisant l’independance entre W et V
A = E
(exp
(−γ
∫ t
0
eαsVsds + ρ
∫ t
0
eαs√
VsW2,s +
√1− ρ2
2
∫ t
0
e2αsVs
))
Il reste un calcul du type esperance de l’exponentielle de∫ t
0
f(s)Vsds +∫ t
0
g(s)√
VsdW2,s
Cette expression secrit∫ t
0
f(s)Vsds +∫ t
0
g(s)(dVs − k(θ − Vs)ds) =∫ t
0
F (s)Vsds +∫ t
0
G(s)dVs
=∫ t
0
F (s)Vsds + G(t)Vt −G(0)V0 −∫ t
0
G′Vsds
= G(t)Vt +∫ t
0
H(s)Vsds
ou f, g, F,G, H sont des fonctions deterministes. (remarque: pour un ornsteinUhlenbeck, ce type de calcul est standard)Exercice 4.1.10 : On pose Yt = eatXt. On a
dYt = abeatdt + σeat/2√
YtdWt
et E(Yt) = x + b(eat − 1) En utilisant
Yt = x +∫ t
0
abeasds + σeas/2√
YsdWs
= E(Yt) + σeas/2√
YsdWs
on obtient Yt − E(Yt) =∫ t
0
σeas/2√
YsdWs par suite
V ar(Yt) =∫ t
0
σ2easE(Ys)ds
Exercice ?? : Si α et β existent, le processus Mt = eα(t)+β(t)St exp(− ∫ t
0ψ(Ss)ds
)
est une martingale, donc E(MT |Ft) = Mt ce qui conduit a
E
(eθST exp
(−
∫ T
0
ψ(Ss)ds
)|Ft
)= eα(t)+β(t)St exp
(−
∫ t
0
ψ(Ss)ds
).
Corriges. 2005-06 149
D’ou le resultat en remarquant que exp(− ∫ t
0ψ(Ss)ds) est Ft adapte. Pour que
M soit une martingale, il faut que sa partie a variation bornee soit nulle. Il estfacile de voir que
d(eα(t)+β(t)St) = eα(t)+β(t)St(α′ + β′)dt + βdSt + β2σ(St)2dt
Ce qui conduit a
α′ + β′St − ψ(St) + βµ(St)dt + β2σ(St)2 = 0
soitα′ + β′x− ψ(x) + β(µ0 + µ1x) + β2(σ0 + σ1x) = 0
Cette equation doit etre verifiee pour tout (t, x) d’ou (cours elementaire sur lesED)
α′ − ψ0 + βµ0 + β2σ0 = 0β′ − ψ1 + βµ1 + β2σ1 = 0
La seconde equation est une equation de Ricatti
4.2 Finance
Exercice 4.2.1 : Soit St solution de
dSt = St (r dt + σ dBt) .
On a pour t ≤ u
Su = St exp(
r(u− t) + σ(Bu −Bt)− σ2
2(u− t)
)(4.1)
Le processus S est a valeurs positives (si S0 > 0) et ne s’annule pas.
1. Le processus Mt = E
([1T
∫ T
0
Su du−K]+|Ft
)est une martingale, car il
s’ecrit E(Z|Ft).2. En utilisant que s(a − b)+ = (sa − sb)+ si s > 0 et la Ft-mesurabilite de
St , on obtient Mt = StE
([1T
∫ T
0
Su
Stdu− K
St]+|Ft
)ce qui s’ecrit de facon
evidente
StE
([1T
∫ T
t
Su
Stdu− ζt]+|Ft
)
avec ζt = S−1t (K − 1
T
∫ t
0
Su du), variable Ft-mesurable.
3. On rappelle que, si X est independante de G et Y est G-mesurable,
E(f(X,Y )|G) = [E(f(X, y)]y=Y .
150 Equa. Diff.
Les variables (Su
St, u ≥ t) sont independantes de Ft (utiliser (4.1)), et ζt est Ft
mesurable. Il en resulteMt = StΦ(t, ζt)
avec
Φ(t, x) = E
(1T
∫ T
t
Su
Stdu− x
)+
.
4. En utilisant queSu
Stest independant de Ft, on obtient le resultat.
5. On a (appliquer Ito a f(x) =1x
)
dS−1t = − 1
S2t
dSt +12
2S3
t
d < S, S >t= (σ2
St− r
St)dt− σ
StdBt .
on en deduit les egalites suivantes
dζt = −S−1t
St
Tdt + (K − 1
T
∫ t
0
Sudu)dS−1t = − 1
Tdt + ζt(−σdBt − rdt + σ2dt)
d < ζ, ζ >t = ζ2t σ2dt
dΦ(t, ζt) = Φ′t dt + Φ′x dζt +12Φ”xx d < ζ, ζ >t= (...) dt− σζtΦ′x dBt
d < S, Φ >t = −Stσ2ζtΦ′x
La formule d’Ito appliquee a Mt est alors (ecriture volontairement simplifiee)
dMt = ΦdS + SdΦ + dSdΦ
ce qui s’ecrit
Φ(t, ζt)dSt +St [Φ′t(t, ζt)dt+Φ′x(t, ζt)dζt +12Φxx”(t, ζt)d < ζ, ζ >t]+d < S, Φ >t
Soit
dMt = St(rΦ +∂Φ∂t
− (1T
+ rζ)∂Φ∂x
+12σ2ζ2 ∂2Φ
∂x2) dt + dNt
ou N est une martingale du type (...) dBt. Le processus M etant une martingale,on doit avoir la partie processus a variation finie nulle, soit
0 = rΦ +∂Φ∂t
− (1T
+ rζ)∂Φ∂x
+12σ2ζ2 ∂2Φ
∂x2
Exercice 4.2.2 :
St = S0 exp(
rt +∫ t
0
σ(s)dBs − 12
∫ t
0
σ2(s) ds
)
est solution de l’equation proposee. Il suffit d’appliquer la formule d’Ito.
Corriges. 2005-06 151
2.∫ t
0
σ(s)dBs est une variable gaussienne (integrale de Wiener) centree
de variance∫ t
0
σ2(s)ds. Il en resulte que∫ t
0
σ(s)dBs − 12
∫ t
0
σ2(s) ds est une
variable gaussienne car d’esperance −12
∫ t
0
σ2(s) ds et de variance∫ t
0
σ2(s)ds.
3. La formule de valorisation d’une option revient a calculer EQ(ST − K)+.Dans le cas ou ST = S0e
U ou U est une variable d’esperance rT et de varianceV 2 = σ2T , on a
C(0, x) = xN (d1)−Ke−rTN (d2)
avec
d1 =1V
(ln(
x
K) + Tr +
V 2
2
), d2 = d1 − V
Il suffit donc de remplacer σ2T par Σ2 =∫ T
0
σ2(s)ds
C(0, x) = xN (d1)−Ke−rTN (d2)
avec
d1 =1Σ
(ln(
x
K) + Tr +
Σ2
2))
, d2 = d1 − Σ
4.3 Equations differentielles
Exercice 4.3.4 : Nous verifions que
Xt = tN + (1− t)∫ t
0
11− s
dBs (4.2)
est solution de dXt = dBt +N −Xt
1− tdt. Par differentiation de (4.2)
dXt = Ndt− 1∫ t
0
11− s
dBs + dBt
= Ndt− 11− t
(Xt − tX1)dt + dBt
= dBt +1
1− t(−Xt + N)dt
Le processus X est donc gaussien, centre, de covariance (s < t)
E(XsXt) = ts + (1− t)(1− s)E(∫ t
0
11− u
dBu
∫ s
0
11− v
dBv
ts + (1− t)(1− s)∫ s
0
1(1− u)2
du = s
152 Exemples
Chapter 5
Exemples, Corriges
5.1 Processus de Bessel
Exercice 5.1.3 :La formule d’Ito conduit a
dZt = − 1R2
t
dRt +12
2R3
t
d〈R〉t = − 1R2
t
dBt − 1R3
t
dt +1
R3t
dt = − 1R2
t
dBt
Soit Vt =sinh λRt
λRt. On pose f(x) =
sinhλx
λx, d’ou
f ′(x) = − sinhλx
λx2+
cosh λx
x
f ′′(x) = +2sinhλx
λx3− λ cosh λx
x2− cosh λx
x2+
λ sinhλx
x.
La formule d’Ito conduit a
dUt = e−
tλ2
2 [−λ2
2Vtdt + dVt]
et on verifie que les termes en dt s’annulent.Il suffit d’appliquer le theoreme d’arret de Doob a la martingale Ut et au
temps d’arret Tb. On obtient E(exp(−λ2Tb
2)(
sinhλb
λb)) = 1, d’ou E(exp(−λ2Tb
2)) =
λb
sinh λb.
Exercice 5.1.4 :1. On applique Ito
d(ln Rt) =1Rt
dRt− 12(Rt)2
dRtdRt =1Rt
dWt− 1Rt
12Rt
dt+1
2(Rt)2dt =
1Rt
dWt .
153
154 Exemples
2. Toujours en appliquant Ito
dRνt = νRν−1
t dRt+ν(ν − 1)
2Rν−2
t dRtdRt = νRν−1t dWt+νRν−1
t
12Rt
dt+ν(ν − 1)
2Rν−2
t dt .
= νRν−1t dWt +
ν2
2Rν−2
t dt
3. On pose Zt = exp(−ν2
2
∫ t
0
ds
R2s
) et on applique le lemme d’Ito.
dZt = d exp(−ν2
2
∫ t
0
ds
R2s
) = Zt(−ν2
2)
1R2
t
dt
dLt = ZtdRνt + Rν
t dZt = Zt
[νRν−1
t dWt + νRν−1t
12Rt
dt +ν(ν − 1)
2Rν−2
t dt− ν2
21
R2t
Rνt dt
]
= ZtνRν−1t dWt
Exercice 5.1.5 :dYt = 2
√YtdWt + δdt
La formule d’Ito conduit a
dZt = Zt(−µ√
Y )dWt
Sous Q Wtdef= Wt + µ
∫ t
0
√Yudu est un MB et dYt = 2
√YtdWt + (δ− 2µYt)dt.
Exercice 5.2.2 : Par application de la formule d’Ito a Zt = W 2t
dZt = 2WtdWt + dt = 2√
ZtdWt + dt
on a alors
dZt = 2WtdWt+2W 1t dW 1
t +2dt =2√
(Wt)2 + (W 1t )2
√(Wt)2 + (W 1
t )2 (WtdWt+W 1t dW 1
t )
= 2√
ZtdW 3t + 2dt
Avec n Browniens on obtient µ = n.Si ρt
def=√
Rt, la formule d’Ito conduit a
dρt =1
2ρt(µ− 1)dt + dWt
dXt = dR(µ)t + dR
(ν)t = (µ + ν)dt + 2
√R
(µ)t + R
(ν)t dZt
ou Z est un MB. On en deduit que la somme de deux Bessels carres independantsest un Bessel carre.Exercice 5.1.6 : Px(infs≤t Xs) = Px(Ta > t) et on connait la transformee de
Corriges. 2005-06 155
Laplace de Ta E(ν)(exp−λ2
2Ta).
Dans le cas du BES(3) P(3)x |Ft
=(Xt∧τ
x
)Wx|Ft
d’ou pour a < x P(3)x (φ(Ta)11Ta<∞) =
a
xWx(φ(Ta)) D’ou P
(3)x (Ta > t) = P
(3)x (∞ > Ta > t) + (1 − a
x ) et P(3)x (∞ >
Ta > t) =a
xP0(T(x−a) > t) =
a
xP0((x− a) > |N |
√t).
Voir Borodin pour l autre cas
5.2 Processus de Bessel carre
Exercice 5.2.4 : Remarquer que E(R(2)1 ) = E
√ξ21 + ξ2
2 .
Exercice 5.2.5 : On part de
W (ν)|Ft = exp(νWt − ν2
2t)W |Ft
On sait que (Rt; t ≥ 0) loi= x exp(BCt + νCt)
P (ν)(F (Rs), s ≤ t) = W (ν)(F (xBu), u ≤ Ct)
W (ν)(F (xBu), u ≤ Ct) = W (exp(BCt+νCt)F (xBu), u ≤ Ct) = P (0)(Rt
x)ν exp− ν2
2CtF (Rs), s ≤ t)
car sous P (0)
exp νBCt = (exp BCt)ν , Rt = x expBCt
5.3 Autres processus
Exercice 5.3.3 :La premiere question resulte d’une application du lemme d’Ito: f(t, Xt) est
une martingale locale si ’Gf(t,Xt) = 0 avec Gf(t, x) = ∂tf + x(1 − x)(µ −x)∂xf + 1
2x2(1 − x)2∂xxf . Dire que h0(X) est une martingale locale revient averifier que h0 est solution de x(1− x)(µ− x)h′ + 1
2x2(1− x)2h′′ = 0. Montrerque h1(Xt)− t est une martingale locale revient a verifier que h1 satisfait
−1 + x(1− x)(µ− x)h′ +12x2(1− x)2h′′ = 0 .
En appliquant le theoreme d’aret de Doob (la fonction h0 est bornee sur [a, b],la martingale locale h0(Xt∧τ ) est uniformement integrable) E(h0(Xτ )) = h0(x)soit
h0(x) = E(h0(Xτ )) = h0(a)P (Xτ = a)+h0(b)P (Xτ = b) = h0(a)P (Xτ = a)+h0(b)(1−P (Xτ = a)) .
156 Exemples
On applique ensuite le theoreme de Doob a h1(Xt)− t
h1(x) = E[(h1(a)− τ)11Xτ=a)] + E[(h1(b)− τ)11Xτ=b)]= h1(a)P (Xτ = a) + h1(b)(1− P (Xτ = a))− E(τ)
5.4 Des Calculs
Exercice 5.4.2 : For t ≤ 1 and a > 0, the events Yt ≤ a and Ta ≥ t areequal, where Ta = inft ≥ 0, Xt = a.Then, P (Yt ≤ a) = P (Ta ≥ t). Let X = X/σ and Tα(X) = inft ≥ 0, Xt = α.Then, Ta = Tα(X) where α = a/σ.It is well known (the proof follows, from example from inversion of Laplacetransform) that
P0(Tα(X) ∈ dt) =|α|√2πt3
exp− (α− µt)2
2t
where µ = µ/σ (see Borodin-Salminen p. 223, formula 2.0.2. or Revuz Yor,second edition, page 320, ex. 1.21).
Therefore, you get the cumulative function of Y for t ≤ 1.Let us denote Φ(t, a, µ, σ) = P (sup0≤s≤t(µs + σWs) ≤ a).
Suppose now that 2 > t > 1. Then
Xt = X1 + µ1(t− 1) + σ1(Wt −W1) = X1 + µ1(t− 1) + σ1Wt−1
where W is a BM independent of σ(Ws, s ≤ 1).Then,
P (Yt ≤ a) = P(Y1 ≤ a , max
1≤s≤t(X1 + µ1(s− 1) + σ1Ws−1) ≤ a
)
= P(Y1 ≤ aP
[max1≤s≤t
(X1 + µ1(s− 1) + σ1Ws−1) ≤ a)|F1
])
= E(11(Y1≤a) Ψ(t− 1, X1))
where
Ψ(u, x) = E( max0≤s≤u
(x + µ1s + σ1Ws) ≤ a) = E( max0≤s≤u
(µ1s + σ1Ws) ≤ a− x)
and this quantity is known from step 1: Ψ(u, x) = Φ(u, a− x, µ1, σ1).
Then, it remains to know the law of the pair Y1, X1. This is the reflectionprinciple in the case µ = 0 (Revuz Yor, page 105 ex. 3.14) and the generalresult follows from Girsanov’s theorem. For example Borodin-Salminen, page198, formula 1.18 in the case where σ = 1
P (Y1 ≥ y, X1 ∈ dz) =1√2πt
exp[µy − µ2t
2− (|z − y|+ y)2
2t] dz
Corriges. 2005-06 157
References:Borodin, A. and Salminen, P.: Handbook of Brownian Motion. Facts and
Formulae, Birkhauser, 1996.Exercice 5.4.3 : On ecrit dS = D(rdt + σtdWt). Si C est la valeur de Cactualise, alors dC = CmσdWt. Il suffit de resoudre et d’identifier
Ct = C0
(St
S0exp[−m− 1
m[∫ t
0
rsds +12
∫ t
0
σ2sds]]
)m
Exercice 5.4.4 : On remarque que Yt = eλtXt est un MB change de temps:
Yt = BΛ(t) avec Λ(t) = σ2
∫ t
0
e2λudu = σ2 e2λt − 12λ
. Par suite τ = inft : |Yt| >eλyg(t). D’ou la suite d’egalites
τ > t = |BΛ(u)| < eλug(u), ∀Λ(u) < Λ(t)= |Bv| < eλC(v)g(C(v)),∀v < Λ(t) = τ∗ > Λ(t)
avecτ∗ = inft : |Wt| > eλC(t)g(C(t))
158 Girsanov.
Chapter 6
Girsanov, Corriges
6.1 Resultats elementaires
Exercice 6.1.2 : Par changement de proba, le processus H etant une mar-tingale positive d’esperance 1, en posant dQ = HtdP , on definit une nouvelleprobabilite Q et EP (HT ln HT ) = EQ(ln HT ). Or,
Ht = exp(−∫ t
0
θsdWs − 12
∫ t
0
θ2sds)
D’ou
EQ(lnHT ) = EQ(−∫ t
0
θsdWs − 12
∫ t
0
θ2sds)
Le processus Wt = Wt+∫ t
0
θsds est un Q mouvement Brownien, et−∫ t
0
θsdWs−12
∫ t
0
θ2sds = −
∫ t
0
θsdWs +12
∫ t
0
θ2sds, d’ou le resultat.
Exercice 6.1.4 : On a Γt = exp(∫ t
0
βsds) exp(∫ t
0
γsdWs − 12
∫ t
0
γ2sds), d’ou
Γt exp(−∫ t
0
βsds) est une martingale. L’ecriture dΓt = Γtγt(dWt +βt
γtdt) mon-
tre que sous Q defini par dQ = LtdP , avec dLt = Ltβt
γtdWt, le processus Wt
defini par dWt = dWt +βt
γtdt est un mouvement Brownien.
Le processus Γ verifiant dΓt = ΓtγtdWt est une Q-martingale locale. On obtient
facilement d(Γ−1t ) = −Γ−1
t γt(dWt − γ2t − βt
γtdt) et le choix de R s’en suit.
159
160 Girsanov.
6.2 Crochet
Exercice 6.2.1 : Soit Z = N− < N,M > et Lt = exp(Mt − 12〈M〉t). On a
d(ZL) = ZdL + LdZ + d〈Z,L〉 = mart + d〈Z,L〉 − Ld〈M,N〉 = mart
Exercice 6.2.2 : On verifie que Zt = h(Xt)Mt −∫ t
0
h′(Xs)h(Xs)
d〈M, X〉 est une
P -martingale.
6.3 Processus
Exercice 6.3.4 :
1. La question 1 a deja ete traitee dans l’exercice 1.2.3.
2. On se place dans le cas d’un Brownien issu de a. Soit
dP b = exp−b
∫ T
0
Bs dBs − b2
2
∫ T
0
B2s dsdP .
En posant θs = −bBs et en appliquant Girsanov, on montre que sous P b
le processus Bt + b∫ t
0Bs ds est un brownien issu de a que l’on note Wt.
L’egalite
Bt = −∫ t
0
bBs ds + Wt
qui s’ecrit dBt = −bBt dt + dWt montre que le processus (Bt, t ≥ 0) estun processus d’Ornstein-Uhlenbeck sous P b. D’ou (cf. cours) Bt est une
variable gaussienne sous P b, d’esperance ae−bt et de variance1− e−2tb
2b.
Soit x = a2. En utilisant que, sur Ft,
dP = expb∫ t
0
Bs dBs +b2
2
∫ t
0
B2s dsdP b
on a, pour tout Z, Ft-mesurable P -integrable,
EP (Z) = Eb(Z expb∫ T
0
Bs dBs +b2
2
∫ T
0
B2s ds)
d’ou
EP (exp−αB2t −
b2
2
∫ t
0
B2s ds) = Eb(exp−αB2
t + b
∫ t
0
BsdBs)
La formule d’Ito montre que∫ t
0
Bs dBs =12(B2
t − a2 − t)
Corriges. 2005-06 161
(sous P et sous Pb).On obtient, en posant x = a2
EP (exp−αB2t −
b2
2
∫ t
0
B2s ds) = Eb(exp−αB2
t +b
2(B2
t − x− t))
Sous P b, Bt est une gaussienne. On applique le resultat de la question 1et on trouve (calculs)
EP (exp−αB2t−
b2
2
∫ t
0
B2s ds) = (cosh bt+2
α
bsinh bt)−
12 exp[−xb
21 + 2α
b coth bt
coth bt + 2αb
]
On note Φ(α, b) l’expression de droite.
Exercice 6.3.3 : Soit dXt = −λXt dt+dWt un processus d’Ornstein-Uhlenbeck.
Sous Pλ, X est un Brownien car Xt = −λ
∫ t
0
Xs ds + Wt. On a
EP (exp−b2
2
∫ T
0
X2s ds) = EPλ
(L−1T exp−b2
2
∫ T
0
X2s ds)
= EPλ
(exp
(−λ
∫ T
0
XsdXs − λ2
2
∫ T
0
X2s ds− b2
2
∫ T
0
X2s ds
))
= EPλ
(exp
(−λ
2(X2
T − T )− λ2 + b2
2
∫ T
0
X2s ds
))
=(
expλT
2
)Φ(
λ
2,√
λ2 + b2)
(On comparera cet exercice au precedent)
Exercice 6.3.5 : Soit S solution de
dSt = St (µdt + σ dBt) , S0 = s .
St = S0 exp(µt + σBt − σ2
2t).
1. Soit dQ = LtdP avec Lt = exp(θBt − 12θ2t). Le theoreme de Girsanov
montre que W est un Q-mouvement Brownien.
2. Soit dP = ZtdQ avec Zt = exp(σWt − σ2
2t)
Le theoreme de Girsanov montre que (Bt = Wt − σt, t ≥ 0) est un P -mouvement brownien. On a alors
dSt = St((r + σ2) dt + σ dBt)
162 Girsanov.
3. Soit Pt = P0ert. Le processus (Yt =
St
Pt, t ≥ 0) est une Q-martingale, car
Yt = Y0 exp(σWt − σ2
2t) (ou parce que (Ito) dYt =
d(Ste−rt)
P0= YtdWt.)
Le processus Zt =Pt
Stest une P -martingale car Zt = Z0 exp(−σBt− σ2
2t)
4. Soit Ft = e−λt(∫ t
0Su du + sA
)ou A, λ sont des constantes
Soit Ψt =Ft
Pteλt. On a dΨt = (1− rΨt) dt− σΨtdBt
Exercice 6.3.7 : Let BYt = Y t + Bt and F be a functional on C([0, t], IR).
Using the independance between Y and B, and Cameron-Martin theorem, weget
E[F (BYs , s ≤ t)] = E[F (sY + Bs, s ≤ t)] =
∫ν(dy)E[F (sy + Bs, s ≤ t)] (6.1)
=∫
ν(dy)E[F (Bs, s ≤ t) exp(yBt − y2
2t)] = E[F (Bs; s ≤ t)h(Bt, y)](6.2)
= Eh(F (Xs, s ≤ t)] (6.3)
where h(x, t) =∫
ν(dy) exp(yx− y2
2t) and Ph|Ft = h(Bt, t)W |Ft . Therefore,
Bht
def= Bt −
∫ t
0
dsh′xh
(Bs, s)
is a Ph-martingale, more precisely a Ph Brownian motion and Bt is solution of
Xt = Bht +
∫ t
0
dsh′xh
(Xs, s)
Under Ph, B has the same law as BY under P . Then, BYt = Bh
t +∫ t
0
dsh′xh
(BYt , t).
Let us remark that
E(Y |BYt ) =
h′xh
(BYs , s)
where BYt = σ(BY
s , s ≤ t). On a
EQ(f(Y )F (BYs , s ≤ t)) = EP (e−Y Bt− 1
2 Y 2tF (BYs , s ≤ t))
=∫
ν(dy)f(y)EP (e−yBt− 12 y2tF (Bs + ys, s ≤ t))
=∫
ν(dy)f(y)E(F (Bs, s ≤ t)) = E(F (Bs, s ≤ t))EP (f(Y ))
Corriges. 2005-06 163
et la loi de Y est la meme sous P et sous Q. Exercice gi:4 : On remarque quee−2Wt − 1 = −2
∫ t
0e−2WsdWs + 2
∫ t
0e−2Wsds
−14
(e−2Wt − 1
)+
12
∫ t
0
(e−2Ws − 1
4e−4Ws
)ds
=12
∫ t
0
e−2WsdWs − 12
∫ t
0
e−2Wsds +12
∫ t
0
(e−2Ws − 1
4e−4Ws
)ds
=12
∫ t
0
e−2WsdWs − 14
∫ t
0
e−4Wsds
et on sait que exp(∫ t
0θsdWs − 1
2
∫ t
0θ2ds
)est une martingale locale. On peut
verifier que la condition de Novikov est satisfaite Sous Q, le processus W =W − 1
2
∫ t
0e−2Wsds est un MB.
6.4 Cas multidimensionnel
6.5 Temps d’arret
Exercice 6.5.1 : Soit dPµ = LtdP ou Lt = exp(−µ
σBt − µ2
2σ2t). Sous Pµ,
(Bt = Bt +µ
σt =
Xt
σ, t ≥ 0) est un Brownien et Xt = σBt.
De l’egalite Ta = inft |Bt =a
σ, on en deduit le resultat qui figure dans le
cours en procedant comme suit:On a dP = L−1
t dPµ avec
L−1t = exp(
µ
σBt +
µ2
2σ2t) = exp(
µ
σBt − µ2
2σ2t)
et pour tout temps d’arret T , on a
EP (exp(−λ(T∧t)) = EPµ(LT∧te−λ(T∧t)) = EPµ
(exp(
µ
σBT∧t−µ2 + 2λσ2
2σ2(T∧t))
)
On en deduit
EP (exp(−λTa)11Ta<∞) = expµ
σ2a EPµ
(exp(−µ2 + 2λσ2
2σ2Ta) 11Ta<∞
)
Le passage a la limite quand t → ∞ est licite pour a ≥ 0, car d’une part
e−λ(T∧t) ≤ 1 et d’autre part BTa∧t ≤ a, d’ou exp(µσ BT∧t − µ2 + 2λσ2
2σ2(T ∧ t))
est borne. On utilise aussi BTa11Ta<∞ =a
σ.
164 Girsanov.
Exercice 6.5.2 :
E(11T<∞ exp(λBT − λ2
2T )) = P (λ)(T < ∞) =
and use that
T = inft : Bt − t/2 > ln a = inft : Wt + (λ− 1/2)t > ln aExercice 6.5.3 : Le processus (Mt = exp(θBt − θ2t
2 ) , t ≥ 0) est une Pµ-martingale et si a et θ sont positifs (Mt∧Ta
, t ≥ 0) est uniformement integrable,car majoree par exp(θa). On en deduit EPµ(MTa) = 1 d’ou
EP (e−λTa11Ta<∞) = exp(aµ
σ2− a
√µ2 + 2λσ2
σ2)
et on verifie que Ta est fini (faire λ = 0).
Exercice 6.5.4 : L est une martingale exponentielle d’esperance 1, en utilisantque dF 2
t = 2Ftf(t)dWt +f2(t)dt on obtient la premiere egalite. Une integrationpar partie montre que
∫ T
0
h(s)2f(s)
dF 2s dWs =
h(T )f(T )
F 2T −
h(0)f(0)
F 20 −
∫ T
0
F 2t d
(h(t)f(t)
)
ce qui donne le resultat. On prend ensuite h(t) =u′
u(t)f(t)et on utilise que
E
(exp
[12
(u′(T )
u(T )f2(T )
)F 2
T −∫ T
0
F 2t
(u′′(t)− 2u′(t)f ′(t)/f(t)
u(t)f2(t)
)dt
])= exp
(∫ T
0
u′(t)u(t)
)dt
Pour calculer l’expression avec Ψ, on fait un changement de probabilite enposant dQ = LT dP . On a
K =(
u(T )u(0)
)1/2
EQ
(Ψ(A + BFT +
∫ T
0
φ(t)F 2t dt)
)
et en appliquant Girsanov,
K =(
u(T )u(0)
)1/2
EQ
(Ψ(A + Bu(T )
∫ T
0
u(t)f(t)
dBt +∫ T
0
dtφ(t)u(t)∫ t
0
dBsf(s)u(s)
)
)
On peut calculer le membre de droite, car c’est l’exponentielle d’une gausienne.
Exercice 6.6.16 : On a dr = 2√
σ(t)rtdWt + ([2β(t) +σ′(t)σ(t)
]rt + δσ(t))dt.
L’etude de Z se fait par une IP.Exercice 6.5.5 :
1. Utiliser Girsanov et Bayes.
2. C’est le theoreme de Girsanov applique sur l’espace produit.
3. Appliquer Ito. Les termes en dt sont nuls car π est une martingale.
Corriges. 2005-06 165
6.6 Finance
Exercice 6.6.14 : Il s’agit de calculer A = E
e−rT
(1T
∫ T
0
Sudu− ST
)+
que l’on ecrit
A =1T
E(e−rT ST (YT −K)+)
avec Yt =1St
∫ t
0
Sudu et K = T . Par un changement de probabilite (le pro-
cessus e−rt St
S0est une Q-martingale positive d’esperance 1), on obtient A =
S0
TE((YT −K)+) avec, sous Q
dYt = (1− rYt)dt + YtσdWt .
On peut utiliser que Yt = Ut + Vt avec U solution de
dUt = −rUtdt− σUtdWt, U0 = 1
et Vt = y +∫ t
0
(Us)−1ds, ce qui ne nous avance pas beaucoup.
Exercice 6.6.15 :
1. On a drt =σ′(t)σ(t)
rtdt + σ(t)(dWt + h(t)dt).
2. On reconnait une exponentielle de Doleans Dade, et une integration parparties donne le resultat.
3. En appliquant Girsanov, et en utilisant que rt = σ(t)Yt
E
(exp
[−
∫ T
0
rsds
])= E
(exp
(∫ T
0
h(s)dWs − 12
∫ T
0
h2(s)ds−∫ T
0
σ(s)Wsds
))
Une integration par parties permet de conclure.
4. La quantite
A = E
(exp
(h(T )WT −
∫ T
0
Ws(h′(s) + σ(s))ds
))
se calcule en recherchant une fonction g telle que g′(s) = σ(s)+h′(s), g(T ) =h(T ). On obtient alors
E
(exp
[−
∫ T
0
rsds
])= exp
(−1
2
∫ T
0
h2(s)ds
)A = exp
(12
∫ T
0
(g2(s)− h2(s))ds
)
166 Complements
On peut aussi remarquer que
h(T )WT −∫ T
0
Ws(h′(s) + σ(s))ds
est une variable gaussienne centree dont on identifie la variance.
Exercice 6.6.17 : St = x + mart + 2(ν + 1)∫ t
0
Sudu. Utiliser que1− e−b
b≥
e−b. On en deduit que E((1T
∫ T
0
exp(2(Ws + νs))ds−K)+) ≥ E((exp 2(WT +
νT )− k)+) pour k assez petit.
Exercice 6.6.7 Pour evaluer EP (h(ST )|Ft) dans le cas h(x) = (xα −K)+, on
utilise ce qui precede en ecrivant SαT sous la forme x exp((a − b2
2)t + bWt). IL
est facile de verifier que sous Q,
dZt = −σZtdWt
et comme W donc −W est un MB, Z a meme dynamique sous Q que S sousP . Par suite
∀ϕ,EP (ϕ(ST )) = EQ(ϕ(ZT )) .
Par definition de Q
1x
EP (ST f(x2
ST)) = EQ(f(
x2
ST)) .
Par definition de Z,
EQ(ST f(x2
ST)) = EQ(f(ZT )) = EP (f(ST )) .
Si Sa est une martingale, le meme raisonnement conduit a la formule souhaitee.Un peu d’algebre permettait decrire xβ(x−K)+ comme
(xβ+1 −Kβ+1)+ −K(xβ −Kβ)+ .
Chapter 7
Complements, Corriges
7.1 Theoreme de Levy.
Exercice 7.1.1 : Soit St = sup0≤s≤t Ws et
D = sup0≤s≤t≤1
(Ws −Wt) = sup0≤t≤1
sup0≤s≤t
(Ws −Wt)
= sup0≤t≤1
(St −Wt)loi= sup
0≤t≤1|Wt|
Grace au theoreme de Levy
(St −Wt, St,Wt; θ ≤ t ≤ 1) loi= (|Wt|, Lt, Lt − |Wt|; g ≤ t ≤ 1)
D’ou
Wθ, supθ≤t≤1
(St−Wt−St))loi= Lg − |Bg|, sup
g≤t≤1(|Wt| −Lt) = (Lg, sup
g≤t≤1(|Wt| −Lg)
ThusD1 = Wθ + sup
θ≤t≤1(St −Wt − St)
loi= Lg + supg≤t≤1
|Wt| − Lg
Exercice 7.1.2 : La premiere egalite provient du theoreme de Levy et de laconnaissance de la loi du couple St, Bt). La seconde egalite en loi provient de lasymetrie de la loi du couple. Pour le semi groupe, on utilise la formule de Levyet l’independance de (Bu, u ≤ t) et de Bv = Bt+v −Bt
E(f(St+s −Bt+s, St+s|Fs) = E(f((Ss −Bs) ∨ St − Bt, Bs + (Ss −Bs) ∨ StSt+s)|Fs)
=∫
µt(da, d`)f(α ∨ `− (`− a), (λ− α) + α ∨ `)
Les resultats concernant l’independance de St(St−Bt) et Bt sont dus a Seshadri.
167
168 Complements
7.2 Equations retrogrades
Exercice 7.2.1 : Il s’agit d’appliquer la formule d’Ito et le theoreme derepresentation. La propriete de martingale de X provient de Xt = E(eζHT |Ft)et le theoreme de representation etablit l’existence de z. Puis, en utilisant laformule d’Ito
d(1/Ht) = − 1H2
t
dHt +1
H3t
d〈H〉t =1
Ht[(r + θ2)dt + θdWt)]
d(Zt/Ht) =Zt
Ht[(r + θ2)dt + θdWt) + HtztdWt +
zt
Htθdt
dXt = (zt
Ht+ θ)dWt +
((r + θ2) +
zt
Htθ − 1
2(
zt
Ht+ θ)2
)dt
= XtdWt + (r + θXt − 12X2
t )dt
7.3 Theoremes de representation
Exercice 7.3.1 : On utilisera le theoreme de representation previsible pourrepresenter W
(1)t ,W
(2)t en terme de W (3). Si l’egalite etait possible, on aurait
W(i)t =
∫ t
0
Φ(i)t dWt avec
∫ t
0
E[Φ(i)t ]2dt = t et E(W (1)
t W(2)t ) = E(
∫ t
0
Φ(1)t Φ(2)
t dt) =
0.
Exercice 7.3.2 : M est une integrale stochastique, l’integrand est borne doncde carre integrable, M est une martingale.Par propriete de l’integrale stochastique
[∫ t
0
11Ws>0dWs
]2
−∫ t
0
(11Ws>0)2ds
est une martingale. Une autre methode consiste a appliquer la formule d’Ito a
Y 2t avec Yt =
∫ t
0
11Ws>0dWs. Le processus At =∫ t
0
11Ws>0ds est un processus
croissant.Le processus MCt est une Gt
def= FCt martingale et
M2Ct−ACt = M2
Ct− t
est une martingale.
7.4 Temps local.
Exercice 7.4.1 : On ne peut pas appliquer Ito car x → |x| n’est pas de classeC2. Un calcul fait en pensant qu’un point ne compte pas et que l’on peut negligerle point ou la derivee n’existe pas conduirait a (la derivee de |x| est egale a sgn
Corriges. 2005-06 169
sauf en 0 et la derive seconde est nulle sauf en 0) |Bt| =∫ t
0
sgn(Bs)dBs et
l’integrale du membre de droite n’est pas positive (nous verrons plus loin quec’est un mouvement Brownien).
Le processus β est une martingale de crochet∫ t
0
f2(Bs)ds = t, c’est un MB. Il
est evident que pour u ≥ t
Su = sups≤u
Ws ≥ St = sups≤t
Ws
La premiere decomposition exprime que |Wt| est egal a un MB plus un processuscroissant, la seconde decomposition dit que St −Wt a la meme propriete. Onpeut montrer, grace au lemme de Skohorod (voir poly) que (St −Wt, t ≥ 0) loi=(|Wt|, t ≥ 0) et que (Lt, t ≥ 0) loi= (St, t ≥ 0).
Exercice 7.4.2 : |Bs|+ Ls ≥ Lt = Ldt for s ≥ t, and |Bdt |+ Ldt = Ldt .
Exercice 7.4.3 : (θ ≤ u) = sups≥u Bs ≤ sups≤u Bs = sup1≥s≥u(Bs − Bu) +Bu ≤ sups≤u Bs d’ou P (θ ≤ u) = P (S1−u ≤ Su − Bu) On trouve finalementque θ a une loi Arc Sinus.Exercice 7.4.4 : On utilise la formule d’Ito
dYt = f ′x(Xt, St, 〈X〉t)dXt+f ′s(Xt, St, 〈X〉t)dSt+(f ′t+12f ′′xx)(Xt, St, 〈X〉t)d〈X〉t
Or f ′s(Xt, St, 〈X〉t) = f ′s(St, St, 〈X〉t) dSt presque surement. Si12f ′′xx + f ′t = 0
et f ′s(s, s, t) = 0, Y est une martingale locale.
g(St)− (St −Xt)g′(St) = g(St)−∫ t
0
g′(Ss)dSs +∫ t
0
g′(Ss)dXs +∫ t
0
(Ss −Xs)g′′(Ss)dSs
=∫ t
0
g′(Ss)dXs
Exercice 7.4.5 : On utilise le scaling du MB pour ecrire
∫ λ2t
0
f(Bs)dsloi= λ2
∫ t
0
f(λBu)du = λ2
∫da f(λa)La
t
Exercice 7.4.7 : From the occupation formula and change of time∫ t
0
d〈M〉s f(Ms) =∫ t
0
d〈M〉sf(β〈M〉s) =∫ 〈M〉t
0
duf(βu) =∫
dyf(y)Ly〈M〉t(β).
170 Complements
7.5 Lois
Exercice 7.5.1 : Soit Yt = f(Xt). On en deduit
dYt =Xt
b(Xt)dXt +
12( 1b(Xt)
− Xtb′(Xt)
b2(Xt))b2(Xt)dt
= Xt
(a(Xt)b(Xt)
dt + dWt
)+
12(b(Xt)−Xtb
′(Xt))dt
Le resultat souhaite en decoule.
f(Xt)− f(X0)−∫ t
0
[Xs
a(Xs)b(Xs)
+12(b(Xs)−Xsb
′(Xs))]
ds =∫ t
0
XsdWs
Exercice 7.5.2 : Let V be a standard Brownian motion starting at v, thatis, Vt = v + Wt. In this case, the two events τa(V ) ≤ t and sups≤t Ws ≥α, where α = a − v are equal. The reflection principle implies that the r.v.sups≤t Ws is equal in law to the r.v. ‖Wt‖. Therefore,
P (τα(W ) ≤ t) = P (sups≤t
Ws ≥ α) = P (‖Wt‖ ≥ α) = P (W 2t ≥ α2) = P (tG2 ≥ α2)
where G is a Gaussian variable, with mean 0 and variance 1. It follows that
τα(W ) loi=α2
G2, and the probability density function of τa(V ) is
f(t) =a− v√2πt3
exp(− (v − a)2
2t
).
The computation of
E(11T<τa(V )h(VT )
)= E
(h(VT )
)− E(11T≥τa(V )h(VT )
)
can be done using Markov property:
E(11T≥τa(V )h(VT )
)= E
(11T≥τa(V )E(h(VT )|Fτa(V ))
)= E
(11T≥τa(V ) h(VT−τa(V )+a)
),
where V is a Brownian motion independent of τa(V ).
Exercice 7.5.3 : Soit y > a. On admettra que M est uniformement integrable.
a = E[MTy ] = yP (Ty < ∞) = yP (sup Mt ≥ y)
Soita
y= P (sup Mt ≥ y) = P (
a
y≥ U) = P (
a
U≥ y).
7.6 Filtrations
Exercice 7.6.2 : Mt = E(Wt|Ht) est un processus H-adapte. Pour montrerque c’est une H-martingale, il suffit d’ecrire la suite d’egalites suivantes, pour
Corriges. 2005-06 171
t ≥ s
E(Mt|Hs) = E(Wt|Ht|Hs) = E(Wt|Hs)= E(Wt|Gs|Hs) = E(Ws|Hs)
Pour montrer que Z est une FX -martingale, on ecrit (en justifiant chaque egalite,ce que je ne fais pas)
E(Zt|FXs ) = E(Xt|FX
s )− E(∫ t
0
Yudu|FXs )
= E(Wt +∫ t
0
Yudu|FXs )− E(
∫ t
0
Yudu|FXs )
= E(Wt|FXs ) + E(
∫ s
0
Yudu|FXs ) + E(
∫ t
s
Yudu|FXs )−
∫ s
0
Yudu− E(∫ t
s
Yudu|FXs )
= E(Ws|FXs ) + E(
∫ s
0
Yudu|FXs ) + E(
∫ t
s
Yudu|FXs )−
∫ s
0
Yudu− E(∫ t
s
Yudu|FXs )
= E(Xs|FXs ) +
∫ t
s
E(Yu|FXs )du−
∫ s
0
Yudu− E(∫ t
s
Yudu|FXs )
= Xs +∫ t
s
Yudu−∫ s
0
E(Yu|FXs )du− E(
∫ t
s
Yudu|FXs )
= Xs −∫ s
0
Yudu)
on a utilise que E(Wt|FXs ) = E(Ws|FX
s ) et que, pour u > s
E(Yu|FXs ) = E(Yu|FX
u |FXs ) = E(Yu|FX
s )
7.7 Options barrieres
Exercice 7.7.1 : Soit Φt(x) = P (Bt < x) = 1√2πt
∫ x
−∞ exp(−u2
2t )du. on aΦt(x) = 1− Φt(−x) d’ou, P (Bt < x) = P (Bt > −x).Soit T = inft ≥ 0|Bt = y. Par definition P (Bt ≤ x, Mt > y) = P (T <t, B∗
t−T < x− y). Si Mt > y, c’est que l’on a depasse y avant t: Si Mt > y, on aT < t. De plus B∗
t−T = Bt−BT = Bt−y. Par independance, P (T < t, B∗t−T <
x−y) =∫ t
0P (T ∈ du , B∗
t−u < x−y) =∫ t
0P (T ∈ du)P (B∗
t−u < x−y). D’apres1, P (B∗
t−u < x− y) = P (B∗t−u > −x + y), d’ou
∫ t
0
P (T ∈ du)P (B∗t−u < x− y) =
∫ t
0
P (T ∈ du)P (B∗t−u > y − x)
et par independance∫ t
0
P (T ∈ du)P (B∗t−u > y−x) =
∫ t
0
P (T ∈ du, B∗t−u > y−x) = P (T < t, Bt > 2y−x)
172 Complements
En tenant compte du fait que si Bt > 2y−x et y > x , alors Bt > y, donc T < ton en deduit P (T < t, Bt > 2y − x) = P (Bt > 2y − x) d’ou
P (Bt ≤ x, Mt > y) = P (Bt > 2y − x)
En utilisant
P (Bt ≤ x, Mt < y) = P (Bt ≤ x)− P (Bt ≤ x, Mt > y)
on obtientP (Bt ≤ x, Mt < y) = N (
x√t)−N (
x− 2y√t
)
3. La loi de T s’obtient en ecrivant P (T < t) = P (Mt < y) et la densite ducouple (Bt, Mt) en derivant P (Bt ≤ x, Mt < y).4. Soit Xt = µt + Bt, Yt = sup (Xs, 0 ≤ s ≤ t. Soit dQ = ζdP avec ζ =exp(−µXt + 1
2µ2t). En utilisant le theoreme de Girsanov, on a
P (Xt < x, Yt < y) = EQ(exp(µXt − 12µ2t) 11Xt<x 11Yt<y)
que l’on peut calculer car sous Q, X est un mouvement Brownien et on connaitla loi du couple (x, Y ) sous Q.
7.8 Meandres, ponts, excursions
Exercice 7.8.1: Let V be a standard Brownian motion starting at v, that is,Vt = v + Wt. In this case, the two events τa(V ) ≤ t and sups≤t Ws ≥α, where α = a − v are equal. The reflection principle implies that the r.v.sups≤t Ws is equal in law to the r.v. ‖Wt‖. Therefore,
P (τα(W ) ≤ t) = P (sups≤t
Ws ≥ α) = P (‖Wt‖ ≥ α) = P (W 2t ≥ α2) = P (tG2 ≥ α2)
where G is a Gaussian variable, with mean 0 and variance 1. It follows that
τα(W ) loi=α2
G2, and the probability density function of τa(V ) is
f(t) =a− v√2πt3
exp(− (v − a)2
2t
).
The computation of
E(11T<τa(V )h(VT )
)= E
(h(VT )
)− E(11T≥τa(V )h(VT )
)
can be done using Markov property:
E(11T≥τa(V )h(VT )
)= E
(11T≥τa(V )E(h(VT )‖Fτa(V ))
)= E
(11T≥τa(V ) h(VT−τa(V )+a)
),
where V is a Brownian motion independent of τa(V ).
Corriges. 2005-06 173
For t < 1, the set g ≤ t is equal to dt > 1.
dat (W ) = t + inf u ≥ 0 : Wu+t −Wt = a−Wt = t + τa−Wt
loi= t +(a−Wt)2
G2.
P( a2
G2> 1− t
)= Φ
( ‖a‖√1− t
).
Then, the Ito-Tanaka formula combined with the identity xΦ′(x) + Φ′′(x) = 0lead to
P (g ≤ t|Ft) = Φ( |Wt|√
1− t
)=
∫ t
0
Φ′( |Ws|√
1− s
)d
( |Ws|√1− s
)+
12
∫ t
0
ds
1− sΦ′′
( |Ws|√1− s
)
=∫ t
0
Φ′( |Ws|√
1− s
)sgn(Ws)√
1− sdWs +
∫ t
0
dLs√1− s
Φ′( |Ws|√
1− s
)
=∫ t
0
Φ′( |Ws|√
1− s
)sgn(Ws)√
1− sdWs +
√2π
∫ t
0
dLs√1− s
.
Exercice 7.4.6 : The occupation time formula leads to
E
∫ Ta(X)
0
f(Xs) ds =∫ a
−∞f(x)E[Lx
Ta]dx
It remains to compute φ(x) = E[LxTa
]. Tanaka’s formula reads
(XTa − x)+ = (−x)+ +∫ Ta
0
11(Xs>x)dXs +12Lx
Ta
(a− x)+ = (−x)+ +∫ Ta
0
11(Xs>x)(dWs + νds) +12Lx
Ta
Then, taking expectation of both sides
12E[ÃLx
Ta] = (a− x)+ − (−x)+ − νE[
∫ Ta
0
11(Xs>x)ds]
= (a− x)+ − (−x)+ − νE[∫ a
x
LyTa
dy]
Therefore, if φ(x) = E[ÃLxTa
]
12φ(x) = (a− x)+ − (−x)+ − ν
∫ a
x
φ(y)dy, φ(a) = 0
which gives
φ(x) =
1ν
(1− exp(2ν(x− a)) for 0 ≤ x ≤ a
1ν
(1− exp(−2νa)) exp(2νx) for x ≤ 0
174 Sauts.
Exercice 7.8.2 : Il suffit d’ecrire
Bt = m1
√t− gt (sgneBt)
On a alors E(Bt|Fgt) = E(m1
√t− gt (sgneBt)Fgt
) =√
t− gt (sgneBt)E(m1) =√
t− gt (sgneBt)√
π
2On note µt =
√t− gt (sgneBt), c’est une martingale. Des
calculs analogues conduisent a
E(B2t − t|Fgt
) = E(m21)µ
2t − t
E(eαBt−α22 t|Fgt
) = h(αµt)e−α22
avec h(x) = E(exm1).
Chapter 8
Sauts, Corriges.
8.1 Processus de Poisson
Exercice 8.1.2 :
E(Nt −Ns|Fs ∧ σ(N1)) = E(Nt −Ns|(Ns −N1))
Il est bien connu (ou tout au moins facile de verifier ) que si X et Y sont deuxvariables de Poisson, independantes, de parametre µ et ν
P (X = k|X + Y = n) =(
nk
)αk(1− α)n−k
avec α =µ
µ + ν. On en deduit
E(Nt −Ns|Fs ∧ σ(N1)) =t− s
1− s(N1 −Ns)
La verification de la propriete de martingale est alors facile.
Exercice 8.1.4 : Si N est un processus de Poisson, P (Nt = n) = e−λt λntn
n!d’ou
ψ(z, t) = e−λte−λtz
Si N un processus a accroissements independants tel que Nt+s −Ntloi= Ns
ψ(z, t + s) =∑
n
znP (Nt+s = n) = E(zNt+s) = E(zNt+s−Nt+Nt)
= E(zNt+s−Nt)E(zNt) = E(zNs)E(zNt) = ψ(z, t)ψ(z, s)
On en deduitψ(z, t + h)− ψ(z, t) = ψ(z, t)[ψ(z, h)− 1]
ce qui conduit a une EDO en urilisant les proprietes de ψ donnees dans l’enonce.En tenant compte de ψ(z, 0) = 1, on montrait que ψ(z, t) = e−λte−λtz, ce qui
175
176 Sauts.
caracterise le processus de Poisson (cette egalite caracterise la loi de Nt, ce quiavec N un processus a accroissements independants tel que Nt+s − Nt
loi= Ns
caracterise le processus de Poisson.)Exercice 8.1.5 : Le processus de Poisson compose est un processus a accroisse-ments independants, donc pour s < t
E(Yt − Ys|Fs) = E(Yt − Ys) = E(Xt −Xs)− µλ(t− s) = 0
On peut le demontrer a la main, sans utiliser que le processus de Poisson com-pose est un PAI
E(Xt −Xs|Fs) = E(Nt∑
i=Ns+1
Yi|Fs) = E(Nt−Ns+Ns∑
i=Ns+1
Yi|Fs) = Ψ(Ns)
avec
Ψ(n) = E(n+Nt−s∑
i=n+1
Yi) =∑
P (Nt−s = k)E(n+k∑
i=n+1
Yi)
=∑
P (Nt−s = k)kE(Y1) = E(Y1)E(Nt−s) = E(Y1)λ(t− s)
Exercice 8.1.6 : Si X et X sont deux solutions,
Ztdef= Xt − Xt = −c
∫ t
0
(Xs − Xs)ds = −c
∫ t
0
Zsds
et Z est solution de l’equation differentielle ordinaire Z ′t = −cZt avec conditioninitiale nulle. Donc Z = 0.
Soit Xt = e−ctx +∫ t
0
e−c(t−s)dNs. On calcule
∫ t
0
Xsds =∫ t
0
e−csxds +∫ t
0
ds
∫ s
0
e−c(s−u)dNu .
L’integrale double se calcule en employant Fubini (pour des integrales de Stielt-jes)∫ t
0
ds
∫ s
0
e−c(s−u)dNu =∫ t
0
dNu
∫ t
u
dse−c(s−u) =1c
∫ t
0
dNu(1− e−c(t−u))
=1c(Nt −
∫ t
0
e−c(t−s)dNs) .
En utilisant que M et Y sont des martingales
E(MtYt|Fs) = E(Mt(Yt−Ys)|Fs)+MsYs = E((Mt−Ms)(Yt−Ys)|Fs)+MsYs
Le calcul de E((Mt −Ms)(Yt − Ys)|Fs) se fait comme le precedent. Exercice8.1.8 : Si j’ecris la formule d ito d(tNt) = Ntdt + tdNt D’ou
∫ t
0
Nsds = tNt −∫ t
0
sdNs =∫ t
0
(t− s)dNs
Corriges. 2005-06 177
Pour calculer la TL, il suffit d utiliser que pour toute fonction h (ici, pour t fixeh(s) = −λ(t− s)) si c est l’intensite de N
E(exp(∫ t
0
h(s)dNs) = exp(−c
∫ t
0
(1− eh(s))ds)
8.2 Poisson compose
Exercice 8.2.1 : From the independance of Yk, one gets
E(λn∑
k=1
Yk + µ
m∑
k=n+1
)) = E(λY1)nE(µY1)m
Then, the independence and stationarity of the increments of N follows from
E(λXs+µ(Xt−Xs)) = E(ψ(λ,Ns)ψ(µ,Nt−Ns)) = E(ψ(λ,Ns))E(ψ(µ,Nt−s))
where ψ(λ, n) = E(λY1)n. From the independence of N and the r.v. (Yk, k ≥ 1)and using the Poisson law of Nt, we get
P (Xt ≤ x) =∑
n
P (Nt = n,
n∑
k=1
Yk ≤ x)
=∑
n
P (Nt = n)P (n∑
k=1
Yk ≤ x)
= e−λt∑
n
(λt)n
n!F ∗(x) .
and
E(Xt) =∞∑
n=1
E(n∑
k=1
Yk11Nt=n) =∞∑
n=1
nE(Y )P (Nt = n)
= E(Y )∞∑
n=1
nP (Nt = n) = λtE(Y1) .
The computation of the variance can be done with the same method, however,it is more convenient to use the Laplace transform of Xt and the fact that thesecond moment is obtained from the second derivative of the Laplace transform.Exercice 8.2.2 : From the independence of increments, we obtain that(Xt − tλE(Y ), t ≥ 0) is a martingale. More generally, for any bounded Borelfunction f , we denote by µ(f) =
∫f(x)µ(dx) the expectation E(f(Y )). From
the definition of Mf ,
E(Mft ) =
∑n
E(f(Yn))P (Tn < t)− tλµ(f) = σ(f)∑
n
P (Tn < t)− tλµ(f) = 0
178 Sauts.
The proof of the proposition is now standard and results from the computationof conditional expectation which lead to, for s > 0
E(Mft+s −Mf
t |Ft) = E
∑
t<u≤t+s
f(∆Xu)11∆Xu 6=0 − sλµ(f)|Ft
= 0 .
For the reciprocal, write
eiuXt = 1 +∑
s≤t
eiuXs−(eiuXs − 1)
= +∫ t
0
eiuXs−dMfs + σ(f)
∫ t
0
eiuXs−ds
where f(x) = eiux − 1. Hence,
E(eiuXt+s |Ft) = eiuXt + σ(f)∫ t+s
t
drE(eiuXt+r |Ft)
Setting ϕ(s) = E(eiuXt+s |Ft) one get ϕ(s) = ϕ(0) + σ(f)∫ s
0ϕ(r)dr, hence
E(eiuXt+s |Ft) = esλ
∫µ(dx)(eiux − 1)
where λ = σ(1) and µ = σ/λ).Exercice 8.2.3 : From the independence between the r.v. (Yk, k ≥ 1) andthe process N ,
E(e−αXt) = E
(exp (−α
Nt∑
k=1
Yk)
)= E(Φ(Nt))
where Φ(n) = E
(exp (−α
n∑
k=1
Yk)
)= [ΨY (α)]n, with ΨY (α) = E (exp−αY ).
Now, E(Φ(Nt)) =∑
n
[ΨY (α)]ne−λt λntn
n!.
8.3 Marche complets, incomplets
Exercice 8.5.1 : We shall now restrict our attention to the simple case of acomplete market where
dSt = St−[µdt + φdMt]
and r = 0. Here, M is the compensated martingale associated with a poissonprocess with deterministic intensity.
The non-arbitrage condition is equivalent to the existence of γ such that
γ > −1 and µ + λφγ = 0. This implies thatλφ− µ
λφ> 0.
Corriges. 2005-06 179
The unique equivalent martingale measure Q is defined bydQ
dP|Ft
= Lt whereL is the strictly positive martingale
Lt =(
λφ− µ
λφ
)Nt
exp(tµ/φ)
which satisfies dLt = −Lt−µ
λφdMt.
Under the measure Q, Mtdef= Mt + tµ/φ is a martingale.
Exercice 8.5.2 : Les m.m.e. sont definies par leur densite L verifiant
dLt = Lt−(−ψtdWt + γtdMt)
avecσψ(t) = b− r + λφγ(t) , dP ⊗ dt.p.s.
Elles sont indexees par un processus γ > −1. Sous P γ , le processus W γ definipar
W γ(t)def= W (t)−
∫ t
0
ψ(s) ds
est un mouvement Brownien Mγ(t)def= M(t)−
∫ t
0
λγ(s)ds est une martingale.
On utilisera
W γ(t) = W (t) + tθ +∫ t
0
λφγ(s)σ
ds = W 0(t) +∫ t
0
λφγ(s)σ
ds
avec θ =b− r
σ.
180 Sauts.
Bibliography
181