M1mmd MouvementBrownien Ibtjtgt v7 3
M1mmd MouvementBrownien Ibtjtgt v7 3
M1mmd MouvementBrownien Ibtjtgt v7 3
iii
Elle permet de présenter dans un cadre simple des notions de base, qui seront
étendues dans les chapitres suivants au temps continu. Le chapitre 2 est consa-
cré au mouvement Brownien et au calcul d’Itô. Nous y présentons les outils
mathématiques du calcul stochastique indispensables pour aborder le Chapitre
3. Dans ce dernier chapitre nous décrivons le Modèle de Black-Merton-Scholes
et nous examinons, dans le cadre de ce modèle, le problème d’évaluation d’ac-
tifs contingents. Finalement, des applications (travaux pratiques, études de
cas) font l’objet des derniers chapitres de l’ouvrage.
Table des matières
v
2.3 Mouvement Brownien . . . . . . . . . . . . . . . . . . . . . . . 34
2.3.1 Définition et premières propriétés . . . . . . . . . . . . . 34
2.3.2 Mouvement Brownien multi-dimensionnel . . . . . . . . 39
2.3.3 Variation d’ordre p . . . . . . . . . . . . . . . . . . . . . 39
2.4 Intégrale d’Itô . . . . . . . . . . . . . . . . . . . . . . . . . . . . 44
2.4.1 Fonction à variation bornée et intégrale de Stieltjes . . . 44
2.4.2 Intégration des processus élémentaires . . . . . . . . . . 46
2.4.3 Intégration des processus de L2 ([0, T ]) . . . . . . . . . . 53
2.4.4 Intégration des processus de L([0, T ]) . . . . . . . . . . 54
2.5 Calcul d’Itô . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 56
2.5.1 Processus d’Itô . . . . . . . . . . . . . . . . . . . . . . . 56
2.5.2 Formule d’Itô . . . . . . . . . . . . . . . . . . . . . . . . 59
2.5.3 Formule de Itô multi-dimensionnelle . . . . . . . . . . . 64
2.5.4 Équations différentielles stochastiques . . . . . . . . . . 65
2.6 Répresentation de martingales, changement de probabilité . . . 66
2.7 Exercices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 69
Bibliographie 201
B Index 203
Chapitre 1
Absence d’opportunités
d’arbitrage, probabilité risque
neutre et évaluation en temps
discret
1
2
L’actif S 0 est un actif sans risque. Son processus de prix, noté toujours
S 0 := {St0 , t ∈ T } évolue selon la dynamique déterministe
Ici, pour tout vecteur ou matrice X nous notons par X ? son transposé. En
particulier St est donc un vecteur colonne.
On désigne par processus de prix actualisés le processus S̃ défini par
n ? o
S̃ := S̃t = 1, St1 /St0 , . . . , Std /St0 , t∈T .
Notons que S̃ i représente le prix de l’actif risqué S i si S 0 est pris comme unité
de compte. On dit également que S̃ i est le prix de l’actif S i lorsque S 0 est pris
comme numéraire.
Dans ce chapitre, on note F := {Ft , t ∈ T } la filtration engendrée par S :
Pour faciliter les points techniques, nous prennons aussi l’hypothèse sui-
vante :
d
X
Vtk = θtik Stik =: hθtk , Stk i (1.3)
i=0
Xd
Ṽtk = θtik S̃tik =: hθtk , S̃tk i . (1.4)
i=0
k
X
θ • ∆S̃ = 0 et θ • ∆S̃ = hθtm , ∆S̃tm i pour k ≥ 1 (. 1.6)
t0 tk
m=1
Il est facile de voir que ce processus compte la somme des gains réalisés
par la stratégie θ du fait de son choix d’allocation, gains exclusivement dûs
5
réallocation
θt0
θt0k
.. k+1
..
··· ↓ ↓ ↓ ···
. .
θtdk θtdk+1
tk−1 portefeuille inchangé tk portefeuille inchangé tk+1
Sit
• • • • ... • t
t0 t1 t2 t3 tN = T
θti
• • • • ... • t
t0 t1 t2 t3 tN = T
d
X
Ṽtk = Ṽtk−1 + θtik S̃tik − S̃tik−1 = Ṽtk−1 + hθtk , ∆S̃tk i (1.8)
i=1
Preuve. Exercice.
ainsi, nous vérifions que θ est une opportunité d’arbitrage, ce qui contredit la
condition AOA. On conclut que nécessairement v2 ≤ v1 .
Remarque 1.3 Parfois les arbitrages sont définies sous contrainte de posi-
tivité à tous les instants. Une variante du résultat précédent permet de voir
qu’un marché qui n’a pas d’arbitrages positifs n’aura pas d’arbitrages du tout
et donc les définitions sont équivalentes.
Proposition 1.4 (Bornes sur les prix d’options vanille) Pour tout t ∈
[0, T ]
+
S − Ke−r(T −t) ≤ Ct (S, T, K) ≤ S (1.16)
−
S − Ke−r(T −t) ≤ Pt (S, T, K) ≤ Ke−r(T −t) .
11
Proposition 1.5 (Convexité des prix par rapport aux prix d’exercice)
Pour tout t ∈ [0, T ], la fonction : K 7→ Ct (S, T, K) et la fonction : K 7→
Pt (S, T, K) sont convexes.
Preuve. Soit θ ∈ A un portefeuille admissible tel que θ soit borné par une
constante M : P(|θtk | ≤ M ) = 1. Comme la mesure de probabilité Q est
équivalente à P, on a aussi Q(|θtk | ≤ M ) = 1. Par conséquent, pour tout k ≥
1, on a : |Ṽt0,θ | := | km=1 hθtm , ∆S̃tm i| ≤ M km=1 |∆S̃tm |. Comme chacune
P P
k
12
des variables aléatoires S̃tm est Q-intégrable, on en déduit que chacune des
variables aléatoires Ṽt0,θ
k
est Q-intégrable.
Il nous reste à vérifier que pour tout k ≥ 1, EQ [Ṽt0,θ
k
|Ftk−1 ] = Ṽt0,θ
k−1
. Or,
h i
EQ [Ṽt0,θ
k
|Ftk−1 ] = EQ Ṽt0,θ
k−1
+ hθtk , ∆S̃tk i|Ftk−1 .
d h i
EQ [Ṽt0,θ |Ftk−1 ] = Ṽt0,θ
X
k k−1
+ θtik EQ ∆S̃tik |Ftk−1 .
i=1
h i
Enfin, puisque S̃ est une Q-martingale on a EQ ∆S̃tik |Ftk−1 =0, ce qui nous
permet de conclure que EQ [Ṽt0,θ
k
|FtSk−1 ] = Ṽt0,θ
k−1
.
Preuve. Revenons au Théorème 1.1. Supposons qu’il existe une mesure de
probabilité Q équivalente à P telle que S̃ soit une Q-martingale. Nous montrons
par l’absurde que cela implique AOA. Supposons qu’il existe un portefeuille
admissible θ ∈ A tel que
Pour rappel θ est borné. Dans ce cas, d’après la Proposition 1.6, le proces-
sus Ṽ 0,θ est une Q-martingale qui démarre (au capital initial égal) à zéro donc
E Q [ṼT0,θ ] = Ṽ00,θ = 0. Cette dernière égalité combinée à la condition Q(ṼT0,θ ≥
0) = 1 implique que Q(ṼT0,θ = 0) = 1, ce qui contredit Q(ṼT0,θ > 0) > 0.
Remarque 1.4 En temps discret et sous l’hypothèse que l’espace des états est
fini (ou dénombrable) la réciproque est aussi vraie : l’AOA implique l’existence
d’une mesure risque neutre, voir [11] pour une démonstration. Il y a donc,
sous ces hypothèses, équivalence entre AOA et l’existence d’une mesure risque
neutre. Ceci est parfois appelé le premier théorème fondamental de la valuation
d’actifs.
Cet actif contingent peut être, par exemple, un produit dérivé tel qu’une
option d’achat ou une option de vente. On s’intéresse dans ce paragraphe au
problème d’évaluation d’un actif G : comment déterminer le juste prix pGt de
G à la date t pour tout t ∈ [0, T ] dans un modèle donné.
Proposition 1.7 (Prix d’un actif réplicable) On suppose qu’il existe une
mesure de probabilité neutre au risque Q. On suppose que l’actif contingent
G admet une stratégie de réplication θ ∈ A à partir du capital initial v0 . On
suppose de plus que θ est bornée. Si on note par pG
tk le prix de G à l’instant tk
alors pour tout k : pG rtk EQ [Ge−rT |F ].
tk = e tk
actif risqué, d = 1. Cette simplification est adoptée par souci de clarté du texte,
les résultats énoncés dans cette section peuvent être étendus au cas général
d ≥ 1 sans difficulté.
Nous modélisons l’actif risqué par un arbre binômial (aussi dit arbre de
Cox Ross Rubinstein ) décrit graphiquement en (1.17) pour N = 3 : le prix
de l’actif peut évoluer en multipliant sa valeur par le facteur u ("up") ou en
multipliant sa valeur par le facteur d ("down"), avec 0 < d < u < ∞.
St10 u3
%
St10 u2
% &
St10 u St10 u2 d
% & %
St10 St10 ud
..
. & % & (1.17)
..
. St10 d St10 ud2
.. ..
. . & %
.. ..
. . St10 d2
.. .. ..
. . . &
.. .. ..
. . . St10 d3
t0 t1 t2 t3 = T
Ici l’ensemble des états possibles est l’ensemble des suites u, ud, u2 d,... etc.
Donc :
Ω = {(ω1 , ..., ωN )|ωi ∈ {d, u}} = {u, d}N . (1.18)
A noter que ceci implique que l’arbre est recombinant c’est à dire que
l’ensemble des valeurs possibles en T est N + 1 (et pas 2N ).
Nous notons Yk+1 = St1k+1 /St1k les rendements.
Ici F = {F0 , ..., FN } avec :
16
car on connait les valeurs prises par St1 jusqu’à t2 (inclus) ; cette tribu repré-
sente l’ensemble de sous-parties de Ω dont on peut dire si elles sont réalisées
ou pas à l’instant t2 ;
- ...
Par ailleurs nous constatons que les variable St1k : Ω → R et Yt1k : Ω → R
sont respectivement définies par
k
Y
St1k (ω1 , ..., ωN ) = St10 ω` , (1.20)
`=1
Yk (ω1 , ..., ωN ) = ωk . (1.21)
où
er∆t − d
q= . (1.24)
u−d
Preuve. Démonstration du point 1 : une stratégie d’arbitrage entre l’actif
sans risque et l’actif risqué est immédiate à construire si la condition n’est
pas satisfaite. Par exemple si d ≥ er∆t ceci veut dire u > d ≥ er∆t et alors il
suffit d’acheter l’actif risqué et vendre l’actif sans risque pour la même somme
d’argent pour obtenir un arbitrage.
Démonstration du point 2 : Supposons qu’il existe une probabilité risque
neutre Q et montrons qu’elle est nécessairement unique. Une mesure risque
neutre Q satisfait EQ (S̃t1k |Ftk−1 ) = S̃t1k−1 pour tout k = 1, . . . , N ou encore,
selon la définition de Yk et de S̃ : EQ (S̃t1k−1 Yk e−r∆t |Ftk−1 ) = S̃t1k−1 . Puisque
St1k−1 est Ftk−1 mesurable il en découle que EQ (Yk |Ftk−1 ) = er∆t ou encore,
après quelques calculs immédiates :
er∆t − d u − er∆t
EQ (1Yk =u |Ftk−1 ) = et EQ (1Yk =d |Ftk−1 ) = . (1.27)
u−d u−d
Nous constatons que les termes de droite des deux égalités ci-dessus ne dé-
pendent ni de ω ni de k, donc sous Q, pour tout k = 1, . . . , N , la variable
aléatoire Yk est nécessairement indépendante de Ftk−1 ce qui implique que
sous Q les variables aléatoires Y1 , . . . , YN sont nécessairement indépendantes
et de même loi
er∆t − d u − er∆t
Q(Y1 = u) = =q et Q(Y1 = d) = =1−q (1.28)
u−d u−d
par :
−rT
pG 1 G 1
tk (Stk−1 u) − ptk (Stk−1 d)
Q
v = E [e φ(ST1 )], θt1k = . (1.31)
St1k−1 u − St1k−1 d
Q −r(T −tk )
pG 1
tk (Stk ) = E [e φ(ST1 )|Ftk ] (1.32)
hh i i
= EQ EQ [e−r(T −tk ) φ(ST1 ) Ftk+1 Ftk
h i
= EQ e−r∆t pG 1
tk+1 (Stk+1 ) Ftk
h i
= EQ e−r∆t 1{Yk+1 =u} + 1{Yk+1 =d} pG 1
tk+1 (Stk+1 ) Ftk
h i
= e−r∆t EQ 1{Yk+1 =u} pG 1 G 1
tk+1 (Stk u) + 1{Yk+1 =d} ptk+1 (Stk d) Ftk .
En observant que pG 1 G 1 1
tk+1 (Stk u) et ptk+1 (Stk d) sont des fonctions de Stk alors que
1{Yk+1 =u} et 1{Yk+1 =d} sont indépendantes de St1k on obtient l’expression (1.30)
après utilisation des propriétés élémentaires de l’espérance conditionnelle. On
remarquera que (1.30), combiné au fait évident que pG tN = φ, détermine de
G
façon unique par récurrence descendante une famille ptk , tk ∈ T , de fonctions
définies sur les valeurs possibles de St1k à chaque date tk .
er∆t pG 1 1 1 1 r∆t
tk (Stk ) + θtk+1 (Stk+1 − Stk e ) = pG 1
tk+1 (Stk+1 ). (1.33)
Ceci, selon les valeurs possibles de St1k+1 , conduit à un système de deux équa-
tions
er∆t pG 1 1 1
tk (Stk ) + θtk+1 Stk (u − e
r∆t
) = pG 1
tk+1 (Stk u) (1.34)
er∆t pG 1 1 1
tk (Stk ) + θtk+1 Stk (d − e
r∆t
) = pG 1
tk+1 (Stk d). (1.35)
pG
t (St1 u)−pG
t (St1 d)
On obtient donc θt1k+1 = k+1 k k+1
St1 u−St1 d
k
, c’est à dire la formule atten-
k k
due pour θ1 . On remarque que θ1 est égal au quotient entre la variation du
prix du dérivé et la variation du produit sous-jacent. En utilisant les for-
mules (1.30) et (1.31) (et après calculs) nous constatons que pG et θ vérifient
effectivement (1.33). La stratégie θ ainsi construite permet de répliquer G ce
qui conclut la preuve.
−rT
pG 1 1 1 1 G 1 1 1 1
tk (St0 , St1 , ..., Stk−1 , Stk−1 u) − ptk (St0 , St1 , ..., Stk−1 , Stk−1 d)
v = E [eQ
G], θt1k = .
St1k−1 u − St1k−1 d
(1.37)
Remarque 1.8 Les arguments de cette section sont encore valables, avec
quelques ajustements, pour des arbres plus généraux ayant des valeurs u et
d qui peuvent dépendre de tk et plus généralement de St10 , ..., St1k .
1.6 Exercices
Exercice 1.1 Démontrer la Remarque 1.1, page 6.
Exercice 1.5 Soit un marché avec un actif risqué et un investisseur qui alloue
toujours la moitié de la valeur de son portefeuille auto-financé sur l’actif risqué
et l’autre moitié sur un actif sans risque.
Fn = σ (ξi , 1 ≤ i ≤ n) . (1.38)
2
E[Xn+1 |Fn ] = Xn2 + E[ξn+1
2
].
En déduire qu’il existe une unique suite croissante de réels (an )n≥0 telle
que a0 = 0 et (Xn2 − an )n≥0 soit une F-martingale.
3. Soit maintenant une autre suite de variables aléatoires η1 ,...,ηn ,... i.i.d.,
centrées, de variance finie telle que ξk est indépendante de η` pour tout
` 6= k. Soit (Yn )n≥0 le processus défini par Y0 = 0 et Yn = n`=1 η`
P
pour tout n ≥ 1 . Montrer qu’il existe une unique suite de réels (dn )n≥0
vérifiant d0 = 0 et telle que (Xn Yn − dn )n≥0 soit une martingale par
rapport à la filtration G donnée par G0 = {∅, Ω} et pour tout n ≥ 1
Gn = σ (ξi , η` , 1 ≤ i, ` ≤ n) . (1.39)
225
??
NA
%
150
???
???
% &
100 75
St1 ?? ??
k
?? NA
pG 1
tk (Stk ) : .
1
θt (St1 ) .
k+1 k . & %
. 50
.
. ??
??
. .
. .
. . &
. . 25
. .
. . ??
NA
. . .
. . .
. . .
t0 t1 t2 = T
270
190
NA
%
180
107.272
1
% &
120 90
??? 10
??? NA
% & %
80 60
34.065 5.454
0.719 0.167
.
.
. & % &
. 40 30
.
. 2.974 0
0.136 NA
. .
. .
. . & %
. . 20
. .
. . 0
NA
. . .
. . .
. . . &
. . . 10
. . .
. . . 0
NA
t0 t1 t2 t3 = T
Exercice 1.9 Montrer que pour un arbre trinomial la probabilité risque neutre
n’est pas unique.
Exercice 1.10 Soit un marché complet à d = 1 actif risqué et qui admet une
probabilité risque neutre. Nous supposons que pour tout k les valeurs possibles
de St1k sont en nombre fini. Comparer les prix actualisés d’un dérivé de payoff
fonction indicatrice d’une valeur possible de ST1 (dit actif de type "‘Arrow-
Debreu"’) avec la probabilité risque neutre. Généraliser pour d > 1.
Mouvement Brownien et
calcul d’Itô
25
26
Un processus X peut être vu comme une famille de v.a. indexée par le temps :
Xt : ω ∈ (Ω, F) 7→ Xt (ω) ∈ Rd , B(Rd ) ,
1
N
ΦX : ξ ∈ R 7 exp ihξ, E[X]i − hξ, KX ξi
→ (2.2)
2
Preuve.
PN k
ΦX (ξ) = E[eihξ,Xi ] = E[ei ξ X
k=1 k ] = ΦPN ξ X k (1)
k=1 k
PN "N # N
!!
ξ X
k=1 k
k =Gaussienne X
k 12 X
================== exp i1 · E ξk X − var ξk X k
k=1
2 k=1
N
1 X
= exp ihξ, E[X]i − ξk ξ` cov(X k X ` )
2 k,`=1
1
= exp ihξ, E[X]i − hξ, KX ξi . (2.3)
2
1
ΦX (ξ) = exp ihξ, E[X]i − hξ, KX ξi
2
N N
! !!
KX = diagonale X 1 k
X
============ exp i ξk E[X ] − ξk2 var(X k )
k=1
2 k=1
N N
!
Y ξk2 var(X k ) Y
exp iξk E[X k ] − = ΦX k (ξk ), (2.4)
k=1
2 k=1
ce qui implique, via la Proposition A.1 page 190, l’indépendance des compo-
santes du vecteur X.
{τ ≤ t} ∈ Ft . (2.5)
Preuve.
Intuition 2.2.2 Les inégalités précédentes sont utiles pour obtenir des
informations sur le comportement de TOUTE la trajectoire d’une sous-
martingale (Mt )t≥0 en utilisant seulement les valeurs MT au temps final
T.
Dans tout ce qui suit, sauf mention explicite du contraire nous supposerons
B0 = 0.
Preuve. Pour le point 1 voir aussi l’exercice 2.6 page 70 . Pour le point 2 la
plupart des propriétés s’obtiennent immédiatement. L’indépendance de Bt −
Bs par rapport à Fs est une conséquence du caractère Gaussien (pour les
lois fini-dimensionnelles), du théorème de type classe monotone A.3 et du
Corrolaire A.1.
36
2 t/2
(i) : {Bt , t ≥ 0} , (ii) : {Bt2 − t, t ≥ 0} , (iii) : {eλBt −λ , t ≥ 0} .
Bt
lim 1 = 0 , P − p.s.
t→∞ t 2 +ε
√
Mise en garde 2.3.2 La v.a. Bt est de loi tN (0, 1) (ici N (0, 1)
désigne une variable normale centrée réduite). Donc tB1/2+ε t (ω)
est de loi
1
tε N (0, 1), et devrait être de plus en plus petit dans la limite t → ∞.
Mais la loi de tB1/2+ε
t (ω)
ne donne que des informations qu’à un temps fixé et
ne nous renseigne pas sur le comportement des trajectoires qui elles, dé-
crivent justement l’évolution par rapport au temps. Il faut donc chercher
une autre idée.
Bt (ω)
Technique importante 2.3.1 Notons que si ω est tel que t1/2+ε
ne
Btn (ω) (ω)
converge pas vers 0 alors on peut trouver une suite tn (ω) telle que t (ω)1/2+ε/2 ≥
n
1.
Par l’inégalité de Doob (Proposition 2.4 page 32) pour λ = (2n )1/2+ε/2 et en
√
tenant compte du fait que |Bt | a la même loi que t|N (0, 1)| il existe une
constante C0 dépendant seulement de la distribution de la loi normale telle
38
que :
(2n )1/2+ε/2 P(An ) ≤ C0 (2n+1 )1/2 , (2.7)
√
ou encore P(An ) ≤ (2Cn0)ε/2
2
. Mais alors pour Dm = ∪n≥m An il existe une
constante C1 telle que
√
X C0 2 C1
P(Dm ) ≤ = . (2.8)
n≥m
(2n )ε/2 ε/2
(2 )m
(2) L2
Ceci peut s’écrire encore Vt (B, ∆) −→ t. On dit que la variation quadra-
|∆|→0
(2)
tique sur [0, t] du mouvement brownien existe dans L2 et elle vaut Vt (B) = t.
particulier (en rappelant que le moment d’ordre 4 d’une loi normale centrée
réduite vaut 3) E[ξi2 ] = 2(ti − ti−1 )2 (voir aussi l’exercice 2.2 page 69). Donc
2
h i Xn
(2)
|Vt (B, ∆) − t|2 = E ξi , (2.10)
E
i=1
h i n h i
(2)
E |ξi |2 ,
X
E |Vt (B, ∆) − t|2 = (2.11)
i=1
ou encore,
h i n
(2) 2
X
E |Vt (B, ∆) − t| = 2 (ti − ti−1 )2
i=1
n
X
≤ 2|∆| (ti − ti−1 ) = 2t|∆|.
i=1
(2)
Ceci montre la convergence dans L2 de Vt (B, ∆) vers t lorsque |∆| tend vers
zéro.
(2)
lim |∆k | = 0 et lim Vt (B, ∆k ) = t P − p.s.
k→∞ k→∞
42
(2)
Par définition de Vt (B, ∆k ), on a
Nk 2 N k
n o
(2) X X
Vt (B, ∆k ) = Btk − Btk ≤ sup Btk − Btk Btk − Btk
i i−1 i i−1 i i−1
i=1 i=1 i
n o
(1)
≤ sup Btk − Btk Vt (B, ∆k ) .
i i−1
i=1,...,N k
(2)
Vt (B, ∆k )
Vt (B) ≥ lim n o = +∞ P − p.s.
k→+∞ sup B k − B k
t t i i−1
i
Remarque 2.3 Soit g une fonction dérivable sur l’intervalle [0, t]. On sup-
pose de plus que sa dérivée g 0 est bornée. Il est alors possible de montrer que
Vt (g) = 0t |g 0 |(s)ds < ∞, ainsi g a nécessairement une variation finie. Par
R
ailleurs Vt2 (g) = 0. La Proposition 2.15 nous indique que presque surement,
les trajectoires de B sur [0, t] n’admettent pas de dérivés bornée. En réalité,
on peut monter un résultat encore plus fort : les trajectoires du mouvement
Brownien sont nulle-part dérivables, cf. la Proposition 2.13 page 39.
Dans le Tableau 2.1 est présenté un résumé des conclusions obtenues jus-
qu’ici concernant les variations d’ordre 1 et 2 ; en particulier pour montrer que
la variation d’ordre deux d’une fonction C 1 est nulle utiliser le même type de
majoration que dans la Proposition 2.15. La variation d’ordre p est donc une
mesure de la régularité d’une fonction.
43
(2)
P − lim Vt (X, ∆n ) = hXit . (2.12)
n→∞
hX + Y it − hXit − hY it
hX, Y it = . (2.13)
2
(2)
donc nous n’aurons pas forcement Vt (B(·, ω)) = t pour tout ω ∈ Ω.
R
Pour en savoir plus 2.4.1 D’une manière générale, l’intégrale de f dg
peut être définie pour des fonctions f, g ayant respectivement des varia-
tions d’ordre p et q finies avec 1/p + 1/q > 1 (voir [8, 9, 7, 16]).
46
où {t0 ≤ · · · ≤ tn = T } est une subdivision de [0, T ] et (θi )0≤i≤n est une suite
de variables aléatoires telles que θi est Fti−1 -mesurable et la v.a. supi |θi | est
bornée. Dans toute la suite on note E := E(Ω, F, P; F) l’ensemble des processus
élémentaires définis sur l’espace de probabilité filtré (Ω, F, P; F).
Z t n
X
Hu dBu := θi Bt∧ti − Bt∧ti−1
0 i=1
Rt
Pour 0 ≤ s ≤ t ≤ T , on définit s Hu dBu par
Z t Z t Z s
Hu dBu := Hu dBu − Hu dBu .
s 0 0
Remarque 2.5 Notons que si k est l’entier tel que t ∈]tk , tk+1 ], alors
Z t k
X k
X
Hu dBu = θi Bti − Bti−1 +θk+1 (Bt − Btk ) = Hti Bti − Bti−1 +Ht (Bt − Btk ) .
0 i=1 i=1
(2.17)
En particulier : Z t
1dBu = Bt . (2.18)
0
Rt
3. Le processus { 0 Hu dBu , 0 ≤ t ≤ T } vérifie la propriété d’isométrie :
"Z
t 2 # Z t
E Hu dBu = E Hu2 du
0 0
2
Rt Rt 2
5. Le processus 0 Hu dBu − 0 Hu du, 0 ≤ t ≤ T est une F-martingale
qui démarre à zéro.
somme de variables aléatoires qui sont toutes Ft -mesurables, donc c’est une
variable aléatoire Ft -mesurable. La continuité des trajectoires
R du mouvement
t
Brownien permet aussi de vérifier que le processus 0 Hu dBu est à trajec-
t
toires continues.
R
t
Donc le processus 0 Hu dBu t est une martingale.
où
X h i
A := 2 E θi θj Bt∧ti − Bt∧ti−1 Bt∧tj − Bt∧tj−1
1≤i<j≤n
X
θi Bt∧t − Bt∧t −
= 2 EE θ j Bt∧t B t∧tj−1 Ftj−1
| i i−1 j
1≤i<j≤n
{z }
Ftj−1 mesurable
h i
= E θi Bt∧ti − Bt∧ti−1 θj E Bt∧tj − Bt∧tj−1 |Ftj−1 = 0.
| {z }
=0, car (Bu∧t )u≥0 martingale,
Ainsi
"Z 2 # " n #
t X h 2 i
E Hu dBu = E θi2 E Bt∧ti − Bt∧ti−1 |Fti−1
0 i=1
" n # Z t
X
= E θi2 (t ∧ ti − t ∧ ti−1 ) = E Hu2 du .
i=1 0
Z · Z t
h Hu dBu it = Hu2 du (2.22)
0 0
Soit ∆ = {t∆ ∆
0 = 0, · · · , tN = t} une subdivision de l’intervalle [0, t]. Nous
supposons que les points tk (qui interviennent dans la définition du processus
élémentaire H) font partie de la division ∆ ; alors
Z t∆ Z t∆
k k−1
Hu dBu − Hu dBu = Ht∆ Bt∆ − Bt∆ . (2.24)
0 0 k k k−1
Donc
Z · N 2
(2) X
Vt Hu dBu , ∆ = Ht2∆ Bt∆ − Bt∆ . (2.25)
0 k k k−1
k=1
52
" Z · Z t 2 #
(2)
err(∆) := E Vt Hu dBu , ∆ − Hu2 du
0 0
N
!2
X
= E Ht2∆ (∆Bk )2 − Ht2∆ ∆tk
k k
k=1
X N
X 2
∆
= fk,q + E Ht2∆ (∆Bk )2 − Ht2∆ ∆tk
k k
k6=q k=1
h i
∆
où fk,q = E Ht2∆ (∆Bk )2 − Ht2∆ ∆tk Ht2∆ (∆Bq )2 − Ht2∆ ∆tq .
k k q q
Ainsi,
N
X 2 N
X
err(∆) = E Ht2∆ (∆Bk )2 − Ht2∆ ∆tk ≤ 2(∆tk )2 C 4 (1 + E[B14 ])
k k
k=1 k=1
≤ 8tC 4 |∆|,
est majorée par (3n)2 C 4 |∆|2 donc tend vers zéro lorsque |∆| → 0.
(2.28)
r h i
RT
Proposition 2.21 La fonction : H 7→ E 0 Hu2 du définit une norme sur
L2 ([0, T ]). Elle sera notée ||H||L2 .
Lemme 2.1 L’ensemble des processus élémentaires E est dense dans L2 ([0, T ])
muni de la norme || · ||L2 . C’est à dire, pour tout processus H ∈ L2 ([0, T ]) il
existe une suite de processus élémentaires (H n )n≥1 ⊂ E telle que :
"Z #
T
||H − H n ||2L2 =E (Hu − Hun )2 du −−−→ 0
0 n→∞
Remarque 2.6 L’isométrie nous renseigne que la norme de I[·] en tant qu’ap-
plication linéaire de L2 dans M2 est bornée égale à 1. Donc en particu-
lier il s’agit d’une application continue et par exemple avec les notations du
Lemme 2.1 nous aurons que
et vérifie
Z t Z t
f (s)dBs ∼ N 0, f 2 (s)ds .
0 0
Le mouvement Brownien n’est donc pas différentiable pour autant (ce que lais-
serait penser le cas particulier α = 0, H = 1 !).
que :
"Z # "Z #
T T
2 2
E |αu | du < ∞ et E |Hu | du < ∞ .
0 0
Z t Z t
αu du = Hu dBu , ∀t ∈ [0, T ]. (2.36)
0 0
R· hR i
T
Nous savons (après calculs) que Eh 0 Hu dBu iT = E 0 |Hu |2 du .
58
Z · "N −1 Z 2 #
X tk+1
(2)
0≤E V ( αu du, ∆) = E αu du
0 k=0 tk
"N −1 Z tk+1 #
X
≤E (tk+1 − tk ) αu2 du
k=0 tk
"N −1 Z # "Z #
X tk+1 T
2
≤ |∆|E αu du = |∆|E αu2 du → 0. (2.37)
|∆|→0
k=0 tk 0
1. Variation quadratique de X :
Z t
hXit = |HuX |2 du. (2.38)
0
Preuve. Pour le premier point il faut considérer une division de taille conver-
geant vers zéro et majorer la partie α par la taille de la division, comme dans
la démonstration de la Proposition 2.23 (le cas α = 0 peut être traité en
premier si besoin). Pour les termes croisés majorer par Cauchy-Schwartz. Le
deuxième point est une conséquence immédiate du premier et de la définition
de la covariation quadratique.
59
Intuition 2.5.1 L’exercice 2.14 page 72 montre que 0T 2Bs dBs = BT2 −
R
√ ∂f √ ∂f 1 ∂2f
f (t, t) = f (0, 0) + (0, 0) t + (0, 0)t + t + o(t). (2.40)
∂y ∂x 2 ∂y 2
100 8
0.8
80
6 0.6
0.4
60
4 0.2
40 0
2 -0.2
20
-0.4
0 0 -0.6
0 20 40 60 80 100 0 2 4 6 8 10
-0.8
0 0.2 0.4 0.6 0.8 1
Rt Rt
Xt = X0 + 0 αu du + 0 Hu dBu . Alors, le processus Yt = f (t, Xt ) ∈ I et
Z t Z t
∂f ∂f
f (t, Xt ) = f (0, X0 ) + (u, Xu )du + (u, Xu )dXu
0 ∂t 0 ∂x
Z t 2
1 ∂ f
+ (u, Xu )dhXiu
2 0 ∂x2
Z t( )
∂f ∂f 1 ∂2f
= f (0, X0 ) + + αu + Hu2 (u, Xu )du
0 ∂t ∂x 2 ∂x2
Z t
∂f
+ Hu (u, Xu )dBu , (2.41)
0 ∂x
X ∈ I qui implique P − p.s. 0T |αu |du < ∞ nous permet de conclure que
R
P − p.s. 0T | ∂f 2 1 ∂2f
R
∂x (u, X(ω, u))αu |du < ∞. Les termes restants Hu 2 ∂x2 (u, Xu )du
et Hu ∂f
∂x (u, Xu )dBu se traitent d’une manière similaire. Nous obtenons donc
que
Z t( )
1 ∂2f
Z t
∂f ∂f ∂f
f (0, X0 )+ + αu + Hu2 (u, Xu )du+ Hu (u, Xu )dBu ∈ I.
0 ∂t ∂x 2 ∂x2 0 ∂x
(2.43)
Considérons une division t0 = 0 < t1 = ∆t < ... < tk = k∆t < ... < t =
N ∆t de [0, t]. Alors
N N
1 2
g 0 (Btk−1 ) Btk − Btk−1 + g 00 (ξk ) Btk − Btk−1 .
X X
g(Bt )−g(B0 ) = g(Btk )−g(Btk−1 ) =
k=1 k=1
2
(2.45)
Pour obtenir la dernière relation nous avons appliqué la formule de Taylor à
l’ordre 2. Le terme ξk peut s’écrire sous la forme ξk (ω) = λk (ω)Btk−1 (ω) +
(1 − λk (ω))Btk (ω) avec λk une fonction dépendant de Btk−1 et Btk donc
λk (ω) sera une v.a. Ftk mesurable. Donc nous pouvons supposer que ξk est
Ftk mesurable. Le terme N 0
k=1 g (Btk−1 ) Btk − Btk−1 converge, d’après le
P
Théorème 2.4 page 55, en probabilité vers 0t g 0 (Bu )dBu . Nous allons mon-
R
2
trer que le terme N 1 00
k=1 2 g (ξk ) Btk − Btk−1
P
converge vers la même limite
PN 1 00
que k=1 2 g (Btk−1 ) (tk − tk−1 ) ; or nous savons que ce dernier converge vers
R t 1 00 PN 1 00 2
0 2 g (Bu )du. Il reste donc seulement à montrer que la limite de k=1 2 g (ξk ) Btk − Btk−1 −
62
1 00
2 g (Btk−1 ) (tk − tk−1 ) est nulle. Écrivons :
N
1X 2
g 00 (ξk ) Btk − Btk−1 − g 00 (Btk−1 ) (tk − tk−1 ) (2.46)
2 k=1
N
1X 00 2 h 2 i
g (ξk ) − g 00 (Btk−1 ) Btk − Btk−1 + g 00 (Btk−1 ) Btk − Btk−1 − (tk − tk−1 ) .
=
2 k=1
i2
N
X h 2
00
g (Btk−1 ) Btk − Btk−1 − (tk − tk−1 )
E
k=1
N h i2
2
E g 00 (Btk−1 )
X
= Btk − Btk−1 − (tk − tk−1 ) + (termes croisés nuls)
k=1
N N
h 2 i t2
≤ max |g 00 (x)|2 = max |g 00 (x)|2 2(∆t)2 = 2 max |g 00 (x)|2
X X
V ar Btk − Btk−1
x∈R
k=1
x∈R
k=1
x∈R N
N
X h i
2
g 00 (Btk−1 ) Btk − Btk−1 − (tk − tk−1 )
−→ 0. (2.47)
N →∞
k=1 L2
vers 0 donc son espérance aussi (par convergence dominée car g 00 est bornée) ;
le deuxième converge vers la variation quadratique du Brownien, i.e., t. Nous
obtenons donc :
N
X
00 2
g (ξk ) − g 00 (Btk−1 ) Btk − Btk−1
−→ 0. (2.48)
N →∞
k=1 L1
Preuve. Par identité polaire à partir de la formule de Itô pour les processus
X 2 , Y 2 et (X + Y )2 .
Nous notons également sous forme différentielle : dXt = αt dt + dk=1 Htk dBtk .
P
Z t d Z t
X
Xt = X0 + αu du + Hu` dBt` ,
0 `=1 0
Z t d Z t
X
Yt = Y0 + βu du + Ku` dBt` , (2.54)
0 `=1 0
d Z t
X
hX, Y it = Hu` Ku` du. (2.55)
`=1 0
Z t d Z t
X
Xtk = X0k + αuk du + Huk,` dBu` . (2.56)
0 `=1 0
Théorème 2.7 Soit T > 0 et a(·, ·), b(·, ·) : [0, T ] × R → R des fonctions
mesurables telles qu’il existe des constantes C, L > 0 satisfaisant :
ou en notation différentielle
Théorème 2.8 Soit (Mt )t∈[0,T ] une martingale par rapport à la filtration na-
turelle d’un mouvement Brownien (Bt )t≥0 . Supposons que M ∈ M2 ([0, T ])(donc
pour tout t ∈ [0, T ] : E[Mt2 ] < ∞). Alors il existe un processus adapté (Ht )t∈[0,T ]
tel que Z t
Mt = M0 + Hs dBs . (2.64)
0
hR i
T
De plus E 0 Hs2 ds < ∞ (c’est à dire H ∈ L2 ([0, T ])).
d(Zt Xt ) = Xt dZt +Zt dXt +dhZ, Xit = Xt HtZ dBt +Zt αt dt+Zt HtX dBt +HtX HtZ dt.
(2.67)
Pour que Zt Xt soit martingale il faut que le coefficient devant dt soit
nul, c’est à dire Zt αt + HtX HtZ = 0. Remarquons que si HtX = 0 cette
condition peut ne pas être satisfaite. Mais ceci est naturel car alors la
partie aléatoire de Xt est nulle et donc il n’est pas raisonable de demander
que Xt soit une martingale.
Soit donc HtX > 0 P − p.s. et pour tout t ∈ [0, T ] ; alors il faut
choisir HtZ = − ZHt αXt ou encore dZt = − HαXt Zt dBt . Donc Zt est solution
t t
d’une EDS qui dépend du processus Xt avec condition initiale Z0 = 1. Sa
solution est Zt = exp{Mt − 12 hM it } avec Mt = 0t − HαX
R s
dBs . Pour s’en
s
convaincre il suffit d’utiliser la formule d’Îto pour la fonction expoentielle
appliquée au processus d’Îto :
1 1 αs2 αs
d Mt − hM it = − dt − X dBt . (2.68)
2 2 (HtX )2 Ht
2.7 Exercices
Dans tous les exercices de ce chapitre, on considère un espace de probabilité
(Ω, F, P) muni d’une filtration F := {Ft , t ≥ 0}. On considère également un
F-mouvement Brownien standard B = {Bt , t ≥ 0}.
Exercice 2.2 (Continuité du mouvement Brownien, cf. Thm. A.4 page 199)
Soit X = {Xt , t ≥ 0} un processus stochastique tel que pour tous 0 ≤ s <
t, Xt − Xs est de loi N (0, t − s). Montrer que
u2
E[euX ] = e 2 .
St
E [Φ(St )|Fs ] = φ(Ss ) où φ : x 7→ E Φ(x ) .
Ss
70
Exercice 2.4 (Martingales, cf. Prop. 2.7 page 36) Montrer que chacun
des processus suivant est une F-martingale :
1. {Bt , t ≥ 0} ;
2. {Bt2 − t, t ≥ 0} ;
3. {Bt3 − 3tBt , t ≥ 0}
2 t/2
4. {eσBt −σ , t ≥ 0}, σ ∈ R.
Exercice 2.5 Corriger les formules ci-dessous pour que les affirmations sui-
vantes soient vraies :
1. {2 + Bt , t ≥ 0} est une F-martingale ;
2. {2 + B2t , t ≥ 0} est une F-martingale ;
3. { B√3t2 , t ≥ 0} est un mouvement Brownien ;
tB4/t
4. { √ ,t
2
> 0} est un mouvement Brownien.
Bn
Exercice 2.9 Soit A = {lim supn √
n
≥ x}, où x > 0 est fixé.
1. Montrer que pour tout m ∈ N∗ , l’événement A est indépendant de Fm .
En déduire que P(A) vaut 0 ou 1.
71
Bn Bn
lim sup √ = +∞ et lim inf √ = −∞, P p.s..
n→∞ n n→∞ n
F = {ω ∈ Ω, il existe un intervalle non trivial I de R+ tel que t 7→ Bt (ω) soit monotone sur I} .
Montrer que
[
F = {ω ∈ Ω, t 7→ Bt (ω) est monotone sur [s, v]}
s,v∈Q+ , s<v
2. Soient :
et
A = {ω ∈ Ω, t 7→ Bt (ω) est croissante sur [0, 1]} .
n−1
\ n o
∀n ≥ 1, An = ω ∈ Ω, B i+1 (ω) − B i (ω) ≥ 0
n n
i=0
Exercice 2.14 (Sommes de Riemann, cf. Théorème 2.4, page 55) Soit
∆ : t0 = 0 < t1 < ... < tN = T une division de [0, T ].
1. Calculer la limite en L2 (si elle existe) de la somme de type Riemann
N
X −1
S1 = Btk Btk+1 − Btk ; (2.71)
k=0
lorsque |∆| → 0.
2. Calculer la limite en L2 (si elle existe) de la somme de type Stratonovich
N
X −1
S2 = B tk +tk+1 Btk+1 − Btk ; (2.72)
2
k=0
lorsque |∆| → 0.
1. Justifier que pour tout t ≥ 0 la variable aléatoire Xtf est bien définie et
montrer que
t n−1 k
Xtf = lim Xtf,n presque sûrement où Xtf,n :=
X
Bk f t
n→∞ n k=0 n t n
73
2. Vérifier que pour tout t ≥ 0 et tout n ≥ 1, Xnf est une variable aléatoire
gaussienne. Calculer sa moyenne et sa variance. En déduire la loi de
Xtf .
hR i h R i
t t
3. Calculer E 0 Bs ds et E ( 0 Bs ds)2 .
n Rt o
4. Le processus M = Mt = 0 Bs ds; t ≥ 0 est il un mouvement Brow-
nien ? Une martingale ?
1. Justifier que l’on peut définir sur (Ω, FTB ) une mesure de probabilité QT
équivalente à P en posant : dQ dP = LT .
T
EP [ZLT |FtB ]
EQT [Z|FtB ] = .
Lt
2t −n
P (|S n − t| > ε) ≤ 2
ε2
Exercice 2.19 (Intégrale de Wiener, cf. Proposition 2.22 page 54) Soit
T > 0 un horizon de temps fixé. Le but de cet exercice est d’étudier l’intégrale
stochastique de la forme
Z t
f (u)dBu
0
Pour simplifier les notations, on écrira dans la suite L2 ([0, T ]) = L2 ([0, T ], B([0, T ]), dx).
On note S([0, T ]) l’ensemble des fonctions f de la forme
N
X −1
f : x→ ak 1]tk ,tk+1 ] (x)
k=0
N
X −1
IS (f ) := ak (Btk+1 − Btk )
k=0
telle que
Z T
∀f ∈ S[0, T ], I(f ) = IS (f ) et ∀f ∈ L2 ([0, T ]), E[I(f )2 ] = ||f ||L2 = f 2 (x)dx.
0
Exercice 2.21 1. Calculer, avec puis sans utiliser la formule de Itô, la co-
variance des variables aléatoires X = 01 0t 1dsdBt et Y = 01 0t 1dBs dt.
R R R R
R1Rt R1Rt
2. En conclure si 0 0 1dsdBt est égal à 0 0 1dBs dt ou pas.
Exercice 2.22 (Formule d’Itô) Montrer que chacun des processus suivants
est un processus d’Itô
1. Xt = Bt3 , t ≥ 0.
2. St = S0 exp (µ − σ 2 /2)t + σBt , t, S0 ≥ 0.
Exercice 2.23 Soit T > 0 un nombre réel fixé et (Bt )t≥0 un mouvement
brownien standard. Trouver le processus HT (t, ω), t ∈ [0, T ], tel que
Z T
BT3 = HT (t, ω)dBt .
0
RT
On commencera par écrire YT = 0 Bt dt sous une forme similaire.
77
On suppose de plus que ∂x u est une fonction bornée. Montrer alors que :
2 /2)t+σW
admet une solution unique. Montrer que cette solution est St = S0 e(µ−σ t S0 .
79
80
ou encore par
Z t Z t
dṼt = θt dS̃t c’est à dire Ṽt = Ṽ0 + θu (µ − r)S̃u du + θu σ S̃u dB(3.6)
u .
0 0
Dans toute la suite, nous allons décrire une stratégie financière autofinancée
par la donnée d’un couple (x, θ) ∈ R × A où x représente le capital initial
permettant de construire la stratégie et θ est le processus décrivant l’investis-
sement en actif risqué S avec θt le nombre d’unités de S détenues à la date t.
On note Vtx,θ la valeur à la date t de cette stratégie. On a
Z t Z t
Vtx,θ = St0 Ṽtx,θ et Ṽtx,θ = x/S00 + (µ − r)θu S̃u du + σθu S̃u dBu(3.9)
0 0
82
?
Proposition 3.3 Soit un actif contingent de payoff G. Supposons que EQ [G2 ] <
∞. Alors
1. l’actif G admet une stratégie de réplication (xG , θG ).
2. sous la condition d’absence d’opportunités d’arbitrage A.O.A, son prix à
la date t, noté pG
t , est donné par :
?
h i ?
h i
pG 0 Q
t = St E G/ST0 |Ft = EQ e−r(T −t) G|Ft . (3.18)
Q? , nous avons Ṽtx,θ = x + 0t θu σ S̃u dBu? ) donc Ṽtx,θ est une martingale (l’inté-
R
grabilité est obtenue par définition des stratégies admissibles θ). Nous savons
que, par AOA, Vtx,θ = pG t . En particulier, par propriété martingale :
?
h i ?
h i
x,θ
e−rt pG
t = Ṽt = EQ ṼTx,θ |Ft = EQ Ge−rT |Ft , (3.19)
que Z t
Mt = M0 + Hs dBs? . (3.20)
0
2. Z (x,θ) vérifie dZ̃ (x,θ) = σθt S̃t dBt? = Ht dBt? = dMt ce qui implique
(x,θ)
Z̃ (x,θ) = Mt et donc Zt = ert Mt ;
3. si G ≥ 0 la valeur ert Mt de cette stratégie à l’instant t est positive ;
4. sa valeur à l’instant T est erT MT = G.
Proposition 3.4 (unicité) Sous AOA la probabilité risque neutre est unique
dans le modèle Black & Scholes.
(c) définir des scénarios sur [0, T ] par assemblage de la trajectoire (pas-
sée) sur [0, t] et des scénarios simulés sur [t, T ] : ω ` := {Sτ ; τ ≤
t} ∪ {Sv` , v ∈ [t, T ]}, ` = 1,...,L.
(d) calculer ensuite numériquement, par exemple par une moyenne em-
pirique
PL `)
`=1 G(ω
?
h i
pG
t =E
Q
e−r(T −t) G|Ft ' e−r(T −t) (3.22)
L
?
h i
pG
t =E
Q
e−r(T −t) Φ(ST )|Ft (3.23)
h i
Q? σ(BT? −Bt? )+(r−σ 2 /2)(T −t)
=E e−r(T −t) Φ(St e ) Ft = uG (t, S(3.24)
t ),
Pour la dernière égalité nous avons utilisé la propriété A.17 page 195
(voir aussi l’exercice 2.3 page 69). Comme sous la proba Q? le processus
B ? est un mouvement Brownien l’incrément BT? − Bt? est une variable
normale centrée de variance T − t. Donc
2
√ e−y /2
Z ∞
G −r(T −t) (r−σ 2 /2)(T −t)+σy T −t
u (t, x) = e Φ(xe ) √ dy. (3.26)
−∞ 2π
87
Pour le cas d’un call Φ(x) = (x − K)+ et alors nous obtenons la formule
de Black & Scholes pour le prix d’un call européen :
Z d −y2 /2
call,K −r(T −t) e
u (t, x) = xN (d1 ) − e KN (d2 ), N (d) = √ dy,
−∞ 2π
(3.27)
avec
log(x/K) + (r + σ 2 /2)(T − t) √
d1 = √ , d2 = d1 − σ T − t. (3.28)
σ T −t
Par ailleurs :
Z t Z t
G ,θ G
uG (t, St )e−rt = Ṽtx = xG + θvG S̃v σdBv? = uG (0, S0 )+ e−rv θvG Sv σdBv? .
0 0
(3.30)
Par identification nous en déduisons que :
1
∂t uG (u, Su ) + σ 2 Su2 ∂xx uG (u, Su ) + rSu ∂x uG (u, Su ) = ruG (u, Su )
2
Ce raisonnement nous permet de voir que la fonction prix d’un actif contin-
gent G est liée à l’équation aux dérivées partielles (EDP) :
1
∂t uG (t, x) + σ 2 x2 ∂xx uG (t, x) + rx ∂x uG (t, x) = ruG (t, x), ∀(t, x) ∈ [0, T [×R(3.32)
+
2
Cette EDP est appelée équation de Black & Scholes. De plus, la fonction
prix vérifie la condition terminale :
tion donnée ; par contre il faut un calcul EDP pour toute nouvelle option.
L’avantage du calcul EDP est qu’il permet de connaitre d’une manière
très robuste la stratégie de réplication de l’option donc il offre une moda-
lité pratique de couverture du risque apporté par l’actif contingent.
Donc le prix d’un call européen est égal au prix d’un call américain. Cette
propriété est spécifique au call et ne marche plus, par exemple, pour le put.
92
2 /2)t+σB
St0 = ert St = S0 e(µ−σ t
?
h i
1. On pose u(t, x) = EQ e−r(T −t) G|St = x . Déterminer l’expression de
u(t, x) en fonction de x, t, r, σ, K et de la fonction N : y 7→ N(y) =
P[Z ≤ y] où Z ∼ N (0, 1).
2. Calculer la probabilité sous P et sous Q? que l’option soit exercée.
3. Vérifier que u est une fonction de classe C 1,2 sur [0, T [×R∗+ . Déterminer
les expressions de
1
∂t u(t, x) + σ 2 x2 ∂xx u(t, x) + rx∂x u(t, x) = ru(t, x), ∀(t, x) ∈ [0, T [×R∗+
2
u(T, x) = max{x − K, 0}, ∀x ∈ R∗+
Exercice 3.4 Soit, avec les notations du cours, un call européen de maturité
T et strike K sur un actif St qui suit la dynamique Black & Scholes
dSt
= µdt + σt dBt ,
St
Exercice 3.5 Soit, avec les notations du cours, un call asiatique G de matu-
rité T et strike K sur un actif St qui suit la dynamique Black & Scholes :
" Z T ! #
1
G= St dt − K (3.38)
T 0 +
Montrer que son prix est inférieur à celui d’un call européen ayant les même
caractéristiques.
Exercice 3.6 Soit T > 0 et C E (t, S, K) le prix à l’instant t ∈ [0, T ] d’un call
européen de maturité T et strike K lorsque le prix du sous-jacent est égal à
S. On introduit pour toute valeur de K un autre produit dérivé, appelé le call
digital, qui est l’actif indépendant du chemin de pay-off G = 1ST ≥K ; son prix
sera noté C D (t, S, K). On suppose que C D est continue par rapport à K et
que C E est de classe C 1 par rapport à K.
1. Pour tous K, ∆K > 0 on considère un portefeuille de valeur Π1t conte-
nant ∆K calls digitaux de strike K et un call européen de strike K +∆K.
Soit un autre portefeuille de valeur Π2t contenant ∆K calls digitaux de
strike K + ∆K et un call européen de strike K + ∆K. Montrer que pour
tout t ∈ [0, T ] on a
Π1t ≥ C E (t, S, K) ≥ Π2t .
E (t,S,K)
2. En déduire que C D (t, S, K) = − ∂C ∂K .
3. Supposons que St suit le modèle de Black et Scholes : dSt /St = µdt +
σdBt ; trouver explicitement la stratégie xG , θG qui réplique G en fonction
de K, T, σ, µ, r et de la fonction de répartition de la loi normale centrée
réduite.
Exercice 3.7 Soit T > 0 et C E (t, x) le prix d’un call européen de maturité T ,
strike K à l’instant t ≤ T et lorsque le prix St du sous-jacent est égal à x. Le
95
Exercice 3.8 Soit un marché composé d’un actif sans risque suivant la dyna-
mique St0 = ert et d’un actif risqué suivant la dynamique de Black et Scholes
dSt
= µdt + σdBt ,
St
G = (CT1 (T, S, K) − K1 )+ .
σ2
√
v(θ, x) = E[e−rθ (u(T1 , xe(r− 2
)θ+σ θg
) − K1 )+ ]
avec
σ2
log xx1 + (r − 2 )θ
d= √
σ θ
où x1 est l’unique solution de u(T1 , x) = K1 et N : y 7→ N(y) = P[Z ≤
y] où Z ∼ N (0, 1).
3. Montrer qu’en prenant θ = T1 − t on a
√ √ 2
−rθ σ( θg+ θ1 g1 )− σ2 (θ+θ1 ) −r(θ+θ1 )
v(θ, x) + K1 e N(d) = E xe − Ke 1A
√
( )
p x σ2
A= σ( θg + θ1 g1 ) > −(log + (r − )(θ + θ1 )) ∩ {g > −d} .
K 2
Or, par définition, Ṽtk = hθtk , S̃tk i et Ṽtk−1 = hθtk−1 , S̃tk−1 i. Par conséquent
97
98
donc VTstr1 ≤ VTstr2 d’où Vtstr1 ≤ Vtstr2 d’après le Corolaire 1.1 page 10 ce qui
prouve (4.4). La preuve de la convexité du prix du put par rapport au prix
d’exercice s’obtient en raisonnant de la même façon ou encore en partant de
101
1. D’après (1.1) page 2 on a St0k = St00 er(tk −t0 ) ainsi St00 = 100, St01 = 106
et St02 = 112.36. De plus Ṽtk = Vtk /St0k d’où Ṽt0 = 10, Ṽt1 = 10 et
Ṽt2 = 9.274.
2.
Le portefeuille
d’après(1.7) page 6 on a Ṽt1 = Ṽt0 +
étant auto-financé,
θ • ∆S̃ . Or Ṽt = Ṽt d’où θ • ∆S̃ = θ 1 S̃ 1 − θ 1 S̃ 1 = 0 par
1 0 t1 t1 t1 t0
t1 t1
conséquent θt11 = 0 puisque S̃t11 = 1.132 et S̃t10 = 1. De plus, Vt0 = θt01 St00 +
θt11 St10 donc θt01 = 10. En raisonnant de même on voit que Ṽt2 − Ṽt1 =
θt12 S̃t12 − θt12 S̃t11 = −0.726 donc θt12 = 3 puisque S̃t12 = 0.89 et S̃t11 = 1.132.
Comme Vt1 = θt02 St01 + θt12 St11 on obtient finalement θt02 = 6.604.
Exercice 1.5
2. Pour tout k = 1, · · · , N Vtk = θt0k St0k + θt1k St1k d’où, d’après la question
102
précédente,
Vtk−1 0 Vt
Vtk = Stk + k−1 S1
0
2Stk−1 2St1k−1 tk
1 St0k 1 St1k
!
= Vtk−1 + .
2 St0k−1 2 St1k−1
Exercice 1.6
1. D’après la définition A.6 page 195 on doit vérifier que
(a) Pour tout n ≥ 0 on a E[|Xn |] < ∞. Ici, pour tout n ≥ 1 on
a |Xn | ≤ nk=1 |ξk | donc E[|Xn |] ≤ nk=1 E[|ξk |] = nE[|ξ1 |] < ∞
P P
puisque ξ1 , . . . , ξn ont tous même loi et que cette loi est de variance
finie. On a même E[Xn2 ] < ∞.
(b) Pour tout n ≥ 0 on a E[Xn+1 |Fn ] = Xn . Ici, pour tout n ≥ 0
2
E[Xn+1 |Fn ] = E[(ξ1 + · · · + ξn+1 )2 |Fn ]
= E[(ξ1 + · · · + ξn )2 + 2ξn+1 (ξ1 + · · · + ξn ) + ξn+1
2
|Fn ]
= E[(ξ1 + · · · + ξn )2 |Fn ] + E[2ξn+1 (ξ1 + · · · + ξn )|Fn ] + E[ξn+1
2
|Fn ]
= (ξ1 + · · · + ξn )2 + 2(ξ1 + · · · + ξn )E[ξn+1 |Fn ] + E[ξn+1
2
]
= Xn2 + E[ξn+1
2
]
Supposons qu’il existe une suite de réels (an )n≥0 telle que a0 = 0 et
(Xn2 − an )n≥0 soit une martingale et montrons que cette suite est néces-
sairement unique. Si (Xn2 − an )n≥0 est une martingale, pour tout n ≥ 0
on a
2
E[Xn+1 − an+1 |Fn ] = Xn2 − an
et par ailleurs
2 2
E[Xn+1 − an+1 |Fn ] = E[Xn+1 |Fn ] − an+1
= Xn2 + E[ξn+1
2
] − an+1
(an )n≥0 ∈ R telle (Xn2 − an )n≥0 soit une martingale. Pour tout n ≥ 0 la
variable aléatoire Xn2 − an est clairement intégrable et on a de plus
2 2
E[Xn+1 − an+1 |Fn ] = E[Xn+1 |Fn ] − an+1
n+1
X
= Xn2 + 2
E[ξn+1 ] − E[ξk2 ]
k=1
n
X
= Xn2 − E[ξk2 ]
k=1
= Xn2 − an ,
et par ailleurs
1/2
E[Xn2 ]E[Yn2 ] < ∞ et on a de plus
pG +
t2 (75) = (75 − 100) = 0. Une fois les données de cette colonne complétées
on effectue les calculs correspondant à la date t1 . Ainsi pG 1 1 1
t1 (St1 ) et θt2 (St1 ) se
calculent à l’aide des formules (1.31) page 19. Par exemple
−r∆t
pG
t1 (150) = e × q × (150 × u − 100)+ + (1 − q) × (150 × d − 100)+
et
pG G
t2 (150 × u) − pt2 (150 × d)
θt12 (150) = .
150 × u − 150 × d
Les quantités relatives à t0 se calculent de la même façon une fois que les
quantités relatives à t1 ont été calculées. Au total
106
225
125
NA
%
150
75
5/6
% &
100 75
St1 225/5 0
k
3/4 NA
pG 1
t (St )
k k
: .
θt1 (St1 ) .
k+1 k . & %
. 50
.
. 0
0
. .
. .
. . &
. . 25
. .
. . 0
NA
. . .
. . .
. . .
t0 t1 t2 = T
Exercice 1.8
1. D’après (1.24) page 17 on a q = 0.6.
270
190
NA
%
180
107.272
1
% &
120 90
60.463 10
0.848 NA
% & %
80 60
34.065 5.454
0.719 0.167
.
.
. & % &
. 40 30
.
. 2.974 0
0.136 NA
. .
. .
. . & %
. . 20
. .
. . 0
NA
. . .
. . .
. . . &
. . . 10
. . .
. . . 0
NA
t0 t1 t2 t3 = T
Exercice 1.9 Exercice 1.9 On suppose que l’actif risqué évolue sur un arbre
trinomial : à chaque date sa valeur peut être multipliée par le facteur u ("up")
ou par le facteur m ("middle") ou par le facteur d ("down") avec 0 < d < m < u.
En raisonnant comme dans le cas de l’arbre binomial on voit qu’il suffit que
108
pour que le processus S̃ soit une martingale sous Q. Mais ces conditions in-
duisent un système de deux équations à trois inconnues qui peut admettre
plusieurs solutions et donc la probabilité risque neutre ne pas être unique.
Exercice 1.10 Supposons que ST1 prends ses valeurs dans {s1 , . . . , sM }. Pour
tout 1 ≤ j ≤ M on considère l’actif contingent de pay-off Gj = 1S 1 =sj .
T
Le marché étant complet cet actif est réplicable et d’après la Proposition 1.7
j −r(T −tk ) EQ [Gj |F ]. En particulier en prenant
page 14 pour tout tk ∈ T pGtk = e tk
Gj −rT −rT
tk = t0 on a pt0 = e E [1S 1 =sj |Ft0 ] = e
Q Q(ST1 = sj ). Ainsi, dans ce
T
modèle, la connaissance de la probabilité risque neutre est équivalente à la
connaissance des prix de tous les actifs contingents de pay-off Gj = 1S 1 =sj . Si
T
d > 1 en considérant tous les actifs contingents de payoff
on voit, en raisonnant de même, que la connaissance des prix des ces ac-
tifs contingents en t0 est équivalente à la connaissance de la loi jointe des
ST1 , . . . , STd sous Q.
Q −r(T −tk )
pG 1 1
tk (St0 , . . . , Stk ) = E [e φ(St10 , . . . , ST1 )|Ftk ]
hh i i
= EQ EQ [e−r(T −tk ) φ(St10 , . . . , ST1 ) Ftk+1 Ftk
h i
= EQ e−r∆t pG 1 1
tk+1 (St0 , . . . , Stk+1 ) Ftk
h i
= EQ e−r∆t 1{Yk+1 =u} + 1{Yk+1 =d} pG 1 1
tk+1 (St0 , . . . , Stk+1 ) Ftk
h i
= e−r∆t EQ 1{Yk+1 =u} pG 1 1 G 1 1
tk+1 (St0 , . . . , Stk u) + 1{Yk+1 =d} ptk+1 (St0 , . . . , Stk d) Ftk .
Puisque pG 1 1 G 1 1
tk+1 (St0 , . . . , Stk u) et ptk+1 (St0 , . . . , Stk d) sont des fonctions Ftk -mesurables
alors que 1{Yk+1 =u} et 1{Yk+1 =d} sont indépendantes de Ftk on obtient l’expres-
sion (1.36) après utilisation des propriétés élémentaires de l’espérance condi-
tionnelle (Proposition A.5 page 194). On remarquera que (1.36), combiné au
fait évident que pG tN = φ, détermine de façon unique par récurrence descen-
dante une famille pG tk , tk ∈ T , de fonctions définies sur les valeurs possibles de
1 1
(St0 , . . . , Stk ) à chaque date tk .
er∆t pG 1 1 1 1 1 r∆t
tk (St0 , . . . , Stk ) + θtk+1 (Stk+1 − Stk e ) = pG 1 1
tk+1 (St0 , . . . , Stk+1 ).
Ceci, selon les valeurs possibles de St1k+1 , conduit à un système de deux équa-
110
tions
er∆t pG 1 1 1 1
tk (St0 , . . . , Stk ) + θtk+1 Stk (u − e
r∆t
) = pG 1 1 1
tk+1 (St0 , . . . , Stk , Stk u)
er∆t pG 1 1 1 1
tk (St0 , . . . , Stk ) + θtk+1 Stk (d − e
r∆t
) = pG 1 1 1
tk+1 (St0 , . . . , Stk , Stk d)
pG
t (St1 ,...,St1 ,St1 u)−pG
t (St1 ,...,St1 ,St1 d)
On obtient donc θt1k+1 = k+1 0 k k k+1
St1 u−St1 d
0 k k
, c’est à dire la
k k
formule attendue pour θ1 . On remarque à nouveau que θ1 est égal au quotient
entre la variation du prix du dérivé et la variation du produit sous-jacent. La
stratégie θ ainsi construite permet de répliquer G ce qui conclut la preuve.
Exercice 2.1
Ainsi ΦBt est l’unique solution de l’équation différentielle f 0 (u) = −utf (u)
u2
vérifiant f (0) = 1 donc ΦBt (u) = e−t 2 .
111
et pour tout a ∈ R
Z a
1 − x2
E[Bt 1Bt ≤a ] = x√ e 2t dx
−∞ 2πt
a
1
x2
= √ −te− 2t
2πt −∞
r
t − a2
= − e 2t .
2π
3. Une intégration par parties nous montre que si X est une variable aléa-
toire de loi N (0, 1) alors
Z ∞
1 x2
E[X 4 ] = x4 √ e− 2 dx
−∞ 2π
1 3 − x2 ∞
Z ∞
1
x2
= √ x e 2 + 3x2 √ e− 2 dx
2π −∞ −∞ 2π
= 3.
Bt
Comme pour tout t > 0 la variable aléatoire √
t
est de loi N (0, 1) il vient
Bt
E[|Bt |4 ] = t2 E[| √ |4 ]
t
2
= 3t
Exercice 2.2 Puisque X est tel que pour tous 0 ≤ s < t l’accroissement
Xt − Xs est de loi N (0, t − s) la variable aléatoire X√t −X
t−s
s
est de loi N (0, 1).
112
Exercice 2.3
Exercice 2.4
2 t/2 2 t/2
E[eσBt −σ |Fs ] = E[eσ(Bt −Bs +ăBs )−σ |Fs ]
σBs −σ 2 t/2 σ(Bt −Bs )
= e E[e |Fs ]
σBs −σ 2 t/2 σ(Bt −Bs )
= e E[e ]
−σ 2 t/2 σ 2 (t−s)/2
= eσBs e
−σ 2 s/2
= eσBs .
Exercice 2.5
tB
4. On va montrer que { 24/t , t > 0} prolongé avec 0 en t = 0 est un mou-
vement Brownien. En effet, il s’agit d’un processus gaussien centré à
trajectoires continues pour tout t > 0 et à accroissements indépendants,
puisque B est un mouvement brownien. De plus, pour tous 0 < s ≤ t
tB tB4/t
donc { 24/t , t > 0} a même loi que {Bt , t > 0} et en particulier lim supt→0+ 2 =
tB
0 P presque sûrement. Il en découle que { 24/t , t > 0} prolongé avec 0
en t = 0 est un mouvement Brownien.
Exercice 2.6
116
var(Bt , Bs ) = E[Bt Bs ]
= E[(Bt − Bs + Bs )Bs ]
= E[(Bt − Bs )Bs ] + E[Bs2 ]
= E[E[(Bt − Bs )Bs |Fs ]] + s
= E[Bs E[(Bt − Bs )|Fs ]] + s
= E[Bs E[(Bt − Bs )]] + s
= s
Exercice 2.7 On va démontrer qu’un processus gaussien B qui est une mar-
tingale continue vérifiant B0 = 0 et tel que Bt2 − t est une martingale est
nécessairement un mouvement Brownien. D’après la Proposition 2.6 page 35,
il suffit de démontrer que pour un tel processus on a nécessairement E[Bt ] = 0
et var(Bt , Bs ) = min(t, s). Or B étant une martingale E[Bt ] = E[B0 ] = 0 et
117
var(Bt , Bs ) = E[Bt Bs ]
= E[E[Bt Bs |Fs ]]
= E[Bs E[Bt |Fs ]]
= E[Bs2 ]
= E[Bs2 − s] + s
= E[B02 − 0] + s
= s
λ2
= eiλXs + 2
s
d’après l’exercice 2.1. Supposons à présent que X = {Xt , t ≥ 0} est tel que
pour tout λ ∈ R le processus M λ est une F martingale. Alors pour tous
0 ≤ s ≤ t et tout λ ∈ R on a
λ2
h
E eiλ(Xt −Xs ) Fs ] = e− (t−s)
.
2
118
1. Pour tout m ∈ N∗ on a
Bn Bn − Bm
A = {lim sup √ ≥ x} = {lim sup √ ≥ x}
n n n n
Bn − Bm
= lim sup{ √ ≥ x}
n n
Bk − Bm
= ∩l≥1 ∪k≥l { √ ≥ x}
n
Bk − Bm
= ∩l≥m ∪k≥l { √ ≥ x}.
n
Bn
A = {lim sup √ ≥ x}
n n
Bl
= ∩l≥1 ∪k≥l { √ ≥ x}
l
donc
Bl
P(A) = lim P(∪k≥l { √ ≥ x})
l→∞ l
Bl
≥ lim P({ √ ≥ x})
l→∞ l
= P(X ≥ x)
où X est de loi N (0, 1). Donc P(A) > 0 par conséquent P(A) = 1.
119
Bn
P({lim sup √ ≥ m}) = 1.
n n
Or
Bn Bn
P({lim sup √ = ∞}) = P(∩m≥1 {lim sup √ ≥ m})
n n n n
Bn
donc P({lim supn √ n
= ∞}) = 1. Par ailleurs, (−Bt )t≥0 est aussi un
mouvement Brownien donc P({lim supn −B
√ n = ∞}) = 1 donc P({lim inf n
n
Bn
√
n
=
−∞}) = 1.
n o
donc P( ω : supt≥0 Bt (ω) = ∞ et inf t≥0 Bt (ω) = −∞ ) = 1 ce qui prouve
la proposition 2.11 page 38 et la proposition 2.12 page 38.
Exercice 2.10
donc
[
{ω ∈ Ω, t 7→ Bt (ω) est monotone sur [s, v]} ⊂ F.
s,v∈Q+ ,s<v
tels que α < γ < δ < β et t 7→ Bt (ω) est monotone sur [γ, δ]. Ainsi
[
F ⊂ {ω ∈ Ω, t 7→ Bt (ω) est monotone sur [s, v]}
s,v∈Q+ ,s<v
n−1
P(An ) = P(∩i=0 {ω ∈ Ω, B i+1 (ω) − B i (ω) ≥ 0})
n n
n−1
Y
= P({ω ∈ Ω, B i+1 (ω) − B i (ω) ≥ 0})
n n
i=0
1
= .
2n
j j−1 j j−1
|f ( ) − f ( )| ≤ |f ( ) − f (s)| + |f (s) − f ( )|
k k k k
7n
≤
k
Par conséquent
vérifie
7n
[ [ \ [ \
D⊂ ω ∈ Ω, |B j (ω) − B j−1 (ω)| ≤ .
n≥1 m≥1 k≥m 0<i<kT +1 i≤j≤i+3
k k k
122
En posant
7n
[ \
Fn,k = ω ∈ Ω, |B j (ω) − B j−1 (ω)| ≤
0<i<kT +1 i≤j≤i+3
k k k
on a
[
D⊂ lim inf Fn,k .
k
n≥1
Bh (ω)
P ω : lim existe > 0. (4.7)
h→0+ h
123
Exercice 2.13
La somme des deux premiers termes tend vers (BT2 −T )/2 dans L2 quand
|∆| → 0 d’après la question précédente. On remarque que
N −1 2 !2
N −1 2 N −1
!2
X T X X tk+1 − tk
E B tk +tk+1 − Btk − = E B tk +tk+1 − Btk −
k=0 2 2 k=0 2
k=0
2
N
X −1 2 !
= var B tk +tk+1 − Btk
2
k=0
N
X −1 2 !
= var B tk +tk+1 − Btk
2
k=0
125
or pour tout k, 0 ≤ k ≤ N − 1
2 ! " 4 # 2
tk+1 − tk
var B tk +tk+1 − Btk = E B tk +tk+1 − Btk −
2 2 2
tk+1 − tk 2
2
tk+1 − tk
= 3 −
2 2
tk+1 − tk 2
= 2
2
donc
N −1 2 !2 N −1 2
X T X tk+1 − tk
E B tk +tk+1 − Btk − = 2
k=0 2 2 k=0
2
−1
|tk+1 − tk | NX tk+1 − tk
≤ 2 max
k 2 k=0
2
→ 0
2
PN −1
ainsi k=0 B tk +tk+1 − Btk tend vers T /2 dans L2 quand |∆| → 0
2
PN −1
B tk +tk+1 Btk+1 − Btk tend vers BT2 /2 dans L2 quand
si bien que k=0
2
|∆| → 0.
Exercice 2.15
1. On sait que P-presque sûrement s ∈ R 7→ Bs (ω) est continue. Ainsi,
P-presque sûrement, Xtf (ω) est définie pour tout t ≥ 0 comme intégrale
de Riemann d’une apllication continue. En particulier elle est limite des
sommes de Riemann associées, ce qui justifie que pour tout t ≥ 0, Xtf =
n−1
k
f,n f,n
X
t
limn→∞ Xt P-presque sûrement où Xt := n B k tf t .
k=0
n n
2. Pour tout entier n ≥ 1, la variable aléatoire Xtf,n est une combinaison
linéaire de composantes d’un processus gaussien, c’est donc une variable
aléatoire gaussienne. On a
t n−1 k
E[Xtf,n ] =
X
E[B k t ]f t
n k=0 n n
= 0
126
et
var(Xnf ) = E[(Xnf )2 ]
t2 n−1
X n−1 l k
X
= 2
E[B l t B k t ]f t f t
n k=0 l=0 n n n n
t2 n−1 l k l k
X
= 2
min{ t, t}f t f t
n k,l=0 n n n n
t2 n−1
Z tZ t
X l k l k
lim min{ t, t}f t f t = min(x, y)f (x)f (y)dxdy.
n→∞ n2 n n n n 0 0
k,l=0
Ainsi d’après la proposition A.4 page 192, pour tout t ≥ 0, Xtf est une va-
riable aléatoire gaussienne centrée de variance 0t 0t min(x, y)f (x)f (y)dxdy.
R R
hR i
t
3. Ici on prend f = 1. Donc E 0 Bs ds = 0 et
Z t Z tZ t
E ( Bs ds)2 = min(x, y)dxdy
0 0 0
Z t Z y Z t
= ( xdx + ydx)dy
0 0 y
t3
= .
3
Exercice 2.16
QT (A) = EP [1A LT ]
= EP [1A EP [LT |FtB ]]
= EP [1A Lt ]
= Qt (A).
128
λ λ 2 (t−s)/2
EQT [eiu(Bt −Bs ) |FsB ] = e−u .
λ λ λ λ
EQT [eiu(Bt −Bs ) |FsB ] = EQt [eiu(Bt −Bs ) |FsB ]
λ λ
= (Ls )−1 EP [eiu(Bt −Bs ) Lt |FsB ]
λ λ λ2
= EP [eiu(Bt −Bs ) eλ(Bt −Bs )− 2
(t−s)
|FsB ]
2
λ λ λ(Bt −Bs )− λ2 (t−s)
= EP [eiu(Bt −Bs ) e ]
2
(Bt −Bs )(λ+iu)−(t−s)( λ2 +iλu)
= EP [e ]
−u2 (t−s)/2
= e .
Exercice 2.17
1. Pour tout n ≥ 1
2n " 2 #
X
E[Sn ] = E B k
t − B (k−1) t
2n 2n
k=1
2n
k (k − 1)
X
= t n
t− t
k=1
2 2n
= t
et
2n 2 !
X
var(Sn ) = var B k
t − B (k−1) t
2n 2n
k=1
2
= 2n var B 1
t − B0
2n
= 2n (E[B 41 t ] − E[B 21 t ]2 )
2n 2n
3 1
= 2n ( 2n t2 − 2n t2 )
2 2
2 2
= t .
2n
2t −n
P (|S n − t| > ε) ≤ 2 (4.9)
ε2
3. On a
n o
ω : lim Sn (ω) 6= t = ω : lim sup |Sn (ω) − t| > 0
n→∞ n→∞
1
= ∪ m∈N∗ ω : lim sup |Sn (ω) − t| > .
n→∞ m
1 1
ω : lim sup |Sn (ω) − t| > ⊂ lim sup ω : |Sn (ω) − t| >
n→∞ m m
n o
1
et (4.9) avec t = 1/m implique que P(lim sup ω : |Sn (ω) − t| > m )=0
n
d’après le lemme de Borel-Cantelli. Ainsi S converge vers t presque-
sûrement.
Exercice 2.18
1. Pour tous 0 ≤ s ≤ t
∆ : t0 = 0 ≤ · · · ≤ tn = t de l’intervalle [0, t] on a
ainsi
n
" X #
h i
2
E (Mt − M0 ) ≤ E sup |Mti − Mti−1 | |Mti − Mti−1 |
i i=1
(1)
= E sup |Mti − Mti−1 | Vt (M, ∆)
i
(1)
2.b. Si il existe C tel que P Vt (M ) ≤ C = 1 pour tout t ≥ 0 et toute
subdivision ∆ : t0 = 0 ≤ · · · ≤ tn = t de l’intervalle [0, t] on a
h i
E (Mt − M0 )2 ≤ CE sup |Mti − Mti−1 | .
i
n
X
sup |Mti − Mti−1 | ≤ |Mti − Mti−1 |
i=0,...,n i=1
(1)
≤ Vt (M, ∆n )
≤ C.
h i
donc E (Mt − M0 )2 = 0 donc Mt = M0 p.s..
Exercice 2.19
−1
1. Pour toute élément f = N k=0 ak 1]tk ,tk+1 ] de S([0, T ]), IS (f ) est une
P
N
X −1
E[IS (f )] = E[ ak (Btk+1 − Btk )]
k=0
N
X −1
= ak E[Btk+1 − Btk ]
k=0
= 0
ainsi que
N
X −1
var(IS (f )) = var( ak (Btk+1 − Btk ))
k=0
N
X −1
= a2k var(Btk+1 − Btk )
k=0
N
X −1
= a2k (tk+1 − tk )
k=0
Z T
= f 2 (x)dx
0
3. Soit f ∈ L2 ([0, T ]) et (fn )n≥1 une suite d’éléments de S([0, T ]) qui ap-
proche f dans L2 ([0, T ]). Nécessairement pour tout t ≥ 0 (1[0,t] fn )n≥1
est une suite d’éléments de S([0, T ]) qui approche 1[0,t] f dans L2 ([0, T ])
donc (IS (1[0,t] fn ))n≥1 approche Mt (f ) dans L2 ([0, T ]). Par conséquent
(IS (1[0,t] fn ))n≥1 converge en loi vers Mt (f ) et aussi p.s. le long d’une
sous-suite. D’après la première question, pour tout n ≥ 1 IS (1[0,t] fn ) est
une variable gaussienne centrée de variance 0t fn2 (s)ds. Ainsi, d’après la
R
proposition A.4 page 192 Mt (f ) est une variable aléatoire gaussienne cen-
trée de variance 0t f 2 (s)ds. Toujours d’après la première question, pour
R
Rt
4. (a) D’après les propriétés de 0 f (s)dBs vues précédemment il suffit de
134
Or
f f f f
EQT [eiu(Bt −Bs ) |FsB ] = EQt [eiu(Bt −Bs ) |FsB ]
f f
= (Ls )−1 EP [eiu(Bt −Bs ) Lt |FsB ]
Rt Rt
iu(Btf −Bsf ) f (v)dBv − 12 f 2 (v)dv
= E [e P
e s s |FsB ]
Rt Rt
f f
f (v)dBv − 12 f 2 (v)dv
= EP [eiu(Bt −Bs ) e s s ]
Rt Rt Rt
(iu+f (v))dBv −iu( f (v)dv)− 12 f 2 (v)dv
= EP [e s s s ]
−u2 (t−s)/2
= e .
Exercice 2.20
1. Pour tout t ≥ 0 on a
Z t Z t
2σBu
E[ e du] = E[e2σBu ]du
0 0
Z t
2
= e2σ u du
0
2. Pour tout t ≥ 0 on a
Z t Z t
E[ Mu2 du] = E[Mu2 ]du
0 0
Z t
1 2u
= (e2σ − 1)du
0 2σ 2
var(Nt ) = E[Nt2 ]
Z t
= E[ Mu2 du]
0
Z t
1 2u
= (e2σ − 1)du
0 2σ 2
1 2σ2 u t
= (e − 1) − 2 .
4σ 4 2σ
Exercice 2.21
suite (Xn )n≥1 est une suite de variables aléatoires gaussiennes, la conver-
gence p.s. de Xn vers X est aussi valable dans L2 . Clairement pour
tout n ≥ 1 on a E[Xn ] = E[Yn ] = 0, donc E[X] = E[Y ] = 0. Ainsi
136
k
X
+ E B k+1 − B k B k0
0≤k<k0 ≤n−1
n2 n n n
X k 1
= 0+
0≤k<k0 ≤n−1
n2 n
X k 1
= (n − k − 1)
0≤k≤n−2
n2 n
(n − 2)(n − 1) (n − 2)(n − 1) (n − 2)(n − 1)(2n − 3)
= − −
2n2 2n3 6n3
donc E[XY ] = 1/6. L’utilisation de la formule d’Itô rend les calculs plus
simples. En effet une application de la formule d’intégration par parties,
qui est une conséquence de la formule d’Itô, nous dit que
Z 1 Z 1
1 × W1 = tdWt + Wt dt
0 0
Ainsi
et Z 1 Z 1 Z 1
E[X 2 ] = E[( tdWt )( tdWt )] = t2 dt = 1/3
0 0 0
Exercice 2.22
2. On a St = f (t, Bt ) où
2 /2)t+σx
f (t, x) = S0 e(µ−σ .
1 t ∂2f
Z t Z t
∂f ∂f
Z
St = f (0, 0) + (u, Bu )du + (u, Bu )dBu + (u, Bu )dhBiu
0 ∂t 0 ∂x 2 0 ∂x2
Z t Z t Z t
1
= S0 + (µ − σ 2 /2)Su du + σSu dBu + σ 2 Su du
0 0 2 0
Z t Z t
= S0 + µSu du + σSu dBu
0 0
2 /4)t+(σ/2)B
S0 e(µ/2−σ
p
t
Vt =
= h(t, Bt )
138
où
2 /4)t+(σ/2)x
S0 e(µ/2−σ
p
h(t, x) = .
1 t ∂2h
Z t Z t
∂h ∂h
Z
Vt = h(0, 0) + (u, Bu )du + (u, Bu )dhBiu
(u, Bu )dBu +
0 ∂t 0 ∂x 2 0 ∂x2
Z t Z t
1 t 2
Z
S0 + (µ/2 − σ 2 /4)Vu du + (σ/2)Vu dBu +
p
= (σ /4)Vu du
0 0 2 0
Z t Z t
(µ/2 − σ 2 /8)Vu du +
p
= S0 + (σ/2)Vu dBu
0 0
5. On a Zt = f (t, St ) où
f (t, x) = ert x2 .
Rt
6. D’abord remarquons que Ut = e− 0 rs ds , t ≥ 0 est un processus d’Itô
puisque Mt = 0t rs ds, t ≥ 0 est un processus d’Itô et que l’application
R
la formule d’Itô
Z t
Ut = U0 − Us dMs
0
Z t
= U0 − Us rs ds.
0
139
donc
Z T Z T
YT = T dBt − tdBt
0 0
Z T
= (T − t)dBt .
0
donc
Z T
BT3 = (3Bt2 + 3(T − t))dBt .
0
λ2
Ntλ = eiλMt + 2
t
140
λ2
Z t Z t
1
Ntλ = 1 + Nsλ (iλdMs + λ2 ds) − Nsλ dhM is
0 2 2 0
Z t
= 1 + iλ Nsλ dMs .
0
Rt
Or l’intégrale stochastique 0 Nsλ dMs est une martingale puisque
Z t Z t
λ2 s
E |Nsλ |2 dhM is =E e ds < ∞.
0 0
puisque u est solution de l’EDP donnée dans l’énoncé. Par ailleurs, ∂s u étant
bornée, le processus 0t ∂u
R
∂x (T − s, z + Bs )dBs est une martingale issue de 0. Par
conséquent pour tout 0 ≤ t ≤ T E[u(T − t, z + Bt ) = u(T, z). En particulier,
pour t = T on obtient
u(T, z) = E[u(T − t, z + Bt )
= E[u(0, z + BT )]
= E[f (z + BT )]
2 /2)t+σx
f (t, x) = S0 e(µ−σ .
et
Z t Z t
var(Ṽtx,θ ]) = var( (µ − r)θu S̃u du + σθu S̃u dBu )
0 0
Z t Z t Z t
= var( (µ − r)θu S̃u du) + 2cov( (µ − r)θu S̃u du, σθu S̃u dBu )
0 0 0
Z t
+var( σθu S̃u dBu )
0
Z t Z t
= var( (µ − r)θu S̃u du) + E[ σ 2 θu2 S̃u2 du].
0 0
σ2
St = S0 e(µ− 2
)t+σBt
σ2
)t+σBt?
= S0 e(r− 2 .
σ2
Comme exp(σBt? − 2 t) est une martingale sous Q? (voir par exemple
143
l’exercice 2.4 page 70), Q? est une mesure de probabilité neutre au risque.
Exercice 3.2
σ2 2
)t+σBt? +(r− σ2 )(T −t)+σ(BT? −Bt? )
= S0 e(r− 2
σ2
)(T −t)+σ(BT? −Bt? )
= St e(r− 2
?
h i
u(t, x) = EQ e−r(T −t) (ST − K)+ |St = x
2
Q? −r(T −t) (r− σ2 )(T −t)+σ(BT? −Bt? ) +
= E e (St e − K) |St = x
2
Q? −r(T −t) (r− σ2 )(T −t)+σ(BT? −Bt? ) +
= E e (xe − K) |St = x
2
Q? −r(T −t) (r− σ2 )(T −t)+σ(BT? −Bt? ) +
= E e (xe − K)
y2
√ e− 2
Z ∞ 2
(r− σ2 )(T −t)+σ
u(t, x) = e−r(T −t) (xe T −ty
− K)+ √ dy
−∞ 2π
y2
2 √ e− 2
Z
(r− σ2 )(T −t)+σ
= e−r(T −t) (xe T −ty
− K) √ dy
{y≥−d2 } 2π
où 2
x
log K + (r − σ2 )(T − t)
d2 = √
σ T −t
144
donc
y2
√ 1 e− 2
Z Z
− 21 (y 2 −2σ T −ty+σ 2 (T −t))
u(t, x) = xe √ dy − Ke−r(T −t) √ dy
{y≥−d2 } 2π {y≥−d2 } 2π
y2
√ 1 e− 2
Z Z
− 21 (y−σ T −t)2
= x e √ dy − Ke−r(T −t) √ dy
{y≥−d2 } 2π {y≥−d2 } 2π
2 y2
− u2
e e− 2
Z Z
−r(T −t)
= x √ √ du − Ke √ dy
{u≥−d2 −σ T −t} 2π {y≥−d2 } 2π
où 2
x
log K + (r + σ2 )(T − t)
d1 = √
σ T −t
√
et d2 donné ci-dessus vérifie d2 = d1 − σ T − t.
? σ2
ST = S0 eσBT +(r− 2
)T
σ2
= S0 eσBT +(µ− 2
)T
σ2
log SK0 − (µ − 2 )T
P(ST ≥ K) = P(BT ≥ )
σ
σ2
log SK0 + (r −
!
√ 2 )T
= N
σ T
145
σ2
log SK0 + (µ −
!
?
√ 2 )T
Q (ST ≥ K) = N .
σ T
∂d1 0
δ(t, x) = N(d1 ) + xN (d1 ) − Ke−r(T −t) N0 (d2 ) .
∂x
d2 2
1 −d2
N0 (d1 )
Mais N0 (d2 ) = e− 2 et
d21 − d22 1
= (d1 + d2 )(d1 − d2 )
2 2
1 √ √
= (2d1 − σ T − t)σ T − t
2
x √
= log +r T −t
K
donc
xN0 (d1 ) − Ke−r(T −t) N0 (d2 ) = 0 (4.10)
∂d1
γ(t, x) = N0 (d1 )
∂x
0
N (d1 )
= √ .
xσ T − t
∂d1 ∂d2
θ(t, x) = xN0 (d1 ) − rKe−r(T −t) N(d2 ) − Ke−r(T −t) N0 (d2 )
∂t ∂t
146
∂d2 ∂d1 √σ
or ∂t − ∂t = 2 T −t
d’où
?
h i
u(T, x) = EQ (ST − K)+ |ST = x
= (x − K)+
1
θ(t, x) + σ 2 x2 γ(t, x) + rxδ(t, x)
2
σKe−r(T −t) 0 1 N0 (d1 )
= −rKe−r(T −t) N(d2 ) − √ N (d2 ) + σ 2 x2 √ + rxN(d1 )
2 T −t 2 xσ T − t
1 σ
= r(xN(d1 ) − Ke−r(T −t) N(d2 )) + √ xN0 (d1 ) − Ke−r(T −t) N0 (d2 )
2 T −t
= ru(t, x)
d’après (4.10).
σs2
Z t Z t
log St = log S0 + (µ − )ds + σs dBs .
0 2 0
2
donc St = S0 exp{ 0t (µ − σ2s )ds + 0t σs dB
R R
s }. D’après l’exercice 2.19
?
R t µ−r
page 74 le processus Bt = Bt + 0 σs ds est une martingale sur
(Ω, FTB , Q?T ) où Q? est définie par
dQ?T
Z T Z T
µ−r 1 µ−r 2
= exp{ ( )dBs − ( ) ds}.
dP 0 σs 2 0 σs
Donc
σ2
Z t t Z
−rt
S̃t = e S0 exp{ (r − s )ds + σs dBs? }
0 2 0
Z t Z t 2
σs
= S0 exp{ σs dBs − ds}
0 0 2
qui est une martingale sous Q? d’après l’exercice 2.19 page 74. Par
conséquent Q?T est une mesure de probabilité neutre au risque et
d’après la proposition 3.3 page 84 le prix du call à la date t quand
le sous-jacent vaut x est donné par u(t, x) où
" (Z ) ! #
T σ2
Z T
Q?
u(t, x) = e−r(T −t) E S0 exp (r − s )ds + σs dBs? −K |St = x
0 2 0 +
où
x RT σs2
log K +( (r + 2 )ds)
d1 = qR t
T
t σs2 ds
qR
T
et d2 vérifie d2 = d1 − t σs2 ds. Si t = 0 on remarque que la loi
148
RT σs2 RT ?
de exp{ 0 (r − 2 )ds + 0 σs dBs } sous Q? est la même qu celle de
2
qR
γ T 2
γBT? + (r − ?
2 )T sous Q où γ = 0 σs ds donc le prix
du call
sur S est donné par le prix d’un call sur un sous-jacent de volatilité
constante égale à γ.
(c) S’il devait être égal sur tout t ∈ [0, T ] au prix d’un call sur un sous-
jacent de volatilité constante cette volatilité devrait être γ donné
ci-dessus mais ceci contredit par exemple la forme des delta et theta
trouvés précédemment.
donc Z T
1 ?
pG
0 ≤ e−rT EQ [(St − K)+ ] dt.
T 0
?
−rT EQ [(S − K) ] ce qui prouve le résultat annoncé.
donc pG
0 ≤e T +
Exercice 3.6
∆KC D (t, S, K)+C E (t, S, K+∆K) ≥ C E (t, S, K) ≥ ∆KC D (t, S, K+∆K)+C E (t, S, K+∆K)
donc
C E (t, S, K) − C E (t, S, K + ∆K)
C D (t, S, K) ≥
∆K
et
C E (t, S, K) − C E (t, S, K + ∆K)
≥ C D (t, S, K + ∆K).
∆K
Comme C D est continue par rapport à K et C E est de classe C 1 par
rapport à K, en prenant dans les inégalités ci-dessus la limite ∆K → 0
E (t,S,K)
il vient C D (t, S, K) = − ∂C ∂K .
avec 2
x
log K + (r + σ2 )(T − t)
d1 = √
σ T −t
150
√
et d2 = d1 − σ T − t. Donc C D (t, S, K) = v(t, St ) où v est donnée par
∂u
v(t, x) = − (t, x)
∂K
∂d1 ∂d2
= −xN0 (d1 ) + e−r(T −t) N(d2 ) + Ke−r(T −t) N0 (d2 ) .
∂K ∂K
∂d1 ∂d2
Or ∂K = ∂K donc
∂d1 h 0 i
v(t, x) = e−r(T −t) N(d2 ) + xN (d1 ) − Ke−r(T −t) N0 (d2 )
∂K
= e−r(T −t) N(d2 )
d’après (4.10) page 145. Ayant ainsi obtenu une expression pour la valeur
du call digital on en déduit la stratégie de réplication en raisonnant
comme dans la preuve du Théorème 3.1 page 88. En particulier xG =
∂v
v(0, S0 ) et pour tout t ∈ [0, T [ on a θtG = ∂x (T, St ) où
∂v ∂d2 0
(t, x) = e−r(T −t) N (d2 )
∂x ∂x
1
= e−r(T −t) √ N0 (d2 ).
xσ T − t
Exercice 3.7
et ∂u −r(T −t) N0 (d ) √1
∂x (t, x) = e 2 xσ T −t où N et d2 sont les quantités déjà
vues à l’exercice 3.2 page 92.
donné par
?
u(t, x) = e−r(T −t) EQ [ST 1ST ≥K |St = x]
= xN(d1 ).
Exercice 3.8
? ?
EQ [e−r(T1 −t) G|Ft ] = EQ [e−r(T −t) (u(T1 , ST1 ) − K1 )+ |Ft ]
?
= EQ [e−r(T1 −t) (u(T1 , ST1 ) − K1 )+ |St = x]
2
Q? −r(T1 −t) (r− σ2 )(T1 −t)+σ(BT? −Bt? )
= E [e u(T1 , St e 1 ) − K1 |St = x]
+
σ2
√
= E[e−rθ (u(T1 , xe(r− 2
)θ+σ θg
− K1 )+ ].
quand θ = T1 − t.
donc
2 √ 2 √ 2 √
(r− σ2 )θ+σ θg −r(T −T1 ) (r− σ2 )θ+σ θg (r− σ2 )(T −T1 )+σ T −T1 g1 +
u(T1 , xe ) = Eg1 e (xe e − K)
Par ailleurs
h √ √ i 1
Z √ √ g2 g12
E eσ( θg+ θ1 g1 )
1A = eσ( θg+ θ1 g1 ) e− 2 − 2 dg dg1
2π A
1 σ2 (θ+θ1 )
Z
1
√ √ 2
2 1
= e2 e− 2 (g−σ θ) − 2 (g1 −σ θ1 ) dg dg1
2π
Z A
σ2 1 − 1 h2 − 1 h2
= e 2 (θ+θ1 ) e 2 2 1 dh dh
1
A0 2π
√ √
h = g − σ θ, h1 = g1 − σ θ1 conduisant à
√ √ o
( )
x σ2 n
A0 =
p
σ( θh + θ1 )h1 ) > −(log + (r + )(θ + θ1 )) ∩ h > −d − σ θ
K 2
d’où
s
2
√ x
log K + (r + σ2 )(θ + θ1 ) θ1
v(T1 − t, x) = xN2 d + σ θ, √ ,
σ θ θ
s
x 2
log K + (r − σ2 )(θ + θ1 ) θ1
−Ke−r(θ+θ1 ) N2 d, √ , − K1 e−rθ N(d).
σ θ θ
v = e−rT
X
Q(ω1 , ..., ωN )φ(S01 ucard{k:ωk =u} dcard{k:ωk =d} ). (5.1)
ω1 ,...,ωN
155
156
Mais l’ensemble des chemins (ω1 , ..., ωN ) qui donnent le même facteur
N N!
est n = n!(N −n)! . Donc en utilisant l’équation (1.29) :
N
!
N
v = e−rT q n (1 − q)N −n φ(S01 un dN −n ).
X
(5.2)
n=0
n
Les erreurs d’arrondi font que le résultat est considéré null. Par contre le
calcul du log(dN ) = N log(d) se fait sans encombre
1 octave :3 >1000* log (0.2)
2 ans ␣ = ␣ -1609.4
N
Il est donc plus efficace de travailler avec log q n (1 − q)N −n n et le ré-
écrire comme suit :
!!
n N −n N
log q (1 − q) = log(N !) − log(n!) − log((N − n)!) + log(q n )
n
N n N −n
+ log((1 − q)N −n ) =
X X X
log(k) − log(k) − log(k) + n log(q) + (N − n) log(1 − q).
k=1 k=1 k=1
l’option en accord avec le Théorème 1.3 page 18 (noté θ dans le résultat théo-
rique) :
6 DeltaPut ␣ = ␣ -0.86364
2
0.8
1 0.6
0.4
0
0.2
-1 0
-2 -0.2
-0.4
-3
-0.6
-4 -0.8
0 0.2 0.4 0.6 0.8 1 0 0.2 0.4 0.6 0.8 1
que sur des composantes prises une par une. Voici donc un programme qui cal-
cule plusieurs réalisations simultanément :
Y0 = X0 , Ytn+1 = Ytn + a(tn , Ytn )(tn+1 − tn ) + b(tn , Ytn )(Wtn+1 − Wtn ). (5.3)
4
250
3
2 200
1
150
0
-1
100
-2
-3 50
0 0.2 0.4 0.6 0.8 1 0 0.2 0.4 0.6 0.8 1
30
31 end
2 prixcall ␣ = ␣ ␣ 11.348
3 prixput ␣ = ␣ ␣ 8.3930
4 octave :21 > ␣ [ deltacall ␣ deltaput ]= ␣ blsdelta (100 ,100 ,0.03 ,1.0 ,0.25)
5 deltacall ␣ = ␣ ␣ 0.59677
6 deltaput ␣ = ␣ -0.40323
7 octave :22 > ␣ deltacall - deltaput
8 ans ␣ = ␣ ␣ 1
9 octave :23 > ␣ prixput +100 ␣ -␣ 100* exp ( -0.03*1)
10 ans ␣ = ␣ ␣ 11.348
Comme attendu la différence entre les delta du call et du put est 1 ; par ailleurs
les prix du call et du put satisfont la relation de parité (1.15) page 10.
12 }
13 plot ((0: N ) ,s [1 ,] , type = " l " , col = " red " , main = " Simulation ␣d ’ un ␣ brownien ␣
géométrique " )
8
9 ␣ ␣ # ␣ calcule ␣ le ␣ delta ␣ du ␣ call ␣ et ␣ du ␣ put ␣ pour ␣ le ␣ modèle ␣ de ␣ Black ␣ & ␣
Scholes
10
11 ␣ ␣ if ( ti m e _ t o _ m at u r i t y ␣ == ␣ 0) ␣ {
12 ␣ ␣ ␣ ␣ return ( list ( co uv e rt ur e_ c al l = ␣ as . integer ( price >= strike ) ,␣
couv erture_pu t = ␣ as . integer ( strike >= price ) ) )
13 ␣␣}
14 ␣ ␣ else ␣ {
15 ␣ ␣ ␣ ␣ d1 ␣ <-␣ ( log ( price / strike ) ␣ + ␣ ( rate ␣ + ␣ ( volatility ^2) /2) *
t i m e _ t o _ m a t ur i t y ) /( volatility * sqrt ( t i m e _ t o _ m a t u r i t y ) )
16
17 ␣ ␣ ␣ ␣ return ( list ( co uverure_ call = pnorm ( d1 ,0 ,1) ,␣ couvertu re_put = pnorm
( - d1 ,0 ,1) ) )
18 ␣␣}
19 }
170
Chapitre 6
171
172
1 % programme ␣ delta_hedging . m
2 % ␣ implemente ␣ une ␣ strategie ␣ de ␣ type ␣ delta - hedging
3 %
4 T =1; ␣ % ␣ temps ␣ en ␣ annees
5 N =255; ␣ % ␣ no . ␣ de ␣ pas ␣ de ␣ temps , ␣ jours ␣ boursiers
6 dt = T / N ; ␣ % ␣ taille ␣d ’ un ␣ pas ␣ de ␣ temps
7 M =1000; ␣ % ␣ nombre ␣ de ␣ realisations ␣ du ␣ mvt ␣ brownien , ␣ no . ␣ de ␣ scenarios
8 S0 =100;
9 mu =0.1;
10 sigma =0.15;
11 S0 =100;
12 r =0.03;
13 K =100;
14
15 S = zeros ( N +1 , M ) ; % ␣ contient ␣ les ␣ valeurs ␣ du ␣ sous - jacent
16 cash = zeros ( N +1 , M ) ; % la ␣ tresorerie ␣ du ␣ portefeuille
17 S (1 ,:) = S0 ;
18 prix = blsprice ( S (1 ,:) ,K ,r ,T , sigma ) ; % prix ␣ initial
19 cash (1 ,:) = prix ;
20 delta = zeros ( N +1 , M ) ;
21 delta (1 ,:) = ␣ blsdelta ( S (1 ,:) ,K ,r ,T , sigma ) ; % calcul ␣ du ␣ delta
22 cash (1 ,:) = cash (1 ,:) - delta (1 ,:) .* S (1 ,:) ; % paiement ␣ de ␣ la ␣ couverture
23
24 dW ␣ = ␣ sqrt ( dt ) * randn ( N +1 , M ) ;
25
26 for ␣ jj =2: N
27 S ( jj ,:) ␣ = ␣ S ( jj -1 ,:) .*( ␣ 1+ ␣ mu * dt ␣ + ␣ sigma * dW ( jj -1 ,:) ␣ ) ;
28 cash ( jj ,:) = cash ( jj -1 ,:) * exp ( dt * r ) ; ␣ % ␣ capita lisation ␣ de ␣ la ␣
tresorerie
29 delta ( jj ,:) = ␣ blsdelta ( S ( jj ,:) ,K ,r ,T - dt *( jj -1) , sigma ) ; % mise ␣ a ␣ jour ␣
du ␣ delta
30 cash ( jj ,:) = cash ( jj ,:) -( delta ( jj ,:) - delta ( jj -1 ,:) ) .* S ( jj ,:) ␣ ; ␣ % ␣
paiement ␣ de ␣l ’ ajustement ␣ de ␣ couverture
31 end
32
33 % fin ␣ et ␣ livraison
34 S ( N +1 ,:) ␣ = ␣ S (N ,:) .*( ␣ 1+ ␣ mu * dt ␣ + ␣ sigma * dW (N ,:) ␣ ) ;
35 cash ( N +1 ,:) = cash (N ,:) * ␣ exp ( dt * r ) ; % cap italisat ion
36 cash ( N +1 ,:) = cash ( N +1 ,:) ␣ + ␣ delta (N ,:) .* S ( N +1 ,:) ; % vente ␣ de ␣ la ␣
position ␣ sur ␣ sousjacent
37 cash ( N +1 ,:) = cash ( N +1 ,:) ␣ -␣ max ( S ( N +1 ,:) -K ,0) ; % ␣ livraison , ␣ possible ␣
perte
38
39 hist ( cash ( N +1 ,:) *100./ prix ,30) ; ␣ % histogramme ␣ de ␣ la ␣ valeur ␣ a ␣l ’
instant ␣ final
40 std ( cash ( N +1 ,:) *100./ prix ) ␣ % ␣ variance ␣ du ␣ resultat
41
173
140 200
120
150
100
80
100
60
40 50
20
0 0
-20 -10 0 10 20 -6 -4 -2 0 2 4
A noter que ici nous ne sommes pas en une vision risque-neutre mais bien
dans le cadre d’un calcul de résultat (dit "Profit and Loss" ou encore P&L)
dans le monde réel. En pratique la ligne qui calcule l’évolution du sous-jacent
n’est pas simulée mais reçue en temps réel avec les cotations boursières du
sous-jacent. La Figure 6.1 gauche montre l’histogramme pour une exécution
avec remise en conformité par rapport au modèle de Black-Scholes une fois
par jour. La théorie nous dit que le résultat devrait être toujours zéro, pour
toutes les réalisations. Or ceci ne semble pas être le cas, certaines réalisations
font état de pertes de l’ordre de 10% relatives au prix de l’option. L’explication
de l’écart réside dans le choix de l’intervalle dt entre deux mises en conformité
avec le modèle (qui lui est en temps continu, c’est à dire dt = 0). Ceci nous
est confirmé par le résultat de la figure 6.1 droite qui montre l’histogramme
pour des mises en conformité avec le modèle toutes les 15 minutes qui a une
bien moindre variance.
A noter qu’ici nous prenons N = 255 comme étant le nombre de jours
ouvrés de l’année (pas de cotations les week-ends, jours fériés etc.) et 8 heures
de cotations par jour.
174
Il est évident que s’il faut tenir compte des frais de transaction plus les
ajustements sont nombreux plus les frais vont diminuer la valeur du porte-
feuille. En réalité cet effet est tellement important que les vendeurs d’options
négocient rarement une seule option ; au contraire il tentent de limiter les ajus-
tements à faire en vendant des options call et put simultanément pour arriver
ainsi a une certaine insensibilité du Delta total du portefeuille par rapport
aux évolutions du sous-jacent ; ceci revient à minimiser la dérivée deuxième
de la valeur du portefeuille par rapport au sous-jacent, pour cette raison ceci
s’appelle gestion Γ-neutre.
120
100
80
60
40
20
0
-1.5 -1 -0.5 0 0.5 1 1.5
Les histogrammes P&L sont présentés dans la Figure 6.3. Il est intéressant
de voir que lorsque σreel = 0.5 > σ = 0.15 le portefeuille est toujours négatif
alors que lorsque σreel = 0.05 < σ = 0.15 le portefeuille est toujours positif.
Ce portefeuille agit donc comme un pari sur la volatilité à venir : si jamais la
volatilité à venir est supérieure aux attentes alors le détenteur du portefeuille
perdra, sinon il gagnera. Détenir un tel portefeuille permet de faire fructifier
un décalage entre l’estimation du détenteur et les estimations des autres parti-
cipants au marché. C’est un portefeuille dont l’établissement ne comporte pas
de frais et dont la valeur finale sera positive ou négative selon le résultat du
pari.
100 100
80 80
60 60
40 40
20 20
0 0
-700 -600 -500 -400 -300 -200 -100 0 10 20 30 40 50 60 70
Pour rappel la fonction C(·, ·; σ) est, en tant qu’objet mathématique, une fonc-
tion de deux variables qui satisfait l’EDP (3.34) (avec σ pas σreel ). En utilisant
l’EDP nous obtenons :
!
(σ 2 − σreel
2 )S 2
t
dΠt = rΠt dt + ∂SS C(t, St ; σ)dt, (6.2)
2
Mais ceci est une évolution déterministe, le seul aléa est dans la valeur de St ;
comme pour un call ∂SS C(t, S; σ) ≥ 0, ∀S ≥ 0 nous obtenons que le signe de
Π̃t donc celui de Πt est complètement déterminé par le signe de σ 2 − σreel 2 .
20
St1
St2
15 max(St1 , St2 )
10
0
0 2 4 6 8 10
temps (t)
Figure 6.4 – Illustration de l’idée de prendre le meilleur actif. Dès qu’un actif
dépasse l’autre l’investisseur l’achète tout en vendant complètement celui d’en
dessous.
Prenons l’exemple d’un gérant qui doit conseiller son client ; supposons que
le client veut se faire conseiller entre 2 actifs risquée S 1 et S 2 . A priori il n’est
pas dit lequel il faudrait choisir ; arrive alors le chef du gérant qui propose la
solution suivante : on garde toujours l’actif qui est supérieur à l’autre ; peut-
être il y aura des pertes dues aux frais de transaction, mais en principe cette
stratégie donnerait comme résultat le meilleur de deux. L’idée est illustrée en
Figure 6.4.
Avant de proposer cette stratégie au client il est prudent de faire quelques
simulations.
Nous supposerons que S 1 et S 2 suivent des processus de Black & Scholes :
dSt1
= µ1 dt + σ1 dWt1 , S01 = 100, (6.4)
St1
dSt2
= µ2 dt + σ2 dWt2 , S02 = 100. (6.5)
St2
et, pour simplifier, supposons les mouvements Browniens Wt1 et Wt2 indépen-
178
dants.
Le programme 6.2 (pour la version R voir 6.6) implémente et teste cette
idée :
300
250
200
150
100
50
0
-250 -200 -150 -100 -50 0
Figure 6.5 – Résultat du programme 6.2 (µ2 > 0, σ2 > 0). La valeur finale
est toujours négative, le portefeuille perd donc toujours de l’argent par rapport
à la valeur attendue.
38 if ( sigma2 ==0)
39 print ␣ - dpdf ␣ h i s t o g r a m m e _ s t o p l o s s . pdf
40 else
41 print ␣ - dpdf ␣ h i s t o g r a m m e _ c h o i x _ m e i l l e u r . pdf
42 end ;
43 % ␣ evolution ␣ quantite ␣ totale ␣d ’ actifs ␣ en ␣ portefeuille ␣ ␣ pour ␣ quelques
␣ realisations
44 figure (2) ; ␣ ␣ plot ( delta1 (: ,1:10) + delta2 (: ,1:10) ) ;
45 % print ␣ - dpdf ␣ e v o l u t i o n _ q u a n t i t e _ t o t a l e _ c h o i x _ m e i l l e u r . pdf
46 % ␣ evolution ␣ portefeuille ␣ par ␣ rapport ␣ au ␣ max ␣ prevu ␣ pour ␣ quelques ␣
realisations
47 figure (3) ; ␣ plot ( V (: ,1:10) ␣ ./ ␣ max ( S1 (: ,1:10) , S2 (: ,1:10) ) ␣ ␣ ) ;
48 % print ␣ - dpdf ␣ e v o l u t i o n _ p o r t e f e u i l l e _ c h o i x _ m e i l l e u r . pdf
Les résultats sont dans la Figure 6.5. La valeur finale est toujours néga-
tive, le portefeuille perd donc toujours de l’argent. Pourquoi ? Nous allons
comprendre la raison dans la section suivante.
20
St1
St2 = K
15 max(St1 , St2 )
10
0
0 2 4 6 8 10
temps (t)
Figure 6.6 – Illustration de l’idée de prendre le meilleur actif. Dès que l’actif
dépasse la valeur K l’investisseur l’achète et il le garde tant qu’il reste au-
dessus de ce niveau.
Cette stratégie porte le nom du "stop-loss" car son but est de limiter les
pertes au niveau K. Si en plus il y a achat lorsque St1 dépasse K elle porte
aussi le nom de "start gain". L’idée est illustrée en Figure 6.6.
Mais les résultats (dans la Figure 6.7 (gauche)) ne permettent pas d’être
plus optimiste, les valeurs sont toujours négatives. Il faut donc comprendre
pourquoi. Une première explication est que le pertes arrivent lorsque St1 croise
le niveau K ; prenons un cas où St1k > K > St1k+1 . La vente de la position se fait
au prix St1k+1 et non au prix K comme prévu et donc une perte de K −St1k+1 est
enregistrée par rapport à ce qu’on attendait. Cette perte arrive aussi lorsque
St1` < K < St1`+1 car l’achat se fait au prix St1`+1 > K et non au prix K
comme prévu. Donc chaque croisement du niveau K entraîne des pertes. Ces
pertes sont d’autant plus importantes que l’intervalle non-surveillé ]tk , tk+1 [ est
important. Une première idée serait de rendre tk+1 − tk petit. ; la Figure 6.7
(droite) présente un tel résultat pour tk+1 − tk beaucoup plus petit qu’avant
(ajustements tous les quarts d’heure par rapport à tous les jours). Mais ce
n’est pas mieux. Puisque les pertes unitaires sont moins importantes il se peut
qu’il y en ait plus, leur produit se compense donc. Et ceci est effectivement
le cas puisque nous nous souvenons que le mouvement Brownien est récurrent
donc il visite une infinité de fois chaque nombre réel, en particulier s’il a croisé
le niveau K à un certain instant alors il le croisera plusieurs fois avant d’en
181
200 200
150 150
100 100
50 50
0 0
-50 -40 -30 -20 -10 0 -50 -40 -30 -20 -10 0
6.2.3 CPPI
pour Pt une évolution d’actif sans risque, c’est à dire dPt = rPt dt. Aussi nous
supposons que le marché contient également un produit risqué St qui suit une
évolution de type Black-Scholes (équation (3.2) page 79).
Le gestionnaire doit d’un côté satisfaire le contrainte de gestion mais de
l’autre côté veut que son client profite d’une éventuelle évolution positive de
la partie risquée. Une première possibilité serait d’investir totalement Ct dans
l’actif risqué et ainsi satisfaire la contrainte de gestion. Mais ceci peut donner
des rendements assez réduits. Le gestionnaire propose alors la façon de faire
suivante : il investi Xt = mCt dans l’actif risqué et Mt = Vt − Xt dans l’actif
sans risque. Ici le facteur m ≥ 1 informe sur combien le gestionnaire sur-investit
dans la partie risquée.
Intuitivement le gestionnaire se dit que si jamais Ct est grand alors la
marge de manoeuvre est importante et donc le client pourra profiter encore
plus des éventuelles évolution favorables de St . Au contraire lorsque Ct diminue
Xt diminuera aussi et si jamais Ct = 0 alors Xt = 0 aussi donc la contrainte
de gestion sera dans tous les cas satisfaite.
Le programme 6.3 (dont la version R est présentée dans le listing 6.7)
implémente la stratégie CPPI et calcule l’écart entre la valeur du portefeuille
et le plancher Pt qui est présenté en Figure 6.8.
a souvent des "gaps" c’est à dire que le cours ne sont pas continus. Ceci arrive
chaque matin lors de l’ouverture mais également et surtout lors des grands
crash bousiers. Dans ce cas le portefeuille CPPI ne pourra pas développer sa
stratégie et enregistrera des pertes d’autant plus importantes que m est grand.
350 800
300
250 600
200
400
150
100
200
50
0 0
-100 0 100 200 300 400 0 200 400 600 800 1000
25000
20000
15000
10000
5000
0
-0.8 -0.6 -0.4 -0.2 0 0.2 0.4 0.6 0.8
Xt Mt
dVt = dSt + rt d(ert ) = Xt (µdt + σdWt ) + rMt dt
St e
= mCt (µdt + σdWt ) + r(Vt − mCt )dt. (6.6)
Par ailleurs Vt = Pt + Ct et aussi dVt = dPt + dCt ce qui donne, après rem-
placement dans l’équation précédente et simplification du terme en Pt (car
dPt = rPt dt) :
dCt
= [r + m(µ − r)] dt + mσdWt . (6.7)
Ct
Les rendements de Ct sont effectivement des v.a. normales. Par ailleurs l’actif
Ct crée par la stratégie CPPI a une plus forte volatilité mais un rendement
moyen plus fort aussi. Il a le même ratio de Sharpe (i.e., rapport µ−r
σ ) que St :
r + m(µ − r) − r µ−r
= . (6.8)
mσ σ
9 K ␣ <-␣ 100
10
11 prix ␣ <-␣ bls_price ( S0 ,K ,r ,T , sigma ) [[1]]
12 S ␣ <-␣ matrix ( c ( rep ( S0 , M ) , rep (0 , M * N ) ) , nrow = M )
13 cash ␣ <-␣ matrix ( c ( rep ( bls_price ( S0 ,K ,r ,T , sigma ) [[1]] - bls_delta ( S0 ,K ,
r ,T , sigma ) [[1]]* S0 , M ) , rep (0 , M * N ) ) , nrow = M )
14 delta ␣ <-␣ matrix ( c ( rep ( bls_delta ( S0 ,K ,r ,T , sigma ) [[1]] , M ) , rep (0 , M * N ) )
, nrow = M )
15
16 dW ␣ <-␣ sqrt ( dt ) * matrix ( rnorm ( N * M ) ,␣ nrow ␣ = M )
17
18 for ␣ ( i ␣ in ␣ 2: N ) {
19 ␣ ␣ S [ , i ] ␣ <-␣ S [ ,i -1] ␣ + ␣ mu * S [ ,i -1]* dt ␣ + ␣ sigma * S [ ,i -1]* dW [ ,i -1]
20 ␣ ␣ cash [ , i ] ␣ <-␣ cash [ ,i -1]* exp ( r * dt ) ␣ # c apitalis ation ␣ de ␣ la ␣ trésorerie
21 ␣ ␣ delta [ , i ] ␣ <-␣ bls_delta ( S [ , i ] ,K ,r ,T - dt *( i -1) , sigma ) [[1]] ␣ # mise ␣ à ␣
jour ␣ du ␣ delta
22 ␣ ␣ cash [ , i ] ␣ <-␣ cash [ , i ] -( delta [ , i ] - delta [ ,i -1]) * S [ , i ]
23 }
24
25 S [ , N +1] ␣ <-␣ S [ , N ] ␣ + ␣ mu * S [ , N ]* dt ␣ + ␣ sigma * S [ , N ]* dW [ , N ]
26 cash [ , N +1] ␣ <-␣ ␣ cash [ , N ]* exp ( r * dt ) ␣ + ␣ delta [ , N ]* S [ , N +1] ␣ -␣ pmax ( S [ , N
+1] - K ,0) ␣ # c apitalis ation ␣ de ␣ la ␣ trésorerie ␣ et ␣ vente ␣ du ␣ sous -
jacent
27
28 hist ( cash [ , N +1]*100/ prix , ␣ col = " red " )
33
34 hist (100*( V [ , N +1] - P [1 , N +1]) / S0 , ␣ col = " blue " )
Annexe A
Quelques prérequis de
probabilités
Une variable normale X est soit une constante soit une v.a. continue de
densité 2(x−m)
e− 2σ2
ρ(x) = √ , (A.1)
σ 2π
avec m la moyenne de X et σ 2 > 0 sa variance.
Nous notons par N (0, 1) la loi de la variable normale centrée (i.e. de
moyenne 0) réduite (de variance 1). La variable m + σN (0, 1) est donc une
variable de moyenne m et variance σ 2 .
Définition A.1 Soit X une variable aléatoire définie sur un espace probabilisé
(Ω, F, P) à valeurs dans Rd . La fonction définie sur Rd par
h i
ΦX (ξ) = E eihξ,Xi (A.2)
189
190
est appelée fonction caractéristique de la v.a. X. Ici h·, ·i est le produit scalaire
éuclidien sur Rd .
A.3 Espaces Lp
A.3.1 Espace L0 (X, A, P)
Soit (X, A, P) un espace de probabilité ; on rappelle que (R, BR ) est la
structure borélienne canonique sur R, c’est à dire que BR est la tribu engendrée
par les ouverts de R.
Remarque : ceci est un espace un peu particulier. Chaque fois qu’on parlera
des espaces Lp il s’agira de p ≥ 1, cf. Section suivante.
1. La suite (Xn )n≥1 converge en loi vers X si pour toute fonction continue
bornée f : Rd → R :
L
Notation : Xn −
→ X.
2. La suite (Xn )n≥1 converge en probabilité vers X si
Notation : P − limn→∞ Xn = X.
3. La suite (Xn )n≥1 converge presque sûrement vers X si
P lim Xn = X = 1. (A.8)
n→∞
P−p.s.
Notation : Xn −→ X.
n→∞
4. Soit p ≥ 1. La suite (Xn )n≥1 converge dans Lp (ou encore en moyenne
d’ordre p) vers X si E[|Xn |p ] < ∞ pour tout n ≥ 0 et
Lp
Notation : Xn −→ X.
n→∞
Remarque A.1 Une convergence dans Lp n’entraîne pas forcement une conver-
gence presque sûre (ponctuelle) ; pour s’en convaincre il suffit de considérer la
192
Cette suite converge vers zéro dans L2 mais ne converge pas presque sûrement.
Proposition A.3 (Lemme de Fatou) Soit (fn )n∈N une de fonctions mesu-
rables à valeurs dans [0, +∞]. Alors la limite inférieure de la suite est mesu-
rable et : Z Z
lim inf fn dµ ≤ lim inf fn dµ. (A.11)
n→∞ n→∞
convergence convergence
Lp p.s.
in unif
-s e
te
us un
té or
ui
si bili
gr m
so ur
a
s
té convergence
en proba.
e
convergence
en loi
1. La suite (Xn )n≥1 converge en loi vers une variable réelle Y si et seule-
ment si les deux suites (mn )n≥1 et (σn2 )n≥1 convergent. Dans ce cas
Y est une variable aléatoire de loi N (m, σ 2 ) où m = limn→∞ mn et
σ 2 = limn→∞ σn2 .
2. Si la suite (Xn )n≥1 converge en probabilité vers une variable aléatoire Y
alors Y est de loi gaussienne et Y est aussi limite de la suite (Xn )n≥1
dans L2 .
En particulier Z
E[g(X, Y )|G] = g(x, Y )PX (dx). (A.17)
Définition A.6 Martingale - temps discret On dit que M est une mar-
tingale si :
1. pour tout k, E[|Mtk |] < ∞ ;
2. pour tout k ≥ 1, E[Mtk |Ftk−1 ] = Mtk−1 .
Lorsque à la place du point 2 le processus M vérifie ∀k ≤ ` : Mtk ≤ E(Mt` |Ftk )
(ou ∀k ≤ ` : Mtk ≥ E(Mt` |Ftk ) le processus M est appelé sous-martingale
(respectivement sur-martingale).
{τ ≤ tk } ∈ Ftk . (A.18)
Intuition A.8.2 L’utilité d’un tel résultat est de pouvoir travailler avec
des σ-algèbres générées par un nombre infini d’applications fi en utilisant
des arguments relatifs à des sous-ensembles finis parmi elles.
Preuve. Voir [15] Théorème 1.8 page 19. Aussi voir Théorème 2.1 page 26
pour une version pour processus à valeurs dans un espace de Banach. Il est
en fait possible de montrer que les trajectoires de Yt sont Hölder continues
d’ordre γ ∈ [0, β/α[ car pour un tel γ :
" !#
|Yt − Ys |
E sup γ
< ∞. (A.27)
s6=t |t − s|
Par le Théorème de classe monotone A.3 cette mesure sur C00 (R+ , Rd ) ne
dépend que des lois finies-dimensionnelles (Bt1 , ..., Btn ) (pour tout n fini et
tk ≥ 0 pour tout k ≤ n). Mais la loi du vecteur (Bt1 , ..., Btn ) est donnée d’une
manière unique par la définition du mouvement Brownien (nous en connaissons
explicitément son opérateur moyenne et covariance), donc deux mouvements
Browniens différents donneront la même mesure image P0 sur C00 (R+ , Rd ). La
définition A.8 est donc non-ambiguë.
201
202
203
204
à acroissements indépendants, 26
à acroissements stationnaires, 26
élémentaire, 46
équivalents, 26
produit scalaire éuclidien, 190
variation
d’ordre p, 39
quadratique, 40, 43
quadratique, covariation, 43
totale, 40
variation quadratique, 43
vecteur Gaussien, 28