LF
LF
LF
Fiabilite
Master Mathematiques, Modelisation et Simulation
2`eme annee
2009/2010
Florin Avram
4
4
4
5
6
6
7
8
13
17
18
19
23
25
26
26
27
28
29
30
31
32
33
35
36
37
38
42
42
43
45
1.5.4
Les distributions et transformees de Laplace des temps dabsorbtion/atteinte/matrix geometric/de type phase . . . . . . . . . . . . 46
1.5.5 Les distributions de type phase discr`etes . . . . . . . . . . . . . . . . 49
1.5.6 Classification des quelques probl`emes sur les esperances des fonctionelles dependant des temps de premier passage . . . . . . . . . . . . 51
1.6 Chanes de Markov `a espace fini : analyse spectrale et comportement limite . 52
1.6.1 Lexistence de la matrice des distributions `a la longue P . . . . . . . 53
1.6.2 Un exemple de chane non-ergodique . . . . . . . . . . . . . . . . . . 53
1.6.3 La periodicite . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 55
1.6.4 Le theor`eme de Perron-Frobenius . . . . . . . . . . . . . . . . . . . . 57
1.6.5 Le comportement limite des chanes, `a partir de la representation spectrale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 57
1.6.6 La structure de la matrice de distributions a la longue P = limn P n (i, j) 59
1.6.7 Exercices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 64
1.7 Exercices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 65
1.8 Fiabilite pour les processus semi-markoviens de sauts . . . . . . . . . . . . . 73
2 Processus de Levy : marches al
eatoires en temps continu
2.1 Definition et proprietees de linearite de processus de Levy . . .
2.2 Exemples de processus de Levy . . . . . . . . . . . . . . . . . .
2.3 Marches aleatoires infinitesimales et le mouvement Brownien
2.4 La formule de Black-Scholes pour les options dachat . . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
75
75
76
77
78
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
79
80
81
83
84
86
89
93
95
.
.
.
.
.
.
.
.
.
98
98
99
100
101
102
103
106
110
112
4 The
4.1
4.2
4.3
4.4
4.5
4.6
4.7
4.8
4.9
Cram
er-Lundberg and Levy risk models
Introduction . . . . . . . . . . . . . . . . . . . . . .
The ruin problem . . . . . . . . . . . . . . . . . . .
The Levy exponent/symbol and its inverses . . . .
Backward Kolmogorov (generator) equations . . . .
The Pollaczek-Khinchine Laplace transform formula
Exponential claims . . . . . . . . . . . . . . . . . .
Rational symbols . . . . . . . . . . . . . . . . . . .
Examen dentrainement 1 . . . . . . . . . . . . . .
Examen dentrainement 2 . . . . . . . . . . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
Chapitre 1
Rappels sur les processus de Markov
1.1
1.1.1
D
efinition 1.1.2 Soit X. = Xt , t I un champs aleatoire et soit J I un sous ensemble
fini. On denotera par XJ la distribution jointe des variables Xt , t J. Lensemble XJ : J
I, |J| < sera appelle la famille des distributions jointes dordre fini de X.
En pratique, des proprietes supplementaires sont necessaires pour reduire la complexite
inherente dans le mod`ele ci dessu.
Les processus `a variables Xt independants sont simples `a utiliser, mais peut-etre trop
simples pour modeliser des phenom`enes interessants. dans ce cas, les distributions jointes
sont simplement des produits.
Le prochane degre de complexit
e est donne par les processus Markoviens. Ils incluent
Pn
les marches aleatoires Sn = i=1 Zi , Zi i.i.d., mais cette famille est aussi une trasformation
simple des processus `a variables independants, et ca simplifie son etude (par exemple la
demonstration du CLT).
La classe des processus Markoviens est extremement riche, avec une complexite qui
depend des ensembles E, I.
1.1.2
D
efinition 1.1.3 -Propriet`
e de Markov
Un processus X = (Xt )t0 , avec t unidimmensionel a la propriet`e de Markov si, et
seulement si ses probabilites conditionelles ne depend pas du passe que par le passe imediat,
i.e.
0 t0 < t1 < < tk < t , ti R, et ei0 , ei1 , ..., eik , ei E
P ([Xt A] | [Xt0 = ei0 , ..., Xtk = eik ]) = P ([Xt A] | [Xtk = eik ])
Interpretation de la propriete de Markov : si on consid`ere que le processus est indice par
le temps, cette propriete traduit le fait que le present ne depend du passe qu`a travers le
passe immediat.
Un processus ayant la propriet`e de Markov sapelle processus de Markov.
Exemples : 2.3 et 2.1 de Ruegg, et les exemples de Belisle.
D
efinition 1.1.4 Matrice des transitions
Pour tous 0 s t, pour tous i, j dans I, et pour chaque processus de Markov, on
definit les probabilites de transition par :
pij (s, t) = P ([Xt = ej ] | [Xs = ei ]) .
D
efinition 1.1.5 Homogeneit
e des transitions
Un processus est dit homog`ene si, et seulement si :
i, j I , 0 s t , pij (s, t) = pij (0, t s) .
On note alors pij (s, t)= pij (t s), et la matrice pij (t) est appellee matrice de transition
apr`es temps t.
erera ici que des processus homog`
enes.
Hypoth`ese de travail : (H1) On ne consid
Lexemple le plus simple des processus de Markov homog`enes est fourni par les chanes
de Markov en temps discret et `a espace detats fini ou denombrable.
ACTUARIAT
FILES DATTENTE, FIABILITE,
1.2
Marches al
eatoires et r
ecurrences
D
efinition 1.2.1 Marches al
eatoires
Soit Z = (Zn )nN une suite de variables aleatoires i.i.d (i.e. independantes et de meme
loi), `a valeurs dans un groupe G, et soit X0 G independant de Z.
Le processus Xn G, n = 0, 1, ... donne par la somme de ces variables
Xn = X 0 + Z 1 + Z 2 + + Z n ,
nN
(1.1)
rw
sappelle marche al
eatoire. Comme alternative, la marche aleatoire peut-etre definie
recursivement par la recurrence
Xn = Xn1 + Zn , n = 1, ...
(1.2)
defr
Motivation : Les marches aleatoires sont parmi les processus stochastiques les plus utiles
(par exemple en physique, mathematiques financi`eres, files dattente, statistique, etc...). Ils
peuvent servir comme des excellents exemples introductifs, qui motiveront un etude plus
approfondi des processus stochastiques. Finalement, ils sont aussi parmi les processus les
meilleurs compris, car ils ram`enent souvent `a des solutions analytiques, ce qui rendent les
resultats plus transparents.
Exemple : Les marches al
eatoires sur Z
D
efinition 1.2.2 Marches al
eatoires sur Z.
Soit Z = (Zn )nN une suite de variables aleatoires i.i.d (i.e. independantes et de meme
loi), `a valeurs en Z, ayant une distribution discr`ete p = (pj = P [Zn = j], j Z), et soit
X0 Z independant de Z et ayant aussi une distribution discr`ete.
a) Le processus Xn Z, n = 0, 1, ... donne par la somme de ces variables
Xn = X 0 + Z 1 + Z 2 + + Z n ,
nN
(1.3)
rw
sappelle marche al
eatoire. Comme alternative, la marche aleatoire peut-etre definie
recursivement par la recurrence
Xn = Xn1 + Zn , n = 1, ...
(1.4)
1.2.1
Moments et cumulants
defr
=
=
=
+
Nt : 1) Le cumulant dun ordre donne est un polynome dans les moments dordre plus
petit ou egal, et reciproquement.
2) Les coefficients de lexpansion des moments en fonction des cumulants sont donne par
des nombres des partitions.
3) Les cumulants dune variable centre (m1 = 0) coincide avec les moments jusquau
troisi`eme ordre. Cest le quatri`eme cumulant, la kurtosis, donne dans le cas centre par
c4 = m4 3m22 , qui joue un role important dans certaines tests statistiques (comme de
nonnormalite, par exemple).
Exercice 1.2.3 Pour la marche simple, calculez
1. Le premier, deuxi`eme et troisi`eme cumulantsPi (n), i = 1, 2, 3 de Xn , i.e. les premiers
trois coefficients dans lexpansion (u, n) = i i (n)ui en puissances de u.
2. Le deuxi`eme moment de Xn . Quelle est la particularite du cas p = 1/2 ?
3. Le troisi`eme moment de Xn .
1.2.2
La m
ethode du conditionnement sur le premier pas
ACTUARIAT
FILES DATTENTE, FIABILITE,
denotera par Ei lesperance en commencant de i (conditionnant sur X0 = i), et on designe
par E levenement que le joueur gagne, i.e.
E = {xT = B} = [n N tel que Xn = B, Xk > 0, k = 1, ..., n 1] .
Pour tout i de {0, ..., B}, on pose :
bi = P (E | [X0 = i])
(la probabilite du bonheur).
1. En supposant B = 3, esquisser lespace de tous les chemins du bonheur qui
commencent avec X0 = 1. Expliquer graphiquement les equations b1 = 1/2b2 , b2 =
1/2b1 + 1/2. Calculer b0 , b3 et b1 , b2 .
2. En supposant B = 4, calculer b1 , b2 et b3 .
3. Calculer bi , i = 0, ..., B pour B quelconque.
4. Calculez lesperance du nombre des pas du jeux, pour B quelconque.
5. Etant donnee une chane finie avec deux etats absorbants p,g et le reste des etats
transitoires, calculer le vecteur b = (bi = Pi [XT ] = g, i T ).
R : On pourrait essayer de calculer bi en ajoutant les probablites de tous les chemins du
bonheur qui commencent avec X0 = 1 (en regardant larbre de toutes les possibilites). Mais
comme cet arbe est (typiquement) infini et tr`es complique, cette analyse nest pas facile. Par
contre, une approche divide et conquerie de decomposition de larbre dans ses branches
obtenues en conditionnent sur le premier pas rammene `a desequations lineaires faciles `a
resoudre.
Cet exercice illustre trois idees :
1. Lavantage de la methode du conditionnement sur le premier pas.
2. Le calcul des esperances pour les chanes de Markov comporte des syst`emes lineaires
avec une inconnue pour chaque
etat initial possible.
3. Les syst`emes associes avec un processus fixe implique toujours la meme partie homog`ene appellee operateur (dans le cas des chanes de Markov en temps discret et
`a espace detats fini ou denombrable, l operateur est simplement P I, o`
u P est la
matrice de transition P ).
Ces idees seront aprofondies dans les chapitres suivants, o`
u nous regarderons quelques
autres probl`emes resolubles par le conditionnement sur le(s) premier(s) pas.
1.2.3
Les syst`
emes lin
eaires associ
es `
a quelques probl`
emes de premier passage pour les chanes de Markov
Exercice 1.2.5 On lance une monnaie biaisee, avec la probabilite de sortir face egale `
a q et
celle de sortir pile egale `a p = 1 q, jusqu`a ce quon obtient une pile. Soit N (1) le nombre
de faces precedant la premi`ere pile (N (1) = 0, 1, 2, ...). Par exemple, si X1 = F, ...Xj1 = F
et Xj = P, j 1, la valeur de N (1) est j 1.
N (1) = 1 + N
et du fait que les distributions conditionnees par le premier pas du reste N sont
connues : a) (N |X1 = P ) 0 et b) L(N |X1 = F ) = L(N (1) ) par le fait que la
seule difference entre les realisations possibles de N et ceux de N (1) est le moment de
depart de la montre, qui naffecte pas la distribution dune chane homog`ene).
3. Trouvez lesperance m = EN (2) du nombre des essais jusqu`a ce quon obtient deux
piles consecutives. Ind : Sauf m, il faudra trouver en meme temps m1 = E1 N (2) du
nombre des essais jusqu`a ce quon obtient deux piles consecutives, `a partir du moment
quon a obtenu la premi`ere.
4. Generaliser pour k = 3 piles consecutives, et pour k arbitraire.
5. Mieux que les moments : Trouvez la fonction generatrice des probabilites N (1) (z) =
P
(1)
k
erance EN (1) , en calculant (1).
Ez N =
k=0 pk z , et deduisez lesp
6. Soit k = 2. Abordez les memes questions pour N (k) (z), ainsi que pour N (k) (z), o`
u
la derni`ere variable represente le nombre des essais jusqu`a ce quon obtient k piles
consecutives, en incluant la suite finale des piles.
Trouver les probabilites P [N (2) = k] pour q = 1/3.
7. Reabordez la question precedente pour k = 3.
Solutions :
1. Lespace des experiments est : E = {P, F P, F F P, F F F P, ...} = {P } F E.
pk = pq k , k = 0, 1, .... On a `a faire avec une distribution bien connue (la geometrique ! !).
2. Il est quand meme interessant de remarquer que lesperance peut aussi se calculer par
un conditionnement sur le premier pas :
m1 = p 0 + q(1 + m1 ) m1 =
q
p
Note : Pour lautre definition dune variable geometrique N (1) := N (1) + 1 {1, 2, ...}
(en incluant la premi`ere face), on obtient par le resultat precedent
1
n := EN (1)+1 = E(N (1) + 1) = ,
p
ou encore par conditionnement sur le premier pas :
n = E[N (1)+1 ] = P[X1 = P ]E[N (1)+1 |{X1 = P }] + P[X1 = F ]E[N (1)+1 |{X1 = F }]
= P[X1 = P ]1 + P[X1 = F ](1 + E[N (1)+1 ]) = p 1 + q (1 + n) = 1 + q n
3. Remarquons que les trois evenements P P, P F, F fournissent une decomposition :
E = {F E} {P F E} {P P }
de lespace detats qui permet soit de constater que notre evenement darret est arrive,
soit de relancer le processus du debut. Par consequant :
n = q(n + 1) + pq(n + 2) + 0p2 n =
1+p
q(1 + 2p)
=
2
1 q pq
p2
ACTUARIAT
FILES DATTENTE, FIABILITE,
4. Remarquons que les quatre evenements F, P F, P P F, P P P fournissent une decomposition de lespace detats qui permet soit de constater que notre evenement darret est arrive, soit de relancer le processus du debut. Le conditionnement sur F, P F, P P F, P P P
2)
2
= 1+p+p
3
donne : n = q(n + 1) + pq(n + 2) + p2 q(n + 3) + 0p2 n = q(1+2p+3p
p3
p3
(et pour inclure les dernieres trois piles, on ajoute 3).
5. La methode des fonctions generatrices :
Remplacons chaque terme de lespace des experiments par pnb.P q nb.F z nb.F (nb.P = 1).
Soit p(z) le resulat obtenu en ajoutant tousP
les termes. Observons quen rajoutant tous
p
n
les termes, on obtient precisement (z) =
n=0 pn z = 1qz .
Nous pourrions aussi remarquer la decomposition (z) = p + qzp(z), qui implique
p
encore (z) = 1qz
.
Finalement, EN (1) = (1) = pq .
Rem : La methode des fonctions g
en
eratrices (qui nest pas vraiment necessaire
dans cet exercice simple) sav`ere une des methodes les plus puissantes pour les espaces
detats infinis.
6. Les probabilites pk sont moins evidentes `a obtenir. Ind : Utilisons une chane de Markov
associe, sur lespace E = {0P, 1P, 2P }, avec etat absorbant 2P .
p0 = p2 , p1 = qp2 , p2 = q 2 p2 , p3 = qp2 + pqp1 , ...pn = qpn1 + pqpn2 , n 3. On trouve
n
n
ainsi
une recurrence `a coefficients constants, qui donne pn = C+ + + C , =
q(43q)
.
2
p2 (+ q)
.
+
q
Le systeme C+ + C = p2 , C+ /+ + C / = 0 donne C+ =
p2 (q )
, C+
+
1
3
qui donne pb = 35 , pa = 52 .
2. Meme syst`eme !
3. ta , tb sont la solution du syst`eme
ta = 32 (1 + tb ) + 31 (1 + t0 ) = 23 tb + 1
tb = 23 (1 + ta ) + 31 (1 + tu ) = 23 ta + 1
qui donne tb = ta = 3. Remarquez la similarite entre les deux syst`emes.
4. = (1/8, 1/8, ..., 1/8).
5. Pour trouver tu = Eu [T0 ], on resout le syst`eme :
tu = 1 + tb
2
1
tb = 1 + ta + tu
3
3
2
ta = 1 + tb
3
dont la solution est ta = 7, tb = 9, tu = 10.
ACTUARIAT
FILES DATTENTE, FIABILITE,
6. E0 [T0 ] o`
u T0 represente le temps espere jusqu`a la prochane visite de 0 en commencant
de 0, est donne par 1 + ta = 1 + 7 = 8. A remarquer que cest exactement linverse
de la probabilite de long parcour detre `a 0,ce qui est un resultat bien connu sur les
temps de retour esperes.
7. Soit pk la probabilite davoir exactement k visites `a U = (1, 1, 1) avant de retourner `
a
0. Alors p0 cest le meme que la probabilite commencant en A que la marche revient `
a
0 avant de visiter (1, 1, 1), qui est 35 .
Pour k = 1 visites, le chemin observe seulement en O, letat apres B et U est
A,U,B,0. Donc, p1 = PA [U, B, 0] = ( 52 )2 , p2 = PA [U, B, U, B, 0] = ( 52 )2 ( 35 ), et en general
pk = 53 pk1 = ( 25 )2 ( 53 )k1 , k 2. La distribution pour k 1 est geometrique (verifiez
P
2
que
k=1 pk = 5 , comme il faut).
Exercice 1.2.8 Un speolog est perdu dans une grotte, avec deux sorties U, O, les chemins
de la quelle forment le graphe papillon ci-dessous. Il se trouve `a present dans le point A, et `
a
cause de la manque de visibilite, est oblige a faire une marche al
eatoire entre les sommets
du papillon. Cette marche finira en U avec la liberte ou en O avec la mort.
1. Calculez la probabilite de survie du speolog.
2. Calculez lesperance du temps T quil lui reste a passer dans la grotte, en sachant que
les chemins menant `a U prennent deux heures, ceux menant `a O trois heures, et les
autres 5 heures.
3. La grotte contient aussi un genie, qui frappe le speolog des nb. aleatoires, ayant une
distrbution de Poisson des coups, avec esperance 3 sur les chemins menant `a U, 5 pour
ceux menant `a O, et 2 pour les autres chemins. Calculez lesperance du nombre des
coups que le speolog prendra dans la grotte.
4. (*) Calculez la variance et la distribution du nombre des coups que le speolog prendra
dans la grotte.
5. Etant donnee une chane finie avec des etats absorbants, calculer le vecteur T = (ti =
Ei [T ], i T ).
O
Sol : 5. T = (I Q)1 Q H T o`
u T est la matrice des temps Ti,j pour traverser de i `a
j et H denote le produit composante par composante.
Exercice 1.2.9
P Calculez, par la methode des fonctions generatrices :
a) T (z) = n0 Tn z n , o`
u
T0 = 0,
Tn = 2Tn1 + 1, n 1
Trouvez Tn .
P
b) Calculez T (z) = n0 Tn z n , o`
u
T0 = 1,
Tn = 2Tn1 + n 1, n 1
Trouvez Tn .
1.2.4
Nous generaliserons maintenant les resultats pour la marche unidimensionelle symetrique au cas des marches simples asymetriques. En meme temps, nous etudierons dautres
probl`emes concernant labsorbtion dans un ensemble darret pour la marche aleatoire simple
unidimensionnelle (les equations obtenues sont valables dans toute dimension,mais les solutions sont disponibles explicitement seulement dans le cas unidimensionnel).
Exemple 1.2.1 La ruine du joueur et autres probl`
emes de Dirichlet pour la
marche al
eatoire simple. Considerons la marche aleatoire simple
Xn = X 0 + Z 1 + Z 2 + + Z n , X n Z
avec (Zn ) une suite de variables aleatoires reelles independantes de meme loi P [Zn = 1] =
p, q. Nous etudierons la marche jusquau temps darret/sortie T = min[T0 , TB ] quand le
process sort de linterval [0, B] pour B donne, i.e. on prend 0 et B comme etats absorbants.
On appelle ce probl`eme la ruine du joueur, a cause de linterpretation dun joueur qui
sengage dans une serie de parties (independantes) `a un jeu o`
u `a lissue de chaque partie
il gagne 1F avec une probabilite p et perd 1F avec une probabilite q = 1 p, et qui decide
de sarreter de jouer d`es quil aura B francs en poche, ou d`es quil na plus dargent. Pour
tout n N, on note Xn la fortune du joueur au bout de n parties, et X0 = i represente
sa fortune `a lentree dans le Casino. On denotera par Ei lesperance en commencant de i
(conditionnant sur X0 = i), et on designe par E levenement que le joueur gagne, i.e.
E = {xT = B} = [n N tel que Xn = B, Xi > 0, i = 1, ..., n 1] .
Pour tout i de {0, ..., B}, on pose :
bi = P (E | [X0 = i]) .
1. Calculer b0 et bB .
2. Montrer que :
i {1, ..., B 1} , bi = p bi+1 + q bi1 (on rappelle que q = 1 p).
3. Obtener une expression explicite de bi pour tout i de {1, ..., B} . Indication : Remarquez
que la solution satisfaisant b0 = 0 est de la forme :
quand p 6= q
k (1 ( pq )i )
bi =
ki
quand p = q
et determiner k tq la condition fronti`ere de bB soit satisfaite.
4. Pour tout i de {0, ..., B} , on pose ai = P (F | [X0 = i]) o`
u F est levenement le joueur
repart ruine . En procedant comme auparavant, montrer que :
q i q B
( ) ( )
p q pB si p 6= 12
1( p )
ai =
Bi
si p = 12
B
ACTUARIAT
FILES DATTENTE, FIABILITE,
5.
6.
7.
8.
9.
la seule difference etant dans les conditions fronti`ere et dans la partie nonhomog`ene. En plus,
ils se regrouperont en deux types de questions :
1. Gain final espere, satisfaisant :
fn = En [g(XT )] = pfn+1 + qfn1 (Gf )n = 0,
2. Co
ut total accumule espere
T 1
X
fn = En [
h(Xi )] = h(n) + pfn+1 + qfn1 (Gf )n = 0,
f (0) = 0, f (B) = 0
Solution :
1. b0 = 0, bB = 1
2. Gain final espere, g(x) = 1x=B .
En conditionnant, on trouve :
bn = Pn [X(T ) = B]
= p Pn [X(T ) = B/X(1) = n + 1] + q Pn [X(T ) = B/X(1) = n 1]
= p bn+1 + q n1 1 n B 1
car
Pn [X(T ) = B/X(1) = n 1] = P[X(T ) = B/X(0) = n, X(1) = n 1] =
P[X(T ) = B/X(1) = n 1] = P[X(T ) = B/X(0) = n 1] = bn1
en utilisant la propriete de Markov et lhomogeneite.
op
bn =
bB
b0
for any 1 n B 1
1(q/p)n
.
1(q/p)B
4. ai + bi = 1, et donc la marche sera eventuellement absorbe dans une des deux frontieres
(elle ne peut pas rester `a linterieur indefinimment).
Pour p = q, limB an = limB Bn
= 1. Autrement,
B
(
(q/p)n , q < p
(q/p)n (q/p)B
=
lim an = lim
B
B
1 (q/p)B
1, q > p.
5. fx = Ex [X(T )] (valeur finale esperee) satisfait Gf (x) = 0, f (0) = 0, f (B) = B. Pour
p = q, la solution fx = x est obtenue comme ci-dessus :
fx+1 fx1
+
2
2
= B
= 0
fx =
fB
f0
for any 1 x B 1
(Cest aussi une fonction harmonique, mais avec conditions fronti`ere differentes.)
6. tx = Ex [T ] (temps de sortie espere) est un co
ut total accumule espere (obtenu en
prenant h(x) = 1), qui satisfait le syst`eme inhomog`ene Gt(x) + 1 = 0, t(0) = 0, t(B) =
0.
Pour p = q
tx+1 tx1
+
+ 1 for any 1 x B 1
2
2
= 0
= 0
tx =
tB
t0
ACTUARIAT
FILES DATTENTE, FIABILITE,
o`
u tp (x) est une solution particuli`ere et h(x) est la solution generale de lequation
homog`ene. Commencons par lequation homog`ene.
La solution generale homog`ene (fonction harmonique) h(x) = A + Bx pour cet
operateur a ete dej`a obtenue ci-dessus.
Nous aimerions maintenant trouver une solution particuli`ere tp (x) de lequation Gtp (x) =
1 de la meme forme que la partie nonhomog`ene 1 de lequation, donc tp (x) = C;
mais, comme les constantes, et puis aussi les fonctions lineaires verifient lequation
homog`ene Gtp (x) = 0, nous devrons modifier deux fois cette forme en multipliant par
x, en arrivant donc `a t( x) = Cx2 . Comme Gx2 = 2x(p q) + 1 = 1, on trouve C = 1
et finalement la solution particuli`ere tp (x) = x2 .
La solution generale est donc t(x) = x2 + A + Bx et les conditions fronti`ere ram`enent
`a tx = x(B x).
Pour p 6= q
tx = ptx+1 + qtx1 + 1 for any 1 x B 1
tB = 0
t0 = 0
La solution generale homog`ene avec p 6= q est h(x) = k1 (q/p)n + k2 et le terme
nonhomog`ene 1 sugere une solution particuli`ere constante k, mais comme ca satisfait
1
.
lequation homog`ene, on modifie `a kn. Finalement, k = qp
x
La solution particuli`ere est tp (x) = qp
; elle satisfait deja tp (0) = 0. La partie homog`ene
h(x) = tx tp (x) devra aussi satisfaire h(0) = 0 et donc elle sera de la forme h(x) =
Ah(x)
o`
u h(x)
= ((q/p)x 1).
n
En demandant que tn = qp
+ A(q/p)n 1) satisfait la condition fronti`ere tB = 0 on
trouve :
n
h(n)
B (q/p)n 1
=
tn = tp (n) tp (B)
q p q p (q/p)B 1
h(B)
(
si p > q
; on peut aussi obtenir ce
La limite quand B est tn =
n
tp (n) = qp si p < q
resultat en utilisant lapproximation determiste Xn X0 nE(Z1 ), appellee aussi
limite fluide.
P
7. cx = Ex [ T0 1 X(t)] (co
ut total dinventaire espere) satisfait le syst`eme inhomog`ene
Gc(x) + x = 0, c(0) = 0, c(B) = 0.
Pour p = q :
cx+1 cx1
+
+ x for any 1 x B 1
cx =
2
2
cB = 0
c0 = 0
3
h(n)
cn = cp (n) cp (B)
h(B)
(
si p > q
.
La limite quand B est cn =
cp (n) si p < q
8. On arrive a w(x) = A1 z1x + A2 z2x , o`
u zi sont les racines de pz 2 a1 z + q = 0, et Ai
satisfont A1 z1B + A2 z2B = 1, A1 + A2 = 1 et w(x) =
1.2.5
Les marches al
eatoires sur (, )
ACTUARIAT
FILES DATTENTE, FIABILITE,
p = q. On verifie facilement que le temps espere de retour est ; ce cas qui peut aparaitre
seulement sur les espace detats infinis sapelle nulle recurent. Dans le cas des marches
recurrentes avec Ei < , appelle recurrent positif, on peut verifier que la distribution
stationnaire est i = Ei1 .
Pour la marche simple, on peut aussi calculer E par la decomposition
E=
X
k=0
P [S2k = 0] =
X
2k
k=0
Le resultat est obtenu en verifiant le quotient des termes consecutifs dans la serie ci1/2
dessus ; on apercoit alors quon a a faire avec la serie hypergeometrique 1 F0 [ ; 4pq] =
1
(ce genre des sommes ont des formules explicites, quon peut decouvrir facilement
(1z)1/2
avec un logiciel symbolyque, assez souvent)1 .
Rm : La derni`ere expresssion est valable aussi pour la marche paresseuse avec p + q < 1.
1.2.6
Probl`
emes de premier passage sur un intervalle semi-infini
Soit n := limB an (B) la probabilite de ruine sur [0, ). Nous avons deja vu, en
partant des recurrences sur un domaine borne [0, B], que :
(
(q/p)n ,
q<p
n =
1,
q p.
Cette solution peut etre trouvee aussi directement, sans passer par la probabilite de
ruine sur [0, B], en sappuyant sur des des arguments probabilistes. On remarque dabord
que cette fonction est multiplicative en n, i.e. n = n , et en suite on choisit selon la limite
de Xn quand n .
La solution la plus simple est en effet de remarquer que labsence des sauts strictement
plus grands que 1 implique une propriete de multiplicativite, ce qui impose une solution
puissance. Mais, bien-sur, cette approche ne peut pas contribuer `a letude des marches nonsimples dans les deux directions.
Examinons maintenant la methode de fonctions generatrices (analogues `a la transformee
de Laplace), qui nest pas reellement necessaire pour la marche simple, mais qui est la
methode la plus puissante pour la resolution des `equations de differences (differentielles).
On ajoute les equations n = p n+1 +q n1 multipliees respectivement par z n , n = 1, 2, ..
P
n
On obtient ainsi une `equation pour la fonction (z) :=
n=1 z n :
(z) =
p 1
(z) 1
o`
u (z) = Ez Z1 = pz 1 + qz
P
On peut
la representation Pk = Coef (0, Ez Sk ). On trouve E = k=0 Coef (0, Ez Sk ) =
P aussi utiliser
1
1
1
( 1z
1pz/q
)) = ..., ou linversion de la
Coef (0, k=0 (pz + qz 1 )k ) = Coef (0, zpzz 2 q ) = Coef (0, pq
transformee de Fourier. Cette methode aboutisse aussi en deux dimensions, en ramenant a des integrales
eliptiques
1
De lors,
(z) =
zp 1
p qz pz 1
p qz z(p q)
p
1
=
=
=
1 z p + qz 2 z
(1 z)(p qz)
(1 z)(p qz)
p qz
8 3
1
1
8
2
1
8
2 + +
= ( 1)( 2 ) = ( 1)( 1/2)( + 1/4)
10
10
10
10
10
10
10
)x satisfait 0 = 1 = 1 ssi A1 = 5/6, A2 = 1/6. Les probabilites
x = A1 ( 21 )x + A2 ( 1
4
de ruine sont :
x
x
x
5 1
1
1
5 1
x =
6 2
6
4
6 2
Exercice 1.2.11 Calculer les probabilites de ruine pour une marche avec p2 = 83 , p1 = 81 , p1 = 12
1.2.7
Exercices
1. R
elations de r
ecurrence. Obtenez la formule analytique des suites decrites par les
relations de recurrence ci-dessous, et verifiez-les en utilisant les premiers termes de la
suite t2 , t3 .
(a) ti = 2ti1 + i 1, t0 = 0 (b) ti = 2ti1 + 5 2i , t0 = 0
(c) ti = 3ti1 2ti2 + 2, t0 = 0, t1 = 2 (d) ti = 2ti1 ti2 + 2, t0 = 0, t1 = 2
2. Calculer les probabilites de bonheur pour une marche sur [0, B], avec a) p2 = 52 , p1 = 51 , p1 =
8
1
1
b) p1 = 10
, p1 = 10
, p2 = 10
c) p1 = 76 , p1 = 0, p2 = 71
3. Une particule decrit une marche aleatoire sur E = {1, 2, ..., 2n 1} : si la particule est
en i < n, alors elle se deplace en j = i + 1, et si la particule est en i > n, alors elle
se deplace en j = i 1 ; si la particule est en i = n, alors elle se deplace en 1 avec
probabilite a, en 2n 1 avec probabilite b, et avec probabilite 1 a b > 0 `a une
position j choisie avec probabilites egales parmi les autres elements de E, differents de
n. La position Xk au temps k constitue une chane de Markov.
(a) Donner la matrice de transition.
(b) Determiner la loi stationnaire de la chane.
(c) Calculer la position moyenne de la particule en regime stationnaire.
(d) Calculer lesperance du temps de retour en n dune particule qui part de n.
ACTUARIAT
FILES DATTENTE, FIABILITE,
(e) En supposant maintenant que les etats 1, 2n 1 deviennent absorbants, calculer
les probabilites de ruine (k) et lesperance du temps T = min[T (1), T (2n 1)].
4. La marche paresseuse : Soit Xn = X0 + Z1 + Z2 + + Zn une marche aleatoire
sur Z, avec (Zn ) une suite de variables aleatoires reelles independantes de meme loi
P [Zn = 1] =p/q et P [Zn = 0] =1- p-q, avec 0 < p + q < 1. Pour tout x de N, on note
par Ex lesperance en commencant de x (conditionnant sur X0 = x). Nous arretons le
processus au temps darret T auquel le processus sort de lintervalle [0, K] pour 0 < K
donnes.
Obtenez lequation de recurrence et les conditions
fronti`ere satisfaites par px =
P
Px {XT = K}, fx = Ex XT , tx = Ex T , cx = Ex [ T0 X(t)] et wx = Ex aT .
Resolvez les equations de recurrence qui en resultent pour a) px , b) fx , c) tx , d) cx et
e) wx , quand p = q < 1/2.
5. a) Quelle est la probabilite que la marche aleatoire simple est de retour en 0 apr`es 2n
pas ? b) Approximer cette quantite par la formule de Stirling limn (n/e)n!n n = 2.
c) (*) Demontrez la formule de Stirling.
6. (*) Marc et un groupe de n 1 amis jouent un jeu. Chacun met un euro, et ensuite
lance une monnaie biaisee, avec une probabilite de sortir face egale `a p. La totalite
de largent est partage egalemment entre ceux qui ont obtenu face (sil ny a aucune,
largent est donne `a une oeuvre charitaire), et les piles perdent leur argent. a) Quelle
est lesperance du capital de Marc, apr`es un tour ? b) (*) Quelle est lesperance du
capital apr`es un tour pour un joueur choisi aleatoirement ?
Solutions :
1. (a) Cest une equation nonhomogene, alors nous aurions :
ti = ti + A2i , ti = c1 i + c2 avec c1 i + c2 = 2(c1 i c1 + c2 ) + i 1
et alors
c1
c2
ti
t0
ti
=
=
=
=
=
2c1 + 1 et c1 = 1
2c1 + 2c2 1 et c2 = 2c1 + 1 = 1
i 1 Finalement,
= 0 = 1 + A et A = 1
i 1 + 2i
c = 2 et c2 = 2c1 + 1 = 1
ti = i 1 Finalement,
t0 = = 0 = 1 + A et A = 1
ti = i 1 + 2i
et alors
(d) Cest une equation differentielle nonhomog`ene avec des racines confondues egales
a 1 de lequation quadratique attachee, alors nous aurions :
ti = ti + A1 + A2 i, ti = c1 i + c2 avec c1 i + c2 = 2(c1 i c1 + c2 ) + i 1
et alors
c1
c2
ti
t0
ti
=
=
=
=
=
2.
3.
4. (a) La matrice de transition est :
0
0
0
1
P =
2n2
...
0
0
2c1 + 1 et c1 = 1
2c1 + 2c2 1 et c2 = 2c1 + 1 = 1
i 1 Finalement,
= 0 = 1 + A et A = 1
i 1 + 2i
1
0
0
1
2n2
0
0
0
0 ... 0
1 0 ...
0 1 0
... 0 ...
0 1 0
0 0 1
0 ... 0
0
0
...
1
2n2
0
0
1
0
0
0
1
2n2
0
0
0
k
(b) k = 2(n1)
n , k < n et la symmetrie k = 2nk impliquent n (1 +
n
2
k
n (1 + 2 ) = 1 et n = 2+n
, k = (n+2)(n1)
(n1)n
)
2(n1)
(c) ES [Xn ] = n
(d) tn = 1n 2+n
2
5. (a) Soit (Gf )x = p (fx+1 fx ) + q (fx1 fx ) (formellement, la meme expression
comme dans le cas non-paresseux, sauf que maintenant p + q < 1.
Les equations sont respectivement :
(Gp)x = 0, pK = 1, p0
(Gf )x = 0, fK = K, f0
(Gt)x + 1 = 0, tK = 0, t0
(Gc)x + x = 0, cK = 0, c0
(Gw)x = (a1 1)wx , wK = 1, w0
=0
=0
=0
=0
=1
Ces sont exactement les memes equations comme pour une marche non-paresseuse,
sauf que loperateur est different.
ACTUARIAT
FILES DATTENTE, FIABILITE,
(b) Pour px et fx on obtient donc les memes equations comme pour une marche symmetrique avec p = 1/2, par exemple :
2ppx = ppx+1 + ppx1
pK = 1, p0 = 00
et donc les memes reponses px =
espere) on trouve :
tx+1 tx1
1
+
+
2
2
2p
= 0, t0 = 0
tx =
tK
x
,
K
for any 1 x K 1
for any 1 x K 1
.
avec solution tx = x(Kx)
2p
Remarque : Le fait que les equations sont identiques pour ces deux marches (paresseuse et non-paresseuse) nest pas une coincidence. En fait, il sav`ere que les reponses
obtenues sont les memes por nimporte quel processus Markovien homog`ene, si on defini loperateur de la facon juste. Donc, la reponse pour tous les probl`emes concernant
esperances va impliquer un seul operateur G (seulement les conditions fronti`ere et la
partie non-homog`ene changent dun probl`eme `a lautre)- en fait, la famille des processus
aleatoires Markoviens est isomorphe `a une famille doperateurs deterministes.
En plus, la structure des reponses en fonction de G est la meme pour toutes les
processus aleatoires Markoviens, malgre leur diversite ; cest un fait remarquable, qui
demontre la puissance de ce concept.
6.
7. a) X, le nombre total des faces a une distribution binomiale B(n, p). Il y a deux
possibiltes : - que Marc tire une pile et perd, dans quel cas son gain sera 0, et quil
n
u X a une distribution binomiale
tire une face, dans quel cas le gain sera Y = 1+X
o`
B(n, p). Donc, lesperance du gain est
n1
n1
X
X
n
n
(n 1)!
n
k
k n1k
=p
Cn1 p q
=p
pk q n1k
Y = pE
1+X
1+k
1 + k k!(n k 1)!
k=0
k=0
n1
X
k=0
X
n
n!
pk+1 q n1k =
Cnj pj q nj = 1 q n
1 + k (k + 1)!(n k 1)!
j=1
n1
X
i=0
n1
X
1
1
i
i
C
x
=
C i xi
n1
2
2 n1
(i + 1)
(i
+
1)
i=0
o`
u x = p . Parfois, ces sommes
Pm iq i
erivant ou en
i=0 Cm x en d
P
toujours `a des sommes closes. Une somme Sn = n1 fn est une solution dune relation
de recurrence de premier ordre Sn Sn1 = fn et donc la question de lexistence
des formules closes pour fn polynomes ou fonctions rationelles est un cas particulier
de la question de lexistence des formules closes pour les recurrences avec coefficients
polynomiaux.
Cette question est assez difficile, et le plus efficace est dutiliser un logiciel symbolique.
Ceux ci nous informent sil y a des formules closes dans la famille relativement simple
des solutions dAlembertiennes, ou si non.
1.2.8
R
ecurrences et
equations differentielles lin
eaires `
a coefficients constants
Letude des marches aleatoires et des processus Markoviens ram`ene souvent `a des
equations differentielles ou de recurrence lineaires. Le cas des coefficients constants est assez simple, car toutes les solutions peuvent etre construites `a partir des solutions basiques
exponentielles erx .
Comme le cas des equations differentielles `a coefficients constants est tr`es bien connu,
on rappelle ici seulement le cas de recurrences lineaires.
Les deux equations de recurrence lineaire de deuxi`eme ordre ci-dessous
aun+2 + bun+1 + cun = 0,
(1.6)
rec
(1.7)
r1
L
equation homog`
ene
Si les coefficients a, b et c sont constants, on sait quils existent des solutions de la forme
un = xn pour tout n ( fonctions exponentielles ). Pour trouver x on remplace xn en (1.6) et
on trouve que x doit satisfaire l
equation auxiliaire :
ax2 + bx + c = 0.
(1.8)
Soient x1 et x2 les deux racines de lequation de deuxi`eme degre (1.8). On en deduit que la
solution generale de (1.6) est toujours de la forme
1. Si x1 6= x2
un = Axn1 + Bxn2 ,
2. Si x1 = x2 ,
un = Axn1 + Bnxn1 ,
avec des constantes A et B.
Dans les deux cas A et B doivent etre determinees `a partir des conditions supplementaires
sur la fronti`ere.
L
equation nonhomog`
ene
La resolution du probl`eme nonhomog`ene (1.7) comporte quatre pas :
quad
ACTUARIAT
FILES DATTENTE, FIABILITE,
1. Trouver un basis pour lespace vectoriel des solutions de lequation auxiliaire homog`ene
(1.6), et donc la solution generale un pour cette equation.
2. Determiner une solution particuli`ere de (1.7), par exemple en utilisant une expression
essai vn qui a la meme forme generale que le membre droit dn ,, mais des coefficients
non-determines. Par exemple, si dn est un polynome dordre k, on essaie un polynome
general dordre k.
3. Neanmoins, si votre expression dessai a des termes qui sont inclus dans lespace vectoriel des solutions de lequation homog`ene obtenue au pas 1 (et donc qui vont etre
annihiles par loperateur des differences), il faut multiplier lexpression dessai par
n, n2 , ... jusqu`a ce quil ny a plus des termes inclus dans cetespace .
4. Apres la decision de la forme dessai, on trouvent les valeurs des coefficients de vn `a
partir de (1.7), par la methode des coefficients non-determines.
5. La solution generale de (1.7) est de la forme vn = vn + un . On trouve finalement les
coeficients encore non determines en un , en utilisant les conditions sur la fronti`ere pour
vn .
Exemple 1.2.2 On considere lensemble E des suites (un )nN qui verifient la relation suivante :
3
(R) n N, un+2 + un+1 un = 0.
2
1. Rechercher les suites geometriques qui verifient cette relation (R).
2. On note r1 et r2 leurs raisons et on admet que E est un espace vectoriel de dimension
2, i.e. toute suite de E secrit sous la forme
un = r1n + r2n ,
n N.
n N,
3
vn+2 + vn+1 vn = 4n + 1.
2
un = vn tn .
Exemple 1.2.4 Obtenez les formules analytiques des suites decrites par les relations de
recurrence ci-dessous, et verifiez-les en utilisant les premiers termes de la suite t2 , t3 .
1. ti = 2ti1 + i 1, t0 = 0
2. ti = 2ti1 + 5 2i , t0 = 0
3. ti = 3ti1 2ti2 + 2, t0 = 0, t1 = 2
4. ti = 2ti1 ti2 + 2, t0 = 0, t1 = 2
Solution :
1. Cest une equation nonhomog`ene, alors nous aurons :
ti = ti + A2i , ti = c1 i + c2 avec c1 i + c2 = 2(c1 i c1 + c2 ) + i 1
et alors
c1
c2
ti
t0
ti
=
=
=
=
=
2c1 + 1 et c1 = 1
2c1 + 2c2 1 et c2 = 2c1 + 1 = 1
i 1 Finalement,
= 0 = 1 + A et A = 1
i 1 + 2i
et alors
c = 2 et c2 = 2c1 + 1 = 1
ti = i 1 Finalement,
t0 = = 0 = 1 + A et A = 1
ti = i 1 + 2i
4. Cest une equation de differences nonhomog`ene dont les racines de lequation quadratique attachee sont confondues egales `a 1 donc nous aurons :
ti = ti + A1 + A2 i, ti = c1 i + c2 avec c1 i + c2 = 2(c1 i c1 + c2 ) + i 1
et alors
1.2.9
c1 = 2c1 + 1 et c1 = 1
c2 = 2c1 + 2c2 1 et c2 = 2c1 + 1 = 1
ti = i 1 Finalement,
t0 = = 0 = 1 + A et A = 1
ti = i 1 + 2i
R
ecurrences et
equations differentielles lin
eaires `
a coefficients polynomiaux (*)
Dans le cas des coefficients polynomiaux la resolution est possible seulement dans des cas
particuliers, et en utilisant toute une hierarchie des fonctions de base : hypergeometriques,
dAlembertiennes et Liouvilliennes.
ACTUARIAT
FILES DATTENTE, FIABILITE,
1.3
Poiexp
Le processus de Poisson
1.3.1
o`
u Bi sont des va aleatoires Bernoulli de param`etre p ?
do`
u la fonction F = FX = 1 FX verifie lequation fonctionnelle
En prenant logarithmes, on trouve que la fonction f (x) = log(F (x) verifie lequation
fonctionnelle
() f (t + h) = f (t) + f (h) pour tous t, h 0
On utilise maintenant le resultat :
Th
eor`
eme 1.3.1 Une fonction monotone satisfaisant lequation fonctionnelle
() f (t + h) = f (t) + f (h) pour tous t, h 0
f (t) = tf (1)
D
emonstration: : A partir de () , on obtient que :
m
m 1 m
1
m
= f
= (f (1)) n
= (f (1)) n
m, n N , f
n
n
Montrons que f (1) 6= 0 : si f (1) = 0 alors dapr`es ce qui prec`ede f est nulle sur Q+ ,
or on sait que pour tout reel x > 0 , il existe r dans Q+ tels que r x , comme f est
decroissante, on aura alors 0 f (x) f (r) = 0 donc f (x) = 0 et f = 0, ce qui est
faux.
Par consequent les fonctions f et x 7 (f (1))x = ex ln f (1) concident sur Q+ , comme ces
fonctions sont continues sur R+ , on peut alors affirmer que x 0 , f (x) = ex ln f (1)
On sait que limx+ f (x) = 1 limx+ FX (x) = 0 donc ln f (1) < 0 et on peut
ecrire que
x 0 , FX (x) = 1 ex avec = ln f (1) > 0
et on en deduit que la loi de X est une loi exponentielle.
1.3.2
D
efinition 1.3.1 Un processus qui a des acroissements independents (PAI) et pour le quel
il existe une constante > 0 tq pour tout t > 0, la variable aleatoire Nt+s Ns suit une loi
de Poisson de param`etre t :
pk (t) := P{Nt+s Ns = k} =
sappelle processus de Poisson homog`ene.
(t)k t
e
k!
ACTUARIAT
FILES DATTENTE, FIABILITE,
Remarque 1.3.1 Le nombre espere darivees du processus de Poisson dans un interval de
longueur t est : E[N(s + t) N(s)] = t.
Exemple 1.3.1 Consid`erons la distribution du nombre daccidents de voiture dans une ville,
par jour. a. Est ce-que ce nombre daccidents pourra suivir approximativement une loi de
Poisson ? b. Trouver i. la probabilite quil y ait au plus trois accidents un jour donne. ii.le
nombre moyen daccidents (M) pour lequel la probabilite davoir trois accidents ou plus un
jour donne est < 0.05. (On exprimera cette probabilite en fonction de l ?inconnue M et on
en deduira une equation quil faudra resoudre numeriquement).
Exercice 1.3.1 Des clients arrivent dans une banque selon un processus de Poisson N(t), t
R, de param`etre = 1.2 (lunite de temps est la minute).
1. Il arrive en moyenne combien de clients en 10 mn ?
2. Donnez la loi de probabilite de N(2), le nombre de clients qui arrivent en deux minutes,
et esquisser le graphique de pk = P [N(2) = k], pour k=0,1,2,3,4,5.
3. Donnez la probabilite que personne narrive durant 2 mn, et apr`es ca que 3 personnes
arrivent dans les 4 mn suivantes.
4. Donnez la probabilite q3 que 3 personnes arrivent en 4 mn, verifiez que q3 = p0 p3 +
p1 p2 + p2 p1 + p3 p0 , et expliquez pourquoi.
Exercice 1.3.2 a) Montrez que la distribution du temps de la prochaine arrivee dun processus de Poisson de param`etre est exponentielle a param`etre .
b) Trouver la distribution du temps de la n-i`eme arrivee dun processus de Poisson.
1.3.3
n
X
i=1
ai , n = 0, 1, 2, ...
Il est facile de voir que le nombre darrivees avant le temps t, i.e. le processus
(Nt )tR+ = sup{k : Ak t}
k
1.3.4
D
efinition 1.3.4 Soit ai , i = 1, 2, ... une suite des
Pn v.a. i.i.d., `a distribution exponentielle
de param`etre (interarrivees), et soit An =
i=1 ai les temps de renouvellement. On
appelera processus de Poisson homog`ene (en partant de N0 = 0) le processus qui compte le
nombre darrivees pendant [0, t] :
N[0,t] = Nt = max{n N : An t}
Rq : La densite de An est la densite (n,) (x).
Il existe plusieurs objets dinteret associes `a chaque processus de renouvellement :
1. lage courant Z1 (t) = t ANt
ACTUARIAT
FILES DATTENTE, FIABILITE,
Demo : a) Comme Ak est la somme de k variables exponentielles, elle a la densite
k1
et dt. On a aussi :
Gamma (, k) donnee par : fAk (t)dt = (t)
(k1)!
fAk (t)dt = P{Ak1 t, Ak t, Ak t + dt} = P{Ak1 t, Ak t}dt = P{Nt = k 1}dt
b) Calcul direct pour k = 0, 1, ...
Exercice 1.3.5 Soit (Nt )t0 un processus de Poisson unidimensionel dintensite > 0,
defini par la Definition 1.3.1. Montrez que les variables aleatoires suivantes : a1 , qui
represente le temps jusqu`a la premi`ere arrivee, et a2 , qui represente le temps entre les
deux premi`eres arrivees, sont independantes et exponentielles de param`etre . Outrement
dit, pour tout t1 > 0, t2 > 0,
P{a1 > t1 , a2 > t2 } = et1 et2
Exercice 1.3.6 La distribution exponentielle et lindependance des intervales ai entre les
arrivees implique la propriete de Markov. Plus specifiquement, montrez par exemple que :
P [Nt+s k + 1|Nt = k, Nts1 = k, s, s1 > 0]
Premi`ere methode :
P [Nt+s k + 1|Nt = k, Nts1 = k] = P [ak+1 t + s Ak |Ak t s1 , ak+1 > t Ak ]
P [t Ak < ak+1 t + s Ak , Ak t s1 ]
=
P [Ak t s1 , ak+1 > t Ak ]
R ts1
fAk (x)P [t + s x ak+1 > t x]dx
= x=0 R ts
1
fAk (x)P [ak+1 > t x]dx
x=0
R ts1
R ts1
(tx)
(t+sx)
f
(x)(e
e
dx
fAk (x)e(tx) (1 es )dx
A
k
x=0
x=0
=
=
= 1 es
R ts1
R ts1
(tx) dx
(tx) dx
f
(x)e
f
(x)e
Ak
Ak
x=0
x=0
1.3.5
Rx
0
h(y)
dy o`
u h(y) =
continu par un processus de Bernoulli (lances dune monnaie) en temps discret. En suite,
en laissant n h 0, on arrive au processus de Poisson. Le fait que le nombre
(binomial) darrivees des succes dans un processus de Bernoulli en temps discret converge
vers processus de Poisson en temps continu est une consequence de lexercice suivant :
Exercice 1.3.7 Considerez un processus darrives independentes dans des unites de temps
de longueur h = 1/n, avec la probabilite dune arrive per unite de temps egale a .
1. Montrez que la limite quand n dune distribution binomiale B(n, p) avec p =
est la distribution de Poisson avec esperance .
(i)
2. Soit Nn i = 1, 2, ... les nombres dintervalles separant les arrivees consecutives. Mon(i)
(i)
trez que les temps Tn = Nnn entre les arrivees consecutives convergent vers des distributions exponentielles de param`etre , pour i = 1, 2.
3. Considerez un processus darrivees independentes, avec la probabilite dune arrive per
unite de temps (ou taux) egale a . Trouver la distribution jointe des nombres darrives dans deux unitees de temps consecutives, en subdivisant chaque unitee en n periodes dobservation et en prenant n .
1.3.6
D
efinition 1.3.5 Le processus de Poisson compose
St =
Nt
X
Zi
(1.9)
i=1
ES1 =
j=0
()j
jEX1 = EX1 EP o(1) =
j!
xf (x)dx
pc
ACTUARIAT
FILES DATTENTE, FIABILITE,
Similarly, the variance
j=0
j
()j X
E(
Xi )2 (EX1 )2
j!
i=1
()j
(jEX12 + j(j 1)(EX1 )2 ) (E = X1 )2
=
e
j!
j=0
= EX12 + (EX1 )2 (EX1 )2 = EX12
R
b) Let MX1 (u) = EeuX1 = 0 eux f (x)dx = denote the moment generating fonction of one jump. Conditioning on the =
number of jumps we find
R ux
PN T
j
P
t(MX1 (u)1)
t (t) (M
j
EeuSt = Eeu( t=1 Xt ) =
= et( 0 (e 1)f (x)dx) . Taking logarithms
X1 (u)) = e
j=0 = e
j!
yields :
c(u) = (MX1 (u) 1)
1.3.7
Conclusions
Le processus (Xt )t0 peut alors etre considere comme un processus de Poisson, car :
- (Xt )t0 est bien un processus de comptage (il est assez clair quil est tr`es peu probable
de pecher plusieurs poissons au meme instant)
- (Xt )t0 est homog`ene dapr`es (h2)
- (Xt )t0 est un P.A.I. dapr`es (h1).
1.3.8
Exercices
1. a) Montrez que si les variables {ai , i = 1, ..., n} ont des distributions exponentielles
independantes `a param`etres i , i = 1, ..., n, alors la
Pvariable a = min{ai , i = 1, ..., n} a
une distribution exponentielle de param`etre = i i . b) Trouvez la distribution de
la variable I qui donne lindex qui realise le minimum. c) Qu-est-ce quon obtient en
superposant n processus de Poisson `a param`etres i , i = 1, ..., n ?
2. Soit Xt un processus de Poisson de taux , les point du quel sont colories en K
couleurs, independamment avec des probabilites p1 , ..., pK , donnant naissance ainsi
`a K processus de comptage X1 (t), ..., XK (t). Montrez que X1 (t), ..., XK (t) sont des
processus de Poisson independants, avec taux p1 , ..., pK .
3. Des voitures passent sur une route selon un processus de Poisson de param. = 1/mn.
a. Si 5% des voitures sont des Renault, montrer que le passage de ces voitures suit un
processus de Poisson de param. 0.05. b. Sachant que 10 Renault sont passees en une
heure, quelle est lesperance du nombre total de voitures passees durant cette heure ?
c. Si 50 voitures sont passees en une heure, quelle est la probabilite que cinq dentre
elles soient des Renault ?
4. Un scribe doit copier n pages dun manuscrit. Comme il est fatigue, il comet un nombre
total derreurs distribuees `a distribution de Poisson P o(), qui peuvent se trouver sur
nimporte quelle page, avec des probabilites egales.
a) Quelle est la probabilite que la premi`ere page ne contient pas des erreurs ?
b) Quelle est lesperance du nombre des pages contenant des erreurs ?
5. (a) Quelle est la probabilite quun cercle de rayon r autour de lorigine ne contient
aucun point dun processus de Poisson deux-dimensionel de taux ? Autrement
dit, calculez la fonction de survie ou de distribution complementaire FD (r) =
P{D > r}, o`
u D est la distance de lorigine jusquau point le plus proche dun
processus de Poisson deux-dimensionel.
(b) Calculez la fonction de densite fD (r).
(c) Calculez le mode de la fonction de densite.
R
r2
(d) Calculez par parties lintegrale 0 r 2 e 22 dr et montrez que lesperance est
p
RR
R r2
ED = 21 (lintegrale 0 e 2 dr = /2 = 0 r2 /2 es dsdr peut-etre calcule
par le theor`eme de Fubini)
6. Le temps jusqu`
a la premi`
ere arriv
ee non-decourag
ee. Soit N une variable
k1
geometrique, `a distribution P{N = k} = (1 p)p , k = 1, ...,, soitP
Ti , i = 1, 2, ... des
variables aleatoires i.i.d. exponentielles `a param`etre c, et soit W = N
i=1 Ti le temps
jusqu`a la premi`ere arrivee non-decouragee.
(a) Trouvez la fonction generatrice des moments mT1 (s) = EesT1 de T1 ,
ACTUARIAT
FILES DATTENTE, FIABILITE,
P
(b) Trouvez la fonction generatrice des moments mW de W = N
i=1 Ti .
(c) Quelle est la distribution de la variable aleatoire W ?
7. Ross, Exercice 63 Une societe dassurance paie pour les declarations de sinistres
dans le cadre des contrats dassurance vie selon un processus de Poisson de taux = 5
par semaine. Si le montant paye pour chaque contrat suit une distribution exponentielle
de moyenne 2000, quelles sont la moyenne et la variance des montants payes par la
societe dassurances dans un intervalle de quatre semaines ?
8. Ross, Exercice 66 Larrivee des clients `a un distributeur de billets suit un processus
de Poisson de taux 12 per hour. Le montant retire `a chaque transaction est une variable
aleatoire de moyenne 30 et ecart-type 50 (un retrait negatif signifie que de largent a
ete depose). La machine est utilisee 15 heures par jour. Approximez la probabilite que
le montant total retire par jour soit inf`erieur `a 6000.
9. Belisle, TD4
Solutions :
1. c) Il sagt dun processus de comptage
P `a interarrivees exponentielles, donc dun processus de Poisson, a param`etre = i i .
2. a) Les nombres des erreurs Ni sur chaque page i sont des variable de Poisson coloriee avec probabilite 1/n, et donc Ni sont des variables de Poisson de taux /n
(independantes). La probabilite que Ni 1 est 1 e/n .
b) EnPdecomposant la variable N comme somme des indicatrices, lesperance de
N = ni=1 Ni est n(1 e/n ) (en fait, N a une distribution binomiale, car Ni sont
independants, par le theor`eme de coloriage des variables Poisson).
2
3. a) F (r) = er
2
2
b) fD (r) = 2rer . c)Le mode de la densite satisfait (1 2r 2 )er = 0, donc
1
r = 2
.
R
2
d) ED = 2 0 r 2 er
1
, on sapercoit que notre integrale est de la forme
En posant = 212 = 2
Z
r2
2 3
2 2
2
dr =
r e
2
0
car elle represente une demi de la variance de la distribution Gaussienne. (On peut aussi
retrouver ce resultat en utilisant lintegration par parties, et en calculant lintegrale
p
RR
R r2
e 2 dr = /2 = 0 r2 /2 es dsdr par le theor`eme de Fubini.)
0
On trouve finalement que lesperance est
1
2
ED = 2
=
4 2
2
5 (a) mT1 (s) =
(b) mW (s) =
c
cs
1
1s/c
n=1 (1
c
1
c n
) = (1 p) cs
p)pn1 ( cs
1p
c
cs
(1p)c
(1p)cs
(c) W est donc exponentielle `a param`etre (1 p)c, qui est precisement le taux des
points acceptes.
1.4
Th
eor`
eme 1.4.1 Soit (Xt )t0 un processus Markovien homog`ene, `a temps continu t R+ .
a-dire :
Alors, les operateurs de transition (Pt )t0 forment un semi-groupe stochastique, cest-`
1. P0 = Id
2. s, t 0 ,
Pt+s = Pt Ps
(equations de Chapman-Kolmogorov)
3. P
t 0 , Pt est une matrice stochastique (i.e. i, j I , pij (t) 0 et i I,
jI pij (t) = 1 ).
4.
(
Pt = Pt G (equation Kolmogorov avant)
o`
u G est le generateur.
5. Pour tout t 0,
Pt = etG ,
R
et la transformee de Laplace/resolvente est 0 est Pt dt = (sId G)1 , pour tout s > 0.
tc
R
emarques : 1) Le cas le plus simple est celui des processus de sauts, i.e. avec des espaces
detats E finis ou denombrables, dans quel cas Pt , G sont des matrices. Nous traiterons surtout
ce cas (si possible, car les processus de Levy, qui sont parmi les outils de modelisation les
plus utiles, font defaut !)
2) Dans le cas denombrable, il faudra ajouter des conditions qui assurent que les sommes,
integrales, etc., soient bien definis. Une telle condition est supiI (Gii ) < +.
3) Comme les matrices Pt = etG doivent etre stochastiques pour chaque t, il decoule que
la partie reele des valeurs propres de G doit etre nonpositive.
4) Pour le cas des espaces detats finies, les equations differentielles de Kolmogorov pour
Pt calculent la fonction exponentielle matrice etG , et donc admettent toujours des solutions
explicites en fonction des valeurs/vecteurs propres de G. En plus, la fonction exponentielle de
matrice est mise en oeuvre numeriquement dans toutes les logicielles modernes. Par contre,
pour les espace detats denombrables, le calcul explicit de Pt devient difficile, meme pour le
cas le plus simple de la file M/M/1 3 . Ils restent toujours les approches numeriques, et il y
en a beaucoup, comme pour temoigner sur la difficulte du probl`eme.
5) Pendant que le calcul du semigroupe suppose la connaissance du spectrum, celui
de la resolvente ne le demande pas. Par consequant, une methode possible pour le calcul
du semigroupe est de comencer par la resolvente, et ensuite linverser numeriquement (ou
analytiquement parfois, par exemple en utilisant la decomposition en fractions simples, dans
le cas rationnel).
Exercice 1.4.1 Calculer la resolvente dun bloque de Jordan G de taille n n, ainsi que
lexponentielle etG , pour n = 2.
3
Dans ce cas, la transforme de Laplace de Pt est explicite, et on peut linverser, en arrivant a des combinaisons des fonctions Bessel.
ACTUARIAT
FILES DATTENTE, FIABILITE,
1.4.1
R
esolution des `
equations Chapman-Kolmogorov pour le processus de Markov `
a deux
etats
On suppose que (Xt )t0 est une chane de Markov homog`ene `a valeurs dans
avec , 0.
E = {e1 , e2 }, de generateur G =
On est bien dans les conditions dapplication du theor`eme 1-2 (E est fini). La chane
etant simple, on a deux methodes pour la resolution des equations de Kolmogorov.
Premi`ere methode : on calcule etG pour tout t 0. Pour cela, on va essayer de diagonaliser G. Le polynome caracteristique PG de G est donne par :
PG () = det (G I2 ) = ( + + ) .
1er cas : = = 0
On a G = 0 donc etG = I2 pour tout t 0.
2i`eme cas : (, ) 6= (0, 0)
La matrice G admet 2 valeurs propres
distinctes donc est diagonalisable.
1
Pt = e
tD
= Pe P
1
=
+
+ e(+)t e(+)t
e(+)t + e(+)t
tD
car e
p (t) = p11 (t) + p12 (t) (1)
11
p12 (t) = p11 (t) p12 (t) (2)
On a Pt = Pt G do`
u:
p
(t) = p21 (t) + p22 (t) (3)
21
p22 (t) = p21 (t) p22 (t) (4)
De plus, comme Pt est une matrice stochastique, on a :
p11 (t) + p12 (t) = 1 (5)
p21 (t) + p22 (t) = 1 (6)
Les equations (1) et (5) donnent : p11 (t) = p11 (t) + (1 p11 (t)) i.e.
+ Ce(+)t avec C R.
p11 (t) + ( + ) p11 (t) = donc p11 (t) =
+
1
0
(+)t
0 e
1
+ e(+)t
do`
u : p11 (t) =
+
+
e(+)t
1
+
En procedant de meme, les equations (3) et (6) donnent :
p21 (t) = p21 (t) + (1 p21 (t)) i.e. p21 (t) + ( + ) p21 (t) =
+ C e(+)t avec C R.
do`
u p21 (t) =
+
1.4.2
R
esolution des `
equations de Chapman-Kolmogorov pour le
processus de Poisson ; le calcul de lexponentielle des matrices triangulaires (*)
0 0
..
0
0
.
..
.
0
0
generateur G = 0
.
.. ..
..
.
.
0
..
..
.. ..
.
.
.
.
Fixons letat initial i = 0 et posons P0,j (t) = pj (t). Les equations de Kolmogorov avant
equations de conditionnement.
k6=j
k6=j
k6=j
p1 (0) = 0
p1 (0) = 0
ACTUARIAT
FILES DATTENTE, FIABILITE,
t 7 tet est une solution particuli`ere de () et t 7 Cet (o`
u C R) est la solution
et
Raisonnons alors par recurrence. Supposons que pour j dans N, pj (t) = et (t)
j!
determinons pj+1. On a :
pj+1 (0) = 0
j j+1
j!
()
t 7 Ket (o`
u K R) est la solution generale de pj+1 (t) + pj+1 (t) = 0 et
j+1
j+1
j+1 tj+1
t
t 7 (j+1)!
et est une solution particuli`ere de () donc t 7 K + (j+1)!
et est la
(t)j+1 t
e
(j+1)!
1.4.3
(t)j
.
j!
Exercices
7 1
6
2 6 4
G=
1
2 3
(a) Donnez la formule exacte, ainsi qune approximation des probabilites de transition
infinitesimales Pi {Xdt = j} de la chane.
(c) Quelles sont les probabilites de transition de la chane discretisee associee aux
temps de saut ?
(d) Trouvez la distribution stationnaire de ce processus.
(e) Quelle est la loi conditionelle de T3 = inf{t 0 : Xt 6= 3|X0 = 3}, en sachant que
X0 = 3 ?
(f) Posant T (3) = inf{t > T3 : Xt = 3}, donnez un syst`eme des equations pour
x1 = E[T (3) |X0 = 1] et x2 = E[T (3) |X0 = 2]. Resolvez les equations.
(h) Calculez, pour le processus absorbe en 3, Pi,j (t) = P[t T (3) , X(t) = j|X0 =
i], i = 1, 2.
(i) Calculez P1 (t) = P[T (3) t|X0 = 1] et P2 (t) = P[T (3) t|X0 = 2] `a partir des
equations de Chapman-Kolmogorov et `a partirRde la reponse precedente et verifiez
2. a) Obtenez les equations de Chapman-Kolmogorov pour un processus des sauts Markovien, en conditionnant sur le moment de la premiere transition.
b) Obtenez les equations de Chapman-Kolmogorov, en conditionnant sur la position
au moment t + h, pour h tr`es petit.
Ind : Commencez par le cas du processus de Poisson.
Solutions :
1. (a) Les probabilites de transition infinitesimales
1 7dt
dt
6dt
1 6dt
4dt
P (dt) = edt G I + dt G = 2dt
dt
2dt
1 3dt
(b)
.3 .1 .6
P (.1) .2 .4 .4
.1 .2 .7
0 1/7
1/3 0
P =
1/3 2/3
6/7
2/3
0
ACTUARIAT
FILES DATTENTE, FIABILITE,
2 3 8
, 13 , 13 )
(d) = ( 13
(e) La loi conditionelle de T3 = inf{t 0 : Xt 6= 3}, en sachant que X0 = 3, est la loi
exponentielle `a param`etre 3 (et moyenne 1/3).
(f) En conditionnant sur le premier saut, nous trouvons :
1 1
+ x2
7 7
1
1
x2 = x1 +
3
6
x1 =
7
, x2 =
donc le meme syst`eme. De lors, x1 = 40
(g) Conditionnant au moment du premier saut
9
.
40
1 1
2
1 1 7 2 9
1
7 + 18
1 13
13
+ x1 + x2 = +
+
= (1 +
)=
=
3 3
3
3 3 40 3 40
3
40
3 8
24
7 1 6
2 6 4
G=
0
0 0
G=
2 6
= L1 Diag( )L,
le generateur du processus observe seulement en 1, 2. Diagonalisons G
i
o`
u les lignes de la matrice L sont les vecteurs propres `a gauche. Ici, les valeurs
propres, donnees par
2 + 13
+ 40 = ( + 8)( + 5) = 0 sont 8 et 5 avec
2 1
vecteurs propres L =
. Finalement,
1 1
P (t) = L1 Diag(ei t )L
(i) Les probabilites demandees satisfont Pi (t) = 1 Pi,3 (t), i = 1, 3, o`
u Pi,3 (t) sont
les probabilites de transition du processus absorbe avec generateur
7 1 6
= 2 6 4
G
0
0 0
A. Par la question precedente, :
P1 (t)
= L1 Diag(ei t )L1,
P3 (t)
ce qui donne
8t
8 t
1 1 1
1 1 1
+2e5t /3 + e8 t
2 1
e
0
e
P1 (t)
=
1
=
=
4e5t /3 e8 t /
1 1
2e5 t
0 e5t
P3 (t)
3 1 2
3 1 2
et x1 =
21
35
11
38
7
, x2
40
9
.
40
B. Posons pi (t) = Pi,3 (t) = 1 Pi,3 (t) pour les probabilites de non-absorption
dans la colonne fixe 3. On a p1 (0) = p2 (0) = 1 Comme P3,3 (t) = 1, lequation
Chapman-Kolmogorov P = GP donne pour la troisi`eme colonne :
(1 p1 (t)) = 7(1 p1 (t)) + (1 p2 (t)) + 6
(1 p2 (t)) = 2(1 p1 (t)) + 6(1 p2 (t)) + 4
ou
p1 (t) = 7p1 (t) + p2 (t), p1 (0) = 1
p2 (t) = 2p1 (t) 6p2 (t), p2 (0) = 1
et donc
p1 (t)
= etG 1
p3 (t)
j
X
i=0
X
i=0
j
X
i=0
j
i=0
Ainsi,
pj (t + h) pj (t)
= (pj1 (t) pj (t)) + (h)
h
En passant `a la limite (h 0), on obtient alors :
(
p0 (t) = p0 (t)
ACTUARIAT
FILES DATTENTE, FIABILITE,
1.5
Probl`
emes de premier passage/Dirichlet pour les
chanes et processus de Markov
1.5.1
D
efinition 1.5.1 Une chane/processus de sauts sapellent absorbants ssi tous leurs etats
recurrents sont absorbants, i.e. Pi,j = i,j au cas discret, et Gi,j = 0 pour chaque etat i
recurrent.
Motivation : 1) Parfois, on sinteresse `a une chane/processus jusquau moment quand
elle sort dun sous-ensemble de son espace detats .
Considerons par exemple une chane de Markov Xk , k N, recurrente, de matrice de
transition P , qui nous interesse
S seulement dans un ensemble detats T . Soit lensemble des
autres etats, et soit E = T = {1, 2, ...I, C1, C2, ..} lespace detats total. En modifiant
les probabilites de transition tq Pi,j = i,j , f ori, j , on obtient une chane absorbante P
avec etats transitoires T , etats absorbants = {C1, C2, ...}, et matrice de transition
(T ,)
= Q P
P
0
I
D
efinition 1.5.2 Soit Xt un processus/chane absorbants, soit lensemble des etats absorbants, et soit T le sous-ensemble (complementaire) detats transitoires. On appelera temps
de premier passage/sortie/absorbtion le premier temps quand le processus Xt nest
plus en T (et donc est arrive en )
= inf{t : Xt
/ T } {1, 2, ...}
Remarque 1.5.1 Dans le cas discret, est precisement le nombre de fois en T , en incluant
la position initiale.
On sinteressera dans plusieurs probl`emes concernant le temps du premier passage dans
lensemble des etats labsorbants , et les position apr`es absorbtion X immediatement
avant absorbtion X T . Plus precisement, nous etudierons :
1. Les esperances des temps dabsorbtion
t = (ti = Ei , i T ).
2. Les probabilites dabsorbtion dans les differents etats absorbants
pi,j = Pi [X = j], i T , j
(sil y en a plusieurs).
3. La distribution de (especialement les moments et la transformee de Laplace qui sont
plus faciles `a trouver).
Sommaire : Nous considerons en suite plusieurs probl`emes concernant labsorbtion
des processus et chanes de Markov de transition P . Br`evement, noua allons voir que les
probl`emes de Dirichlet (sauf letude de la distribution de ) ram`anent aux syst`emes lineaires
qui impliquent loperateur G. La methode pour obtenir ces equations est toujours le conditionnement sur le premier pas.
Par exemple, les systemes associes aux esperances des temps dabsorbtion et aux probabilites dabsorbtion dans un sous ensemble A sont respectivement :
e +1=0
Gt
ti = 0, i
(1.11)
Gp = 0
pi = IA (i), i
(1.12)
(1.13)
Nous verrons que les memes equations sont valables pour les chanes, apr`es avoir associe
`a chaque chane de matrice de transition P une matrice generatrice
G = P I.
D
efinition 1.5.3 Une matrice G satisfaisant
1. gij 0 si i 6= j, gii 0 et
P
2. gi,i + j6=i gi,j = 0
sera appellee matrice g
en
eratrice ou gen
erateur de la chane de Markov.
P
Une matrice G satisfaisant 1. et gi,i + j6=i gi,j 0 sera appellee sous-g
en
eratrice.
1.5.2
t:EN
Les esp
erances des temps datteinte
Th
eor`
eme 1.5.1 a) Les esperances des temps dabsorbtion `a partir des etats transitoires n
satisfont le syst`
eme dabsorbtion
n = Qn + 1
b) Elles sont donnees explicitement par :
n = (I Q)1 1
c) Avec une distribution initiale , lesperance n
= E N du temps dabsorbtion est :
n
= EN = (I Q)1 1
Demonstration : a) est equivalent au syst`eme
X
X (T ,)
X
ni =
Pi,j (nj + 1) =
Qi,j (nj + 1) +
Pi,j 1,
jE
jT
j T
/
ACTUARIAT
FILES DATTENTE, FIABILITE,
e:N
p | 1p
Exemple 1.5.1 Soit une chane sur {1, 2} definie par la matrice de transition
0 |
1
avec X0 = 1 (i.e., la loi initiale est c0 = (1, 0)).
Soit N le nombre des transitions jusqu`a labsorbtion, en partant du temps 0
a) Quelle est la valeur de N si X0 = X1 ...Xk1 = 1 et Xk = 2 ? Quel est lespace detats
de N ?
b) Trouvez lesperance n = EN du nombre des pas N jusqu`a labsorbtion, en partant du
premier etat (i.e. X0 = 1, = (1, 0)).
Remarque 1.5.3 Comme toujours, le syst`eme et la methode donne au point a) sont plus
importants que la formule explicite donnee en b) ; en effet, linversion des matrices nest pas
forcement la meilleure solution pour resoudre un syst`eme. Aussi, il existe beaucoup de variations de ce probl`eme, ram`enant a une diversite des formules expilcites, pendant que le principe
pour obtenir les syst`emes et toujours le meme : conditionnement sur le premier pas.
Ce probl`eme fournit donc une illustration du fait que conceptuellement et numeriquement,
les syst`emes dequations sont plus utiles que leurs solutions explicites !
Dir1
(1.14)
Remarque 1.5.4 Ceci est notre premier exemple de syst`eme de Dirichlet faisant intervenir loperateur G. Formule comme ci-dessus, il est valable aussi en temps continu (et en
fait pour tous les processus de Markov).
e a seulement ses valeurs propres avec partie reelle negative,
Remarque 1.5.5 La matrice G
etant par consequent inversible.
Remarque 1.5.6 La formule explicite
n = (I Q)1 1 =
X
(Q)i 1
i=1
X
N=
Ik
k=0
P
o`
u Ik est lindicateur detre dans la partie transitoire au P
temps k. Donc, ni =
k=0 Ei Ik .
Remarquons aussi la decomposition en indicateurs Ik = jT Ik,j , o`
u Ik,j est lindicateur
detre en position j T au temps k. Ces decompositions nous ram`enent finalement `
a
ni =
X
X
k=0 jT
Ei Ik,j =
X
X
k=0 jT
(Q)ki,j
1.5.3
Les probabilit
es dabsorbtion
D
efinition 1.5.4 Soit Xt un processus, soit E un sous-ensemble arbitraire de lespace detats
, et soit son complementaire. On appelera processus absorb
e en lensemble darr
et
t obtenu `a partir de Xt en modifiant tous les etats en en sorte quils soient
le processus X
absorbants.
Dans le prochaine exemple, nous utiliserons plusieurs ensembles darret.
Exemple 1.5.2 Pour une marche al
eatoire Xt , t = 0, 1, 2, ... sur le graphe papillon
ci-dessous, calculer :
O
ACTUARIAT
FILES DATTENTE, FIABILITE,
En particulier
(j) dans un etat absorbant fixe j satisfont
Th
eor`
eme 1.5.3 Les probabilites dabsorbtion p
le syst`
eme dabsorbtion
(j)
(j) = Q
p
p(j) + p(T ,)
(j)
o`
u p(T ,) denote le vecteur des probabilites de transition dans letat absorbant j.
La matrice P (abs) des probabilites dabsorbtion satisfait :
P (abs) = QP (abs) + P (T ,)
et donc
Dir2
P (abs) = (I Q)1 P (T ,)
Corollaire 1.5.2 Soit G := P I (ici, on pourrait encore effacer les lignes de G correspondant `a , mais pas les colonnes). Avec un prix final arbitraire f , les prix finaux esperes
p `a partir de tous les etats satisfont le syst`
eme dabsorbtion
Gp = 0
pi = fi , i
(1.15)
(1.16)
Corollaire 1.5.3 Avec une distribution initiale , avec un prix final arbitraire f , on a
lespace detats :
= (I Q)1 P (T ,) f
p
Pour autres exemples des probl`emes dabsorbtion pour les chanes de Markov, voir Ruegg,
2.6.4-2.6.5.
1.5.4
Exercice 1.5.3 a) Pour un processus absorbant en temps continu a deux etats 0, 1 avec
G0,1 = 0, G1,0 = , calculez lesperance du temps dabsorbtion .
b) Quelle est la transformees de Laplace de ?
c) Quelle est la distribution de ?
Exercice 1.5.4 a) Calculez lesperance du temps dabsorbtion pour un processus absorbant
en temps continu a trois etats 0, 1 avec
!
0
0
0
0
G = 1 1
2
0 2
et distribution initiale (0, 1 , 2 ).
b) Quelle est la distribution de ?
c) Quelle est la transformees de Laplace de ?
2 1
(e1 t
2 1
e2 t ), un melange dexponentielles.
Exercice 1.5.7 Calculez la transformee de Laplace du temps dabsorbtion pour les processus absorbants ayant une diagramme serie et pour les processus absorbants ayant une
diagramme parallele.
Il sav`ere que la distribution du temps dabsorbtion (`a partir des diverses etats initiaux)
est disponible explicitement pour chaque processus de sauts de Markov Xt avec un etat
absorbant, et quil est meme plus facile de traiter directement le cas general, `a matrice
generatrice (de taux de transitions) donnee par :
B b
G=
0 0
o`
u b = (B)1.
En effet, un moment de reflexion nous montre que la matrice
P t = (Pt (i, j) = Pi [t < , Xt = j], i, j T )
des probabilites de survie/ccdfs conditionnees par les positions de depart et darrivee au
temps t vaut
P t = etB .
R
Par consequent, la matrice des transformees de Laplace P (s) = 0 est Pt dt des probabilites
de survie conditionnees par les positions de depart et darrivee au temps t vaut
P (s) = (sI B)1 .
ACTUARIAT
FILES DATTENTE, FIABILITE,
Corollaire 1.5.4 Les ccdfs des temps dabsorbtion Fi (t) = Pi [ > t] dun processus de
Markov avec un etat absorbant, `a matrice generatrice (de taux de transitions) donnee par :
B
b
G=
0 0 ,
sont :
= etB 1
F
f = etB b
o`
u b = (B)1.
Exercice 1.5.8 Obtenez par conditionnement sur la position apr`es un interval tr`es petit les
transformes de Laplace
Z
s
li (s) = fi (s) = Ei e
=
est fi (t)dt
0
des temps dabsorbtion dun processus de Markov avec un etat absorbant, `a matrice generatrice
(de taux de transitions) donnee par :
b .
G= B
0 0
Sol : Les equations sont
(
e sl = 0
Gl
li = 1, i
Bl + b sl = 0,
l = (sI B)1 b
o`
u b = (B)1 et 0 = 1. Montrez que le temps de retour au premier etat, en partant
du moment quon le quitte, a transformee de Laplace : b[s] = (sI B)1 b et esperance
b = b (B)1 1, et que la probabilite stationnaire de cet etat satisfait 1 = 1 + b
0
Note : Dans le cas b0 = 1, on retrouve la bien-connue r
elation du cas du temps discret 01 = ET0 , o`
u T0
est le temps total de retour au premier
etat.
Corollaire 1.5.5 Soit Xt un processus de Markov des sauts avec un etat absorbant, `
a matrice generatrice (de taux de transitions) donnee par :
B
b
G= 0 0 .
Soit
Rs = (sI G)1
Rs (i, j)
i E.
Rs (j, j)
1
i E.
Rs (i, i)
Exercice 1.5.10
Rq : Ces equations continuent `a etre vraies pour les processus semi-Markoviennes.
Exercice 1.5.11 Obtenez les transformes de Laplace
Li,j = Ei [e 1{X =j} ],
i T ,j
pour les temps dabsorbtion jointes avec la position dabsorbtion, pour un processus de Markov
avec plusieurs etats absorbants.
1.5.5
Exercice 1.5.12 a) Pour une chane a deux etats 0, 1 avec P0,1 = , P1,0 = , calculez
lesperance t0 du temps de retour T0 (retour en 0, conditionne par un depart en 0).
b) Verifiez lidentite t0 = 01 /P0 [X1 6= 0, valable pour toutes les chanes ergodiques.
c) Quelle est la distribution du T0 ?
Les distributions de temps dabsorbtion, appelees aussi distributions de phase, sont
disponibles explicitement pour chaque chane absorbante. Soit
p(k) = (px,y (k), x T ) := (Px,y {N = k}, x T , y })
P (k) =:= (Px,y {N > k}, x T , y T })
les matrices de dimension |T || ayant comme elements les probabilites jointes de k pas
avant labsorbtion, de depart en x et dabsorbtion en y.
ACTUARIAT
FILES DATTENTE, FIABILITE,
Th
eor`
eme 1.5.4 a) Pour une chane de Markov absorbante `a matrice de transition Q
0
les distributions du temps dabsorbtion N sont donnees par :
P (T ,)
I
p(k) = (Q)k1 P (T ,)
X
k
P (k) = (Q) ,
z k P (k) = (I Q)1
k=0
X
k
z k P{N = k} = (I zQ)1 1
D
emonstration alternative : IN =k =
D`es lors,
Px0 {N = k, Xk = y} =
x0 ,x1 ,...,xk1 T ,y
k1 (tr)
Qx0 ,x1 Qx1 ,x2 ...Qxk2 ,xk1 P (tr)
P (x0 , y)
xk1 ,y = (Q)
x1 ,...,xj1 T
Les resultats sont obtenus en prenant somme en y et somme en x0 , pondere par les poids
.
Exercice 1.5.14 Demontrez que
EN =
P{N > k}
R
emarque : Ce theor`eme nous fournit une deuxi`eme demonstration du Theor`eme 1.5.1
c) :
EN =
X
k
ser
q1 p1 | 0
0 q2 | p2
0 0 | 1
a) Trouvez lesperance de N.
b) Generalisez au cas des matrices de ce type (serie) de taille K + 1.
c) Soit N = N1 + N2 , o`
u Ni est le nombre de fois quon reste en i. Montrez que la
distribution de N1 conditionne par N est uniforme et calculez la distribution de N, si q1 =
q2 = q.
par
Remarque 1.5.7 On peut aussi resoudre lexercice en remarquant que Ni sont des variables
geometriques, et donc N est hypergeometrique (une somme des geometriques).
!
q1 0 | p1
Exercice 1.5.16 Soit la matrice de transition 0 q2 | p2 et la distribution initiale
0 0 | 1
(1 , 2 , 0). Trouvez lesperance et la distribution de N.
Voir aussi Ruegg, 2.6.3.
Conclusion : Les distributions de type phase demandent le calcul des puissances/exponentielles
de matrices. Ces expressions sont tr`es vite obtenues par logiciels comme Matlab, etc, et leur
formule a toutes les apparences dune expression analytique ; mais, comme pour la plupart
des matrices, les valeurs propres ne sont pas accessible analytiquement, leur calcul demande
en effet une evaluation numerique.
1.5.6
Les probl`emes de Dirichlet ont comme objet letude des temps de sortie , de la distribution du point de sortie X , et des diverses autres fonctionnelles comme des prix
finaux ou des co
uts accumules par un processus jusquau moment de son absorbtion en . Ils
ram`enent toujours aux syst`emes specifiant les relations entre les esperances des fonctionelles
conditionnees par le point de depart.
Exercice 1.5.17 Obtenez les equations de Dirichlet pour les probabilites p dabsorbtion dans
un sous-ensemble A , et les temps esperes dabsorbtion t, (`a partir des diverses etats
initiaux, voir Ch. 2.6, Part 1), en conditionnant sur le moment de la premiere transition,
pour un processus de Markov avec un etat absorbant, `a matrice generatrice (de taux de
transitions) donnee par :
b
G= B
0 0
o`
u b = (B)1.
Obtenez par conditionnement sur la position apr`es la premi`ere transition les transformes
de Laplace
li (s) = fi (s) = Ei [es 1{X A}
des temps dabsorbtion.
Sol : Les trois equations sont respectivement
e =0
Gp
pi = 1A (i),
ACTUARIAT
FILES DATTENTE, FIABILITE,
e +1=0
Gn
ni = 0, i
e
Gl(s)
sl = 0
lj (s) = 1A (j), j
e = (B, b) denote la matrice generatrice avec les lignes des etats recurentes enlevees.
o`
uG
Conclusion : Nous avons observe dans les chapitres precedants trois idees tr`es importantes dans la modelisation Markovienne :
1. Pour les chanes et processus de Markov, letude des esperances des diverses fonctionelles, vues comme fonctions de letat initial, ram`ene a des syst`emes lineaires avec une
inconnue pour chaque
etat initial possible.
2. Ces syst`emes peuvent etre obtenues par la methode du conditionnement sur le premier
pas.
3. Les diverses syst`emes associes avec un processus fixe implique toujours la meme partie
homog`ene appellee operateur ou g
en
erateur du processus (dans le cas des chanes
de Markov en temps discret et `a espace detats fini ou denombrable, l operateur est
simplement P I, o`
u P est la matrice de transition P ). Par contre, les conditions
fronti`ere, termes non-homog`enes, et dautre details (comme la presence/absence dun
multiple de loperateur identite) varient dun probl`eme `a lautre.
Il sav`ere que ces principes sappliquent pour toutes les processus de Markov, Xt ,
differents quelles soient, vivant sur des espaces S considerablement plus compliques, la
seule difference etant que loperateur GX : F (S) > F (S) associe a ces processus sera plus
complique !
On arrivent toujours aux memes `equations, obtenues juste en remplacant un operateur
par un autre.
Par exemple, les probl`emes concernant les marches simples ont aussi des versions pour le
mouvement Brownien, qui est un processus `a espace detats continu, avec chemins continus
(obtenu en considerant des marches simples avec increments infinitesimaux , et en prenant
la limite 0). Les equations resterons les memes, mais loperateur des difference et
remplace par loperateur differentiel (le Laplacien).
En conclusions, il existe une correspondance/dictionnaire un a un entre les processus de
Markov et une certaine classe doperateurs deterministes associes.
1.6
Chanes de Markov `
a espace fini : analyse spectrale
et comportement limite
1.6.1
Nous attaquons ici la question de lexistence des distributions `a la longue (ou simplement limites) dune chane specifiee par c(0) et P :
= lim (n) = lim (0)P n
n
pour nimporte quelle distribution initiale (0). Il est evident que cette question est
equivalente `a lexistence de la limite P = limn P n .
1.6.2
Nous allons examiner maintenant une chane non-ergodique, pour la quelle la distribution
stationnaire nest pas unique.
ne
1
2
1
2
0 0
0 1 0 1 1
1 2 1 4 4
2 = 0
= 3
P = ( 1 2 3 4 5 )
2 0 2 01 01 = 1 =
2 4
5
0 0 0
2
2
3
1
0 0 0 4 4
1
, 0, 12 , 0, 0
2
et 0, 0, 0, 31 , 32 sont
Cette chane etale des pathologies, quon peut percevoir en examinant le graphe de
communication de la chane :
Remarque : afin dapercevoir la structure de la chane et de calculer plus facilement P n
, il peut etre interessant de renumeroter les etats en sorte que des etats qui conduisent lun
`a lautre) soient groupes ensemble.
Dans cet exemple, si on echange les etats e2 et e3 , on obtient, apr`es le rangement facilitant
des elements dans lordre 1, 3, 2, 4, 5, la matrice de transition :
1 1
0
0
0
2
2
1 1 0 0 0
2 2 1 1 1
0 0
2
4
4
1
1
0 0 0
2
2
1
3
0 0 0 4 4
1 1 1
1 1
2
4
4
A 0
2
2
et B = 0 21 12 et encore
avec A =
`a structure : P =
1
1
0 B
2
2
0 41 34
A 0
0
P = 0 B1 B1,2 o`
u A, correspondant aux etats (1, 3) (qui conduisent lun `a lautre)
0 0 B2
ACTUARIAT
FILES DATTENTE, FIABILITE,
et B2 , correspondant aux etats (4, 5) (qui conduisent lun `a lautre aussi) sont des matrices
stochastiques, et B1 , correspondant aux transitions entre les etats transitoires ((2) est une
matrices sous-stochastique.
Il ya ici deux pathologies :
1. il existe un element transitoire 2 (quon peut quitter sans retour pour toujours)
2. le graph de communication se decompose en deux classes : (1, 3) et (2, 4, 5) qui ne
communiquent pas et la matrice de transition a une structure block diagonale, appellee
r
educibilit
e en probas.
Le fait que la reducibilite se traduise dans une structure de matrice `a bloques, montre
immediatement quon peut traiter (1, 3) et (2, 4, 5) separement. Aussi, en enlevant lelement
transitoire 2, il nous restent deux classes de communication fermees, (1, 3) et (4, 5),
appellees classes de r
ecurrence,
o`
u on reste pour toujours
une fois entre.
n
A
0
0
On verifie facilement que : P n = 0 B1n B1,2,(n)
0
0
B2n
en reflexion du fait quon peut etudier les trois chanes correspondant aux A, B1 et B2
separement.
Concernant la matrice B1 contenant les probabilites de transition entre les elements
transitoires (appellee aussi projection de la matrice P sur la reunion des classes transitoires),
remarquons dabord que elle est une matrice sous-stochastique.
D
efinition 1.6.1 Une matrice Q sappelle sous-stochastique si la somme deselements de
chaque ligne est 1, avec inegalite stricte dans au moins une ligne.
Th
eor`
eme 1.6.1 Toutes les valeurs propres dune matrice sous-stochastique Q ont valeurs
absolues inferieurs `a 1. Par consequent
lim Qn = 0
0 0 0
2
2
1 1 0 0 0
2 2
0
0
0
x
x
P = lim P =
1
2
n
1
2
0 0 0
3
3
1
2
0 0 0 3 3
Il reste encore `a determiner x1 , x2 . Une approche directe par un systeme des recurrences
nous montrera que ces deux quantites sont aussi x1 = 31 , x2 = 32 .
En general, ce dernier probl`eme peut etre aborde algebriquement via la decomposition
spectrale, ou par une approche probabiliste qui decompose la vie dune particule dans la
partie qui precede labsorbtion, et la partie qui sensuit.
D
efinition 1.6.2 Soit i un element transitoire dune chane Xn , et soit j un element apartenant `a une classe de recurrence j. On appelera probabilit
e dabsorbtion pi (j) la probabilite que la chane commencee en i finisse en j.
0
0
0
2
2
1 1 0 0 0
2 2
1
2
0
0
0
P =
3
3
0 0 0 1 2
3
3
0 0 0 31 23
Mais, si dans lexemple 1.6.1 lelement transitoire aurait eu des possibilites de passage
vers les deux classes recurrentes existantes, ca nous aurait oblige de resoudre un probl`eme
dabsorbtion avant de calculer la limite limn P n .
En conclusion, une procedure qui fournisse la limite P doit :
1. etablir si elle existe, ce qui nest pas toujours le cas, comme on voit en examinant les
chanes de Markov qui bougent cycliquement sur les noeuds dun graphe
2. inclure la resolution des probl`
emes de Dirichlet concernant labsorbtion de la chane
de Markov dans les classes recurentes
3. calculer la distribution stationnaire des classes recurentes.
1.6.3
La p
eriodicit
e
Ai = {n N : pii > 0}
Remarque 1.6.1 Cet ensemble est ferme sous loperation daddition, i.e. cet ensemble est
un sous groupe de N.
n
o
(n)
D
efinition 1.6.3 Soit ei dans E. On appelle periode de ei lentier d (i) = p gcd n > 0 ; pii > 0
(n)
Remarque 1.6.2 La periode ne depend que de la classe. Une classe de periode 1 est dite
aperiodique.
ACTUARIAT
FILES DATTENTE, FIABILITE,
Remarque 1.6.3 Lexistence dune boucle, i.e. pii > 0, assure laperiodicite.
Exemple 1.6.2 Une classe de communication `a matrice de transition P , pour laquelle il
existe un entier c tel que P c = I, apellee cyclique dordre c, est forcement periodique, et la
periode d est parmi les diviseurs de c. Par exemple, en changeant la classe transitoire dans
lexemple ci-dessus en sorte quelle contient un cycle de longueur 4 et un de longueur 2, on
obtient une classe cyclique dordre 4 et periode 2.
Lexistence de la matrice des distributions `a la longue est liee `a la question de la
periodicite.
per
Exemple 1.6.3
P =
1
2
0
0
0
0
0
0
1
2
0
0
1
1
0
0
0
1
0
0
0
0
0
0 0 0 0
0 0 0 0
1
1
1
1
4
4
4
4
0 0 0 0
0 0 0 0
0 0 13 32
0 0 12 21
1.6.4
Le th
eor`
eme de Perron-Frobenius
Exercice 1.6.1 Est-ce quil existent des matrices reeles 2 2, sans elements negatifs, et
avec des valeurs propres complexes ?
La reponse est un cas particulier du :
Th
eor`
eme 1.6.2 (Perron-Frobenius) Soit P une matrice finie sans elements negatifs.
Alors :
1. Parmi les valeurs propres de module maximal il existe toujours une, = P F qui est
r
eelle positive, quon apellera la valeur propre PF (de Perron-Frobenius). D`es
lors, toutes les autres valeurs propres ont une valeur absolue inferi`eure ou egale `
a la
valeur propre P F .
2. Le bloque de Jordan correspondant `a P F a une structure diagonale (i.e. la multiciplite
algebrique P F de P F est egale `a la dimension de son espace de vecteurs propres), et les
espaces des vecteurs propres `a droite et `a gauche de P F contiennent chacun une base
(P F )
(P F )
de vecteurs propres v i , i , i = 1, 2, ..., P F ayant toutes leurs composantes
nonn
egatives.
3. Sil y a dautres valeurs propres egales `a P F en valeur absolue, elles doivent etre des
1/p
racines de P F , i.e. de la forme P F , p N.
R
emarque : Le theor`eme de PF a plusieurs implications pour lanalyse des chanes
de Markov homog`enes `a espace detats fini. Par exemple, lexistance des valeurs propres
qui sont des racines de P F est equivalente `a la presence des periodicites dans la suite des
puissances P n , n = 1, 2, ...
e:PF
Exercice 1.6.2 Demontrer quune matrice stochastique P na pas de valeurs propres avec
module plus grand que 1, et donc sa valeur propre PF est egale `a 1. Ind : Inyuitivement, les
moyennes ponderees de v donnees par P v ne peuvent pas augmenter les composantes de v.
Exercice 1.6.3 Montrez que le theor`eme de Perron-Frobenius implique :
1. Une chane homog`ene `a espace detats fini a au moins une distribution stationnaire.
2. La dimension de lespace detats des distributions stationnaires coincide avec le nb des
classes de recurrence.
1.6.5
ACTUARIAT
FILES DATTENTE, FIABILITE,
2. La decomposition spectrale. Considerons dabord le cas le plus simple dune matrice
diagonalisable P , avec valeurs propres i et vecteurs propres `a droite/gauche v i et
i , normalises tq i v j = i,j . Soit la matrice diagonale des valeurs propres, V une
matrice ayant vi comme colonnes, et une matrice ayant i comme lignes.
Remarquons que la diagonalisation
= V 1 P V = P V P = V
nous permet aussi ! ! ! de representer P comme
X
P =
i v i i
i
(Dans le cas i = 1, i, cest juste la definition du produit matriciel, ecrit en forme decomose
comme somme de n matrices de rang 1).
On trouve alors dans le cas diagonalisable que
X
P n = V n =
ni v i i
i
et que convergence peut avoir lieu seulement dans labsence des valeurs propres i 6= P F tq
|i | = P F (i.e., de periodicites). Dans ce cas,
n
P = P
(P F )
P F
X
(P F )
vi
(P F )
=V
(1.17)
i:i =1
(P F )
o`
u V sont les matrices ayant vi
et i
comme colonnes et lignes, respectivement.
Cette formule reste encore valable dans le cas general, meme que la decomposition de
Jordan peut contenir des blocques nondiagonales, car les blocques de Jordan associees `a des
valeurs propres tq |(i) | < 1 disparaissent dans la limite n . On obtient donc que dans
labsence des periodicites dans les classes recurrentes, la limite de P n est donnee toujours
par (1.17).
Th
eor`
eme 1.6.3
1. La multiplicite de la val. propre 1 est egale au nombre des classes
recurrentes.
2. Les vecteurs propres `a gauche/droite correspondant `a une classe recurrente A sont
respectivement de la forme A , o`
u A est la distribution stationnaire de A complete
par des 0, et vA = (aT , 1A , 0, o`
u aT denote le vecteur des probabilite dabsorbtion dans
la classe A.
3. La limite P = limn P n existe ssi la matrice P na pas des valeurs propres avec
|| = 1 `a part la valeur propre de Perron-Frobenius P F = 1 (i.e. sil n y a pas des
periodicites), dans quel cas elle est donnee par (1.17).
P
Dans ce cas, elle est egale `a A v A A .
Corollaire 1.6.1
1. La distribution stationnaire est unique ssi la valeur propre de PerronFrobenius = 1 a multiplicite 1.
2. Une chane de Markov est ergodique, i.e. P n = 1 ssi les deux conditions ci dessus
sont verifiees.
alg
1.6.6
Qt T1 ... ... TI
0 P1 0 ... 0
..
.
P = 0 0 P2 0
0 0 . . . . . . ...
0 0 ... ... PI
une decomposition de la matrice de transition P , avec Pi , i = 1, ..., I etant les projections de
la matrice P sur les classes recurrentes, et avec Qt etant la projection de la matrice P sur
les classes transitoires. Il est facile de verifier que la puissance P n est de la forme :
n
Qt T1,n ... ... TI,n
0 P1n 0 ...
0
..
n
n
.
0 P2 0
P = 0
..
.. ..
0
.
.
.
0
0
0
... ... PIn
Cette formule de decomposition refl`ete les idees suivantes :
1. Les classes recurrentes ne savent pas du tout quil existe un monde exterieur ;
par consequent, la projection Pi de la matrice P sur une classe recurrente i est elle
meme une matrice stochastique et la projection de la puissance P n sur la classe i
est precisement Pin ; ce calcul peut etre effectue en ignorant le reste des elements. Le
meme est vrai pour les probabilites de transition Qn (i, j) entre i et j transitoires, i.e.
la projection de la puissance P n sur les classes transitoires est precisement Qn et peut
etre donc aussi calculee en ignorant le reste des elements.
2. Les probabilites P n (i, j) pour i, j recurrentes mais dans des classes differentes sont
toujours 0 (comme pour n = 1) et alors la limite est aussi 0. Le meme est vrai pour
les probabilites P n (i, j) pour i recurrent et j transitoire.
3. La limite de Qn sera toujours 0, parce que la matrice Q est sous-stochastique, et les
limites de Pin seront donne par le theor`eme ergodique.
ACTUARIAT
FILES DATTENTE, FIABILITE,
En conclusion, si la limite P existe, elle est de la forme :
0 X1 ... ... XI
0 1 0 ... 0
..
.
P = 0 0 2 0
0 0 . . . . . . ...
0 0 ... ... I
o`
u X1 , ..., XI sont encore `a determiner, cf. la lemme 1.6.2 ci-dessous, en resolvant un pb
dabsorbtion.
Exercice 1.6.4 Que devient la decomposition spectrale (1.17) dans le cas decomposable et
sans elements transitoires ?
Avant le cas general, nous analyserons encore deux cas particuliers :
1. les chanes (faiblement) ergodiques, donc avec I = 1 classes recurrentes
2. les chanes absorbantes, i.e avec les classes recurrentes etant toutes de cardinalite 1.
La distribution limite dans le cas faiblement ergodique
erg
0 a1 0 a
0
b
0 0 b1 0
c1 0 0 0
c
P =
0 0 0 2/3 1/3
0 0 0 1/4 3/4
P = lim P n = 1 (0 | )
(1.18)
Th
eor`
eme 1.6.4 Soit Xn une chane de Markov finie avec une seule classe recurrente, qui
est aperiodique.
a) Cela est algebriquement equivalent `a une multiplicite un pour la valeur propre = 1,
et `a labsence des autres valeurs propres de valeur absolue || = 1.
b) La distribution limite est unique et la limite P est une matrice de rang 1 :
n
o`
u est la distribution stationnaire de la classe recurrente.
La demonstration du theor`
eme 1.6.4
b) par lapproche algebrique est immediate. En
Q T
effet, prenons v = 1. Soit P =
et cherchons a trouver un vecteur propre `a gauche
0 P1
de la forme p = (pt , p1 ), donc satisfaisant
pt Q = pt , pt T + p1 P1 = p1
pt = (I Q)1 0 = 0, p1 =
En conclusion, la structure de la matrice limite P pour les chanes faiblement ergodiques
est assez simple, pareille `a celle du theor`eme fondamental ergodique ; il suffit de trouver la
une
distribution stationnaire de la seule classe recurrente, et a letendre par des zeros sur
les classes transitoires. En suite on utilise la formule
P =1p
o`
u p est le vecteur complete avec des zeros. Remarquons encore que 1, p sont des vecteurs
propres `a droite et gauche, normalises tel que p est un vecteur des probabilites et tel que
< p, 1 >= 1, et donc la decomposition ci-dessus est un cas particulier de la forme specifiee
en (1.17).
La distribution limite dans le cas purement absorbant
Un autre
cas simple est celui des chanes qui nont que des etats recurrents absorbants,
Q T
et o`
u T contient comme colonnes les probabilites dabsorption immediate
o`
uP =
0 I
dans les etats absorbants.
Nous savons que P est de la forme
0 X
P =
0 I
En utilisant P P = P , on trouve explicitement, la solution est
X = (I Q)1 T = P (abs)
qui est precisement la formule de la matrice des probailites dabsorption (pratiquement, il est
plus convenable de les obtenir en resolvant le syst`eme dabsorption trouve en conditionnant
sur le premier pas.
(abs)
Lemma 1.6.1 Pour une chane absorbante, les probabilites limite P i,j := P i,j , i
sitoire, j absorbant sont egales aux probabilites dabsorption pi (j) = Pi {X = j}.
tran-
0 P (abs)
0
I
Exercice 1.6.6 Que devient la decomposition spectrale (1.17) et les vecteurs propres `
a droite
et gauche de la valeur 1 dans le cas absorbant ?
Solution : Cherchons `a trouver un vecteur propre `a droite v j et un vecteur propre `a
gauche j pour chaque element absorbant j.
On trouve j = ej = (0, 0, ..., 1, ..., 0). Decomposant v j = (v t , 0, 0, ..., 1, ..., 0) on trouve
v j = pj , o`
u pj sont les probabilites dabsorbtion dans la classe j.
ACTUARIAT
FILES DATTENTE, FIABILITE,
La distribution limite dans le cas g
en
eral
Nous considerons maintenant le cas general `a plusieurs classes recurrentes. Il nous reste
seulement de calculer les limites X(i, j) := limn P n (i, j) pour i transitoire et j recurrent.
Nous avons vu dans nos exemples quil y a deux vecteurs de probabilites `a determiner :
a) pi (j), de finir dans la classe de recurrence de j `a partir de lelement transitoire i, et
b) (j) la probabilite stationnaire que la chane soit observee dans letat j (ou la proportion de temps passe dans letat j.
Pour cela, on utilisera :
mult
Lemma 1.6.2
limn P n (i, j) = pi (j) (j)
(1.19)
o`
u on a denote par pi (j) la probabilite dabsorption dans la classe de recurrence de j (et par
(j) la probabilite stationnaire de j dans sa classe).
En forme matricielle, Xj = pj j
Cette loi multiplicative est assez claire intuitivement : elle refl`ete lindependance entre
le comportement avant et apr`es absorption, et se verifie facilement 4 .
Donc, le calcul des limites limn P n (i, j) pour i transitoire et j recurrent demande le
calcul des probabilites dabsorbtion pi (j) et lapplication de la lemme 1.6.2.
p1
0 a b 1ab 0
0
0
0 1 01
1
0 0
0
2
2
P =
0 0 0
0
0
0 0 1
1
0
2
2
1 0 0
0
0
lexemple :
0
0
0
1
0
0
0 1ab 0 a b 0
0
0
1 0 0 0
1
0
0
0
0
0
P =
0
0
0 1 0 0
0
0
0 0 12 21
0
0
0 0 12 21
4
En conditionnant sur la position k darrivee dans la classe de recurrence j de j apr`es le temps T de
transition de la partie transitoire, on trouve que :
X
Pi {XT = k} limn P n (k, j) (par propr. Markov)
(1.20)
limn P n (i, j) =
X
k
j
k
j
= (j)
X
k
j
(1.21)
(1.22)
On apercoit par la structure de matrice `a bloques quon peut traiter les classes (2) et
(3, 5) separement. Ici, labsorption dans les classes recurrentes se fait toujours en partant de
1, et alors les probabilites dabsorption de 4 et 6 sont identiques aux celles de 1. En plus,
labsorption se fait avec les probabilites donnees a, b dans les classes recurrentes (2) et (3, 5),
respectivement.
Finalement, on trouve par la lemme (1.6.2)
b 1
b 1
a
0 0 0 a+b
a+b 2
a+b 2
b 1
b 1
0 0 0 a
a+b
a+b 2
a+b 2
b 1
b 1
0 0 0 a
a+b
a+b 2
a+b 2
P =
0 0 0 1
0
0
1
1
0 0 0 0
2
2
1
1
0 0 0 0
2
2
1
1
1
0 13
6
3
6
0 1
0
0
0
0 0 1a 0
a
P =
0 1
0
0
0
2
0 0
b
0 1b
1 0
0
0
0
0
0
1
P =
0
0
0
Le syst`eme dabsorption :
lexemple :
0
0
0
1
2
0
0
0
0
0
0
0
0
1
2
0
0
0
0
1
3
1
2
0
1
0
0
1
6
1
6
0
0
0
0
0
0
1a
a
b
1b
1
1
1
p1 (2) = p4 (2) + 1 + 0
3
3
3
1
1
p4 (2) = p4 (2) + 1
2
2
p6 (2) = p1 (2)
donne p1 (2) = 3/5 = p6 (2) et p4 (2) = 4/5, et alors les probabilites complementaires sont :
p1 (3) = 2/5 = p6 (3) et p4 (3) = 1/5 (les resultats auraient pu etre devines, en observant que
ACTUARIAT
FILES DATTENTE, FIABILITE,
labsorption dans les classes recurrentes se fait seulement en partant de 1 et de 4, tandis que
b
a
, b = a+b
on trouve finalement :
6 a les memes probabilites dabs. que 1. Posant a = a+b
0 0 0 53 52 b 52 a
0 0 0 4 1 b 1 a
5
5
5
0 0 0 3 2 b 2 a
5
5
5
P =
0
0
0
1
0
0
1
0 0 0 0 1
2
2
1
0 0 0 0 12
2
Exercice 1.6.7 Demontrer la lemme, `a partir des deux equations P P = P , P P = P . Que
devient la decomposition (1.17), i.e. les vecteurs propres `a droite et gauche de la valeur 1
dans le cas general ?
Solution : Cherchons `a trouver un vecteur propre `a droite v (j) et un vecteur propre `a
gauche (j) pour chaque element absorbant j.
On trouve (j) = (0, 0, ..., j , ..., 0), la distribution stationnaire de la classe j. Decomposant
v (j) = (v t , 0, 0, ..., 1, .., 1, 0, ..., 0) on trouve v t = pj , o`
u pj sont les probabilites dabsorbtion
dans la classe j.
En travaillant en forme matricielle, on trouve les matrices de rang 1 Xj = pj j .
Conclusion : On voit que la connaissance de la structure du graphe de communication
simplifie considerablement le probl`eme du calcul de la limite P .
1.6.7
1.
Exercices
P =
0 1
1
0
4
0 1
3
0
4
0 0
0 0
0 0 0
0 0 43
0 0 0
1
0 0
4
0 31 0
1
0 21
2
0
0
0
0
2
3
P =
0
0
0
0
0
1
4
0 0
1 0 0 0 0
0 31 0 23 0
0 0 0 0 1
0 41 0 34 0
0 0 0 43 0
1
4
1
2
1
4
1.7
Exercices
(B)
1
(a) Calculer :
i. Lesperance en sortant de 1 du nombre de pas T0 jusqau noeud 0. Indication :
Utiliser la symmetrie.
ii. Lesperance en sortant de 0 du nombre de pas T0 jusqau premier retour en
0.
iii. Les probabilites stationnaires de chaque noeud. Indication : On peut utiliser
les `equations dequilibre detaille.
iv. La probabilite x2 = P2 {XT = 1}, o`
u T = min[T1 , T0 ].
ACTUARIAT
FILES DATTENTE, FIABILITE,
2. Une particule decrit une marche aleatoire sur E = {1, 2, ..., 2n 1} : si la particule est
en i < n, alors elle se deplace en j = i + 1, et si la particule est en i > n, alors elle se
deplace en j = i 1 ; si la particule est en i = n, alors elle se deplace en une position
j choisie avec probabilites egales parmi les elements de E differentes de n. La position
Xk au temps k constitue une chane de Markov.
(a)
(b)
(c)
(d)
(e)
p1 p2 | 1 p1 p2
1p
3. Soit une chane absorbante definie par la matrice de transition 0 p |
0 0 |
1
et la distribution initiale (1 , 2 ).
Trouvez lesperance et la distribution du nombre des pas N jusq`a labsorbtion.
4. Des femmes et des hommes arrivent dans un magasin, apr`es des temps fixes, unitaires.
Chaque instant, une femme arrive avec probabilite F , ou un homme arrive avec probabilite H , ou il ny a pas darrivee, avec probabilite q = 1 F H .
a. Trouver la probabilite quune femme entre avant un homme. Indication : Conditionnez sur le premier instant, ou sur le nombre dinstants sans arrivees.
b. Trouver la probabilite que deux femme entrent avant un homme.
c. Quelle est la probabilite quau moins deux hommes soient entres consecutivement
(pas forcement aux moments consecutifs), avant que trois femmes ne soient entrees
consecutivement (pas forcement aux moments consecutifs). Indication : Consid`erez un
processus de Markov sur lespace des etats : (H1, H2, H3, ...) (F 1, F 2, F 3, ...), qui
enregistre la longueur k du nombre des clients k {1, 2, ...} du meme sexe entres
consecutivement jusqau temps t, et leur sexe (H/F) ; formulez des equations darret
pour les etats darret indiques.
5. a) Une mouche effectue une marche cyclique sur les sommets {1, 2, 3} dun triangle,
avec matrice de transition circulante
a b c
P = c a b
b c a
o`
u a, b, c 0 et a + b + c = 1. Il est facile de verifier que la matrice de transition
P n est aussi circulante (i.e. chaque ligne est deduite de la ligne precedente par une
permutation cyclique de ses elements vers la droite ) et on denote par (an , bn , cn ) les
elements de sa premi`ere ligne.
(a) Quelles sont les valeurs limites de (an , bn , cn ) quand n ?
(b) On cherche une formule explicite, aussi simple que possible, pour la probabilite
an = P n (1, 1) quapr`es n etapes, la mouche soit retournee au sommet 1 do`
u elle
est partie. Soit vn = (bn , cn ). Trouvez une recurrence pour le vecteur vn .
(c) Resolvez cette recurrence et trouvez an , au cas a = b = c = 1/3 et au cas
b = c = 1/2.
(d) Resolvez la recurrence, au cas o`
u la mouche a deux fois plus de chances de sauter
dans le sens des aiguilles dune montre, i.e. b = 2/3, c = 1/3.
(e) Generaliser au cas dune marche cyclique sur les sommets dun polygone avec
k sommets (utilisant eventuellement votre language formel de choix, comme
xmaxima,...). Ind : Cela nous ram`ene `a `etudier, eventuellement `laide de Maxima,
les puissances des matrices circulantes stochastiques :
A :=matrix([1-b-c,b,c],[c,1-c-b,b],[b,c,1-c-b]) ;
Verifier que la matrice est entre correctement en calculant A1 = subst(1, b, A); A2 =
subst(0, b, A1); A23 ;
Note : Maxima nest pas capable maintenant de calculer puissances matricielles
symboliques, et elle refuse de faire meme les matrices diagonales ; mais elle accepte
les produits de Hadmard symboliques, et comme les deux coincides, elle reussi
aussi les produits matricielles symboliques, avec un peu daide :
V :eigenvectors(A) ; V1 :V[2] ;V2 :V[3] ;V3 :V[4] ; VD :transpose(matrix(V1,V2,
V3)) ;
M :ratsimp(invert(VD).A.VD) ; An :ratsimp(VD.M n .invert(VD)) ;
6. (*) Marc et un groupe de n 1 amis jouent un jeu. Chacun met un euro, et ensuite
lance une monnaie biaisee, avec une probabilite de sortir face egale `a p. La totalite
de largent est partage egalemment entre ceux qui ont obtenu face (sil ny a aucune,
largent est donne `a une oeuvre charitaire), et les piles perdent leur argent. a) Quelle
est lesperance du capital de Marc, apr`es un tour ? b) (*) Quelle est lesperance du
capital apr`es un tour pour un joueur choisi aleatoirement ?
7. Soit Xt une chane de Markov absorbante, soit lensemble de ses etats absorbantes,
soit B, A une decomposition de lensemble des etats transitoires, et soit
o`
u
(a) Quel type de distribution on trouve pour px (k, B), quand B = {x} ? (Specifiez les
param`
etres). Quel est le resultat pour la cha
ne associe `a :
0
1a a 0
0
1b
0
b
0
0
o`
x1
x
0
x
1
x
2
4
1
2
4
u B = {3}, et en particulier pour
0
0
c 0
1c
0
0
0 0
1
a = b = c = 1/2, x1 = x2 = x4 = 1/4 (le papillon).
ACTUARIAT
FILES DATTENTE, FIABILITE,
O
(b) Pour B quelqonque, en conditionnant sur le premier pas, trouvez une relation
entre les variables px (k, B), x A, k N, et finalement une recurrence vectorielle
p(k) = Mp(k 1), en specifiant comment obtenir la matrice M `a partir de la
matrice P de transition de la chane. Verifiez votre formule avec le cas B = A.
(c) Retrouvez le resultat pour le papillon generalise ci-dessus, dans le cas quon
cherche la probabilite pk en partant de U = 5 que la marche visite O = 1 exactement k fois (k = 0, 1, 2, ...) avant le premier retour `a U) (les autres sommets
seront libeles A = 2, B = 3, C = 4), `
a partir de la formule g
en
erale.
(d) Considerez aussi le papillon
generalise, en prenant B = {1, 2, 3}. Verifiez pour
P
cet exemple que la somme k=0 pk (i, B) = 1, i {1, 2, 3}.
(e) Ecrivez un program dans votre language de choix qui calcule p(k, B) et une
approximation p(k, B) ck pour une chane et ensemble B arbitraires et
demontrez sa performance sur les exemples 3.5, 3.6 (pages 23-24) et ensembles B
de votre choix.
8. a) Quelle est la probabilite que la marche aleatoire simple est de retour en 0 apr`es 2n
pas ? b) Approximer cette quantite par la formule de Stirling limn (n/e)n!n n = 2.
c) (*) Demontrez la formule de Stirling.
9. Ruegg, 2.9 :10,5,6,14,13,11.
Solutions
1. (a)
i. Soit
ti = Ei T0 = Ei [ nombre de pas jusqau noeud 0]
La symmetrie implique t2 = t3 , t5 = t4 , donc trois equations suffiront (au lieu
de 5). En conditionnant sur le premier pas, on trouve que ti satisfont :
t1 = 1 + t2
1
1
1
t2 = 1 + t1 + t2 + t5
4
4
4
1
1
t5 = 1 + t5 + t2
3
3
C
a donne : t5 =
11
, t2
3
13
, t1
3
16
3
12
3
= 5 (=
1
)
0
1
, 2
10
= 4/20 =
1
, 0
5
3
)
20
Pvi ,
j vj
donnant
1
0
1
4
P =
1
4
0
0
1
0
1
4
P =
1
4
0
0
0 0 0 0 0
0 12 12 0 0
1
1
1
0
0
4
4
4
1
1
1
0
0
4
4
4
2
1
0 0 0 3 3
0 0 0 13 32
0 0 0 0
0 21 12 0
1
0 14 0
4
1
1
0 14
4
4
0 0 0 1
0 0 0 0
0
0
1
4
0
0
1
ACTUARIAT
FILES DATTENTE, FIABILITE,
1 0
1 0
21
0
2
P =
1 0
2
0 0
0 0
0
0
0
1
P =
2n2
...
0
0
1
0
0
1
2n2
0
0
0
0
0
0
0
0
0
0 0 0
0 41 14
0 41 14
0 41 14
0 21 12
0 21 12
0 ... 0
1 0 ...
0 1 0
... 0 ...
0 1 0
0 0 1
0 ... 0
0
0
...
1
2n2
0
0
1
0
0
0
1
2n2
0
0
0
k
n , k < n et la symmetrie k = 2nk impliquent n (1 +
(b) k = 2(n1)
2
k
n
, k = (n+2)(n1)
n (1 + 2 ) = 1 et n = 2+n
(n1)n
)
2(n1)
(c) ES [Xn ] = n
(d) tn = 1n 2+n
2
3.
4. (a) La probabilite pF satisfait
pF = F + (1 F H )pF pF =
F
F + H
(b) p2F
(c) Considerons la chane de Markov en temps discret qui enregistre la longueur
du nombre des clients du meme sexe entres consecutivement et le type, ayant
comme espace des etats les suites (H1, H2, H3, ...) (F 1, F 2, F 3, ...). En prenant
en consideration seulement les temps quand la chane saute, pn a une marche
aleatoire qui avance sur les hommes/femmes a.p. pH = 1 pF et pF , et change
de sexe outrement. Par exemple, si F = 2H , les deux probas sont pH = 13 , pF =
2
. En denotant par xi , yi la probabilite de notre evenement en partant dune suite
3
des i femmes hommes, il faudra resoudre :
y1 = pH + pF x1
x1 = pH y1 + pF x2
x2 = pH y1
Generalisant pour m hommes et n femmes et posant SF,k =
Pk i
i=1 pH , nous trouvont
y1 =
Pk
i=1
m1
pm
pH
H SF,n2
, x1 =
1 pH pF SH,m2 SF,n2
1 pH pF SH,m2 SF,n2
piF , SH,k =
et finalement
pH y1 + pF x1 =
pm
pm
H SF,n1 )
H (1 + pF SF,n2 )
=
1 pH pF SH,m2 SF,n2
1 pH pF SH,m2 SF,n2
Pour m = 2, n = 3, on trouve :
y1 =
pH
p2H (1 + pF )
, x1 =
1 pH pF (1 + pF )
1 pH pF (1 + pF )
et
p2H (1 + pF + p2F )
pH y1 + pF x1 =
1 pH pF (1 + pF )
o`
u vn = vn+12 est periodique.
6. a) X, le nombre total des faces a une distribution binomiale B(n, p). Il y a deux
possibiltes : - que Marc tire une pile et perd, dans quel cas son gain sera 0, et quil
n
tire une face, dans quel cas le gain sera Y = 1+X
u X a une distribution binomiale
o`
B(n, p). Donc, lesperance du gain est
n1
n1
X
X
n
n
(n 1)!
n
k
k n1k
=p
Cn1 p q
=p
pk q n1k
Y = pE
1+X
1
+
k
1
+
k
k!(n
1)!
k=0
k=0
n1
X
k=0
X
n!
n
pk+1 q n1k =
Cnj pj q nj = 1 q n
1 + k (k + 1)!(n k 1)!
j=1
n1
X
i=0
n1
X
1
1
i
i
C
x
=
C i xi
n1
2 n1
(i + 1)2
(i
+
1)
i=0
ACTUARIAT
FILES DATTENTE, FIABILITE,
o`
u x = p . Parfois, ces sommes peuvent etre deduites `a partir de lidentite (1 + x)m =
Pm iq i
erivant ou en integrant. Mais, P
le proces dintegration nabouti pas
i=0 Cm x en d
toujours `a des sommes closes. Une somme Sn = n1 fn est une solution dune relation
de recurrence de premier ordre Sn Sn1 = fn et donc la question de lexistence
des formules closes pour fn polynomes ou fonctions rationelles est un cas particulier
de la question de lexistence des formules closes pour les recurrences avec coefficients
polynomiaux.
Cette question est assez difficile, et le plus efficace est dutiliser un logiciel symbolique.
Ceux ci nous informent sil y a des formules closes dans la famille relativement simple
des solutions dAlembertiennes, ou si non.
7. (a) Quand |B| = 1, on trouve une distribution
geometrique px (k, {x}) = k1 (1 )
P
o`
u : 1 = px (1, {x}) = Q(x, (A)+ yAB p(x,P
y)Py [T(A) < Tx ] = Q(x, (A)+
P
p(x,
y)(1P
[T
>
T
]),
et
=
Q
+
y (A)
x
B,B
yAB
yAB p(x, y)Py [T(A) > Tx ] =
1
QB,B + QB,A (I QA ) QA,B , car pour k 2 on a :
X
px (k, {x}) =
p(x, y)Py [T(A) > Tx ]px (k 1, {x}) = px (k 1, {x})
yAB
QA QA,B | q A
P = QB,A QB | q B
0
0
| 1
la partition de la matrice de transition contenant les etats dans lordre AB, B, .
On a b0 = 0, b1 = q B + QB,A a0 et
a0 = q A + QA a0 = a0 = (I QA )1 q A , b1 = q B + QB,A (I QA )1 q A
P
Pour k 2, x B, px (k, B) = yA P (x, y)py (k 1, B), et donc
bk = QB bk1 + QB,A ak1
P
tant que pour x
/ B, k 1, px (k, B) = yA P (x, y)py (k, B) et donc
ak = QA,B bk + QA ak = ak = (I QA )1 QA,B bk
Comme
b1 = (IB QB )1B QB,A 1A + QB,A (I QA )1 ((IA QA )1A QA,B 1B ) = (IB M)1B )
on trouve
bk = (QB + QB,A (I QA )1 QA,B )bk1 = bk = M k1 ((IB M)1B )
o`
u M = QB + QB,A (I QA )1 QA,B est la matrice de transition de la chane
induite sur B (o`
u complement de Shur de A en Q).
Quand B = A, on retrouve bk = Qk1
B qB .
0 1/2 0
0 0
0
pk = 1/4 0 1/4 pk + 0 1/8 1/8 pk1
0 1/2 0
0 1/8 1/8
1
1/2
0
0 0
0
1
1/4 0 1/8 1/8 pk1
pk = 1/4
0
1/2
1
0 1/8 1/8
0 1/8 1/8
1 0 1/3
Les vecp `a droite sont les colonnes de 0 1 2/3/, les valp correspondantes
0 1
1
sont : 0, 0, 5/8 et le vecp de PF `a gauche est : (0, 3/5, 3/5).
1/5
Des lors, pk = (5/8)k1(pB + pC ) 2/5 et pk = (5/8)k1(pB + pC )3/10
3/5
1.8
Fiabilit
e pour les processus semi-markoviens de
sauts
Un processus markovien de renouvellement est defini par une suite des pairs des variables
{(Xn , Tn ),
Xn E = {1, 2, ...},
Tn R+ ,
n 0}
representant respectivement les positions dun processus de sauts sur un ensemble fini ou
denombrable E, et les temps de transition. Les distributions jointes de Xn et des temps de
transition entre les sauts sont definies par des noyaux
An (t) = {Ki,j,n (t) = P[Xn+1 = j, Tn+1 Tn t|Xn = i],
i, j E,
n 0}
tq les matrices P n := An () sont stochastiques, et les fonctions Fi,j,n (t) = Ai,j,n (t)/Ai,j,n()
sont nondecroissantes, continues `a droite.
Nous traiterons seulement le cas homog`ene, defini par un seul noyau
A(t) = {Ai,j (dt) = P[Xn+1 = j, Tn+1 Tn t|Xn = i], i, j E},
n 0.
ACTUARIAT
FILES DATTENTE, FIABILITE,
D
efinition 1.8.1 Un processus markovien de renouvellement homog`ene de transmittances
Q (z) est un processus definit par une matrice des distributions
Ki,j (t) = Pi,j Fi,j (t),
tq P = K() est la matrice de transition dune chane de Markov, et Fi,j (t) sont des
distributions (des temps de transition entre les sauts).
Soit Nt les processus de comptage associe (comptant le nb. des sauts jusquau temps t).
Le processus en temps continu
Z t = XN t
est appelle processus semi-markovien.
Rq : La modelisation semi-markovienne offre une flexibilite considerable. En separant les
probabilites de transition pi,j de la chane sous-jacente des distributions Fi,j (t) des temps de
transition, elle permette que ceci soient arbitraires et dependant aussi des points darrivee
des sauts (pendant que dans la modelisation markovienne 1 Fi,j (t) = egi,i t , j E).
Exercice 1.8.1 a) Specifiez les chanes discretises obtenues en regardant la file dattente
M/G/1 aux temps des departs et la file G/M/1 aux temps darrive sont des chanes de
Markov en temps discret, en donnant leur matrices de transition.
b) Quelles sont les matrices de transition des discretises des files M/G/1/K et G/M/1/K ?
PSol b) : Pour la file M/G/1/K,
i=k pi pour le premier cas.
p0
p0
G = ..
.
.
..
0
Pour la file
P G/M/1/K, posons pk = P{k services entre deux arrives } pour le deuxi`eme
cas et Pk =
i=k pi pour le premier cas...
Exercice 1.8.2 Essayez les exercices les plus simples des chapitres anterieurs, en supposant
des temps des sauts non-exponentielles.
Chapitre 2
Processus de Levy : marches
al
eatoires en temps continu
Motivation : Les processus de Levy sont la generalisation des marches aleatoires
discr`etes au cas des temps et espace detats continus.
addlev
2.1
D
efinition et propri
et
ees de lin
earit
e de processus
de Levy
On denotera par
X[s,t] := Xt Xs
lincrement dun processus X sur un intervalle [s, t].
Les marches aleatoires discr`etes Xn , n N et certaines processus en temps continu Xt , t
R+ que nous verrons plus tard (le processus de Poisson compose, le mouvement Brownien, ...)
partagent la propriete davoir des increments independants X[s,t] sur dintervalles disjoints,
et avec une distribution qui depend seulement de la longueur t s de lintervalle (et pas du
point initiale s).
Ces proprietes fournissent la definition des processus de Levy :
D
efinition 2.1.1 Un processus Xt sappelle processus i.s.i. (`a increments stationnaires et
independants) si :
Lincrement X[t,s] := Xt Xs sur un intervalle [s, t] est independant des increments
sur dautres intervalles [s , t ] disjoints de [s, t].
La distribution du increment X[s,s+t] = Xs+t Xs est identique `a la distribution du
increment initiale X[0,t] = Xt X0 , pour chaque s R+ .
En temps discret, les processus i.s.i. sapellent marches aleatoires et en temps continu,
processus de Levy.
Note : Nous utiliserons les deux termes commes synonimes.
Exercice 2.1.1 Verifier que le mouvement lineaire Xt = p t et le processus de Poisson
compose satisfont ces proprietees.
Les exercises suivants montrent que les proprietes ci-dessus impliquent quelesperance ,
variance, et la fonction generatrice des cumulants des processus de Levy sont des fonctions
additives en temps.
75
ACTUARIAT
FILES DATTENTE, FIABILITE,
Exercise 1.1 Montrez que si Yt est un processus de Levy, alors :
a) m(t) := EYt satisfait m(t + s) = m(t) + m(s)
b) v(t) := Var Yt satisfait v(t + s) = v(t) + v(s)
c) Etablissez la linearite de ces fonctions : m(t) = tEY1 , v(t) = tVar Y1 , pour des temps
t rationnels.
En generalisant :
Th
eor`
eme 2.1.1 Pour chaque t, s R+ :
a) lesperance dune marche aleatoire/processus de Levy Xt avec X0 = 0 m(t) = EXt
satisfait :
m(t + s) = m(t) + m(s), m(t) = tm(1)
b) la variance v(t) = E(Xt et )2 satisfait :
v(t + s) = v(t) + v(s), v(t) = tv(1)
c) La fonction generatrice des moments dun processus de Levy Xt avec X0 = 0 M(t) =
M (t) := EeXt satisfait :
M(t + s) = M(t) M(s)
pour chaque t, s o`
u elle est bien definie.
d) Deduisez quelle doit etre de la forme : M(t) = et() pour une certaine fonction ()
(appellee exposant de Levy, o`
u fonction generatrice des cumulants).
Note : La fonction generatrice des cumulants characterise uniquement un processus de
Levy.
Solution 1.1
Solution 1.2 a) (b)) We decompose Y (t + s) = Y (s) + (Y (t + s) Y (s)) and taking
expectations (variances) we find that both fonctions satisfy the property f (t+s) = f (t)+f (s)
which implies linearite.
c) The independence and stationarity of increments of a processus de Levy imply that
M(t) = EeYt satisfies the identity M(t + s) = M(t) M(s). Taking logarithms we find that
f (t) = LogM(t) satisfies the identity f (t + s) = f (t) + f (s).
Finalement, pour conclure la linearite, on sappuie sur :
Lemma 2.1.1 Si une fonction continue (en fait, mesurable suffit) f (t) : R+ > R satisfait
pour chaque s, t, lidentit`e :
f (t + s) = f (t) + f (s)
alors f (t) est une fonction lineaire, i.e.
f (t) = f (1)t.
2.2
D
efinition 2.2.1 Le processus de risque classique de Cramer Lundberg est un processus de
la forme
Xt = X 0 + c t
Nt
X
Zi
(2.1)
i=1
o`
u Ci sont des variables aleatoires i.i.d. nonnegatives, et Nt est un processus de Poisson
independant de Ci .
Rq : Ce processus vit naturellement en temps continu (du `a la tendance lineaire), sauf
sil est observe que pour t N et si p est un entier.
Finalement, un des exemples les plus importants est celui du mouvement Brownien, qui
est la limite des marches aleatoires infinitesimales `a petits pas en espace et en temps,
ce qui resulte dans un processus de Markov en temps continu et `a espace detats continu.
Comme letude de ce processus comporte beaucoup des points fins (par exemple, lexistence,
la continuite et differentiabilite des chemins, etc...), on va se contenter ici de decouvrir son
generateur, defini par une certaine limite des generateurs des marches aleatoires infinitesimales.
Les processus de Levy fournissent un cadre unificateur pour les exemples precedents.
limbr
2.3
Marches al
eatoires infinitesimales et le mouvement Brownien
rc
ACTUARIAT
FILES DATTENTE, FIABILITE,
1. Montrez que la fonction generatrice de moments de Xt , donne par EeXt , converge vers
2 2
et() o`
u () = c + 2 , et donc elle exhibe la lineaireite en t charact`eristique aux
processus de Levy.
2. Montrez quil existe un processus de Levy Gaussien Bt = (appelle mouvement Brownien
2
standard) avec () = 2 , en specifiant sa densite.
3. Montrez encore quil existe un processus de Levy Gaussien Bc,=2 (t) (appelle mouve2 2
ment Brownien de tendance c et variabilite ) avec () = c + 2 .
4. Montrez que lesperance et la variance de la marche aleatoire infinitesimale Xt approchent ceux dun mouvement Brownien Bc,2 (t) de tendance c et variabilite (
u Wt est le mouvement Brownien standard.)
Bc,2 (t) = x0 + Wt + ct, o`
Exercice 2.3.1 Calculer EXt , = 2, 4 pour le mouvement Brownien et pour le processus
de Poisson compose.
2.4
VT
2
log ( KS0 )
T
) KT (
VT
VT
2
Solution :
1 2
1 2
1. ES0 e(g t+B(t)) = ES0 eg t e tN = S0 eg t e 2 t = S0 e(g+ 2 )t
ln( x )g t
2. P{St x} = P{S0 exp (g t + Bt ) x} = P{+ tN) ln( Sx0 ) g t} = ( S0t
e
(ln(x)gt)2
2 2 t
Chapitre 3
Processus de naissance-et-de-mort et
applications aux files dattente
Les processus Markoviens de saut les plus simples sont les processus de naissance et
mort qui se deplace sur N toujours aux voisins, sans sauter position. Traditionellement,
on denote les taux daller a droite par i , i N, et les taux daller a gauche par i , i
(N {0}) (comme le processus est `a valeurs dans N, on a forcement 0 = 0). On appele les
i taux de naissance (ou de croissance) et les i taux de mort (ou de decroissance).
D
efinition 3.0.1 On appelle processus de naissance et mort une chane de Markov homog`ene `a temps continu (Xt )t0 , `a valeurs dans N telle que :
i, j N , h > 0 ,
Pij (h) = P ([Xt+h
i h + o (h) si j = i + 1
ih + o (h) si j = i 1
= j] id [Xt = i]) =
1 (i + i ) h + o (h) si j = i
o (h) sinon
0
0
0
1
0
1 (1 + 1 )
(
+
0
2
2
2
2
G=
..
.. ..
.
.
.
0
..
..
..
.
.
.
ACTUARIAT
FILES DATTENTE, FIABILITE,
Il est souvent plus convenable dutiliser la forme operateurielle du generateur :
(Gv)(x) = i (v(x + 1) v(x) + i (v(x 1) v(x)
Deux domaines ou on utilise les processus de naissance et mort sont les files dattente et les mod`
eles de population, qui modelisent leffectif Xt dune population `a
linstant t. Par exemple, pour modeliser une croissance/decroissane lineaires avec (ou
sans) immigration et avec (ou sans) emigration, on utilisera :
i N, i = i + a avec > 0 et a > 0 (processus avec immigration) ou a = 0
(processus sans immigration)
i N , i = i + b avec > 0 et b > 0 (processus avec emigration) ou b = 0
(processus sans emigration).
3.1
Le probl`eme est le suivant : des clients arrivent en suivant une certaine loi de probabilite pour obtenir un service dont la duree est elle-meme modelisee par une autre loi de
probabilite. La file dispose dun nombre 1 s des serveurs et de K places supplementaires dattente (ainsi,la capacite totale du syst`eme est s + K).
Dans cette application, la modelisation stochastique est plus aisee en temps continu.
Soit Nt N, t R le nombre total des clients dans le syst`eme (en attente ou en service) `a
linstant t. Pour une file dattente, les seuls transitions possibles de Nt sont lajout/depart
dun client.
Notation de Kendall. Kendall apelle un processus Nt N, t R file M/M/s/K si
Nt est un processus de naissance et mort, et
- il y a s serveurs
- la taille de la salle dattente est de K places.
- les temps Ai entre les arrivee des clients et les temps de service Bi suivent des lois exponentielles (traditionellement, le taux darrivee/depart sont denote par , ) et sont independantes, le M etant une abbreviation de Markovien. Si les temps darrivee sont simplement
independantes, on remplace le M par G(enerale), et sils sont de type phase, on remplace le
M par Ph(ase).
La file dattente M/M/1 a, en plus par rapport au processus de Poisson, aussi des
morts, le taux des quelles est traditionellement denote par . Ainsi, elle est characterise
par les taux infinitesimales gi,i+i = , gi,ii = , g0 = , gi = + et sa matrice generatrice
est :
G=
( + )
0
0
( + )
..
..
..
.
.
.
0
..
..
.
.
..
.
..
.
Autres exemples :
1) Pour la file M/M/1/K on a i = , i = 0, 1, ..., K, K+1 = 0.
2) Pour la file M/M/s/K, on a i = i, i = 1, ..., s, i = , i = 0, 1, ..., s+K 1, s+K = 0
R
emarque : Dans tous ces cas, le generateur est donne par une matrice tridiagonale
presque Toeplitz, i.e. avec diagonales constantes, au moins `a une certaine distance des
fronti`eres.
Notes : 1) Pour analyser un processus des sauts en temps continu, il est naturel detudier
n obtenue en regardant seulement dans les moments
la chaine sous-jacente/discretis
ee X
des transitions (ce processus est parfois markovien, meme quand le processus initial ne lest
pas). Pour la file M/M/1, la chane discretisee a une structure tr`es simple :
Exercice 3.1.1 Montrez que pour la file M/M/1 :
n+1 = j|X
n = i}, quand i 1 est donne par et si j = i 1 et par
a) P{X
+
+
Xn = 0.
En conclusion, la chane discretise de
0
1
0
+
P = 0
+
..
..
.
.
0
+
0 +
0
..
..
..
.
.
.
3.2
(2) t 0 , = Pt .
Proposition 2 Soit Pt = etG un semigroupe de Markov. Alors, pour tout t 0, il y a
equivalence entre :
(1) t 0 , = Pt ( vecteur propre de Pt a gauche pour la valeur propre 1)
(2) G = 0 ( vecteur propre de G a gauche pour la valeur propre 0).
ACTUARIAT
FILES DATTENTE, FIABILITE,
P
n
u :
Demonstration : G = 0 n 1 , Gn = 0 donc t 0 n1 tn! Gn = 0 do`
tG
e = Pt =
Reciproquement, supposons que t 0 , Pt = . On a alors : t 0 , Pt = etG = .
En derivant par rapport `a t , on obtient : GetG = 0 et en prenant t = 0, on en deduit que
G = 0 do`
u G = 0.
Notes : Les equations de stationarite dans la forme
X
j Gj,i = i gi = i
j6=i
Gi,j
(3.1)
j6=i
n+1 = n n+1
n = 0
n
Y
i=1
Exercice 3.2.1 Calculez la distribution stationnaire du nombre de clients dans les files suivantes.
a) M/M/1 (R : n = (1 )n , < 1)
n
b) M/M/ (R : n = e n! , > 0)
c) Recalculez les reponses par la methode des fonctions generatrices. (R : (z) =
(z 1 1)
1
= 0 z
= 1z
, car (1) = 1).
0 (z 1
1)(z1)
d*) Calculez la distribution stationnaire des files G/M/1 et M/G/1 en temps discret, par
la methode des fonctions generatrices.
Notes : 1) La file M/M/1 est stable (i.e. a une distribution stationnaire de masse
finie) ssi < 1 EZi = < 0.
Pn
u
Cette condition est deja evidente pour la chane en temps discret Xn =
1 Zi , o`
Zi = 1 avec probabilites , tq + = 1, et avec lincrement Zi censure, i.e oblige
detre 0 au lieu de 1, quand Xn = 0. Le manque dergodicite est assuree si > , par la
loi des grandes nb.
P
2) En generalisant,Pune marche Xn =
Zi en temps discret
contrainte de rester en N
P
sera stable ssi EZi =
kpk < 0, et la condition analogue
kk < 0 assure la stabilite en
temps continu.
3) La file M/M/ est toujours stable.
fl
Th
eor`
eme 3.2.1 (admis) Soit (Xt )t0 une chane de Markov `a temps continu, homog`ene,
de semi-groupe melangeant 2 (ca implique la nonperiodicite et irreducibilite)(Pt )t0 .
(1) Si est une distribution stationnaire alors (le cas ergodique) on a :
i, j I , limt+ pij (t) = j
(2) Sil nexiste pas de distribution stationnaire alors : i, j I , limt+ pij (t) = 0
Remarques : 1) Pour un espace detats fini, lexistence des solutions du syst`eme lineaire
G = 0, ou est un vecteur des probabilites, est toujours garantie par le theor`eme de
Perron-Frobenius.
2) Le deuxi`eme cas ci-dessus (qui naparaissait pas pour les espace detats finis) arrive
t > 0 en temps continu, par la loi des grands
toujours si EZi > 0 en temps discret et E0 X
nombres. Ce cas implique une fuite du processus vers linfini.
Reciproquement, pour pour un espace detats infini, lexistance des solutions nonnulles
(cas 1. ci-dessus) est assuree si le syst`eme ne senfuit pas vers .
3.3
Quelques variables aleatoires interessantes pour les files dattente quon veut etudier
sont :
La longueur Qt de la file dattente (des clients qui nont pas encore commence leur
service) `a linstant t et le nombre total Nt des clients dans le syst`eme (en attente ou
en service) `a linstant t. Ces deux sont des processus de naissance et mort.
La longueur W du temps dattente dans la file (avant de commencer le service).
La longueur totale T du temps dans le syst`eme (attente dans la file + service).
Pour ces quantites et aussi dautres, on sinteresse en :
1. la distribution stationaire, trouve par les equations dequilibre G = 0.
2. les distribution transientes au temps t, en sachant letat initial trouve par les
equations de semigroupe, et
3. en la distribution cumulative de diverses co
uts jusquaux temps darret T importants,
comme celui de premier passage par 0, defini par T0 = inf{t 0 : Xt 0}. Par
RT
exemple, on sinteresse en le co
ut totale de vidage c(x) = Ex 0 0 Xs ds, et en le
RT
co
ut de vidage discompt
e c (x) = Ex 0 es Xs ds. Ces quantites sont trouve par
les equations de Dirichlet/Feynman-Kac.
Comme le deuxi`eme objectif est le plus difficile, permettant principalement seulement des
approches numeriques, ces sont le premier et troisi`eme types des problemes qui constituent
lobjet detude principal de la theorie des files dattente.
Exercice 3.3.1 Calculez la fonction de distribution complementaire F (x) (probabilite que la
variable soit plus grande que x) stationnaire du temps total de service et du temps dattente
dans la file, ainsi que sa transforme de Laplace et le delai moyen dans les files :
1
, EWq =
)
a) M/M/1 (F (x) = e()x , Fq (x) = e()x , EW =
1
(c)x
b) M/M/c (Fq (x) = c 1/c e
)
2
Un processus de Markov homog`ene en temps continu est dit melangeant si, et seulement si :
t > 0 tel que pij (t) > 0, i, j I
ACTUARIAT
FILES DATTENTE, FIABILITE,
Solution : a)
Fq (x) =
()
k Ek (x) =
k=0
= ex
i=0
b) Soit c := c, c :=
k ex
k=1
X
(x)i X
i!
k = ex
(c )
l Elc+1
(x) =
i=0
1
(c x)i X
c kc = c
ex
i!
1 c
ki
X
k=0
l=c
= ec x
i!
= e()x
.
c
Fq (x) =
(x)i
i!
0ik1
X
(x)i
i=0
ki+1
X
i=0
c+k ec x
X (c x)i
i!
0ik
1
(x)i
= c
e(c )x
i!
1 /c
Notes : Ces calcules sont bases sur la disponibilite des distributions jointes PS [N(t) =
k1
k, Wq [x, x + dx]] = (1 )ex (x)
.
(k1)!
2) Clairement, les attentes dans la file M/M/c sont distribuees effectivement comme dans
une file M/M/1 avec param`etre c , qui est active seulement une proportion c de temps.
= W
, Nq = W
q , E[nb. des serveurs utilises] =
3) On peut verifier dans ces exemples les egalites N
E[S] = , tous des cas particuliers de la loi de Little (qui est valable aussi pour les files
avec clients refuses, juste en remplacant par accepte .
Pour systematiser levaluation de la performance des files, Mandelbaum et Zeltyn ont
propose quatre param`etres de service :
la fraction des clients bien servis P {W T ; Sr} ;
la fraction des clients servis, avec potential damelieurement P {W > T ; Sr} ;
la fraction des clients antagonises P {W > ; Ab} ;
la fraction des clients avec niveau de service inconnu P {W ; Ab}.
3.4
Probl`
emes de Dirichlet/premi`
ere passage
Les probl`emes de Dirichlet/premi`ere passage sont parmi les probl`emes les plus faciles `a
resoudre pour les processus de Markov.
Exemple 3.4.1 Soit Ns le nombre de personnes en attente dans une file M/M/1/, soit
T = T0 le temps de vidage de la file (appelle aussi p`
eriode occup`
ee/busy period si
N0 = 1) et T = in[T0 , TK ] (o`
u K peut-etre la taille dune salle dattente).
1. Calculez la distribution darr
et p(x) = Px [N(T ) = K], q(x) = Px [N(T ) = 0].
Indication : On peut conditionner apr`es un petit interval dt, ou apr`es le temps de la
premi`ere transition.
2. Temps de vidage. Montrez que si K = et < , alors le temps de vidage
esper
e t(x) = Ex T0 est de la forme t(x) = x ; determinez . Donnez linterpretation
probabiliste de .
A2 ( )x
1(
)x
K
1( )
and
a
=
a
a exactement une racine z qui nest pas plus grande que 1, on obtient px = z x . Par
exemple, avec = 0 on obtient z = 1.
, z sont lesperance et la transforme de Laplace dune periode de decroisement par 1
de la file (busy period). On peut aussi interpreter z comme la valeur actualisee (par
rapport au taux dune unite monetaire quon recevra apres que la file decroise par 1.
Remarque : La distribution de la periode de decroisement par 1 de la file (busy period) est importante justement a cause des structures additive/multiplicative signale
ci-dessus.
ACTUARIAT
FILES DATTENTE, FIABILITE,
Soit le temps de sortie dun processus de Markov de son domaine E, soit c(x) defini
sur le domaine et b(x) defini sur le domaine complementaire , et soit
Z
f (x) = Ex [
c(X(t)) dt + b(X )]
0
satisfait :
Cette fois ci, le gain espere f depend aussi du temps qui reste T , et on arrive a la solution
dune EDP a conditions initiales et de fronti`ere :
3.5
ex:MM1
Trouvez aussi la limite b(x) (biais) de la derni`ere fonction quand 0. Est-ce que
la limite commute avec lesperance ?
4. Calculez pour la file M/M/1 le co
ut relatif au co
ut stationnaire cr (x), i.e. la solution
de lequation de Poisson
Gcr (x) + (x ) = 0 x,
cr (0) = 0,
cr (x)(temper`ee `a )
T0
0
1{Xt =k} dt
RT
P
Indication : Obtenez dabord la fonction generatrice M(x) = k z k mx (k) = Ex 0 0 z Xt dt.
6. Calculez la mesure doccupation r
elative mr,x (k), en commencant par la solution
de lequation de Poisson
GMr (x) + (z x ESS z Xt ) = 0 x,
Mr (0) = 0,
Mr (x)(temper`ee `a )
=
1
RT
2. Pour c(x) = Ex [ 0 X(t)dt] (co
ut totale de stockage) on trouve
(Gc)(x) + x = 0
c(0) = 0
c(x)
accroit non-exponentiellement quand x
ACTUARIAT
FILES DATTENTE, FIABILITE,
3. Pour c (x) = Ex
RT
0
es Xs ds on trouve
(Gc)(x) c + x = 0
c(0) = 0
c(x)
accroit non-exponentiellement quand x
avec la solution c (x) =
Pour la limite, on utilise
(1 z x ), ou z = E1 eT0 .
2
i
1
i
lim0 1z
=
, lim0 1z
=
.
Alors
1z
x + ( ) 1z
1z
b(x) = lim c (x) =
Px1
i
x(x 1)
i=0 (1 z ))
2( )
4. Pour v (x) = Ex
R
0
es Xs ds on trouve
(Gv)(x) v(x) + x = 0
v(0) =
v(x)
v(1)
+
accroit non-exponentiellement quand x
(1z)
2
et finalement
x
x
z (x+1)
x z
v(x) =
+
+z
= +
+
2
2
2
(1 z)
x
X
x
1
z
=
+
+ zx
= 1 ( (1 z i ) 1) +
+
2
2
2
(1 z)
i=1
1
= (
x
X
i=1
(1 z i )) +
= w(x)???
z
+ 2
2
(1 z)
1 zx
=
=
(
)
(z)
( z)(1 z)
1 z z
z z x+1 1
z z x+1 X k
z (1 k+1 )
=
(
)=
1 z 1 z
k=0
M(x) =
X
kx k
k
zk
z
+
=
k=x+1
k=1
x
X
k1
3.6
Le premier resultat resultat dinteret pratique dans la theorie des files dattente est due
a Erlang (1921), qui a calcule la probabilite de perte (que les nouveaux arrives ne trouvent
pas de place) pour la file M/M/s/0.
Exercice 3.6.1 Calculez la distribution stationnaire du nombre de clients dans les files suivantes. En particulier, obtenez la probabilite := P [Wq > 0] quune nouvelle arrivee doit
attendre (i.e. que le syst`eme na pas des serveurs libres), comme fonction de lintensite du
traffic offert = . Trouvez aussi le nombre moyen de clients en attente et dans la file.
a) M/M/s/0
b) M/M/s
c) M/M/s/K
ACTUARIAT
FILES DATTENTE, FIABILITE,
Solutions : a) M/M/c/0.
B(c, ) := c = Pc
c
c!
n
n=0 n!
Cette probabilite de perte obtenue par Erlang(1921), est appellee la formule Erlang-B.
b) M/M/c.
(
c ( c )nc , n c
n =
n
0 n! , n c,
P
n
c
1
o`
u 01 = c1
e du traffic offert per serveur
n=0 n! + c! 1/c e pour grand c, et lintensit
satisfait c := c 1.
n
Pour n c, c , n e n! , i.e. le nb. des clients=nb. des serveurs utilises est
approximativement Poisson !
= C(c, ) :=
c
1
c! 1/c
Pc1 n c 1
n=0 n! + c! 1/c
c
1
(c1)! c
Pc1 n
c
1
n=0 n! + (c1)! c
1
1 + (1 /c)B(c 1, )1
ENq = C(c, )
c
EN = + C(c, )
c
1
Exercice 3.6.2 a) Quelles sont les limites lim0 B(c, ), lim B(c, ) quand c est fixe ?
b) Determinez la limite de B(c, = c) quand c et est fixe, dans les cas < 1(c >
), > 1(c < ). c) Determinez
la limite de B(c, ) et lapproximation asymptotique de
= P [W > 0] quand = c c, avec fixe.
Sol : b) Par lapproximation normale,
Pour
h
i
c.5 c+.5
P
N
[
,
]
)
( c
P [P = c]
i
h
B(c, ) =
=
)
P [P c]
( c
P N c+.5
()
()
0
= 1
=0
B(c, ) ()
()
(x)
limx
= limx
x(x)
.
(x)
x(x)
=1
1
1 + (1 /c)B(c 1, )1
1
1
=
c
1 + ()
1 + c ()
()
()
(3.2)
HW
R
Exercice 3.6.3 Montrez que B(c, )1 = c1 e (s + 1, ) o`
u (s + 1, ) = us eu du.
+ c
(3.3)
c = c(possible dans la presence des abandons)
= PS [W > 0] = P [S c] = P [
] = (),
dans labsence des abandons. Cette relation a ete peaufine `a (3.2) par Halfin et Whitt (1981).
Recemment, Garnett & al (2002) ont fourni une generalisation (3.4) tenant compte des
abandons.
Exercice 3.6.4 Calculez la distribution stationnaire du nombre de clients dans la file avec
abandon exponentiel Erlang A (ou M/M/c/+M).
Solution : Soit c = c. En utilisant les taux de depart c+j = c + j, j = 1, 2, ..., on
obtient
k
k
Y
c Y
c+k = c
= 0
+ j
c! i=1 c + j
i=1 c
k
c1 i
X
c X Y /
c
1
,
+
=
+
1 F1
c / + 1
i!
c! k=0 i=1 c / + j
i!
c!
i=0
c1 i
X
i=0
ACTUARIAT
FILES DATTENTE, FIABILITE,
Note : La relation asymptotique en regime QED obtenue par Garnett et al, et generalisee
plus tard pour la file M/M/c+G par Mandelbaum et Zeltyn est :
#1
"
p
p
h(/ /)
(3.4)
= 1 + /
h()
Comme la formule exacte est deja assez compliquee pour la file M/M/c+M, il devient
interessant dutiliser lapproximation de diffusion pour la file M/M/c+G, et dutiliser la
distribution stationnaire de la limite (Garnett). Mais, la methode dapproximation de Laplace
reste competitive (Mandelbaum et Zeltyn).
Exercice 3.6.5 Calculez la distribution stationnaire du nombre de clients dans une file avec
service bulk de maximum b clients.
Exercice 3.6.6 a) Formulez les equations dequilibre pour la distribution stationnaire du
nombre de clients en attente dans une file M(1 )/M(1 )/1, o`
u il y aussi des arrivees des
couples, avec taux 2 .
b) Donner la condition de stabilite.
c) (*) Resolvez les equations dequilibre.
Rappelons que la distribution stationnaire du nombre de clients dans la file avec abandon
exponentiel Erlang A (ou M/M/c/+M) est :
c+k = c
k
Y
i=1
c Y
= 0
, k = 1, ...,
c + j
c! i=1 c + j
i=0
o`
u
k
c1 i
X
c X Y /
c
1
,
+
=
+
1 F1
c / + 1
i!
c! k=0 i=1 c / + j
i!
c!
i=0
c1 i
X
1 F1
1
, x = aex xa (a, x)
a+1
Les probabilites detre servi Pj (Sr ) satisfont des equations harmoniques faciles `a resoudre :
Pj [Sr] =
c
c + j
, Pj1[Sr] = ... =
,
c + (j + 1)
c + (j + 1)
j 1.
Par contre, la fonction de distribution complementaire F (x) stationnaire du temps dattente V est plus difficile. En regime sature, nous avons toujours une file avec taux de
service c := c, mais la distribution des temps Tk,k1 auxquelles le nombre des clients initials a change `a k 1 est maintenant exponentielle avec param`etre c + k. En denotant
toujours par Ek la distribution complementaire du temps de vidage conditionne par k clients
en attente, nous avons toujours :
Fq (x) =
X
k=1
c+k Ek (x)
Gar
3.7
Exercices
s!(1/s)
5. Soit X le nombre de clients dans une file M/M/1, et soit Xq le nombre de clients qui
attendent detre servis. Calculez EX , EXq , Var X et Var Xq .
6. Trouvez la distribution stationnaire du temps dattente W dans les file M/M/s,
M/M/, et leurs transformees de Laplace.
7. Trouvez la fonction generatrice des moments du temps de sejour total dun client dans
une file M()/M()/1, en supposant que la file est en regime stationnaire. Indication :
Utilisez la distribution stationnaire de la file M()/M()/1, et la question precedente.
8. Est-ce-que lesperance stationnaire du sejour totale dun client dans une file M()/M(2)/1
est plus grande que celle dun client dans une file M()/M()/2 ? Justifiez votre reponse.
ACTUARIAT
FILES DATTENTE, FIABILITE,
9. Calculez la distribution stationnaire de la file M/Ph/.
10. Calculez la distribution stationnaire de la file M/Ph/1, et la probabilite (s) que les
nouveaux arrives ne doivent pas attendre.
11. (***) Calculez pour la file M/Ph/s la probabilite (s) que les nouveaux arrives ne
doivent pas attendre.
12. Trouvez les fonction generatrices et transformees de Laplace de N, Q, T, W pour la file
M/G/1 (la formule de Pollaczek-Khyncin).
13. Calculez la transformee de Laplace de la p`eriode occupee dune file M/Ph/1. Verifiez
cette formule avec le cas M/M/1.
14. Montrez que la transformee de Laplace de la p`eriode occupee dune file M/G/1 satisfait
l
equation de Kendall :
z[s] = b[s + z[s]]
(3.5)
. Remarquez
1. c) On trouve i = i1 , i = 1, 2, ..., et donc i = i 0 avec = +
1
lidentite t0 = 0 /P0 [X1 6= 0, valable pour toutes les chanes ergodiques.
Ee
= Ee
PX0 +1
1
Si
X
k=1
k1
(1)
+s
k
= (1)
(1 )
+ s(1 ) + s =
+s
(1 ) + s
PX0
i=1
4. (a)
(b)
(c) On trouve 2 = 1 , 2 = 1 . Soit k = 0 + 1 + 1 . Eliminant 2 , p2 , on arrive
`a :
pk = ( + )1
p k = ( + )1
k + 1 + 1 = 1
et donc 1 = kp1 + , 1 = kp 1 + , 0 = kp1 + + kp 1 + avec
k = (1 + p2 1 + + p ( )2 1 + )1 .
3.8
Les probabilit
es transitoires des processus de naissance et mort
0
0
0
0
..
1 1 1
0
.
1
..
. 0
2
2 2
G= 0
.
.
.
..
.. ..
0
..
..
.. ..
.
.
.
.
n+1 = n n+1
n = 0
n
Y
i=1
Par contre, les probabilites transitoires sont deja assez compliquees `a obtenir analytiquement meme dans le cas le plus simple de la file M/M/1 (la marche aleatoire simple en temps
continu sur N), pour la quelle ils impliquent des fonctions de Bessel.
On peut quand meme obtenir facilement les transformees de Laplace des probabilites transitoires. Illustrons maintenant le calcul des transformees de Laplace, `a partir des
`equations de Chapman-Kolmogorov.
Soit pj (t) := P0,j (t) les probabilites transitoires en partant de letat initial i = 0, et soit
pj := pj (s), j = 0, 1, 2, ... leurs transformees de Laplace.
Les equations de Kolmogorov P = P G pour la premi`ere ligne sont
p0 (t) = 0 p0 (t) + 1 p1 (t), p0 (0) = 1
pj (t) = j1 pj1 (t) (j + j ) pj (t) + j+1 pj+1 (t),
pj (0) = 0, j = 1, 2...
eme ordre :
Les transformees de Laplace pj (s) satisfont une recurrence de deuxi`
j1 pj1 (s + j + j ) pj + j+1 pj+1 = 0,
1 p1 p0 (s + 0 ) + 1 = 0
j = 1, 2...
La resolution des r
ecurrences de deuxi`
eme ordre (meme avec coefficients nonconstants) est toujours possible en iterant. On reorganise la recurrence comme : desire +
reporte= connu, en loccurence :
pj
p
j1
=
.
pj (s + j + j j+1 pj+1
) = j1 pj1 p
p
j+1
j
j1
s+j +j j+1
1
p
s + 0 1 p1
0
pj
j1
=
,
p
pj1
s + j + j j+1 j+1
p
j
j = 1, ...,
p
j
ACTUARIAT
FILES DATTENTE, FIABILITE,
En iterant ces recurrences, et en posant j = j + j , j = 0, ..., j = j1 j , j =
1, ..., 0 = 1, on obtient une fraction continue pour la transformee de la probabilite de
retour en 0 :
1
p0 (s) =
s + 0
=
j=0
1
s + 1
j
s + j
(3.6)
fcb
s + 2 3 p3
2
=
s + 0
1
1
0 (1 + (s + 1 )/1 )
0 1 1
1 (1
1
+ (s + 2 )/2 ...
o`
u denote fraction continue. En tronqant la fraction continue au niveau n, et en ecrivant
ceci comme une fraction, on arrive au approximant de Pade.
Ou, au lieu de tronquer la fraction continue au niveau n, assurons le fait que 0 soit
p
un pole de p0 (s) (ce qui est necessaire, car lims0 sp0 (s) = 0 ), en choisissant n+1
comme
pn
l
unique constante n qui rend s une racine du denominateur. Un calcul simple montre que
n
, tel que le dernier denominateur inclu soit s + n . Les
cette constante doit etre n+1 = n+1
fractions ainsi obtenues seront de la forme
An an1 (s)
+
s
bn (s)
(3.7)
Q
o`
u An = (1 + 1 + 1 2 + ... ni=1 i )1 sont des approximations de la probabilite stationnaire
(s)
approximent la partie transitoire.
0 et les transformees inverses de an1
bn (s)
Exemple 3.8.1 Pour le cas de la file M/M/1 avec coefficients constants i = , i 0, i =
, i 1, on a p1 p0 (s + ) + 1 = 0, la normalisation
X
pn (s) = 1/s
n
pj+1 (s + + ) pj + pj1 = 0.
o`
u 1 (s) = p1 (s) , et (s) est lunique racine de 2 ( + + s) + = 0 qui est plus
0
petite que 1 pour chaque s 0 (et qui coincide avec la transformee de Laplace V (s) de la
periode occupee multipliee par 1 ). Finalement, tenant compte de la normalisation et
(1)
de la premi`ere equation, on trouve : 1 = s+(1)
= , et
pn (s) =
(1 )(s)n
,
s
p0 (s) =
1 (s)
V
=
= 1
s
1V
res
p0 (s) =
s+
s++
1
s + (s)
s + + p3
2
o`
u satisfait comme avant
(s) =
s + + (s)
Cette approche pourrait rendre possible lanalyse stationnaire et transitoire des marches
unidimensionels nonreversibles (voir Kovchegov (2008) pour le cas reversible, correspondant
aux operateurs G symmetrisables), generalisant lapproche de Karlin et McGregor !
Exercice 3.8.1 Calculer les transformees de Laplace pj (s), s N, des probabilites transitoires pour une marche sur les nombres
naturels, avec la distribution de chaque pas donnee
BF
par (p1 , p1 , p2 ). Comparer avec (?).
Note : Dans le cas multidimensionel, les distributions stationnaires des reseaux de Jackson sont calculables explicitement (meme que les marches associees ne sont pas reversibles),
mais les probabilites transitoires sont connues dans tres peu de cas !
Illustrons maintenant le calcul des transformees de Laplace, `a partir des `equations de
Chapman-Kolmogorov, pour les probabilites qj (t) = Pj [0 t].
Les equations de Kolmogorov P = P G pour la premi`ere ligne sont
q1 (t) = 1 (1 + 1 ) q1 (t) + 1 q2 (t), q1 (0) = 0
qj (t) = j qj1 (t) (j + j ) qj (t) + j qj+1 (t), qj (0) = 0, j = 2, 3, ...
Les transformees de Laplace pj (s) satisfont une recurrence de deuxi`
eme ordre :
j qj1
+ (s + j + j ) qj j qj+1
= 0,
(s + 1 + 1 ) q1 1 q2 1 /s = 0
j = 2, 3...
Chapitre 4
The Cram
er-Lundberg and Levy risk
models
4.1
Introduction
X(t) = u + c t C(t) := u + c t
Ci
where :
(4.1)
i=1
Remarque 4.1.1 The case of practical interest is when the net profit rate p = c EC(1) is
positive. The relative profit with respect to the expenses
=
c EC(1)
p
=
EC(1)
EC(1)
CLmod
fig1
Birthdeath process:skfree
in both directions.
(q)
1 2 1 2 1
2 1
Busy period
Remarque 4.1.2 A different perspective is obtained studying instead the aggregate loss
random variable
Y (t) = u X(t) = C(t) c t
representing the excess of claims over the profit. Note that the process Y (t) obtained by
reversing also the time has the same finite dimensional distributions as X(t).
The spectrally positive process Y (t) is also of interest in in queueing theory, where it is
used to model the M/G/1 queue workload .
Remarque 4.1.3 The processes X(t), Y (t) are particular examples of spectrally negative
and spectrally positive Levy processes. Many results about the Cramer Lundberg process,
when expressed in terms of the Laplace exponent/symbol
(s) = log E0 esX(1) ,
continue to be valid under this greater generality.
Remarque 4.1.4 A natural discrete space analogue is to assume u N, and to replace the
premium and claims with a combined random walk with an upwards skip-free distribution
pk , k {1, 0, 1, 2, ...}.
4.2
In this case, one is interested in the reflected process Y (t) inf st Y (s) describing the buffer content.
The stationary distribution of the M/G/1 workload coincides with the eventual ruin probability.
ACTUARIAT
FILES DATTENTE, FIABILITE,
The ultimate survival and ruin probabilities are respectively the cumulative and complementary cumulative distributions of the maximal deficit Y = sup0s< Y (s) :
(u) = P [Y u],
(u) = P [Y > u]
The finite-time ruin probabilities are very seldom available analytically ; Rone natural way
to approximate them is by computing and inverting their Laplace transform 0 eqt (dt, u),
which may be also viewed cf. (??) as the probability of passage of the process killed after
an independent exponential random variable Eq of rate q. Putting
Y (t) = sup Y (s),
0st
Yq = sup Y (s),
0sEq
we may define the killed survival and ruin probabilities as the cumulative and complementary
cumulative distributions of these random variables :
q (u) := P [Yq > u] = Pu [T Eq ]
Z
=
qeqt Pu [T t]dt =
Z
4.3
The L
evy exponent/symbol and its inverses
Let X denote a Levy process, i.e. a process having independent, stationary increments,
let Ex , x R denote the family of associated measures, and let E denote the measure starting
from 0. The property of i.s.i. implies the multiplicativity in time of the moment generating
function of a Levy process X :
EeX(s+t) = EeX(s) EeX(t)
for all in some open domain
Dom = { C : () < } = ( + iR, + iR),
which includes the imaginary axis. The law of X is determined by the Laplace exponent/cumulant generating function/symbol/kernel () :
() := log E eX(1)
, be (s) denote the stationary excess claim distribution and its Laplace
where be (x) := B(x)
m1
transform, and = EC(1)
(this is sometimes called geometric compounding
parameter,
c
Asm
due to its role in the Benes-Pollaczek-Khinchine decomposition -see (?)- of ruin probabilities
as geometric sums).
Related important functions are the roots of the Cramer-Lundberg equation :
() q = 0 E eX(1) = eq
(4.2)
CLeq
R
i.e. the largest and smallest solutions of the CL equation for q R belonging to the analyticity
band around the origin.
Exemple 4.3.1 The cumulant exponent of the Cramer-Lundberg model Y (t) = Y (0) +
P (t)
0 W (t) + c t N
i=1 Ci perturbed by Brownian motion W (t) is :
2
2 2
()),
+ c + (b [] 1) = (
+ c B
2
2
reflecting the Levy-Khinchine decomposition into diffusion, drift and jump part.
With = 1 and no jumps, the Cramer-Lundberg equation is quadratic, with roots :
(q) = c pc2 + 2q
() =
Finally, note the fundamental relation between the operator and symbol
Gesu = (s)esu
4.4
Under the markovian model (4.1), the ruin and survival probabilities satisfy morally
Kolmogorov equations :
G (t, x) =
(t, x), (t, x) = 0, x < 0, (t, ) = 1
t
R
(4.3)
(4.4)
These equations, valid formally for any Markov process, may be obtained by using a dictionary associating Markov processes to their generator operators. The Kolmogorov equations are easiest to establish for
discrete time random walks, when they reduce to recurrences. The continuous time case (while just a limit
of the discrete one) involves further technical issues like establishing conditions to ensure the existence of
solutions in a classical sense rather than in the sense of generalized functions see below. Note also that the
generator of a Levy process, which is a integro-differential operator, maybe be viewed formally as G = (D),
where D is the first derivative, where is the symbol of the operator and where this expression is to be
interpreted in the sense of pseudo-differential operators.
CK
ACTUARIAT
FILES DATTENTE, FIABILITE,
The Kolmogorov partial integro-differential equations above are seldom tractable analytically.
Slightly easier to solve (and derive) is the perpetual version :
G (x) = 0,
(t, x) = 1{x<0} ,
(t, ) = 0
(4.5)
harmr
Rx
Putting Gh(x)
= ch (x) + ( 0 h(x z)fC (z)dz h(x) and taking into account the
respective boundary conditions, the IDE equations may also be written as :
G(x)
+ FC (x) = 0
=0
G(x)
(4.6)
Furthermore, we see by taking Laplace transform of the time dependent equation that the
killed ruin probabilities are a (positive decreasing) solution of the Feynman-Kac/SturmLiouville equation
Gq q (x) := Gq (x) qq (x) = 0.
(4.7)
This equation may be solved by a second Laplace transform in x, and the answer may
be expressed in terms of the symbol of the risk model.
Note : The killed ruin probability is a particular case of Gerber-Shiu (expected dis(g)
counted) penalty q (u) = Eu eq g(Z( )) satisfying the Sturm-Liouville equation (??) with
(g)
boundary values q (u) = g(u), u < 0. For regularity conditions ensuring the existence of
solutions of (??) in the
classical sense, as well as for methods of solution in the case of
CLS
phase-type jumps, see (?).
4.5
The integro-differential equation (4.6) may be solved applying the Laplace transform.
We find :
c(0) F (s)
c(0) F (s)
(s) =
=
(s)
cs sF (s)
R
Note that lims0 (s) = 0 (u)du. Since limu (u) = 0, it is plausible and indeed
true under weak conditions that (0) is well defined, i.e. that the apparent singularity at
0 of (s) must simplify. Assuming this for the moment, this yields the ruin probability
starting from 0 as
R
0 F (x)dx
(0) =
:= ,
c
and it turns out that this is indeed true whenever
Z
Z
m1 :=
F (x)dx =
xf (x)dx < .
0
Proposition 3 For Cramer Lundberg processes, the ruin probability starting from 0 is
(0) := = lim s (s) =
s
EC(1)
,
c
shar
SL
1 (0)
1
p
m1 F (s)
=
=
,
esu (u)du =
(s)
s
(s)
s (s)
0
Z
(0)
1
(s) =
esu (u)du =
=
(4.8)
(s)
s(1 be (s))
0
R
R
1
Note also that (s) = 0 esu P [Y u]du = s 0 esu fY (u)du = s(1b
(s)) . Finally,
e
we obtain the famous Pollaczek-Khinchine formula for the Laplace transform of the density
of the supremum of a spectrally positive Levy process :
Z
1
,
(4.9)
(s) =
esu fY (u)du =
1 be (s)
0
(s) =
PK
PKf
4.6
Exponential claims
Exemple 4.6.1 With exponential claim sizes of intensity , the ultimate ruin probability
is :
(x) = ex .
(4.10)
expruin
Here = + /c > 0 is the unique negative root of the Cramer Lundberg equation :
(s) = 0,
(4.11)
with (s) = log E0 esX(1) = css/(+s) being the cumulant generating function/Laplace
exponent/symbol of the process X(t) see below, and
=
(0)
=
< 1.
()
c
(4.12)
CL
CLct
It turns out that whenever a negative solution of (4.24) exists, the expression
is asymptotic to (x) ! This is the famous Cramer Lundberg approximation.
The ruin probability killed at rate q is also exponential :
(0)
()
ex
q (x) = (1 +
s xs
/c xs
)e
=
e ,
+ s+
the exponent being the unique negative root of the Cramer Lundberg equation :
(s) = q,
(4.13)
in fact, (s) has a probabilistic interpretation, being one of the two factors of the celebrated Wiener-Hopf
R
Ber
(0)s
decomposition see (?), and (s) = E[esY ] = P [Y = 0] + 0 esu fY (u)du = s (s) = (s)
CLq
ACTUARIAT
FILES DATTENTE, FIABILITE,
Solving the IDE (??) in this case may be achieved either by either
Inverting the Laplace transform (4.15) by partial fractions :
(s) =
=
su
(u)du =
1
c(0) s+
s(c
)
s+
s(0) + (0) /c
s(s + /c)
A
B
+ (x) = Aex(/c) + B
s + /c
s
Note that the net profit condition /c > 0 and () = 0 imply B = 0. Thus, s
must simplify in the fraction above and therefore the relation
(0) =
EC1
1
=
c
c
must hold. This relation turns out to be true for the Cramer Lundberg model with
arbitrary claims distribution having finite mean !
Letting l = c EC1 denote the loading per time unit, we conclude that (0) and
(0) are proportional respectively to the expected payments and loading per time
unit.
Solving the Sturm-Liouville IDE equation (4.7) by reducing it to a ODE with constant
coefficients and then looking for combinations of exponentials (or looking directly)
by probabilistic approaches like the general ladder decomposition for the Cramer
Lundberg process due to Dubordieu(1952)-Benes(1957)-Kendall(1957) (4.21) or martingale stopping -see below.
Notes : 1) Replacing the initial risk process (4.1) by one with exponential claims and
identical first three moments, and applying the simple exponential claims formula (4.10)
yields the simple DeVylder approximation in terms of
the first three moments of the claims
Ram92
distribution. This was slightly extended by Ramsay (?) using mixed exponential claims of
order two ; the result however is not that simple anymore, due to the complicated moment
matching and of the dependence of the Cramer-Lundberg roots ri on the moments.
2) For Gamma claims with shape parameter < 1,, the ultimate and killed ruin probabilities
are also explicit (due to Thorin), though rather complicated see Grandell & Segerdahl
GS
(?).
Exemple 4.6.2 Let us estimate now the eventual ruin probabilities by a Bayesian approach,
assuming an exponential distribution with uncertain parameter , which has a prior Gamma
distribution , (d).
~ = (C1 , ..., Cn ), the posterior density of , f (|~c) is
After n observations C
+n,+Sn (d),
where Sn =
Pn
i=1 ci ,
n = f (|C)d
=
,
Sn +
Z
Sn +
~
.
m
n = 1 f (|C)d
=
+n1
e d = (1 + x/) , , > 0,
F, (x) =
ex
()
0
with mean
,
1
()n
()n
=
,
n (1 + Sn /)n+
( + Sn )n+
where ()n is the Pochammer symbol. It follows that the posterior distribution of one additional observation is
()n+1 ( + Sn )n+
f (x, ~c)
=
f (x|~c) =
f (~c)
()n ( + Sn + x)n++1
( + n)
,
=
( + Sn )(1 + x/( + Sn ))n++1
i.e. Pareto with parameters + n, + Sn . It is easy to check that assuming an exponential
density with known rate 0 , the heavy tailed Pareto posterior distributions will converge to
the true exponential density when n .
= , the Bayes Pareto predictive ruin probability is
Finally, from (4.10), putting
c
Z
(+n)1
()u
(( + Sn ))
b n (u) =
e
e(+Sn ) ( + Sn )d
( + n)
0
u
(+n)
e
( + Sn )
=
( + n 1)
( + n) (u + + Sn )(+n1)
1
+ Sn
u
= e
u
+ n 1 (1 + +Sn )(+n1)
(Sn + ) u( c +n1
m
n u( c m1 )
)
Sn +
n .
e
e
=
c( + n 1)
c
(4.14)
Note that on the other hand, the Pareto ruin probability is considerably more complicated
(which may serve as argument for the Bayesian point of view of replacing a fixed model by
a dynamically evolving one).
Extending this approach to more complicated claims distributions would be quite useful. For example, the Gamma prior is also a conjugate prior for the Gamma and Pareto
distribution. However, for these distributions we do not have exact formulas for ruin
probabilities (with the exception of the Gamma with integer order, which has rational Laplace
transform see below).
Remarque 4.6.1 The Sparre-Andersen model raises simultaneously the statistical challenge
of estimating the distribution of a sequence of catastrophes, and the probabilistic challenge of
computing the distribution of first-passage times. In practice, one may meet situations where
there is also a stochastic evolution without isolated jumps, between the catastrophes. For that
component, one may use a Levy model with infinite mass, a continuous diffusion model, or
a mixture of both. Choosing one of these alternatives is a dilemma facing the modeller.
In conclusion, to estimate ruin probabilities, one needs to estimate the distribution of
the claims and interarrival times (and of eventual evolutions between jumps), and then,
using these as input, compute the ruin probabilities for the estimated model, by solving
Kolmogorovs equations.
Bayruin
ACTUARIAT
FILES DATTENTE, FIABILITE,
4.7
Rational symbols
The final result of the analytic approach is to yield Laplace transforms ; for example, the
Laplace transform of the perpetual survival probability is given by the famous PollaczekKhinchin formula :
Z
Z
(0)
su
(4.15)
(s) =
e (u)du =
esu P [Y u]du =
(s)
0
0
where (s) is the symbol of the process.
From the Pollaczek-Khinchine formula(4.15), it may be seen that if the claims have a
rational Laplace transform
PK1
k
k=0 ak s
B (s) =
,
(4.16)
P
k
sK + K1
b
s
k
k=0
PK1
Lappar
then the same will be true of the Laplace transform of Y and of the ultimate ruin probability. In this case, the Laplace transform may be inverted explicitly, either by a) the
matrix-exponential formalism, or by b) splitting into partial fractions, yielding mixtures of
exponentials involving the roots of the Cramer-Lundberg equation .
Exemple 4.7.1 The matrix exponential formalism. For light tailed claims with rational
Laplace transform (4.16), the distribution may also be expressed in matrix exponential form
B(x)
= eBx 1,
(4.17)
matexp
AsmBla
where Q = B + (B)1,
= (B)1 .
(4.18)
B(x)
=
I
X
i=1
i ebi x ,
X
i
i = 1,
b(x) 0,
x R+
P
(with mean m1 = Ii=1 i b1
i ).
Let us apply the Pollaczek-Khinchin formula,
exploiting the fact that for Cramer Lundberg
(s)).
processes, the symbol (s) = log E0 esX(1) may be written as (s) = s(c B
For non-rational symbols, the task of Laplace inversion is more challenging ; for example, the case of
lognormal claims is not so straightforward.
phaseruin
PI bi x
0 = l(s)
X
c
1
(s) b (s) = 1 = 1 + c
=B
i
=0
e
b
+
s
i
i=1
+
=
(s) =
=
s sl(s)
s
s + ri s
r +s
i=1 i
i=1
and therefore
(x) =
I
X
Ci eri x
i=1
where Ci =
(0)
(ri )
(4.19)
CLconst
(4.20)
Ch
Therefore,
(x) =
I
X
Ci eri x
i=1
and thus finding the ruin probability reduces to solving the simplified Cramer Lundberg
equation (??), simple fractions decomposition and applying the explicit formula (4.20). Of
course, the first task can only be achieved analytically in particular cases .
(s) = 1 1 + 3 1 . The simplified symbol is :
Exemple 4.7.3 Let c = 1, = 2, and B
4 2+s
4 4+s
1 1
4(1 + s)(3 + s)
3 1
l(s) = 1 2
=
+
= r1 = 1, r2 = 3
42+s 44+s
3(s + 2)(s + 4)
3(s+2)(s+4)
and the coefficients Ci (obtained for example by partial fractions of (s) = 1s 8s(1+s)(3+s)
,
or by (4.19)) are : C1 = 9/16, C2 = 1/16.
1
1
1 1
21
23
= 1 1 and the coefficients Ci may
Alternatively, the Cauchy matrix is
1
1
41
43
To get examples of this situation, consider the case when bi and the roots ri are integers (for example,
chose ri arbitrary under the necessary constraints 0 < r1 < b1 < r2 ... < bI ).
1
Form next the Cauchy matrix CA denote with elements bi r
, i, k = 1, ..., I,, which intervenes naturally,
k
since the Cramer Lundberg equation may also be written in system form CA = c 1 where = (1 , ..., I ).
Note now that 1) the vector C = (C1 , ..., CI ) satisfies the linear system CA C = b(1) where b(1) :=
1
(b1
1 , ..., bI )), and thus is completely determined
P once bi and ri have been chosen.
2) Furthermore, we may determine (0) = i Ci and the safety loading . The equation c = m1 (1 + )
fixes then the quotient c/.
3) Finally, may be computed from (??).
ACTUARIAT
FILES DATTENTE, FIABILITE,
Note, by the Pollaczek-Khinchine formula (4.9), that the ultimate ruin probabilities are
independent of c, once is fixed (since they are completely determined by (s)). The classical
Cramer Lundberg model is thus overparameterized as far as ultimate ruin probabilities are
concerned, and by scaling time we may normalize any nonzero parameter like c or to be 1.
Exercice 4.7.1 Soit Y (t) un processus de Cramer-Lundberg Y (t) = u + c t C(t), C(t) =
PN (t)
u N(t) est un processus de Poisson dintensite = 1, et les sinistres Zi ont une
i=1 Zi , o`
distribution hyperexponentielle F (x) = 16 e2x + 65 e6x .
a) Calculez lesperance des sinistres m1 = EZ1 et le taux de profit p = c m1 , si le
taux de cotisation est c = 3m1 /2.
b) Calculez la probabilite de ruine (u), `a partir de la formule de Pollaczek-Khinchin
pour sa transformee de Laplace
1
p
(s) =
,
s (s)
o`
u le symbole/exposant de Levy est (s) = s c F (s) . R : 95 ex + 91 e4x
Exercice 4.7.2 Calculez la probabilite de ruine (u) pour un processus de Cramer-Lundberg
P (t)
u N(t) est un processus de Poisson dintensite =
Y (t) = u+c tC(t), C(t) = N
i=1 Zi , o`
1, c = 8/5m1 , et les sinistres Zi ont une distribution hyperexponentielle F (x) = 41 e2x + 34 e4x .
X
n=1
with
(1 (0))(0)n be (x)n
(4.21)
EC1
= (1 + )1 :=
c
(the idea behind this is that the appearance of each new ladder is equivalent to the event of
ruin starting from 0).
(0) =
BPK
Notes : 1) This was first derived via the inversion of the Pollaczek-Khinchin formula
(4.15) (by expanding it into a geometric series).
2) The Cramer-Lundberg equation may be written in this case as
X
i
i=1
i!
si =
(4.22)
serCL
where i are the moments of the stationary excess/normalized ladder density be (x) :
m
i =
mi+1
(i + 1)m1
(4.23)
A more complicated geometric series expansions is valid for the perturbed Cramer
Lundberg processes.
3) The relation between ruin and the density of the minimum is clear at the level of
partial fractions, the relations :
(x) =
I
X
i=1
ri x
Ci e
I
X
i=1
Ci ri eri x
mts
ACTUARIAT
FILES DATTENTE, FIABILITE,
4.8
Examen dentrainement 1
3. On lance une pi`ece de monnaie biaisee, avec la probabilite de sortir face egale `a q et
celle de sortir pile egale `a p = 1 q, jusqu`a ce quon obtient une suite pile-face-pile
(arriv`ees consecutivement). Trouvez lesperance n du nombre de pas N jusqu`a larret,
(ou le nombre de jets, en incluant le dernier). Indication : On peut utiliser un processus
de Markov qui retient linformation minimale necessaire pour decider si levenement
desire a eu lieu (et qui contient dans ce cas quatre etats).
x+1
+ )
2
5. On lance une monnaie biaisee jusqu`a la premiere fois quand une pile arrive apr`es un
nombre impaire de faces. Trouvez lesperance n du nombre de pas de ce jeu, tenant
compte aussi de la derni`ere pile.
Solutions :
1. Les probabilites de ruine satisfont px = 76 px+1 + 17 px2 , x N. Elles sont des combinaisons de puissances x , avec une racine de
1
6
1
1
6
6 3
2 + = ( 1)( 2 ) = ( 1)( 1/2)( + 1/3)
7
7
7
7
7
7
)x satisfait p0 = p1 = 1 ssi A1 = 4/5, A2 = 1/5.
px = A1 ( 21 )x + A2 ( 1
3
2. a) Soit = p(1q), = q. On a z0 = 1, et n 1, zn = z = 1 = (1p)(1q).
Le graph de communication est :
,
+
et donc
c) t0 = t(0) + t1 o`
u t(0) = 1 et t1 = t2 = ... = 1 . Remarquez lidentite t0 =
1
0 /P0 [X1 6= 0, valable pour toutes les chanes ergodiques.
d)
( + )
(
+
)
0
G=
..
.. ..
.
.
.
..
..
..
.
.
.
3. Considerons le processus de Markov sur des etats specifiant les deux derni`ers resultats
posibles : {P F }, {P }, {P cF }, . Les deux inconnues x1 = x{P } , x2 = x{P c F } satisfont :
x1 = 1 + px1 + q 0, x2 = 1 + px1 + q x2 q x1 = q 1 , x2 = x1 + p1 = q 1 + p1
RT
4. Pour c(x) = Ex [ 0 X(t)dt] (co
ut totale de stockage) on trouve
(Gc)(x) + x = 0
c(0) = 0
c(x)
accroit non-exponentiellement quand x
ACTUARIAT
FILES DATTENTE, FIABILITE,
5. Considerons le processus de Markov sur les etats : {F iP }, {P }, {F i}, {F p}, o`
u le dernier etat inclu le cas . Soit N le nombre de pas jusqu`a la premiere fois quand une
pile arrive apr`es un nombre impaire de faces, et xi , i = 1, 2, 3 son esperance, `a partir
des etats transitoires : x1 = x{P } , x2 = x{F i} , x3 = x{F p} . Les trois inconnues satisfont :
x1 = 1 + px1 + q x2 , x2 = 1 + q x3 , x3 = 1 + px1 + q x2 =
1+q
x3 = x1 , qx1 = 1 + qx2 = 1 + q(1 + qx1 ) = x1 =
q(1 q)
Note : Le conditionnement sur le premier pas ne marche pas. Examinons lespace
detats :
E = {P, F P, F F P, F F F P, F F F F P, ..}
en essayant de trouver une decomposition en cas (ou un temps darret T ) qui permet
une approche recursive.
Dans le premier, troisi`eme, ...cas, on recommence. Dans le dexi`eme, quatri`eme, ..., on
conclut N = 2, 4, .... Le temps darret permettant une solution est donc le temps T de
la premiere pile. En conditionnant sur T , on trouve :
n = E[N] =
q 2k1 p(2k) +
k=1
q 2k p((2k + 1) + n)
k=0
2pq
p(1 + q 2 )
1
p
1
=
+
+
n
=
+
n
(1 q 2 )2 (1 q 2 )2
1+q
(1 q)2
1+q
P
P
2q
1
1
2k1
2k
= ( 1q
= (1q)
o`
u on a utilise
2 ) = (1q 2 )2 ,
2
k=1 2kq
k=0 (2k + 1)q
(1+q 2 )
.
(1q 2 )2
On retrouve finalement : n =
2q
(1q 2 )2
1+q
q(1q)
4.9
Examen dentrainement 2
1. Un scribe doit copier n pages dun manuscrit. Comme il est fatigue, il comet un certain
nombre derreurs partout dans le manuscrit, distribuees suivant une distribution de Poisson
P o(). Les erreurs peuvent se trouver sur nimporte quelle page, avec des probabilites egales.
(a) Quelle est la distribution du nombre N1 des erreurs sur la premi`ere page ?
(b) Quelle est la probabilite que la premi`ere page ne contient pas des erreurs ?
(c) Quelle est lesperance du nombre de pages contenant des erreurs ?
Y (t) = u + c t C(t),
C(t) =
Ci ,
(4.24)
i=1
o`
u N (t) est un processus de Poisson dintensite = 1, et les sinistres Ci ont une distribution
hyperexponentielle FC (x) = 61 e2x + 56 e6x .
a) Calculez lesperance des sinistres m1 = EC1 et le taux de profit p = c m1 , si le taux de
cotisation est c = 3m1 /2.
b) Calculez la probabilite de ruine (u), `a partir de la formule de Pollaczek-Khinchin pour
sa transformee de Laplace
1
p
(s) =
,
s (s)
o`
u lexposant de Levy est (s) = s c FC (s) .
3. On lance une pi`ece de monnaie biaisee, avec la probabilite de sortir face egale `a q et celle
de sortir pile egale `
a p = 1 q, jusqu`a ce quon obtient une suite pile-face-pile (arriv`ees
consecutivement). Trouvez lesperance n du nombre de jets N jusqu`a larret, en incluant le
dernier.
4. Soit Xt un processus Markovien en temps continu, representant le nombre de clients dans
une file dattente avec deux serveurs A, B, ayant des taux de service 1 = 3 et 2 = 2,
respectivement, et une salle datente infinie. Les clients arrivent suivant un processus de
Poisson de taux = 4; si un seul client est present, il est servi par le serveur le plus efficace.
a) Dessinez le graph de transitions du processus Xt , et donnez la matrice generatrice des
probabilites de transition, et la matrice dws probabilites de transition de la chane discretisee
associee aux temps de saut.
b) Calculez la distribution stationnaire de Xt .
c) Quelle est la proportion du temps pendant le quel le serveur B est occupe ?
d) Quelle est la proportion du temps pendant le quel le serveur A est occupe ?
e) En sachant quau temps 0 les deux serveurs sont occupes et quil ny a personne qui attend
dans la file, quelle est la probabilite que le premier client qui arrive doit attendre ?
5. Soit X = (Xt ; t 0) un processus de Markov en temps continu sur lensemble N, avec
generateur infinitesimal Gf (x) = 1 (f (x 1) f (x)) + 2 (f (x + 2) f (x)), x 1 avec
1 = 6/7, 2 = 1/7, et avec Gf (0) = 2 (f (2) f (0))).
a) Calculez la distribution stationnaire de Xt .
b) Calculez lesperance t(x) = Ex T, o`
u T = T0 = inf{t : X(t) 0} est le temps de vidage,
RT
ainsi que le co
ut de vidage c(x) = Ex 0 Xs ds, en resolvant les equations de recurrence
Gc(x) + h(x) = 0, x 1, c(0) = 0 o`
u h(x) = 1 et h(x) = x, respectivement.
6. Soit X = (Xt ; t 0) un processus de Markov en temps continu sur lensemble S = {1, 2, 3}.
Supposons que la matrice infinitesimale (de taux de transitions) de X est donnee par
3 2
1
1 2 1
G=
1
6 7
(a) Quelles sont les probabilites de transition de la chane discretisee associee aux temps de
saut ?
(b) Quelle est la loi conditionelle de T3 = inf{t 0 : Xt 6= 3}, en sachant que X0 = 3 ?
(c) Posant T (3) = inf{t > T3 : Xt = 3}, donnez un syst`eme des equations pour x1 =
E[T (3) |X0 = 1] et x2 = E[T (3) |X0 = 2]. Resolvez les equations.
(d) Calculez, pour le processus absorbe en 3, Pi,j (t) = P[t T (3) , X(t) = j|X0 = i], i = 1, 2.
CL
ACTUARIAT
FILES DATTENTE, FIABILITE,
(e) Calculez P1 (t) = P[T (3) t|X0 = 1] et P2 (t) = P[T (3) t|X0 = 2] `a partir directement des equations de Chapman-Kolmogorov,
et comparez les reponses avec ceux de la
R
question precedente. Verifiez aussi que xi = 0 Pi (t)dt, i = 1, 2.
7. Des femmes et des hommes arrivent dans un magasin, apr`es des temps fixes, unitaires. Chaque
instant, une femme arrive avec probabilite F , ou un homme arrive avec probabilite H , ou
il ny a pas darrivee, avec probabilite 0 = 1 F H .
(a) Trouver la probabilite pF quune femme entre avant un homme. Indication : Conditionnez sur le premier instant, ou sur le nombre dinstants sans arrivees.
(b) Trouver la probabilite que deux femme entrent consecutivement (i.e. avec aucun homme
entre eux, mais pas forcement aux moments consecutifs) avant quun homme entre.
(c) Trouver la probabilite quau moins deux hommes soient entres consecutivement (i.e.
avec aucune femme entre eux, mais pas forcement aux moments consecutifs), avant que
trois femmes ne soient entrees consecutivement. Indication : Consid`erez un processus
de Markov sur lespace des etats : (H1, H2, H3, ...) (F 1, F 2, F 3, ...), qui enregistre
au temps t la longueur k de la derni`ere serie des clients k {1, 2, ...} du meme sexe
entres consecutivement, et leur sexe (H/F) ; formulez des equations darret pour les
etats darret indiques.
(d) Quelle est la probabilite quau moins m hommes soient entres consecutivement, avant
que n femmes ne soient entrees consecutivement ?
Solutions :
1. a) Les nombres des erreurs Ni sur chaque page i sont des variable de Poisson coloriee avec
probabilite 1/n, et donc Ni sont des variables de Poisson de taux /n (independantes). La
probabilite que Ni 1 est 1 e/n .
P
b) En decomposant la variable N comme somme des indicatrices, lesperance de N = ni=1 Ni
est n(1 e/n ) (en fait, N a une distribution binomiale, car Ni sont independants, par le
theor`eme de coloriage des variables Poisson).
2. a) Lesperance des sinistres est m1 =
1
62
5
2
66 = 9 et
1
s s(3/9
le taux de profit p = 91 .
1/9
1
5
6(s+6)
)
6(s+2)
5
9(s+1)
1
9(s+4)
et la
1+p
,
p2
xP =
1
1+p 1
+ = 2 ,
2
p
q
p q
n=
xF = p2 + q 1 + 2p1 = p2 + (pq)1 + p1
1 + pq
p2 q
3
23 .
2
n
5. a) La distribution stationnaire est n = A1 ( 21 )n + A1 ( 1
3 ) , et 1 = 0 = A2 = 3 A1 .
b) Nous devons resoudre
(Gc)(x) + h(x) = 0
c(0) = 0
c(x)
accroit non-exponentiellement quand x
o`
u
Gf (x) = 6/7(f (x 1) f (x)) + 1/7(f (x + 2) f (x)), x 1
b) On decompose c(x) = ch (x) + p(x) o
u ch (x) = A + A1 r1x + A2 r2x , avec A1 = A2 = 0 (car
|ri | > 1), et p(x) = Bx pour la premi`ere question, et p(x) = x(Bx + B1 ) pour la deuxi`eme.
Comme Gx = 74 et Gx2 = 78 x2 + 10
es
7 , on trouve par la methode des coefficients indetermin
7 2
35
7
que les solutions sont t(x) = 4 x, c(x) = 8 x + xx 16 .
6.
De lors, x1 = x2 = 1.
(d) Soit
= 3 2
G
1 2
= L1 Diag( )L,
le generateur du processus observe seulement en 1, 2. Diagonalisons G
i
o`
u les lignes de la matrice L sont les vecteurs propres `a gauche. Ici, les valeurs propres,
donnees par 2 + 5 + 4 =
( + 1)(
+ 4) = 0 sont 1 et 4 et la matrice des vecteurs
1
2
propres `
a droite est R = 1 1 . Finalement,
(t) = RDiag(ei t )R1 =
P
et
2e4t
et
3t + 4t
3
e
e
3 3
2et
2e4t
3t 4t
3
2e
e
3 3
P1 (t) = P (t)1 = et
P3 (t)
et
ACTUARIAT
FILES DATTENTE, FIABILITE,
Posons pi (t) = Pi,3 (t) = 1 Pi,3 (t) pour les probabilites de non-absorption dans la
colonne fixe 3. On a p1 (0) = p2 (0) = 1 Comme P3,3 (t) = 1, lequation ChapmanKolmogorov P = GP donne pour la troisi`eme colonne :
(1 p1 (t)) = 3(1 p1 (t)) + 2(1 p2 (t)) + 1
(1 p2 (t)) = (1 p1 (t)) + 2(1 p2 (t)) + 1
ou
7.
p1 (t)
p3 (t)
= etG 1
F
F + H
(b) p2F
(c) Considerons la chane de Markov en temps discret qui enregistre la longueur du nombre
des clients du meme sexe entres consecutivement et le type, ayant comme espace des
etats les suites (H1, H2, H3, ...) (F 1, F 2, F 3, ...). En prenant en consideration seulement les temps quand la chane saute, pn a une marche aleatoire qui avance sur les
hommes/femmes a.p. pH = 1 pF et pF , et change de sexe outrement. Par exemple,
si F = 2H , les deux probas sont pH = 31 , pF = 23 . En denotant par xi , yi la probabilite
de notre evenement en partant dune suite des i femmes hommes, il faudra resoudre :
y1 = pH + pF x1
x1 = pH y1 + pF x2
x2 = pH y1
Generalisant pour m hommes et n femmes et posant SF,k =
nous trouvont
Pk
i
i=1 pF , SH,k
m1
pH
pm
H SF,n2
, x1 =
y1 =
1 pH pF SH,m2 SF,n2
1 pH pF SH,m2 SF,n2
et finalement
pH y1 + pF x1 =
pm
pm
H (1 + pF SF,n2 )
H SF,n1 )
=
1 pH pF SH,m2 SF,n2
1 pH pF SH,m2 SF,n2
Pour m = 2, n = 3, on trouve :
y1 =
p2H (1 + pF )
pH
, x1 =
1 pH pF (1 + pF )
1 pH pF (1 + pF )
et
p H y 1 + p F x1 =
p2H (1 + pF + p2F )
1 pH pF (1 + pF )
Pk
i
i=1 pH ,