Gasmi Zahia
Gasmi Zahia
Gasmi Zahia
Gasmi Zahia
THÈME
i
Dédicace ii
Dédicace
D’abord, je remercie mon DIEU qui ma donnée le courage et la force pour
accomplir ce modeste travail.
Je présente mes dédicaces aux deux êtres les plus chers de ma vie mon "père" et
"ma mère".
A mes frères et . A mes Sœurs .
A tout mes amies sans exception
A toutes ma famille
Je tien à dédicace aussi à toutes les enseignantes et enseignants et mes collègues
de la Promotion et a tous qui ma connaissent.
Remerciements iii
Remerciements
Que Toutes les formes de Prière et de Salat soient adressées à notre Ame et
Conscience Sidna Mohammed, notre lumière dans cette vie.
J’adresse aussi mes sincères remerciements à " Mr.Karek .M" et " Mr.Agoun
.R" qui ont accepté de faire partie de mon jury de prendre de leur temps pour
examiner mon travail .
Et en…n à tous nos collègues de la promotion 2018=2019 et à tous ceux qui ont
contribué, de près ou de loin, à la réalisation de ce travail.
Notations et abriviations iv
Notations et abriviations
DS Di¤erncy Stationnary
TS Tend Stationnary
BB Bruit blanc
MA Moyenne mobile
ME Mean Error
v
Table des …gures
vi
Introduction 1
Introduction
L’étude descriptive de ces séries n’était pas su¢ sante pour prévoir leurs com-
portements futurs. Le besoin de prévision de ce type de séries a emmené les scien-
ti…ques à construire des modèles mathématiques aptes à répondre à ce besoin.
Dans le premier chapitre, nous présentons des généralités sur les séries
chronologiques.
Le deuxième chapitre on présentera les di¤erentes méthodes de lissage ex-
ponentiel à savoir le lissage exponentiel simple, le lissage exponentiel double, le
lissage exponentiel généralisé et le lissage exponentiel de Holt-Winters.
En…n, dans le troisième chapitre on présentera une application de ces mé-
thodes sur des donneés reéls qui représentent le taux brut de naissance en Algérie
(1967-2000). Nous avons fait recours an logiciel Eviews.
Chapitre 1
Une série chronologique est un ensemble de valeurs d’une variable indicée dans
le temps. L’analyse des séries chronologiques permet d’étudier les situations pas-
sées et présentes et peut extrapoler l’évènement dans un futur relativement proche
(la prévision). La prévision se fonde donc sur la connaissance du passé et du pré-
sent. Dans ce chapitre plusieurs conpcepts importants liés à l’analyse de séries
chronologique seront abordés parmi ceux ci, on retrouve les notions d’autocorré-
lation, de stationnarité et de bruit blanc.
Dé…nition 1.1.1 Une série temporelle (chronologique) est une réalisation d’un
processus stochastique fXt ; t 2 Ig où I est un ensemble dénombrable et totale-
ment ordonné. C’est une suite d’observations d’une grandeur Xt ou d’un vecteur
e¤ectuées au cours du temps.
Nous allons considérer dans toute la suite que la période écoulée entre deux ob-
servations consécutives est la même, on parle donc de série annuelle, trimestrielle,
mensuelle ou quotidienne.
2
Chapitre 1. Théorie des séries chronologiques 3
a-Tendance linéaire :
Tt = a + bt:
b-Tendance quadratique :
Tt = a + bt + ct2 :
Chapitre 1. Théorie des séries chronologiques 4
Tt = b0 + b1 t + b2 t2 + ::: + bq tq :
d-Tendance logistique :
c
Tt = at
ou a; b; c 2 R:
1 + be
2) Les variations saisonnières (si ; 1 i n) : sont liées au rythme imposé
par les saisons météorologiques (production agricole, consommation de gaz,...),
ou encore par des activités économiques et sociales (fêtes, vacances, soldes, etc).
Mathématiquement, ce sont des fonctions périodiques, c’est-à-dire qu’il existe un
entier p, appelé période, tel que
si = si+p
Modèle additif
Xt = ft + st + et t = 1; : : : ; T
Chapitre 1. Théorie des séries chronologiques 5
-Modele additif.
Modèle multiplicatif
Xt = ft :st :et t = 1; : : : ; T
— Modele multiplicatif.
Modèle mixte
Xt = ft :(1 + st ) + et t = 1; : : : ; T
Chapitre 1. Théorie des séries chronologiques 6
8t 2 Yt = LXt = Xt 1
1
Remarque 1.4.1 L’opérateur L est linèaire et inversible. Son inverse L =F
est dé…ni par
8t 2 Z; F Xt = Xt+1
L’opérateur F est appelé opérateur avance.
p
X
2 p
A(L) = a0 I + a1 L + a2 L + ::: + ap L = ak L k
k=0
Lemme 1.4.1 Soit une série chronologique (Xt )t2Z , L’opérateur retard possède
les propriétés suivantes :
1. Lj Xt = Xt j , en particulier L0 Xt = Xt .
2. Si Xt = c 2 R pour tout t 2 Z ,alors Lj Xt = Lj c = c pour tout c 2 Z:
Chapitre 1. Théorie des séries chronologiques 7
3. Lj (Lk Xt ) = Lj+k Xt = Xt j k:
j k j k
4. (L + L )Xt = L Xt + L Xt = Xt j + Xt k :
5. Si j a j 1, alors
X
1
1
(1 aL) Xt = aj Xt j :
j=0
Xt = Xt Xt 1
d Xt = Xt Xt d
d d 1
(Xt ) = ( Xt ) = (1 L)d (Xt Xt 1 )
1.4.3 L’operateur s
s Xt = Xt Xt s
2
s Xt = s (Xt Xt s ):
2
On parle de bruit blanc gaussien lorsque "1 ; "2 ; :: sont i:i:d:N (0; " ):
1.6 Stationnarité :
Une propriété importante des séries chronologiques est la stationnarité. La
stationnarité est une caractéristique d’une série chronologique qui implique que le
comportement de la série ne dépend pas du temps. En particulier, on dit qu’une
série (Xt )t2Z est stable si elle ne comporte pas de tendance saisonnière, ni de
tendance à la hausse ou à la baisse. Plus formellement, on distingue deux types
de stationnarité, à savoir forte et faible.
Dé…nition 1.6.1 Une série (Xt )t2Z est dite fortement stationnaire (ou station-
naire d’ordre 1) si pour tout l 2 Z
L
(Xt1 ; :::; Xtn ) = (Xt1 +h ; :::; Xtn +h ):
Dé…nition 1.6.2 Une suite fXt : t 0gde variables aléatoires est dite station-
naire du second ordre si elle véri…e les propriétés suivantes :
1. Pour tout t, E(Xt2 ) < +1:
2. Pour tout t, E(Xt ) = :indépendante de t:
3. Pour tout t et pour tout h, (h) = cov(Xt ; Xt+h ), indépendante de t:
Chapitre 1. Théorie des séries chronologiques 9
a/ Processus TS :
Est un processus dont le moment d’ordre 1 déponde de temps.
Exemple :
Le processus TS (Trend Stationary) s’écrit :
yt = + t + "t
ou "t représente l’erreur du modèle à la date t .
b/Processus DS :
Est un processus dont le moment d’ordre 2 déponde de temps.
Exemple :
Le processus DS (Di¤erncy Stationnary ) avec dérive ( 6= 0 ) s’exprime
comme suit :
yt = yt 1 + + "t :
Par récurrence, on obtient (dans le cas avec dérive) :
y1 = y0 + + "1
y2 = y1 + + "2
= y0 + + "1 + + "2 =
= y0 + 2 + "1 + "2
:
:
:
X
t
2
yt = y0 + t + "i ou "i iid(0; " );
i=1
Chapitre 1. Théorie des séries chronologiques 10
ainsi
Elle donne une information sur la variabilité de la série et sur les liaisons
temporelles qui existent entre les diverses composantes de la série Xt .
:
La fonction d’autocovariance d’une processus stationnaire est une fonction :
b) semi-dé…nie positive :
n n
j=1 k=1 aj ak X (tj tk ) 0; 8n 2 N; 8aj 2 R; 8tj 2 Z:
cov(Xt ; Xt h )
X (h) =p p
var(Xt ) var(Xt h)
X (h)
= :
X (0)
Le coé¢ cient d’autocorrélation partielle d’ordre h, noté (h) est dé…nie par
j R(h) j
(h) =
j R(h) j
avec
0 1
1 1 : : h 1
B 1 1 : : h C
B 2 C
R(h) = B
B : : 1 : : C
C
@ : : : : : A
h 1 h 2 : : 1
0 1
1
B 2 C
B C
R(h) est la matrice R(h) dans la quelle on a remplacé la colonne h parB
B :
C,
C
@ : A
2
0 1
1 1 : : h 1
B 1 1 : : h C
B 2 C
R(h) = B
B : : 1 : : C
C
@ : : : : : A
h 1 h 2 : : 1
Ainsi
(2) (1)2
(1) = (1); (2) = ; :::
1 (1)2
Chapitre 1. Théorie des séries chronologiques 12
^1 = x ^2 N m + 1
2
^2 j m+1
^j = xj x :
2
donc
^ t = ^1 + ^2 t + S^1
X 1 + S^t2 2 + S^t3 3 + ::: + S^tm m
t
Annee T1 T2 T3 T4 Xk kXk
^1 = 0:84
^2 = 16:82
^ t = ^1 + ^2 t + S^t1 1 + S^t2 2 + S^t3 3 + S^t4 4
X
^ t = 16:82 + 0:84t + 13:26St1 5:9St2 12:09St3 + 4:73St4
X
donc
Z^ = a
^ ^bx
^; ^b :
La méthode de moindre carrée permet d’estimer a
P
^b = Pxi zi nxz
x2i nx2
a
^=z ^bx
t z xi zi x2i
1 499:5 499:5 1
2 593:9 1187:8 4
3 659:4 1978:2 9
4 790:8 3163:2 16
5 895:8 4479 25
P P
x=3 z = 687:88 xi zi x2i = 55
n=5
^b = 11307:7 5(3 687:88)
55 5 9
= 98:95
a
^ = 687:88 98:95 3
= 391:03
Chapitre 1. Théorie des séries chronologiques 15
donc
Z^ = 391:03 + 98:95t
pour x = 7
Z^ = 391:09 + 998:95 7
= 1083:74
1
y2 +y3 +y4 y +y2 +y3 +y4 + 12 y5
2 1
3 y3 z3 = 3
z3 = 3
1
y3 +y4 +y5 y +y3 +y4 +y5 + 12 y6
2 2
4 y4 z4 = 3
z4 = 3
y4 +y5 +y6
5 y5 z5 = 3
6 y6
16
Chapitre 2. Les méthodes de lissage exponentiel 17
XT 1
^ T = (1
)X ) i
XT i
i=0
On donne un poids d’autant moins important que les observations sont loins
(dans le passé), avec une décroissance exponentielle :
- proche de 1 : prise en compte de tout le passé
- proche de 0 : prise en compte d’avantage des valeurs récentes (plus sensible
aux ‡uctuations)
Si ne dépend pas de h, X ^ T (h) ne dépend pas de h, dont X
^ T (h) = X
^ T . Cette
valeur X ^ T est la prévision faite en T de la valeur en T + 1. Nous appelerons cette
^
série XT (série lissée à la date t) ou FT +1 (valeur prédite pour la date(T + 1)).
Pour certains logiciels permettant de faire du lissage exponentiel, la constante
de lissage n’est pas mais = (1 ).
^T = X
X ^T 1 + (1 )(XT ^T
X 1) (1)
= (1 ^T
)XT + X 1 = XT + (1 ^T
)X 1
FT +1 = XT + (1 )FT
Chapitre 2. Les méthodes de lissage exponentiel 18
(T 1 )
X
j
min (XT j c)2 (2)
c
j=0
1 X
T 1
c^ = T
cXT j (3)
1 j=0
^T =
X XT + (1 ^T
)X 1
^T
=X 1 + (XT ^T
X 1)
^T
=X 1 + eT
où
eT = XT ^T
X 1
1 X
t=T
ME = et
n t=T n+1
si méthode adaptée M E t 0
- Mean Square Error (ou Erreur Quadratique Moyenne) :
1 X
t=T
M SE = (et )2
n t=T n+1
- Mean Absolute Error (ou Erreur Absolue Moyenne) :
1 X
t=T
M AE = jet j
n t=T n+1
-Root Mean Square Error :
v
u
u1 X t=T
RM SE = t (et )2
n t=T n+1
Remarque 2.2.1
Chapitre 2. Les méthodes de lissage exponentiel 20
A retenir
La formule itérative pour construire la série lissée de Xt pour t = 1,.......,N
est la suivante
Ft = FN +1 pour t N +1
Ce choix peut relever de considérations empiriques : des fortes pondérations
pour les valeurs récentes ( élevé) donne de meilleures prévisions à court terme
qu’à long terme. Toutefois, une des méthodes les plus utilisée est la minisation
des moindres carrés des erreurs (prévision/réalisation) à un horizon h = 1.
L’intervalle de con…ance de la prévision est alors de la forme
^ T (h) 1:96 1
X X Ch alors Ch2 = 1+ (1 + 4 + 5 2
) + 2h(1 )(1 + 3 ) + 2h2 (1 )2
(1 )3
Yt = A + (t T )B
La prévision à horizon h s’écrit
^ T (h) = A(T
FT +h = X ^ ) + hB(T
^ )
Chapitre 2. Les méthodes de lissage exponentiel 21
(T 1 )
X
j
min (XT j [A + (T j)B])2 (4)
A;B
j=0
^ ) = 2S1 (T )
A(T S2 (T ) ^ )= 1
et B(T [S1 (T ) S2 (T )]
en posant
X
t 1
k
S1 (t) = (1 ) Xt k = (1 )Xt + S1 (t 1) (série lissée)
k=0
X
t 1
k
S2 (T ) = (1 ) S1 (t k) = (1 )S1 (t) + S2 (t 1)
k=0
t 1 tX
X k 1
2 i+k
= (1 ) Xt (k+i) (série lissée 2 fois)
k=0 i=0
8 hi
< A(T
^ + 1) = (1 + ^ T (1) + A(T
X2 ^ ) + B(T
) XT +1 ^ )
h i (5)
: ^ + 1) = B(T
B(T ^ ) + (1 + 2 ) XT +1 X ^ T (1)
^ T (1) , on aurait
Dans le cas d’une prévision parfaite, XT +1 = X
^ + 1) = A(T
A(T ^ ) + B(T
^ )
Chapitre 2. Les méthodes de lissage exponentiel 22
et
^ + 1) = B(T
B(T ^ )
Dans ce cas, les droites de prévision en T et en T + 1 sont les mêmes, et la
^ + 1) = B(T
pente, en particulier, est inchangée (B(T ^ )).
L’intervalle de con…ance de la prévision est alors de la forme
s
^ T (h) 1:96 x 2
X
2 1
Le lissage exponentiel double est très proche du lissage exponentiel simple,
sauf que l’on fait un ajustement au voisinage de T non plus par une constante,
mais par une droite.
En fait, la série (correspondant à un indice) est une série ”croissante”: l’ajus-
tement par lissage exponentiel simple sous-estimerait les valeurs réalisées . Le
programme de minimisation s’écrit ici
(T 1 )
X
j
min (Yt j [AT + BT (T j)])2
A;B
j=0
yj1
Aj = 2^ y^j2
Bj = y^j1 y^j2
1
où les y^j1 et y^j2 sont obtenus récursivement par deux lissages consécutifs
Aj = Aj 1+ Bj 1 + [1 (1 )2 ] ej
2
Bj = Bj 1 + ej
ce qui donne une relation permettant d’obtenir récursivement les Aj et les
Bi
Chapitre 2. Les méthodes de lissage exponentiel 23
3/- Formules de mise à jour - cette expression est en fait la même que la
précédente, sauf que l’on remplace l’erreur de prévision par la dernière observation
yj
Aj = yj + (1 ) [Aj 1 + Bj 1 ]
alors = 1 (1 )2 et = (6)
Bj = [Aj Aj 1 ] + (1 )Bj 1 2
Remarque 2.3.1
A retenir
La formule itérative pour construire la série lissée Xt de pour t = 1; :::::; N
est la suivante
8
>
> S01 = X1 ou [X1 + :::: + XP ] P
>
>
>
> S02 = 0
>
> 1
>
> St+1 = Xt + (1 )St1 pour0 t N
< 2 1
St+1 = St + (1 )St2 pour 0 t N
1 2
>
> At+1 = 2St+1 St+1 pour 0 t N
>
> 1 2
>
> Bt+1 = S t+1 S t+1 (1 )
>
>
>
> Ft+1 = At+1 + Bt+1 pour 0 t N
:
Ft = AN +1 + (t N 1)BN +1 pour t N + 1
f (t) = Af (t 1) pourtout t 2 Z
Chapitre 2. Les méthodes de lissage exponentiel 24
X
n
(t) = i fi (t) où f (:) est à matrice de transition …xe
i=1
(2) Les fonctions linéaires (t) = + t obtenues avec f (t) = [1; t]0
de matrice de transition
1 0 1 1 0 1
A= puisque =
1 1 t 1 1 t 1
Dans ce cas, on retrouve le principe de lissage exponentiel double.
1
ß
p = Pk (t) = t(t 1):::::(t k + 1); k = 1; :::::; p + 1
k!
obtenue à l’aide du triangle de Pascal, et dé…nie par récurence par
Pk (t) = Pk 1 (t 1) + Pk (t 1) pour k 1
Le vecteur f (t) = [P1 (t); ::::::; PP +1 (t)] est alors de matrice de
transition (…xe)
Chapitre 2. Les méthodes de lissage exponentiel 25
8 9
>
> 1 0 0 0 0 >
>
>
> 1 1 0 0 0 >
>
>
> >
>
>
> >
>
>
> 0 1 1 0 0 >
>
< .. .. =
A= . .
>
> . .. ... >
>
>
> >
>
>
> >
>
>
> .. >
>
> 0 0 0 . 1 0 >
>
>
: ;
0 0 0 1 1
cos ! sin !
A=
sin ! cos !
(T 1 )
X
j
min (Xt j f 0 ( j)a)2 (7)
a
j=0
2 3 2 3 2 3
XT f1 (0) fn (0) f 0 (0)
6 7 6 7 6 7
x = 4 ... 5 ; F =4 ..
.
..
. 5=4
..
. 5 et
X1 f1 ( T + 1) fn ( T + 1) f 0 ( T + 1)
T 1
= diag(1; 1 ; :::; 1 )
1
^(T ) = (F 0
a 1
F ) 1F 0 y = [M (T )] Z(T )
où
X
T 1 X
T 1
0 1 j 0 0 j
M (T ) = F F = f ( j)f ( j) et Z(T ) = F y = ( j)XT j
j=0 j=0
^ T (h) = f 0 (h)^
X a(T )
1 1
a
^(T + 1) = XT +1 M f (0) + M A 1M a
^(T )
que l’on peut encore noter
= M 1 f (0)
a
^(T + 1) = XT +1 + a
^(T ) ou
= M 1A 1M
8 h i
< ^ + 1) = (1
A(T )XT +1 + ^ ) + B(T
A(T ^ ) ou 0 1
h i (8)
: B(T
^ + 1) = (1 ^ + 1)
) A(T ^ ) + B(T
A(T ^ ) ou 0 1
La première relation est une moyenne pondérée de deux informations sur A(T ),
correspondant au niveau de la série à la date T : l’observation XT +1 et la
prévision faite en T
^ )+ B(T
(A(T ^ )) : La seconde relation s’interprête comme une moyenne pondérée
de deux informations sur B(T ), correspondant à la pente de la série à la date T :
la di¤érence entre les niveaux estimés en T et T + 1 ; et la pente estimée en T .
Toutefois, ces deux relations ne peuvent être utilisées qu’après initialisation,
que l’on fera généralement de la façon suivante :
^
A(2) = X2 et ^
B(2) = X2 X1 :
La prévision à horizon h faite à la date T est donnée par
^ T (h) = A(T
X ^ ) + hB(T
^ )
Cette méthode peut être vue comme une généralisation du lissage exponen-
tiel double, qui ne faisait intervenir qu’un coe¢ cient, (ou ). Cette dernière
méthode correspond au cas particulier
Chapitre 2. Les méthodes de lissage exponentiel 28
2 (1 )2 2
= et =1 2
=
1 1+
On suppose ici que la série (Xt ) peut être approchée au voisinage de T par
la série
Yt = A + (t T )B + St
où St est un facteur saisonnier. Les formules de mise à jour s’écrivent de la
façon suivante, où s est le facteur de saisonnalisation (ou le nombre de saisons :
s = 4 pour des données trimestrielles ou s = 12 pour des données mensuelles)
h i
^ + 1) = (1
A(T ) [XT +1 ST +1 s ]+ ^ ) + B(T
A(T ^ ) où 0 1(lissage de la moyenne)
(Niveau)
h i
^ + 1) = (1
B(T ^ + 1)
) A(T ^ ) + B(T
A(T ^ ) où 0 1 (lissage de la tedance)
(pente)
Chapitre 2. Les méthodes de lissage exponentiel 29
h i
S^T +1 = (1 ) XT +1 ^ + 1) + ST +1
A(T s où 0 1 (lissage de la saisonnalité)
(Saisonnalité)
^ T (h) = A(T
X ^ ) + hB(T
^ ) + S^T +1 s
^ = Ms (X1 ; :::::::; Xs ) où
A(s) Ms est une moyenne pondérée
XT +1 h i
^ + 1) = (1
A(T ) + ^ ) + B(T
A(T ^ ) où 0 1 (lissage de la moyenne)
S^T +1 s
(Niveau)
h i
^ + 1) = (1
B(T ^ + 1)
) A(T ^ ^ )
A(T ) + B(T où 0 1 (lissage de la tedance)
(pente)
" #
XT +1
S^T +1 = (1 ) + S^T +1 s où 0 1 (lissage de la saisonnalité)
^ + 1)
A(T
(Saisonnalité)
Année 1967 1968 1969 1970 1971 1972 1973 1974 1975 1976 1977
valeur 50.12 47.70 49.81 50.16 48.44 47.73 47.62 46.50 46.05 45.44 45.02
Année 1978 1979 1980 1981 1982 1983 1984 1985 1986 1987 1988
valeur 46.36 42.80 42.70 41.04 40.60 40.40 40.18 39.50 34.73 34.60 33.91
Année 1989 1990 1991 1992 1993 1994 1995 1996 1997 1998 1999
valeur 30.00 30.94 30.14 30.41 28.22 28.24 25.33 22.91 22.51 20.58 19.82
Année 2000 / / / / / / / / / /
valeur 19.36 / / / / / / / / / /
Tab. 3.1 –Taux brut de naissance en Algérie ( depuis 1967 jusqu’à 2000).
la source : www.ONS.com
30
Chapitre 3. Application des méthodes de Lissage exponentiel 31
LED LHWNS
Root Mean Squared Error(MSE) 1.290804 1.280055
Conclusion
Dans ce travail, nous avons présenté les méthodes de lissage exponentiel pour
la prévision à savoir LES, LED, LHWNS et LHWS.
Nous avons appliqué ces méthodes pour des donneés reélles qui représentent le
taux brut de naissance en Algérie (1967-2000). Pour cela nous avons fait recours
au logiciel Eviews.
En…n, nous avons comparé les résultats de prévision obtenu à l’aide du cri-
tére RMSE et nous avons conclu que les résultats obtenu à partir de la méthode
LHWNS sont meilleurs.
Bibliographie
38
Bibliographie 39