Gasmi Zahia

Télécharger au format pdf ou txt
Télécharger au format pdf ou txt
Vous êtes sur la page 1sur 47

Nµr d’ordre : /

MINISTÈRE DE L’ENSEIGNEMENT SUPÉRIEUR ET DE LA


RECHERCHE SCIENTIFIQUE
UNIVERSITE KASDI MERBAH DE OUARGLA
Faculté des Sciences et téchnologie
et Sciences de la matière
DEPARTEMENT DE :
MATHEMATIQUES ET INFORMATIQUE

Mémoire présenté pour l’obtention du diplôme de Master


en mathématiques

Spécialité : Probabilité et Statistique


Par

Gasmi Zahia
THÈME

Prévision par méthodes de lissage exponentiel


( Application sur la série Taux brut de naissance en Algérie 1967-2000)

Soutenu publiquement le : 01 juillet 2019.


devant le jury composé de :

Mr Karek.M Université de Kasdi Merbah - Ouargla Président


Mr Agoune.R Université de Kasdi Merbah - Ouargla Examinateur
Mm Khorsi.R Université de Kasdi Merbah - Ouargla Rapporteur
Table des matières

i
Dédicace ii

Dédicace
D’abord, je remercie mon DIEU qui ma donnée le courage et la force pour
accomplir ce modeste travail.

Je présente mes dédicaces aux deux êtres les plus chers de ma vie mon "père" et
"ma mère".
A mes frères et . A mes Sœurs .
A tout mes amies sans exception
A toutes ma famille
Je tien à dédicace aussi à toutes les enseignantes et enseignants et mes collègues
de la Promotion et a tous qui ma connaissent.
Remerciements iii

Remerciements

Je remercie ALLAH tout puissant de m’avoir donné la volonté et le courage


de mener à bien ce travail.

Que Toutes les formes de Prière et de Salat soient adressées à notre Ame et
Conscience Sidna Mohammed, notre lumière dans cette vie.

Je remercie Madame "Khorsi.R" pour l’honneur qu’elle a fait en acceptant


d’être mon encadreur, pour l’intérêt scienti…que qu’elle a porté à ce travail, pour
ses précieux conseils tout le long de l’élaboration de ce travail.

J’adresse aussi mes sincères remerciements à " Mr.Karek .M" et " Mr.Agoun
.R" qui ont accepté de faire partie de mon jury de prendre de leur temps pour
examiner mon travail .

Je remercie tous mes enseignantes et enseignants.

Et en…n à tous nos collègues de la promotion 2018=2019 et à tous ceux qui ont
contribué, de près ou de loin, à la réalisation de ce travail.
Notations et abriviations iv

Notations et abriviations

LES lissage exponentiel simple

LED lissage exponentiel double

LHWNS lissage exponentiel de Holt-Winters non saisonniére

LHWSA lissage exponentiel de Holt-Winters saisonniére additife

LHWSM lissage exponentiel de Holt-Winters saisonniére multiplicatife

DS Di¤erncy Stationnary

TS Tend Stationnary

BB Bruit blanc

FAC Fonction d’autocorrélation

FACP Fonction d’autocorrélation partielle

MCO Méthode de moindre careés

MA Moyenne mobile

ME Mean Error

MSE Mean Square Error

MAE Mean Absolute Error

RMSE Root Mean Square Error


Liste des tableaux

1.1 Exemple sur des données trimestriel. . . . . . . . . . . . . . . . . 13


1.2 Exemple de l’estimation de la tendance. . . . . . . . . . . . . . . 14
1.3 Lissage par moyenne mobile . . . . . . . . . . . . . . . . . . . . . 15

3.1 Taux brut de naissance en Algérie ( depuis 1967 jusqu’à 2000). . . 30


3.2 Les valeurs de prévision par LED . . . . . . . . . . . . . . . . . . 33
3.3 Les valeurs de prévision par LHWNS . . . . . . . . . . . . . . . . 35
3.4 Comparaisons des performances prévisionelles des deux méthodes
en utilisant RMES . . . . . . . . . . . . . . . . . . . . . . . . . . 36

v
Table des …gures

3.1 Graphique de l’évolution du taux brut de naissance en Algérie


(1967-2000). . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31
3.2 La validation de méthode LED. . . . . . . . . . . . . . . . . . . . 32
3.3 La série originale (X) et la série lisseé (XLED). . . . . . . . . . . 33
3.4 La validation de méthode LHWNS. . . . . . . . . . . . . . . . . . 34
3.5 La série original (X) et la série lissée (XHWNS). . . . . . . . . . . 35

vi
Introduction 1

Introduction

L’étude de l’évolution temporelle d’une ou plusieurs variables a, depuis long-


temps, intéressé des spécialistes de domaines très variés. Les probabilistes ont
construit une importante théorie mathématique, la théorie des processus stochas-
tiques, qui permet d’analyser avec un très grand degré de …nesse les propriétés
d’un ensemble de variables aléatoires indicées par le temps. Les théoriciens de la
statistique ont proposé diverses approches des problèmes d’estimation, de tests,
de prévision. Des praticiens appartenant à des domaines très variés (physique, au-
tomatique, économie,...) ont développé des techniques adaptées à leurs problèmes
spéci…ques et ont ainsi créé une grande gamme d’outils d’analyse qui n’est pas
toujours reliée très clairement à la littérature théorique.

L’étude descriptive de ces séries n’était pas su¢ sante pour prévoir leurs com-
portements futurs. Le besoin de prévision de ce type de séries a emmené les scien-
ti…ques à construire des modèles mathématiques aptes à répondre à ce besoin.

Ce mémoire est partagé en trois parties :

Dans le premier chapitre, nous présentons des généralités sur les séries
chronologiques.
Le deuxième chapitre on présentera les di¤erentes méthodes de lissage ex-
ponentiel à savoir le lissage exponentiel simple, le lissage exponentiel double, le
lissage exponentiel généralisé et le lissage exponentiel de Holt-Winters.
En…n, dans le troisième chapitre on présentera une application de ces mé-
thodes sur des donneés reéls qui représentent le taux brut de naissance en Algérie
(1967-2000). Nous avons fait recours an logiciel Eviews.
Chapitre 1

Théorie des séries temporelles :

Une série chronologique est un ensemble de valeurs d’une variable indicée dans
le temps. L’analyse des séries chronologiques permet d’étudier les situations pas-
sées et présentes et peut extrapoler l’évènement dans un futur relativement proche
(la prévision). La prévision se fonde donc sur la connaissance du passé et du pré-
sent. Dans ce chapitre plusieurs conpcepts importants liés à l’analyse de séries
chronologique seront abordés parmi ceux ci, on retrouve les notions d’autocorré-
lation, de stationnarité et de bruit blanc.

1.1 Analyse des séries temporelles : dé…nition et


objectifs
Les séries chronologiques, constituent une branche de l’économétrie dont l’ob-
jet est l’étude des variables au cours du temps. L’étude de telles séries de mesures
s’est développée depuis quelques années. En conséquence, elles intéressent beau-
coup de gens di¤érents ; di¤érents par la nature des phénomènes qu’ils étudient
et par les buts qu’ils se …xent dans leur étude.

Dé…nition 1.1.1 Une série temporelle (chronologique) est une réalisation d’un
processus stochastique fXt ; t 2 Ig où I est un ensemble dénombrable et totale-
ment ordonné. C’est une suite d’observations d’une grandeur Xt ou d’un vecteur
e¤ectuées au cours du temps.

Nous allons considérer dans toute la suite que la période écoulée entre deux ob-
servations consécutives est la même, on parle donc de série annuelle, trimestrielle,
mensuelle ou quotidienne.

2
Chapitre 1. Théorie des séries chronologiques 3

1.2 Domaines d’application :


On trouve des exemples de séries chronologiques univariées dans de très nom-
breux domaines. La liste suivante n’est qu’un échantillon :

1) Finance et économétrie : évolution des indices boursiers, des prix, des


données économiques des entreprises, des ventes et achats de biens, des produc-
tions agricoles ou industrielles.

2) Assurance : analyse des sinistres.

3) Médecine/Biologie : suivi des évolutions des pathologies, analyse d’électro-


encéphalogrammes et d’électrocardiogrammes.

4) Sciences de la Terre et de l’Espace : indices de marées, variations des


phénomènes physiques (Météorologie), évolution des taches solaires, phénomènes
d’avalanches.

5) Traitement du signal : signaux de communications, de radars, de sonars,


analyse de la parole.

6) Traitement des données : mesures successives de position ou de direction


d’un objet mobile (trajectographie).

7) Métrologie : variation de phase ou de fréquence des oscillateurs.

8) Démographie : évolution de la population.

1.3 Les composantes d’une série temporelle :


Les composantes d’une série temporelles sont :

1) La tendance (fi ; 1 i n) : représente l’évolution à long terme de


la grandeur étudiée, et traduit l’aspect général de la série. C’est une fonction
monotone, souvent polynomiale. La tendance prend plusieurs forme :

a-Tendance linéaire :
Tt = a + bt:
b-Tendance quadratique :

Tt = a + bt + ct2 :
Chapitre 1. Théorie des séries chronologiques 4

c-Tendance polynomiale d’ordre q :

Tt = b0 + b1 t + b2 t2 + ::: + bq tq :

d-Tendance logistique :
c
Tt = at
ou a; b; c 2 R:
1 + be
2) Les variations saisonnières (si ; 1 i n) : sont liées au rythme imposé
par les saisons météorologiques (production agricole, consommation de gaz,...),
ou encore par des activités économiques et sociales (fêtes, vacances, soldes, etc).
Mathématiquement, ce sont des fonctions périodiques, c’est-à-dire qu’il existe un
entier p, appelé période, tel que

si = si+p

pour tout i 1. Au premier abord, cette composante est entièrement déterminée


par ses premières p valeurs s1 ; s2 ; s3 ; :::; sp .

3) Cycles (ci ; 1 i n) : regroupent des variations à période moins précise


autour de la tendance.

4) Les ‡uctuations irrégulières/résidus/bruit (ei ; 1 i n) : sont des


variations de faible intensité et de courte durée, et de nature aléatoire. En e¤et,
elles ne sont pas clairement apercevables dans les graphiques, à cause de leur faible
intensité par rapport aux autres composantes.

En résumé, nous considérerons une série chronologique comme issue de la com-


position de 3 composantes :
1. (fi ; 1 i n) la tendance (intégrant éventuellement un cycle),
2. (si ; 1 i n) les coe¢ cients saisonniers,
3. (ei ; 1 i n) les ‡uctuations irrégulières (intégrant éventuellement des
accidents).
La décomposition d’une série chronologique possédant un mouvement saison-
nier peut s’e¤ectuer selon trois types de modèles :

Modèle additif

Xt = ft + st + et t = 1; : : : ; T
Chapitre 1. Théorie des séries chronologiques 5

-Modele additif.

Modèle multiplicatif
Xt = ft :st :et t = 1; : : : ; T

— Modele multiplicatif.

Modèle mixte
Xt = ft :(1 + st ) + et t = 1; : : : ; T
Chapitre 1. Théorie des séries chronologiques 6

1.4 Opérateurs dé…nis sur une série chronolo-


gique :
On donne dans cette partie les opérateurs de reatrd, de di¤érence et s.

1.4.1 Opérateur de retard :


Dé…nition 1.4.1 On appelle opérateur retard l’opérateur L qui a tout processus
(Xt ); t 2 Z associe le processus (Yt ); t 2 Z dé…ni par

8t 2 Yt = LXt = Xt 1

1
Remarque 1.4.1 L’opérateur L est linèaire et inversible. Son inverse L =F
est dé…ni par

8t 2 Z; F Xt = Xt+1
L’opérateur F est appelé opérateur avance.

Propriété 1.4.1 Il est possible de composer les opérateurs : L2 = L L, et plus


générallement
Lp = L| L {zL::: L}
p fois

où p 2 N avec la convention L0 = I, On notera que Lp (Xt ) = Xt p .

Propriété 1.4.2 Soit A le polynôme, A(z) = a0 + a1 z + a2 z 2 + ::: + ap z p , On


notera A(L) l’opérateur

p
X
2 p
A(L) = a0 I + a1 L + a2 L + ::: + ap L = ak L k
k=0

Lemme 1.4.1 Soit une série chronologique (Xt )t2Z , L’opérateur retard possède
les propriétés suivantes :
1. Lj Xt = Xt j , en particulier L0 Xt = Xt .
2. Si Xt = c 2 R pour tout t 2 Z ,alors Lj Xt = Lj c = c pour tout c 2 Z:
Chapitre 1. Théorie des séries chronologiques 7

3. Lj (Lk Xt ) = Lj+k Xt = Xt j k:
j k j k
4. (L + L )Xt = L Xt + L Xt = Xt j + Xt k :
5. Si j a j 1, alors
X
1
1
(1 aL) Xt = aj Xt j :
j=0

1.4.2 Opérateur de di¤érence d’ordre d :


Dé…nition 1.4.2 L’opérateur 1 de di¤érence d’ordre 1 est l’opérateur linéaire
tel que

Xt = Xt Xt 1

Dé…nition 1.4.3 L’opérateur d de di¤érence d’ordre d comme l’opérateur li-


néaire tel que

d Xt = Xt Xt d

Dé…nition 1.4.4 L’opérateure de retald L est dé…nie par


LXt = Xt 1 alors Xt = (1 L)Xt

D’une façon générale :

d d 1
(Xt ) = ( Xt ) = (1 L)d (Xt Xt 1 )

Ces opérateurs peuvent être utilisés a…n de transformer un processus de moyenne


non nulle en un processus de moyenne nulle. On peut aussi s’en servir pour enlever
la composante saisonnière de la série.

1.4.3 L’operateur s

L’operateur s permet d’éliminer la saisonnalité est dé…nie par

s Xt = Xt Xt s

et on peut également l’appliquer plusieurs fois.

2
s Xt = s (Xt Xt s ):

Le nombre de fois où on applique est appelé ordre de désaisonnalisation.


Chapitre 1. Théorie des séries chronologiques 8

1.5 Processus bruits blancs :


En disigne par bruit blanc noté BB N (0; "2 ) une suite des variables alia-
toires de variance "2 et non autocortéleés ou :
Un processus ("t )t2Z est un bruit blanc si
8
>
> E("t ) = 0, pour tout t
>
>
<
var("t ) = E("2t ) = 2 , pour tout t
>
>
>
>
:
cov("t ; "t h ) = E("t "t h ) = 0, pour tout t et h 6= 0

2
On parle de bruit blanc gaussien lorsque "1 ; "2 ; :: sont i:i:d:N (0; " ):

1.6 Stationnarité :
Une propriété importante des séries chronologiques est la stationnarité. La
stationnarité est une caractéristique d’une série chronologique qui implique que le
comportement de la série ne dépend pas du temps. En particulier, on dit qu’une
série (Xt )t2Z est stable si elle ne comporte pas de tendance saisonnière, ni de
tendance à la hausse ou à la baisse. Plus formellement, on distingue deux types
de stationnarité, à savoir forte et faible.

Dé…nition 1.6.1 Une série (Xt )t2Z est dite fortement stationnaire (ou station-
naire d’ordre 1) si pour tout l 2 Z

L
(Xt1 ; :::; Xtn ) = (Xt1 +h ; :::; Xtn +h ):

La notion de stationnarité d’ordre 1 est généralement beaucoup trop forte pour


les applications. Dans la pratique, il est habituellement su¢ sant de considérer des
modèles faiblement stationnaires (ou stationnaire du second ordre).

Dé…nition 1.6.2 Une suite fXt : t 0gde variables aléatoires est dite station-
naire du second ordre si elle véri…e les propriétés suivantes :
1. Pour tout t, E(Xt2 ) < +1:
2. Pour tout t, E(Xt ) = :indépendante de t:
3. Pour tout t et pour tout h, (h) = cov(Xt ; Xt+h ), indépendante de t:
Chapitre 1. Théorie des séries chronologiques 9

1.6.1 La série non stationnaire : processus TS et DS


On présente deux classes des processus non stationnaires les processus TS et
DS.

a/ Processus TS :
Est un processus dont le moment d’ordre 1 déponde de temps.

Exemple :
Le processus TS (Trend Stationary) s’écrit :

yt = + t + "t
ou "t représente l’erreur du modèle à la date t .

Il présente une non stationnarité de nature déterministe. Le processus TS est


non stationnaire car E(yt ) = + t dépend du temps t.

b/Processus DS :
Est un processus dont le moment d’ordre 2 déponde de temps.

Exemple :
Le processus DS (Di¤erncy Stationnary ) avec dérive ( 6= 0 ) s’exprime
comme suit :

yt = yt 1 + + "t :
Par récurrence, on obtient (dans le cas avec dérive) :

y1 = y0 + + "1
y2 = y1 + + "2
= y0 + + "1 + + "2 =
= y0 + 2 + "1 + "2
:
:
:
X
t
2
yt = y0 + t + "i ou "i iid(0; " );
i=1
Chapitre 1. Théorie des séries chronologiques 10

1.7 La fonction d’autocovariance et d’autocor-


rélation :
1.7.1 La fonction d’autocovariance :
La fonction d’autocovariance X (h)h Z mesure la convariance entre une va-
riable et cette même variable à des dates di¤érente pour un délai h :

X (h) = cov (Xt ; Xt h )


= E[(Xt E (Xt )) (Xt h E (Xt h ))]

ainsi

X (0) = var (Xt )


= E (Xt E (Xt ))2

Elle donne une information sur la variabilité de la série et sur les liaisons
temporelles qui existent entre les diverses composantes de la série Xt .
:
La fonction d’autocovariance d’une processus stationnaire est une fonction :

a) paire : X (h) = X ( h) :8h:

b) semi-dé…nie positive :

n n
j=1 k=1 aj ak X (tj tk ) 0; 8n 2 N; 8aj 2 R; 8tj 2 Z:

1.7.2 La fonction d’autocorrélation :


La fonction d’autocorrélation X (h) est une fonction qui mesure la corrélation
de la série avec elle-même décalée de h périodes, elle est dé…nie par :

cov(Xt ; Xt h )
X (h) =p p
var(Xt ) var(Xt h)

X (h)
= :
X (0)

X (:) est à valeurs dans [ 1; 1], et X (0) = 1.


Chapitre 1. Théorie des séries chronologiques 11

1.7.3 La fonction d’autocorrélation partielle :


Elle mesure la liaison linéaire entre Xt , Xt h en tenant compte les variables
intermédiaires Xt 1 ,...,Xt h+1 :

Le coé¢ cient d’autocorrélation partielle d’ordre h, noté (h) est dé…nie par

(h) = cov(Xt ; Xt h =Xt 1 ; :::; Xt h+1 )

Le coé¢ cient d’autocorrélation partielle d’ordre h d’un processus stationnaire


se calcule de la manière suivante :

j R(h) j
(h) =
j R(h) j

avec
0 1
1 1 : : h 1
B 1 1 : : h C
B 2 C
R(h) = B
B : : 1 : : C
C
@ : : : : : A
h 1 h 2 : : 1
0 1
1
B 2 C
B C
R(h) est la matrice R(h) dans la quelle on a remplacé la colonne h parB
B :
C,
C
@ : A
2
0 1
1 1 : : h 1
B 1 1 : : h C
B 2 C
R(h) = B
B : : 1 : : C
C
@ : : : : : A
h 1 h 2 : : 1

Ainsi
(2) (1)2
(1) = (1); (2) = ; :::
1 (1)2
Chapitre 1. Théorie des séries chronologiques 12

1.8 Méthode de Bays-Ballot :


Cette méthode concerne les séries chronologiques suivantes un modéle additif
et dont la tendance est linéaire, Elle consiste à estimer les paramétres de ce modéle
pour é¤ecteur des prévisions.
Nous considérons le modèle

Xt = 1 + 2 t + St1 1 + St2 2 + St3 3 + ::: + Stm m + "t


St = St1 1 + St2 2 + St3 3 + ::: + Stm m
Zt = 1 + 2 t

En notant N le nombre d’années entières et m la périodicité, on pose :

xn : moyenne des Xt relatives à l’année n .


xj : moyenne des Xt relatives à trimestre j .
x : moyenne des Xt relatives à les observations Xt :

Le principe de la méthode de Bays-Ballot est de résoudre l’équation


" #2
XT Xm
j
min Xt 1 + 2t St j ;
;
t=1 j=1

sous contrainte 1 + 2 + 3 + ::: + m = 0:

L’équation admet alors pour solution


PN N (N +1)
^2 = 12 n=1 nxn 2
x
m N (N 2 1)

^1 = x ^2 N m + 1
2

^2 j m+1
^j = xj x :
2
donc
^ t = ^1 + ^2 t + S^1
X 1 + S^t2 2 + S^t3 3 + ::: + S^tm m
t

pour e¤ectuer la prévision à l’instant t = j + m(j 1), on remplace dans le


méthode théorique les paramètres par leur estimation.
Chapitre 1. Théorie des séries chronologiques 13

Annee T1 T2 T3 T4 Xk kXk

2015 1 25 14 09 22 17:5 17:5

2016 2 36 18 16 31 25:25 50:5

2017 3 42 16 07 32 24:25 72:5

Xj 34:33 16 10:66 28:33 40 140:75

j 13:26 5:91 12:09 4:73

Tab. 1.1 –Exemple sur des données trimestriel.

N : le nombre des années 3.


m : le nombre de mois (saison) 4:

D’aprés la méthode de Bys-Ballot :

^1 = 0:84
^2 = 16:82
^ t = ^1 + ^2 t + S^t1 1 + S^t2 2 + S^t3 3 + S^t4 4
X
^ t = 16:82 + 0:84t + 13:26St1 5:9St2 12:09St3 + 4:73St4
X

donc

^ t = 16:82 + 0:84(j + m(j


X 1)) + 13:26St1 5:9St2 12:09St3 + 4:73St4
Chapitre 1. Théorie des séries chronologiques 14

1.9 Estimation de la tendance linéaire par la mé-


thode de moindre carrée :
Si le phénomène augmante ou dimine alors l’équation de la tendance est :

Z^ = a
^ ^bx
^; ^b :
La méthode de moindre carrée permet d’estimer a

P
^b = Pxi zi nxz
x2i nx2

a
^=z ^bx

t z xi zi x2i
1 499:5 499:5 1

2 593:9 1187:8 4

3 659:4 1978:2 9

4 790:8 3163:2 16

5 895:8 4479 25
P P
x=3 z = 687:88 xi zi x2i = 55

Tab. 1.2 –Exemple de l’estimation de la tendance.

D’aprés la méthode M.C

n=5
^b = 11307:7 5(3 687:88)
55 5 9
= 98:95
a
^ = 687:88 98:95 3
= 391:03
Chapitre 1. Théorie des séries chronologiques 15

donc
Z^ = 391:03 + 98:95t
pour x = 7

Z^ = 391:09 + 998:95 7
= 1083:74

1.10 Estimation de la tendance par lissage moyenne


mobile :
la méthode moyenne mobile est un outile intéressant pour estimer la tendance.

1ere cas : k = 2p + 1"impaire"


1
Mk (Xt ) = (Xt p + ::: + Xt 1 + Xt + Xt+1 + ::: + Xt+p )
k
2eme cas : k = 2p"paire"
1 1 1
Mk (Xt ) = ( Xt p + ::: + Xt 1 + Xt + Xt+1 + ::: + Xt+p )
k 2 2

Le principe de cette méthode est reprécentée dans le tableau suivant


:

t y m.m d’ordre 3 m.m d’ordre 4


1 y1
y1 +y2 +y3
2 y2 z2 = 3

1
y2 +y3 +y4 y +y2 +y3 +y4 + 12 y5
2 1
3 y3 z3 = 3
z3 = 3

1
y3 +y4 +y5 y +y3 +y4 +y5 + 12 y6
2 2
4 y4 z4 = 3
z4 = 3

y4 +y5 +y6
5 y5 z5 = 3

6 y6

Tab. 1.3 –Lissage par moyenne mobile


Chapitre 2

Les méthodes de lissage


exponentiel :

Plusieurs méthodes de prévision existent, elles peuvent être regroupées en deux


grandes classes :
Méthodes extrapolatives :
(courbes de croissance, lissage exponentiel, lissage par les moyennes mobiles,
modélisation ARMA. . . ) : Ces méthodes utilisent le passé de la variable elle-
même. Seul le passé de la variable est utilisé en vue de la prévoir sans apport
d’information extérieure.
Méthodes explicatives :
(régression linéaire, systèmes d’équations simultanées. . . ) : Celles ci utilisent
les valeurs passées et présentes d’une ou de plusieurs variables pour prévoir y.
L’ensemble d’information utilisé comporte des facteurs extérieurs qui peuvent in-
‡uencer le futur de y en plus du passé de la variable y elle-même.

2.1 Principe des méthodes de lissage exponen-


tiel :
Les méthodes de lissage exponentiel sont des méthodes de prévision à court
terme. Ce sont des méthodes d’extrapolation qui donnent un poids prépondérant
aux valeurs récentes : les coe¢ cients de pondération décroissent exponentiellement
en remontant dans le temps.
La méthode de lissage exponentiel simple a été introduite par Brown en 1962.
Elle a ensuite été généralisée par Holt et Winters.

16
Chapitre 2. Les méthodes de lissage exponentiel 17

Chacune des méthodes dépend d’un ou plusieurs paramètres (paramètres de


lissage) compris entre 0 et 1: Le poids de chacune des valeurs passées se calcule
à partir de ces paramètres.
Ces méthodes sont largement di¤usées et utilisées. Leur succès est dû à la fois
à leur simplicité et à la qualité des prévisions obtenues.

2.2 Le lissage exponentiel simple :


Le lissage exponentiel simple(LES) s’applique à des séries chronologiques sans
saisonnalité et à tendance localement constante.
On dispose de N observations X1 ,......,XN On souhaite prévoir à la date
T = 1,.....,N la valeur à un horizon 1, ou à un horizon quelconque h.
La prévision X ^ T (h) fournie par la méthode de lissage exponentiel simple,
avec la constante de lissage , 0 < < 1 est

XT 1
^ T = (1
)X ) i
XT i
i=0

On donne un poids d’autant moins important que les observations sont loins
(dans le passé), avec une décroissance exponentielle :
- proche de 1 : prise en compte de tout le passé
- proche de 0 : prise en compte d’avantage des valeurs récentes (plus sensible
aux ‡uctuations)
Si ne dépend pas de h, X ^ T (h) ne dépend pas de h, dont X
^ T (h) = X
^ T . Cette
valeur X ^ T est la prévision faite en T de la valeur en T + 1. Nous appelerons cette
^
série XT (série lissée à la date t) ou FT +1 (valeur prédite pour la date(T + 1)).
Pour certains logiciels permettant de faire du lissage exponentiel, la constante
de lissage n’est pas mais = (1 ).

2.2.1 Formules de mise à jour (ordre 1) :


Proposition 2.2.1 Méthode adaptative de mise à jour (ordre 1)

^T = X
X ^T 1 + (1 )(XT ^T
X 1) (1)

= (1 ^T
)XT + X 1 = XT + (1 ^T
)X 1

Cette relation s’écrit également

FT +1 = XT + (1 )FT
Chapitre 2. Les méthodes de lissage exponentiel 18

Proposition 2.2.2 une prévision X ^ T (h) sous la forme de la constante qui


s’ajuste le mieux au sens des moindres carr´ es pondérés au voisinage de T , c’est-
‘a-dire la solution du probl‘eme de minimisation

(T 1 )
X
j
min (XT j c)2 (2)
c
j=0

admet pour solution

1 X
T 1
c^ = T
cXT j (3)
1 j=0

et pour T assez grand :


^ T = c^
X
- Ce sont ces formules qui sont utilisées pour pratiquer le lissage exponentiel
simple sur une chronique. La seconde est peut-être la plus pratiquée.

2.2.2 Choix de la constante de lissage :


Au delà des méthodes qualitative de rigidité ou de souplesse du modèle aux
‡uctuations conjoncturelles, il est possible d’utiliser des méthodes de type mini-
misation de la somme des carrés des erreurs de prévison :
8 " #2 9
<X T X
t 1 =
^ = arg min XT 1 (1 ) j
Xt j
: t=1 ;
j=0

Choix de la valeur initiale :


On peut choisir pour valeur initiale :
- La moyenne de la série chronologique.
- La première observation de la série chronologique
Chapitre 2. Les méthodes de lissage exponentiel 19

2.2.3 Résumé des erreurs de prévision :


on a

^T =
X XT + (1 ^T
)X 1

^T
=X 1 + (XT ^T
X 1)

^T
=X 1 + eT

eT = XT ^T
X 1

eT est l’erreur de prévision.


- Mean Error (ou Erreur Moyenne) :

1 X
t=T
ME = et
n t=T n+1
si méthode adaptée M E t 0
- Mean Square Error (ou Erreur Quadratique Moyenne) :

1 X
t=T
M SE = (et )2
n t=T n+1
- Mean Absolute Error (ou Erreur Absolue Moyenne) :

1 X
t=T
M AE = jet j
n t=T n+1
-Root Mean Square Error :
v
u
u1 X t=T
RM SE = t (et )2
n t=T n+1

2.2.4 Choix de la mielleur méthode de prévision :


La méthode retenu comme mielleur est celle qui donneé le plus petite valeur
de ces paramétres .

Remarque 2.2.1
Chapitre 2. Les méthodes de lissage exponentiel 20

Lien entre robustesse de la prévision et choix de :


Il n’existe pas de relation a priori entre l’erreur de prévision et le paramètre
toujour ( = (1 ))

A retenir
La formule itérative pour construire la série lissée de Xt pour t = 1,.......,N
est la suivante

F0 = X1 ou[X1 + :::::: + XP ]=P


(valeur initiale, ou le moyenne des p premier valeurs).

Ft+1 = Xt + (1 )Ft pour 0 t N

Ft = FN +1 pour t N +1
Ce choix peut relever de considérations empiriques : des fortes pondérations
pour les valeurs récentes ( élevé) donne de meilleures prévisions à court terme
qu’à long terme. Toutefois, une des méthodes les plus utilisée est la minisation
des moindres carrés des erreurs (prévision/réalisation) à un horizon h = 1.
L’intervalle de con…ance de la prévision est alors de la forme

^ T (h) 1:96 1
X X Ch alors Ch2 = 1+ (1 + 4 + 5 2
) + 2h(1 )(1 + 3 ) + 2h2 (1 )2
(1 )3

2.3 Lissage exponentiel double :


Le lissage exponentiel simple est adapté à des séries pouvant être ajustée par
une constante au voisnage de T . Le principe de lissage exponentiel double permet
de faire un ajustement par une droite, à savoir approcher X ^ t par Yt où

Yt = A + (t T )B
La prévision à horizon h s’écrit

^ T (h) = A(T
FT +h = X ^ ) + hB(T
^ )
Chapitre 2. Les méthodes de lissage exponentiel 21

De même que pour (2) le programme d’optimisation pour estimerA et B s’écrit

(T 1 )
X
j
min (XT j [A + (T j)B])2 (4)
A;B
j=0

La solution de (4) le programme est donnée par

^ ) = 2S1 (T )
A(T S2 (T ) ^ )= 1
et B(T [S1 (T ) S2 (T )]

en posant

X
t 1
k
S1 (t) = (1 ) Xt k = (1 )Xt + S1 (t 1) (série lissée)
k=0

X
t 1
k
S2 (T ) = (1 ) S1 (t k) = (1 )S1 (t) + S2 (t 1)
k=0

t 1 tX
X k 1
2 i+k
= (1 ) Xt (k+i) (série lissée 2 fois)
k=0 i=0

2.3.1 Formules de mise à jour :


Pour obtenir la formule de mise à jour (à l’ordre 1) permettant de passer de
T à T + 1,
on peut utiliser le résultat suivant
Si à la date T ,
FT +1 = X ^ T (1) = A(T
^ ) + B(T
^ )
alors, en T + 1

8 hi
< A(T
^ + 1) = (1 + ^ T (1) + A(T
X2 ^ ) + B(T
) XT +1 ^ )
h i (5)
: ^ + 1) = B(T
B(T ^ ) + (1 + 2 ) XT +1 X ^ T (1)

^ T (1) , on aurait
Dans le cas d’une prévision parfaite, XT +1 = X

^ + 1) = A(T
A(T ^ ) + B(T
^ )
Chapitre 2. Les méthodes de lissage exponentiel 22

et
^ + 1) = B(T
B(T ^ )
Dans ce cas, les droites de prévision en T et en T + 1 sont les mêmes, et la
^ + 1) = B(T
pente, en particulier, est inchangée (B(T ^ )).
L’intervalle de con…ance de la prévision est alors de la forme
s
^ T (h) 1:96 x 2
X
2 1
Le lissage exponentiel double est très proche du lissage exponentiel simple,
sauf que l’on fait un ajustement au voisinage de T non plus par une constante,
mais par une droite.
En fait, la série (correspondant à un indice) est une série ”croissante”: l’ajus-
tement par lissage exponentiel simple sous-estimerait les valeurs réalisées . Le
programme de minimisation s’écrit ici
(T 1 )
X
j
min (Yt j [AT + BT (T j)])2
A;B
j=0

La prévision à horizon h est alors y^T (h) = AT + BT h . Trois formulations sont


possibles pour écrire la série lissée

1/- Formulation classique - Les coe¢ cients Aj et Bj sont donnés par :

yj1
Aj = 2^ y^j2

Bj = y^j1 y^j2
1
où les y^j1 et y^j2 sont obtenus récursivement par deux lissages consécutifs

y^j1 = yj + (1 yj1 1 : lissage exponentiel simple de yj


)^
y^j2 = y^j1 + (1 yj2 1 lissage exponentiel simple de y^j1
)^
:

2/- Formules de lissage direct - l’erreur de lissage ej est donnée par ej =


yj y^j = yj [Aj 1 + Bj 1 ] et donc

Aj = Aj 1+ Bj 1 + [1 (1 )2 ] ej
2
Bj = Bj 1 + ej
ce qui donne une relation permettant d’obtenir récursivement les Aj et les
Bi
Chapitre 2. Les méthodes de lissage exponentiel 23

3/- Formules de mise à jour - cette expression est en fait la même que la
précédente, sauf que l’on remplace l’erreur de prévision par la dernière observation
yj

Aj = yj + (1 ) [Aj 1 + Bj 1 ]
alors = 1 (1 )2 et = (6)
Bj = [Aj Aj 1 ] + (1 )Bj 1 2

Remarque 2.3.1

Aj et Bj sont unitilisés pour calculer y^ , prévision à horizon 1 faite à la date


j soit Fj+1 .
Encore une fois, l’initialisation de l’algorithme est important. Une méthode
possible est de considérer comme valeur initiale pour A1 la première valeur y1 . La
pente B1 peut alors être choisie comme la pente moyenne entre la date 1 et une
date t0 telle queB1 = [yt0 y1 ] t0 :

A retenir
La formule itérative pour construire la série lissée Xt de pour t = 1; :::::; N
est la suivante
8
>
> S01 = X1 ou [X1 + :::: + XP ] P
>
>
>
> S02 = 0
>
> 1
>
> St+1 = Xt + (1 )St1 pour0 t N
< 2 1
St+1 = St + (1 )St2 pour 0 t N
1 2
>
> At+1 = 2St+1 St+1 pour 0 t N
>
> 1 2
>
> Bt+1 = S t+1 S t+1 (1 )
>
>
>
> Ft+1 = At+1 + Bt+1 pour 0 t N
:
Ft = AN +1 + (t N 1)BN +1 pour t N + 1

2.4 Lissage exponentiel multiple, ou généralisé :


Cette généralisation a été proposée par Brown en 1962, permettant d’ajuster
au voisinage de T une fonction plus complexe qu’une fonction a¢ ne. La résolution
de ce problème repose sur la notion de vecteurs de fonctions à matrice de transition
…xe.
Le vecteur f (t) = [f1 (t); :::::::; fn (t)]0 , où t 2 Z est dit matrice de transition
…xe s’il existe une matrice A régulière telle que

f (t) = Af (t 1) pourtout t 2 Z
Chapitre 2. Les méthodes de lissage exponentiel 24

La méthode du lissage exponentiel généralisé consiste à ajuster au voisinage


de T de la série Xt une fonction (t T ) de la forme

X
n
(t) = i fi (t) où f (:) est à matrice de transition …xe
i=1

Cette classe de fonction (:) comprend la plupart des fonctions usuelles.

la plupart des fonctions usuelles :


(1) Les fonctions constantes - (t) = c, obtenues avec f (t) = 1 et
A = 1. Dans ce cas, on retrouve le principe de lissage exponentiel simple.

(2) Les fonctions linéaires (t) = + t obtenues avec f (t) = [1; t]0
de matrice de transition

1 0 1 1 0 1
A= puisque =
1 1 t 1 1 t 1
Dans ce cas, on retrouve le principe de lissage exponentiel double.

(3) Les fonctions polynômiales de degré p - Cette famille est obtenue en


prenant comme base une base de RP (X) (espace des polynômes de degré inférieur
ou égal à p).
En particulier, on peut choisir la base

1
ß
p = Pk (t) = t(t 1):::::(t k + 1); k = 1; :::::; p + 1
k!
obtenue à l’aide du triangle de Pascal, et dé…nie par récurence par

Pk (t) = Pk 1 (t 1) + Pk (t 1) pour k 1
Le vecteur f (t) = [P1 (t); ::::::; PP +1 (t)] est alors de matrice de
transition (…xe)
Chapitre 2. Les méthodes de lissage exponentiel 25

8 9
>
> 1 0 0 0 0 >
>
>
> 1 1 0 0 0 >
>
>
> >
>
>
> >
>
>
> 0 1 1 0 0 >
>
< .. .. =
A= . .
>
> . .. ... >
>
>
> >
>
>
> >
>
>
> .. >
>
> 0 0 0 . 1 0 >
>
>
: ;
0 0 0 1 1

(4) Les fonctions sinusoïdales - Les fonctions (t) = sin !t + sin !t


sont obtenues en prenant f (t) = [sin !t; cos !t]0 et dans ce cas

cos ! sin !
A=
sin ! cos !

(5) Les fonctions exponentielles - Les fonctions (t) = exp( t) sont


obtenues en prenant f (t) = exp( t) et dans ce cas A = exp( ):
Cette méthode de lissage se met en place de la façon suivante.
De la même façon que (4), le programme d’optimisation s’écrit

(T 1 )
X
j
min (Xt j f 0 ( j)a)2 (7)
a
j=0

où la notation f 0 désigne la transposée de f . Posons

2 3 2 3 2 3
XT f1 (0) fn (0) f 0 (0)
6 7 6 7 6 7
x = 4 ... 5 ; F =4 ..
.
..
. 5=4
..
. 5 et
X1 f1 ( T + 1) fn ( T + 1) f 0 ( T + 1)
T 1
= diag(1; 1 ; :::; 1 )

Le programme(7) correspond à la regression (linéaire) de x sur les colonnes de


F , associée à la matrice de covariance . On en déduit que la solution à (7) est
unique, et est donnée par
Chapitre 2. Les méthodes de lissage exponentiel 26

1
^(T ) = (F 0
a 1
F ) 1F 0 y = [M (T )] Z(T )

X
T 1 X
T 1
0 1 j 0 0 j
M (T ) = F F = f ( j)f ( j) et Z(T ) = F y = ( j)XT j
j=0 j=0

La matrice M (T )converge vers une matrice …nie M quand T ! +1 : on peut


estimer a^(T ) en utilisant cette matrice limite,
X
1
1 j
a
^(T ) = M Z(T ) Avec M (T ) = f ( j)f 0 ( j)
j=0

Et la prévision à horizonh faite à la dateT est

^ T (h) = f 0 (h)^
X a(T )

Méthode adaptative de mise à jour (ordre 1) :


Pour cela, notons que

Z(T + 1) = XT +1 f (0) + A 1 Z(T )


et on peut alors écrire

1 1
a
^(T + 1) = XT +1 M f (0) + M A 1M a
^(T )
que l’on peut encore noter

= M 1 f (0)
a
^(T + 1) = XT +1 + a
^(T ) ou
= M 1A 1M

où les matrices et sont indépendantes de T . Cette relation peut se


mettre sous la forme suivante, proche de (1)
h i
a
^(T + 1) = A a0 ^
^(T ) + XT +1 XT (1)
Chapitre 2. Les méthodes de lissage exponentiel 27

2.5 Les méthodes de Holt-Winters :

2.5.1 Méthode non saisonnière ( Le lissage exponentiel


de Holt ) :
Cette méthode est une généralisation de la méthode de lissage exponentiel
mais avec un point de vue di¤érent de celui introduit dans le lissage exponentiel
généralisé. De la même façon que pour le lissage exponentiel double, l’ajustement
se fait de façon linéaire au voinage de T , la nuance se faisant au niveau de formules
de mise à jour, di¤érentes de (5) :
on remplace X ^ T 1 (1) par B(T
^ ^ + 1) et dans la deuxième, on utilise
1) + A(T
l’expression :
^ )
A(T ^
B(T 1) ^ + 1)
A(T
XT ^T
X 1 (1) =
1 2

déduite de la première égalité .On obtient alors

8 h i
< ^ + 1) = (1
A(T )XT +1 + ^ ) + B(T
A(T ^ ) ou 0 1
h i (8)
: B(T
^ + 1) = (1 ^ + 1)
) A(T ^ ) + B(T
A(T ^ ) ou 0 1

La première relation est une moyenne pondérée de deux informations sur A(T ),
correspondant au niveau de la série à la date T : l’observation XT +1 et la
prévision faite en T
^ )+ B(T
(A(T ^ )) : La seconde relation s’interprête comme une moyenne pondérée
de deux informations sur B(T ), correspondant à la pente de la série à la date T :
la di¤érence entre les niveaux estimés en T et T + 1 ; et la pente estimée en T .
Toutefois, ces deux relations ne peuvent être utilisées qu’après initialisation,
que l’on fera généralement de la façon suivante :

^
A(2) = X2 et ^
B(2) = X2 X1 :
La prévision à horizon h faite à la date T est donnée par

^ T (h) = A(T
X ^ ) + hB(T
^ )

Cette méthode peut être vue comme une généralisation du lissage exponen-
tiel double, qui ne faisait intervenir qu’un coe¢ cient, (ou ). Cette dernière
méthode correspond au cas particulier
Chapitre 2. Les méthodes de lissage exponentiel 28

2 (1 )2 2
= et =1 2
=
1 1+

2.5.2 Méthode saisonnière ( Le lissage exponentiel de


Winters ) :
Le lissage de Winters concerne les séries chronologiques saisonnières. On com-
mence par choisir le modèle de composition, car :
- Il y a une méthode de lissage pour les chroniques avec saisonnalité
additive ;
- Et une autre méthode de lissage pour les chroniques à saisonnalité
multiplicative.
On note :
s = période de la composante saisonnière
mk = moyenne de l’année
n =nombre d’années complètes
- On suppose que la série a été observée sur un nombre n d’années complètes,
c’est-à-dire que le nombre total d’observations utilisées pour le n p lissage
est égal à p, puisque la période de la saisonnalité est égale à p.

a/ La méthode saisonnière additive :

On suppose ici que la série (Xt ) peut être approchée au voisinage de T par
la série

Yt = A + (t T )B + St
où St est un facteur saisonnier. Les formules de mise à jour s’écrivent de la
façon suivante, où s est le facteur de saisonnalisation (ou le nombre de saisons :
s = 4 pour des données trimestrielles ou s = 12 pour des données mensuelles)

h i
^ + 1) = (1
A(T ) [XT +1 ST +1 s ]+ ^ ) + B(T
A(T ^ ) où 0 1(lissage de la moyenne)
(Niveau)

h i
^ + 1) = (1
B(T ^ + 1)
) A(T ^ ) + B(T
A(T ^ ) où 0 1 (lissage de la tedance)
(pente)
Chapitre 2. Les méthodes de lissage exponentiel 29

h i
S^T +1 = (1 ) XT +1 ^ + 1) + ST +1
A(T s où 0 1 (lissage de la saisonnalité)
(Saisonnalité)

et la prévision à horizon h telle que (1 h s) s’écrit

^ T (h) = A(T
X ^ ) + hB(T
^ ) + S^T +1 s

La encore, le problème d’initialisation va se poser, et on peut prendre

^ = Ms (X1 ; :::::::; Xs ) où
A(s) Ms est une moyenne pondérée

^ + 1) = Ms (X2 ; :::::::; Xs+1 )


A(s
^ + 1) = A(s
B(s ^ + 1) A(s) ^
S^i = Xi ^
A(i)

b/ La méthode saisonnière multiplicatif :


Les formules de mise à jour sont alors pour trois paramètres :0 , ,
1 à calibrer

XT +1 h i
^ + 1) = (1
A(T ) + ^ ) + B(T
A(T ^ ) où 0 1 (lissage de la moyenne)
S^T +1 s
(Niveau)
h i
^ + 1) = (1
B(T ^ + 1)
) A(T ^ ^ )
A(T ) + B(T où 0 1 (lissage de la tedance)
(pente)
" #
XT +1
S^T +1 = (1 ) + S^T +1 s où 0 1 (lissage de la saisonnalité)
^ + 1)
A(T
(Saisonnalité)

et la prévision à horizon h telle que (1 h s) s’écrit


h i
X^ T (h) = A(T
^ ) + hB(T
^ ) S^T +1 s
Chapitre 3

Application des méthodes de


Lissage exponentiel :

Dans ce chapitre, nous allons appliquer les méthodes de lissage exponentiel


pour faire de la prévision. Mais avant de commancer il faut décider quel est le
lissage que nous allons appliquer ( simple, double .......). Pour cela il faut analyser
la série pour distingner sa nature.
Pour appliquer notre méthode de prévision, nous utilisons le logiciel Eviews
Les données considèrées représentent l’évolution du taux brut de naissance
(unité : mille pour cent ) en Algérie entre l’année 1967 et l’année 2000.
Nous avons saisi des donées annuelles, comme indiqué dans le tableau ci-
dessous .
Mais avant tout, nous commençons par l’analyse exploratoire (plot) de la série
chronique .

Année 1967 1968 1969 1970 1971 1972 1973 1974 1975 1976 1977
valeur 50.12 47.70 49.81 50.16 48.44 47.73 47.62 46.50 46.05 45.44 45.02
Année 1978 1979 1980 1981 1982 1983 1984 1985 1986 1987 1988
valeur 46.36 42.80 42.70 41.04 40.60 40.40 40.18 39.50 34.73 34.60 33.91
Année 1989 1990 1991 1992 1993 1994 1995 1996 1997 1998 1999
valeur 30.00 30.94 30.14 30.41 28.22 28.24 25.33 22.91 22.51 20.58 19.82
Année 2000 / / / / / / / / / /
valeur 19.36 / / / / / / / / / /

Tab. 3.1 –Taux brut de naissance en Algérie ( depuis 1967 jusqu’à 2000).

la source : www.ONS.com

30
Chapitre 3. Application des méthodes de Lissage exponentiel 31

3.1 Identi…cation de la série :

Fig. 3.1 –Graphique de l’évolution du taux brut de naissance en Algérie (1967-


2000).

Le graphique montre clairement d’une part l’absance de saisonnalité, d’autre


part, que la série évolue de manière décroissante dans le temps. Ce qui nous
conduit a conclure que notre série est tendancielle et non saisonière.ou TS (Trend
Stationary)
En résumé :
Nous appliquons les méthode de lissage exponentiel double (LED) et de Holt-
Winters non saisonnière (LHWNS).
Chapitre 3. Application des méthodes de Lissage exponentiel 32

3.2 Application de la méthode de lissage expo-


nentiel double :

Fig. 3.2 –La validation de méthode LED.

Le paramétre de LED est = 0:272


Prévision de la variable taux brut de naissance à un horizon de 6 années :
Chapitre 3. Application des méthodes de Lissage exponentiel 33

Année valeur x prévue


2001 17.61
2002 16.36
2003 15.11
2004 13.86
2005 12.61
2006 11.37

Tab. 3.2 –Les valeurs de prévision par LED

La représentation graphique de la série et le lissage exponentiel double et la


prévision a l’horizon de 6 années est donnée sur la …gure ci-dessous :

Fig. 3.3 –La série originale (X) et la série lisseé (XLED).


Chapitre 3. Application des méthodes de Lissage exponentiel 34

3.3 Application de la méthode de lissage expo-


nentiel de Holt-Winters non saisonnière :

Fig. 3.4 –La validation de méthode LHWNS.

Les deux paramétres de LHWNS sont = 0:45 et = 0:18


Prévision de la variable taux brut de naissance à un horizon de 6 années :
Chapitre 3. Application des méthodes de Lissage exponentiel 35

Année valeur x prévue


2001 17.55
2002 16.29
2003 15.02
2004 13.76
2005 12.49
2006 11.23

Tab. 3.3 –Les valeurs de prévision par LHWNS

La représentation graphique de la série et le lissage exponentiel de Holt-Winters


non saisonniére et la prévision a l’horizon de 6 années est donnée sur la …gure ci-
dessous :

Fig. 3.5 –La série original (X) et la série lissée (XHWNS).

3.4 Comparaisons des performances prévisionelles


des deux méthodes :
Comparaisons des performances prévisionelles des deux méthodes en utilisant
le critére de l’erreure quadratique moyenne (Root Mean Squared Error)
Chapitre 3. Application des méthodes de Lissage exponentiel 36

LED LHWNS
Root Mean Squared Error(MSE) 1.290804 1.280055

Tab. 3.4 –Comparaisons des performances prévisionelles des deux méthodes en


utilisant RMES

La valeure du RMSE pour la méthode du LHWNS est la plus petite


D’où on peut concluer donc que la méthode de LHWNS est la meilleur.
Conclusion 37

Conclusion
Dans ce travail, nous avons présenté les méthodes de lissage exponentiel pour
la prévision à savoir LES, LED, LHWNS et LHWS.

Nous avons appliqué ces méthodes pour des donneés reélles qui représentent le
taux brut de naissance en Algérie (1967-2000). Pour cela nous avons fait recours
au logiciel Eviews.

L’analyse de la série a montré qu’elle est de nature tendencielle et non sai-


sonnière, ceci nous a permis d’appliquer les méthodes LED et LHWNS(les seules
méthodes adaptées à nos donneés).

Nous avons calculé la prévision à l’horizon h=6.

En…n, nous avons comparé les résultats de prévision obtenu à l’aide du cri-
tére RMSE et nous avons conclu que les résultats obtenu à partir de la méthode
LHWNS sont meilleurs.
Bibliographie

[1] Agnés. Lagnoux. Séries Chronologiques. Université de Toulous le Mipail.


[2] Agung, I.G.N (2009). Time Series Data Analysis Using Eviews, John Wiley
& Sons. Singapore.
[3] Asteriou, D. et HallS.G. (2006). Applied Econometrics A Modern Approach
Using Eviews and Micro…t. Palgrave Macmillan, New York.
[4] Arthur Gharpentier.(15 mai 2012 ). Méthodes de Prévision Séries Tempo-
relles. UQAM. ACT6420.Hiver.2011.
[5] ARTHUR C, cours de series temporelles theorie et Applications. université
Paris DAUPHINE.
[6] CATHRINE PARDOUX & BERNARD GOLDFARB.(janvier 2013). Prévi-
sion à court terme :méthodes de lissage exponentiel. Université de Paris-
Douphien.
[7] David Makowski. (Novembre 2014). Introduction de séries chronologiques et
à la prévision. Agro Paris Thec.
[8] Doz, M. (2005). Séries temporelles linéaires ,Deuxième année. Ecole Nation-
nale de la statistiques et de l’Administration Economique.
[9] Ecole des Mines de Nancy. Modélisation et Prévision. cours SG042.
[10] Jaiw, C. (2015). Séries chronologiques saisonnièries et prévision.
[11] Guy.MELARD. (1990). Méthodes de Prévision I (Stat-D-205). Université
Libre de Bruxelles.
[12] MICHEL TERRAZA. (1981). Prévision à court terme des séries temporelles
économiques. Journal de la societé.Staistique de Paris.
[13] M.C.Viano.(2004).Cours de séries Temporelles. Université des Sciences et
Technologies de Lille.
[14] MECHRI Khadidja. (2016). Application de la Méthodologie Box-Jenkins sur
la série du nombre des séances d’hémodialyse. Université Kasdi Merbah Ouar-
gla.
[15] Merouani, L. (2016). Demonsionnement de la NAFTAL SPA. Mémoire de
Master, université M’hamed Bougara Boumerdse.

38
Bibliographie 39

[16] Pr.Lot….Bouzaïane et Pr.Rim.Mouelli.(2008). Université Virtuelle de Tunis.


[17] Walter Enders, « Applied econometric time series » , Wiley series, 1995.
Résumé 40

Vous aimerez peut-être aussi