Cours3 M2Stats PDF
Cours3 M2Stats PDF
Cours3 M2Stats PDF
Myriam Maumy1
Sommaire
1 Le modèle linéaire
2 Transformation de la série brute
3 Estimateur des moindres carrés ordinaires (m.c.o.)
4 Applications
5 Propriétés statistiques des estimateurs
6 Utilisations de la méthode de régression
7 Autocorrélation des erreurs
8 Deux inconvénients de la méthode des m.c.o.
Xt = Ft + St + Et .
Remarque
Les fonctions F et S sont choisies en observant la façon dont le
caractère X varie avec le temps.
Tendance
Généralement, nous choisissons pour la tendance une
fonction de forme lisse, présentant peu de changements de
variations. Cette composante reflète la croissance moyenne.
Exemple
Pour une tendance linéaire, Ft = b1 + b2 t. Nous posons Ft1 = 1
et Ft2 = t.
Exemples
Plusieurs types de composantes tendancielles existent :
1 linéaire : Ft = b1 + b2 t (se traite par régression simple)
2 quadratique : Ft = b1 + b2 t + b3 t 2 (se traite par régression
multiple)
3 exponentielle : Ft = abt (se ramène au premier cas par
transformation logarithmique)
4 de Gompertz : Ft = exp(abt + c)
1
5 logistique : Ft = abt −c
Saisonnalité
La forme de la composante de la saisonnalité dépend du type
de données, et de la forme de la saisonnalité.
La modélisation la plus simple de la saisonnalité consiste à
prendre un effet fixe de la saison, comme nous allons le voir
dans l’exemple suivant,à l’aide de fonctions indicatrices.
Exemple
St peut être choisie sous la forme d’une fonction périodique de
période 4. Elle prend 4 valeurs (ou coefficients saisonniers)
c1 , c2 , c3 , c4 associées à chacun des trimestres :
Saisonnalité - Suite
D’autres formes peuvent être proposées : une variation lente
de chacun des coefficients saisonniers est décrite en prenant
ceux-ci fonctions polynomiales du temps. Les coefficients des
polynômes sont alors supposés différents pour chaque saison.
La décomposition de la saisonnalité peut d’autre part inclure
des variables prenant des valeurs non nulles pour plus d’une
saison.
Exemples
1 L’une de ces variables pourrait être le nombre de jours de
travail dans la saison considérée.
2 L’effet des vacances, des grèves, des week-ends pourrait
également être représenté de cette façon.
Sommaire
1 Le modèle linéaire
2 Transformation de la série brute
3 Estimateur des moindres carrés ordinaires (m.c.o.)
4 Applications
5 Propriétés statistiques des estimateurs
6 Utilisations de la méthode de régression
7 Autocorrélation des erreurs
8 Deux inconvénients de la méthode des m.c.o.
Transformation
L’intérêt d’une description linéaire de la série réside dans la
simplicité du modèle. Ceci permet d’en faire une étude
mathématique approfondie.
Choisir une telle écriture peut sembler restrictif, cependant
l’hypothèse de linéarité est moins forte qu’il n’y paraît.
De nombreux modèles peuvent être rendus linéaires après
transformation de la série brute. Ces modèles transformés
s’écrivent :
k l
cj Stj + Et = Xt∗ .
X X
f (Xt , Xt−1 , . . . , Xt−p ) = bi Fti +
i=1 j=1
Exemples
Le modèle multiplicatif et le modèle logistique peuvent s’écrire
comme des modèles linéaires, via une certaine transformation.
Exemple
Le modèle trimestriel de Buys-Ballot (un modèle multiplicatif)
s’écrit :
ln Xt = b1 +b2 t +c1 St1 +c2 St2 +c3 St3 +c4 St4 +Et = Xt∗ , Xt > 0,
Exemple
Le modèle logistique, quant à lui, s’écrit :
4
1 − Xt
cj Stj + Et .
X
ln = b1 + b2 t +
Xt
j=1
Remarques
1 Pour que ce modèle ait un sens, il faut que Xt ∈]0, 1[.
2 Ce modèle est adapté à l’étude de la consommation de
certains biens durables. Xt représente alors la proportion
de ménages possédant ce bien à l’instant t.
Sommaire
1 Le modèle linéaire
2 Transformation de la série brute
3 Estimateur des moindres carrés ordinaires (m.c.o.)
4 Applications
5 Propriétés statistiques des estimateurs
6 Utilisations de la méthode de régression
7 Autocorrélation des erreurs
8 Deux inconvénients de la méthode des m.c.o.
Remarque
Ce système peut encore s’écrire :
0
F F F 0S
0
b
b FX
0 0 × = ·
SF SS c
b S0X
et
h i−1 h i
c = S 0 S − S 0 F (F 0 F )−1 F 0 S
b S 0 X − S 0 F (F 0 F )−1 F 0 X .
Exercice
Savoir démontrer ces deux formules.
Myriam Maumy Désaisonnalisation par la régression linéaire
Le modèle linéaire
Transformation de la série brute
Estimateur des moindres carrés ordinaires (m.c.o.)
Applications
Propriétés statistiques des estimateurs
Utilisations de la méthode de régression
Autocorrélation des erreurs
Deux inconvénients de la méthode des m.c.o.
Remarque
En l’absence de saisonnalité (l = 0), il faut supprimer dans le
système d’équations normales les blocs relatifs à S et à bc.
0 −1 0
L’équation se réduit alors à : b = (F F ) F X .
b
Remarque
La méthode que nous venons de décrire suppose que les
vecteurs F 1 , . . . , F k , S 1 , . . . , S l constituent un système libre.
Elle ne s’applique donc pas au modèle de Buys-Ballot. Nous
verrons au prochain paragraphe, et plus particulièrement en
travaux dirigés comment l’adapter à ce modèle.
Sommaire
1 Le modèle linéaire
2 Transformation de la série brute
3 Estimateur des moindres carrés ordinaires (m.c.o.)
4 Applications
5 Propriétés statistiques des estimateurs
6 Utilisations de la méthode de régression
7 Autocorrélation des erreurs
8 Deux inconvénients de la méthode des m.c.o.
Sommaire
1 Le modèle linéaire
2 Transformation de la série brute
3 Estimateur des moindres carrés ordinaires (m.c.o.)
4 Applications
5 Propriétés statistiques des estimateurs
6 Utilisations de la méthode de régression
7 Autocorrélation des erreurs
8 Deux inconvénients de la méthode des m.c.o.
Résultats
Les estimateurs des paramètres obtenus précédemment sont
des variables aléatoires approchant les vraies valeurs
inconnues b et c.
Il faut donc étudier leurs propriétés statistiques, en particulier
avoir une idée de l’erreur commise en effectuant ces
approximations.
Moments d’ordre 1
Sous l’hypothèse E[Et ] = 0, les estimateurs des m.c.o. sont
sans biais.
En particulier,
k l
cj Stj ,
X X
F
bt = bi F i
b et S
bt =
t b
i=1 j=1
Moments d’ordre 2
k
X l
X
Une fonction linéaire des paramètres d = bi βi + cj γj , où
i=1 j=1
les βi et γj sont des nombres connus, est donc estimée sans
Xk l
X
biais par db= b
bi βi + cj γj .
b
i=1 j=1
L’erreur commise en approchant
h d par
i d peut être mesurée
b
h i par
b 2
l’E.Q.M. qui est égale à E (d − d) . Comme d = E d , cette
b
h i
erreur est égale à la variance de d,
b notéé Var db .
Exercice
Terminer le calcul.
Introduction
La matrice obtenue précédemment ne peut-être calculée
numériquement puisque son expression dépend du paramètre
inconnu σ 2 . Celui-ci peut-être estimé sans biais de la manière
suivante.
Soit e
bt le résidu d’estimation à l’instant t :
bt = Xt − F
e bt − S
bt .
e
bt est une approximation aléatoire de la variable erreur Et .
Résultat
La quantité
T
X
bt2
e
t=1
S2 =
T −k −l
est un estimateur sans biais de σ 2 .
La matrice de variance-covariance est alors estimée par :
−1
F 0F F 0S
b
b 2
Var =S .
S0F S0S
c
c
b
Résultat
De même la variance d’une fonction linéaire des estimateurs :
k
X l
X
d
b= b
bi βi + cj γj
b
i=1 j=1
Introduction
Au lieu de proposer pour d une valeur approchée d,
b il est
souvent préférable d’en fournir un encadrement :
d
b1 < d < d
b2 .
Résultat
Lorsque les perturbations sont supposées indépendantes,
suivant une même loi normale N 0, σ 2 , un tel intervalle
encadrant la valeur d avec la probabilité 95% est donné par
" r r #
\ h i \ h i
d − tT −k −l,1−α/2 Var d ; d + tT −k −l,1−α/2 Var d
b b b b
Sommaire
1 Le modèle linéaire
2 Transformation de la série brute
3 Estimateur des moindres carrés ordinaires (m.c.o.)
4 Applications
5 Propriétés statistiques des estimateurs
6 Utilisations de la méthode de régression
7 Autocorrélation des erreurs
8 Deux inconvénients de la méthode des m.c.o.
Résultat
Pour ce paragraphe, nous renvoyons le lecteur au livre de
Gouriéroux et de Montfort.
Résultat
La série corrigée des variations saisonnières XtCVS = Xt − St
peut être estimée par :
l
cj Stj .
X
b CVS = Xt − S
X b t = Xt −
t b
j=1
Résultat
L’E.Q.M. due à l’approximation de XtCVS par X b CVS est estimée
t
par :
2 2 l
cj Stj
X
b X
E b CVS − X CVS = Eb S b t − St = Var
t t
c b
j=1
St1
h i .
St1 . . . Stl
= × Var
c b c ×
. ·
.
Stl
Résultat
Les estimateurs b
bi et b
cj peuvent servir à prévoir une valeur de
X non encore observée : XT +h , h > 1.
Si nous supposons que le modèle est encore vrai à l’instant
T + h, nous avons
k l
cj STj +h + ET +h ,
X X
XT +h = bi FTi +h +
i=1 j=1
= S 2 (X
bT +h ),
k l
cj STj +h .
X X
où d
b est l’estimateur de d = bi FTi +h +
i=1 j=1
Intervalle de prévision
Lorsque la variable erreur suit une loi normale, nous obtenons
un intervalle de prévision à 95% pour XT +h en prenant :
q q
b 2 b b 2
XT +h − tT −k −l,1−α/2 S (XT +h ); XT +h + tT −k −l,1−α/2 S (XT +h )
b
Sommaire
1 Le modèle linéaire
2 Transformation de la série brute
3 Estimateur des moindres carrés ordinaires (m.c.o.)
4 Applications
5 Propriétés statistiques des estimateurs
6 Utilisations de la méthode de régression
7 Autocorrélation des erreurs
8 Deux inconvénients de la méthode des m.c.o.
Introduction
Dans les paragraphes précédents, nous avons supposé que les
perturbations étaient non corrélées. Il est cependant possible
que les valeurs prises par une série temporelle à des instants
successifs soient liées entre elles. Une telle liaison peut-être
prise en compte par l’intermédiaire des erreurs.
Résultat
Supposons par exemple que les erreurs satisfassent :
Et = ρEt−1 + εt , où les variables εt sont indépendantes de
même loi N (0, σ 2 ) et où ρ est un réel compris entre -1 et +1.
L’erreur peut alors s’écrire :
et
σ2
Var [Et ] = ·
1 − ρ2
Remarques
1 Démontrer la dernière égalité.
2 Calculer la matrice de variance-covariance pour Et .
Matrice de variance-covariance
La matrice de varaince-covariance des erreurs est dans ce cas
non scalaire. Elle est donnée par :
ρ . . . ρT −1
1
σ2 ρ 1 ... . = σ 2 Ω.
Var[E] = 2
1−ρ . . ... ρ
ρT −1 . . . ρ 1
L’inverse de la matrice Ω
−ρ
1 0 ... 0
−ρ 1 + ρ2 −ρ . .. 0
2
0 −ρ 1 + ρ ... 0
Ω−1 =
·
... . . . ... ... ...
0 0 ... . . . −ρ
0 0... ... −ρ 1
Estimation du paramètre ρ
La méthode d’estimation précédente, la méthode des moindres
carrés généralisés, ne peut être directement appliquée, car elle
suppose le paramètre ρ connu.
En général, le paramètre ρ est inconnu et il nécessaire
d’employer une méthode en deux étapes que nous allons
présenter.
Résultat
Avant de décrire la série chronologique par un modèle avec
autocorrélation des erreurs, il faut savoir si l’emploi d’un tel
modèle est nécessaire. Pour cela, il faut pouvoir tester
l’hypothèse nulle ρ = 0 (absence de corrélation et donc emploi
de la méthode des m.c.o.) contre l’hypothèse alternative ρ 6= 0
(corrélation et donc emploi de la méthode des m.c.g.).
Ce test est effectué par la méthode proposée par Durbin et
Watson (1950, 1951) par
PT 2
t=2
bt − e
e bt−1
DW = PT , où e
bt , résidu déduit des m.c.o.
b2
t=1 et
Remarque
Si le nombre d’observations est grand, nous avons
DW est proportionnel à 2(1 − ρb).
Remarque
La loi de cette statistique, lorsque ρ = 0, dépend des valeurs
des variables F i et S j . Il est cependant possible d’encadrer DW
par 2 statistiques dont les lois ne dépendent pas de ces
variables. Ceci conduit à des tests faisant intervenir deux seuils
critiques dl < du , fonctions du nombre d’observations T et du
nombre de variables explicatives p non compris la constante,
d’où p = k + l − 1.
Conclusion du test de DW
Lorsque nous voulons tester l’hypothèse nulle de l’absence de
corrélation contre l’hyptohèse alternative de corrélation postive,
si DW < dl , alors nous rejetons l’hypothèse nulle de
non-corrélation, si DW > du , alors nous acceptons l’hypothèse
nulle et si dl < DW < du , alors nous ne pouvons pas conclure.
Remarque
La procédure précédente peut être adaptée pour tester
l’hypothèse nulle de non-corrélation contre l’hypothèse
alternative de corrélation négative. Il suffit de remplacer DW
par 4 − DW .
Remarque
Un inconvénient de ce test est évidemment qu’il ne permet pas
toujours de conclure.
Remarque
Une autre méthode pour tester l’hypothèse nulle ρ = 0 contre
l’hypothèse alternative (ρ 6= 0) pourrait être fondée sur la
comparaison des signes des résidus e bt et e
bt−1 , t = 2, 4, 6, . . . .
Les diverses combinaisons de signes et le nombre de fois où
elles apparaissent sont données dans le tableau ci-dessous.
Remarque
La somme T11 + T12 + T21 + T22 est égale à la partie entière de
T /2.
Résultat
Lorsque les erreurs sont autocorrélées les formules de
prévision doivent être modifiées pour tenir compte des liaisons
entre les observations de deux dates différentes.
Exemple
Supposons que nous disposons des observations X1 , . . . , XT et
que nous souhaitons prévoir la variable correspondant à la date
T +1:
k l
cj STj +1 + ET +1 ,
X X
XT +1 = bi FTi +1 +
i=1 j=1
Suite de l’exemple
Nous avons :
k Xl
cj STj +1 − ρSTj +εT +1 ,
X
XT +1 = ρXT + bi FTi +1 − ρFTi +
i=1 j=1
Prévision
Lorsque les paramètres sont inconnus, une prévision de XT +1
est égale à
k Xl
j j
X
X
bT +1 = ρbXT + bi F i
b − ρF i
+ c S − ρS
T +1 T j T +1 T .
b b b
i=1 j=1
Résultat
Dans le modèle linéaire, l’erreur représente notamment les
effets des variables omises. Si ces variables présentent
elles-mêmes une saisonnalité, celle-ci va apparaître dans
l’autocorrélation.
Exemple
Considérons une série trimestrielle (période 4). Il peut alors
sembler préférable d’introduire l’autocorrélation entre les
erreurs par :
Remarque
Cet estimateur peut être approché par l’estimateur des m.c.o.
obtenu en régressant Xt − ρXt−4 sur Ft − ρFt−4 , St − ρSt−4
pour t = 5, . . . , T .
Remarque
Ces méthodes d’estimation supposent connue la corrélation ρ
et dans une première étape il sera nécessaire d’estimer
celle-ci.
Estimateur de ρ
Nous pourrons par exemple estimer le coefficient ρ par
PT
t=5 et et−4
bb
ρb = PT ·
e 2
t=4 t
b
Remarque
Finalement nous pouvons remarquer que le test de l’hypothèse
ρ = 0 fondé sur les signes se généralise immédiatement à
condition de comparer les signes de ebt et e
bt−4 et que la
technique de prévision est identique à condition de considérer
XT +1 − ρXT −3 .
Sommaire
1 Le modèle linéaire
2 Transformation de la série brute
3 Estimateur des moindres carrés ordinaires (m.c.o.)
4 Applications
5 Propriétés statistiques des estimateurs
6 Utilisations de la méthode de régression
7 Autocorrélation des erreurs
8 Deux inconvénients de la méthode des m.c.o.
Résultat
Les estimateurs b b et b
c dépendent du nombre d’observations
effectuées.
Supposons que nous disposons de T observations, X1 , . . . , XT
et que nous héritons d’une observation de plus XT +1 .
bT , b
Il est à noter qu’il n’existe pas de relation simple entre (b cT )
et (b
b T +1 c
,b T +1 ).
Résultat
Nous renvoyons le lecteur au livre de Gourieroux et Montfort,
Séries temporelles et modèles dynamiques, Economica,
Deuxième édition, 1995.