Cours Modélisation Dansokho Master1 2020
Cours Modélisation Dansokho Master1 2020
Cours Modélisation Dansokho Master1 2020
Modélisation macroéconomique
Chapitre I LA MODELISATION EN ECONOMIE
Chapitre 2 La régression multiple
Chapitre 3 MULTICOLLINÉARITÉ
Chapitre 4 HETEROSCEDASTICITÉ
Chapitre 5 AUTOCORRELATION
Dr Mamadou Dansokho
2019/2020
Modélisation macroéconomique
La première Platon: modèle comme paradigme, forme idéale sur laquelle les existences sont réglées (le
modèle du Père pour le fils).
La seconde: très actuelle, modèle comme maquette, permettant reproduire en plus petit ,et simplification
propriétés objet du monde réel.
Deux approches ne sont pas aussi antagonistes: quelle que soit approche, le modélisateur recherche bien dans son
processus cognitif à la fois l’exemplarité du modèle et son utilisation.
• Le processus de modélisation quelle que soit la forme technique qu’il prend devrait
toujours être scindé en deux étapes :
• une étape dont l’objectif est l’identification claire et précise de la partie du monde à
modéliser. Cette identification doit être fondée sur les objectifs poursuivis. Le
modélisateur passe ainsi de la réalité qu’il veut modéliser à un système (au sens de
la théorie des systèmes) qui est sa propre description du monde.
• Une étape dont l’objectif est de proposer une représentation formelle, abstraite de ce
système fondée sur l’efficacité, c-à-d sur sa capacité à rendre compte de la
dynamique des phénomènes de vie et d’évolution du système plongé dans son
environnement.
• Le modèle apparaît selon cette approche comme l’out put d’un processus de production
en deux étapes, chacune d’entre elles étant fondée sur un critère différent.
LE PROCESSUS DE MODELISATION
• La production d’un modèle est un phénomène complexe qui nécessite une grande
connaissance du phénomène à étudier ainsi que des techniques ou méthodes permettant
d’arriver à un modèle qui remplit correctement son rôle. Pour cela, il faut savoir très
précisément ce que l’on recherche et quels sont les moyens que l’on a à sa disposition.
Les propriétés, donc les performances du modèle résultant en dépendent, sachant qu’il
n’ya pas de modèle parfait, ni unique.
•
• Lors de la mise au point d’un modèle, il faut toujours garder à l’esprit, trois points qui sont
la clef pour la réussite de l’EP de modélisation : quelle est l’utilité du modèle ? Quel est
son domaine de validité ? Quelle est la précision recherchée ?
•
• Connaître la réponse à ces trois questions garantit du bon emploi du modèle construit.
II LES ETAPES DE LA MODELISATION
Utilisation pour la politique économique : c’est pour cette raison qu’a été
élaboré le premier modèle d’ensemble relatif à l’économie néerlandaise : il
avait été demandé à Timbergen de réfléchir aux remèdes à apporter à la crise
économique d’avant – guerre.
Timbergen proposa alors de construire une maquette de l’économie
néerlandaise que l’on considère généralement comme le premier modèle
économique d’ensemble.
SECTION II : LA MODELISATION APPLIQUEE
Ces modèles seront utilisés à la fois pour des besoins de l’évaluation des
politiques économiques, pour des prévisions ou encore pour tester de
nouvelles théories économiques.
• Les modèles fondés sur des séries statistiques suffisamment longues, modèles
économétriques, modèles VAR sont utilisés à cette fin. Ces prévisions portent
sur le PIB, les prix, l’empli, le solde extérieur, et cela aussi bien au niveau
terme (3 mois à 8 ans). Ils sont parfois utilisés pour de plus longs termes. Il
ÉCONOMIQUES
Les modèles doivent répondre aux questions du type : quels sont les effets sur les
emploi, solde extérieur, solde des administrations) des modifications des politiques
Les deux familles de modèles essentiellement utilisés à cette fin sont les modèles
Y b 0 b1 X 1 b 2 X 2 ...b p X p e
où b0, b1, b2, . . . , bp sont les paramètres et e est un bruit
aléatoire représentant le terme d’erreur.
Le modèle linéaire de régression multiple
b0
y1 1 x1,1 x1, p e 1
b1
yn 1 x1,n xn , p e n
b p
y Xb e
Le modèle linéaire de régression multiple
• Les hypothèses du modèle
• Les hypothèses de nature probabiliste
• Les variables Xi sont aléatoires
• E(ei)=0 pour tout i
• V(ei)=s2 pour tout 1≤i≤p (homoscédasticité des erreurs)
• Cov(ei , ei )=0 pour tout i≠j
• Le vecteur aléatoire e suit une loi normale à n dimensions N(0, s
2I )
n
• Les hypothèses structurelles
• Det(XTX)≠0 (absence de colinéarité entre les variables
explicatives).
• n>p+1
Le processus d’estimation
Modèle de régression multiple
Données:
Y = b0 + b1X1 + b2X2 +. . .+ bpXp + e x1 x2 . . . xp y
Hyperplan de régression multiple . . . .
E(Y|X1,…,Xp) = b0 + b1X1 + b2X2 +. . .+ bpXp . . . .
Paramètres inconnus
b0 , b1 , b2 , . . . , bp
Equation estimée
bˆ0 , bˆ1 , bˆ2 ,..., bˆ p
Yˆ bˆ0 bˆ1 X 1 bˆ2 X 2 ... bˆ p X p
Estimateurs de
Estimateurs
b0 , b1 , b2 , . . . , bp
bˆ0 , bˆ1 , bˆ2 ,..., bˆ p
Le processus d’estimation
• Interprétation géométrique
Illustration du cas p=2.
Y yi : observation
yˆ i bˆ0 bˆ1 X 1i bˆ2 X 2i
b̂ 0
eˆi yi yˆ i
X2
(X1i, X2i)
X1
Le processus d’estimation
• Estimation des coefficients de régression
• La méthode : les moindres carrés ordinaires
Le principe de l’estimation des coefficients de régression :
b 0 , b1 , b 2 ,..., b p
consiste à minimiser la somme des carrés des résidus :
n n
e ( y yˆ )
i 1
i
2
i 1
i i
2
bˆ X T X
1
X TY
b̂ suit une loi
N 0, s e X X
2
T
1
bˆ est sans biais :
E ( ˆ) b
b
Parmi les estimateurs de b linéaires par rapport à
X, sans biais, les éléments de bˆ ont la plus petite variance.
Le processus d’estimation
• Interprétation des coefficients de régression estimés
• La pente (k≠0)
b̂ k facteur égal à
L’estimée de Y varie d’un
lorsque Xk augmente d’une unité, les autres bˆk
variables étant maintenues constantes.
• L’ordonnée à l’origine
C’est la valeur moyenne de Y lorsqueb̂toutes les Xi sont nulles.
0
Le processus d’estimation
• Estimation de la variance des résidus
n
e i
2
sˆ 2 i 1
n p 1
Le processus d’estimation
• Les intervalles de confiance
On peut calculer pour chaque coefficient du modèle un intervalle de confiance de
niveau (1-a) donné par :
y Y yˆ Y ( y yˆ )
n n n
2 2 2
i i i i
i 1 i 1 i 1
Qualité de la régression
• Les coefficients de détermination
• Le coefficient de détermination R2
R2 = SCE/SCT
Il exprime le pourcentage de la variance de Y expliquée
par le modèle. Il donne une idée globale de l'ajustement du
modèle.
• Le R2 ajusté se calcule en fonction du R2 :
n 1
Ra2 1 (1 R 2 )
n pdel’ajustement
Il traduit à la fois la qualité 1 (liaison entre Y
et les Xi) et la complexité du modèle (nombre de variables
explicatives).
Qualité de la régression
• Statistique utilisée
SCE
MSE p
F
MSR SCR
n p 1
• Règle de décision
Au risque a, on rejette H0 si : a ≥ p-value
(calculée avec une loi de Fisher à p et n-p-1 degrés de liberté)
Qualité de la régression
• R2 et test de Fisher
• Règle de décision
Au risque a, on rejette H0 si : a ≥ p-value (calculée à partir d’une loi de
Student
à n-p-1 degrés de liberté).
Test de Chow de rupture structurelle
Il n’est pas rare de voir des comportements se transformer
à travers le temps.
Il est d’ailleurs utile de pouvoir dater c’est changement.
C’est l’objet des tests de rupture de Chow.
Y a –t-il une différence significative entre la SCR sur
l’ensemble de l’échantillon par rapport à l’addition de la
SCR de 2 sous échantillons?
Autrement dit le fait d’estimer un modèle sur 2 périodes
permet-il de réduire la SCR ?
Ceci aurait donc tendance à indiquer une changement de
comportement.
Test de Chow de rupture structurelle
b 0 b1t b 2 d1 b 3 d 2
X t trimestre
di = 1 pour le iéme b4d4 e t
di = 0 sinon
Chapitre 3 MULTICOLLINÉARITÉ
variables.
MULTICOLLINÉARITÉ
• Démonstration
V a r i a b le in d é p e n d a n t e ( c e lle
q u e j e ve ux e x p liq u é e ) .
S i u n e v a r i a b l e a l é a t o i r e e s t u n e c o m b i n a i s o n l i n é a i r e d e 1 o u p l u s i e u r s , i l n 'y a p a s d e s o l u t i o n . O n n e S A I T P A S E S T I M E R L E M O D E L E .
MULTICOLLINÉARITÉ
• On ne sait pas estimer le modèle mais cela est très rare dans la vraie vie. Il arrive souvent qu'il y ait une relation approximative entre des variables.
MULTICOLLINÉARITÉ
• De plus cette dernière peut être détectée via un R2 élevé mais avec peu de variables explicatives et une t qui diminue.
• Précision, la multicollinarité ne biaise pas les coefficients de régression, elles restent centrées autour de la vraie valeur
mais elles ont des écart-types (des variances) trop larges. Et nous préférons un écart type plus faible car on est plus précis
(on se rapproche de la vraie valeur).
MULTICOLLINÉARITÉ
• Réduire la variance du terme d’erreur en incluant plus de variables (pertinentes ) dans le modèle
MULTICOLLINÉARITÉ
MULTICOLLINÉARITÉ
•Augmenter
• Augmenter la Var(X2) en prenant des individus extrêmes (riches, pauvres, etc.). De ce fait, la variance sera plus grande et l'écart-type sera plus faible.
• Une autre possibilité est de réduire la corrélation entre les variables explicatives. C'est loin d'être facile.
•Diminuer
C’est ce qui a été fait avec les 3 variables. ASVABC a été calculé comme une moyenne pondérée de
ASVAB2, ASVAB3 et ASVAB4. L’écart type d’estimateur de ASVABC est plus petit que ceux de ses composantes dans la
seconde régression
MULTICOLLINÉARITÉ
• Enlever certaines variables corrélées .Nous pouvons remarquer que l'écart-type de l'estimateur est plus petit que dans la régression qui inclut
ASVAB3 et ASVAB4. Cependant, cette approche est dangereuse car certaines variables enlevées pourraient réellement appartenir au modèle et leur
omission pourrait causer un biais de variables omises.
Chapitre 4 HETEROSCEDASTICITÉ.
A. HOMOSCEDASTICITÉ ET HETEROSCEDASTICITÉ
Cette séquence introduit le concept d'hétéroscédasticité qui fait référence à la distribution du terme
1. Homoscedasticité
observation (les distributions normales montrées ont la même variance). Si cette condition est
satisfaite, le terme d'erreur est dit être "homoscédastique". Une fois que l'échantillon a été tirée, des
observations seront plus proche que d'autres de la droite (mais on ne sait pas anticiper lesquelles).
HETEROSCEDASTICITÉ
2. Hétéroscédasticité
fonction des observations (des individus)-> variance n'est plus constante. Quand la distribution
n’est pas la même pour chaque observation, le terme d’erreur est dit être sujet à de
constante on a de l'hétéroscédasticité.
HETEROSCEDASTICITÉ
• Mais attention, l'hétéroscédasticité ne cause pas de biais, elle va simplement rendre invalide
l'inférence (écart-types sont mal estimés et les tests (t-F) sont invalides.
diagramme de dispersion est dominé par le Japon et les USA et il est difficile de détecter
quelconque sorte de tendance. Cependant si ces 2 pays sont enlevés et que le diagramme de
• Voir exemple complet dans le syllabus (je détaille que l'essentiel). 21 Ibid.
HETEROSCEDASTICITÉ
droite.
HETEROSCEDASTICITÉ
• Les formes possibles d'hétéroscédasciticté sont infinies. Cependant, le test de Goldfeld-Quant teste une
• Illustration:
HETEROSCEDASTICITÉ
3 /8 ¼ 3 /8
HETEROSCEDASTICITÉ
• S'il y a homoscédasticité, la somme des carrées des résidus (distante entre la droite) n'est pas différentes. Car la distribution est identique, les points
se trouvent +/- à la même distante de la droite (la variance est constante).
Test de white[1]
Le test de White est une seconde façon de détecter l’hétérosédasticité. L’idée du test de White est de régresser le RSS sur les
variables explicatives, leur carré et tous les produits croisés. Si au moins un des paramètres est différent de 0 alors cela veut
dire que les résidus dépendent d’un des X
(hétéroscédasticité).
•Comment résoudre
Je n'ai pas le terme d'erreur l’hétérosédasticité
mais j'ai les résidus.
HETEROSCEDASTICITÉ
•
HETEROSCEDASTICITÉ
a)Variance est proportionnelle à une variable qui n'est pas dans le modèle
• Régression logarithmique
l'hypothèse d'homoscédasticité.
HETEROSCEDASTICITÉ
• Résumé des régressions avec les 4 spécifications alternatives du modèle23
Problème avec le R²
Nous allons montrer par un exemple que le R² est de régression invariant (il ne sert pas à choisir un modèle).
Chapitre 5: AUTOCORRELATION
A. AUTOCORRELATION
• L’indépendance sérielle se définit comme suit : Cov (ui,uj) = 0. Autrement dit, les termes d'erreurs doivent être générer indépendamment les uns des
autres aussi non, nous avons un problème d'inférence.
• Dépendance sérielle (autocorrélation) positive
• On viole l'hypothèse: les valeurs positives ont tendance à être suivie par des positives et les valeurs négatives par des négatives.
au dessus …
A. AUTOCORRELATION
• Un cas particulier d’autocorrélation est l’autocorrélation autorégressive de premier ordre, notée AR(1)
(On se concentre sur cette catégorie). On dit qu’elle est autorégressive car, ut dépend de ses
propres valeurs passées, et de premier ordre car elle dépend seulement de sa valeur précédente
• (erreur est liée à celle d'avant). ut dépend aussi de εt, une injection d’un caractère aléatoire
Car u t
dépend seulement de
.
Nous commençons avec un progressivement. = 0, il n'y a donc pas d'autocorrélation. Nous augmentons progressivement
• Même constat peut être fait dans l’autre sens pour de l’autocorrélation négative .
• Même constat peut être fait dans l’aut,re
A . AUTOCORRELATION
Quand
! L'autocorrélation ne biaise pas les coefficients
c'est l'inférence qu'on ne sait pas lire. !
• DÉTECTION DE L'AUTOCORRÉLATION
• Test d’autocorrélation AR(1) de Durbin-Watson
• La statistique d de Durbin Watson est calculée pour les résidus.
, ,
• Il peut être montré qu’en grand échantillon, d tend vers 2-2 où est le paramètre dans la relation
AR(1) : ut = ut-1 + εt
•Si il n’y a pas d’autocorrélation,
= 0 et d doit être distribué de manière aléatoire autour de 2. Si
autocorrélation positive sévère, sera proche de 1 et d proche de 0.
•S’il y a de l’autocorrélation négative sévère, sera proche de -1 et d sera proche
de 4.
A. AUTOCORRELATION
Afin d’effectuer le test de Durbin Watson il convient de définir des valeurs critiques pour d avec H0 :
= 0 (pas de autocorrélation). Les valeurs critiques (dcrit) dépendent du nombre d’observations dans l’échantillon et du nombre de variables explicatives.
Une complication vient du fait que la valeur critique dépend aussi des valeurs particulières prises par les variables explicatives et donc, varie d'un
échantillon à échantillon. Il est donc impossible d’établir une table donnant les valeurs critiques exactes pour tous les échantillons possibles.
La valeur critique dépend de l'échantillon, donc on détermine une zone (borne supérieure et inférieure). Le problème est que si on se trouve dans la zone grise, on ne sait pas où se trouve la valeur
critique.
La valeur critique dépend de l'échantillon, donc on détermine une zone (borne supérieure et
• Cependant D-W ont déterminé des limités inférieure et supérieures, dL et dU, pour les valeurs critiques et celles-ci sont présentées dans les tables standards.
• Ainsi:
Rejette l'H0
• Les limites pour les valeurs critiques en cas d’autocorrélation négative ne sont pas données dans les tables standards mais il est facile de les calculer car elles sont localisées symétriquement. Bornes pour un test de 1
%
A
. AUTOCORRELATION
… régresse en t-1.
Degré de liberté
Retards
est l'innovation qui apparaît au temps t et il ne dépend pas de l'erreur passé, il est indépendamment
Distribué . Nous avons donc un modèle sans autocorrélation.
Cependant cette méthode a un problème mineur: il y a une non linéarité dans les paramètres. Le coefficient de X t-1 est égal au produit des coefficients de
Xt et d’Yt-1.
Cela signifie que si OLS était utilisé pour ajuster ce modèle, il ne prendrait pas en compte la restriction et nous aurions un conflit entre l'estimation des paramètres.
Nous pourrions obtenir des estimations de 0.5 et 0. 8 pour pour. Mais ces nombres sont incompatibles avec l'estimation de 0.6 pour
Nous avons donc besoin d'une technique d'estimation non linéaire (Moindre carrée non linéaire). Avant cela nous étendons le modèle à une régression multiple avec deux variables explicatives.
A. AUTOCORRELATION
Lorsqu’une variable dépendante laguée (ex: le PIB d’aujourd’hui est lié à celui
d’hier) est utilisée comme variable explicative, les estimations OLS seront
sujettes à certain biais en petits échantillons. Même si u satisfait les conditions de
Gauss-Markov. En grand échantillon ce biais disparait.
Donc, Yt-1 contient une composante aléatoire ut-1, et donc ut aussi. Yt-1 dépend de ut-1
mais ut-1 dépend de ut. Par conséquent, Yt dépend de ut. Il y a donc violation de la 4e
hypothèse de Gauss Markov (exogénéité). Il y a donc un biais d'endogénéité. Cela
signifie que OLS mène à des estimations non consistantes et que les tests t et F sont
non valides.
Lorsqu’une variable dépendante laguée est utilisée comme variable explicative, il faut utiliser
la statistique h de Durbin pour l’autocorrélation car la statistique d est biaisée vers 2.
A
. AUTOCORRELATION
On doit calculer la h:
normale à un niveau de 5 % => on rejette pas l'H0. (il n'y a pas d'autocorrélation).