Voir le document

advertisement
http://eco.um1.free.fr
Introduction à l’Econométrie
M. Seyte
2014-2015
Chapitre 0 : Historique de l’économétrie.
Bibliographie : L’économétrie des origines au développement récent. Alain Prioette.

Plusieurs prix nobels d’économie (en économétrie) :
o 1980 : Klein : Il est à l’origine des premiers modèles macro-économétriques et de
leur application à l’analyse des fluctuations économiques et des politiques.
o 1989 : Haavelmo : Père de l’économie moderne pour avoir introduit l’approche
probabiliste et le modèle à équation simultanée.
o 2000 : Heckman et Mc Fadden
 Heckman : Pour ses travaux sur les théories et méthodes d’analyse sur les
échantillons sélectifs.
 Mc Fadden : Il a développé l’économétrie de l’analyse des choix discrets.
o 2003 : Engle et Granger.
 Engle : Pour ses travaux sur la volatilité des séries temporelles et des
modèles ARCH
 Granger : Pour l’élaboration de la théorie de la co-intégration.
Qu’est-ce que l’économétrie :
Frish (1933) : « C’est l’unification de la théorie économique, des mathématiques et des statistiques ».
I.
Des origines de l’économétrie à l’âge d’or de la modélisation macroéconométrique.
1. Les premières études empiriques au 17 et 18ièm siècle.
Au 17 et 18ièm siècle, l’autorité de la Loi Naturelle se dégage progressivement de celle de la religion
et de celle du Prince. C’est le cas de la Statistique Allemand qui se situe dans une tradition de
description globale des Etats. Elle est amorcée par Conring (1606-1680). Il conçoit la statistique
comme un moyen de classer des savoirs hétéroclites. Il cherche un système susceptible de rendre les
faits plus aisés à mémoriser et plus facilement exploitables.
En Angleterre se met en place l’arithmétique politique anglaise. Elle repose sur l’utilisation de
techniques statistiques pour les registres paroissiaux de mariages, décès, baptêmes. On fait des
tables de mortalité, et on calcule des espérances de vie.
http://eco.um1.free.fr
Remarque : Les anglais étaient plutôt dans des méthodes quantitatives, et les allemands des
méthodes littéraires.
Petty (Anglai, 1623 – 1687) : Médecin, mathématicien… A contribué au développement de la
statistique démographique. Ce sont les premières études de la mortalité et natalité d’une population
dans l’espace et dans le temps.
King : Il est à l’origine de la première formalisation mathématique d’une loi de demande à partir de
données empiriques.
2. Au 19ièm siècle :
La statistique mathématique est l’évolution probabiliste de multiples champs (astronomie, biologie,
sciences sociales, physique…). Elle permet de donner une dimension statistique à la représentation
de la société.
La genèse de l’économétrie se fait au milieu du 19° siècle avec Cournot et Walras. C’est le
développement de l’économie mathématique. On constate l’apport de la statistique mathématique
anglais avec l’analyse mathématique de la régression et de la corrélation.
Edgenworth : Il détermine la formule de la fonction de la densité normale multivariée et en tire les
expressions des coefficients de régression multiples.
Pearson : Il établit les liens entre le coefficient de corrélation multiple et le coefficient de corrélation
simple.
Hocker : C’est le premier à utiliser des variables retardées.
Benini (1907) : Précurseur de la mise en œuvre de la méthode de régression multiple en économie.
Lenoir (1913) : Le premier à expliquer et estimer les lois d’offre et de demande. Son approche essai
de lier l’économie mathématique, la statistique descriptive et la statistique mathématique.
3. Début du 20° siècle, les précurseurs de l’économétrie moderne.
Cela débute avec l’analyse du marché du travail de l’américain Moore qui s’intéresse aux problèmes
de détermination des salaires, des fonctions de demande, et des cycles.
Sa conception autorise l’appréhension des liens entre la théorie et les données. Sa conception
permet d’estimer, de tester les modèles et leurs hypothèses mathématiques.
Il tend à prouver que les mathématiques, la statistique, peuvent servir de révélateur empirique et
autoriser une interprétation concrète des phénomènes économiques.
Les conjoncturistes américains jouent un rôle essentiel dans la détection statistique des cycles. Il faut
observer, analyser et systématiser les phénomènes de crise, de prospérité, et de dépression. C’est
Juglar, Kitchin, Kondratieff.
http://eco.um1.free.fr
Apparition des instituts de conjonctures (En Russie en 1920, puis généralisation).
Aux Etats Unis, création en 1920 du NBER (National Bureau of Economic Research). Il est l’un des
principaux pôles voués à la recherche économique empirique aux Etats Unis.
Au début du 20ièm siècle, ce sont les économistes, hommes d’affaire et ingénieurs qui contribuent
progressivement à l’imbrication de l’économie, des mathématiques et de la statistique, pour donner
naissance à l’économétrie. C’est en Europe et aux Etats Unis que va éclore l’économétrie en tant que
discipline.
4. De la création de la société d’économétrie à la fondation de la Cowles commission : La
naissance de l’économétrie en tant que discipline.
A la fin du 20ièm siècle, l’économétrie devient un centre d’intérêt en Europe sous l’impulsion de
Tinbergen et de Frish.
Frish se rend aux Etat Unis et y rencontre Roos, et leurs points de vue convergents vite sur la
nécessité de rapprocher l’économie, les mathématiques et la statistique. Ils sont à l’origine de la
création de la société d’économétrie le 29 décembre 1930 qui officialise l’économétrie en tant que
discipline.
Le premier président de cette société est Irving Fisher, et le premier colloque de cette société se tient
en 1931 à Lausanne.
Durant la même période, Cowles dirige une société spécialisée dans les conseils financiers et en
prévision boursières dans le Colorado. Après 1929, il a conclu que les prévisionnistes naviguent dans
le flou, et il rentre en contact avec la société d’économétrie, pour proposer 2 projets :


Il propose de financer la publication d’une revue économique
Et d’instituer une organisation de recherche sous son patronage.
Frish accepte, d’où la création d’un organisme de recherche appelé : « Cowles Commission ». Cet
organisme crée la revue « econometrica » avec Frish comme rédacteur en chef. Le premier numéro
sort en janvier 1933.
Dans les années 30, la Cowles Commission étudie directement les phénomènes et combine des
mesures statistiques directes, d’économétrie, et des études formalisées de l’économétrie. Puis la
cowles commission va prendre de nouvelles orientations :



Des subventions de la part d’universités
Des subventions de la fondation Rockefeller
Du NBER
http://eco.um1.free.fr
5. Les modèles a équation simultanées au cœur de l’économétrie :
Il y a 4 principes nouveaux à la Cowles Commission.




Théorie qui prend la forme d’un système à équation simultanée.
Introduction de termes aléatoires dans les équations qui reflètent l’influence de causes
irrégulières multiples.
Les données sont mises sous la forme de séries temporelles.
Beaucoup de données publiées sont agrégées.
Avant 1930, la théorie des probabilités était quasiment inutilisée, et Haavelmo propose de donner
une dimension stochastique à l’analyse. Son apport : L’introduction des probabilités en économétrie.
Il essai de combiner :



Le principe du maximum de vraisemblance
La procédure des tests d’hypothèse
La méthode structurelle de Frish
Il a ouvert la voie à l’économétrie moderne, ses travaux marquent le début d’une nouvelle ère de
l’économétrie. La méthode du maximum de vraisemblance devient une méthode d’estimation et
d’inférence.
Ses modèles à équation simultanées servent de cadre de référence.
 Développement des modèles macro-économétriques :
On arrive à l’âge d’or de la modélisation macroéconomique dans les années 1960. Son essor est
rendu possible grâce à Keynes et à sa théorie générale de l’emploi, de l’intérêt et de la monnaie.
Apparait à ce moment-là la comptabilité nationale dans les pays industrialisés.
Parallèlement à la probabilisation des modèles, la Cowles Commission préconise une approche plus
descriptive. La Cowles Commission en tant que telle disparait, et devient la Cowles Fondation, et est
transférée à l’université de Yale.
6. Age d’or de la modélisation macro-économétrique et essor des modèles dynamiques :
On introduit des mécanismes (variables retardées) dynamiques dans les modèles économétriques.
Cela permet de faire la distinction entre les effets de court terme et de long terme. On appelle ces
modèles des modèles à retards échelonnés (Koyck).
Se développent des méthodes sur les séries temporelles et en particulier les méthodes de prévision à
court terme (Box). Il propose d’utiliser des processus univariés pour réaliser des prévisions.
A Londres se développe une approche de la modélisation à correction d’erreur. On introduit des
mécanismes correcteurs afin d’agir par exemple sur la demande, qui vont permettre d’annuler
l’erreur.
http://eco.um1.free.fr
II.
La crise de la modélisation macro-économétrique  développement récent de
l’économétrie.
1. Les années 70 et la fin de l’âge d’or de la modélisation macro-économétrique selon la
tradition de la Cowles Commission.
C’est avec le premier choc pétrolier que l’économétrie connait une nouvelle étape dans son
développement. Pourquoi ? Parce qu’il y a une rupture qui se produit et qui est lié au fait qu’il y a un
décalage entre les prévisions macro-économétriques et la réalité. Cela veut dire qu’il y a une remise
en cause de la modélisation macro-économétrique. En fait, il y a l’apparition de nouveaux modèles
qui introduisent les chocs, c’est une reformulation de tous ces modèles macro-économétriques avec
la construction de ce qu’on appelle des modèles VAR (vecteurs auto-régressifs) sous l’impulsion de
Sims. Et donc dans ces modèles, on introduit des ondes de choc (crises etc…), d’évènements
exceptionnels.
Ce sont des modèles ou il y a plusieurs équations, et où les variables qui expliquent peuvent devenir
la variable expliquée.
2. L’économétrie des séries temporelles depuis les années 80.
Le concept de causalité devient un concept clé à partir des années 80. Il y a deux types de causalité,
la causalité au sens de Sims, et la causalité au sens de Granger. La différence entre les deux c’est
qu’un tiens compte des valeurs passées sur une longue période, et l’autre sur les valeurs passées
mais sur une plus courte période.
La causalité : Quand on dit qu’une série cause une autre série, ça veut dire qu’un série a une ou des
incidences sur une autre. Les prix ont une incidence sur la demande…
A la même période apparaissent des tests de Racine Unitaire (Dickey Fuller) : Ca permet de voir si
une série est stationnaire ou non.
Egalement l’apparition des modèles ARCH (Auto régressif conditionnel) de Engle.
On développe aussi à cette époque les modèles ARMA (Auto régressif des moyennes)
Ces deux sont des processus auto régressifs, mais pas sur la même variable. Une régresse la variable
certaine, et l’autre régresse une variable aléatoire.
3. Instauration de nos jours d’une économétrie plurielle.
Modèles sur variable qualitative (modèles logit – probit). La variable expliquée est qualitative.
http://eco.um1.free.fr
Il y a aussi l’économétrie de panel qui se développe. On constitue un panel, mais ce groupe on le
garde par exemple pendant plusieurs années, donc ce sont les mêmes individus qui sont interrogés
au cours du temps.
Il y a aussi le développement des méthodes de simulation avec une méthode de boostrap
(simulation). Ce sont des simulations en statistique inférentielle.
Enfin, introduction des principes bayésien en économétrie.
Donc pourquoi on dit économétrie plurielle ? Parce qu’elle comprend de multiples branches a très
fort contenu (économétrie des séries temporelles, des variables quantitatives, des panels…).
(100% de chance que le chapitre 0 tombe à l’examen)
Livres intéressants :




Johnston-Dinardo : « économétrie ».
Bourbonnais : « Econométrie » Dunod
Labrousse « Introduction à l’économétrie » Dunod (plus simple)
Greene « econometrie » (en anglais) De Boeck
Ce qui est important dans ce cours c’est de faire les applications, les exercices.
Chapitre 1 : Le modèle linéaire simple à 2 variables
L’économétrie s’est construite autour du temps autour de ce qu’on appelle les modèles
économétriques.
Un modèle c’est une représentation simplifiée mais la plus exhaustive d’une entité économique
donnée. Un modèle économétrique sous sa forme la plus courante est représenté comme un
système d’équation, le plus souvent linéaire, et ces équations relient deux types de variables :
-
Les variables endogènes : Ce sont les variables expliquées.
Les variables exogènes : Ce sont les variables explicatives.
C’est la théorie économique qui postule la forme et le contenu de l’équation, mais ça peut aussi être
l’observation empirique.
Dans ce cours on aura qu’une équation avec une seule variable exogène et une seule variable
endogène. La variable expliquée on la notera Y, et la variable explicative X.
Ça veut dire que : Y = f(X)
Cette fonction f peut avoir plusieurs formes :
http://eco.um1.free.fr
-
Une forme linéaire
Une forme exponentielle
Une forme puissance
Etc…
Mais il faut savoir que toutes les formes non linéaire se ramènent à la forme linéaire par simple
transformation logarithmique. On appelle ça : transformation par anamorphose. Cela veut dire un
modèle non linéaire devient un modèle linéaire. C’est la raison pour laquelle on va étudier le modèle
linéaire simple, que l’on notera :
Y = α + βX
Exemples de transformation par anamorphose :

Fonction exponentielle : Y = αeβX
On va la transformer : LnY = Lnα + βX
On revient à un modèle : Y1 = α1 + βX

Fonction puissance inversée :
Y=




LnY = Ln ( ) = Lnα – βLnX = α1 + βX1

Fonction puissance : Y = αXβ
LnY = Lnα + βLnX
Y1 = α1 + βX1

0
Fonction logistique : Yt = 1+ 

Y
Y0
Stagnation des ventes
X
http://eco.um1.free.fr
Y0 c’est la valeur maximale vers laquelle va tendre la variable Y

1
=
0 1+  
0
= 1 + Xt


( 0 – 1) = βXt


Ln( 0 – 1) = Lnβ

+ tLnX
Zt = β1 + tX1
C’est la raison pour laquelle nous on va étudier toujours le modèle linéaire : Y = α + βX
Il faut savoir que si on l’écrit de cette façon, on a ce qu’on appelle une relation exacte, or, en
économie, il est rare qu’on ait ce type de relation. Les relations exactes on les a surtout en
comptabilité nationale. Pour contourner ce problème, on introduit dans le deuxième membre de
l’équation un terme que l’on appelle alea pour « erreur ». Cet élément aléatoire va permettre de
synthétiser l’ensemble des influences sur Y que X ne peut expliquer.
Ce troisième terme est noté différemment selon les types de modèles. Il existe 3 types de modèles :

Les modèles de série chronologique (série temporelle) : Cela suit une évolution au cours du
temps. A ce moment la, les variables sont indexées en fonction du temps :
Yt = α + βXt + Ԑt (Ԑt = alea) et t varie de 1 jusqu’à n

Modèle en coupe instantanée (i pour individus) :
Yi = α + βXi + Ui
(i varie de 1 jusqu’à n)

Le modèle de panel : On a à la fois le temps et les individus
Yti = α + βXti + Uti
Il faut bien retenir que cet alea permet de synthétiser l’ensemble des influences sur Y que X ne peut
expliquer à lui seul.
Cet alea rassemble un nombre important mais indépendant de fluctuations sans qu’aucune n’ai à elle
seule une importance par rapport aux autres, de telle sorte que cette variable puisse être assimilée à
une variable aléatoire obéissant à une certaine loi de probabilité.
On suppose que la variable X (qui est la variable explicative) est une variable contrôlée. Ça veut dire
qu’elle est indépendante de l’alea.
Donc dans notre modèle on a deux inconnues (α et β), et on va chercher comment les identifier.
Le problème est d’estimer les paramètres α et β connaissant les observations de X et de Y. On note ̂
et ̂ les estimateurs des paramètres α et β, c.-à-d. les valeurs calculées du modèle à partir des
observations sur Y et X.
Yt = α + βXt + Ԑt
http://eco.um1.free.fr

̂t = ̂+ ̂Xt
Il faut savoir que les valeurs calculées de ̂t ne coïncident pas avec Yt. L’écart entre les deux s’appelle
le résidu, et se note :
et = Yt – ̂t
I.
Les hypothèses du modèle.
Le problème statistique à résoudre c’est le calcul des paramètres α et β, connaissant les valeurs de Y
et Xt. Il existe 2 méthodes permettant le calcul de α et β :


La méthode des MCO (moindres carrés ordinaires)
La méthode du maximum de vraisemblance
Ces deux méthodes impliquent qu’un certain nombre d’hypothèses soient vérifiées avant l’utilisation
de l’une des deux.
Hypothèses :
-
-
X est une variable contrôlée (indépendant de l’alea)
L’hypothèse de normalité de l’alea : En moyenne, l’ensemble des facteurs non expliqués par
la régression et qui se retrouvent dans Ԑt tendent à se compenser. Cette hypothèse permet
d’utiliser le théorème central limite qui est donc à la base de tous les tests statistiques. On
note cette hypothèse : E [Ԑt] = 0 quel que soit t de 1 jusqu’à n.
L’hypothèse d’homoscédasticité : Cela signifie que la variance des Ԑt est constante quel que
soit le sous-échantillon prélevé dans l’ensemble {1 ….. N}
E[Ԑt²] = σ²Ԑ
Attention : pas d’indice t dans la deuxième partie de l’équation.
-
L’hypothèse de non autocorrélation de l’alea : La distribution des Ԑt qui correspond à Xt est
indépendante de celle des Ԑt’ qui correspondent à Xt’. Cela veut dire que les distributions des
erreurs sont donc indépendantes d’une observation à l’autre.
E[Ԑt Ԑt’] = 0 quel que soit t dans {1 …. N }
_________________________________fin cours 2__________________________________
http://eco.um1.free.fr
http://eco.um1.free.fr
Téléchargement