Econometrie

Telechargé par alfagasoul
COURS D’ÉCONOMÉTRIE
Professeur Philippe Deschamps
Edition 2006-2007
Université de Fribourg
Séminaire d'Econométrie
Boulevard de Pérolles 90
CH-1700 Fribourg, Suisse
© Philippe Deschamps, 2006
i
TABLE DES MATIERES
Première partie: Quelques notions de base du calcul des probabilités et de l’analyse statistique.
I. Vecteurs aléatoires
1.1. Distribution jointe.
1.2. Densité jointe
1.3. Densité marginale
1.4. Densité conditionnelle
1.5. Indépendance
1.6. Covariance
1.7. Espérances conditionnelles et partielles
1.8. Application économique des espérances partielles (gestion de stock).
II. Fonctions de variables aléatoires.
2.1. Changement de variables (cas univarié).
2.2. Changement de variables (cas multivarié).
2.3. Fonction génératrice des moments.
2.4. Fonctions de variables normales (Chi-carré, Student, Fisher).
III. Estimation ponctuelle
3.1. Echantillon aléatoire, estimateur, estimation.
3.2. Fonction de vraisemblance.
3.3. Maximum de vraisemblance.
IV. Propriétés des estimateurs
4.1. Estimateur sans biais
4.2. Estimateur convergent.
4.3. Estimateur efficace.
4.4. Minimisation de l’erreur quadratique moyenne.
4.5. Interprétation des propriétés.
V. Tests d’hypothèses
5.1. Méthode des intervalles de confiance.
5.2. Méthode générale de construction des tests.
5.3. Le critère du rapport des vraisemblances (LR).
5.4. Le critère de Wald (W).
5.5. Le critère des multiplicateurs de Lagrange (LM).
5.6. Comparaison des trois critères LR, W, et LM.
ii
Seconde partie: Modèles économétriques à une équation
I. La régression simple: estimation ponctuelle
1.1. Description du problème et exemples économiques
1.2. Le modèle et ses hypothèses
1.3. Les estimateurs de moindres carrés
1.4. Moments des estimateurs de moindres carrés
1.5. Convergence en probabilité
1.6. Interprétation matricielle
1.7. Théorème de Gauss-Markov
1.8. Estimation de la variance des erreurs
1.9. Décomposition de la variance: le coefficient de détermination
1.10. Exemple numérique
II. La régression simple: intervalles de confiance et tests d’hypothèses
2.1. Tests sur les coefficients individuels
2.2. Test sur les deux paramètres a et b
2.3. Test sur une combinaison linéaire des coefficients
2.4. Prévision
2.5. Exemple numérique
III: Compléments d’algèbre matricielle
3.1. Formes quadratiques
3.2. Matrice symétriques et idempotentes
3.3. L’inversion en forme partagée
3.4. Notions de dérivation matricielle
IV. Compléments d’analyse statistique multivariée
4.1. La loi normale multivariée
4.2. Fonctions linéaires et quadratiques de variables normales
4.3. Application: calcul de la distribution sous H0 de la statistique t
V. Le modèle de régression multiple
5.1. Le modèle et ses hypothèses
5.2. Les estimateurs de moindres carrés
5.3. Moments des estimateurs de moindres carrés
5.4. Le théorème de Gauss-Markov
5.5. L’estimation de la variance des erreurs
5.6. Décomposition de la variance: les coefficients de détermination R2 et R2*
5.7. Problèmes particuliers: multicolinéarité, biais de spécification, variables muettes
iii
5.8. Estimateurs par maximum de vraisemblance
5.9. Exemple numérique
VI. Moindres carrés sous contraintes linéaires
6.1. L’estimateur de β sous contraintes
6.2. Efficacité de l’estimateur de β sous contraintes
6.3. Décomposition de la somme des carrés des résidus contraints
VII. Inférence statistique en régression classique
7.1. Le test de l’hypothèse linéaire générale
7.2. Dérivation de la statistique F à l’aide du critère du rapport des vraisemblances
7.3. Calcul de la distribution sous H0 de la statistique F
7.4. Dérivation de la statistique F à l’aide du critère de Wald
7.5. Dérivation de la statistique F à l’aide du critère des multiplicateurs de Lagrange
7.6. Cas particulier du test de l’hypothèse linéaire générale
7.6.1. Test sur un coefficient individuel
7.6.2. Test de nullité de tous les coefficients; lien avec R2*
7.6.3. Test de nullité de tous les coefficients sauf la constante; lien avec R2
7.6.4. Test sur une combinaison linéaire des coefficients
7.6.5. Tests de stabilité structurelle (Chow)
7.7. Intervalles de prévision
7.8. Exemple numérique
VIII. Moindres carrés généralisés: la méthode de Aitken
8.1. Introduction
8.2. Exemples
8.3. L’estimateur de Aitken et ses propriétés
8.4. La prévision dans le modèle de Aitken
IX. L’autocorrélation et l’hétéroscédasticité
9.1. Erreurs autorégressives d’ordre un
9.2. La matrice de covariance des erreurs
9.3. Transformation des données (
ρ
connu)
9.4. Estimation du coefficient d’autorégression
9.5. La statistique de Durbin-Watson
9.6. La prévision dans le modèle à erreurs autorégressives
9.7. Le problème de l’hétéroscédasticité
9.8. Les tests de diagnostic
9.8.1. Analyse des autocorrélations
iv
9.8.2. Le test de Breusch-Godfrey (autocorrélation)
9.8.3. Le test de Koenker (hétéroscédasticité)
9.8.4. Le test de Bera-Jarque (normalité)
9.9. Exemple numérique
9.10. Introduction aux méthodes semi-paramétriques
X. Eléments de théorie statistique asymptotique
10.1. Introduction
10.2. Convergence en probabilité
10.3. Inégalité de Chebychev
10.4. Loi faible des grands nombres
10.5. Convergence en distribution
10.6. Propriétés des modes de convergence
10.7. Fonction caractéristique et convergence en distribution
10.8. Versions du théorème central limite
10.9. L’inégalité de Rao-Cramer
10.10. La matrice d’information
10.11. Propriétés asymptotiques des estimateurs par maximum de la vraisemblance
10.12. Distribution asymptotique du rapport des vraisemblances
10.13. Exemple d’application dans un modèle à erreurs autorégressives: distributions limites
des estimateurs par maximum de la vraisemblance et de la statistique
d’autocorrélation par le rapport des vraisemblances
XI. Propriétés asymptotiques des estimateurs par moindres carrés ordinaires
11.1. Convergence en probabilité
11.2. Normalité asymptotique
XII. Propriétés asymptotiques des estimateurs d’Aitken
XIII. Régresseurs stochastiques
13.1. Introduction: types de régresseurs stochastiques
13.2. Régresseurs stochastiques indépendants du vecteur des erreurs
13.3. Régresseurs stochastiques dépendants des erreurs contemporaines
13.3.1. La méthode des variables instrumentales (VI)
13.3.2. Convergence en probabilité des estimateurs VI
13.3.3. Convergence en distribution des estimateurs VI
13.3.4. Choix des variables instrumentales.
XIV. Introduction aux modèles dynamiques
14.1. Retards échelonnés
14.2. Méthode de Koyck
1 / 258 100%
La catégorie de ce document est-elle correcte?
Merci pour votre participation!

Faire une suggestion

Avez-vous trouvé des erreurs dans l'interface ou les textes ? Ou savez-vous comment améliorer l'interface utilisateur de StudyLib ? N'hésitez pas à envoyer vos suggestions. C'est très important pour nous!