2 Régression linéaire multiple 5
Les statistiques de test valent 5.59 pour β0et 4.11 pour β1. Elles sont à comparer
à un fractile de la loi de Student admettant 18 ddl, soit 2.1. Nous rejetons dans les
deux cas l’hypothèse de nullité du coefficient. Nous avons modélisé la hauteur par
une fonction affine de la circonférence, il semblerait évident que la droite passe par
l’origine (un arbre admettant un diamètre proche de zéro doit être petit), or nous
rejetons l’hypothèse β0= 0. Les données mesurées indiquent des arbres dont la
circonférence varie de 26 à 43 cm, les estimations des paramètres du modèle sont
valides pour des données proches de [26; 43].
Exercice 1.11 (Modèle quadratique)
Les modèles sont
O3 =β1+β2T12 +εmodèle classique,
O3 =γ1+γ2T122+modèle demandé.
L’estimation des paramètres donne
c
O3 = 31.41 + 2.7T12 R2= 0.28 modèle classique,
c
O3 = 53.74 + 0.075 T122R2= 0.35 modèle demandé.
Les deux modèles ont le même nombre de paramètres, nous préférons le modèle
quadratique car le R2est plus élevé.
2 Régression linéaire multiple
Exercice 2.1 (Questions de cours)
A, A, B, B, B, C.
Exercice 2.2 (Covariance de ˆεet de ˆ
Y)
Les matrices X,PXet PX⊥sont non aléatoires. Nous avons alors
Cov(ˆε, ˆ
Y) = E(ˆεˆ
Y0)−E(ˆε)E(ˆ
Y0)
=E[PX⊥ε(PX(Xβ +ε))0]
=E(PX⊥εβ0X0) + E(PX⊥εε0PX)
= 0 + PX⊥σ2PX= 0.
Exercice 2.3 (Théorème de Gauss-Markov)
Nous devons montrer que, parmi tous les estimateurs linéaires sans biais, l’estima-
teur de MC est celui qui a la plus petite variance. La linéarité de ˆ
βest évidente.
Calculons sa variance :
V( ˆ
β) = V((X0X)−1X0Y)=(X0X)−1X0V(Y)X(X0X)−1=σ2(X0X)−1.