La régression

Telechargé par linanina.rania
I.
La régression d’un polynome de degré 1
On va trouver une relation lineaire entre deux variables (explicative qui est la taille et
la variable réponse le poids ) en utilisant trois méthode
Méthode 1
: le neurone linéaire (Matlab)
Après avoir faire la création et l’entrainement du réseau qui est un neurone linèaire on a obtenu
les figures et les résultats suivants :
Méthode 2
: EXCEL
L’excel a donné les résultats suivants :
Poids = 1.1117
Biais =-118.6722
R=0.99408
Performance(mse) =4.7226
RMSE=2,17315438
Moyenne(X)=165 ; Moyenne(Y)=64,76 ;
Variance(X)=320 ;Variance(Y)=64.76 ;Covariance=355,7538
A=1,111731
B=-118,672
R²=0,9882
Puis on a calculé :
R=0,99408
Mse=4,722638
RMSE=2,1731631324
Méthode 3
: Curve Fitting (MATLAB)
Model linèaire par le Curve Fitting nous a donné les résultats suivants :
SSE=146.401773999501 R-square=0.9882000416398264
Ajust_R-square=0.9877931465239584 RMSE=2.246850469983606
%Linear model Poly1: f(x) = p1*x + p2
%Coefficients (with 95% confidence bounds):
%p1 = 1.112 (1.066, 1.158)
%p2 = -118.7 (-126.3, -111)
%Goodness of fit:
%SSE: 146.4
%R-square: 0.9882
%Adjusted R-square: 0.9878
% RMSE: 2.247
Conclusion
En comparant les résultats obtenus , on remarque que les trois méthodes utilisées donnent presque les
même résultats (les coefficients a et b) avec un coefficient de corrélation R=0.99408 qui est très proche
de 1 ce qui signifie que la régression est excellente donc c’est la meilleur régression dans les trois
méthodes .
En voyant le MSE (Mean Squared Error) des trois méthodes : le MSE obtenu par la méthode du Curve
Fitting égale à 5.049 est supérieur à ceux obtenus par la méthode neuronale et la méthode classique avec
Excel qui égale à 4.7226 donc on peut dire dans cet exemple la méthode du neurone linéaire et du Excel
donnent les meme résultats et elles sont meilleurs que la méthode du Curve Fitting
On conclue que : Dans notre étude d’un polynôme de degré 1 la méthode neuronale et Excel sont plus
favorable que Le Curve Fitting
II. La régression d’un polynome de degré 4
On va faire une régression d’un polynôme de degré 4 (y=2*I+4*x+x.^2-6*x.^3-2.9*x.^4)
Avec une erreur aléatoire suit la loi uniforme [-0.5,0.5] et les
x=-2:0.01:1;
en utilisant aussi trois méthodes
Méthode 1 : Le neurone linéaire (matlab)
Les résultats et les graphes obtenus sont les suivants :
Les poids :
4.2919 1.0937 -6.1107 -2.8830
Le biais :1.8658
MSE = 2.9203
R=0.58012
Méthode2 : Les moindres carrés MCO(Matlab)
Pour trouver les résultats suivantes on a utilisé l’instruction
(LinearModel.fit(X,Y,’poly4’) ) puis on utilisé des autres
instructions dans le but de calculer l MSE de la méme façon du
méthode neuronale pour pouvoir les comparés les résultats sont :
mdl =
Linear regression model:
y ~ 1 + x1 + x1^2 + x1^3 + x1^4
Estimated Coefficients:
Estimate SE tStat pValue
(Intercept) 1.8658 0.17347 10.756 5.4165e-23
x1 4.2919 0.42741 10.042 1.306e-20
x1^2 1.0937 0.34323 3.1864 0.0015945
x1^3 -6.1107 0.54362 -11.241 1.1903e-24
x1^4 -2.883 0.25415 -11.343 5.2591e-25
Number of observations: 301, Error degrees of freedom: 296
Root Mean Squared Error: 1.72
R-squared: 0.337, Adjusted R-Squared 0.328
F-statistic vs. constant model: 37.5, p-value = 2.16e-25
Coefficients =
1.8658
4.2919
1.0937
-6.1107
MSERL = 2.9697
MSERL_ajust =2.9302
les coefficients :
a0= 1.8658
4.2919 1.0937 -6.1107 -2.883
MSE=2.9697
RMSE=1.72328
R²=0.337 R=0.58
Méthode3 : Curve Fitting (Matlab)
Les résultats du Curve fitting sont :
Linear model Poly4:
f(x) = p1*x^4 + p2*x^3 + p3*x^2 + p4*x + p5
Coefficients (with 95% confidence bounds):
p1 = -2.883 (-3.383, -2.383)
p2 = -6.111 (-7.181, -5.041)
p3 = 1.094 (0.4182, 1.769)
p4 = 4.292 (3.451, 5.133)
p5 = 1.866 (1.524, 2.207)
Goodness of fit:
SSE: 879
R-square: 0.3365
Adjusted R-square: 0.3276
RMSE: 1.723
Les coefficients : a0=1.866
4.292 1.094 -6.111 -2.883
MSE=2.968729
RMSE= 1.723
R= 0.58 R²=0.3365
1 / 6 100%