— A quelle valeur se compare α0+xTαpour classer x?
— Calculer les log-odds (probabilités à posteriori sur l’échelle logit) des deux points de coor-
données (0,0) et (-2,2).
5. On s’intéresse maintenant à la régression logistique qui fournit un fonction de classification binaire
et estime directement les probabilités à posteriori.
(a) Reprendre les questions précédentes (contruction du classifieur, prédiction des deux points,
frontière de décision et taux d’erreur test) avec la fonction glm et en vous aidant du code
suivant :
#regression logistique sur donnees d'apprentissage
?glm
g<- glm(as.factor(y)~x1+x2,data=train,family=binomial)
#proba a posteriori P(Y=2|X=x) pour x=(0,0),x=(-2,2)
predict(g, newdata, type="response")
## 1 2
## 9.999998e-01 1.061813e-06
#P(Y=2|X=(0,0))=0.99
#P(Y=2|X=(-2,2))=0.00000106
#fontieres de decision
prob_grille <- predict(g,data.frame(grille),type="response")
pred_grille <- 2*I(prob_grille>0.5)+1*I(prob_grille<=0.5)
(b) En régression logistique, on définit le modèle suivant :
P(Y= 2|X=x) = exp(β0+xTβ)
1 + exp(β0+xTβ)
et les paramètres β0et βsont estimés par maximum de vraisemblance sur les données d’appren-
tissage. On a donc comme en LDA un score linéaire qui est une fonction logit de la probabilité
à posteriori :
log P(Y= 2|X=x)
P(Y= 1|X=x)=β0+xTβ,
aussi appellé log-odds ou encore la probabilité à posteriori sur l’échelle logit.
— Quelles sont les valeurs des paramètres β0et βestimés sur les données d’apprentissage ?
— Quel test est utilisé pour tester la nullité de ces coefficients ?
— Calculer le log-odd (probabilités à posteriori sur l’échelle logit) du points de coordonnées
(-2,2) de 3 manières différents.
6. Pour les trois méthodes considérées ici, un seuil a été fixé pour constuire les fonctions de classifi-
cation g. Ce seuil vaut 0.5si on regarde les probabilités à posteriori p=P(Y= 2|X=x)et 0si
on regarde les log-odds p
1−p. On va faire varier ce seuil en LDA et regarder comment le taux de
bons classements varie.
(a) Faire varier le seuil de 0 à 1 par pas de 0.1 et représenter sur un graphique le taux de bons
classement en fonction du seuil.
(b) Recommencer mais en faisant varier cette fois le seuil des log-odds par pas de 0.1.
(c) Calculer les taux de vrais positis (T V P ) et de vrais négatifs (T V N) lorsque le seuil varie sur
l’échelle des log-odds par pas de 0.1. Ici positif = 2. Tracer ensuite la courbes ROC des points
(1 −T V N(s); T V P (s)).
7. On peut retrouver ces graphiques avec le package ROCR et le code suivant :
library(ROCR) # 3 fonctions : prediction, performance, plot
#label.ordering pour le label de la classe negative puis positive
pred <- prediction(prob_test, Ytest,label.ordering=c("1","2"))
perf <- performance(pred, "acc")
plot(perf)
2