MasterM2–Parcoursrecherche UPMC ModuleMIAD
Algorithmed’AdaBoost
1. A
LGORITHMEDE
P
ERCEPTRON
L’apprentissaged’unmodèleperceptronconsisteàdéterminerautomatiquementses
paramètresàpartird’unebaseétiquetéed’exemplesd’apprentissage.L’algorithmeestle
suivant(poursimplifieronconsidèrequeWestunvecteurligneetquelesxsontdesvecteurs
colonnes):
•D=(x
i
,y
i
)i=1..Nensembled’apprentissage,oùy
i
=C(x
i
)
•initialiserw,onnotecevecteurinitialw(0)
•t=0
•àt,choisiraléatoirementunexemplexdansD,onlenommex
t
osix(t)estcorrectementclassé,i.ey
t
(w(t).x
t
)>0
alorsw(t+1)=w(t)
osix(t)estmalclassé,i.e.y
t
(w(t).x
t
)<0
alorsw(t+1)=w(t)+ εy
t
x
t
t=t+1
•jusqu’à(critèred’arrêtsatisfait).
Oùεestlepasdegradient,c’estunevaleurpositivenonnulle,engénéralrelativementfaible
(parexemple1/N).Onutilisedifférentscritèresd’arrêts(plusd’erreurdeclassificationdepuis
uncertaintemps,taatteintunevaleurmaximale,etc).
1.1 Fairetournerl’algorithmesurleproblèmedu«ET»logiquedansle casoùw(0)=
(w
0
=2;w
1
=2;w
2
=2),enitérantsurlabased’apprentissage(4exemples),prendreε = 1.
On se place dans le cas de classification bi-classe et on considère un ensemble
d’apprentissage {(x
i
, y
i
)}
i∈{1,…,m}.
On veut trouver l’hyperplan séparant les exemples avec
l’algorithmeduperceptron
1
.Onsupposepourcelaqueleproblèmeestlinéairementséparable
etqu’ilexistedoncunedroitedevecteurdirecteurw*quiséparelesexemples.Oninitialiseà
nullevecteurpoidsduperceptronàl’itération1,i.e.w(1)=0etonconsidèrequetousles
exemplessontàl’intérieurd’uneboulederayonR,i.e.∀i,||x
i
||≤R.
Aprèstitérations,onvafairekcorrectionsduvecteurpoids(t≥k)i.e.w(k)=w(k-1)+x
t
.y
t
1.2Exprimerladistanceentrelevecteurpoidsw(k)etw(1),||w(k)-w(1)||²,enfonctiondew(k-
1),x
t
.y
t
etw(1)
1.3Endéduireque||w(k)-w(1)||²≤k.R²
1
CethéorèmedeconvergenceestdeNovikoff,1966.