pdf 313.4 ko - Revue e-STA

publicité
e-STA copyright 2011 by see
Volume 8, N°1, pp 53-60
Application de la Méthode Adaboost à la Reconnaissance
Automatique de la Parole
1
Rimah Amami, 2 Dorra Ben Ayed, 3Noureddine Ellouze
Département de Génie Electrique, ENIT, Tunis, Tunisie
1
[email protected], [email protected], [email protected]
Abstract- Les méthodes du Boosting constituent une famille
d’algorithmes d’apprentissage automatique qui construisent
des modèles (de classification ou de régression) fondés sur la
combinaison des échantillons d’apprentissage dits "faibles".
La méthode Adaptative Boosting (Adaboost) est la méthode du
Boosting la plus utilisée. Dans cet article, nous proposons une
étude et une évaluation d’un ensemble d’algorithme de la
méthode Adaboost dans un système de classification basé sur
les arbres de décision binaire (CART) pour aborder la
reconnaissance de la parole.
Nous utilisons, pour nos expérimentations, les phrases SA1 et
SA2 du dialecte DR1 du corpus de son TIMIT.
Mots clés- Real Adaboost, Gentle Adaboost, Modest
Adaboost, Arbre de decision CART, TIMIT, Validation
croisée.
I.
INTRODUCTION
Le processus de la reconnaissance automatique de la parole
(RAP) se compose principalement de quatre phases
élémentaires; Extraction des caractéristiques, L’apprentissage
La modélisation et la décision finale (Figure1).
Extraction des
caractéristiques
Décision
Finale
performance d’un système de RAP dépend essentiellement de
l’algorithme d’apprentissage utilisé pendant la phase de la
classification. Ces dernières années, l’approche du Boosting a
été appliqué dans le domaine de la RAP vu son aptitude à
améliorer la performance des différents classifieurs.
Les méthodes du Boosting constituent une famille
d’algorithmes d’apprentissage automatique qui visent à rendre
un système d’apprentissage dits "faibles" plus performant.
Actuellement, Les méthodes du Boosting sont très étudiées.
Elles permettent de combiner un ensemble d’ instances d’un
classifieur donné considérées difficile à apprendre (faible),
afin de forger un seul classifieur « fort » et d’ou améliorer la
performance de l’algorithme d’apprentissage « faible ».Pour
nos expérimentation, nous avons choisi CART (arbre de
décision binaire) comme notre algorithme d’apprentissage.
Adaboost est l’aolgorithme du Boosting le plus utilisé.
Dans le but d’optimiser Adaboost, il y a eu l’apparition de
plusieurs variantes de cette méthode telles que Real, Gentle
Adaboost et modest Adaboost.
Dans cet article, nous utilisons ces trois variantes
d’Adaboost ainsi qu’un algorithme d’apprentissage basé sur
l’arbre de décision binaire : CART (Classification And
Regression Tree). Par la suite, nous évaluons la performance
de chaque méthode à partir des taux d’erreur que notre modèle
produit. Cet article est organisé de la manière suivante: La
section 2, introduit les différents algorithmes du Boosting ; la
section 3, décrit l’algorithme d’apprentissage utilisé. Enfin, en
section 4 and 5, nous étudions les résultats que notre modèle
génèrent en utilisant le corpus TIMIT.
II. INTRODUCTION AU BOOSTING
Algorithme
d’apprentissage
Les
Echantillons
Reconnaissance de la
parole
A. Définitions
La méthode du Boosting a été inspiré de l’algorithme
d’apprentissage Hedge (ß) [1]. Le principe du Boosting est de
réutiliser un classifieurs plusieurs fois en attribuant aux
instances d’apprentissage, à chaque fois, une pondération
différente et puis combiner les résultats afin de trouver un seul
classifieur « fort/très précis » [2].
Fig 1. Architecture d’système de la reconnaissance Vocale
Dans la littérature, les recherches effectuées dans le domaine
de la reconnaissance vocale affirment que dans un système de
RAP, l’algorithme d’apprentissage constitue l’élément
fondamental pour la robustesse du système. De ce fait, la
B.
L’approche Adaboost
AdaBoost (Adaptive Boosting) est une méthode
algorithmique connue dans le domaine de l’apprentissage.
Cette méthode a été initialement conçue par Robert Schapire
e-STA copyright 2011 by see
Volume 8, N°1, pp 53-60
et Yoav Freund en 1995 [1][3]. Cette approche est la dérivée
la plus partiquée de la méthode du Bossting qui vise à stimuler
la performance de l’algorithme d’apprentissage.
Adaboost consiste à transformer, d’une manière efficace, un
classifieur « faible » en un classifieur « fort » en réduisant les
taux d’erreur. L’algorithme d’Adaboost, appelle à chaque
itération, un algorithme d’apprentissage qui entraînent les
instances à classifier. Par la suite, Adaboost définit une
nouvelle distribution de probabilité
pour les instances
d’apprentissage en fonction des résultats de l’algorithme à
l’itération précédente tout en augmentant le poids des
instances qui ne sont pas correctement classées. A la fin,
Adaboost combine les données faibles par un vote pondéré
pour en déduire un classifieur fort.
Dans cette optique, AdaBoost essaye, de trouver un
classifieur optimal à partir de la combinaison d’un ensemble
de données d’apprentissage faible. L’algorithme d’Adaboost
est comme suit [4].
Etant donné:
•
S=
( x1 , y1 ) ,...., ( xm , ym )
échantillons
•
•
et
avec m l’ensemble des
yi ∈ Y = {1,..., k} avec Y est
l’ensemble des étiquettes.
L’algorithme
d’apprentissage
WeakLearner.
T est le nombre des itérations.
Initialiser Dt (i ) = 1
dits
“faible”
.
m
Faire pour t = 1, 2,....., T :
1. Appeler WeakLearner qui fournit la distribution Dt.
2. Calculer l’hypothèse: ht : X → Y .
d’Adaboost d’où il y a eu l‟apparition de plusieurs variantes
telles que Adaboost.M1, Adaboost.M2 Gentle Adaboost , etc.
En effet, il existe plusieurs dérivés de l’approche Adaboost
qui optimisent différemment la pondération (Wi).
GML AdaBoost Matlab Toolbox est un ensemble de
fonctions en Matlab qui implémente un ensemble d’algorithme
de classification et du Boosting à savoir: Real AdaBoost,
Gentle AdaBoost et Modest AdaBoost qui sont utilisés dans ce
travail [5].
C. L’approche Real Adaboos
Real AdaBoost a été mis en œuvre en 1999 par Freund and
Schapire [6]. Real Adaboost est une amélioration de la
méthode d’origine ou il faut ajouter une fonction qui mesure le
degré de confiance
en manipulant des données
d’apprentissage soi-disant « faible ». La particularité de cette
méthode réside dans la classe de probabilité estimée qui
convertit les taux de logarithme en une valeur réel d’échelle
[7]. Cette valeur est utilisée afin d’observer les contributions
des sorties du modèle en question. De plus, Real Adaboost
mesure la probabilité qu’une donnée d’apprentissage
appartient à une classe donnée alors que Adaboost consiste,
tout simplement, à classifier les données et calculer l’erreur
pondérée. En générale, Real AdaBoost tend à minimiser e−yF(x)
afin de mieux trouver la classification optimale générer par le
modèle utilisé [4].
D’autre part, la méthode Real Adaboost accorde un taux de
confiance aux classifieurs faible [8][9] qui transforme
l’ensemble des instance X et la prédiction booléenne en un
espace réelle R. L’algorithme est comme suit [10].
Etant donné:
•
3. Calculer l’erreur de:
hx : ε t =
Si
εt f 12
Alors
4. Définir β t =
εt
∑
S=
des
i = ht ( xi ) ≠ yi
Dt (i )
(1)
T = t − 1 et sortir.
( x1 , y1 ) ,...., ( xM , yM ) , avec m l’ensemble
échantillons et ( xi , yi ) ∈ X × {−1,1} , est
•
•
l’ensemble des étiquettes
L’algorithme d’apprentissage WeakLearner.
T est le nombre des itérations.
•
Initialiser la distribution Dt (i ) = 1
Pour t = 1, 2,....., T :
1. Pour chaque instance faire:
(1 − ε t )
5. Mise à jour de la distribution Dt :
D (i ) ⎧ βt if ht ( xi ) = yi
Dt +1 (i ) = t ×⎨
Z t ⎩1 Sinon
Partitionner X en un bloc séparé ( xM , yM ) .
b.
Pour chaque distribution Dt calculer
(2)
h fin ( x) = arg max
avec
∑
t :ht ( x ) = y
log
1
βt
.
(3)
Les fondateurs de cette méthode, Schapire et Freund, ont
essayé tout au long de leurs travaux d’optimiser l’algorithme
.
a.
Wl j = P(xi ∈ X j , yi = l) =
Avec Zt est un facteur de normalization.
6. L’ hypothèse finale:
m
∑
i:x,eX ,^ yi −1
D(i)
(4)
.
l = ±1
c. Définir l’hypothèse h pour chaque Xj as: ∀x ∈ X , h( x) =
Avec
1 ⎛ W+1j + ε ⎞
ln ⎜
⎟
2 ⎝ W−1j + ε ⎠
ε une petite constante positive.
(5)
e-STA copyright 2011 by see
Volume 8, N°1, pp 53-60
2. Sélectionner e ht:
c.
Zt = min Z
heH
ht = arg min Z
i=1,2…,N puis normaliser
Dt +1 (i ) = Dt (i ) exp [ − yi ht ( xi )]
.
(6)
⎡
⎤
H ( x) = sign ⎢ ∑ ht ( x) − b ⎥
⎣ t −1
⎦.
(7)
avec b est le seuil (par défaut=0).
La fonction de confiance de est définie par :
∑ h ( x) − b
t
(8)
Néanmoins, il a y eu l’apparition des nouvelles versions
d’Adaboost qui leurs performances dépassent souvent Real
Adaboost. Friedman and Al. [11] ont proposé une extension de
cette approche appelée Gentle AdaBoost.
L’approche Gentle Adaboost
Gentle AdaBoost [11] est considérée comme autant une
extension du Real adaboost. Cette approche est plus
performante que Real adaboost étant donné sa stabilité et sa
robustesse quand il s’agit des données bruitées et aux
aberrants [5].
Gentle Adaboost minimise la fonction exponentielle de perte
d’Adaboost en utilisant les étapes de Newton [7].
D’autre part, Gentle Adaboost est une variation de
l’approche Real Adaboost qui stimule la performance de cette
dernière en appliquant une régression par la méthode des
moindres carrées pondérées. . En outre, Gentle Adaboost et
Real adaboost ne normalisent pas l’ensemble des apprenants
pondérés de la même manière, puisque la fonction de
normalisation de Real adaboost est donnée par
Fm(x)=Pw(y=1|x)-Pw(y=-1|x), alors que pour Gentle Adaboost,
la mise à jour de la classe de probabilité pondérée est donnée
par
la
fonction
suivante
:
P ( y = 1| x)
1
[11]. L’algorithme du Gentle
log w
Pw ( y = 1− | x)
2
Adaboost est comme suit [12].
Etant donné:
•
Les poids Wi = 1
i
[ F ( x)] = sign ⎡⎣∑ m=1 f m ( x) ⎤⎦
(9)
E. L’approche Modest Adaboost
T
f m ( x) =
∑W = 1
M
Et normalisation de Dt+1 .
4. L’hypothése finale H :
D.
avec
2. L’hypothèse Finale:
heH
t
← Wi exp [ − yi. f m ( xi )] ,
i
3. Mise à jour de la distribution
Conf x ( x ) =
Définir Wi
, i = 1,.., N et F ( x ) = 0
Modest AdaBoost [5] a été inspire par Vezhnevets et Al en
2005.
Cette variation d’Adaboost vise a amélioré la généralisation
des erreurs pendant la classification. Cette approche tend à
donner des résultats meilleurs que ceux calculés par Gentle
adaboost. Dans ce but, Vezhnevets et Al avaient utilisé une
distribution inversée : w = 1 − w . Cette distribution a permis,
donc, de fournir aux données d’apprentissage correctement
classifiées des poids élevés.
L’algorithme de Modest Adaboost algorithm que
A.Vezhnevets et Al ont proposé est comme suit[5].
Given:
• S= ( x1 , y1 ) ,...., ( xN , yN )
• Initialiser la distribution D0 (i ) = 1
1. Pour
N
.
m = 1, 2,...., M et tant que ∫ ≠ 0 .
m
a. Entraîner l’algorithme d’apprentissage hm ( x) en
utilisant la distribution Dm (i ) par la moindre carrée
pondérée.
b. Calculer la distribution inversée
Dm (i) = (1 − Dm (i)) Z m
(10)
c. Calculer:
Pm+1(x) = PDm ( y =+1∩hm(x))
(11)
−1
m
P ( x) = PDm ( y = −1 ∩ hm ( x))
(12)
−1
m
P ( x) = PDm ( y = −1 ∩ hm ( x))
(13)
−1
m
P ( x) = PDm ( y = −1 ∩ hm ( x))
(14)
d. Définir: +1
−1
N
1. Faire pour m = 1, 2,..., M .
a. Estimer f m ( x) en utilisant les moindres carrées
f m ( x) = ( Pm+1 (1 − Pm ) − Pm−1 (1 − Pm ))( x)
pondérées de y à x.
b. Mise à jour de F ( x) ← F ( x) + f m ( x) .
Dm+1 (i) =
(15)
e. Mise à jour de la distribution:
Dm (i)exp(− yi fm ( xi ))
Zm
2. L’hypothèse finale:
(16)
e-STA copyright 2011 by see
Volume 8, N°1, pp 53-60
⎡i=M
⎤
[ F ( x)] = Sign ⎢∑ fm (x)⎥
⎣ i=1
⎦
(17)
Par conséquent, Modest Adaboost, produit un ensemble
d’erreur de classification plus faible que celui calculé par Real
et Gentle Adaboost. Mais, à partir des résultats de plusieurs
recherches dans ce domaine, nous pouvons constater que
l’erreur d’apprentissage calculée par Modest Adaboost est plus
élevée que celle de Gentle Adaboost.
III. L’ALGORITHME
D’APPRENTISSAGE: Arbre de
classification (CARTs)
Les Algorithmes d’apprentissage sont constitués d’un
ensemble
d’algorithme
qui
consiste
à
stimuler
automatiquement un système donné. Ces algorithmes sont
généralement utilisés pour la reconnaissance des forms et la
prise de décision. Les algorithmes d’apprentissage sont
employés dans des différentes applications telles que la
classification, la détection, l’analyse etc.
D’autre part, Les algorithmes d'apprentissage peuvent se
catégoriser selon le mode d'apprentissage qu'ils emploient:
Apprentissage supervisé, Apprentissage-non-supervisé etc.
Dans cet article, nous nous intéressons uniquement par
l’apprentissage supervisé. De ce fait, nous avons identifié
l’arbre de classification et de régression (CARTs) comme
notre algorithme d’apprentissage.
GML AdaBoost Toolbox implémente l’arbre de
classification et de regression (CARTs) ainsi que les
approaches d’Adaboost précédemment définies [5].
Par ailleurs, CARTs est considéré comme un arbre binaire
({1,-1}) puisque chaque nœud ne peut avoir que deux fils
(figure2). Le principe de l’algorithme de CART s’appuie sur
l’indice de Gini (IG) pour la segmentation de l’arbre qui vise à
construire les feuilles. Il faut, surtout, noter que plus l’indice
de Gini est faible, plus le noeud est pur (tous les éléments du
noeud appartiennent à la même classe). L’arbre de décision et
de régression (CARTs) a été conçu par Leo Breiman [13][14].
X6 >2
Faux
Y=-1
X5 >0
Vrai
Faux
X1 >3
X2 >2.3
Y=-1
Faux
Y=1
Vrai
Y=-1
Fig 2. Exemple d’un CART.
Le principe de cet algorithme consiste à partitionner d’une
manière récursive l’ensemble d’entraînement suivant la
méthode diviser pour mieux régénérer1. En effet, l’algorithme
fait une recherche minutieuse, pour chaque noeud, sur les
attributs et les valeurs de la segmentation puis il sélectionne le
regroupement binaire qui optimise le critère au nœud t [15].
La construction de l’arbre de décision binaire se fait,
essentiellement, en itérant cinq étapes [16]. L’algorithme
relatif s’appelle CART est comme suit:
1. Etablir pour chaque nœud toutes les divisions possibles.
2. Définir un critère de sélection de la meilleure division
d'un nœud.
3. Définir une règle d'arrêt des segmentations de l'arbre afin
de déclarer un nœud comme terminal
4. Affecter une valeur de la variable Y pour ces nœuds
terminaux.
5. Estimer le risque d'erreur de prévision associé à cet arbre.
IV. EXPERIMENTATIONS
A. Corpus de données
Dance ce travail, nous avons utilisé le dialecte DR1 (New
England) du corpus TIMIT[17]. Nous avons choisi pour nos
expérimentations les deux phrases SA1 et SA2 car dans nos
travaux, nous avons procédé à une classification binaire. Il est
important de noter que le dialecte DR1 vise à mettre l’accent
sur la divergence de la prononciation des différents locuteurs
[18][19]. La table I décrit la base de données utilisée pour
notre système de reconnaissance.
Table I.
Système de reconnaissance des phrases (RCP)
Phrase
Locuteurs
Codification
Paramétrisation
SA1
SA2
14F+24M
14F+24M
1
-1
12 MFCC, 12 MFCC+ 12 Delta,
12 MFCC+ 12 Delta+ 12 Delta-Delta
B. Paramétrisation
La première étape de notre système vise à numériser le
signal entrant ce qui nous aboutie, par la suite, à réaliser
l’analyse acoustique du signal de parole sur des fenêtres
temporelles de courte durée. Néanmoins, parmi les types de
paramètres vraiment pertinents et utilisables efficacement,
nous trouvons les paramètres de l’analyse spectrale et
éventuellement les paramètres prosodiques puisqu’ils sont
respectivement corrélés à la forme du conduit vocal et à la
source d’excitation de l’appareil de production de la parole.
Dans ce travail, nous nous intéressons, principalement, aux
paramètres cepstraux de types Mel Mel Frequency Cepstral
(MFCC) et ses dérivées étant donné leurs fréquentes
utilisations dans le domaine de la reconnaissance ainsi que
leurs aptitudes à représenter les caractéristiques d’un signal et
leurs robustesses (Table I).
1
Du latin Divide ut imperes, méthode de conception consistant à diviser un
problème de grande taille en plusieurs sous-problèmes analogues, l‟étape de
subdivision étant appliquée récursivement
e-STA copyright 2011 by see
Volume 8, N°1, pp 53-60
C. Méthode de Décision
• Validation par Base de Test
L’idée de cette méthode est de diviser la base initiale en deux
sous bases ; Une sous base d’apprentissage qui caractérisent
50% des données de base et une sous base de test qui regroupe
les 50% de données restante.
• Validation Croisée
Cette méthode est employée afin de valider un modèle et
estimer l’erreur réelle de ce dernier. Par conséquent, la
technique de la validation croisée, estime la performance de
chaque modèle en se basant sur la partie de données qui n’était
pas utilisée lors de la construction de ce modèle (lors la phase
de l’apprentissage). Les résultats calculés seront, par la suite,
combinés dans le but de donner une estimation de la
généralisation du modèle testé. [23] [24].
Ainsi, nous avons utilisé ces deux méthodes pour la
classification de nos bases de données afin de mieux
comparer, par la suite, la performance de chaque méthode.
Le nombre d’itération a été fixé à T= 100 et nous avons défini
K=5 groupes (folds) pour la méthode de la validation croisée.
0.65
Real AdaBoost
0.6
Taux d"erreur
0.55
0.5
0.45
0.4
0.35
0
10
20
30
40
50
60
Iterations
70
80
90
100
Fig 3. Evolution du taux d’erreur du système de RCP avec validation de la
base de test.
5 Validation croisée
0.45
Real AdaBoost
Taux d"erreur
0.4
0.35
0.3
0.25
0.2
0
10
20
30
40
50
60
Iterations
70
80
90
100
Fig 4. Evolution du taux d’erreur du système de RCP avec validation croisée.
D’après la figure 3, le meilleur taux de reconnaissance est
généré à l’itération 22 de l’ordre de 66,67%. Le meilleur taux
de reconnaissance du deuxième système (figure 4), est observé
à l’itération 30 de l’ordre de 78%.
•
Avec Les Coefficients MFCC et Delta
0.4
Real AdaBoost
0.38
0.36
0.34
Taux d"erreur
Dans les systèmes actuels de reconnaissance les
caractéristiques les plus utilisées sont, soit les paramètres
cepstraux standards, soit des paramètres de type MFCC (Mel
Frequency Cepstral Coefficients) qui sont, normalement,
complétées par leurs paramètres variationnels respectifs qui
caractérisent les variations des paramètres cepstraux dans les
fenêtres proches de la fenêtre à court-terme courante.
Les coefficients MFCCs [20], aussi nommés Mel Frequency
Cepstral Coefficients, sont basés sur une échelle de
perception, non linéaire, appelée Mel. En effet, l’étude des
coefficients MFCC du signal permet d’extraire des
caractéristiques de celui-ci autour de la Transformée de
Fourrier (FFT) et de la Transformée en Cosinus Directe
(DCT), convertis sur une échelle de Mel. Le principal
avantage de cette méthode se réside dans le fait que les
coefficients obtenus sont décorréllés.
D’autre part, l’utilisation des dérivées du premier et du
second ordre des MFCC (les DMFCC et DDMFCC) peuvent
éventuellement améliorer et de renforcer les caractéristiques
du signal vocal par la prise en compte des paramètres
dynamiques: il s’agit de l’évolution temporelle de l’enveloppe
spectrale. [21][22]. Les recherches empiriques prouvent que
l’augmentation du nombre des paramètres améliore,
nettement, la performance des systèmes de reconnaissance.
0.32
0.3
0.28
0.26
0.24
0.22
0.2
0
10
20
30
40
50
60
Iterations
70
80
90
100
Fig 5. Evolution du taux d’erreur du système de RCP avec validation de la
base de test.
5 Validation croisée
0.4
Real AdaBoost
0.38
V. RESULTATS ET DISCUSSION
Taux d"erreur
Dans cette section, nous présentons les résultants de nos
expérimentations selon les deux méthodes de validation. Notre
travail a été réalisé sur Matlab 7.7 release 2008b en utilisant
GML Adaboost Matlab Toolbox [16].
0.36
0.34
0.32
0.3
0.28
0.26
A. Application de l’approche Real Adaboost
•
Avec les Coefficients MFCC
0
10
20
30
40
50
60
Iterations
70
80
90
100
Fig 6. Evolution du taux d’erreur du système de RCP avec validation croisée
e-STA copyright 2011 by see
Volume 8, N°1, pp 53-60
0.4
D’après la figure 5, le meilleur taux de reconnaissance est
obtenu à l’itération 36 de l’ordre de 77,78%. Alors que pour
la deuxième méthode de validation, le meilleur taux de
classification, est observé à l’itération 40 de l’ordre de
73,60%.
•
0.38
0.36
0.34
0.32
Avec Les Coefficients MFCC,Delta et Delta-Delta
0.3
0.45
0
10
20
30
40
50
60
70
80
90
100
Real Adaboost AdaBoost
Fig 10. Evolution du taux d’erreur du système de RCP avec validation croisée
0.4
Taux d"erreur
0.35
D’après la figure 10, le meilleur taux de classification est
observé à l’itération 90 de l’ordre de 73, 66%.
0.3
0.25
0.2
•
Avec Les Coefficients MFCC et Delta
0.15
0.1
0.5
0
10
20
30
40
50
60
Iterations
70
80
90
100
Gentle AdaBoost
0.45
Fig 7. Evolution du taux d’erreur du système de RCP avec validation de la
base de test
0.4
Taux d"erreur
5 Validation croisée
0.35
Real AdaBoost
0.35
0.3
0.3
Taux d"erreur
0.25
0.25
0.2
0
0.2
0
10
20
30
40
50
60
Iterations
70
80
90
30
100
40
50
60
Iterations
70
80
90
100
5 Validation croisée
0.45
Gentle AdaBoost
Fig 8. Evolution du taux d’erreur du système de RCP avec validation croisée
B. Application de l’approche Gentle Adaboost
Avec Les Coefficients MFCC
0.4
Taux d"erreur
Les taux d’erreurs ont nettement diminués (voir figures 7 et 8).
Les meilleurs taux sont observés à l’itération 2 de l’ordre de
88,89% pour le premier test et à l’itération 64 de l’ordre
87,88% pour le deuxième test. Il faut noter que la validation
par base de test avec 36 coefficients (MFCC+Delta+ DeltaDelta) a donné de meilleur résultat. Cependant ce système se
stabilise à partir de l’itération 83 avec un taux d’erreur,
relativement, élevé par rapport à celui du deuxième système.
•
20
Fig 11. Evolution du taux d’erreur du système de RCP avec validation de la
base de test
0.15
0.1
10
0.35
0.3
0.25
0.2
0
10
20
30
40
50
Iterations
60
70
80
90
100
Fig 12. Evolution du taux d’erreur du système de RCP avec validation croisée
D’après les figures 11 et 12, le meilleur taux de
reconnaissance est trouvé avec une validation par la base de
test pour les 24 coefficients (83,33% à l’itération 66).
•
Avec Les Coefficients MFCC, Delta et Delta-Delta
0.3
Gentle AdaBoost
0.28
0.5
Gentle AdaBoost
0.26
0.48
Taux d"erreur
0.24
Taux d"erreur
0.46
0.44
0.22
0.2
0.18
0.16
0.42
0.14
0.4
0.12
0.1
0.38
0.36
0
10
20
30
40
50
60
Iterations
70
80
90
100
Fig 9. Evolution du taux d’erreur du système de RCP avec validation de la
base de test
D’après la figure 9, le meilleur taux de reconnaissance est
généré à l’itération 61 de l’ordre de 63,89%.
0
10
20
30
40
50
60
Iterations
70
80
90
100
Fig 13. Evolution du taux d’erreur du système de RCP avec validation de la
base de test
e-STA copyright 2011 by see
Volume 8, N°1, pp 53-60
5 Validation croisée
0.37
0.4
Modest AdaBoost
0.36
Gentle AdaBoost
0.35
0.35
Taux d"erreur
0.34
Taux d"erreur
0.3
0.33
0.32
0.31
0.25
0.3
0.29
0.2
0.28
0.27
0.15
0.1
0.05
0
10
20
30
40
50
Iterations
60
70
80
90
100
Fig 17. Evolution du taux d’erreur du système de RCP avec validation de la
base de test
0
10
20
30
40
50
60
Iterations
70
80
90
5 Validation croisée
100
0.38
Modest AdaBoost
Fig 14. Evolution du taux d’erreur du système de RCP avec validation croisée
0.36
0.34
C. Application de l’approche Modest Adaboost
•
Avec Les Coefficients MFCC
0.32
Taux d"erreur
D’après les figures 13 et 14, les taux d’erreurs ont nettement
diminués. Les meilleurs taux sont observés à l’itération 5 de
l’ordre de 88,89% pour le premier test et à l’itération 35 de
l’ordre 88,86% pour le deuxième test. Il faut noter qu’avec
une validation de base de test, les taux d’erreur se sont
stabilisés dés la 58éme itérations. Cependant, les meilleurs
résultats sont donnés par la validation croisée pour les 36
coefficients.
0.3
0.28
0.26
0.24
0.22
0.2
0.18
0
10
20
30
40
50
60
Iterations
70
80
90
100
Fig18. Evolution du taux d’erreur du système de RCP avec validation croisée
Nous observons, également pour cette experience, qu’en
appliquant une validation croisée avec 24 coefficients, nous
avons obtenu le meilleur taux de reconnaissance (81, 61%).
0.5
Modest AdaBoost
•
0.48
Avec Les Coefficients MFCC, Delta et Delta-Delta
0.32
0.46
0.28
0.42
0.26
Taux d"erreur
Taux d"erreur
Modest AdaBoost
0.3
0.44
0.4
0.38
0.36
0.24
0.22
0.2
0.18
0
10
20
30
40
50
60
Iterations
70
80
90
100
Fig 15. Evolution du taux d’erreur du système de RCP avec validation de la
base de test
0.16
0.14
0.12
0
10
20
30
40
50
60
Iterations
70
80
90
100
Fig 19. Evolution du taux d’erreur du système de RCP avec validation de la
base de test
5 Validation croisée
0.34
Modest AdaBoost
5 Validation croisée
0.33
0.5
Modest AdaBoost
0.32
0.45
0.4
0.3
0.29
Taux d"erreur
Taux d"erreur
0.31
0.28
0.27
0.26
0.25
0.3
0.25
0.2
0
10
20
30
40
50
60
Iterations
70
80
90
100
Fig 16. Evolution du taux d’erreur du système de RCP avec validation croisée
D’après les figures 15 et 16, nous constatons que les meilleurs
taux de reconnaissance sont trouvés avec une validation
croisée de la base d’apprentissage (74,01% ).
•
0.35
Avec Les Coefficients MFCC et Delta
0.15
0.1
0
10
20
30
40
50
60
Iterations
70
80
90
100
Fig 20. Evolution du taux d’erreur du système de RCP avec validation croisée
D’après les figures 19 et 20, nous observons qu’en premier
test, le système s’est vite stabilisé (dés l’itération 26).
Néanmoins, l’application d’une validation croisée a donné le
meilleur taux de reconnaissance (88, 02%).
D. Etude Comparative
e-STA copyright 2011 by see
Volume 8, N°1, pp 53-60
La validation croisée a donné les meilleurs taux de
classification avec les 36 coefficients qui est de 85,92% pour
l’approche Real Adaboost, 87,61% pour l’approche Gentle
Adaboost et 88,02% pour l’approche de Modest Adaboost. Il
faut noter que la validation par la base de test permet au
système de RCP de se stabilisé plus rapidement qu’avec une
validation croisée. Néanmoins, l’application d’une validation
croisée a donné des meilleurs résultats.
Les tables III et IV résument les taux d’erreur calculés à
l’itération 50 et 90 pour les différents systèmes conçus.
Table III
Taux de reconnaissance du système RCP avec validation de la base de test en
%
T=50
T=90
Remerciements
Nous voulons remercier Dr. V. Vezhnevets et A. Vezhnevets
du Graphics Media Lab of Moscow State University pour leurs
GML AdaBoost Matlab Toolbox and leurs conseils.
REFERENCES
[1]
[2]
[3]
[4]
RAB
GAB
MAB
RAB
GAB
MAB
MFCC
64.34
61.13
61.04
90.41
58.33
58.33
MFCC+Delta
71.87
74.68
69.22
77.78
57
69.44
[6]
MFCC+Delta+Delta
80.56
86.11
86.11
80.56
86.11
86.11
[7]
Table IV
Taux de reconnaissance du système RCP avec validation croisée en %
T=50
T=90
RAB
GAB
MAB
RAB
GAB
MAB
MFCC
RAB
GAB
MAB
69.99
73.66
56.48
MFCC+Delta
74.67
66.15
72.32
75.17
80.36
72.62
MFCC+Delta+Delta
71.43
74.39
81.07
85.92
87.61
88.02%
[5]
[8]
[9]
[10]
[11]
[12]
VI. CONCLUSION
Adaboost est une nouvelle méthode de Boosting
principalement utilisée pour stimuler les performances des
algorithmes d’apprentissage. Depuis son apparition jusqu’à
aujourd’hui, il y a eu la naissance de plusieurs générations.
Pours nos expérimentations, nous avons étudié différentes
méthodes d’Adaboost et nous avons proposé d’évaluer dans ce
travail l’approche Real Adaboost (RAB), l’approche Gentle
Adaboost (GAB) et l’approche Modest Adaboost . Nous avons
mis en œuvre un système de reconnaissance en se basant sur
l’algorithme d’apprentissage CART. En occurrence, cet
algorithme a été fusionné avec les différentes méthodes
d’Adaboost dans le but de réduire les taux d’erreurs de la
reconnaissance.
Nous avons observé, également, que l’approche Modest
Adaboost a généré de meilleures performances suivie par le
système basé sur l’approche Gentle Adaboost et enfin par le
système basé sur l’approche Real Adaboost en appliquant les
coefficients MFCC+Delta+Delta-Delta. Les taux trouvés sont
de l’ordre de 88,02% pour Modest Adaboost, 85,8% pour
Gentle Adaboost et 85% pour Real Adaboost.
[13]
[14]
[15]
[16]
[17]
[18]
[19]
[20]
[21]
[22]
[23]
[24]
Y. Freund and R. E. Schapire,‘‘A decision-theoretic generalization of
on-line learning and an application to boosting,’’ In Second European
Conference on Computational Learning Theory, March 1995.
R. Meir,G. Ratsch,‘An introduction to Boosting and Leveraging,’’,2003.
Y .Freund, RE .Schapire , ‘‘A short introduction to boosting, ’’ In:
Journal of Japanese Society for Artificial Intelligence,1997.
Y. Freund, RE. Schapire, ‘‘ Experiments with a New Boosting
Algorithm, ’’1996.
A.Vezhnevets, V.Vezhnevets, ‘‘Modest AdaBoost – teaching AdaBoost
to generalize better, Graphicon’’, pp.322-325, 2005.
Y.Freund, R. Schapire, ‘‘Experiments with a new boosting algorithm,
International conference on Machine Learning, ’’ pp. 148-156, 1996.
M.Culp, K.Johnson, G. Michailidis, ‘‘ ada: an R Package for Stochastic
Boosting, ’’ 2007.
B. Wu, A .Haizhou, C. Huang and L.Shihong, ‘‘ Fast Rotation Invariant
Multi-View Face Detection Based on Real Adaboost, ’’ 2004.
C. Huang, B.Wu, A .Haizhou and L.Shihong, ‘‘ Omni-Directional Face
Detection Based On Real Adaboost, ’’ 2004.
R. E. Schapire and Y. Singer, “Improved BoostingAlgorithms Using
Confidence-rated Predictions”,Machine Learning, 37, , 297-336, 1999.
J.Friedman, T. Hastie, and R..Tibshirani, ‘‘Additive logistic regression:
a statistical view of boosting, ’’ The Annals of Statistics, 28, 337-374,
2000.
T. Kanade, A.Jain, N.K. Ratha, ‘‘Audio-And Video-Basded Biometric
Person authentification, ’’ 2005.
I.V. Safonov, ‘‘Automatic red eye detection,’’ 2007.
L .Breiman, ‘‘ Arcing classifiers, ’’ Discussion paper, Ann. Statist, 1998.
L. Breiman, ‘‘Random forestsMachine Learning , ’’ J, 2001.
A.Vezhnevets, V.Vezhnevets, ‘‘GML AdaBoost Matlab Toolbox
Manuel, ’’ 2005
J.S. Garofolo, L/F. Lamel, W/M. Fisher, J.G. Fiscus, D.S. Pallett, N.L.
Dahlgren, and V.Zue, ‘‘TIMIT Acoustic-Phonetic Continuous Speech
Corpus, ’’ 1993.
S. Zribi Boujelbene, D. Ben Ayed Mezghani, N. Ellouze, ‘‘ Improved
Feature Data for Robust Speaker Identification using Hybrid Gaussian
Mixture Models - Sequential Minimal Optimization System,’’
International Review on Computers and Software (I.RE.CO.S.), Vol. 4,
N.3, May 2009.
S. Zribi Boujelbene, D. Ben Ayed Mezghani, N. Ellouze, ‘‘Support
Vector Machines Approaches and its Application to Speaker
Identification,’’ 2008.
S.B. Davis and P.Mermelstein, “Comparison of parametric
representations for monosyllabic word recognition in continuously
spoken sentences,” IEEETrans. Acoust., Speech, Signal Processing, vol.
28(4),pp. 357–366, 1980.
F. D. Cilliers, ‘‘Tree-based Gaussian Mixture Models for Speaker
Verification, ’’ Ph.D. Thesis, Department of Electrical and Electronic
Engineering, University of Stellenbosch, South Africa, 2005.
A.Kawtrakul, A.DeemagarnThai Connected Digit Speech Recognition
Using Hidden Markov Models, ’’ Russia,2004.
R.Kohavi , ‘‘ A study of cross-validation and bootstrap for accuracy
estimation and model selection, ’’ Proceedings of the Fourteenth
International Joint Conference on Artificial Intelligence,1995.
J R. Nolan, ‘‘Computer systems that learn: an empirical study of the
effect of noise on the performance of three classification methods, 2002.
Téléchargement