Réseaux de Neurones Artificiels

publicité
Les arbres de décision
(decision trees)
Christine Decaestecker, ULB
Marco Saerens, UCL
Arbre de Décision
1
Arbres de Décision
(ou Méthode de Segmentation)
•
Origines:
•
Particularités (de l'I.A. en général):
Ces méthodes ont pris essentiellement leur essor dans le cadre des approches
d'apprentissage automatique (machine learning) en Intelligence Artificielle.
met l'accent sur sur la convivialité et l'intelligibilité (ou la lisibilité) des résultats
=> en classification supervisée: sortie de résultats sous la forme de règles
logiques de classification:
"SI tel ensemble de conditions sur telles variables est satisfait ALORS le cas
appartient à telle classe".
=> résultats plus facilement interprétables et donc exploitables
=> communication plus aisée avec les spécialistes du domaine traité.
•
Ex d'algorithme: ID3 (Inductive Decision Tree) et son successeur C4.5, CART
(Classification and Regression Tree), CHAID (Chi-Square Automatic Interaction
Detection), QUEST (Quick, Unbiased, Efficient Statistical Trees).
Arbre de Décision
2
•
Principes: 2 phases
– Phase 1: construction: sur base d'un ensemble d'apprentissage, processus
récursif de division (souvent binaire) de l’espace des données en sousrégions de + en + pures en terme de classes (estimé sur base d’un critère).
Dans le cas de données numériques 2 approches possibles: séparations
parallèles aux axes versus obliques:
o
o
o
o
o
o
o
o
o
+
+
+
o
o
o
o
+
+
+
+
+
+
o
+
+
+
+
+
+
+
+
o
+
o
+
o
o
o
o
o
o
o
o
o
o
o
o
o
o
o
o
+
+
+
+
+
+
+
+
+
=> décomposition d'un problème de classification en une suite de tests
(imbriqués) portant sur une variable (parallèle aux axes) ou une
combinaison linéaire de plusieurs variables (oblique).
Arbre de Décision
3
=> règles de classifications sous forme d'arbres dont chaque extrémité (encore
appelée "feuille") indique l'appartenance à une classe.
Ex: Arbre sur variables mixtes (X et T catégorielles, Y et Z numériques):
Root
Chaque "nœud" intermédiaire réalise un
test portant sur une variable dont le
résultat indique la branche à suivre dans
l'arbre.
X?
X=x1
Z?
Z < z1
Class 1
Z > z1
Class 2
X=x2
X=x3
Y?
Y < y1
Class 3
T?
Y > y1 T=t 1
Class 2
Class 1
T=t 2
Class 3
Pour classer un nouveau cas: suivre le
chemin partant de la racine (nœud initial)
à une feuille de l'arbre en effectuant les
différents tests à chaque nœud.
=> La classification est réalisée en posant une suite de questions relatives à
certaines propriétés du cas considéré.
Classe allouée à une feuille: déterminée sur base de la classification de l'ens.
d'apprentissage: classe majoritairement représentée parmi les exemples qui
"tombent" dans cette feuille.
Arbre de Décision
4
– Phase 2: élagage ("pruning"): supprimer les branches (parties terminales)
peu représentatives pour garder de bonnes performances prédictives
(généralisation) => nécessité d'un critère pour désigner les branches à
élaguer.
Après élagage, les nouvelles feuilles sont étiquetées sur base de la
distribution des exemples d'apprentissage (classe majoritaire).
Z?
Z < z1
Class 1
Z > z1
Class 2
Root
X?
X?
X=x2
X=x3
Y?
Y < y1
Class 3
X=x1
X=x1
Root
Z?
T?
Y > y1 T=t 1
Class 2
Class 1
T=t 2
Class 3
Z < z1
Class 1
Z > z1
Class 2
X=x2
X=x3
Y?
Class 1
Y < y1
Class 3
Y > y1
Class 2
Arbre de Décision
5
– Arbres parallèles aux axes versus obliques (données numériques)?
Avantages des arbres parallèles:
Désavantages - limitations:
• suite de tests monovariés;
• approximation par "escaliers"
des surfaces de séparation;
• pas de problème de combinaison de
var, d’échelle ... ;
• les critères usuels de sélection de
tests ne tiennent pas compte des
• sélection de variables intégrée;
densités de points dans l’espace
• rapidité;
des données (pour sélectionner
• génération de règles logiques
une variable et sa valeur seuil).
simples de classification.
Arbre de Décision
6
• Phase de construction d'un arbre (parallèle aux axes):
2 étapes à chaque nœud d'un arbre en construction (processus récursif):
1. Production d'une série de tests relatifs à chacune des variables (qualitatives
ou quantitatives):
– pour les variables quantitatives (discrète ou continue): tests
(généralement) binaires: X ≤ ou > seuil (=> seuil à déterminer);
– pour les variables qualitatives (ou déclarées comme telles): chacune des
valeurs possibles est considérée comme une alternative (des sousensembles de valeurs peuvent aussi être considérés).
2. Sélection du meilleur test (au niveau considéré) d'après un certain critère
dont l'objectif est de diminuer le plus possible le mélange des classes
(entropie) au sein de chaque sous-ensemble créé par les différentes
alternatives du test.
Conditions d'arrêt: différentes possibilités (dépendent des algorithmes):
Ex: pourcentage de cas appartenant à la classe majoritaire > seuil, ou
nbre de cas dans une feuille < seuil, ou combinaison des 2, ...
Arbre de Décision
7
Objectif général: générer une séquence hiérarchique de tests, aussi courte que
possible, qui divise successivement l'ensemble des données d'apprentissage en
sous-ensembles disjoints, tels que des sous-groupes de cas appartenant à la
même classe soient rapidement détectés.
=> stratégie de "diviser-pour-régner" ("recursive partioning").
=> le critère de sélection (étape 2) est souvent basé sur la théorie de
l'information, et notamment sur la notion d'entropie (mesure de l'hétérogénéité
d'un mélange).
Ex: critère du "Gain d'entropie" ou "Information mutuelle" (ID3, C4.5)
– Soit un ensemble E d'exemples divisés en q classes ω1, ..., ωk, ..., ωq.
L'entropie de la distribution des classes = quantité moyenne d'information
(ici en bits => log2) nécessaire pour identifier la classe d'un exemple de E:
H ( E ) = −∑ P(ωk ) log 2 (P(ωk ) )
k
où P(ωk) est la probabilité a priori de la classe ωk
– Soit un test T (portant sur une variable X) ayant m alternatives possibles qui
divisent E en m sous-ensembles Ej, caractérisé par une entropie H(Ej).
Arbre de Décision
8
– L'entropie de la partition résultante, c'est-à-dire l'entropie conditionnelle de
E étant donné T, est définie comme l'entropie moyenne des sous-ensembles:
H ( E T ) = ∑ P( E j ) H ( E j )
j
– Le gain d'information apporté par le test T est donc:
Gain(E, T) = H(E) – H(E | T)
En pratique, les probabilités a priori sont estimées par les fréquences relatives
calculées sur l'ensemble d'apprentissage.
Propriétés:
– Gain(E, T) est maximum ⇔ H(E | T) est minimum
⇔ T minimise (en moyenne) le mélange des classes au sein des Ej.
– Gain(E, T) ≈ 0 si T apporte peu d'information sur la classe (ex: une variable
qualitative indépendante de la classe) au nœud considéré.
– Gain(E, T) est biaisé en faveur des tests ayant un grand nombre m
d'alternatives.
=> Biais à rectifier => critère du Rapport des Gains
Arbre de Décision
9
Rapport des Gains:
R_Gain(T) = Gain(E, T) / H(T)
avec H (T ) = − ∑ P ( E j ) log 2 (P ( E j ) )
j
=> H(T) = information potentielle générée en divisant un ensemble E en m sousensembles Ej.
=> R_Gain = proportion d'information générée par T et utile pour la classification.
Autre biais: H(T) est maximum si la distribution est équirépartie (P(Ej) égaux) et
diminue en fonction du déséquilibre => diviser par H(T) favorise les partitions de
E ayant un fort déséquilibre de la répartition des cas entre les Ej.
Rectification: contrainte supplémentaire sur le Gain:
A chaque nœud, choisir le test T qui maximise R_Gain parmi ceux dont le Gain
est suffisamment grand, c-à-d > Gain_moyen (calculé sur tous les tests examinés).
Problèmes évités si on se limite aux tests binaires !
N.B.: Il existe de nombreux critères basés sur différentes mesures caractérisant l'efficacité
d'un test T, dont notamment des mesures d'association entre variables qualitatives (ex:
mesure χ2, Gini index, …). Des études ont montré l'absence de différences significatives
quant à la qualité des arbres construits suivant différents critères (ils ont tous leur points
forts et leurs points faibles).
Arbre de Décision
10
Cas des variables quantitatives:
Pour chaque variable quantitative X, toute valeur observée xi donne lieu à un
test binaire: "X < xi ?"
Propriété:
Les critères convexes (tels que le gain d'entropie) sélectionnent toujours des
valeurs "seuil" situées à la frontière entre deux classes, c'est-à-dire entre deux
valeurs consécutives observées par des exemples de classes différentes.
=> diminution du nombre de seuils à tester pour une variable continue.
Biais:
Considération de la frontière inter-classe au sens strict.
=> Forte sensibilité à tout ce qui peut altérer les frontières apparentes entre les
classes (variation de l'ensemble d'apprentissage, bruit dans les données, et
erreurs sur l'attribution des classes)
=> Problème de variance des performances.
Arbre de Décision
11
Illustration de la problématique:
+++ +
+
+ ++ +
+ + +
Y
A
+++ +
+
+ ++
° + ++
b
B
b
° °
°° ° °
° °°°
°° °
°
a
° °
°° ° °
° °°
° °° °
°
X
a'
X
A: 2 tests (X < a) et (Y < b) jugés équivalents par un critère d'information pour séparer les 2
classes en présence (séparation parfaite).
B: Si altérations de la frontière inter-classes (par un cas "hors norme" ou outliers, ou
erreur sur la classe) => le test sur X en a' sera avantagé par une mesure d'information.
En A et B: le test sur Y apparaît préférable (vu la distance séparant les deux classes) =>
plus grande robustesse vis-à-vis des altérations de la frontière apparente inter-classes (cf B).
MAIS: pas d'influence si 1 ou 2 exceptions au sein d'une zone occupée par des cas d'une
même classe (grâce à l'élagage).
=> sensibilité au "bruit" uniquement aux frontières inter-classes.
Arbre de Décision
12
Cause essentielle de la problématique:
Les critères (classiques) de sélection des tests opèrent par comptage (approche
fréquentielle) des éléments de chaque classe au sein des différentes branches
générées par un test.
=> Ils ne tiennent pas compte de la distance (ou proximité) à une valeur seuil,
ou de la densité des observations.
Autres approches:
• Critère mixte supervisé/non-supervisé (Van de Merckt, 1993):
combinaison d'un critère de clustering avec le critère d'entropie.
• Méthode "Quest" (Loh and Shih, 1997)
1. Utilisation d'un test statistique (ANOVA) pour le choix de la variable
la plus discriminante: X*.
2. Si plus de 2 classes, regroupement en 2 "super-classes"par une
méthode de clustering (pour rester dans le cas binaire).
3. Détermination de la valeur seuil par analyse discriminante quadratique
(sur la entre les 2 super-classes.
Arbre de Décision
13
•
Phase d'élagage d'un arbre ("pruning") :
Objectif: supprimer les parties de l'arbre qui ne semblent pas performantes pour
prédire la classe de nouveaux cas
=> remplacées par un nœud terminal (associé à la classe majoritaire).
Processus: généralement de type "bottom-up" (du bas vers le haut: des
extrémités vers la racine), basé sur une estimation du taux d'erreur de
classification: un arbre est élagué à un certain nœud si le taux d'erreur estimé à
ce nœud (en y allouant la classe majoritaire) est inférieur au taux d'erreur
obtenu en considérant les sous-arbres terminaux.
Classe A
Classe C
T2
T3
Classe B
T1
Classe C
T5
T6
classe majoritaire = B
Classe B
Classe A
Classe C
3 branches élaguées:
taux d'erreur (estimé) en T6 < taux
d'erreur (estimé) obtenus en
considérant les 3 feuilles.
Arbre de Décision
14
=> élagages successifs (au départ des extrémités) jusqu'à ce que tous les sousarbres restants satisfassent la condition sur les taux d'erreur de classification.
Différentes façons d'estimer l'erreur (dépendant des algorithmes):
– sur base de nouveaux exemples disponibles;
– via une validation croisée (cf. précédemment);
– sur base d'une estimation statistique, ex: borne supérieure d'un intervalle de
confiance construit sur un modèle binomial (C4.5) => estimation pessimiste
de l'erreur (sur l'ensemble d'apprentissage);
– ...
Résultats expérimentaux:
– indispensable pour garantir de bonnes performances;
– interprétation plus aisée des règles de classification.
Arbre de Décision
15
•
Production de règles de classification et autre processus d'élagage
Règle (aspect général) :
"SI ... (partie conditionnelle) ... ALORS ... (partie conclusive) ...".
Production d'un système de règles de classification à partir d'un arbre:
via l'ensemble des chemins partant de la racine de l'arbre à chacune des feuilles.
Chaque chemin = une règle:
– partie conditionnelle = conjonction ("ET" logique) des tests rencontrés,
– partie conclusive = classe associée à la feuille de l'arbre.
Propriétés du système initial: (comme l'arbre) exhaustivité (couvre toutes les
possibilités) et exclusivité mutuelle des règles (=> assure une partition de
l'espace).
Phase de simplification (élagage): (basée sur le gain en taux d'erreur)
– élimination de certains tests de la partie conditionnelle d'une règle,
– élimination d'une règle entière.
=> Autre technique d'élagage plus souple: n'importe quel test de la partie
conditionnelle peut être supprimé directement (libéré du principe "bottom up").
Arbre de Décision
16
Conséquences de la simplification:
Perte possible des propriétés d'exhaustivité et d'exclusivité.
=> Ordonnancement des règles finales suivant un ordre de priorité (défini
suivant le taux d'erreur estimé):
=> Système final ordonné où la première règle qui couvre un cas (partie
conditionnelle satisfaite) est alors choisie comme opérationnelle:
SI "règle 1"
SINON "règle 2"
SINON "règle 3"
...
SINON classe par défaut (la plus fréquemment observée parmi les cas
d'apprentissage non couverts par les règles précédentes).
Arbre de Décision
17
•
Avantages et désavantages des arbres de décision (parallèles)
Avantages: (cf. précédemment)
1. prise en compte simultanée de variables qualitatives et quantitatives
(discrètes ou continues);
2. pas d'hypothèse au sujet des données (modèle non-paramétrique);
3. non affecté par les problèmes d'échelles de mesure des variables
quantitatives (pas de combinaison arithmétique des variables) et détermine
des seuils discriminants pour ces dernières;
4. sélection des variables les plus informatives (en tenant compte d'
interactions locales);
5. peu d'influence des données erronées, SAUF aux frontières inter-classes;
6. algorithmes très rapides en phase de construction des arbres et lors de la
classification de nouveaux cas (1 seul chemin est parcouru);
7. règles logiques de classification aisément interprétables
=> extraction de connaissances explicites d'un ens. de données
(= "data mining")
=> meilleure compréhension du problème étudié.
Arbre de Décision
18
Limitations:
1. Traitement des variables numériques (cf. précédemment): génération des
tests (choix des seuils) ne tient pas compte des propriétés de densité
(proximité) des valeurs.
=> Nouveaux développements avec de nouveaux critères de sélection pour
les variables numériques.
2. Algorithmes séquentiels sans remise en cause des étapes précédentes (d'où
rapidité), un peu assoupli dans la production de systèmes de règles.
3. Instabilité: sensibles aux variations (même assez faibles) de l'ensemble
d'apprentissage en termes d'exemples, des variables considérées;
=> variations dans les arbres produits (variables sélectionnées, seuils des
variables numériques, structure de l'arbre, ...) et de leurs performances.
Limitations similaires aux algorithmes de sélection de variables stepwise:
Algorithmes rapides mais n'investiguant qu'un nombre restreint de possibilités à
chaque étape, sans remise en cause des choix précédents!
=> Une petite variation dans les données peut entraîner un choix différent à un
certain niveau => sous-arbres différents => Quel est l'arbre optimal ?
(peut remettre en cause l'aspect "extraction des connaissances" !)
Arbre de Décision
19
Problème d'instabilité et possibles remédiations:
– Discrétisation des variables numériques: "prédécoupage" non-supervisé des
intervalles de variation des variables numériques => variable ordinale.
– Présélection de variables stables: analyse des différents arbres produits lors
d'une validation croisée => identification d'un sous-ensemble de variables
reprises régulièrement dans les arbres (> 50%) => construction d'un arbre sur
cette base (+ stable, généralement + performant, et plus sûr du point de vue
"data mining").
Discrétisation d'une variable continue
par une méthode de clustering
Value 1
Value 2
Analyse de la stabilité de la sélection des variables.
Stability
of continuous
lors d'une
validation
croiséefeatures
en 20 blocs
20
Value 3
16
Frequency on 20 tests
8
6
4
2
12
8
4
0
0
1800 2000 2200 2400 2600 2800 3000 3200 3400 3600 3800
P1
P7
SDP1
SDP3
P2
SDP6
SDP10
SDP4
SDP12
%5C
%3C
%4C
P10
P3
P9
%H2C
P8
P4
P6
P11
SDP3
SDP8
SDP14
SDP15
10
cumulative count
•
|_________________|
stable
Features
Arbre de Décision
20
– Combinaison de plusieurs arbres: utilisation de la nature instable pour
produire des modèles différents à combiner.
Principes:
• produire de variations en "appauvrissant" les données au niveau:
– de l'ensemble d'apprentissage (via validation croisée ou
bootstrapping),
– des variables soumises à l'algorithme (sélection aléatoire de
différents sous-ensembles de variables de taille fixée);
• produire un grand nombre de classificateurs (arbres) appauvris ("weak
classifiers") sur les différents ensemble de données ainsi produits
(visions partielles et différentes des données);
• combiner les décisions des différents classificateurs (vote ou méthode
plus sophistiquée).
Résultats: performances supérieures et stables.
MAIS: perte de l'intelligibilité des règles de classification générées!
Arbre de Décision
21
Ex:
Construction stage:
size
weight
1
2
2
3
3
1
3
1
1
3
1
1
case1
case2
case3
case4
case5
case6
case7
case8
case9
case10
case11
case12
366
819
660
673
865
141
814
213
187
447
146
754
color
red
green
red
blue
yellow
orange
red
green
green
blue
orange
yellow
width
speed
1
1
3
1
2
1
3
1
1
1
2
1
Class
63
57
83
17
89
10
46
83
24
35
95
95
1
2
3
2
2
3
1
1
3
2
1
2
Bootstrapping + Random feature selection
weight
case9
case2
case3
case12
case5
case2
case7
case8
case9
case2
case11
case12
187
819
660
754
865
819
814
213
187
819
146
754
color
green
green
red
yellow
yellow
green
red
green
green
green
orange
yellow
width
Weak
Decision
Tree
Class
1
1
3
1
2
1
3
1
1
1
2
1
size
3
2
3
2
2
2
1
1
3
2
1
2
case1
case10
case6
case4
case5
case6
case1
case10
case9
case10
case11
case12
width
1
3
1
3
3
1
1
3
1
3
1
1
speed
1
1
1
1
2
1
1
1
1
1
2
1
Weak
Decision
Tree
Class
63
35
10
17
89
10
63
35
24
35
95
95
size
1
2
3
2
2
3
1
2
3
2
1
2
case2
case2
case9
case4
case5
case6
case7
case8
case9
case10
case11
case5
weight
2
2
1
3
3
1
3
1
1
3
1
3
819
819
187
673
865
141
814
213
187
447
146
865
color
green
green
green
blue
yellow
orange
red
green
green
blue
orange
yellow
Class
2
2
3
2
2
3
1
1
3
2
1
2
Weak
Decision
Tree
Arbre de Décision
22
Classification stage:
size
new case
weight
1
color
366 red
width
speed
1
63
Class
?
Weak
Decision
Tree
Weak
Decision
Tree
Weak
Decision
Tree
Class
Class
Class
Majority vote
(or other combination rule)
Arbre de Décision
23
•
Arbre de régression (méthode CART)
=> Variable à expliquer (Y ) numérique (continue ou discrète).
– Principe: déterminer (par segmentation récursive) dans l'espace des
variables descriptives (indépendantes) Xj des régions où la valeur de Y est
homogène (variance faible).
=> Dans chacune de ces régions Ri, une bonne valeur prédictive de Y est sa
moyenne (calculée sur l'ensemble d'apprentissage), et une évaluation de
l'erreur est donnée par la variance (calculée sur l'ensemble d'apprentissage)
(cf. notions de régression):
yˆ = E (Y x j ∈ Ri ) =
1
# Ri
erreur quadratique = sY2 x ∈R =
j
i
∑y
j
et
j x j ∈Ri
1
# Ri
2
ˆ
(
y
−
y
)
∑ j
j x j ∈Ri
Dans le cas de variables Xj numériques, possibilité (comme en
classification) de construire des arbres parallèles ou obliques (par
combinaisons linéaires des Xj) aux axes.
Arbre de Décision
24
– Construction d'un arbre de régression:
Même processus que pour la classification, mais avec un critère de sélection
basé sur la variance résiduelle de Y dans les segments descendants (qui doit
être plus faible que dans le nœud précédant).
Soit un ensensemble d'apprentissage E
(d'effectif N) séparé en 2 sous-ensembles E1
et E2 par un test sur une variable Xj.
2
s
Variance de Y dans E = Y E
E (N)
Xj < a
E1 (N1)
Xj > a
E2 (N2)
Variance résiduelle après division de E:
N1
N
2
Y E1
s
+
N2
N
sY2 E2
=> choix du test qui produit le minimum de variance résiduelle !
Arrêt de la construction lorsque plus (ou peu) de diminution de variance.
Valeur de Y associée à un nœud = valeur moyenne de Y dans ce nœud (sur
base des données d'apprentissage) => E (Y Ei ) .
Arbre de Décision
25
– Mesure d'erreur:
Chaque feuille de l'arbre concerne un sous-ens. de données Fi (d'effectif Ni)
2
s
=> erreur quadratique par feuille = Y Fi
Erreur totale associée à un arbre: C =
1
∑
N
i
2
N i sY F
i
(avec N = ∑ N i )
i
C = mesure d'adéquation ("fitting") du modèle aux données d'apprentissage.
2
=> C sY = % de variance totale non-expliquée par le modèle.
=> Equivalent à l'expression (1 – R2) de la régression linéaire multiple.
– Elagage de l'arbre: comme en classification sur base d'une estimation de
l'erreur en prédiction (sur base d'un ensemble test indépendant, via
validation croisée ou autre estimation de l'erreur ...).
Arbre de Décision
26
Applications Biomédicales
•
Aide au diagnostic en pathologie
patient
bilan
clinique
tumeur
critères histologiques:
- perte de différenciation
- invasion
chirurgie
DIAGNOSTIC
(pathologistes)
traitement
adjuvant
Amélioration du diagnostic
critères cytologiques:
- taille des noyaux
- mitoses
- plages d’hyperchromatisme
autres …
Adéquation du traitement
Augmentation de la survie
Arbre de Décision
27
•
Caractéristiques des données réelles biomédicales:
– Hétérogénéité des variables descriptives (indépendantes):
• cliniques (ex: sexe et âge du patient, suivi, …),
• radiologiques (ex: localisation, prise de contraste, aspect invasif, …)
• morphologiques (ex: organisation/pattern cellulaire caractéristique,
aspect/taille des noyaux cellulaires, … )
• immunohistologiques (expression de protéine/antigène …),
• …
=> mélange de variables catégorielles, ordinales et numériques
– Limitations du nombre de cas (parfois/souvent) par rapport au nombre de de
variables descriptives.
=> Sélection de variables indispensables.
– Classification: diagnostic (ex: normal, inflammatoire, prénéoplasique, cancer)
hétérogénéité interne des classes, déséquilibre des distributions, possibles
erreurs de classification.
Arbre de Décision
28
•
Double objectif:
– Aide au diagnostic: règles de classification performantes
– Extraction de connaissance:
• information quant à la pertinence des variables descriptives
=> sélection de marqueurs
• interprétation des règles de classification
=> meilleur compréhension de la pathologie
• détection de sous-groupes (au sein d'une même classe) avec des
caractéristiques différentes, de cas atypiques
=> à confronter au suivi clinique, réponse au traitement …
Arbre de Décision
29
•
Avantages des arbres de décision (monothétiques):
– nature des données libre (type de variable, de mesure)
– sélection de variables intégrée,
– règles logiques explicites
•
Désavantages et aménagements
– problèmes d'instabilité (en particulier si nombre de cas restreint)
– traitement des variables numériques
=> Adaptation des méthodes de sélection des tests monovariés basés sur
des variables numériques + étude de stabilité
Arbre de Décision
30
•
Ex1: détection de cas atypiques dans les tumeurs de la vessie:
– Données:
• classification en 3 grades de malignité:
I (bon pronostic), II (intermédiaire), III (mauvais pronostic)
• description des cas par une trentaine de variables quantitatives (obtenues
par analyse d'image) morphologiques et "contenu global en ADN"
– Détection de cas atypique par analyse de la structure de l'arbre:
• Principe:
Classe
A
T2
Classe
C
T3
Classe
B
T1
Classe
C
simplicité
structurelle
⇓
Cas standards
T5
T10
T6
T9
T8
complexité
structurelle
⇓
Cas atypiques
Arbre de Décision
31
• Applications aux 2 classes extrêmes I et III (diagnostics plus sûrs)
• Arbre généré sur les cas typiques I et III et utilisé pour reclasser les
grades II:
%HYPER4C < 1 : TYP-I (122.0)
%HYPER4C > 1 :
%HYPER2C > 1 : TYP-III (13.0)
%HYPER2C < 1 :
%HYPER4C < 2 : TYP-I (12.0)
%HYPER4C > 2 : TYP-III (5.0)
Classification des grades II:
TYP-I TYP-III
105
19
grade II
II_like_I II_like_III
Distribution des mauvais pronostics (aggravation ou mort):
ATYP-I (0%) ---> TYP-I (4%) ---> II_like_I (9%) ---> II_like_III (13%)
--->TYP-III (19%) ---> ATYP-III (23%).
Arbre de Décision
32
•
Ex 2: Nodules thyroïdiens
Détection de groupes à risque basée sur
un diagnostic cytologique (biopsies) et 10 variables cliniques
Arbre de Décision
33
•
Ex 3: Analyse d’images de lésions cutanées pigmentées:
(en collaboration avec le Laboratoire des Systèmes Logiques et Numériques, Dir: P. Van Ham).
– Méthode: Classification de pixels
• Base de données de + 2500 pixels décrits par 164 variables (paramètres
stat., texture, symétrie, …) calculées localement sur les 3 plans R, G, B.
– Objectifs:
• segmentation lésion/peau
• détection de patterns à valeur diagnostique.
– Résultats valables (et rapides) avec:
• arbre de décision sur 6 variables stables
• performances comparables (voire supérieures) à un réseau de neurones
(MLP)
Arbre de Décision
34
Cross-validation (sur la base de données de pixels individuels):
DIF_PIG DARK_GL GB_VEIL
OTHER
%correct
399
21
6
14
91
DARK_GL
8
155
1
35
78
GB_VEIL
2
2
64
8
84
16
47
10
232
76
DIF_PIG
OTHER
Total
83
Validation sur des zones d’images:
DIF_PIG DARK_GL
DIF_PIG
DARK_GL
GB_VEIL
OTHER
Total
GB_VEIL OTHER
%correct
14177
2375
244
1097
79
510
2763
425
1086
58
1656
86
5912
92
76
128
1409
204
2428
58
73
Arbre de Décision
35
Arbre de Décision
36
Téléchargement