(Pr\351sentation PixInfo 7)

publicité
Plan
1. Introduction
2. La chaîne de traitement d'image
3. Seuillage automatique
4. Méthodes de classification
5. Détection de contours
6. Méthodes de type croissance de région
Méthodes de classification
●
Principe
–
On dispose de plusieurs attributs par pixels
●
exemple : R, V, B, µ, σ local, attributs de texture
–
Chaque pixel = individu avec attibuts
= vecteur
–
On réalise une classification dans l'espace des
attributs
●
exemple pour 2 attributs :
C2
C1
Exemple avec une image couleur
Rouge
Image couleur originale
Vert
Classification supervisée
●
Principe
–
Ensemble d'apprentissage (individus de classe
connues)
–
Découpage de l'espace des attributs
–
Classification d'individus inconnus
Découpage
Individu à classer
?
C2
Ensemble
d'apprentissage
C1
Ensemble
d'apprentissage
Classification non supervisée
●
Principe
–
Pas de classes prédéfinies
–
Découpage de l'espace selon des critères de
proximité
–
Classification des individus
Découpage par proximité
Individus à classer
4.1 Nuées dynamiques
●
●
K-means ou K-moyennes
–
Très utilisé
–
Efficace en grandes dimensions
Non supervisée
–
●
1 paramètre : nombre de classes
Principe
–
Fixer a priori le centre des classes (tirage aléatoire)
–
Classer les individus (centre le plus proche)
–
Recalculer les nouveaux centres (barycentre)
–
S'arrêter lorsqu'il n'y a plus d'évolution
Illustration
●
Etat initial
Illustration
●
Tirage aléatoire des centres
Illustration
●
Affectation au centre le plus proche
Illustration
●
Calcul des nouveaux centres
Illustration
●
Affectation au centre le plus proche
Illustration
●
Calcul des nouveaux centres
Illustration
●
Plus d'évolution : fin de l'algorithme
Remarques
●
Il faut connaître le nombre de classes
–
●
On peut surévaluer ce nombre
Le résultat dépend du tirage des centres
–
On peut avoir un résultat différent d'une exécution à
l'autre
–
Autres versions de l'algorithme
●
●
●
faire plusieurs essais
retenir les centres les plus fréquents
Maximisation de la variance inter-classe
–
En 1D donne le même résultat que la méthode de
seuillage
4.2 Classification ascendante
hiérarchique
●
Non supervisé
–
●
Nombre de classes déterminé automatiquement
But
–
Construire une arborescence
●
●
en fonction de la proximité des individus
Notations
Ensemble des individus
Ensemble des parties de E
Distance entre parties
Construction de l'arbre
Départ : chaque point est un ensemble
Algorithme :
1. Rechercher les 2 ensembles les plus proches
2. Créer un noeud parent à ces 2 ensembles
3. Pondérer le noeud par la distance
4. Recommencer jusqu'à trouver E
Détermination des classes
●
On fixe un seuil sur les poids des noeuds
F5
F4
S
F3
F1
F2
4.3 k plus proches voisins
●
●
Méthode supervisée
–
Ensemble d'apprentissage avec des classes
connues
–
k est une valeur fixée à l'avance (1, 3,...)
Principe
–
Examen des k voisins de l'ensemble
d'apprentissage
–
Affectation de la classe la plus représentée
k plus proches voisins
k=3
k=5
–
k = 3, affectation de la classe triangle
–
k = 5, affectation de la casse carré
Exemple 1 : image couleur
Rouge
Image couleur originale
Vert
Segmentation par nuées
dynamiques
Image couleur originale
Image segmentée en 3 classes
Exemple 2 : texture
Moyenne locale
Ecart type local
Exemple 2 : texture
Moyenne
Ecart type
Segmentation par nuées dynamiques
Conclusion
●
●
Avantages
–
Nombre d'attributs quelconque
–
Méthode générale
–
Supervisée ou non-supervisée
Inconvénients
–
Choix des attributs
–
Sensibilité à des dérives des attributs
Téléchargement