Plan 1. Introduction 2. La chaîne de traitement d'image 3. Seuillage automatique 4. Méthodes de classification 5. Détection de contours 6. Méthodes de type croissance de région Méthodes de classification ● Principe – On dispose de plusieurs attributs par pixels ● exemple : R, V, B, µ, σ local, attributs de texture – Chaque pixel = individu avec attibuts = vecteur – On réalise une classification dans l'espace des attributs ● exemple pour 2 attributs : C2 C1 Exemple avec une image couleur Rouge Image couleur originale Vert Classification supervisée ● Principe – Ensemble d'apprentissage (individus de classe connues) – Découpage de l'espace des attributs – Classification d'individus inconnus Découpage Individu à classer ? C2 Ensemble d'apprentissage C1 Ensemble d'apprentissage Classification non supervisée ● Principe – Pas de classes prédéfinies – Découpage de l'espace selon des critères de proximité – Classification des individus Découpage par proximité Individus à classer 4.1 Nuées dynamiques ● ● K-means ou K-moyennes – Très utilisé – Efficace en grandes dimensions Non supervisée – ● 1 paramètre : nombre de classes Principe – Fixer a priori le centre des classes (tirage aléatoire) – Classer les individus (centre le plus proche) – Recalculer les nouveaux centres (barycentre) – S'arrêter lorsqu'il n'y a plus d'évolution Illustration ● Etat initial Illustration ● Tirage aléatoire des centres Illustration ● Affectation au centre le plus proche Illustration ● Calcul des nouveaux centres Illustration ● Affectation au centre le plus proche Illustration ● Calcul des nouveaux centres Illustration ● Plus d'évolution : fin de l'algorithme Remarques ● Il faut connaître le nombre de classes – ● On peut surévaluer ce nombre Le résultat dépend du tirage des centres – On peut avoir un résultat différent d'une exécution à l'autre – Autres versions de l'algorithme ● ● ● faire plusieurs essais retenir les centres les plus fréquents Maximisation de la variance inter-classe – En 1D donne le même résultat que la méthode de seuillage 4.2 Classification ascendante hiérarchique ● Non supervisé – ● Nombre de classes déterminé automatiquement But – Construire une arborescence ● ● en fonction de la proximité des individus Notations Ensemble des individus Ensemble des parties de E Distance entre parties Construction de l'arbre Départ : chaque point est un ensemble Algorithme : 1. Rechercher les 2 ensembles les plus proches 2. Créer un noeud parent à ces 2 ensembles 3. Pondérer le noeud par la distance 4. Recommencer jusqu'à trouver E Détermination des classes ● On fixe un seuil sur les poids des noeuds F5 F4 S F3 F1 F2 4.3 k plus proches voisins ● ● Méthode supervisée – Ensemble d'apprentissage avec des classes connues – k est une valeur fixée à l'avance (1, 3,...) Principe – Examen des k voisins de l'ensemble d'apprentissage – Affectation de la classe la plus représentée k plus proches voisins k=3 k=5 – k = 3, affectation de la classe triangle – k = 5, affectation de la casse carré Exemple 1 : image couleur Rouge Image couleur originale Vert Segmentation par nuées dynamiques Image couleur originale Image segmentée en 3 classes Exemple 2 : texture Moyenne locale Ecart type local Exemple 2 : texture Moyenne Ecart type Segmentation par nuées dynamiques Conclusion ● ● Avantages – Nombre d'attributs quelconque – Méthode générale – Supervisée ou non-supervisée Inconvénients – Choix des attributs – Sensibilité à des dérives des attributs