Vision Par Ordinateur James L. Crowley DEA IVR Premier Bimestre 2000/2001 Séance 4 : 9 novembre 2000 Plan de la séance : Description et Reconnaissances des Images Méthodes Statistique de la Reconnaissance de formes....2 Caractéristiques d'une forme ("Features")..............................3 Les moments d'une forme. ...................................................4 Variables Aléatoires............................................7 L'Histogramme et la densité de probabilité.............................8 L'Espérance d'une variable aléatoire .....................................9 Description et Reconnaissance des Images Séance 4 Méthodes Statistique de la Reconnaissance de formes Reconnaissance : Processus par lequel une représentation mentale actuelle est reconnue comme trace du passée (petit robert). Reconnaissance : Association d’une observation à une connaissance. Sortes de Reconnaissance : Identification : Déterminer qu’on observation, Y, est une manifestation de l’individu, “I” préalablement connu. Classification : Déterminer que l’observation, Y, est une manifestation d’un membre de la classe, “K”. Dans les deux cas, les individus ou les classes sont caractérisés par un vecteur de propriétés. La reconnaissance se résume en une comparaison des propriétés. La difficulté principale est de déterminer des propriétés discriminantes. Comment définir une classe ? Par extension : fournir une liste des membres Par intention : définir une conjonction des prédicats. (Un prédicat est une fonction pour laquelle le domaine est {vrai, faux}. Les prédicats définint une “Test d’appartenance” à un vecteur de propriétés. Les prédicats sont définis par un vecteur de caractéristiques. 4-2 Description et Reconnaissance des Images Séance 4 Caractéristiques d'une forme ("Features") Caractéristique : une propriété qui caractérise une classe ou un individu. (en anglais : “feature”). Un "objet" dans le monde est répresenté par un vecteur de caractéristiques → X = { x1, x 2 ... xn}. Les caractéristiques sont observées au travers des capteurs. Ceci donne une observation → Y = { y1, y 2 ... yn}. Les observations sont corrompues par du bruit, B. → Y= → → X+B Le bruit est, par definition, imprevisible. Il est aléatoire. → On ne peut pas connaitre les vraies valeurs d'X . → On peut les estimer par une ensemble d'observation {Y n }. → → → → Si le bruit est independent, des observations, E{X + B } = E{X } + E{ B } Dans ce cas, on peut estimer → → → → → ^ = E{Y X } = E{X + B } = E{X } + E{ B } → Si on suppose que le moyenne (ou espérance)du bruit est null E{B } = 0 → → → → → → ^ = E{Y X } = E{X + B } = E{X } + E{B } = E{X } La teste d’identification ou d’appartenance est une mesure de distance entre vecteur de caractéristique. Les techniques de reconnaissance de formes statistiques fournissent une méthode pour induire des tests d'appartenance à partir d'un ensemble d'observations. 4-3 Description et Reconnaissance des Images Séance 4 Les moments d'une forme. Les moments sont une famille de caractéristiques très pratiques. En outre, ils sont invariants aux transformations affine. Soit une image dans laquelle les pixels représente la probabilité d'un objet. (À titre d'exemple, la probabilité de peau vue en séance 3). Le moment d'ordre "zero" est l'intensité de la forme. Il s'agit de la somme des pixels Pour une image w(i, j)de taille N x M M N Somme des Pixels : S= ∑ ∑ w(i, j) i=0 j=0 Le premier moment est le centre de gravité. Il indique la position de la forme dans l'image. Premiers moments : 1 M N µi = S ∑ ∑ w(i, j) . i i=0 j=0 1 µj = S M N ∑ ∑ w(i, j) . j i=0 j=0 Les deuxièmes moments décrits la taille, l'élongation et l'orientation. Deuxième moments : M N 1 σi2 = S ∑ ∑ (w(i, j)) . (i–µi)2 i=0 j=0 1 σj2 = S M N ∑ ∑ w(i, j) . (j–µj)2 i=0 j=0 4-4 Description et Reconnaissance des Images 1 σij = σji2= S Co M N ∑ ∑ w(i, Séance 4 j) . (i–µi)(j–µj) i=0 j=0 σi2 σij σij σj2 Les axes majeurs, λ1 et mineur, λ2, de la matrice C sont invariants. Ils sont obtenus par analyse des composantes principales de C λ2 λ1 Il s'agit de trouver une rotation, R dans l'image R CP R = Telles que soit diagonale. λ1 0 0 λ 2 R CP R = tel que λ1 > λ2 λ1 0 0 λ 2 R CP R R = R CP R Cos(θ) Sin(θ) R = –Sin(θ) Cos(θ) 1 0 R R = I = 0 1 λ1 0 Cos(θ) Sin(θ) 0 λ –Sin(θ) Cos(θ) 2 Les lignes du R sont des vecteurs propres du C. La longueur des axes majeurs, λ1, et mineur > λ2 sont les valeurs propres de la matrice C. θ est l'orientation de l'axe "majeur" et l'élongation est la rappport λ1 / λ2 λ1 / λ2 est une caractéristique invariante de la taille et de l'orientation. 4-5 Description et Reconnaissance des Images Séance 4 Par exemple : Supposons que nous voudrions apprendre à discriminer deux classes d'objets définis par "extension" (par une liste d’exemples). Classe A: les rectangles carrés, Classe B : les rectangles non-carrés Classe A Classe B : W W L L Ces caractéristiques définissent un espace de caractéristiques ("Feature Space") λ2 Largeur A B Longueur λ1 Mais d'où viennent les variations ? Le BRUIT d'observation. Les caractériques sont corrompus par le bruit. Le bruit est une variable aléatoire. X obs = X true + B Le bruit, B, est une variable aléatoire 4-6 Description et Reconnaissance des Images Séance 4 Variables Aléatoires Les perceptions ne sont jamais parfaitement précises. Les observations sont limitées en précision. Chaque observation est asujettie à des erreurs. Conséquence : 1)Chaque mesure perceptive doit être accompagné par une estimation de sa précision. 2)Il nous faut les outils mathématiques de représentation et manipulation de la précision. Ces outils sont fournis par les statistiques et la probabilité. Une variable aléatoire, x, est une variable dont les valeurs sont imprévisibles. Les variables aléatoires sont décrites par leurs propriétés statistiques. Soit une variable aléatoire, x, on peut observer une population de N échantillons de x, {xn} pour 0 ≤ n < N. Exemples : les notes des étudiants dans un cours. La note de chaque individu est imprévisible (donc aléatoire). On peut décrire une population des notes par leurs propriétés statistiques. Par exemple, on peut calculer la moyenne des notes. La moyenne d'une population {xn} de n échantillons peut être calculé par 1 N-1 ^ x = N ∑ xn n=0 Ici on a calculé la moyenne "a posteriori" d'une population. Pour l'année suivante, on peut prédire que la "moyenne" des notes sera la même. Dans ce cas, on utilise la moyenne précédente comme une estimation "a priori". On peut mesurer une autre caractéristique d'une population d'échantillons : par exemple, on peut mesurer sa densité de probabilité. 4-7 Description et Reconnaissance des Images Séance 4 L'Histogramme et la densité de probabilité L'histogramme, h(x) d'une population d'échantillons {xn} des valeurs discrète est le nombre de fois que chaque valeur est observée dans la population. Par exemple, ici l'histogramme des notes finales obtenues dans le cours vision par ordinateur pour l'année scolaire 93/94. 6 5 4 3 2 1 0 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 On peut convertir l'histogramme en densité de probabilité par une normalisation. Il s'agit de diviser par le nombre d'échantillons en sorte que la somme des valeurs de l'histogramme soit 1.0. Probabilité de chaque valeur possible de x : p(x)= 1 Lim { N h(x)} N→ ∞ La densité des probabilités mesurée pour une population, fournit une densité de probabilité "A posteriori". Si les propriétés statistiques ne changent pas, on peut prendre la densité "a posteriori" d'une population comme une approximation "a priori" d'une autre. Une distribution de probabilités (l'intégrale d'une densité)est définie par la probabilité que v (paramètre)soit infieure ou égale à x (variable aléatoire) P(v)= p(v ≤ x) = x ∑ p(v) v=0 4-8 Description et Reconnaissance des Images Séance 4 L'Espérance d'une variable aléatoire Soit une variable aléatoire x avec fonction de densité de probabilité p(x). L'espérance d'une population d'échantillons {xn} de x est sa moyenne : x^ 1 N-1 E{x} = N ∑ x n n=0 La moyenne d'une population {xn} de N échantillons de x est définie par l'Espérance E{x}. Les probabilités sont les masses ! (ou plutôt, la masse est une propriété probabiliste de la matière). La moyenne est le premier moment de la densité de probabilité. Elle peut également être calculé par : X max µ x E{x} = ∑ x p(x=x) = x=0 ou p(x)est la densité de probabilité de x, et h(x)est un histogramme de valeurs de x. x^ X max h(x) ∑x N x=0 Commet-on une erreur si on remplace une variable aléatoire, x par sa moyenne ? oui. e = x – x^ = x – µx Mais cette erreur, e, est elle aussi une variable aléatoire. Donc on peut calculer son espérance. Mais afin que les erreurs positives et négatives ne s'annulent pas, on utilise le carré de l'erreur. La variance, σ2, d'une variable aléatoire, x, est l'espérance du carré de l'écart entre les échantillons {xn} et la moyenne. N-1 1 σ2 = E{(e)2} = E{(x – x^)2} = N (x n – x^)2 n=0 ∑ 4-9 Description et Reconnaissance des Images Séance 4 La variance, σ2, est équivalente à un deuxième moment de la densité de probabilité, autour de la moyenne. X max X max h(x) σ2 = E{(x – x^)2} = ∑(xn – x^)2 P(x)) = (x n – x^)2 N x=0 x=0 On peut également écrire : σ2 = E{(x – x^)2} = E{(x – E{x}) 2} ∑ 4-10