Traitement d`Images et Simulation de Propagation

publicité
Université de Poitiers - ENSMA
DEA T3IA Traitement de l’Information : Informatique, Images, Automatique
Traitement d’Images et Simulation
de Propagation Electromagnétique
en Environnement Indoor
Yann COCHERIL
Mémoire de Stage effectué sous la direction de :
M. Majdi Khoudeir :
Responsable
M. Rodolphe Vauzelle : Co-Encadrant
M. Jacques Brochard : Co-Encadrant
Au Laboratoire IRCOM-SIC
Université de Poitiers - UFR Sciences Fondamentales et Appliquées
Juillet 2003
Remerciements
Je tiens tout d’abord à remercier mes encadrants, Messieurs Majdi Khoudeir, Rodolphe Vauzelle et Jacques Brochard pour les conseils éclairés, la disponibilité, et le
soutien dont ils ont fait preuve à mon égard. Je leur témoigne tout mon respect et ma
gratitude.
Je remercie également Michel Léard pour m’avoir accueillis dans son équipe.
Je souhaite aussi remercier Messieurs Yannis Pousset, Anis Ben Slimane et Philippe
Dubois pour leur aide et leur disponibilité.
Je tiens à remercier l’ensemble du personnel SIC pour l’accueil, l’aide et la sympathie
apportés durant mes 6 mois de stage.
Enfin, je remercie mes proches et mes amis pour leur soutien moral constant, ainsi
que tous les stagiaires de DEA qui étaient dans la même salle que moi pour leur bonne
humeur communicative.
Table des matières
Introduction
1
1 Modèle de propagation
9
1.1
Equations de Maxwell . . . . . . . . . . . . . . . . . . . . . . . . . . . .
9
1.2
Réflexion et réfraction . . . . . . . . . . . . . . . . . . . . . . . . . . . .
11
1.3
Coefficients de Fresnel . . . . . . . . . . . . . . . . . . . . . . . . . . . .
13
1.4
Diffraction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
14
1.4.1
Théorie Géométrique de la Diffraction . . . . . . . . . . . . . . .
14
1.4.2
Théorie Uniforme de la Diffraction . . . . . . . . . . . . . . . . .
16
2 Mise en œuvre du modèle de propagation
19
2.1
Fonctionnement du simulateur et rugosité . . . . . . . . . . . . . . . . .
19
2.2
Influence de la rugosité sur la propagation . . . . . . . . . . . . . . . . .
21
3 L’acquisition d’images et ses contraintes matérielles
3.1
3.2
3.3
29
Base d’images et spécificités . . . . . . . . . . . . . . . . . . . . . . . . .
29
3.1.1
Les revêtements intérieurs . . . . . . . . . . . . . . . . . . . . . .
30
3.1.2
Les revêtements de sol . . . . . . . . . . . . . . . . . . . . . . . .
30
Les contraintes d’acquisition . . . . . . . . . . . . . . . . . . . . . . . . .
31
3.2.1
Le système de prise de vue . . . . . . . . . . . . . . . . . . . . . .
31
3.2.2
L’éclairage . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
33
Le matériel . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
35
3.3.1
Le matériel disponible . . . . . . . . . . . . . . . . . . . . . . . .
35
3.3.2
Le matériel envisagé . . . . . . . . . . . . . . . . . . . . . . . . .
37
ii
Table des matières
4 Les critères développés
39
4.1
Modèle photométrique et lien entre le relief et l’image . . . . . . . . . . .
39
4.2
Les critères géométriques . . . . . . . . . . . . . . . . . . . . . . . . . . .
41
4.2.1
Carte des angles . . . . . . . . . . . . . . . . . . . . . . . . . . . .
41
4.2.2
Carte des rayons de courbures . . . . . . . . . . . . . . . . . . . .
43
4.2.3
Gradient de l’image . . . . . . . . . . . . . . . . . . . . . . . . . .
45
4.2.4
Autocorrélation . . . . . . . . . . . . . . . . . . . . . . . . . . . .
47
4.2.5
Valeurs propres . . . . . . . . . . . . . . . . . . . . . . . . . . . .
48
Les critères fréquentiels . . . . . . . . . . . . . . . . . . . . . . . . . . . .
49
4.3.1
Densité spectrale de puissance . . . . . . . . . . . . . . . . . . . .
49
4.3.2
Transformée en ondelettes . . . . . . . . . . . . . . . . . . . . . .
49
4.3
5 Résultats expérimentaux
51
5.1
Principe de mesures laser . . . . . . . . . . . . . . . . . . . . . . . . . . .
51
5.2
Etude des cartographies . . . . . . . . . . . . . . . . . . . . . . . . . . .
51
5.3
Etude des images . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
53
5.4
Influence des points de réflexions spéculaires . . . . . . . . . . . . . . . .
53
5.5
Etude comparative sur le rayon de courbure . . . . . . . . . . . . . . . .
53
5.6
Caractérisation de l’histogramme . . . . . . . . . . . . . . . . . . . . . .
54
Conclusions et Perspectives
57
Bibliographie
59
A Les cartographies
63
B Les images
65
C Les rayons de courbure
67
D Filtrage des points spéculaires
71
E Modélisation par une gaussienne de l’histogramme
75
F Montage de la salle d’acquisition
77
Introduction
Ce stage s’est déroulé au sein du laboratoire IRCOM-SIC (CNRS no 6615 1 ). Ce laboratoire fait partie de l’Université de Poitiers, il est situé sur le site du Futuroscope au
bâtiment SP2MI 2 . Le SIC 3 est une équipe de recherche de l’IRCOM 4 .
Les activités de recherche au SIC s’articulent autour de trois thèmes :
- Lumière, Matière, Aspect
- Formes et Structure
- Signaux et Canaux de transmission
Mon sujet de stage de DEA s’inscrit dans deux de ces domaines de recherche et
s’intéresse plus particulièrement à la réalisation d’un simulateur de propagation d’ondes
électromagnétiques dans un environnement indoor.
Le domaine des télécommunications est en plein essor depuis plusieurs années, et
notamment depuis le développement des télécommunications sans fil. Le principe est
d’utiliser les ondes électromagnétiques pour transmettre de l’information, comme par
exemple la voix dans le cadre d’une communication téléphonique. On assiste ainsi à une
évolution du nombre des utilisateurs et de leur besoin. Effectivement, l’utilisation des
appareils sans fil ne se réduit pas à celle du téléphone mobile mais s’étend à tout appareil
ayant besoin d’échanger de l’information avec un autre appareil en l’absence de liaisons
filaires. Cette information peut être du son, des fichiers informatiques, des images, etc . . .
Les besoins selon le type d’utilisation ne sont évidemment pas les mêmes, et la qualité
du service rendu non plus. Quand on échange des fichiers informatiques, il faut une
1.
2.
3.
4.
unité mixte de recherche no 6615 du CNRS
Sciences Physique Mathématiques Mécanique Informatique
Signal, Image, Communications
Institut de Recherche en Communications Optiques et Micro-ondes
2
Introduction
transmission sans erreurs sous peine de se retrouver avec un fichier inutilisable. Lorsque
l’on transmet du son, l’erreur est toléré avec plus de souplesse. La difficulté c’est de
transmettre avec un même appareil des informations de différents types, par exemple
le son et l’image pour un téléphone mobile. Les informations qui ne doivent pas subir
d’erreurs de transmission, exemple des fichiers informatiques ou d’images imposent alors
une certaine qualité de fabrication de l’appareil en question ainsi qu’une connaissance
approfondie du canal de transmission, alors que pour une seule de ses fonctions une
qualité moindre aurait suffi, c’est le cas du son par exemple. La qualité de service n’est
donc pas la même selon les applications.
Ces différentes raisons engendrent un besoin en bande passante de plus en plus élevé, et
on est ainsi obligé d’augmenter les fréquences porteuses des systèmes de communications
actuels (900 M Hz pour le GSM 5 et 2,2 GHz pour l’UMTS 6 ). Les systèmes vont alors
évolués vers des fréquences de transmission avoisinant les 40 GHz puis 60 GHz dans les
années à venir pour les systèmes tels que le LMDS 7 et le WLAN 8 . Il s’agit en fait pour
les opérateurs de réutiliser le spectre fréquentiel disponible.
Cette augmentation de fréquence entraı̂ne une diminution de la longueur d’onde et
donc une diminution de la taille des obstacles à prendre en compte dans le trajet de
l’onde. Par exemple, à une fréquence de transmission de 60 GHz, la longueur d’onde
devient de l’ordre de 5 mm. On peut alors considérer qu’un obstacle ne mesurant que le
dixième de cette valeur, soit 500 µm, aura une importance non négligeable sur la direction
et la quantité d’énergie de l’onde transmise. On en vient, en augmentant les fréquences
de transmission à devoir considérer des obstacles de plus en plus petits dans l’étude et
l’élaboration des modèles de propagation électromagnétiques.
Dans un contexte de transmission indoor, ces dimensions, de l’ordre d’une dizaine de
mm sont présentes dans les pièces d’un immeuble de type bureaux, etc. . . Si on porte plus
d’attention au mobilier présent dans les bureaux on se rend compte qu’il est dans la majorité des cas complètement lisse. Il n’y a que les revêtements muraux, y compris les sols
et les plafonds, qui peuvent apparaı̂tre avec des rugosités aux dimensions intéressantes
pour notre étude. De plus, les crépis, les dalles de plafond et les moquettes occupent la
plus grande surface dans une pièce et auront donc une incidence non négligeable sur la
transmission des ondes électromagnétiques à hautes fréquences.
5.
6.
7.
8.
Global System for Mobile
Universal Mobile Telecommunications System
Local Multipoint Distribution Services
Wireless Local Area Network
Introduction
3
L’objectif de ce stage est de contribuer à l’amélioration du modèle de propagation par
la prise en compte des caractéristiques géométriques réelles de l’environnement. Ce stage
fait donc intervenir le thème Lumière, Matière, Aspect du SIC pour la caractérisation des
surfaces par traitement d’images, ainsi que le thème Signaux et Canaux de transmission
de ce même laboratoire pour la simulation d’une onde dans un environnement où les
rugosités des parois seront prises en compte.
Le but du stage est donc d’extraire à partir de traitement d’images un (ou des)
critère(s) permettant de juger de la rugosité d’une paroi, afin de l’inclure dans un simulateur de propagation d’ondes électromagnétiques. J’aborderai donc dans ce rapport
une première partie sur le modèle de propagation que l’on utilise. Une deuxième partie
sera consacrée aux outils d’analyse d’images qui permettent d’extraire des paramètres de
rugosité des parois. Je terminerai par un couplage entre ces deux domaines.
Propagation d’Ondes
Electromagnétiques
Propagation d’Ondes Electromagnétiques
7
Au laboratoire, IRCOM-SIC, des travaux ont contribué au développement d’un simulateur de propagation d’ondes électromagnétiques dans un environnement géométriquement
modélisé. Ces travaux ont été réalisés au sein de l’équipe Signaux et Canaux de transmission. Le but de cet outil est d’avoir une simulation la plus réaliste possible des phénomènes
physiques de propagation. Les applications sont nombreuses, comme la prédiction des
zones de couverture, la caractérisation large bande du canal de transmission, etc . . .
Le simulateur est basé sur le concept de rayons. Un rayon est un trajet radioélectrique
suivi par une onde électromagnétique dans un environnement donné. Ce rayon peut subir
des interactions avec l’environnement. En effet, il peut rencontrer une face plane, une
arête ou encore le coin d’un objet. Le but du simulateur est donc de déduire le nouveau
trajet que l’interaction rayon / environnement génère.
Le simulateur se base sur l’Optique Géométrique et un développement asymptotique
des équations de Maxwell pour déterminer les nouveaux trajets issus des interactions
rayons / environnement. L’Optique Géométrique (OG) définit les phénomènes de réflexion
et de transmission 9 de l’onde sur une ou plusieurs interfaces en espace libre.
Néanmoins la connaissance seule de ces deux phénomènes ne suffit pas à modéliser
les phénomènes de propagation car ils introduisent des zones de discontinuités optiques.
En effet, la théorie de l’Optique Géométrique prévoit un champ électromagnétique nul
dans la zone d’ombre d’un objet. On a donc des frontières optiques entre la zone d’ombre
et la zone éclairée. Or, dans la réalité ces frontières optiques n’existent pas et le champ
électromagnétique n’est pas nul dans la zone d’ombre. Ceci est dû au phénomène de
diffraction. Le simulateur tient compte de ce phénomène, dont le formalisme est la Théorie
Géométrique de la Diffraction (TGD) compatible avec celui de l’Optique Géométrique.
Dans un premier chapitre, je présenterai la théorie sur laquelle se base le modèle de
propagation, avant d’aborder le problème de la rugosité et la façon d’intégrer ce paramètre
au modèle.
9. on parle également de réfraction
Chapitre 1
Modèle de propagation
1.1
Equations de Maxwell
L’optique géométrique est une approche basée sur les lois de la propagation de rayons
lumineux : loi de la réflexion et loi de Snell-Descartes. Les équations de Maxwell et leur
développement sous forme asymptotique ont été découverts bien plus tard.
Les équations de Maxwell dans un milieu homogène et isotrope sont définies par :
~ r,ω)
~ (~r, ω) + µ ∂ H(~
~ E
rot
= ~0
∂t
~ r,ω)
~ (~r, ω) − ε ∂ E(~
~ H
rot
= ~0
∂t
~ (~r, ω) = 0
div E
(1.1)
~ (~r, ω) = 0
div H
avec ~r la coordonnée spatiale du point d’observation,
ω la pulsation de l’onde,
µ la perméabilité du milieu de propagation,
ε la permittivité du milieu de propagation.
~ et H
~ qui sont respectivement le champ
Ces relations sont fonction des champs E
~ et B
~ qui
électrique et le champ magnétique. Elles sont aussi fonction des inductions D
sont respectivement l’induction électrique et l’induction magnétique. Ces inductions sont
implicitement employées dans les équations de Maxwell par le biais des produits impliquant la perméabilité et la permittivité. En effet, on sait que :
~ (~r, ω) = µ H
~ (~r, ω)
B
et
~ (~r, ω) = ε E
~ (~r, ω)
D
10
Chapitre 1. Modèle de propagation
A l’interface de deux milieux, les équations de Maxwell ne sont plus valables. Il découle
de ces équations, écrites sous leur forme intégrale, les quatre relations de continuité suivantes :
~ T1 = E
~ T2
E
~ N2 − D
~ N1 = ρ s
D
~ N2 = B
~ N1
B
~ T2 − H
~ T1 = ~js ∧ ~n
H
(1.2)
Ces relations existent sous cette forme si la surface S de séparation des deux milieux
possède des charges superficielles de densité ρs et un courant superficiel de densité ~js . Les
indices Ti et Ni représentent respectivement les composantes tangentielles et normales
(d’un champ ou d’une induction) à la surface de séparation.
De manière générale, on peut alors déduire de la combinaison des équations de Maxwell
l’équation d’Helmotz qui est l’équation de propagation du champ électromagnétique.
Cette expression pour un champ donné s’exprime par :
~ (~r, ω) + k 2 U
~ (~r, ω) = 0
∇2 U
(1.3)
~∇
~ = ∂ 22 + ∂ 22 + ∂ 22 dans un repère cartésien,
avec ∇2 = ∇
∂x
∂y
∂z
~ (~r, ω) le champ électrique ou le champ magnétique,
U
√
k le vecteur d’onde, qui vaut dans le vide : k = ω ε0 µ0 .
Kline [Kli51] s’appuya sur les travaux de Sommerfeld-Runge et de Luneberg [Lun44]
pour développer les premières solutions asymptotiques du champ électromagnétique pour
un milieu isotrope :
~ (~r, ω) = ejkφ(~r)
U
∞ ~
X
Un (~r, ω)
n=0
où
(jω)n
ejωt
(1.4)
k 2 = ω 2 µ0 ε,
φ (~r) représente la fonction de phase.
Ces séries de fonctions sont également appelées équations de Luneberg-Kline. Elles
représentent un champ de rayons optiques dont l’ordre n = 0 suffit à définir le champ de
l’Optique Géométrique. L’expression du champ électromagnétique s’écrit alors :
~ (~r, ω) = U
~ 0 (~r, ω) ejkφ(~r)
U
(1.5)
1.2. Réflexion et réfraction
1.2
11
Réflexion et réfraction
Lorsqu’une onde se propage dans un milieu 1 d’indice de réfraction ni et rencontre
une interface la séparant d’un milieu 2 d’indice de réfraction n2 , elle engendre une onde
réfléchie telle que θi = θr , et une onde transmise obéissant à la loi de Snell-Descartes
ni sin θi = nt sin θt . On peut représenter ces phénomènes de la façon suivante :
S
~i
E
//
~i
E
⊥
P
~n
~r
S
~ ⊥r
E
~i
S
θi
θr
~r
E
//
Milieu 1 ni
Q
Milieu 2 nt
~t
E
//
θt
~ ⊥t
E
~t
S
P0
Fig. 1.1 – Phénomènes de réflexion et de transmission
D’après le principe de Huygens, on peut avoir pour une onde électromagnétique se
propageant en espace libre et variant de façon sinusoı̈dale au cours du temps, à un instant
~ possède une
donné, l’ensemble des points de l’espace pour lesquels le champ électrique E
certaine phase. Cet ensemble définit une surface ψ appelée front d’onde. On peut ainsi
déterminer l’expression du champ électrique :
~ )=E
~ (O)
E(P
s
ρ1 ρ2
e−jkr
(ρ1 + r) (ρ2 + r)
(1.6)
~ (O) le champ au point de référence,
avec E
ρ1 et ρ2 les rayons de courbure de la surface ψ au point de référence,
q
ρ1 ρ2
(ρ1 +r)(ρ2 +r)
le facteur de divergence traduisant la conservation de l’énergie durant
la propagation de l’onde.
12
Chapitre 1. Modèle de propagation
Cette expression (voir l’équation 1.6) possède une forme similaire au développement
asymptotique des équations de Maxwell (voir l’équation 1.5). On peut donc par identifi~ 0 (~r) de l’équation 1.5 :
cation exprimer le champ électrique E
~ 0 (~r) = E
~ (O)
E
s
ρ1 ρ2
e−jkr
(ρ1 + r) (ρ2 + r)
(1.7)
On voit donc apparaı̂tre deux valeurs r = −ρ1 et r = −ρ2 pour lesquelles le champ
~ 0 (~r) va tendre vers l’infini. Ces zones sont appelées des caustiques par lesélectrique E
quelles tous les rayons associés à l’onde passent. Le champ y est infini car il représente la
somme d’une infinité de rayons.
Dans un contexte de réflexion et de transmission d’une onde par une surface plane
séparant deux milieux, on peut alors déterminer d’après l’équation 1.6 les champs électriques
des ondes réfléchies et transmises (voir la figure 1.1). On a alors pour le champ électrique
de l’onde réfléchie :
s
ρr1
ρr2
r
e−jks
E (P ) = E (Q)
r
r
r
r
(ρ1 + s ) (ρ2 + s )
~r
~r
(1.8)
avec ρr1 et ρr2 les rayons de courbure de l’onde réfléchie,
sr la distance du point d’émission Q de l’onde au point d’observation P .
On appelle plan d’incidence le plan défini par la normale à la surface (séparation
entre les deux milieux) et la direction de l’onde incidente définie par le vecteur d’onde
~i . Les ondes incidente et réfléchie peuvent alors être décomposées en deux composantes,
S
l’une tangentielle au plan d’incidence dite polarisation parallèle, l’autre normale au plan
d’incidence dite polarisation perpendiculaire. On peut donc écrire :
~ r (P ) = E
~ r (P ) ~e r + E
~ ⊥r (P ) ~e⊥r
E
//
//
~ ⊥t (P ) ~e⊥t
~ t (P ) = E
~ t (P ) ~e t + E
E
//
(1.9)
//
t
r
les vecteurs unitaires réfléchi et transmis parallèles au plan d’incidence,
, ~e//
avec ~e//
~e⊥r , ~e⊥t les vecteurs unitaires réfléchi et transmis perpendiculaires au plan d’incidence.
De plus, les relations de continuité à l’interface entraı̂nent en Q la relation :
~ r (Q) = r// E
~ i (Q)
E
,
13
1.3. Coefficients de Fresnel
soit :





~ i (Q)
~ r (Q)
E
r
0
E

  //
 =  //
 //
~ ⊥i (Q)
~ ⊥r (Q)
E
0 r⊥
E
(1.10)
avec r// et r⊥ les coefficients de réflexion de Fresnel.
D’après l’équation 1.8, on détermine l’expression complète du champ réfléchi au point
P :




~ r (P )
E
r
0
 //

 =  //
~ ⊥r (P )
E
0 r⊥
s
~ i (Q)
E
//

~
E⊥i (Q)
ρr1
ρr2
r
e−jks
r
r
r
r
(ρ1 + s ) (ρ2 + s )
(1.11)
D’après le même raisonnement que précédemment, on peut déterminer le champ
électrique de l’onde transmise au point P 0 (voir la figure 1.1) :
v
u
u
t
0
t
~
~
E (P ) = E (Q)t
ρt1
ρt2
t
e−jks
t
t
t
t
(ρ1 + s ) (ρ2 + s )
(1.12)
D’après les relations de continuité (voir l’équation 1.2) à l’interface, on a en Q :
~ t (Q) = t// E
~ i (Q)
E
Ainsi l’expression du champ en P 0 est donnée par la relation :



v

~ i (Q) u
~ t (P 0 )
u
t// 0
E
E
ρt1
ρt2
//
−jkst
t
=
  //

e
t
t
~ ⊥i (Q)
~ ⊥t (P 0 )
(ρ1 + st ) (ρ2 + st )
0 t⊥
E
E
(1.13)
avec t// et t⊥ les coefficients de transmission de Fresnel.
1.3
Coefficients de Fresnel
On déduit des relations de continuité (voir l’équation 1.2) et de la figure 1.1 les
expressions des coefficients de réflexion de Fresnel r// et r⊥ , ainsi que les expressions des
coefficients de transmission de Fresnel t// et t⊥ .
Pour la composante de l’onde polarisée placée dans le plan d’incidence (polarisation
parallèle), ces coefficients s’écrivent :
r// =
ni cos θt − nt cos θi
ni cos θt + nt cos θi
(1.14)
14
Chapitre 1. Modèle de propagation
2ni cos θi
ni cos θt + nt cos θi
t// =
(1.15)
Pour la composante de l’onde polarisée placée dans le plan normal au plan d’incidence
(polarisation perpendiculaire), ces coefficients s’écrivent :
1.4
r⊥ =
ni cos θi − nt cos θt
ni cos θi + nt cos θt
(1.16)
t⊥ =
2ni cos θi
ni cos θi + nt cos θt
(1.17)
Diffraction
1.4.1
Théorie Géométrique de la Diffraction
Une description complète des phénomènes de propagation ne peut se faire qu’à la
condition d’ajouter à la théorie de l’Optique Géométrique la Théorie Géométrique de la
Diffraction (TGD) [Kel62] qui définit le phénomène de diffraction. En effet, le défaut de
l’Optique Géométrique qui est de prévoir un champ nul dans les zones d’ombre des objets
(voir la figure 1.2) est ainsi supprimé.
F.O.R
Zone 2
Champ direct + champ diffracté
Zone 1
F.O.V
Champ direct + champ diffracté + champ réfléchi
Zone 3
Champ incident
Champ diffracté
Fig. 1.2 – Décomposition de l’espace en trois zones dans le cas de diffraction par un objet
1.4. Diffraction
15
La TGD a été établie par Keller dans les années 50. Cette théorie est basée sur la
formulation de trois postulats :
Postulat 1 : “En haute fréquence, la diffraction est un phénomène local”
La diffraction ne dépend que de la forme de l’objet au voisinage du point de diffraction. Chaque objet peut alors être approximé par une forme canonique telle
que celle d’un cône, d’un dièdre, d’une sphère. Chaque objet est caractérisé par des
coefficients de diffraction D// et D⊥ .
Postulat 2 : “Les rayons diffractés satisfont le principe de Fermat généralisé”
En considérant la stationnarité de la longueur d’onde du rayon optique diffracté,
il est possible de déterminer la position du point de diffraction et la direction du
rayon diffracté pour différents objets [BM94] tels qu’un dièdre, une pointe, et un
cylindre
Postulat 3 : “Le rayon diffracté satisfait les lois de l’Optique Géométrique loin de la surface”
Loin de la structure diffractante, les rayons diffractés obéissent aux règles de l’Optique Géométrique. Ce postulat permet d’écrire à partir de l’équation 1.8 la relation
suivante :
v
u
u
d
d
~ (P ) = E
~ (Q)u
E
t³
ρd1
ρd1 + sd
ρd2
´³
ρd2 + sd
´ e−jks
d
(1.18)
avec Q le point de diffraction,
ρd1 et ρd2 les rayons de courbure du front d’onde diffracté,
sd la distance du point de diffraction Q de l’onde au point d’observation P .
Pour un dièdre parfaitement conducteur, la diffraction sur son arête constitue une
caustique d’où ρ2 → 0. On peut en définissant le plan d’incidence par la direction de
~ i et l’arête diffractante décomposer l’expression du champ diffracté en
l’onde incidente S
composantes parallèle et perpendiculaire au plan d’incidence :




s
~ i (si )
~ d (P )
E
D
0
E

  //
 =  //
 //
~ ⊥i (si )
~ ⊥d (P )
E
0 D⊥
E
ρr1
d
e−jks
r
d
d
(ρ1 + s ) s
(1.19)
En s’appuyant sur une solution exacte découverte par Sommerfeld, Keller a donné
une expression asymptotique des coefficients de diffraction pour un dièdre parfaitement
conducteur :
16
Chapitre 1. Modèle de propagation
jk
π
−e− 4 sin n
D//,⊥ (φ, φ0 , βO , n) = √
n 2πk sin β0
avec n =
2π−α
π
"Ã
cos πn
1
0
− cos φ−φ
n
!
∓
Ã
cos πn
1
0
− cos φ+φ
n
!#
(1.20)
où α représente l’angle intérieur du dièdre,
φ0 l’angle d’incidence,
φ l’angle d’observation.
1.4.2
Théorie Uniforme de la Diffraction
Cette théorie [KP74] constitue un prolongement de la TGD établie par Keller. Elle a
été publiée en 1974 par Kouyoumjian et Pathak et permet de supprimer la discontinuité
du champ de la TGD engendrée par la divergence des coefficients de diffraction (voir
l’équation 1.20) au niveau des frontières optiques. Le champ total établi par la Théorie
Uniforme de la Diffraction (TUD) est ainsi uniforme dans tout l’espace.
Plan d’incidence
~d
S
~
φ
β0
~0
φ
β~0
~i
S
φ
β0
β~0
Plan de diffraction
Q
φ0
Face 1
α = (2 − n) π
Face 2
Fig. 1.3 – Phénomène de diffraction
Une fonction de transition F (x), reposant sur l’intégrale de Fresnel modifiée (voir
l’équation 1.21) permet d’assurer la continuité dans les zones de transition au voisinage
des frontières optiques.
√
F (x) = 2j xe
jx
Z
∞
√
x
2
e−ju du
(1.21)
17
1.4. Diffraction
Cette fonction permet de basculer des coefficients de diffraction de Keller dans les
zones éloignées des frontières optiques aux coefficients de diffraction élaborés par Kouyoumjian et Pathak pour les zones de transition.
Les coefficients de diffraction de la TUD sur un dièdre parfaitement conducteur
s’écrivent sous la forme :
h
D//,⊥ = D+ (φ − φ0 ) + D− (φ − φ0 ) ± D− (φ + φ0 ) + D+ (φ + φ0 )
i
(1.22)
avec D+ et D− tels que :
−j π
D+ (φ ± φ0 ) = − 2n√e2πk 4sin β
0
h
0
h
−j π
4
D− (φ ± φ0 ) = − 2n√e2πk sin β
cot
³
π+(φ±φ0 )
F
2n
cot
³
π−(φ±φ0 )
F
2n
(kLa+ (φ ± φ0 ))
´i
(kLa− (φ ± φ0 ))
´i
(1.23)
avec L un paramètre de distance,
a± (α) = 2 cos
³
2nπN ± −α
2
´
avec N ± l’entier satisfaisant au mieux les équations :
2nπN + − α =
π
(1.24)
2nπN − − α = −π
Dans le cas d’un dièdre diélectrique, la conductivité σ est finie et les coefficients de
réflexion sont fonction des propriétés électriques du dièdre. Les coefficients de diffraction
s’expriment alors par :
h
1,2
D− (φ + φ0 ) + D+ (φ + φ0 )
D//,⊥ = D+ (φ − φ0 ) + D− (φ − φ0 ) ± R//,⊥
i
(1.25)
1,2
avec R//,⊥
les coefficients de réflexion (voir les équations 1.14 et 1.15) sur les faces 1
et 2 du dièdre (voir la figure 1.3) dans les polarisations parallèle et perpendiculaire.
En considérant un dièdre parfaitement conducteur, R// = 1 et R⊥ = −1, on retrouve
l’expression des coefficients de Kouyoumjian et Pathak (voir l’équation 1.22).
Chapitre 2
Mise en œuvre du modèle de
propagation
2.1
Fonctionnement du simulateur et rugosité
Le simulateur conçu au laboratoire reprend le formalisme détaillé précédemment (voir
le chapitre 1). On cherche dans le cadre de notre étude à caractériser la rugosité des
surfaces de l’environnement modélisé. Le problème est que le modèle ne se base que sur
des surfaces parfaitement planes. Or, la relation λ = c/ν qui indique une diminution de
la longueur d’onde quand la fréquence augmente nous oblige dans le cadre de notre étude
à prendre en compte la rugosité des faces des objets que rencontrent les rayons. En effet,
pour des systèmes à 60 GHz la longueur d’onde ne mesure alors que 5 mm environ.
Dans le cas d’une scène intérieure de type bureaux, les éléments mis en jeu se réduisent
alors aux parois des murs, plafonds et sols. En effet le mobilier à proprement parler,
de type armoire par exemple, présente pour cet ordre de grandeur de longueur d’onde
des surfaces parfaitement lisses. Certains revêtements que l’on trouve sur le mobilier,
typiquement le cas des dossiers de fauteuils de bureau offrent des rugosités de l’ordre de
la longueur d’onde. Il faut donc analyser une scène en détail pour bien identifier les parois
intéressantes pour notre étude, autrement dit, on ne peut pas se contenter d’une étude
en ne prenant en compte que les murs, plafonds et sols.
Le programme de simulation reprend donc les différentes équations vues au chapitre
1 du modèle de propagation. Je ne vais en aucun cas détailler les fonctions de ce programme, mais plutôt m’attacher à résumer par un organigramme (voir la figure 2.1) son
fonctionnement et comment pourrait intervenir le facteur de rugosité recherché.
On voit donc dans l’organigramme (voir la figure 2.1) qu’un calcul apparaı̂t sur le
facteur de rugosité ρ. En effet, le facteur de rugosité aussi appelé facteur de diffusion est
20
Chapitre 2. Mise en œuvre du modèle de propagation
?
Initialisation des différents paramètres
Polarisation des champs électriques
?
~i
E
//
~ i incidents au dièdre :
Calcul des champs
et E
⊥
passage de la base fixe à la base locale
?
A partir de H, He , Hr , De et Dr (voir la figure 2.2)
calcul de tous les angles et distances nécessaires
?
Définition d’un facteur de rugosité ρ
(voir le chapitre 2.2)
?
Calcul du champ reçu par la méthode de la TUD
?
Calcul du champ reçu sur la première face
?
Calcul du champ reçu par la dernière interaction :
passage de la base locale à la base fixe
?
Calcul du champ total. Calcul du champ relatif
ainsi que de l’atténuation en espace libre
pour chaque trajet
?
NON
Variation du paramètre de fréquence
ou du paramètre de hauteur du dièdre
Boucle terminée ?
? OUI
Présentation des résultats
Fig. 2.1 – Organigramme du programme de propagation
défini comme étant le rapport de l’amplitude du champ diffusé par une surface rugueuse
2.2. Influence de la rugosité sur la propagation
21
sur celle du champ spéculaire qu’on obtiendrait avec une surface lisse.
On considère dans un premier temps que le relief est caractérisé par une variable
aléatoire. On fait l’hypothèse que cette variable suit une distribution gaussienne de
moyenne nulle et d’écart-type ∆h. Dans le programme de simulation, on détermine le
coefficient de réflexion R par le produit :
R = Rs ρ
(2.1)
avec Rs le coefficient de réflexion de Fresnel pour une surface lisse,
ρ le facteur de diffusion défini de la manière suivante :
ρ2 = e−δ
δ=
2
4π∆h
sin ϕi1
λ
(2.2)
(2.3)
avec λ la longueur d’onde,
ϕi1 l’angle d’incidence de l’onde avec le dièdre (voir la figure 2.2).
Pour un objet aux faces planes, on considérera que le coefficient ρ = 1 et que ∆h = 0.
Le coefficient de réflexion pour une telle surface sera alors celui de Fresnel.
Il y a donc dans le modèle de propagation un coefficient de réflexion fonction du
facteur de rugosité ρ et des coefficients de réflexion de Fresnel. Seulement, la définition
de ce facteur de rugosité n’est qu’une distribution gaussienne des hauteurs autour d’une
moyenne nulle, et se pose alors le problème de savoir si ce coefficient est perfectible et si
oui, comment pourrait-on l’améliorer.
2.2
Influence de la rugosité sur la propagation
Afin d’étudier l’influence de la rugosité, on va simuler un récepteur caché d’un émetteur
par un dièdre. Le dièdre doit avoir une hauteur suffisante pour intercepter le rayon de
visibilité directe entre l’émetteur et le récepteur afin de mettre en évidence le phénomène
de diffraction. On représente alors le schéma que l’on utilise pour créer l’environnement
de propagation qui sera uniquement composé d’un dièdre (voir la figure 2.2).
La nomenclature des différentes dimensions est exactement celle qui est utilisée dans
le programme de simulation de propagation des ondes.
22
Chapitre 2. Mise en œuvre du modèle de propagation
ϕd1
yd1
Sd 1
So k
ϕ i1
ϕr k
H
ϕ ek
yr
Lng liaison
ye
Hr
He
xe
De
xd1
Dr
xr
Fig. 2.2 – Trajet d’une onde déviée par un obstacle
Pour commencer, on va chercher à regarder l’évolution du facteur de rugosité ρ lorsque
le rapport λ/∆h varie (voir la figure 2.3). En effet, on suppose que la hauteur minimale des
rugosités à prendre en compte serait environ de λ/10. Autrement dit, pour une fréquence
de l’onde de 60 GHz soit une longueur d’onde de 5 mm, la hauteur minimale des rugosités
à partir de laquelle on suppose que celles-ci entrent en jeu sera voisine de 0.5 mm.
On peut donc voir sur la figure 2.3 que lorsque le rapport λ/∆h augmente, le facteur
ρ tend vers 1 ce qui correspond à une surface plane pour laquelle ∆h tend vers 0.
Pour un rapport λ/∆h = 10, on se situe dans la partie linéaire de la courbe avec un
facteur de rugosité compris entre 0.7 et 0.8.
Ensuite, on cherche à mettre en évidence l’influence de la rugosité lorsque celle-ci a
des dimensions voisines de celles de la longueur d’onde. Le moyen choisit pour y parvenir
c’est, pour une fréquence donnée de faire varier le paramètre ∆h illustrant la rugosité
et d’observer au niveau du récepteur l’atténuation relative de l’onde. On montre avec la
figure 2.4 que pour λ = 5.10−3 m on a une zone autour de la longueur d’onde pour laquelle
on observe une variation significative de l’atténuation relative au niveau du récepteur. Ceci
justifie le paramètre λ/∆h = 10, ce qui nous permet de fixer pour une fréquence donnée
la hauteur de rugosité minimale que l’on devra prendre en compte dans notre étude, soit
0.5 mm.
Au vu de cette étude, la rugosité semble être un facteur important à prendre en compte
pour modéliser au mieux le modèle de propagation, puisqu’elle influe de manière significative sur l’énergie d’une onde électromagnétique reçue en un point (antenne réceptrice).
2.2. Influence de la rugosité sur la propagation
23
λ
∆h
50
45
40
35
30
25
20
15
10
5
0.3
0.4
0.5
0.6
Fig. 2.3 – Etude du rapport
λ
∆h
0.7
0.8
0.9
1
ρ
en fonction du coefficient de diffusion ρ
Atténuation relative en dB
−37
Polarisation parallèle
Polarisation perpendiculaire
−37.2
−37.4
−37.6
−37.8
−38
−38.2
−38.4
−38.6
−38.8
−39
−5
10
−4
10
−3
10
−2
10
log10 (∆h) en m
Fig. 2.4 – Etude de l’atténuation des deux polarisations en fonction de ∆h pour f =
60 GHz
24
Chapitre 2. Mise en œuvre du modèle de propagation
On cherchera donc dans la suite de cette étude à caractériser les surfaces des parois rencontrées dans le cadre de revêtements indoor afin de discuter, voir d’améliorer le facteur
de diffusion ρ tel qu’il a été défini dans le modèle de propagation. Pour cela, on s’attachera
à étudier les rugosités des différentes parois par des outils d’analyse d’images.
Analyse d’Images
Analyse d’Images
27
Le traitement d’images est à la base de notre étude car ce sont les outils développés
dans ce domaine qui doivent nous permettre d’évaluer la rugosité d’une paroi, et donc son
influence sur la propagation d’ondes électromagnétiques dans un environnement donné.
Pour cela, des critères de mesure de rugosité ont été développés au laboratoire dans le
cadre d’études préliminaires en collaboration avec le LCPC 1 . Ces études, ont pour objectif
de déterminer le degré d’usure d’une route en étudiant les microrugosités des granulats
qui la constitue par traitement d’images. Nous allons étendre ici les critères développés
au cadre des parois rencontrées dans un environnement indoor (intérieur de bâtiments).
Comme le nom de ce domaine de recherche le laisse pressentir, le traitement d’images
se base sur des images, et se pose alors le problème de leur acquisition. En effet, il faut
que l’image contienne ce que l’on cherche à quantifier ou à analyser, sous peine d’avoir
des résultats erronés. Cette opération d’acquisition nécessite une connaissance à priori du
domaine d’application. Le choix du matériel pour l’acquisition peut alors être envisagé en
fonction de ce que l’on cherche à acquérir et du budget dont on dispose. Nous étudierons
les différentes caractéristiques de l’acquisition pour les revêtements muraux.
Dans un deuxième temps, on dispose d’outils de traitement d’images pour classer des
parois entre elles en fonction de leur rugosité respective. Une fois les différents critères
de rugosités programmés, on applique les traitements sur les images acquises. Or, dans
certains cas, les critères ne peuvent s’appliquer sans un traitement préalable de l’image.
Ceci est lié par exemple à la nature des surfaces qui n’ont pas forcément une couleur
uniforme. Il y a une interaction entre les variations de niveaux de gris dues aux variations
de relief et les variations de niveaux de gris dues aux variations de couleur. Il faudra
donc en prétraitement enlevé l’information couleur. L’étape de traitement en elle-même
ne produit que peu d’erreurs, sauf celles provoquées par les arrondis des calculs. Cela
renforce l’importance que revêt la phase d’acquisition, car c’est elle qui peut générer
beaucoup d’erreurs selon qu’elle est bien réalisée ou non.
La dernière étape consiste à analyser les résultats expérimentaux. Cette analyse sera
faite par comparaison avec l’étude menée sur des relevés profilométriques précis des parois
étudiées. Ces relevés contiennent les variations de hauteurs d’une paroi mesurées grâce à
un laser. C’est la représentation 3D de la surface de la paroi analysée. La précision étant
alors de l’ordre du micron, on considère ces relevés comme étant la référence de notre
étude. On comparera alors les résultats obtenus en appliquant les critères sur les relevés
profilométriques 2 aux résultats obtenus en appliquant les critères sur les images acquises.
1. Laboratoire Centrale des Ponts et Chaussées
2. on parlera aussi de cartographies
Chapitre 3
L’acquisition d’images et ses
contraintes matérielles
3.1
Base d’images et spécificités
Deux études sont menées en parallèle. D’une part une étude est menée sur des
revêtements de sol et d’autre part une étude est menée sur des surfaces contenant des rugosités (de l’ordre de quelques mm) rencontrées sur des parois à l’intérieur des bâtiments
(les crépis par exemple).
Pour appliquer les outils de traitement d’images et ainsi établir des classements de
rugosités fiables entre différents échantillons, il faut considérer leur nombre suffisamment
important pour pouvoir réaliser une étude statistique. Dans un contexte de transmission indoor, il faut pouvoir disposer d’échantillons représentatifs des différentes surfaces
rencontrées dans des bâtiments susceptibles d’interagir avec l’onde, soient les crépis, les
dalles de plafond, les moquettes et certains éléments du mobilier comme les dossiers de
fauteuil, etc . . . Pour les dimensions qui nous intéressent, le mobilier de manière plus
générale tel que les armoires, les tables, etc . . . n’est à priori pas à prendre en compte à
cause de ses parois considérées comme lisses.
Pour la partie acquisition et matériel, je parlerai également de l’étude sur les revêtements
de sol car le même matériel sera utilisé pour l’acquisition, indépendamment du domaine
d’étude bien que les contraintes soient différentes. Ceci nous oblige à avoir un système
d’acquisition qui puisse s’adapter aux domaines d’étude que l’on considère. Effectivement,
de ces deux domaines d’étude vont dépendre les limites du matériel déjà opérationnel et
les caractéristiques du matériel que l’on souhaiterait acquérir par la suite.
30
Chapitre 3. L’acquisition d’images et ses contraintes matérielles
3.1.1
Les revêtements intérieurs
Des plaques ont été crépies afin de faire apparaı̂tre quatre revêtements différents.
Deux des revêtements, de type crépi, paraissent fins et les deux autres, du même type,
paraissent plus rugueux (voir la figure 3.1).
a. crépi 1
b. crépi 2
c. crépi 3
d. crépi 4
Fig. 3.1 – Les différents crépis rencontrés
On ajoute pour tenir compte de toutes les surfaces, de dimensions proches de celles
qui nous intéressent dans un bâtiment, une dalle de plafond et de la moquette (voir la
figure 3.2).
a. plafond
b. moquette
Fig. 3.2 – Autres types de surfaces rencontrées
3.1.2
Les revêtements de sol
Des échantillons de revêtements de sol sont fournis par le LCPC. Ils proviennent
de différents endroits et sont prélevés directement sur la chaussée par carottage. Ces
différents endroits de carottage sont choisis par le fait qu’ils contiennent des quantités de
macro et microrugosité différentes. Les macrorugosités représentent les granulats tandis
3.2. Les contraintes d’acquisition
31
que les microrugosités représentent la surface rugueuse haute des granulats. L’intérêt
donc de ces échantillons est de présenter plusieurs niveaux de rugosité ce qui peut être
représentatif de certains murs d’ornement présents à l’intérieur des bâtiments.
On a donc les revêtements suivants (voir la figure 3.3) :
a. sol 1
b. sol 2
c. sol 3
d. sol 4
Fig. 3.3 – Les différents revêtements de sol rencontrés
3.2
Les contraintes d’acquisition
L’étape préliminaire au traitement d’images est bien sûr celle qui permet de les
acquérir. Cette étape est très importante car c’est elle qui permet d’obtenir les images
sur lesquelles on va appliquer les traitements. En effet, si la précision de la phase d’acquisition est moyenne, on ne saura pas quel degré de confiance on pourra attribuer aux
résultats obtenus après traitement d’images. Afin d’optimiser la précision de cette phase
d’acquisition, il est important de distinguer deux contraintes pouvant influer de façon
significative sur les résultats que l’on pourra obtenir. Ces contraintes sont :
1. le système de prise de vue (lié au domaine d’utilisation)
2. l’éclairage
3.2.1
Le système de prise de vue
Pour réaliser une bonne acquisition, il faut savoir quelle information on souhaite
acquérir. Cette phase est bien sûr liée au domaine d’utilisation dans lequel on place
l’étude. En effet, les besoins en quantification et en échantillonnage spatial 1 peuvent ne
pas être les mêmes. Dans notre cas, on se place dans deux domaines d’études différents :
1. échantillonnage selon les lignes et les colonnes de l’image
32
Chapitre 3. L’acquisition d’images et ses contraintes matérielles
Les revêtements intérieurs : Le premier domaine est l’étude de la rugosité des
revêtements muraux dans un contexte de transmission indoor à hautes fréquences. On
considère pour les futurs systèmes de transmission une fréquence ν = 60 GHz, la longueur
d’onde correspondante λ = c/ν étant alors de 5 mm environ. Les besoins en quantification
et en échantillonnage spatial sont moins importants que pour l’étude des revêtements de
sol. En effet, on estime dans le cadre de cette étude que les obstacles pouvant interagir
avec l’onde n’ont pas une taille inférieure à λ/10, soit 0.5 mm (voir le chapitre 2.2).
Les revêtements de sol : Le second domaine est l’étude des rugosités de revêtements
de sol. Les besoins en quantification et en échantillonnage spatial sont plus importants
que pour l’étude des parois rugueuses rencontrées en milieu indoor, car la taille des microrugosités recherchées est de l’ordre de quelques dizaines de microns.
Un échantillonnage spatial d’une centaine de microns est beaucoup plus facile à obtenir
qu’un échantillonnage spatial de quelques dizaines de micron. Malgré ces différences de
besoins, on préfèrera dans un premier temps avoir trop d’informations, voir même inutiles
à traiter dans l’étude des crépis pour obtenir des résultats précis auxquels on pourra
attribuer beaucoup de confiance. Dans un deuxième temps on cherchera à minimiser cette
quantité d’informations en augmentant progressivement la résolution tout en conservant
de bons résultats, dans le but d’améliorer les temps de calculs.
Cette méthode de travail permet d’adapter l’utilisation d’un système d’acquisition
très précis prévu pour le domaine des revêtements de sol où on a fortement besoin
d’échantillonner l’image le plus finement possible, contrairement au domaine des crépis
beaucoup moins exigeants en terme de résolution. Un seul système d’acquisition bien
choisi pour le domaine des revêtements de sol peut permettre de mener deux études en
parallèle. C’est un gain non négligeable lorsque l’on s’intéresse au prix du matériel. On a
aussi un gain de place dans la salle de manipulations.
Dans le cas où les variations de niveaux de gris dans l’image sont uniquement représentatives
des variations de relief, de sorte que l’image acquise est considérée comme une surface
(voir le chapitre 4.1), on considère deux contraintes sur le matériel d’acquisition :
La quantification : La première contrainte c’est que pour augmenter le nombre de bits
de la quantification, c’est à dire améliorer la précision avec laquelle on code l’information
niveaux de gris de l’image, il faudra considérer un système d’acquisition tel qu’une caméra
3.2. Les contraintes d’acquisition
33
ou un appareil photo numérique capable de numériser l’information couleur sur un nombre
maximum de bits. Le standard RGB est codé sur 8 bits ce qui ne nous donne que 256
niveaux différents de hauteurs pour un point de l’image. Un codage sur 10 bits permettrait
de multiplier par 4 la quantification de l’image tandis qu’un codage sur 12 bits permettrait
de la multiplier par 16 avec respectivement 1024 et 4096 niveaux de gris pour un point
donné de l’image. Par exemple, si l’on considère une hauteur de rugosité pour une surface
d’une paroi de l’ordre de 2 fois la longueur d’onde, soit 10 mm pour une fréquence de
60 GHz, une quantification classique sur 8 bits permet d’atteindre des intervalles de
hauteur de l’ordre de 40 µm. Les variations de niveaux de gris étant représentatives
du relief, il faudra pour respecter le théorème de Shannon considérer une variation de
hauteur minimale de 0.4 mm ce qui n’est pas suffisant pour avoir une bonne précision.
Le fait de multiplier par 16 le nombre de niveaux en passant d’une quantification sur 8
bits à une quantification sur 12 bits, on divisera par 16 la variation de hauteur minimale,
permettant une précision bien meilleure pour notre étude, mais permettant aussi de se
garder une marge de manœuvre confortable pour étudier l’influence des rugosités pour
des futurs systèmes de transmission avec des fréquences supérieures à 60 GHz.
L’échantillonnage spatial : La seconde contrainte c’est qu’il faut également considérer
un échantillonnage spatial de l’image satisfaisant. En effet, selon la résolution que peut
fournir le dispositif d’acquisition d’images, on peut passer à côté de l’information de relief
que l’on cherche à acquérir car c’est sur cette information que l’on calcule des critères
de rugosité. Par exemple, dans l’utilisation du traitement d’images pour caractériser le
degré d’usure d’un revêtement de sol, on cherche à localiser les microrugosités situées sur
la partie haute des granulats de la chaussée car ce sont elles qui génèrent le phénomène
d’adhérence défini par le contact entre la chaussée et le pneu. Pour cela, il faut considérer
un échantillonnage spatial de l’ordre de 80 µm, indépendamment des lignes et des colonnes de l’image. En effet, l’image doit être acquise par un dispositif à pixels carrés pour
éviter toutes déformations et changements d’échelles dans des directions privilégiées ce
qui nous évitera par la suite de devoir traiter l’image pour éliminer cette distorsion.
3.2.2
L’éclairage
L’éclairage revêt une importance capitale durant la phase d’acquisition. En effet, le
système d’acquisition enregistre en tant qu’image la lumière réfléchie par la portion de
la surface que l’on souhaite acquérir. Les niveaux de gris de l’image étant assimilés à des
hauteurs, il est très important d’avoir un éclairage uniforme. Un éclairage non uniforme
34
Chapitre 3. L’acquisition d’images et ses contraintes matérielles
entraı̂ne une variation de l’éclairement sur la portion acquise et donc une variation de la
quantité de lumière réfléchie par deux points à priori de même couleur et à égales distances
du dispositif d’acquisition. Ainsi, on crée des différences de niveaux dans l’image entre
des pixels censés être de même couleur. On crée du relief là où il n’y en a pas, ou on le
lisse. Cela peut donc générer des erreurs sur le calcul des critères.
Par connaissance à priori du défaut de l’uniformité de l’éclairage, ce qui revient à
connaı̂tre sa répartition au niveau de la surface, on peut corriger en prétraitements les
problèmes de pentes dans l’image qui sont uniquement liés aux défauts d’éclairage. Toutefois, cette étape n’est pas évidente car elle demande de connaı̂tre la quantité de lumière
reçue localement afin de compenser les variations des niveaux des zones affectées. Pour
cela, il faut modéliser la répartition de la dispersion de la lumière dans une ellipse
2
en
3D. L’utilisation d’un luxmètre permet de quantifier cette valeur, le problème étant de
pouvoir faire des mesures d’intensité lumineuse reçue sur la surface de manière ponctuelle,
c’est à dire que la tête de mesure doit être très petite.
On peut aussi rencontrer des problèmes de réflexions spéculaires. En effet, les revêtements
que l’on utilise ne sont pas systématiquement des surfaces de type lambertien (voir le
chapitre 4.1). Cela a pour effet de créer dans l’image des pics de hauteur, ce qui a pour
conséquence d’écraser la dynamique de l’image et de baisser d’autant la quantification.
Ces points brillants sont dus à la conception des crépis qui sont composés de grains de
sable, ainsi qu’au type de peinture employée pour les peindre, qui serait brillante. Pour
supprimer ces points, on peut donc envisager tout naturellement de repeindre les crépis
avec une peinture mate, mais se pose alors un autre problème. L’ajout d’une nouvelle
couche de peinture remplit les trous de la surface et donc a tendance à lisser le relief.
C’est pourquoi on s’efforcera de traiter ce problème par analyse d’images en amont du
calcul des critères. Pour ce qui est de la moquette, elle est la plupart du temps conçue à
base de fibres synthétiques qui donnent un effet de miroir. D’un point de vue matériel,
on envisage par la suite d’utiliser un filtre polarisant pour éviter le prétraitement logiciel
(voir le chapitre 3.3.2).
2. l’éclairage est incliné par rapport à la normale à la surface
3.3. Le matériel
3.3
3.3.1
35
Le matériel
Le matériel disponible
On dispose au laboratoire de deux systèmes d’acquisition opérationnels et d’un troisième
système en phase d’installation :
Caméra Sony DXC-9100P :
Cette caméra est une caméra vidéo couleur munie d’un capteur tri-CCD 3 à pixels
carrés. Elle dispose d’une sortie RGB reliée à une carte d’acquisition connectée au PC.
La carte d’acquisition choisie est une carte Matrox Meteor II/Multi-Channel. Cette carte
est une carte d’acquisition vidéo analogique monochrome et RVB pour la capture d’image
standard ou non-standard. Elle est fournie avec le logiciel Matrox Intellicam. Il permet
d’interfacer la caméra avec la carte d’acquisition et de réaliser des captures d’images. Le
logiciel permet d’enregistrer les images en fichiers non compressés ce qui est très important
en vue de notre application (voir le dernier paragraphe de ce chapitre).
Les avantages de ce système sont une optique de la caméra de bonne qualité (pas
de distorsion), et un objectif motorisé ce qui permet d’assurer un réglage assez fin du
grossissement et de la netteté, ainsi qu’une position fixe pendant toute durée de la phase
d’acquisition. En effet le dispositif étant positionné verticalement, l’objectif ne se dérègle
pas sous son propre poids grâce au moteur qui le retient, ce qui n’est pas le cas de
certains zooms classiques que l’on trouve sur les appareils photo reflex par exemple. On
peut également régler l’ouverture de l’iris, ce qui permet de varier la quantité de lumière
au niveau du capteur et ainsi éviter d’accroı̂tre le gain de la caméra ce qui augmenterait
le bruit. Tous ces réglages sont accessibles par une télécommande ce qui évite de toucher
directement le dispositif pendant la phase d’acquisition. Pour résumer, la possibilité de
régler tous les paramètres de l’acquisition manuellement, et de façon relativement simple,
font que ce système est très avantageux.
Malheureusement, des défauts limitent son utilisation et entraı̂nent de mauvais résultats.
En effet, le signal qui sort de la caméra est un signal RGB codé selon le système PAL.
L’échantillonnage est donc de 8 bits par composante ce qui nous donne que 256 possibilités de niveaux de gris et donc que 256 possibilités de hauteurs différentes. On a vu
précédemment (voir le chapitre 3.2.1) que cela correspondait à une résolution verticale
de l’ordre de 40 µm pour une hauteur d’analyse de 10 mm ce qui est insuffisant. Un autre
3. un capteur CCD par composante Rouge, Vert et Bleu
36
Chapitre 3. L’acquisition d’images et ses contraintes matérielles
inconvénient vient de l’optique qui bien que de bonne qualité ne permet pas d’obtenir
un échantillonnage spatial suffisant. En effet, on atteint les 80 µm mais il faudrait, pour
pouvoir faire de l’analyse fréquentielle sur du relief de l’ordre de 0.5 mm descendre en
dessous des 50 µm afin de respecter le théorème de Shannon. Un dernier désavantage de
ce système provient des conversions successives du signal. En effet, le signal est transmis
analogiquement de la caméra vers la carte avant d’être renumérisé par cette dernière pour
obtenir un fichier informatique.
Appareil photo numérique Olympus :
Cette appareil permet une résolution de l’image de 1600 × 1200 pixels. L’image ne
peut être sauvegardée que sur une carte-mémoire ce qui oblige des transferts réguliers vers
l’ordinateur des images acquises. En effet, les images enregistrées le sont en format .tif
non compressé, ce qui conduit à une taille par image de 5.49 M o. L’appareil est muni d’un
zoom optique 3× et d’un zoom numérique de 2.5×. Le zoom numérique n’a pour nous
aucune utilité et sera toujours déconnecté car il interpole les pixels manquants. Le zoom
3× correspond à une focale de 105 mm pour un appareil photo classique. C’est moins
bien que pour les caméras mais la résolution importante de l’image permet d’atténuer
ce défaut. Le problème reste sur le pas de quantification de la couleur qui plafonne à 8
bits. Un autre problème vient du réglage de la balance des blancs. L’appareil compense
de manière automatique les variations d’éclairage entre deux échantillons en réajustant
le gain, ce qui rend difficile une étude comparative.
Caméra linéaire :
Cette caméra est en phase d’installation, et donc on n’a pas encore eu le temps de
l’essayer. On peut toutefois citer ses spécifications techniques. Les images que l’on pourra
acquérir auront une taille de 1024 × 2048 pixels. L’échantillonnage spatial est de loin
supérieur à celui de la caméra Sony, mais la quantification reste sur 8 bits. C’est rela-
tivement dommage, car on ne pourra pas observer le gain que pourrait nous apporter
une augmentation de la quantification. Sinon, l’objectif livré est un objectif de marque
Nikkor avec une focale variable dans l’intervalle 70-300 mm. La marque de ce téléobjectif
laisse supposer à priori une bonne qualité de fabrication et la focale maximum semble
intéressante pour le type d’application qui nous concerne. Les principales fonctions de la
caméra sont supposées pouvoir être réglées par le biais d’un ordinateur.
3.3. Le matériel
37
L’éclairage :
On dispose au laboratoire de deux types de projecteurs différents :
1. 3 spots de 71 W
2. 2 projecteurs de 300 W ou de 1000 W selon la puissance de l’ampoule
On peut dire qu’au niveau de l’éclairage, des progrès importants peuvent être faits.
Que ce soit l’un ou l’autre des dispositifs, l’éclairage est loin d’être uniforme. Les seules
différences entre les deux dispositifs sont la puissance et la couleur de l’éclairage. Les
spots de 71 W fournissent une lumière plus chaude (plus de rouge) par rapport aux deux
projecteurs.
Format de fichiers :
Le format de fichiers n’est pas à négliger dans une étude de ce type. En effet, les images
acquises sont tout d’abord enregistrées avant d’être traitées ou analysées. L’information
que l’on souhaite étudier est l’information de rugosité. Les rugosités sont assimilées aux
hautes fréquences dans l’image. Les systèmes de compression d’images à base d’ondelettes 4 (JPEG2000) ou de transformées en cosinus discrètes 5 (JPEG), et bien d’autres,
sont des systèmes de compression dits destructifs, c’est à dire que l’on perd de façon
définitive une partie de l’information. Sur l’image, ce filtrage se traduit par des contours
plus flous. On voit donc l’intérêt de considérer un format de fichier de type .bmp ou .tif
sans compression. Le format le mieux adapté que nous autorise notre matériel (l’appareil
photo ou les logiciels d’acquisition des caméras) est le format .tif.
3.3.2
Le matériel envisagé
L’idéal serait de regrouper en un seul système de prise de vue toutes les qualités des
différents dispositifs et d’essayer de supprimer les défauts persistants. Je vais donc lister
les caractéristiques techniques auxquelles le matériel devra répondre.
1. Une matrice de pixels carrés pour éviter les déformations.
2. Une quantification supérieure à 8 bits, sachant que 12 bits seraient fortement recommandés.
3. Un échantillonnage spatial (selon les lignes et les colonnes de l’image) inférieur à
50 µm pour un appareil à une distance d’au moins 50 cm de la surface à étudier
4. DWT : Discret Wavelet Transform
5. DCT : Discret Cosine Transform
38
Chapitre 3. L’acquisition d’images et ses contraintes matérielles
(pour des questions d’ombres dues à l’éclairage). Pour arriver à une telle résolution,
il faut considérer les deux points suivants.
4. Une densité très importante de pixels sur le capteur CCD : quatre à cinq millions
de pixels, ce qui devient à l’heure actuelle le standard du milieu de gamme seront
un minimum.
5. Un objectif de bonne qualité, puissant et motorisé. La présence d’un mode macro,
voir un objectif spécialisé dans ce mode est recommandé. Si l’appareil possède un
zoom numérique, il faut impérativement qu’il soit débrayable.
6. Un enregistrement direct de la photo de la surface étudiée, c’est à dire sans conversion numérique-analogique pour la transmission vers le PC puis analogique-numérique
au niveau de la carte d’acquisition du PC.
7. Le format de fichier devra être sans compression et dans l’idéal, il faudrait récupérer
les informations provenant directement du capteur CCD, sans aucune transformation ou ajustement (réglage de la balance des blancs par exemple).
8. Le dispositif devra posséder un système de commande à distance via un logiciel sur
PC ou une simple télécommande infrarouge.
9. Les réglages de l’appareil devront pouvoir se faire en mode manuel et être complets
(réglages de la vitesse et de l’ouverture du diaphragme, etc . . .).
10. Le projecteur devra fournir une lumière uniforme. Son système de lentilles devra
être de bonne qualité (sans bulle d’air) afin d’obtenir une lumière sans aberration
ponctuelle.
11. On devra équiper le dispositif d’un filtre polarisant afin d’éviter les réflexion spéculaires.
En effet, un phénomène de réflexion spéculaire entraı̂ne une polarisation de l’onde
selon un certain axe. Le filtre polarisant permet de filtrer cette composante.
Chapitre 4
Les critères développés
4.1
Modèle photométrique et lien entre le relief et
l’image
Les différentes études menées jusqu’à présent s’appuient sur l’hypothèse que les variations des niveaux de gris sont représentatives en grandes parties des variations du relief
de la surface étudiée. Il existe différents modèles photométriques qui permettent d’établir
un lien entre ces deux paramètres (niveaux de gris et hauteur du relief).
Dans le cadre de notre étude, nous considérerons que les variations de relief sont
négligeables devant la distance qui sépare la surface étudiée du dispositif d’acquisition.
Nous considérerons également que les surfaces étudiées sont supposées être de type lambertien 1 . En effet, le modèle de Lambert va nous permettre d’exprimer la relation qui
existe entre les niveaux de gris de l’image I (x, y) et le relief Z (x, y).
On exprime ce lien en considérant une surface rugueuse de type lambertien éclairée
par une source lumineuse située à la verticale de la surface à étudier. L’observation par
le dispositif d’acquisition se fait selon le même angle, à savoir normal à la surface. Le
dispositif est représenté sur la figure 4.1.
La quantité de lumière reçue Φi par un élément de surface ds dépend alors uniquement
de l’orientation de la surface par rapport à la direction de l’éclairage. Cette quantité de
lumière s’exprime par la relation suivante :
Φi = Φ0 × ds × cos (i)
avec Φ0 le flux reçu par une surface orthogonale à la direction d’éclairage.
1. la couleur de la surface ne varie pas en fonction de la position de l’observateur
40
Chapitre 4. Les critères développés
Caméra
Eclairage
z (x)
z (x)
i
i
axe normal
à la surface
dz
x
i
dx
ds
x
Fig. 4.1 – Prise de vue du profil d’une surface
La quantité de lumière réfléchie, notée Φr par l’élément de surface ds dans la direction
de la caméra s’exprime par la relation :
Φr = Φi × cos (i) = Φ0 × ds × cos2 (i)
On peut alors établir la relation entre les niveaux de gris de l’image I (x, y) et le relief
de la surface Z (x, y) :
I (x, y) =
L0 × cos i (x, y)
r2
(4.1)
avec L0 le facteur luminance dépendant de l’éclairage et de la nature des surfaces,
i (x, y) l’angle entre la direction d’observation et la normale au point en (x, y),
r la distance entre la caméra et un point de coordonnées (x, y) de la surface.
Le terme luminance ne peut pas être considéré comme constant. Pour tenir compte de
ces variations, on exprime à nouveau les niveaux de gris de l’image mais par la relation :
I (x, y) =
L (x, y) × cos i (x, y)
r2
(4.2)
avec L (x, y) la carte des luminances de la surface étudiée.
Nous pouvons alors relier les variations de niveaux de gris aux variations de hauteurs
de la surface :
4.2. Les critères géométriques
I (x, y) =
r2
×
r
L (x, y) × dx
1+
³
´
∂Z(x,y) 2
∂x
+
³
41
(4.3)
´
∂Z(x,y) 2
∂y
Le cas traité jusqu’à présent était conditionné par l’angle d’éclairage avec l’axe optique du dispositif d’acquisition qui était nul. Si on introduit un angle β entre la source
lumineuse et l’axe optique du dispositif d’acquisition, afin d’étudier l’influence de l’angle
d’éclairage sur les calculs des critères de rugosités par exemple, on obtient :
Ã
!
∂Z
+ cos β ×
I (x, y) = sin β ×
∂x
L (x, y)
r2
×
r
1+
³
∂Z
∂x
´2
+
³
∂Z
∂y
´2
(4.4)
Cette relation nous permet donc de relier les niveaux de gris de l’image aux variations
de relief mais également aux variations de luminance. Ces variations de luminance peuvent
être extraites sous la condition de disposer à la fois de l’image en niveaux de gris et de la
carte des altitudes Z (x, y) de la surface acquise.
On s’intéresse par la suite aux critères de rugosité qui ont été développé à la base sur
les revêtements de sol. On distingue deux approches :
1. une approche géométrique,
2. une approche fréquentielle.
On applique ces critères tels qu’ils ont été définis pour les revêtements de sol sur les
parois rugueuses de bâtiments.
4.2
Les critères géométriques
4.2.1
Carte des angles
On cherche pour ce critère à calculer la carte des angles de l’image, ce qui revient
à connaı̂tre en chaque point l’angle entre la surface et l’axe optique du dispositif d’acquisition. La méthode utilisée consiste à considérer pour un pixel donné un voisinage
4-connexe. Chaque pixel forme alors avec ses voisins une pyramide dont il est le sommet,
les quatre voisins formant la base de la pyramide (voir la figure 4.2).
On calcule l’angle entre l’axe optique et la normale à chaque facette. L’angle du
sommet avec l’axe optique du dispositif d’acquisition est alors donné par la relation
suivante :
42
Chapitre 4. Les critères développés
z
α
I (x, y)
I (x, y − 1)
I (x − 1, y)
I (x + 1, y)
x
I (x, y + 1)
y
Fig. 4.2 – Schéma carte des angles


avec
α (x, y) = arccos 
r
∂I(x,y)
∂x
=
I(x−1,y)−I(x+1,y)
2
∂I(x,y)
∂y
=
I(x,y−1)−I(x,y+1)
2

1
1+
³
∂I(x,y)
∂x
´2
+
³
∂I(x,y)
∂y


´2 
(4.5)
On a donc :

α (x, y) = arccos  q
2
2
4 + (I (x − 1, y) − I (x + 1, y)) + (I (x, y − 1) − I (x, y + 1))
2


(4.6)
Le critère que l’on considère est alors une moyenne des angles calculés pour chaque
pixel de l’image. Plus la valeur du critère est élevée moins la surface contient des rugosités
pointues (en moyenne). Donc, on peut dire que la surface est de plus en plus lisse lorsque
la valeur du critère augmente.
L’application de ce critère sur une image de crépi donne le résultat suivant (voir la
figure 4.3) :
4.2. Les critères géométriques
a. image à traitée
43
b. carte des angles correspondante
Fig. 4.3 – Mise en application du critère angle sur une image de crépi
4.2.2
Carte des rayons de courbures
On recherche à avoir une information sur les variations locales des niveaux de gris
autour d’un pixel donné. Localement, chaque point fait partie d’une certaine courbe que
l’on cherche à déterminer afin de calculer son rayon de courbure. En 1D, on a :
r
Courbe y = f (x)
Fig. 4.4 – Rayon de courbure en 1D
r est alors défini par :
3/2
(1 + ẏ 2 )
ÿ
Le calcul des rayons de courbure sur une image, donc en 2D, peut alors être effectué
r=
dans un premier temps sur les lignes, puis dans un second temps sur les colonnes. On
peut exprimer ce traitement par la relation suivante :
44
Chapitre 4. Les critères développés
¯µ
³ ´ ¶³ 2 ´
³ ´³ ´³ 2 ´ µ
³ ´2 ¶ ³ 2 ´ ¯¯
¯
∂I
∂ I
∂I
∂ I
∂I
∂ I ¯
¯ 1 + ∂I 2
− 2 ∂x ∂y ∂x∂y + 1 + ∂x
¯
∂y
∂x2
∂y 2 ¯¯
¯
¯
r=¯
µ
³ ´2 ³ ´2 ¶ 23
¯
¯
¯
¯
∂I
∂I
2 1 + ∂x + ∂y
¯
¯
(4.7)
Le but de ce critère est d’évaluer l’angularité globale de la surface étudiée, et donc de
dire si une surface contient des rugosités plus ou moins pointues. En effet, plus elle sera
lisse et plus les rayons de courbures seront élevés.
L’inconvénient de cette méthode de calcul est que l’on travaille alors dans deux directions privilégiées, ne prenant pas en compte un nombre non négligeable de directions
(toutes sauf celles des lignes et des colonnes de l’image). La valeur que nous retourne
le critère est donc discutable. En effet, les surfaces étudiées sont, à priori, considérées
du point de vue de la rugosité comme étant isotropes 2 . Il nous faut alors améliorer cet
algorithme [ATKL01]. Le nouveau formalisme qui permet d’obtenir la carte des courbures
2D est alors le suivant :
β12 =
q
1
r + t ∓ (r − t)2 + 4s2
2
µ
¶
(4.8)
avec
r=
∂ 2 I (x, y)
∂x2
s=
∂ 2 I (x, y)
∂x∂y
t=
∂ 2 I (x, y)
∂y 2
On considère pour de l’analyse d’images les approximations discrètes suivantes :
s'
r'
I (x + hx , y) + I (x − hx , y) − 2I (x, y)
h2x
(4.9)
t'
I (x, y + hy ) + I (x, y − hy ) − 2I (x, y)
h2y
(4.10)
1
[I (x + hx , y + hy ) + I (x − hx , y − hy ) − I (x − hx , y + hy ) − I (x + hx , y − hy )]
4hx hy
(4.11)
β1 et β2 sont les valeurs propres de la matrice hessienne H(x, y) donnée par :

H(x, y) = 
r s
s t
2. la rugosité ne dépend pas d’une direction d’analyse donnée


(4.12)
4.2. Les critères géométriques
45
β1 est alors la courbure minimale, tandis que β2 est la courbure maximale. On peut
considérer également la courbure totale donnée par :
H(x, y) = β1 β2
soit
H(x, y) = rt − s2
(4.13)
ainsi que la courbure moyenne donnée par :
∆I(x, y) = r + t
(4.14)
Ces quatre calculs différents sont autant de critères qu’il sera bon de discriminer
afin de garder le meilleur d’entre eux. Comme on peut également le voir, deux termes
interviennent lors du passage dans le domaine discret. Ce sont hx et hy qui représentent
les pas de dérivation respectivement selon les lignes et les colonnes. On pourra donc jouer
sur ces paramètres pour améliorer les résultats (voir le chapitre 5.5).
On peut tout de même montrer pour une image de crépi donnée les résultats obtenus
pour chacun des calculs, sauf pour le calcul du total des valeurs propres de la matrice
hessienne qui ne donne pas de résultats significatifs (voir la figure 4.5).
4.2.3
Gradient de l’image
Le gradient de l’image est très révélateur des variations locales de niveaux de gris et
donc des microrugosités. C’est un filtre dérivateur donc un filtre passe-haut. Les microrugosités se traduisant par des variations brèves 3 de niveaux de gris ne seront à priori
pas affectées par le filtrage. On peut effectivement les associer aux hautes fréquences de
l’image. On considère localement la norme du gradient 2D :
g (x, y) =
v
!
uÃ
u ∂I (x, y) 2
t
∂x
Ã
∂I (x, y)
+
∂y
avec les approximations discrètes suivantes :
∂I (x, y)
= I (x, y) − I (x − 1, y)
∂x
∂I (x, y)
= I (x, y) − I (x, y − 1)
∂y
3. quelques pixels de large, étant donné la résolution spatiale considérée
!2
(4.15)
46
Chapitre 4. Les critères développés
a. image à traitée
b. carte des moyennes des valeurs propres
de la matrice hessienne
c. carte des minimas des valeurs propres
d. carte des maximas des valeurs propres
de la matrice hessienne
de la matrice hessienne
Fig. 4.5 – Mise en application du critère courbure sur une image de crépi
On obtient donc une image contenant en chaque pixel la valeur du gradient calculée localement grâce à la formule précédente (voir l’équation 4.15). On fait ensuite une moyenne
sur l’image des gradients. La valeur obtenue est révélatrice de la densité des microrugosités présentes dans la surface étudiée. Plus la moyenne de l’image des gradients est élevée
et plus la quantité de microrugosités est importante.
4.2. Les critères géométriques
47
On obtient par exemple pour une image de crépi donnée la carte des gradients suivante
(voir la figure 4.6).
a. image à traitée
b. carte des gradients correspondante
Fig. 4.6 – Mise en application du critère gradient sur une image de crépi
4.2.4
Autocorrélation
L’autocorrélation est un critère classé parmi les critères géométriques. On calcule ce
critère non pas directement sur l’image, mais sur l’image des gradients. Le gradient de
l’image est une image contenant les pentes reliant un pixel à son voisinage 4-connexe.
On a donc la même information que celle apportée par les niveaux de gris mais présentée
différemment. L’autocorrélation de cette image est donc celle des variations.
Dans le cas où l’image présenterait des variation faibles de niveaux de gris, la surface
d’autocorrélation aurait une pente faible. Dans le cas où l’image présenterait des variations élevées de niveaux de gris, la surface d’autocorrélation serait de pente élevée. En
effet, le décalage d’un pixel n’aura pas la même importance si les variations de niveaux
de gris sont faibles ou élevées.
Le critère basé sur la surface d’autocorrélation est dans un premier temps le gradient
2D de cette surface. En effet, on cherche avec le gradient à caractériser la pente de la
surface d’autocorrélation. On peut donc en déduire que la surface analysée est rugueuse
pour des valeurs de gradients de la surface d’autocorrélation élevées, et qu’elle est plutôt
lisse pour des valeurs de gradients de la surface d’autocorrélation faibles.
48
Chapitre 4. Les critères développés
Néanmoins, ce critère trouve ces limites lorsque la surface d’autocorrélation présente
une pente dans d’autres directions que celles analysées par le gradient (à savoir selon les
lignes et les colonnes). Ce critère est donc complété par un second qui s’appuie sur les
valeurs propres de la surface d’autocorrélation.
L’application du critère autocorrélation sur une cartographie de crépi donne la surface
d’autocorrélation illustrée par la figure 4.7.
a. surface de corrélation
b. sélection autour du pic de corrélation
Fig. 4.7 – Représentation de la surface de corrélation pour une image de crépi
4.2.5
Valeurs propres
Comme le critère précédent, le critère des valeurs propres est répertorié avec les critères
géométriques, car il s’appuie sur l’image des gradients. Il fonctionne comme le critère
d’autocorrélation, mais le résultat n’est pas calculé de la même façon. En effet, on calcule l’autocorrélation de l’image des gradients et on se concentre alors sur l’information
contenue au niveau du pic d’autocorrélation (pour un déplacement nul). On considère
alors une fenêtre centrée en ce pic et les valeurs d’autocorrélation fournissent alors une
matrice. On calcule alors les valeurs propres de cette matrice et le critère ce résume au
maximum de ces valeurs.
On obtient donc une sélection de la surface d’autocorrélation qui se traduit dans le
cas précédent (voir la figure 4.7.a.) par la surface de la figure 4.7.b..
4.3. Les critères fréquentiels
4.3
4.3.1
49
Les critères fréquentiels
Densité spectrale de puissance
Pour notre étude, on souhaite caractériser les microrugosités qui sont apparentées,
aux vues des dimensions d’échantillonnage, aux hautes fréquences. Une idée assez simple
à mettre en œuvre et plutôt intuitive est d’étudier dans un premier temps la DSP 4 de
l’image de la surface. En effet, cette étude nous donne une information sur la répartition
spectrale de l’énergie de l’image. On peut donc déterminer si on a plus ou moins de hautes
fréquences. Connaissant le pourcentage des hautes fréquences donc celui des microrugosités pour une surface étudiée, on peut estimer un ordre de classement de différentes
surfaces par rapport à ce critère.
La DSP est alors définie par la valeur absolue de la transformée de Fourier 2D de
l’image.
4.3.2
Transformée en ondelettes
Cette méthode est basée sur le filtrage par ondelettes. Le principe est d’utiliser un
filtre 5 afin de décomposer l’images en 4 sous imagettes (pour une décomposition d’ordre
1), l’une contenant les basses fréquences de l’image, les trois autres contenant les hautes
fréquences selon les axes horizontaux, verticaux, et diagonaux. On peut par cette méthode
dite multi-échelle isoler certains intervalles de taille (ou de fréquence) en procédant à
des décompositions successives. Néanmoins, le sous-échantillonnage que produit chaque
décomposition implique une division de la taille de l’image à analyser par deux. Une
limite dans le nombre de décompositions est alors donnée par la taille de l’image initiale.
Dans notre étude, on cherche à caractériser les microrugosités sans distinction de taille,
ce qui nous conduit à ne réaliser qu’une seule décomposition.
Après application de la transformée en ondelettes, on récupère les coefficients d’ondelettes qui sont représentatifs de l’image des basses fréquences et des images des détails
hautes fréquences. Ce qui nous intéresse c’est de caractériser les hautes fréquences, donc
les images de détails horizontaux, verticaux et diagonaux. On calcule alors l’écart-type
sur les coefficients d’ondelettes correspondants à ces trois images de détails, ce qui nous
donne le critère. L’avantage de cette méthode est qu’elle se révèle être robuste vis-à-vis
des variations de couleurs.
4. Densité Spectrale de Puissance
5. filtre de Haar
50
Chapitre 4. Les critères développés
On peut observer pour une cartographie la décomposition par ondelettes suivante
(voir la figure 4.8) :
a. image à traitée
b. carte des gradients correspondante
Fig. 4.8 – Mise en application du critère ondelette sur une image de crépi
Chapitre 5
Résultats expérimentaux
Comme je l’ai déjà évoqué, les relevés cartographiques seront pour nous la référence
de notre étude à laquelle on essaiera toujours de comparer nos résultats. Je vais donc
commencer par exposer le principe des relevés de relief par capteur laser, méthode qui
donne les cartographies, avant de les comparer à nos résultats.
5.1
Principe de mesures laser
Un rayon est émis par une diode laser en direction de la surface à étudier. Avant de
rentrer en contact avec cette dernière, le rayon est focalisé à l’aide de lentilles convergentes
en un spot de 1 µm de diamètre au niveau de la surface. Ce système est équipé de lentilles
amovibles asservies de manière à faire coı̈ncider systématiquement le plan de focalisation
du rayon laser avec le point analysé de la surface. Le déplacement du plan de focalisation
pour chaque point de la surface est alors mémorisé pour obtenir la carte des hauteurs de
la surface. L’erreur obtenue à l’aide de ce montage est alors de l’ordre de 0.1 µm.
5.2
Etude des cartographies
Une cartographie est d’après la méthode de mesure décrite précédemment (voir le
chapitre 5.1) une surface 3D. Elle peut être représentée par la figure 5.1.
On calcule les critères géométriques et les critères fréquentiels (voir l’annexe A, page
63). On trace l’évolution d’un critère en fonction des plaques. Tous les résultats placés
en annexe ont le même axe des abscisses. La numérotation 1, 2, 3, et 4 correspond aux
plaques de crépi appelées crépi 1, crépi 2, crépi 3 et crépi 4. Ils sont censés être classé par
ordre croissant de rugosité.
52
Chapitre 5. Résultats expérimentaux
a. cartographie d’une paroi
b. zoom d’une zone 64 × 64
c. relief de la zone zoomée
Fig. 5.1 – Représentation d’une cartographie à différents niveaux de détails et angles
d’observation
On obtient donc pour les cartographies un résultat classé pour tous les critères, sauf
celui de l’autocorrélation. Les critères fonctionnent correctement sur la référence de notre
étude.
5.3. Etude des images
5.3
53
Etude des images
Après une étude sur les cartographies plutôt encourageante, on a obtenu de mauvais
résultats lorsque nous avons voulu extraire des critères de rugosité des images acquises
(voir l’annexe B, page 65). Seul le critère basé sur les ondelettes donne le bon classement,
mais les valeurs entre les différentes images de crépi sont très proches. Certains, comme
la courbure, le gradient ou encore les valeurs propres ne sont pas loin de donner un bon
résultat puisqu’une seule plaque de crépi semble nous poser un problème. On a alors
envisagé des solutions dont l’une était liée à la nature des surfaces.
5.4
Influence des points de réflexions spéculaires
Comme nous l’avons évoqué précédemment, la nature des revêtements pose un problème
de points de réflexion spéculaire qui apparaissent dans l’image. Localement, les microfacettes se comportent comme des miroirs. Les variations de niveaux de gris ne sont
plus représentatives des variations de reliefs, car nous ne sommes plus sous l’hypothèse
que la surface est de type lambertien. On a essayé de filtrer ces pics dans l’image en
considérant qu’ils avaient une largeur assez faible, quelques pixels au plus. On fixe donc
un seuil au dessus duquel on veut supprimer des points de l’image en les remplacant par
la moyenne de ses plus proches voisins au sens d’une 8-connexité. Le niveau de ses voisins
sera évidemment inférieur au seuil fixé.
Malheureusement, on n’obtient pas de bons résultats, que ce soit pour les critères
fréquentiels ou pour les critères géométriques (voir l’annexe D, page 71). En calculant
le rapport entre le nombre de points spéculaires et le nombre total de pixels de l’image,
on s’aperçoit qu’ils ne sont qu’une infime partie de l’image (1 pour 1000 environ). Leur
incidence semble donc être minime sur les critères ce qui justifie que la valeur des critères
ne varie quasiement pas quand on fait varier le niveau du seuil.
5.5
Etude comparative sur le rayon de courbure
Le calcul des rayons de courbure par la méthode des valeurs propres (voir le chapitre
4.2.2) de la matrice hessienne nous permet de sortir quatre valeurs caractéristiques :
1. le minimum des valeurs propres
2. le maximum des valeurs propres
3. la moyenne des valeurs propres
54
Chapitre 5. Résultats expérimentaux
4. le total des valeurs propres
Ces quatre valeurs (voir les équations 4.8, 4.14 et 4.13) sont données pour chaque
pixel de l’image si bien que l’on a quatre images contenant les minimums, maximums,
moyennes, et totaux des valeurs propres. On appellera respectivement ces images les cartes
des minimums, maximums, moyennes et totaux. On doit donc considérer un moment statistique d’ordre 1 1 ou d’ordre 2 2 sur ces images afin d’extraire un critère. On va procéder
par étude comparative. En effet, on va chercher à identifier une configuration combinant
un moment d’ordre 1 ou 2 et l’une des quatre cartes, qui donnerait un classement que
l’on considère correct entre les quatre plaquettes de crépi. Cette étude comparative est
menée sur les cartographies car ce sont elles qui sont considérées comme étant la référence
et la représentation la plus précise de la réalité, du fait de la précision de la méthode de
mesure par laser. Nous considérerons comme meilleur résultat le moment statistique et
la carte associée qui donnent le classement le plus linéaire.
On rajoute un paramètre à l’étude. En effet nous considérons en plus différents pas
de dérivation 3 pour la discrétisation des dérivées (voir les équations 4.9, 4.10 et 4.11).
On essaie de voir ainsi quelle interpolation de la dérivée, liée au pas de dérivation est la
meilleure. On obtient alors les résultats suivants.
1. Moment statistique d’ordre 1 (voir l’annexe C, page 67)
2. Moment statistique d’ordre 2 (voir l’annexe C, page 68)
Dorénavant, quand on parlera de critère de rayon de courbure on fera allusion à la
moyenne de la carte contenant les maximums des valeurs propres de la matrice hessienne.
5.6
Caractérisation de l’histogramme
Le modèle de propagation prend en compte un critère de rugosité (voir le chapitre 2.2)
défini par une loi normale de moyenne nulle et d’écart-type correspondant à la hauteur des
rugosités. On décide alors de regarder la répartition des niveaux de gris de l’image censée
être représentative du relief. On trace l’histogramme d’une image de crépi et on essaie de
le modéliser par une gaussienne. Une loi de Gauss est caractérisée par un moment d’ordre
1, la moyenne, et par un moment d’ordre 2, l’écart-type. On a représenté ces courbes pour
les quatres crépis en annexe (voir l’annexe E, page 75). On peut tout d’abord remarqué
que pour les crépis 1 et 2, la modélisation est plus proche de l’original contrairement aux
1. moyenne des valeurs contenues dans les différentes cartes
2. écart-type des valeurs contenues dans les différentes cartes
3. hx et hy
5.6. Caractérisation de l’histogramme
55
crépis 3 et 4. Autrement dit, il est plus facile de caractériser par une gaussienne un crépi
fin plutôt qu’un crépi grossier. Ceci rend difficile la classification des quatres parois et
montre les limites du critère inclut dans le modèle de propagation.
Conclusions et Perspectives
Le développement croissant des télécommunications sans fil impose une évolution des
systèmes de transmission actuels. Les applications s’orientant de plus en plus vers l’utilisation d’information de type multimédia, il est nécessaire d’augmenter les fréquences
de transmission de ces systèmes. Seulement, une montée en fréquence nous oblige, afin
de modéliser au mieux le canal de transmission, à prendre en compte les caractéristiques
géométriques des surfaces des objets présents dans l’environnement. En effet ces surfaces ne sont plus considérées comme étant planes et la connaissance seule de leurs caractéristiques électriques ne suffit plus.
Le premier chapitre de ce mémoire était consacré à la présentation des bases théoriques
du modèle utilisé pour simuler la propagation d’ondes électromagnétiques. Il apparaı̂t les
expressions des champs réfléchi, transmis et diffracté selon le formalisme de l’Optique
Géométrique. Les coefficients de réflexion et de diffraction ont été introduits. Puis, dans
un second chapitre, le problème de la rugosité des surfaces a été mis en évidence. En
effet, on a pu constater un changement de l’atténuation relative de l’onde lorsque l’on
fait varier la taille des rugosités de surface. On a pu déterminer une valeur minimum de
hauteur de rugosité à prendre en compte pour une fréquence de 60 GHz.
L’idée était par la suite d’extraire un critère de rugosité caractérisant les différentes
parois présentant des rugosités de hauteur significative dans le cadre de notre étude.
Les résultats obtenus n’ont pas été à la hauteur de nos espérances. Les algorithmes sont
pourtant efficaces lorsqu’il s’agit de discriminer les cartographies de ces différentes parois.
Une partie du problème vient de la phase d’acquisition qui demande à être optimisée. En
effet, des paramètres de l’acquisition ne sont pas contrôlés et on est confronté aux limites
du système d’acquisition. La seconde partie du problème vient de la phase d’interprétation
de l’image. Cette étape est primordiale pour identifier les variations de niveaux de gris
58
Conclusions et Perspectives
aux variations de relief. Les problèmes de bruits générés par le système de prise de vue
ou par les conditions d’éclairage font que l’on a des déformations locales qui ne sont
pas présentes sur la surface analysée. Des solutions ont été mises en œuvre pour essayer
de contourner ce problème sans grand résultat. L’amélioration des caractéristiques du
matériel utilisé pendant l’acquisition paraı̂t donc nécessaire.
Ce qu’on a quand même pu montrer, c’est que les images des crépis ont une distribution gaussiennes de leurs niveaux de gris. Cette constatation est intéressante dans le
sens où le modèle de propagation prend déjà en compte un paramètre de rugosité de
ce type. Seulement l’écart-type de l’histogramme d’une image semble ne pas suffir pour
caractériser les rugosités d’une surface. Afin de pallier à cette limitation, Beckmann dans
sa modélisation de surface rugueuse propose un paramètre définissant la corrélation entre
les niveaux de deux points séparés d’un certaine distance. L’ajout de ce second paramètre
statistique pourrait améliorer le résultat des critères de rugosité.
L’étude des crépis et notamment les problèmes de points spéculaires montre les limites
du modèle photométrique de Lambert utilisé. Un stage de DEA a été mené en parallèle
sur les modèles photométriques. Ceci montre bien que l’on connait les limites de la théorie
que l’on utilise et qu’on est conscient qu’une amélioration des résultats passera par une
amélioration ou un changement du modèle photométrique utilisé.
Ce stage de DEA m’a permi de me confronter aux avantages et inconvénients du travail
de recherche. On a eu des problèmes de matériel indépendemment de notre volonté et
c’est pourquoi je n’ai pas pu faire d’étude paramétrique sur le modèle de propagation avec
un nouveau critère de rugosité issu du traitement d’images. Ceci étant dit, on apprend
plus dans les situations difficiles que lorsque tout va bien. De plus, je poursuis ce sujet
pendant le mois de juillet afin de faire cette étude paramétrique. Je suis très content
d’avoir vécu cette expérience qui me confirme mon envie de poursuivre dans le monde de
la recherche.
Bibliographie
[ATKL01] Bertrand Augereau, Benoı̂t Tremblais, Majdi Khoudeir, and Vincent Legeay.
A differential approach for fissures detection on road surface images.
In
QCAV2001, volume 1, pages 195–199, 2001.
[BKLD]
Jacques Brochard, Majdi Khoudeir, Vincent Legeay, and Min-Tan Do. Photometric model and roughness characterization for 3d micro textures analysis.
[BM94]
D. Bouche and F. Molinet. Méthodes asymptotiques en électromagnétique.
In Mathématiques et Applications, volume 1. Springer-Verlag, 1994.
[DKO01]
Nisrine Douiri, Majdi Khoudeir, and Christian Olivier. Roughness characterization of an indoor environment. Image Anal Stereol, 20 :225–229, 2001.
[DM02]
Fabien Dubreuil and Idriss Mamodaly. Etude de l’influence de la rugosité de
surfaces dans le domaine des radiocommunications mobiles. 2002.
[Esc02]
Frédéric Escarieu. Etude de la propagation dans les milieux indoor (intérieur
des bâtiments) autour de 2 ghz. 2002.
[Got00]
Alexis Gottlieb. Evaluation de la rugosité des revêtements routiers par traitement d’images. 2000.
[KBA+ 00] Majdi Khoudeir, Jacques Brochard, Bertrand Augereau, Vincent Legeay, and
Min-Tan Do. Discrimination de surfaces texturées 3d : application à la caractérisation de l’usure de revêtements routiers. In Vision Interface 2000,
pages 174–178, 2000.
[KBA+ 01] Majdi Khoudeir, Jacques Brochard, Bertrand Augereau, Vincent Legeay, and
Min-Tan Do. Contribution to the study of road holding through road micro
texture analysis. In QCAV2001, volume 2, pages 379–384, 2001.
60
Bibliographie
[Kel62]
J. B. Keller. Geometrical theory of diffraction. J. Opt. Soc. Amer., 52(2) :116–
130, February 1962.
[Kli51]
M. Kline. An asymptotic solution of maxwell’s equations. Comm. Pure
Appl.Math., 4 :225–262, 1951.
[KP74]
R. G. Kouyoumjian and P. H. Pathak. Geometrical theory of edge diffraction.
Proceeding of the IEEE, November 1974.
[Lue84]
R. J. Luebbers. Finite conductivity uniform gtd versus kinfe edge diffraction
in prediction of propagation loss. Proc. IEEE TR on AP, 1 :70–76, January
1984.
[Lue89]
R. J. Luebbers. A heuristic utd slope diffraction coefficient for rough lossy
wedges. IEEE Transactions on Antennas and Propagation, 37(2), february
1989.
[Lun44]
R. K. Luneberg. Mathematical theory of optics. Brone University Notes,
1944.
[Smi99]
M. L. Smith. The analysis of surface texture using photometric stereo acquisition and gradient space domain mapping. Image and Vision Computing 17,
pages 1009–1019, 1999.
[Wol59]
E. Wolf. Coherence properties of partially polarized electromagnetic radiation.
Il Nuovo Cimento, XIII(6), 16 september 1959.
Annexes
Annexe A
Les cartographies
Les critères fréquentiels
1
1
0.9
0.9
0.8
0.8
0.7
0.7
0.6
0.6
0.5
0.5
0.4
0.4
0.3
0.3
0.2
1
1.5
2
2.5
a. Ondelettes
3
3.5
4
0.2
1
1.5
2
2.5
b. DSP
Fig. 1.1 – Critères fréquentiels pour les cartographies
3
3.5
4
64
Annexe A. Les cartographies
Les critères géométriques
1
1
0.95
0.9
0.9
0.8
0.85
0.8
0.7
0.75
0.6
0.7
0.65
0.5
0.6
0.4
0.55
0.5
1
1.5
2
2.5
3
3.5
4
0.3
1
1.5
2
a. Angle
2.5
3
3.5
4
3
3.5
4
b. Courbure
1
1
0.9
0.9
0.8
0.8
0.7
0.6
0.7
0.5
0.6
0.4
0.3
0.5
0.2
0.4
0.1
0.3
1
1.5
2
2.5
3
3.5
0
4
1
1.5
c. Gradient
2
2.5
d. Autocorrélation
1
0.9
0.8
0.7
0.6
0.5
0.4
0.3
0.2
0.1
0
1
1.5
2
2.5
3
3.5
4
e. Valeurs Propres
Fig. 1.2 – Critères géométriques pour les cartographies
Annexe B
Les images
Les critères fréquentiels
1
1
0.998
0.995
0.99
0.996
0.985
0.994
0.98
0.992
0.975
0.99
0.97
0.988
0.965
0.96
0.986
1
1.5
2
2.5
a. Ondelettes
3
3.5
4
0.955
1
1.5
2
2.5
b. DSP
Fig. 2.1 – Critères fréquentiels pour les images acquises
3
3.5
4
66
Annexe B. Les images
Les critères géométriques
1
1
0.995
0.995
0.99
0.99
0.985
0.985
0.98
0.98
0.975
0.975
0.97
0.97
0.965
0.965
0.96
0.955
0.96
0.95
0.955
1
1.5
2
2.5
3
3.5
4
1
1.5
2
a. Angle
2.5
3
3.5
4
3
3.5
4
b. Courbure
1
1.005
0.99
1
0.98
0.995
0.97
0.99
0.96
0.95
0.985
0.94
0.98
0.93
0.975
0.92
0.97
1
1.5
2
2.5
3
3.5
4
0.91
1
1.5
c. Gradient
2
2.5
d. Autocorrélation
1
0.99
0.98
0.97
0.96
0.95
0.94
1
1.5
2
2.5
3
3.5
4
e. Valeurs Propres
Fig. 2.2 – Critères géométriques pour les images acquises
Annexe C
Les rayons de courbure
Moment d’ordre 1
2.5
1
pas de derivation = 1
pas de derivation = 2
pas de derivation = 3
pas de derivation = 1
pas de derivation = 2
pas de derivation = 3
0.9
0.8
2
0.7
0.6
1.5
0.5
0.4
1
1
1.5
2
2.5
3
a. moyenne des minimums
3.5
4
0.3
1
1.5
2
2.5
3
3.5
b. moyenne des maximums
Fig. 3.1 – Calcul d’un moment d’ordre 1 sur les cartes de rayons de courbure
4
68
Annexe C. Les rayons de courbure
1
1
pas de derivation = 1
pas de derivation = 2
pas de derivation = 3
pas de derivation = 1
pas de derivation = 2
pas de derivation = 3
0.9
0.5
0.8
0.7
0
0.6
0.5
−0.5
0.4
−1
0.3
0.2
−1.5
0.1
−2
1
1.5
2
2.5
3
3.5
4
0
1
1.5
a. moyenne des totaux
2
2.5
3
3.5
4
b. moyenne des moyennes
Fig. 3.2 – Calcul d’un moment d’ordre 1 sur les cartes de rayons de courbure
Moment d’ordre 2
2.5
1
pas de derivation = 1
pas de derivation = 2
pas de derivation = 3
pas de derivation = 1
pas de derivation = 2
pas de derivation = 3
0.9
2
0.8
0.7
1.5
0.6
0.5
1
0.4
0.3
0.5
0.2
0
1
1.5
2
2.5
3
a. moyenne des minimums
3.5
4
0.1
1
1.5
2
2.5
3
3.5
b. moyenne des maximums
Fig. 3.3 – Calcul d’un moment d’ordre 2 sur les cartes de rayons de courbure
4
69
1
1
pas de derivation = 1
pas de derivation = 2
pas de derivation = 3
0.9
pas de derivation = 1
pas de derivation = 2
pas de derivation = 3
0.9
0.8
0.8
0.7
0.7
0.6
0.6
0.5
0.5
0.4
0.4
0.3
0.3
0.2
0.2
0.1
0.1
1
1.5
2
2.5
3
a. moyenne des totaux
3.5
4
0
1
1.5
2
2.5
3
3.5
b. moyenne des moyennes
Fig. 3.4 – Calcul d’un moment d’ordre 2 sur les cartes de rayons de courbure
4
Annexe D
Filtrage des points spéculaires
Les critères fréquentiels
1
1
0.9
0.9
0.8
0.8
0.7
0.7
0.6
0.6
0.5
0.5
pas de seuil
seuil : 185
seuil : 200
seuil : 215
0.4
1
1.5
pas de seuil
seuil : 185
seuil : 200
seuil : 215
2
2.5
3
3.5
4
0.4
1
1.5
2
a. Ondelettes
2.5
b. DSP
Fig. 4.1 – Critères fréquentiels
3
3.5
4
72
Annexe D. Filtrage des points spéculaires
Les critères géométriques
1
1
pas de seuil
seuil : 185
seuil : 200
seuil : 215
0.95
0.9
0.9
0.8
0.85
0.8
0.7
0.75
0.6
0.7
0.65
0.5
pas de seuil
seuil : 185
seuil : 200
seuil : 215
0.6
0.55
1
1.5
2
2.5
3
3.5
4
0.4
1
1.5
2
a. Angle
2.5
3
3.5
4
3
3.5
4
b. Courbure
1
1
0.9
0.9
0.8
0.8
0.7
0.6
0.7
0.5
0.6
0.4
0.3
0.5
pas de seuil
seuil : 185
seuil : 200
seuil : 215
0.4
1
1.5
pas de seuil
seuil : 185
seuil : 200
seuil : 215
0.2
2
2.5
3
3.5
4
0.1
1
1.5
c. Gradient
2
2.5
d. Autocorrélation
1
0.9
0.8
0.7
0.6
0.5
0.4
pas de seuil
seuil : 185
seuil : 200
seuil : 215
0.3
0.2
1
1.5
2
2.5
3
3.5
4
e. Valeurs Propres
Fig. 4.2 – Critères géométriques
73
Les images seuillées
a. sans seuillage
b. seuil : 185
d. seuil : 215
c. seuil : 200
e. seuil : 230
Fig. 4.3 – Les images filtrées à partir d’un seuil
Annexe E
Modélisation par une gaussienne de
l’histogramme
9000
7000
histogramme
modélisation
histogramme
modélisation
8000
6000
7000
5000
6000
4000
5000
4000
3000
3000
2000
2000
1000
1000
0
0
50
100
150
200
250
300
0
0
50
100
a. crépi 1
150
200
250
300
b. crépi 2
14000
12000
histogramme
modélisation
histogramme
modélisation
12000
10000
10000
8000
8000
6000
6000
4000
4000
2000
2000
0
0
50
100
150
c. crépi 3
200
250
300
0
0
50
100
150
200
250
300
d. crépi 4
Fig. 5.1 – Modélisation par une gaussienne de l’histogramme des niveaux de gris
Annexe F
Montage de la salle d’acquisition
a. Dispositif complet
78
Annexe F. Montage de la salle d’acquisition
b. Ordinateur permettant l’acquisition
Table des figures
1.1
Phénomènes de réflexion et de transmission . . . . . . . . . . . . . . . . .
1.2
Décomposition de l’espace en trois zones dans le cas de diffraction par un
11
objet . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
14
1.3
Phénomène de diffraction . . . . . . . . . . . . . . . . . . . . . . . . . . .
16
2.1
Organigramme du programme de propagation . . . . . . . . . . . . . . .
20
2.2
Trajet d’une onde déviée par un obstacle . . . . . . . . . . . . . . . . . .
22
2.3
Etude du rapport
2.4
Etude de l’atténuation des deux polarisations en fonction de ∆h pour f =
λ
∆h
en fonction du coefficient de diffusion ρ . . . . . . .
23
60 GHz . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
23
3.1
Les différents crépis rencontrés . . . . . . . . . . . . . . . . . . . . . . . .
30
3.2
Autres types de surfaces rencontrées
. . . . . . . . . . . . . . . . . . . .
30
3.3
Les différents revêtements de sol rencontrés . . . . . . . . . . . . . . . . .
31
4.1
Prise de vue du profil d’une surface . . . . . . . . . . . . . . . . . . . . .
40
4.2
Schéma carte des angles . . . . . . . . . . . . . . . . . . . . . . . . . . .
42
4.3
Mise en application du critère angle sur une image de crépi . . . . . . . .
43
4.4
Rayon de courbure en 1D
. . . . . . . . . . . . . . . . . . . . . . . . . .
43
4.5
Mise en application du critère courbure sur une image de crépi . . . . . .
46
4.6
Mise en application du critère gradient sur une image de crépi . . . . . .
47
4.7
Représentation de la surface de corrélation pour une image de crépi . . .
48
4.8
Mise en application du critère ondelette sur une image de crépi . . . . . .
50
5.1
Représentation d’une cartographie à différents niveaux de détails et angles
d’observation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
52
80
Table des figures
1.1
Critères fréquentiels pour les cartographies . . . . . . . . . . . . . . . . .
63
1.2
Critères géométriques pour les cartographies . . . . . . . . . . . . . . . .
64
2.1
Critères fréquentiels pour les images acquises . . . . . . . . . . . . . . . .
65
2.2
Critères géométriques pour les images acquises . . . . . . . . . . . . . . .
66
3.1
Calcul d’un moment d’ordre 1 sur les cartes de rayons de courbure . . . .
67
3.2
Calcul d’un moment d’ordre 1 sur les cartes de rayons de courbure . . . .
68
3.3
Calcul d’un moment d’ordre 2 sur les cartes de rayons de courbure . . . .
68
3.4
Calcul d’un moment d’ordre 2 sur les cartes de rayons de courbure . . . .
69
4.1
Critères fréquentiels . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
71
4.2
Critères géométriques . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
72
4.3
Les images filtrées à partir d’un seuil . . . . . . . . . . . . . . . . . . . .
73
5.1
Modélisation par une gaussienne de l’histogramme des niveaux de gris . .
75
Téléchargement