1
Synthèse des travaux sur la variabilité de forme des signaux
(Janvier 2010)
[Les références renvoient à la rubrique Travaux et Publications du CV de Hervé Rix]
Forme et différence de forme
La variabilité des signaux réels et en particulier les signaux biomédicaux, est un sujet
d’étude toujours très actuel. Il intervient pour comparer les variabilités intra et inter sujets, par
exemple dans l’établissement d’un diagnostic médical. Une autre préoccupation est de séparer
une variabilité temporelle d’une variabilité d’amplitude. C’est essentiellement le problème du
recalage des signaux temporels après élimination des fluctuations de cadencement biologique
(supposées naturelles) pour ne mesurer que les variations significatives d’amplitude.
L’approche la plus courante pour mesurer une variabilité est de mesurer les variations
d’un paramètre (ou d’un ensemble de paramètres), tel que la position temporelle moyenne,
l’écart temporel entre deux signaux, l’étendue maximale ou moyenne, l’amplitude d’un
extremum, etc. Certains paramètres liés à la dissymétrie du signal ou plus généralement à sa
forme, peuvent aussi intervenir pour caractériser la variabilité. Le problème souvent difficile à
résoudre est le choix des paramètres que l’on va sélectionner pour obtenir de leur variabilité
une information pertinente, pour la classification qui nous préoccupe. Avant de poursuivre il
est important de donner notre définition de la forme d’un signal. C’est la classe d’équivalence
des signaux qui se déduisent l’un de l’autre par des transformations du groupe affine : s(t) et
v(t) sont de même forme si l’on peut écrire :
0,0)(.)( kacbatsktv
(1)
La variabilité peut donc se séparer en variabilité de forme et variabilité des paramètres qui
laissent la forme invariante.
Dans le cas de signaux que l’on peut supposer positifs sur leur support, soit qu’ils le
soient naturellement, soit qu’on s’intéresse à une fonction positive du signal (parties positive
et négative, carré …), on peut les assimiler, une fois normés par leur surface, à des densités
de probabilité. On peut alors faire un parallèle entre la variation de forme d’un signal et
l’anamorphose d’une loi de variable aléatoire définie par une densité. On est tout
naturellement amené à travailler sur l’intégrale normée du signal interprétée comme une
fonction de répartition. Mais le parallèle fait aussi apparaître des différences entre
l’anamorphose et l’étude des variations de forme des signaux. Le problème classique de
l’anamorphose en probabilité est : connaissant une variable aléatoire X de densité f(x) et une
fonction φ, trouver la loi de la variable aléatoire Y = φ(X). Le cas le plus couramment traité
est celui la fonction φ est strictement monotone qui montre que la fonction de répartition
est invariante par toute transformation strictement croissante, en ce sens que les fonctions de
répartition F (de X) et G (de Y), sont liées par :
F(x) = G(φ(x)) (2)
Cette invariance ne se retrouve évidemment pas sur les densités, puisqu’en dérivant on a :
f(x) =g(φ(x)).φ’(x) (3)
Le seul cas la forme de g est la même que celle de f est justement le cas φ’(x) est une
constante, c'est-à-dire le cas où φ(x) est une fonction affine croissante.
L’utilisation de cette propriété en traitement du signal pour la mesure d’une différence de
forme correspond au problème inverse de la relation (2), qui s’écrit encore :
F = G ◦ φ (4)
Si les données sont les fonctions F et G (intégrales normées supposées strictement croissantes)
on obtient :
φ = G-1◦ F (5)
2
La Méthode des Fonctions de Répartition (MFR) pour la mesure de très petites différences de
forme, proposée dans [B3, 1980], est fondée sur la mesure de l’écart à la linéarité de φ. Cette
méthode a permis alors de montrer expérimentalement qu’on pouvait distinguer la forme d’un
pic chromatographique simple (associé à un corps pur) de celle d’un « pic double » la
deuxième composante séparée de 1 écart-type de la première, avait une hauteur relative
seulement de 1% et ceci avec un rapport signal à bruit de l’ordre de 30 dB [B3, B4, 1980].
D’un point de vue théorique la MFR permet de détecter la présence d’une deuxième
composante sous un pic apparemment unique, bien mieux que l’ajustement (au sens des
moindres carrés) d’un modèle à une ou à deux composantes, qui est un problème mal
conditionné mathématiquement. La méthode a ensuite été appliquée à divers problèmes issus
du domaine biomédical [D5, 1986], [D7, 1987], [D9, D13, 1989], [D25, 1992], [D32, 1994],
[D39, D40, 1997], [D55, 2002], [D59, D60, D61, 2004]. L’extension (MFR-2D) aux signaux
2D, que ce soit des images ou des représentations temps-fréquence de signaux 1D, a été faite
dans la thèse de Barbara OFICJALSKA (1994). L’application la plus intéressante est la
mesure de la variation de forme des ondes de l’ECG (P, QRS et T) en fonction du temps au
cours de 24 heures, après administration d’un médicament (anti-arythmique) [D32, 1994].
Signal moyen et forme moyenne
Dans l’application aux signaux répétitifs comme les ECG, les EMG stimulés ou les
potentiels évoqués, la présence de bruit nécessite souvent le recours à la sommation
synchrone d’une série de signaux. L’inconvénient est la déformation apportée par un défaut
de synchronisation ou une fluctuation de l’étendue du signal. En effet, même en pouvant
supposer que les signaux sont de même forme une translation et un facteur d’échelle près),
le signal moyen obtenu ne possède pas la forme des signaux moyennés. C’est pourquoi un
grand nombre d’algorithmes d’alignement ont été publiés de façon à réduire le plus possible
les fluctuations de position (jitter) des signaux à moyenner (en négligeant, ce qui n’est pas
toujours licite, les fluctuations d’échelle temporelle). Ce problème a été crucial durant les
nombreuses années la détection de Potentiels Tardifs post QRS était un des problèmes
majeurs de recherche en électrocardiographie haute amplification, dans la mesure ils font
partie des indices de probabilité de mort subite. Or une fluctuation d’alignement d’une
milliseconde en moyenne, crée une fréquence de coupure de 130 Hz qui peut s’avérer
insuffisante pour ces micro-signaux. L’algorithme présenté en 2002, au workshop IEEE BSI
(BioSignal Interpretation), permet de réaliser l’objectif fixé par la sommation synchrone des
signaux répétitifs : obtenir un signal qui ressemble à tous les autres, en ayant un meilleur
rapport signal à bruit, une position temporelle moyenne et une dispersion moyenne. La
méthode proposée est moins contraignante que la sommation synchrone en ce sens qu’elle
demande, pour être optimale, de travailler sur des signaux qui peuvent se distinguer par des
fluctuations de position mais aussi d’échelle. De plus elle ne nécessite aucun algorithme
d’alignement des signaux répétitifs. Cette méthode baptisée ISA (Integral Shape Averaging)
utilise l’intégrale normée du signal (supposé positif) et moyenne les valeurs de l’abscisse
associées à la même ordonnée (entre 0 et 1) de l’intégrale normée. Si les signaux comportent
des parties négatives, on peut traiter séparément la partie positive et la partie négative.
L’article de la conférence (BSI 2002) a été retenu parmi les 20% qui ont été publiés dans la
revue Methods of Information in Medicine [B26, 2004]. Dans l’article, en première partie, on
montre comment le moyennage classique de signaux de même forme mais présentant des
fluctuations de position (jitter résiduel après alignement) et d’échelle peut s’interpréter
comme le filtrage du signal deférence par deux filtres linéaires mis en cascade : d’abord un
filtre invariant par translation du temps (convolution), ensuite un filtre invariant par
changement d’échelle. On peut donc, à l’aide d’une distance entre formes, ou au moins d’un
3
critère de similarité, mesurer l’influence conjointe sur la forme, des fluctuations de retard et
d’échelle.
Dans le cas les signaux que l’on moyenne ne sont pas de même forme, le signal
ISA fournit, dans un certain sens, une forme moyenne. Mais il n’a pas la propriété d’être
invariant pour les transformations affines qui laissent la forme inchangée. En revanche,
l’algorithme CISA (Corrected Integral Shape Averaging), issu de la thèse de Sofiane
BOUDAOUD (2006) a cette propriété [B30, 2007]. C’est un algorithme utilisant une vraie
distance entre formes : la distance L2 entre les fonctions de répartition inverses qui ont
l’avantage d’avoir le me support (intervalle [0; 1]). On possède donc maintenant un outil
permettant de mesurer une distance de forme « intrinsèque » c'est-à-dire indépendamment de
toute transformation affine des abscisses. L’étude des fluctuations de position et d’échelle
d’une part et de forme (grâce à CISA) d’autre part sont donc, maintenant, deux études
strictement complémentaires.
Le signal de forme moyenne obtenu par CISA est donc un centre de gravité des formes
des signaux moyennés, au sens propre, c'est-à-dire qu’il minimise l’écart quadratique moyen
par rapport à l’ensemble des signaux en utilisant la distance de forme. C’est donc un outil qui
permet d’appliquer, sans approximation, les algorithmes de classement du type « nuées
dynamiques », et qui ouvre la voie à l’étude statistique des formes de signaux.
Relation avec le recalage de courbes en analyse de données fonctionnelles.
Le lien, mis en lumière par les travaux de l’équipe, entre les méthodes intégrales
(MFR, ISA, CISA) et le recalage de signaux temporels, ou alignement non linéaire (Dynamic
Time Warping, Self Modelling Registration …) est que la variabilité est essentiellement
modélisée par des fonctions du temps, distorsions temporelles ou « warpings ». La différence
est que ces fonctions sont composées avec les intégrales normées dans le premier cas,
directement avec les signaux dans le second. De plus ces fonctions sont naturellement
croissantes dans le premier cas et permettent de travailler sur des ensembles hétérogènes de
formes, alors qu’elles sont croissantes par hypothèse dans le second cas qui s’intéresse à des
ensembles assez homogènes de formes supposées engendrées par une structure commune.
C’est principalement l’application et l’interprétation physique ou physiologique qui doit
guider le choix d’une approche par rapport à l’autre. Une étude comparative des deux
approches a fait l’objet d’un article à IEEE Trans. Signal Processing [B28, 2005]. L’effort
d’unification des techniques de recalage non linéaire de signaux issues de l’Analyse
Fonctionnelle de Données et celles travaillant sur les intégrales normées a été salué par le
Professeur Theo GASSER (département de Bio Statistique de Zurich) un des pionniers en la
matière, lors de la soutenance de thèse de Sofiane BOUDAOUD.
Modélisation de la variation de forme
Lorsque la fonction φ liant deux intégrales normées n’est pas une fonction affine, on
peut généraliser la variation de forme en considérant qu’une différence de forme n’apparaît
que lorsque φ doit être modélisée par un polynôme de degré supérieur à un degk fixé a
priori. On peut alors définir des différences de forme de degrés variables qui peuvent, suivant
l’application, correspondre à des phénomènes physiques ou physiologiques différents. C’est
cette idée qui a été développée, sous le nom de « Core Shape Modelling », dans la revue
CSDA [B33, 2010]. L’application à des potentiels évoqués auditifs recueillis près de la
cochlée d’un cochon d’Inde, a permis de mettre en évidence trois classes de forme de ces
potentiels en relation avec l’intensité sonore du stimulus.
4
Applications importantes récentes
Récemment, deux applications de l’analyse de forme nous ont permis d’établir des
résultats nouveaux pour l’électrophysiologie cardiaque.
- Le premier concerne la mesure de la variabilité spatiale des ondes ECG à partir
d’une cartographie des potentiels enregistrés à la surface du corps : on montre que le niveau
de variabilité, surtout de l’onde T, augmente significativement pour des personnes ayant eu un
infarctus du myocarde. C’est un travail qui s’est fait autour de la thèse de Balkine
KHADDOUMI (2005) en collaboration étroite avec l’équipe polonaise de Roman
MANIEWSKI., [D65, 2005], [B29, 2006].
- Le deuxième résultat concerne un problème très actuel de santé publique : les apnées
du sommeil. Le problème est de santé publique car ce trouble respiratoire, qui empêche le
sommeil d’atteindre les stades réparateurs, est de plus en plus fréquent mais encore sous-
diagnostiqué en raison du protocole nécessaire pour établir un diagnostic reconnu :
enregistrement polysomnographique de la respiration, de l’EEG, de l’ECG. Un axe actuel de
recherche est d’essayer d’utiliser l’ECG (facile à recueillir à domicile) comme seul indicateur
d’apnée. En effet le rythme cardiaque et le cycle respiratoire étant liés dans une boucle
impliquant aussi le système nerveux autonome, des arrêts brusques et répétés de la respiration
doivent normalement modifier le rythme cardiaque. Divers travaux, cherchant à proposer des
détecteurs d’apnées basés sur l’analyse du rythme, ont été publiés. Notre originalité a été de
nous attaquer à la variabilité de forme de l’onde P (la première à être éventuellement affectée
par un défaut d’oxygénation du myocarde). Grâce à une collaboration avec l’équipe de C.
HENEGHAN (Dublin) qui nous a fourni des enregistrements Holter documentés, et grâce à
notre approche de la mesure de variabilité des formes, nous avons pu mettre en évidence sur
signaux réels, qu’une forte corrélation existait entre l’apparition d’une apnée obstructive et un
changement de forme de l’onde P, significatif bien que difficilement décelable à l’œil
[Boudaoud et al., B-2007] .
Conclusion : le travail effectué depuis plusieurs années sur l’analyse et la
modélisation des variations de forme des signaux arrive à une étape marquante. On dispose en
effet d’outils permettant d’inclure la forme (ou la variation de forme) d’un signal comme
donnée quantitative pertinente pour classer des signaux ou modéliser des changements. Les
principales applications que nous avons traitées appartiennent au domaine biomédical, mais
ce n’est certainement pas le seul susceptible d’être concerné. D’autre part un pont a été jeté
entre la communauté du traitement du signal et celle de la statistique utilisant l’analyse de
données fonctionnelles.
1 / 4 100%
La catégorie de ce document est-elle correcte?
Merci pour votre participation!

Faire une suggestion

Avez-vous trouvé des erreurs dans linterface ou les textes ? Ou savez-vous comment améliorer linterface utilisateur de StudyLib ? Nhésitez pas à envoyer vos suggestions. Cest très important pour nous !