acquisition et optimisation du logiciel neuroscan

publicité
GOMBERT FLORENCE
GB03
Stage TN09
ACQUISITION ET OPTIMISATION DU LOGICIEL NEUROSCAN
D’ELECTROENCEPHALOGRAPHIE DANS UN PROTOCOLE
EXPERIMENTAL PRECIS
CNRS UMR 7593 : Vulnérabilité, Adaptation et
Psychopathologie
(directeur : Prof. R. Jouvent)
REMERCIEMENTS
Je tiens tout d’abord à remercier la Pédagogie de l’UTC qui permet à ses étudiants une
expérience professionnelle de longue durée au cours de ses études. Celle-ci est primordiale, extrêmement
pertinente et déterminante dans la construction et l’élaboration d’un cursus. Enrichissante confrontation.
Je remercie le professeur Roland JOUVENT, directeur de recherche, de m’avoir accueillie dans
son laboratoire. Sa vivacité, sa pertinence, son opportunité intellectuelle, son dynamisme et sa capacité à
faire interagir les disciplines sont d’une extrême motivation pour tout son entourage. C’est une force de
travail et d’innovation.
Je remercie tout particulièrement Stéphanie DUBAL, chargée de recherche, suiveuse de stage.
Grâce à sa qualité de chef d’équipe j’ai pu saisir l’importance du travail individuel à visée collective. Sa
gestion humaine et délicate a permis une répartition claire des objectifs et le travail pertinent de chacun.
Travailler à ses cotés a suscité un enseignement explicite : théorique, pratique et scientifique, mais bien
plus un enseignement implicite et une attitude scientifique : rigoureuse, vive, dynamique, volontaire,
pertinente, plastique, adaptable et spécifique. Je la remercie de sa générosité.
Je remercie également Chantal PEROT, suiveuse de l’UTC pour sa présence durant tout le stage,
pour son intérêt pour mon travail et son déroulement, mon évolution, ainsi que pour sa disponibilité et son
tutorat.
2
SOMMAIRE
SOMMAIRE .................................................................................................. 3
RESUME TECHNIQUE ................................................................................ 5
INTRODUCTION .......................................................................................... 6
I.
PRESENTATION........................................................................................................ 8
II. LES POTENTIELS EVOQUES : METHODES D’EXPLORATION FONCTIONNELLE
DE L’ACTIVITE CEREBRALE ........................................................................................ 11
A.
RAPPELS THEORIQUES : .................................................................................................... 11
123-
B.
Electroencéphalographie.............................................................................................................................11
Les potentiels évoqués .................................................................................................................................12
la P300.........................................................................................................................................................13
ELECTROGENESE .............................................................................................................. 14
123-
C.
Genèse des potentiels électriques ................................................................................................................14
Analyse microscopique ................................................................................................................................15
Modèle dipolaire..........................................................................................................................................15
TECHNIQUE D’ACQUISITION ET DE TRAITEMENT ................................................................... 17
12345-
D.
Acquisition ...................................................................................................................................................17
Amplification et référence............................................................................................................................18
Filtrage ........................................................................................................................................................20
Le moyennage..............................................................................................................................................20
Cartographie, Interpolation, Projection......................................................................................................20
LE MATERIEL ET SON ORGANISATION ................................................................................. 23
1 - Le système de recueil des signaux : le casque .............................................................................................24
2 - Les boites têtières : ......................................................................................................................................25
3 - Le système de stimulation : STIM ................................................................................................................26
4 - Le système d’amplification et de digitalisation : Syn Amps, et le système d’acquisition et d’analyse des
données : SCAN.....................................................................................................................................................27
III. LE PROTOCOLE EXPERIMENTAL ........................................................................ 30
A.
LE PRE-TEST .................................................................................................................... 30
1.
B.
Pertinence et Hypothèses.............................................................................................................................30
PROGRAMMATION DU TEST ................................................................................................ 32
12345-
Hiérarchie du logiciel de stimulation STIM ................................................................................................32
Les paramètres de test/la configuration ......................................................................................................33
Les images ...................................................................................................................................................35
La randomisation.........................................................................................................................................37
Création des fichiers séquentiels .................................................................................................................38
IV. LES ENREGISTREMENTS ...................................................................................... 41
A.
_NUMERISATION CRANIENNE ET ELECTRODES ..................................................................... 41
123-
B.
C.
FASTRAK : Numérisateur ...........................................................................................................................42
3D Space Dx ................................................................................................................................................42
Etapes de numérisation du sujet ..................................................................................................................43
CREATION DU SET UP FILE D’ACQUISITION ......................................................................... 44
LES ENREGISTREMENTS : APPROCHE, PRATIQUE ET FAMILIARISATION AVEC LE LOGICIEL...... 50
3
V.
TRAITEMENT DES SIGNAUX ................................................................................. 52
A.
ETAPES DE TRAITEMENT : .................................................................................................. 52
123456-
B.
Correction de la ligne de base :...................................................................................................................53
Rejet des artefacts : .....................................................................................................................................53
La réduction de l’artéfact de mouvement oculaire ......................................................................................53
Moyennage des tracés..................................................................................................................................54
Filtrage des signaux : (FILTER) .................................................................................................................55
Dérivation linéaire (linear Detrend) ...........................................................................................................55
AUTRES METHODES DE MOYENNAGES ................................................................................ 55
12-
C.
FSP average ( pour SNR faible) ..................................................................................................................55
Bande de puissance/ Cohérence des événements liés (Event related band power/coherence) ....................56
LOCALISATION DE SOURCES............................................................................................... 56
123-
D.
SCD / Interpolate.........................................................................................................................................57
Filtre spatial (Spatial Filter) .......................................................................................................................58
Filtre spatial à décomposition des valeurs singulières (SVD).....................................................................58
CARTOGRAPHIE ................................................................................................................ 58
12345-
E.
GFP / Reference ..........................................................................................................................................58
2D Mapping.................................................................................................................................................59
2D cartooning..............................................................................................................................................59
Spectrum Mapping.......................................................................................................................................59
3D space ......................................................................................................................................................60
ANALYSES STATISTIQUES................................................................................................... 60
123456-
Coherence / Event related coherence (eeg) .................................................................................................60
Corrélation de Pearson et calcul de son coefficient r ( fichier eeg ou moyenné : avg)...............................60
Corrélation croisée / intra corrélation croisée (après moyennage) ...........................................................61
Calcul du t-score apparié (avg)...................................................................................................................61
t-score (avg).................................................................................................................................................61
z-score (avg) ................................................................................................................................................62
CONCLUSION............................................................................................ 63
ANNEXES .................................................................................................. 65
4
RESUME TECHNIQUE
Résumé technique :
Acquisition théorique et pratique de la technique d’exploration fonctionnelle
cérébrale électroencéphalographique. Acquisition et mise en place d’un nouveau logiciel
d’électroencéphalographie(Neuroscan) comprenant casque de recueil à 64 électrodes,
boîtes têtières de pré-amplification, amplificateur, logiciel d’acquisition et de traitement
des signaux, logiciel de présentation des stimuli. Il s’est agit de réaliser la programmation
d’un test de stimulation visuelle dans le cadre d’un protocole très précis, de traiter les
images pour la réalisation de ce test. Acquisition d’abord théorique du module
d’acquisition du logiciel, puis pratique via grand nombre d’essais visant à l’optimisation
des branchements et des paramètres d’acquisition pour le recueil optimal de signaux sur
tous les canaux du casque. Acquisition du module de pointe de traitement des signaux,
découvertes, recherches de ce domaine en pleine expansion. Réalisation d’un cahier des
charges des étapes de traitement dans le cadre précis de notre protocole et de nos
recherches.
Mots clés :
Exploration fonctionnelle cérébrale, électroencéphalographie, potentiels évoqués,
physiologie, capteurs, système de recueil et d’acquisition de données biomédicales,
traitement du signal, traitement des images, architecture et hiérarchisation, triggerring.
5
INTRODUCTION
Les sciences cognitives regroupent un ensemble de disciplines telles que la psychologie cognitive,
la linguistique, la neurobiologie, l’intelligence artificielle et la philosophie autour d’une problématique
commune : comprendre comment l’information est traitée par le cerveau, c’est à dire, comment elle
est perçue, mémorisée, manipulée, transformée et finalement restituée.
Les pathologies psychiatriques se caractérisent par des troubles du comportement, ainsi que par
des perturbations relationnelles et affectives. La psychopathologie s’intéresse donc aux fonctions
cognitives les plus complexes, et à leurs interactions avec les émotions et le contrôle de l’action.
Les objectifs de la psychopathologie cognitive sont pluriels. Il s’agit d’abord de décrire les troubles
cognitifs qui accompagnent les pathologies psychiatriques et la prise de substances psychotropes, d’en
comprendre les mécanismes ainsi que les répercussions. Un autre objectif est de rattacher les troubles
cognitifs d’une part aux symptômes cliniques, et d’autre part aux anomalies neurobiologiques. Dans cette
perspective, les moyens actuels d’imagerie cérébrale fonctionnelle : tomographie par émission de positons,
résonances magnétique nucléaire, électroencéphalographie, magnétoencéphalographie… constituent des
outils puissants pour établir des corrélations entre des troubles cognitifs définis et des anomalies de
régions cérébrales particulières. Il s’agit également de construire et valider des modèles pharmacologiques,
animaux ou informatiques d’un trouble cognitif. Le dernier objectif prédominant est évidemment d’ordre
thérapeutique.
On conçoit dès lors l’importance et la pertinence des techniques d’exploration fonctionnelles dans
cette discipline. Elles représentent le moyen d’étude de l’activité cérébrale dans différentes temporalités et
lors de différentes tâches ou états. Dans le cadre de notre étude l’exploration se fait par
électroencéphalographie : technique d’imagerie de la fonction électrophysiologique cérébrale. Elle mesure
directement l’activité électrique du cerveau sous certaines conditions après un stimulus ou au moment d’un
événement pathologique.
Le cerveau humain est en effet, le siège d’une activité spontanée biochimique et électrique. Cette
activité électrique intracérébrale donne naissance à des fluctuations de différences de potentiel entre deux
points du scalp de l’homme. L’enregistrement de ces fluctuations constitue l’électroencéphalographie
(EEG). L’électroencéphalographie est une technique qui permet de mesurer l’activité électrique du cerveau
provoquée par le courant généré dans les neurones. Cette technique a été créée en 1924 par Hans Berger,
en Allemagne. L’EEG peut enregistrer les fluctuations rythmiques des potentiels électriques du cerveau
(par exemple, les ondes alpha chez une personne au repos ou des ondes plus lentes pendant le sommeil);
le potentiel évoqué par un stimulus particulier (une tonalité ou un faisceau de lumière, par exemple); ou les
signaux pathologiques tels que des pointes d’activité épileptique. Ainsi, contrairement aux autres méthodes
d’imagerie fonctionnelle et anatomique du cerveau, l’électroencéphalographie (EEG), comme la magnéto
encéphalographie (MEG), enregistre directement l’activité du cerveau. Grâce à leur excellente résolution
temporelle, de l’ordre de la milliseconde, elles permettent de suivre en temps réel la chronologie des
opérations mentales, et d’étudier la dynamique des phénomènes cérébraux. C’est une technique
6
totalement non invasive, elle détecte des phénomènes du cerveau sans excitation par un rayonnement
externe contrairement à l’IRM et à la tomographie par émission de positons (TEP).
La technique électroencéphalographique constitue donc dans le cadre des recherches en sciences
cognitives un outil essentiel à l’exploration cérébrale. Les potentiels évoqués, signaux consécutifs à
une stimulation sensorielle, permettent plus particulièrement d’analyser l’organisation des
processus de traitement de l’information sensorielle et des perturbations. Mais il s’agit d’un outil qui
nécessite une expérience certaine. Elle requiert également nombreuses connaissances : mathématiques,
biologiques, électroniques, physiologiques et informatiques.
Le domaine de l’exploration fonctionnelle cérébrale est vaste et représente un domaine de
recherche en pleine expansion dans lequel les outils et les concepts sont toujours en évolution. Ils
s’affinent, se précisent, s’élaborent et se développent au gré des recherches des expériences et des
découvertes. Ainsi, il s’agit d’un domaine de recherche où l’ingénieur, en collaboration avec les spécialistes
de disciplines médicales, biologiques, psychologiques, sociologiques peut mettre en œuvre et développer
non seulement ses connaissances scientifiques et techniques mais également, penser perpétuellement la
Technique et l’Innovation.
Mon stage a donc consisté en la découverte et la pratique d’une technique particulière
d’exploration fonctionnelle : l’électroencéphalographie. Il s’est agit de faire l’acquisition d’un logiciel très
complexe et très complet d’acquisition et de traitements de signaux électroencéphalographiques.
D’explorer son organisation, sa coordination, sa synchronisation, son fonctionnement, et de découvrir le
domaine et la puissance évolutive de l’électroencéphalographie et du traitement du signal, via le panel de
modes d’acquisition et de traitements des signaux, proposés par ce logiciel. De programmer le test de
stimulation afin de réaliser et pratiquer alors des enregistrements pour un protocole expérimental précis,
spécifique, et pertinent.
L’organisation d’un laboratoire de recherche en psychopathologie cognitive sera le premier point
abordé dans cet exposé. Nous y évoquerons les thématiques, les axes scientifiques et la place d’un
stagiaire ingénieur en biologie médicale. Des rappels théoriques sur les potentiels évoqués et sur la
spécificité de l’électroencéphalographie seront ensuite réalisés. Ils s’attacheront à la fois à la physiologie,
aux différentes techniques de traitement, et aux matériels et méthodes d’acquisition et de traitement. La
mise en place du protocole expérimental : du pré-test, de la programmation du test de stimulation visuelle
et de la découverte du système de stimulation constituera le troisième point de l’exposé. Nous nous
attacherons ensuite aux enregistrements proprement dits : à la numérisation crânienne, à la définition des
paramètres d’acquisition et aux différents essais réalisés nécessaires à l’optimisation du système. Dans un
dernier temps nous nous attarderons sur les possibilités de traitement proposées par le logiciel et à celles
utilisées dans nos conditions expérimentales.
7
I.
Présentation
Le laboratoire de recherche CNRS :
L’étude exposée dans ce rapport a été réalisée au sein d’un laboratoire de recherche du CNRS du
er
département Science de la vie. L’équipe est rattachée à l’université Paris VI depuis le 1 janvier 1997 et
constitue l’Unité Mixte de Recherche, UMR 7593 « Vulnérabilité, Adaptation et psychopathologie ».
La démarche de ce laboratoire de recherche se place dans le cadre de la médecine expérimentale,
à l'interface de la psychopathologie, de la psychologie cognitive, de la psychobiologie, de la génétique et de
la pharmacologie. En vue de créer des ponts expérimentaux entre l’approche psychopathologique,
l’approche médicale et la pharmacologie, en centrant l’ensemble des problématiques sur la recherche de
facteurs de vulnérabilité aux troubles du comportement.
L’objectif principal concerne l'identification des traits "fonctionnels" de personnalité qui seraient
prédictifs de certaines modalités adaptatives pathologiques. Ainsi l'anhédonie ou l'émoussement de
l'affectivité seraient des traits de personnalité prédisposant à l'émergence d'un processus addictif, dépressif
ou schizophrénique.
Quatre équipes interactives utilisent :
• d'abord l'approche clinico-expérimentale. En particulier les modèles de psychobiologie et de
psychologie cognitive constituent une voie nouvelle de recherche pour la compréhension des
troubles thymiques et la part de leurs déterminants génétiques.
• ensuite l'approche clinique quantitative identifiant des facteurs de vulnérabilité, à l'aide de
modèles de personnalité et de tempérament.
• enfin une approche intégrative et comparative des modèles animaux et humains, identifiant les
relations entre facteurs de risques individuels et modalités spécifiques d'adaptation aiguës et
chroniques. Les méthodes d'investigations comprennent l'évaluation clinique quantitative, les
mesures biologiques et psychophysiologiques, les techniques d'imagerie, la pharmacologie
expérimentale clinique et animale.
Il s’agit dès lors d’un laboratoire où l’organisation pluridisciplinaire est un exemple même de
pertinence scientifique. Cette volonté pluridisciplinaire et le soucis scientifique et thérapeutique font de ce
laboratoire un lieu d’innovation et de réflexion extrêmement riche pertinent et spécifique.
Equipe accueillante :
J’ai été accueillie dans l’équipe « Approche clinico-expérimentale des régulations émotionnelles »
dont les chefs d’équipe sont les professeurs Roland Jouvent et Jean-François Allilaire. J’ai intégré l’équipe
dirigée par Stéphanie Dubal, Chargée de Recherche, CNRS. Son programme de recherche entre dans la
cadre d’un programme du Ministère de la Recherche « Cognitique ». Le thème est « Cognition, Interactions
sociales, Modélisation », le titre du projet « Déficit social, vision et communication ». Le contexte du projet
s’attache au déficit de l’émotion comme phénomène naturel ou comme symptôme en psychopathologie ; à
ses retentissements sur le plan de l’insertion sociale et du fonctionnement perceptivo-cognitif. L’objectif
8
général de ce projet de recherche est l’étude des processus qui concourent à l’émoussement de l’affectivité
dans sa dimension sociale par l’intermédiaire de la modalité perceptive visuelle. Ce projet est réalise en
collaboration avec l’Unité 151 INSERM de Lyon, avec Ken Knoblauch. Il s’agit donc d’une part d’affiner la
compréhension des troubles perceptivo-cognitifs associés aux symptômes déficitaires, émotionnels et
sociaux, et, d’autre part, de proposer une hypothèse dynamique, par l’intermédiaire de l’étude des étapes
de traitement sensoriel visuel de l’information, des processus d’extinction de l’affectivité.
L’exploration du traitement sensoriel visuel de l’information se fera par le biais d’une étude
électrophysiologique de l’effet de la variation du contraste sur le jugement hédonique. C’est au
cours de cette étude que s’ancre mon stage. La méthode des potentiels évoqués permet d’étudier le
décours temporel des différentes étapes de traitement de l’information, depuis l’intégration sensorielle
jusqu’au traitement cognitif. L’objectif de l’étude est de s’attarder sur l’activation cérébrale consécutive à la
vision de différents types d’images émotionnelles : des images hédoniques représentant des paysages,
des images hédoniques de situations sociales / relations interpersonnelles, ainsi que des images mettant
en scène des personnages éprouvant un plaisir sensoriel. L’utilisation de stimuli visuels tels que des
paysages ou des scènes familiales est très rare en électrophysiologie. L’intérêt principal est d’explorer les
mécanismes cérébraux sous-tendant le jugement subjectif du plaisir. L’identification de telles images par
opposition avec des images de qualité physique identique mais n’ayant pas de contenu reconnaissable
interviendrait à partir d’une certaine onde : la P300, sur laquelle nous aimerions porter nos études plus
particulièrement.
Axe d’étude :
L’axe d’étude de la psychophysique visuelle est ici le contraste d’images hédoniques. La
dégradation du contraste est utilisée comme paradigme d’exploration de l’interaction entre perception
visuelle et émotion. Ce choix est motivé par des arguments d’ordre pharmacologique et clinique soulignant
l’existence d’un lien étroit entre le déficit émotionnel, la sensibilité au contraste et les systèmes
dopaminergiques. Cet axe d’étude s’ancre dans une problématique de recherche plus vaste encore :
l’interaction entre perception et émotion Les courants traditionnels considèrent que le cortex associatif
visuel serait activé avant qu’une émotion puisse être ressentie, appréhendée. Cependant une expérience
réalisée en Imagerie par résonance magnétique (IRM) par Lane and al. en 1999 a montré que les stimuli à
valeur émotionnelle activaient plus intensément le cortex associatif visuel que des stimuli non affectifs.
L’étude réalisée se situe dans la continuité de cette hypothèse. Ellee s’intéresse donc aux variations de
perception émotionnelle via le degré de contraste, concurrente à une modification de perception visuelle.
Le cadre de la recherche est donc purement exploratoire. Pour le moment quasi aucune recherche n’a été
effectuée dans ce sens.
Les expériences qui seront réalisés auront pour but d’explorer l’effet de la modulation du
contraste sur le jugement hédonique au plan comportemental et psychophysiologique. Les travaux sur le
contraste en Potentiels Evoqués Visuels (PEV) ont principalement utilisé des images simples, comme des
damiers visuels, plutôt que des images complexes. Les résultats mettent en évidence une relation linéaire
inverse entre l’amplitude des ondes sensorielles et la valeur du contraste. L’effet de la manipulation du
contraste sur les PEV se manifeste en particulier au niveau des ondes sensorielles (N1, P1, N2 et P2).
L’intérêt portera donc sur celles-ci afin d’examiner les processus d’intégration chez les sujets
9
anhédoniques.
Cette
expérience
électrophysiologique
s’inscrit
à
la
suite
d’une
expérience
comportementale et son apport réside dans le niveau d’explication du déficit. En effet, dans le cas de la
mise en évidence d’un déficit au niveau comportemental, les PEV permettront d’explorer les étapes plus
précoces de la chaîne sensori-motrice : niveau sensoriel, ou bien de la perception, ou encore de la
reconnaissance, et d’affiner l’étude des processus de perception émotionnelle visuelle.
Le recueil des données électophysiologiques sera effectué par le système Neuroscan de Neuro
Scan Labs, division de Neurosoft, Inc.
Système complexe d’acquisition et de traitement
d’électroencéphalogrammes, associé de manière synchrone à un système de programmation des tests
visuels pour recueils électrophysiologiques. Les activités évoquées seront recueillies sur le scalp au
moyen d’un casque de 64 électrodes réparties selon le système international 10-20. La tâche du sujet
consistera à juger la valeur hédonique de chaque image à l’aide d’un bouton réponse à 4 modalités. Les
images seront dégradées en 5 niveaux de contraste.
Place du stagiaire ingénieur :
Dès lors mon sujet de stage en tant qu’étudiante ingénieur en Biologie à orientation biologie
médicale et, suivant le mineur PHITECO ( Philosophie Technologie et Cognition) se dessinait lui-même.
Faire l’acquisition du système Neuroscan de recueil et de traitement des signaux électophysiologiques et
de son interface logiciel, programmer le test de stimulation. Réaliser un cahier des charges pour
l’utilisation et la manipulation de ce système lors de futurs tests et protocoles. Faire le recueil de signaux,
les traiter et les analyser dans le cadre précis, particulier et spécifique de l’expérience mise en place. Il se
résumait en « Etude par Potentiels Evoqués Cérébraux de la sensibilité au contraste visuel dans sa
relation avec le traitement émotionnel ».
Ma place et ma tâche étaient immédiatement définies, il s’agissait d’intégrer une équipe de
recherche, de m’investir dans l’expérience et de participer activement à l’avancement du protocole en
faisant l’acquisition du nouveau système d’électroencéphalographie. Le sujet était très clair dès mon
arrivée, ma tâche bien définie. Mon travail à consister en une familiarisation parallèle et complémentaire
des aspects théorique et technique de l’électroencéphalographie et du traitement du signal. Ma lecture des
manuels anglais du système et ma compréhension de son organisation, de ses branchements et de son
fonctionnement m’ont été permises par mes lectures théoriques. Parallèlement, ma pratique du logiciel
éclairait mon approche théorique. Cette étape de familiarisation et de découverte d’une technique, d’une
pratique et de sa base théorique via un logiciel spécifique et complexe ont représenté une étape
primordiale, indispensable et propre à l’acquisition de nouveau matériel et logiciel. Dépendra d’elle la
précision avec laquelle les signaux pourront être recueillis puis traités. Celle-ci demande minutie et
rigueur. Cette phase m’a permis la réalisation progressive d’un cahier des charges, la maîtrise et
l’acquisition du logiciel, son optimisation et son adaptation à notre protocole via nombreux essais. Il
s’agissait également de programmer un test de stimulation visuelle spécifique et pertinent dans le cadre
de la recherche, d’acquérir le logiciel de stimulation ; de faire l’acquisition des signaux puis d’explorer les
techniques de traitements proposées et d’opérer les traitements spécifique à notre expérience.
10
II.
Les Potentiels Evoqués : méthodes d’exploration
fonctionnelle de l’activité cérébrale
A.
Rappels théoriques :
1-
Electroencéphalographie
L’électroencéphalographie (EEG) est une technique qui permet de mesurer l’activité électrique du
cerveau provoquée par le courant généré dans les neurones. Cette technique a été créée en 1924 par
Hans Berger, en Allemagne. L’analyse se fait en plaçant un certain nombre d’électrodes, seules ou par
paires, à la surface du crâne. Si les électrodes sont placées individuellement, une “ électrode de référence ”
commune est alors utilisée. Chaque électrode doit relever une mesure de tension de surface, puis
transmettre ce signal, qui est ensuite amplifié et enregistré. À l’origine, ces enregistrements étaient tracés
sur papier à l’aide d’un stylet. De plus en plus aujourd’hui, les sorties sont enregistrées par un numériseur,
puis sauvegardées sur ordinateur (EEG numérique). Dans certaines applications, les électrodes sont
placées sous le cuir chevelu ou en contact direct avec le cerveau. L’EEG peut enregistrer les fluctuations
rythmiques des potentiels électriques du cerveau (par exemple, les ondes alpha chez une personne au
repos ou des ondes plus lentes pendant le sommeil); le potentiel évoqué par un stimulus particulier (une
tonalité ou un faisceau de lumière, par exemple); ou les signaux pathologiques tels que des pointes
d’activité épileptique. Les principales fonctions de l’EEG en milieu hospitalier sont les suivantes : le
diagnostique, la communication de l'information aux cliniciens et aux unités de soins, la formation et la
recherche. L’EEG mesure l’activité électrique des cellules cérébrales pendant les processus physiologiques
en situation normale et pathologique, à l’état de veille et pendant le sommeil. La structure et la composition
chimique des neurones aboutissent à la production d’un potentiel électrique qui correspond à une
différence relative dans la charge électrique le long de la membrane des cellules nerveuses.
Tracés type d’électroencéphalogramme dans différents états
La fréquence des signaux correspond
au nombre de courbe par unité de temps, par
secondes.
On différencie les EEG par leur fréquence, en
voici l’exemple ci-contre :
11
:
Les techniques EEG et magnétoencéphalographique (MEG) sont toutes deux des technologies
d’imagerie de la fonction électrophysiologique cérébrale. Elles mesurent l’activité électrique du cerveau
sous certaines conditions après un stimulus ou au moment d’un événement pathologique. Certaines autres
techniques d’imagerie cérébrale fournissent uniquement des informations structurelles ou anatomiques, et
sont complémentaires à l’information fonctionnelle (la MEG et l’EEG ne fournissent aucune information sur
la structure du cerveau). D’autres techniques évaluent le débit sanguin ou l’oxygénation (qui sont aussi des
mesures de la fonction cérébrale), mais à une résolution temporelle de beaucoup inférieure. La MEG et
l’EEG sont les seules modalités d’imagerie fonctionnelle qui procurent des mesures directes de l’activité
neuronale. De plus, l’EEG (comme la MEG) est une technique non invasive (sauf lorsque les électrodes
d’EEG sont en position sous-durale ou placées profondément dans le cerveau, technique alors très
invasive ne convenant qu’à certains cas cliniques) et inoffensives, n’impliquant ni radioactivité ni injection.
2-
Les potentiels évoqués
Le cerveau est le siège d’une activité spontanée biochimique et électrique. Cette activité électrique
intracérébrale donne naissance à des fluctuations de différences de potentiel entre deux points du scalp
de l’homme. Cette activité physiologique évolue avec la maturation cérébrale depuis l'extrême prématurité
jusqu'à l'enfance, et varie en fonction du déroulement du temps et des états comportementaux.
L’enregistrement des fluctuations constitue l’électroencéphalographie. Le déclenchement et le
déroulement de processus mentaux, comme la sensation, la perception de stimulations, le traitement
cognitif des informations sensorielles, les mécanismes attentionnels, l’imagerie mentale ou la
programmation d’actes moteurs mettent en jeu plusieurs zones cérébrales qui sont le siège de
changement d’activités. Les modifications d’activité électrique donnent naissance sur le scalp de l’homme
à des modifications de l’amplitude et de la répartition topographique des potentiels électriques et du
champ magnétique au voisinage de la surface du scalp.
L’enregistrement des signaux électriques synchronisés par rapport à l’apparition de ces processus
mentaux porte le nom de « Potentiels évoqués » ou plus généralement « Potentiels liés à des
événements » (en anglais : Event Related Potentials). Ces réponses évoquées sont en général,
d’amplitude très faible par rapport à l’activité spontanée du cerveau, et sont superposées à l’activité
cérébrale. Elles reflètent l’activité d’un grand nombre de neurones mis en jeu à la suite d’un événement.
Elles doivent être extraites par une technique de moyennage, ce qui implique que l’événement
déclenchant le processus soit répétés plusieurs fois (plusieurs dizaines, voir plusieurs centaines). Ainsi on
qualifiera d’électroencéphalogramme un signal spontané, et un PE un signal induit par une stimulation. Le
PE doit être extrait des activités spontanées (du bruit), pour cela il est nécessaire de répéter la stimulation
électrique un grand nombre de fois et d’avoir recours à des procédés de moyennage sur les sujets
électrophysiologiques numérisés. Le moyennage repose sur l’hypothèse d’absence de modifications du
PE au cours de stimulations répétées, et l’hypothèse que l’activité EEG de base est le bruit de fond
aléatoire vis à vis d’un stimulus. L’EEG est le bruit aléatoire, et la réponse est le signal stable. En sommant
l’ensemble des activités, et en les moyennant, on augmente le rapport signal sur bruit d’un multiple qui est
la racine carrée du nombre de stimulations.
12
Représentation du recueil des potentiels évoqués et de leur répartition:
Stimulus
3-
la P300
Le PE moyen se présente sous la forme d’une succession de pics négatifs ou positifs et de points
d’inflexion dont le temps de latence et d’amplitude permettent de caractériser le PE. Quatre types de
composante peuvent être distingués :
-
les réponses évoquées du tronc cérébral apparaissant entre 0 et 10 ms
-
les potentiels de latence moyenne apparaissent entre 10 et 50 ms environ, dépendants
largement des caractéristiques de la stimulation
-
apparaissent ensuite les potentiels à latence tardive, beaucoup plus amples, parmi lesquels on
distingue les potentiels exogènes :réponses obligatoire lorsqu’une stimulation est délivrée, et
endogènes : phénomènes reflétant l’activité des structures cérébrales chargées de l’analyse
cognitive du stimulus : reconnaissance de sa nature, de sa signification, mais aussi prise de
décision et mise en mémoire de l’information contenue dans la stimulation. Les composantes
exogènes constituent des réponses obligatoires au stimulus, apparaissent dans tous les cas
lorsque la stimulation est délivrée.
Les composantes endogènes sont l’un des outils les plus privilégiés pour étudier l’activité
cognitive. Ces ondes varient en fonction de la signification que revêt le stimulus pour le sujet dans le
contexte d’une tâche déterminée.
Aux alentours de 300 millisecondes après la présentation du stimulus culmine une onde positive,
l’onde P300. Bien qu’insensible à la nature physique du stimulus, l’onde P300 varie en fonction des
conditions expérimentales. Une des ces caractéristiques majeures est qu’elle n’apparaît que si le sujet
effectue une détection consciente d’un stimulus : si le sujet ne porte pas d’attention au stimulus, on
n’observe pas d’onde P300 ( Hilliard et al., 1973 ; Squires et al,1975 ; Prichard, 1981 ; Donchin et Coles,
13
1988). La P300 serait associée à des processus psychologiques, elle n’est évoquée que par des stimuli
qui sont importants pour le sujet. Son amplitude varie donc d’autant plus que le sujet traite l’information
activement.
On distingue par des critères de latence et de topographie deux composantes pour cette onde : la P3a et la
P3b. La P3a serait plus précoce et liée à des processus rapides et automatiques. La P3b plus tardive est
générée quand la tâche impose une prise de décision et une réponse. La P300 sera alors rapidement
assimiler à la P3b et elles seront plus simplement dénommer onde P3.
La P300 peut apparaître entre 300 et 600 ms suivant la présentation du stimulus, en fonction de la
complexité de la stimulation. Elle représenterait la durée des étapes d ‘évaluation du stimulus (décodage,
reconnaissance, classification, soit un traitement élaboré de la situation, et la catégorisation du stimulus
(Kutas et al ., Ritter 1972). Dès lors Johnson suggère en 1986 après avoir réuni l’ensemble des résultats
concernant la P3 que l’amplitude de la P3 augmente avec la quantité d’informations transmises sans que la
latence en soit affectée. L’augmentation de la probabilité d’apparition du stimulus a pour effet de diminuer
l’amplitude et la latence. Enfin, l’augmentation de la complexité de la tâche augmente l’amplitude mais pas
la latence, de même la valence du stimulus ( positive, négative ou neutre) augmente l’amplitude sans
affecter la latence. La P3 apparaît alors comme une mesure de l’étendue dans laquelle notre système de
traitement de l’information est activé, ou utilisé.
B.
Electrogenèse
1-
Genèse des potentiels électriques
Le traitement d’une information induit l’excitation des groupes neuronaux. Des activités
synaptiques au niveau de ces groupes neuronaux vont entraîner l’ouverture de canaux ioniques au niveau
post –synaptiques. Ces courants ioniques transmembranaires vont provoquer la circulation de courant de
conduction dans les milieux biologiques. Les variations de différence de potentiel enregistrées sur le scalp
sont crées par la modification de courants ioniques intervenant au niveau des membranes de neurones
situés à l’intérieur du cerveau. Ces courants transmembranaires provoquent la circulation de courants
dans l’espace extracellulaire et dans les différents milieux qui entourent le cerveau (liquide céphalorachidien, crâne, scalp). Le passage de courant dans ces tissus résistifs fait naître des différences de
potentiels que l’on peut donc enregistrer au moyen d’électrodes. Ainsi, lorsque l’on sollicite des neurones,
à l’occasion d’une expérimentation par exemple, on provoque l’excitation des groupes neuronaux. Des
activités synaptiques au niveau de ces groupes neuronaux sont alors mises en jeu. Ces activités
synaptiques vont entraîner l’ouverture de canaux ioniques au niveau post-synaptique. Ces courants
ioniques transmembranaires (appelés aussi courants primaires) vont provoquer la circulation de courant
de conduction dans les milieux biologiques. Les courants de conduction vont créer dans le milieu résistif
des champs de potentiels électriques. Sur le plan hémodynamique, l’activité de ces groupes de neurones
va nécessiter une augmentation de l’apport de glucose destiné à permettre la consommation énergétique
au niveau de ces neurones qui sont en activité. On verra donc une augmentation du taux
14
d’oxyhémoglobine dans les capillaires. L’activité électrique est captée par l’EEG et les PE, l’augmentation
du flux sanguin et de la consommation de glucose est captée par la Tomographie par émission de
positons ( TEP), et l’augmentation du taux d’oxyhémoglobine est captée par l’IRM fonctionnelle. Les
potentiels évoqués permettent une mesure concomitante de l’activité neuronale. Les autres techniques ne
permettent pas de suivre les événements en terme de millisecondes comme c’est le cas pour les
potentiels évoqués.
2-
Analyse microscopique
A l’échelle microscopique, l’arrivée d’un potentiel d’action (PA) sur des terminaisons synaptiques
provoque la libération de neurotransmetteurs qui ouvre les canaux ioniques. Si la synapse est excitatrice,
et grâce aux différences de concentration ioniques de part et d’autres de la membrane post-synaptique, un
courant transporté par des ions Na+ pénétrera dans la cellule. Vis à vis du milieu extérieur, cette région
sub-synaptique se comportera à son tour comme un puits de courant : région où disparaît le courant qui
circule dans le milieu. En se plaçant dans le milieu extra-cellulaire on voit à partir de ce milieu des ions
positifs qui rentrent dans la cellule et qui y disparaissent. De la même manière, si on a affaire à une
synapse inhibitrice, le PA qui arrive dans cette synapse inhibitrice libère des neurotransmetteurs. Ceux ci
ouvrent à leur tour des canaux ioniques où vont s’engouffrer des ions chargés cette fois ci
négativement :Cl-. Par convention on estime que lorsque des ions négatifs rentrent dans une cellule, c’est
comme si des ions positifs sortaient. On dit que le courant va dans le sens des charges positives. Ainsi,
l’entrée de charges négatives dans la cellule s’apparentent à la sorite de charge positives. Cette activité
électrique donne lieu à un potentiel post-synaptique inhibiteur (PPSI).
Il existe une relation étroite entre les potentiels post-synaptiques et les potentiels évoqués.
Les PA ne peuvent être captés qu’à proximité des neurones, et dès que l’on s’éloigne des sites de
production de PA, on a peu de chances de les enregistrer. Ce que l’on, enregistre par contre, c’est un
reflet de l’activité synaptique. Avec une électrode distante on ne voit donc plus que la somme des PPS du
groupe de cellules excitées par la stimulation. Il est donc possible d’enregistrer en surface car il y a tout un
groupe de neurones qui se comportent de la même manière ; ces activités se somment au niveau de la
surface du cortex. Il y a donc une corrélation étroite entre ce qui se passe au niveau synaptique d’un
groupe de neurones et ce qui se passe à la surface du cortex.
3-
Modèle dipolaire
Le concept de dipôle de courant intervient fréquemment dans les aspects biophysiques de la
genèse de l’électroencéphalographie. Un dipôle est l’association d’une source et d’un puits de courant
dans le milieu conducteur, situés proche l’un de l’autre, ce qui revient à une même quantité de charges
négatives et positives séparées par une distance d. Une source de courant est une petite région de
l’espace d’où émerge un courant électrique, alors qu’un puits de courant est au contraire une petite région
où disparaît le courant qui circule dans le milieu. Ces puits et ces sources de courant vont donner lieu
dans les milieux conducteurs comme le cerveau, le liquide céphalo-rachidien, le crâne et le scalp, aux
potentiels électriques. Ainsi, on appelle courant primaire les courants transmembranaires provoqués par
15
l’ouverture et la fermeture des canaux ioniques, et enregistrés sur le scalp. Ces courants conducteurs et
résistifs vont créer des différences de potentiels entre chaque point du milieu. L’activité d’un neurone seul
peut donc être assimilée à un dipôle élémentaire.
Ainsi, l’arrivée d’un PA sur des terminaisons synaptiques provoque la libération de
neurotransmetteurs qui ouvre les canaux ioniques. Si la synapse est excitatrice, un courant transporté par
des ions Na+ pénétrera la cellule. Vis à vis du milieu extérieur, cette région subsynaptique se comportera
comme un puits de courant. Ce courant local provoquera à son tour la circulation à l’intérieur du corps
cellulaire et dans le milieu extérieur en se refermant sur le reste de la membrane. Le reste de la
membrane se comportera comme une source de courant. Si la synapse est inhibitrice, on obtiendra le
schéma inverse : les ions négatifs vont s’engouffrer dans les canaux dans les canaux ouverts, on parlera
de source de courant. La membrane post-synaptique se comportera comme une source de courant très
localisée et le reste de la membrane cellulaire comme puits. La cellule ainsi isolée peut être schématisée,
en première approximation, par un dipôle de courant. La transmission du PA peut être assimilée au
déplacement d’un dipôle dans le sens de la transmission de la synapse, se déplaçant le long de cette
synapse. La dépolarisation synaptique peut être assimilée à l’apparition d’un dipôle dont l’extrémité
positive pointe vers le soma neuronal s’il s’agit d’une synapse excitatrice, de sens inverse s’il s’agit d’une
synapse inhibitrice.
Dès lors deux points sont à considérer, tout d’abord le PE ne dépend pas de cellules isolées,
mais de populations cellulaires et, les électrodes d’enregistrement sont distantes par rapport à l’origine des
activités nerveuses. On peut considérer un petit volume du cerveau dans le quel sont situés des neurones
actifs, comme une région contenant une distribution complexe de puits et de sources de courant. En
calculant le potentiel électrique crée par cette distribution, en un point de l’espace situé à une certaine
distance du volume considéré, on montre que plus on s’éloigne du volume, plus le potentiel ressemble à
celui crée par dipôle de courant L’activité dans ce petit volume peut alors être schématisée par dipôle de
courant équivalent. Ce dipôle peut alors être considéré comme la résultante de tous les dipôles à l’échelle
cellulaire. Lorsque plusieurs groupes de cellules nerveuses sont activés au même instant, le potentiel
recueilli sur une électrode sera la somme algébrique des potentiels crées par chaque groupe de cellules.
Les champs électriques émis par des populations de cellules nerveuses obéissent donc au principe de
superposition : le champ électrique résultant de l’activité simultanée de plusieurs neurones constitue la
somme vectorielle des champs produits par chaque activité isolée. Les caractéristiques du dipôle
équivalent dépendent de la disposition spatiale des neurones. Par exemple un dipôle parallèle à la surface
du scalp donnera lieu, en surface, à l’association de potentiels positifs et négatifs. Si le dipôle est
perpendiculaire à la surface, seule son extrémité positive ou négative se traduire en surface (l’autre
extrémité pointera vers le bas, à un endroit où il n’y pas d’électrodes).
Voir annexe 1 : modèle de dipôle de courant, p 66.
16
C.
Technique d’acquisition et de traitement
L’acquisition des potentiels évoqués provient du moyennage de plusieurs dizaines, voire plusieurs
centaines d’échantillons électroencéphalographiques recueillis après des stimulations sensorielles
répétées. Ces courants existent alors en tant que réalité physique, sous forme d’un mouvement de
charges électriques. Il faut les capter par les électrodes d’enregistrements. L’amplitude de ces variations
de potentiel étant de l’ordre du microvolt, il faut les amplifier pour rendre le signal analysable, les filtrer et
les moyenner pour les séparer des signaux parasites.
1-
Acquisition
En EEG, le détecteur, dit « électrode », est une cupule métallique( argent, chlorure d’argent,
étain,..) de quelques millimètres de rayon qui est fixée sur le scalp par une patte conductrice pour assurer
le passage avec le milieu biologique. L’enregistrement de potentiels électriques liés à des événements
s’effectue au moyen d’électrodes de surface, reliées à des amplificateurs. L’électrode assure la
transduction d’une conduction ionique en une conduction électronique (vers les ordinateurs). Il importe de
minimiser la résistance induite au niveau de l’interface électrode-scalp, car le courant sera d’autant plus
important que la résistance à son passage sera faible. On s’efforce d’atteindre des impédances
individuelles d’électrodes inférieures à 5 kOhms.
On utilise couramment des électrodes d’argent chloruré car ces électrodes sont impolarisables. Le
passage d’un courant à travers cette électrode ne provoquera pas l’accumulation de charges à l’interface
métal/milieu biologique. Une électrode impolarisable présente une différence de potentiel faible et cette
différence est stable. Le bruit qu’elle crée et son impédance sont faibles. Pour une même expérience il faut
utiliser des électrodes de nature identique. Sinon, les différences de potentiels créées ne pourront pas se
compenser sur les entrées + et – des amplificateurs différentiels. On aurait alors un effet de pile.
L’avantage ici des sels d’argent est qu’ils ne sont pas toxiques pour la peau et qu’il s’agit de sels non
solubles.
A ces électrodes il est classique d’ajouter une ou plusieurs électrodes dites de « référence » dont
le signal sera retranché de celui des autres électrodes ; elles sont placées dans des zones où
théoriquement le signal cérébral n’existe pas, par exemple les oreilles. Mais cette électrode idéale
insensible aux générateurs n’existe pas. Cette soustraction permet de supprimer les composantes extracérébrales du signal. Nous verrons dans le paragraphe suivant les problèmes soulevés par l’électrode de
référence.
Initialement il n’était pas possible de mesurer la position des électrodes d’où la création d’une
systématique de placement nommée système 10-20. En supposant une anatomie cérébrale normale, ce
système permettait de placer chez différents sujets la même électrode au regard des même aires
cérébrales, permettant ensuite de réaliser des moyennages inter-sujets. Il est encore utilisé aujourd’hui
mais les appareils modernes intègrent un système de mesure de cette position par rapport à des repères
externes sur le sujet. On repère typiquement le nasion, l’inion et les points pré-auriculaires. La mesure de
la distance entre ces points permet de disposer les électrodes. L’électrode CZ se situe entre le nasion, et
l’inion et entre les points pré-auriculaires.
17
Schéma du Système 10-20 :
2-
Amplification et référence
Le signal capté par les électrodes est d’une amplitude particulièrement faible, de l’ordre du
microvolt. Chacune des deux électrodes actives et référence est reliée à une unité d’amplification d’un
ordre de gain de 10 000 à 100 000. La sortie de l’amplificateur correspond à la différence de potentiel
entre les sorties de chaque unité. Les amplificateurs enregistrent deux différences de potentiels. En fait il
existe 2 différences de potentiel une différence Ve1 entre l’entrée + de l’électrode et la masse et une
différence de potentiel Ve2 entre l’entrée – et la masse. L’amplificateur différentiel effectue la différence
Ve1-Ve2 et amplifie cette différence. Typiquement chaque électrode active est reliée à l’entrée + de
chaque amplificateur et toutes entrées – sont connectées ensemble à une électrode de référence. Chaque
amplificateur enregistre donc la différence de potentiel entre une électrode du scalp et l’électrode de
référence.
En effet, le voltage généré par les cellules cérébrales et enregistré par l’EEG est extrêmement
faible – entre 20 et 100 microvolts après une amplification de l’ordre de dix mille. Le signal est si faible que
les interférences électriques, ou artefacts, provenant d’autres sources (moteurs, lumières, voire
clignements d’oeil) sont souvent aussi fortes que le signal que l’EEG essaie de détecter. La lecture et
l’interprétation des tracés EEG exigent donc que l’on fasse la différence entre les artefacts et l’activité
cérébrale. Le décodage des ondes électriques du cerveau en termes diagnostiques suppose beaucoup de
doigté. Le crâne est un très mauvais conducteur d’électricité et interfère avec la transmission des influx
18
électriques vers le cuir chevelu. Même si la distance qui sépare le cerveau du cuir chevelu n’est que de
quelques millimètres, cela représente un véritable gouffre en termes électroencéphalographiques.
La première qualité d’une amplification est d’avoir un grand gain. Le gain est le rapport qui
existe entre la tension de sortie des électrodes par rapport à la tension qui est entrée dans l’amplificateur.
De plus, ces amplificateurs ont une grande impédance d’entrée, elle doit être supérieure à 1 Méga ohms.
Ceci est important pour ne pas atténuer les signaux. D’autre part une impédance d’entrée élevée suppose
un rapport de réjection en mode commun élevé. Ce rapport tient au fait de l’imperfection des
amplificateurs et leur permet de rejeter des courants qu’ils ne devraient pas amplifier.
Le choix de l’électrode de référence est un problème délicat. Comme les autres électrodes, elle
est soumise à des variations de potentiels provoqués par l’activation des générateurs cérébraux. Il s’ensuit
des propriétés du dipôle équivalent que la grandeur et la polarité du potentiel mesuré en surface va varier
selon la position du site d’enregistrement, et la distance du générateur intracérébral. Le choix de la
référence devrait donc dépendre de la position du générateur intracérébral de l’onde que l’on veut
observer. Le problème est que l’on ne le connaît pas forcément à l’avance. Cependant, la connaissance
de l’anatomie de certaines fibres permet de prévoir a minima la distribution au niveau cutané des champs
électriques en provenance du système nerveux. En pratique on peut choisir l’électrode de référence en
position nasale. Ceci permet de mettre en évidence les asymétries sur un plan médian. On peut
également choisir un lobe d’oreille. Certains utilisent aussi les deux lobes d’oreilles mises en court-circuit.
Mais ceci est déconseiller car on impose à un côté d’être identique à l’autre. Lors de l’analyse des signaux
il est également possible de changer le potentiel de référence en choisissant par calcul une référence
moins mauvaise : la référence moyenne.
Schéma type du recueil de la différence de potentiel pour les électrodes actives :
19
3-
Filtrage
Le filtrage est un problème complexe. Le signal capté par les électrodes est constitué d’activités
biologiques parasites (EEG, EMG) qui peuvent différer des signaux utiles par leur amplitude et leur
contenu fréquentiel. En appliquant des filtres, on modifie le gain des amplificateurs pour certaines
fréquences. Pendant l’analyse on réalise un filtrage analogique qui consiste à diminuer le gain de
l’amplification pour une fréquence inférieure(filtre passe-haut) et supérieure (filtre passe-bas). Comme leur
nom l’indique les filtres passe haut laissent passer les fréquences hautes et vont au contraire atténuer les
fréquences basses; c’est l’inverse pour les filtres passe-bas. Chaque signal électrique peut être
décomposé en un ensemble de signaux élémentaires sinusoïdaux. C’est la transformée de Fourier.
Une attitude générale consiste à filtrer le moins possible au moment de l’acquisition. Par la suite,
on peut appliquer des filtres numériques qui permettent d’agir sur le contenu fréquentiel du signal. Ce
filtrage digital suit le même principe que le filtre analogique : il atténue des valeurs pour l’ensemble des
fréquences inférieures ou supérieures à la fréquence de coupure.
4-
Le moyennage
Les signaux liés à l’apparition d’un événement sont extraits des signaux inférents (EEG spontané,
bruit électronique…) par des techniques de traitement du signal (moyennage de séquences synchronisées
à l’apparition du stimulus, filtrage fréquentiel). De plus les réponses captées sont d’amplitude trop faible
pour pouvoir être différenciées de l’activité EEG spontanée. Pour extraire les signaux du bruit de fond, il
est nécessaire de répéter la stimulation un grand nombre de fois et d’avoir recours à des procédés de
moyennage sur les signaux électrophysiologiques numérisés. L’hypothèse sur laquelle repose le
moyennage est double. Tout d’abord, on considère que l ‘on a un signal additif composé de deux parties,
l’un étant la réponse que l’on recherche et l’autre étant constituée du bruit. Le bruit peut être l’EEG de
base, les mouvements oculaires, du 50Hz ou d’autres choses. L’autre hypothèse est qu’il n’y a pas de
modifications du PE au cours de stimulations répétées. L’EEG est le bruit aléatoire et la réponse est le
signal stable, c’est à dire que la réponse évoquée est toujours identique à elle même après la stimulation,
à la différence du bruit qui est une variable aléatoire qui change en permanence au cours du temps. En
sommant l’ensemble des activités, et en les moyennant, on augmente le rapport signal sur bruit d’un
multiple qui correspond à la racine carrée du nombre de stimulation. Le tracé est donc meilleur.
On notera que l’on enregistre toujours un délai avant la stimulation. Ce délai permet d’une part de
fabriquer la ligne de base ou Baseline, et d’autre part de calculer le bruit résiduel après N stimulations. Ce
paramètre est très important pour les modélisations.
5-
Cartographie, Interpolation, Projection
Il est possible de réaliser des cartes de champs de potentiels. Celles ci sont élaborées à partir de
l’ensemble de signaux électriques obtenus à chaque électrode. La valeur des potentiels n’est connue qu’à
l’emplacement des électrodes. Lorsque les réponses sont extraites en chaque point de mesure du scalp, il
est possible de reconstituer la distribution de la grandeur du potentiel par des méthodes d’interpolation qui
20
donnent une estimation de l’activité entre les électrodes. D’autres part, ces cartes étant représentées sur
des surfaces planes(écran d’ordinateur), il est indispensable de choisir une méthode qui projette chaque
point du scalp sur un plan. Une série de cartes successives, ainsi que les formes d’ondes recueillies sur
les électrodes, offrent la possibilité de suivre l’évolution temporelle du champ chronologique d’activation
des différents générateurs avec une précision de l’ordre de la milliseconde.
Méthodes de projection :
Une méthode de projection idéale est une méthode qui associe, grâce à une formule
mathématique, chaque point du scalp à un point du plan. La surface du scalp peut être digitalisée avec
une précision suffisante et représentée mathématiquement. La numérisation de la forme de la tête de
chaque sujet enregistré est une opération encore inhabituelle. Le plus souvent on utilise une tête de forme
standard pour représenter la distribution des potentiels sur le scalp. Il existe deux types de projection :
orthogonale et radiale. Une fois la méthode choisie, la distribution de potentiel pour tous les points peut
être estimée.
Méthodes d’interpolation
Il existe plusieurs méthodes d’interpolation. Une méthode ancienne est celle des quatre plus
proches voisins, dérivée des travaux de Shepard (1968). Pour estimer la valeur du potentiel en un point
du plan de projection, l’ordinateur calcule les distances qui séparent ce point des quatre électrodes les
plus proches et effectue une somme pondérée des potentiels recueillis sur ces électrodes. On estime le
potentiel de ce point selon une formule géométrique qui moyenne en fonction de la distance les potentiels
voisins.
La plus conseillée et une méthode appelée « Spline sphérique » (Perrin et al., 1989). Les valeurs
des potentiels connus sont portées sur chacune des électrodes utilisées sur une surface sphérique. Plutôt
que de relier ces points de façon linéaire, on calcule la fonction spline (la trajectoire la plus souple de la
fonction au travers de tous les points). Une valeur est ainsi déduite pour les points entre les électrodes, et
permet une représentation graphique estimée de l’activité globale du scalp. Cette fonction qui représente
les valeurs du potentiel sur une surface sphérique offre différents avantages. Elle fournit une meilleure
estimation de l’emplacement des extremums du potentiel et elle est dérivable, ce qui permet d’estimer la
distribution d’une autre grandeur électrique appelée « densité radiale de courant sur le scalp ».
Densité radiale de courant sur le scalp / localisation de source
La cartographie de réponses évoquées rend possible l'estimation, à partir de la répartition des
potentiels sur le scalp, d'une autre grandeur physique: la densité radiale de courant sur le scalp. Calculée
en appliquant l'opérateur laplacien à deux dimensions du potentiel, cette densité radiale de courant permet
de représenter en chaque point du scalp les zones où les lignes de courant ont tendance soit à sortir du
cerveau (sources) pour circuler dans le scalp, soit à retourner au cerveau (puits). Cette méthode permet
d'analyser avec plus de précision l'activité des groupes de neurones situés essentiellement dans l'écorce
cérébrale. Les distributions de potentiels électriques créés sur le scalp par la présence de générateurs de
courant intracérébraux sont très étalées. Cet étalement est provoqué par la présence de milieux de
conductivité différents interposés entre le cerveau et les électrodes. Une localisation des générateurs des
PE peut être obtenue en faisant appel à des modèles mathématiques qui estiment la position des
générateurs des courants électriques intracérébraux ainsi que leur orientation. Pour faciliter la localisation
21
visuelle des générateurs intracérébraux, une autre grandeur électrique sur le scalp a été estimée : la
densité radiale de courant (SCD scalp current density). Mathématiquement cette grandeur appelée densité
radiale de courant, notée I, est définie plus exactement comme la composante normale au scalp du
gradient du vecteur densité de courant. Si on suppose la conductivité du scalp uniforme, on montre que
cette grandeur peu être calculée à partir des distributions de potentiel. Ainsi, les zones où I est positif sont
appelées des sources de courant (émergence des lignes de courant). Les zones où I est négatif sont
appelées puits de courant (retour des lignes de courant vers le cerveau perpendiculairement à la surface).
Les cartes en densité de potentiel ont la propriété de faire émerger les générateurs et qui sont peu
profonds. Ainsi, pour localiser plus précisément les sources de courant intracérébrale, il apparaît
nécessaire de faire appel à des modèles du milieu et des générateurs. En effet, pour obtenir la localisation
des générateurs, il est nécessaire de connaître la relation qu’il existe entre le signal générateur et le signal
mesuré. Il s’agit en mathématiques, du problème direct, qui nécessite la modélisation du signal vers
l’extérieur de la tête, ainsi que celle du fonctionnement des capteurs. Le problème direct consiste à
modéliser les potentiels recueillis sur le scalp et engendrés par une configuration de sources connues. Il
s’agit de relier les sources aux données. Il consiste à calculer la distribution de potentiel sur le scalp
lorsque l’on connaît a priori les générateurs intracérébraux (lenombre, la position..) ainsi que la géométrie
et la conductivité de milieux. Mais si l’on veut avoir une idée plus précise de la localisation des générateurs
de courant, il est nécessaire d’essayer de résoudre le problème inverse. Il est encore appeler
reconstruction, il consiste à estimer la distribution des dipôles de courant ayant produit les potentiels
électriques mesurés à la surface de la tête. C’est à dire de localiser les activités à partir des signaux
enregistrés en surface. Mais il existe plusieurs réseaux de sources génératrices qui peuvent expliquer une
carte de surface. Ce problème est donc très complexe et suscite de très nombreuses recherches. Il
soulève de nombreuses difficultés que nous n’aborderons pas ici, car il ne constitue pas l’axe d’exploration
principale de mon stage et qu’il est très complexe.
Exemple de cartographie densité radiale de courant :
- Distribution sur le scalp de la densité radiale de courant apparaissant 170 ms après la
présentation d’un stimulus auditif.
- complexe puits-source dans les régions temporales (tâche rouge et tâche jaune) .
- Puits de courant (tâche rouge sur l’aire frontale).
22
D.
Le Matériel et son Organisation
La plupart des systèmes d’électrophysiologie comprennent trois composantes principales :
•
la présentation du stimulus,
•
l’amplification et la digitalisation du signal et,
•
l’acquisition et l’analyse des données.
Ainsi le système Neuroscan propose une chaîne d’acquisition et de traitement du signal EEG et
PE jusqu’à 64 voies. L’ensemble est composé par : une unité d’amplification numérique par bloc de 32
voies : Syn-Amps. Nous acquerrons via un casque de 64 électrodes : Quick-Cap et utilisons donc 2
unités d’amplification. Il comporte également une unité d’acquisition et traitement du signal EEG et PE :
SCAN 4.2, et une unité de stimulation auditive et visuelle : STIM permettant des stimulations simples
comme les damiers et des stimulations complexes pouvant faire intervenir images et sons avec une
réponse du sujet.
Ainsi, la chaîne d’acquisition s’agence dans l’ordre suivant : le casque, les boîtes têtières
(préamplificateurs), les amplificateurs numériques, les systèmes d’acquisition et de traitement,
synchronisé au système de stimulation et au boîtier de réponse.
Schéma général de la chaîne d’acquisition d’électroencéphalogramme :
23
1-
Le système de recueil des signaux : le casque
L’élément primordial à l’acquisition est évidemment le casque de recueil des
potentiels. Au début, il n’existait aucun consensus sur la place des électrodes sur le crâne, ni sur
le nombre standard d’électrodes. Dans les années 1950, le docteur Jasper a introduit un système
en vertu duquel les électrodes sont numérotées et placées à des endroits bien précis, les
électrodes impaires à gauche et les électrodes paires à droite. Son système fait désormais figure
de norme internationale. Grâce à cette technique, les médecins du monde entier ont pu comparer
leurs résultats.
Depuis lors, d’autres électrodes ont été introduites. Les tests
cliniques standards utilisent aujourd’hui entre 16 et 32 électrodes.
Le crâne est divisé en cinq ou dix parties égales. Les électrodes
sont placées sur le crâne, les oreilles et les racines du nez. En
situation expérimentale, le nombre d’électrodes peut être très
largement supérieur et atteindre la centaine.
Schéma du système 10-20
Dans le cadre de notre expérience, nous utilisons un casque appelé Quick-Cap. C’est un système
qui permet de positionner rapidement un large nombre d’électrodes sur le crâne. Avant l’établissement du
système de casque, un technicien devait mesurer le crâne du patient afin de déterminer la position des
électrodes pour qu’elle soit concordante avec le système 10-20. Il devait ensuite attacher les électrodes et
les ajuster. A présent les casques permettent de localiser les électrodes et de les
fixer approximativement à niveau correct. Le Quick-Cap système réduit la durée et
la difficulté associées au positionnement manuel des électrodes, de plus cela
permet un meilleur confort et augmente la précision de la localisation des
électrodes à travers la variété des formes de têtes. Ceci est permis grâce à
l’élasticité uniforme du casque en stretch qui offre une adaptation aux différents
crânes et un maintien de l’espacement des électrodes entre chaque sujet. De plus
il existe plusieurs tailles de casques, enfant, moyen, adulte.
Les électrodes sont en argent/chlorure d’argent cela minimise les batteries de potentiels Dc offset
et assure des enregistrements EEG stables. Toutes les électrodes portent leurs labels sur le casque. Il
inclut d’ailleurs la référence, la Terre et les électrodes de mouvement oculaires verticales et horizontales.
Pour plus de stabilité le casque se fixe à l’aide d’une mentonnière. La pose du casque s’accompagne,
comme nous l’avons vu précédemment de la pose d’un gel conducteur (ici Quick-Gel) dans les puits
d’électrodes. Ceci doit se faire délicatement car une quantité trop importante de gel pourrait entraîner un
court-circuit entre deux électrodes, de même s’il n’y en a pas assez le courant risque de ne pas passer.
C’est une étape primordiale, indispensable à tout enregistrement. Il existe d’ailleurs différents gels
conducteurs. Il est en tous cas très important de ne pas combiner des électrodes et des gels de types
différents car cela risque d’entraîner des court-circuit.
24
La connexion du casque aux boîtes têtières est assurée par 2 prises à débranchement rapide à
connecter sur chacune des 2 boîtes têtières : un Cap Connector de 80 broches. Chaque connecteur
possédant 34 des voies d’enregistrements ainsi que la référence et la terre.
2-
Les boites têtières :
Les boîtes têtières représentent l’intermédiaire entre le recueil des signaux puis leur digitalisation
et leur amplification. Elles réalisent une pré-amplification de gain de l’ordre de 150. Chaque têtière est
connectée à Syn-Amps et permet les entrées de signaux de 32 canaux. Ces 32 canaux sont normalement
configurés en 28 canaux monopolaires ( dont le calcul de ddp se fait par rapport à la référence moyenne)
et de 4 canaux bipolaires (qui logiquement calcule leur ddp entre leur borne + et -).
Les têtières doivent être positionnées le plus près possible du sujet, pour réduire le bruit. En aucun
cas elles ne doivent être situées au-dessus des amplificateurs.
Dans notre cas, nous avons utilisé des connecteurs reliant le casque aux têtières. Nous n’utilisons
donc pas les canaux des têtières. Le branchement casque/têtière est direct et ne nécessite pas les
branchements de chaque électrode à un canal sur les têtières. Dans les deux connecteurs, chaque
électrode correspond à un fil précis, à une broche particulière et à un numéro de canal de boîte têtière.
Chaque électrode est donc attribuée à un numéro de canal d’une boîte têtière. De cette attribution dépend
ensuite l’assignement des canaux pour l’acquisition.
Malgré leur apparente simplicité, nous avons du nous attarder un long moment sur les boîtes
têtières et les connecteurs afin de comprendre progressivement leur fonctionnement. Nous avons ainsi pu
optimiser les branchements, suite aux différents essais d’enregistrements réalisés et aux mauvais signaux
recueillis. Effectivement les manuels ne présentent pas la situation d’utilisation d’un Quick-cap et d’un Cap
connector avec les têtières. Il a donc fallu nombreux essais pour en comprendre le fonctionnement. Dans
ce cas, on n’utilise pas les canaux des boîtes têtières, puisque l’électricité recueillie par les électrodes
passe dans les connecteurs. Les têtières sont utilisées uniquement pour la pré-amplification. Mais cela
pose nombreux soucis, notamment de bruit, puisque les canaux sont à l’air libre. Les problèmes viennent
notamment du fonctionnement des électrodes dont le numéro d’attribution du connecteur correspond aux
canaux bipolaires. Les signaux recueillis pour ceux-ci sont plats ou complètement bruiter. Or il est
nécessaire pour notre expérience de recueillir les signaux sur les 64 canaux de manières à pouvoir faire
ensuite de la cartographie. Nous évoquerons cela plus précisément dans la quatrième partie de ce
rapport.
L’avantage du Quick-Cap et du Cap connector réside dans la présence d’une référence moyenne
et d’une Terre interne. Il n’est donc pas nécessaire de poser d’électrodes supplémentaires. Nous utilisons
la Terre interne et les références internes du casque (normalement mastoïdiennes), pour les placer sur les
lobes auriculaires.
25
3-
Le système de stimulation : STIM
Le système Neuroscan utilisé possède une unité de présentation du stimulus appelée STIM. C’est
une unité flexible pour la présentation du stimulus. On remarquera qu’il est aussi possible d’utiliser une
autre interface de stimulation cependant tout l’intérêt de STIM tient dans sa synchronisation et son
triggerring avec le système d’acquisition. Ce système de stimulation est constitué d’un PC STIM et d’un
boîtier de réponse : le response pad. Ce système propose différentes taches, cognitives, de mémorisation,
motrices et de perception et des tâches d’attention. Il existe également un éditeur de tâche permettant de
développer ses propres paradigmes. Dans le cadre de notre expérience nous avons donc utilisé cet
utilitaire pour programmer notre test, puisque nous avions des images et des paramètres spécifiques.
Stim est un logiciel qui a été développé spécialement pour les acquisitions neurophysiologiques et
électrophysiologiques, et notamment avec un système d’acquisition SCAN 4, pour lequel il permet une
synchronisation du pulse trigger.
On a vu précédemment qu’au cours d’expérience d’électroencéphalographie lors d’un
fonctionnement non pathologique du cerveau, la sensibilité des techniques d’EEG est généralement trop
faible pour permettre l’analyse d’une stimulation, d’un événement unitaire, appelé aussi époque. Celui-ci
doit être répété un grand nombre de fois pour ensuite être moyenné. Ce moyennage est réalisé par
rapport à une référence temporelle, le trigger en anglais. Cette référence temporelle intervient donc de
manière très importante
dans le calcul de la latence du tracé - c’est à partir d’elle qu’on la définit - ;
dans le calcul du temps de réaction ;
pour le moyennage, puisqu’il consiste à prendre toutes les mesures effectuées au moment du
trigger et à en faire la moyenne, de même pour toutes celles faites x millisecondes après, et
ainsi de suite jusqu’au trigger suivant.
Cette notion de triggering est donc primordiale dans les enregistrements de PE et d’EEG, puisque
l’on travaille sur des durées de temps relativement courtes et sur des signaux dépendants de tous les
paramètres temporels des stimulations. Le trigger permet donc la synchronisation avec le logiciel
d’acquisition et de traitement. Pour l’optimiser STIM système fonctionne donc sous DOS et utilise l’horloge
de l’ordinateur, pour un meilleur timing.
Cette notion porte également son importance pour le recueil de temps de latence de la réponse
faite par le sujet. Effectivement celle-ci se fait par un boîtier de réponse appelé STIM PAD constitué de
quatre boutons de réponse. C’est par son intermédiaire que l’on peut recueillir les temps de réaction,
notion importante pour toute exploration comportementale.
26
4Le système d’amplification et de digitalisation : Syn Amps, et le système
d’acquisition et d’analyse des données : SCAN
Syn-Amps :
Les signaux bio-électriques qui sont enregistrés à la surface du crâne
ou du corps sont faibles, en terme de voltage, et requiert une
amplification considérable de l’ordre de 20 000. Neuroscan utilise SynAmps pour l’amplification suite à la pré-amplification d’un gain de l’ordre
de 150 par les boîtes têtières. La sortie de Syn-Amps est digitale alors
qu’elle est souvent analogique à la sortie des amplificateurs. Le gain
d’amplification est à déterminer lors du paramétrage du fichier
d’acquisition, il peut varier entre 150 (gain des boîtes têtières) et 12 500.
La spécificité de Syn-Amps est que l’on peut affecter des gains différents
à chaque électrode. Syn-Amps est un amplificateur capable de vrais enregistrements continus ou
digitaux. Chaque unité est un système intégré des données physiologiques qui peut être configurée
pour 8, 16, 24 ou 32 canaux. Il inclut une très basse amplification de bruit et un convertisseur A to D 16
bit, ainsi qu’un filtre digital. Syn-Amps est isolé optiquement, il possède un circuit de test d’impédance,
ainsi qu’un circuit de correction de DC. Il est donc possible de connecter plusieurs unités ensemble
pour permettre une acquisition synchronisée jusqu’à 256 canaux.
Scan 4.2 :.
Les signaux digitalisés par Syn-Amps sont ensuite reçus par le système SCAN. C’est ce système
qui les recueille, les stocke et les mémorise puis les traite. Les enregistrements peuvent être classés sous
différents formats, selon les besoins. Si on le souhaite, les données entières dites « crues » peuvent être
sauvées pour une analyse hors ligne. Les options d’analyse consistent typiquement en une minimisation ou
un rejet des artefacts de tous types, au moyennage, aux comparaisons statistiques, à l’affichage graphique
des résultats, à la cartographie. Les voici rapidement présentées :
•
Rejet d’artéfacts incluant la correction de ligne de base ,
•
rejet du DC par filtrage numérique polynomiale avec isolation et rejet des composantes spatiales y
•
compris les artéfacts oculaires
Remontage des données
•
Analyse sélective des différents moyennages en fonction des différents types de stimuli et des critères
comportementaux de réponse.
•
Moyennage sur des réponses comportementales manifestes
•
analyse de cohérence de l’EEG continu
•
analyse de Temps Fréquence
•
synchronisation d’événements connexes / désynchronisation et cohérence d’événements connexes de
séries temps-dipôle
•
analyse spatiale de composants principaux
•
les filtres spatiaux incluent les courants de densité locaux du scalp (Laplacian)
•
addition et soustraction
•
les statistiques incluent le t-score, Z-score, la corrélation intra-classe et le Pearson
27
Le logiciel SCAN 4.2 propose plusieurs modules :
-
Un module d’acquisition : Acquire utilisé pour enregistrer les données EEG et PE. Il permet
d’enregistrer les données en trois formats primaires : continu, époque, ou moyenné.
-
Un module d’Edition : Edit qui permet le traitement et la transformation des données dans
différentes voies : filtrage, correction de la ligne de base, rejet des artéfacts, moyennage,
analyse spectrale, analyse statistique, cartographie 2D et 3D.
-
Un module MapGen qui permet de créer et modifier des cartes 2D utiliser ensuite dans Edit ou
3D Space
-
Un module 3Dspace Dx qui permet de digitaliser le crâne et la position des électrodes, afin de
cartographier les résultats des PE.
-
Un programme Waveboard utile pour traiter différents tracés de plusieurs fichiers afin
d’effectuer les différences entre tracés. WaveBoard est un nouvel outil qui permet de
comparer, mesurer, annoter et imprimer la trace et les données spectrales.
Le module d’acquisition permet diverses analyses en ligne et champ comme par exemple :
analyse fréquentielle, les calculs de dérivations linéaires, filtrage….Acquire permet d’enregistrer et
d’afficher des données EEG continues, époques ou moyennées, ainsi qu’un affichage spectral. Les trois
étapes sont les suivantes : créer ou sélectionner un fichier configuré pour l’acquisition spécifique du
système, entrer les informations concernant le sujet, acquérir et sauver les données.
Indépendamment du type de données que l’on sauvegarde, on peut choisir de regarder un autre
type de données en ligne. Il est possible de visualiser un flux de données continu d'EEG, même si l’on a
choisi de stocker seulement des potentiels évoqués. Ou, si l’on choisit de stocker seulement les données
continues d'EEG, vous pouvez encore regarder un spectre de puissance moyen de FFT pendant
l'acquisition.
Le module Map Gen permet de créer des fichiers de carte pour afficher les données sous formes
de simple carte, de couleur ou de carte topographique, il permet de créer ou de modifier des fichiers
existants..
Le module 3D Space DX est une application qui représente un outil important de visualisation
mais aussi une passerelle entre l’EEG traditionnel et l’imagerie cérébrale, le métabolisme et
l’hémodynamique. L’interface de numérisation utilisée se nomme Fastrak ( voir détail 4) A) ), elle permet la
mesure des coordonnées 3D des électrodes.
28
Exemple de cartographie trois dimension réalisable via le logiciel SCAN4.2 :
Schéma général de l’organisation du système Neuroscan :
29
L’approche théorique et technique de l’électroencéphalographie présentée, nous allons à présent
les corréler à l’aspect pratique en abordant le travail réalisé : l’acquisition du système Neuroscan et la mise
en place d’une procédure expérimentale maîtrisée. Nous nous attarderons en premier lieu sur l’acquisition
du logiciel de stimulation et la programmation du test. Nous évoquerons ensuite les étapes et conditions
d’enregistrements ainsi que l’acquisition du logiciel de recueil et de la pratique encéphalographique, nous
terminerons par présenter les étapes de traitement et les concepts de traitement du signal étudiés.
III.
Le protocole expérimental
La réalisation et la définition d’un protocole expérimental nécessitent une rigueur théorique et
scientifique très particulière. Il s’agit dans un premier temps de définir l’ensemble des paramètres et des
conditions de test. C’est de cette rigueur et de cette pertinence que découle ensuite l’allure et la précision
des signaux. On l’a vu précédemment, dans l’étude des PE et notamment pour l’étude des ondes
endogènes les paramètres de stimulation sont extrêmement déterminant pour l’allure des signaux
recueillis.
A.
Le Pré-test
1. Pertinence et Hypothèses
Comme nous l’avons énoncé lors de la présentation du protocole, l’expérience se situe dans le
cadre de la problématique générale de l’interaction entre la perception et l’émotion. Une expérience
précédemment réalisée en imagerie par résonance magnétique (IRM) a permis de reconsidérer la chaîne
perceptive. La présentation d’images émotionnelles améliorerait leur discrimination. La perception
émotionnelle activerait plus facilement le cortex associatif visuel, l’émotion optimiserait les fonctions
perceptives. Effectivement d’après Lane et al 1999 Lang et al 1998 ; Reiman et al 1997 le cortex associatif
visuel serait plus activé en réponse à des stimuli positifs qu’en réponse à des stimuli non affectifs.
L’expérience s’ancre donc dans cette thématique inédite. On explore l’effet de l’émotion sur la
perception via la présentation d’images de différents plaisirs, et l’effet de la perception sur l’émotion via
l’altération des images par le contraste. La thématique du contraste tient de résultats et d’observations
cliniques et physiologiques sur la variation de la sensibilité au contraste de sujets pathologiques. Les
expériences réalisées ont pour but d’explorer l’effet de la modulation du contraste sur le jugement
hédonique. On utilise la dégradation du contraste comme paradigme d’exploration de l’interaction entre
perception visuelle et émotion. L’axe principal de recherche est celui de l’effet de l’émotion sur la
perception et inversement, de leur interaction, voire de leur transduction. Il existe un autre niveau de
recherche, celui du jugement émotionnel et hédonique du à la dégradation du contraste. La variation du
contraste peut elle être considérée comme variation émotionnelle ? On s’intéresse également un peu plus
particulièrement au déficit de la vision chez les anhédoniques et à son origine. L’expérience
comportementale, primaire à celle d’électrophysiologie, devrait apporter quelques éléments de réponses et
permettre de vérifier que l’origine du déficit est périphérique. C’est pourquoi on s’intéresse à l’effet de
l’altération de la perception sur le jugement hédonique. On cherche à savoir si la variation du contraste
30
altère aussi le jugement hédoniques des anhédoniques. Nous utiliserons donc des images émotionnelles
de plaisir physique (paysage..), social (famille, amis..) et neutre, noir et blanc et couleur, dégradées et non.
Le pré-test a pour but une familiarisation avec les logiciels de stimulation, d’acquisition et de
traitement. Le logiciel de stimulation étant surtout adapté à la présentation de ses propres tests : test
simple de damiers, d’images simples ; la présentation d’images de bonne qualité s’est révélée assez mal
adaptée au logiciel pour des raisons de poids d’images. ( Nous développerons cela dans la partie suivante
sur la programmation du test.) Or, la qualité des images est primordiale pour le jugement hédonique. Ainsi,
nous nous sommes limités pour ce pré-test à la présentation d’images noir et blanc, non dégradées, qui
après modifications étaient acceptées par le logiciel et respectaient nos conditions de protocole. Ceci
représente une excellente première expérience justement car elle ne se fait que sur les images non
dégradées, et ne joue donc que sur la variation émotionnelle. Cela permettra une analyse comparative
avec les images dégradées. De plus les images noir et blanc n’ont été que très rarement étudiées dans les
expériences de ce type. Ainsi l’expérience est purement exploratoire, notamment dans la population
anhédonique, puisque la thématique est inédite. Il n’y a pas d’hypothèses précises ni d’attentes
particulières quant aux résultats sur le contraste chez les anhédoniques. Par contre, une expérience
précédente, réalisée avec la même équipe a montré que le jugement hédonique de sujets sains diminuait
avec le contraste. Il semblerait également que les images de plaisir physique soient côtées plus
hédoniques, et ce plus rapidement que les images de plaisir social. C’est pourquoi nous les avons séparés
dans ce protocole. Afin d’examiner les signaux recueillis pour plaisir physique et pour plaisir social.
Dans la population de sujets sains, on s’attend donc à une diminution de l’amplitude de l’onde
Négative apparaissant vers 100msec : N1, sensible notamment aux images physiques. Il semble
également que les amplitudes des ondes P300, Late Positive Potentiel et de la N200 soient plus grandes
pour des images de plaisir que pour des images neutres. Aucune hypothèse ne peut être faite pour le
moment sur la latence des ondes et sur l’effet du contraste chez les anhédoniques. Des paramètres très
précis ont alors été définis pour ce prétest :
−
présentation d’images noir et blanc non dégradées de plaisir physique et neutres
−
30 images de chaque type, présentées chacune 3 fois, soit 180 stimulations et 180 tracés,
valeur assez importante permettant une optimisation du moyennage
−
Un temps de présentation des images de 1.5 secondes, durée permettant une cotation
relativement spontanée, optimisant les ondes
−
Intervalle inter stimuli variable de 5 à 6 secondes. La variabilité réduit les attentes du sujet et
l’habituation. L’ordre de grandeur permet un repos des yeux et évite le clignotement et la
fatigue
−
Affichage d’un point de fixation entre les stimuli pour limiter le balayage des yeux avant la
stimulation et donc le bruit
31
Exemple d’images neutre et de plaisir sensoriel physique noir et blanc utilisées pour le pré-test :
B.
Programmation du test
1-
Hiérarchie du logiciel de stimulation STIM
Le système de stimulation STIM propose différentes tâches, cognitives, de mémorisation,
motrices et de perception et des tâches d’attention. Il existe également un éditeur de tâche permettant de
développer ses propres paradigmes. Dans le cadre de notre expérience nous avons donc utilisé cet
utilitaire pour programmer notre test, puisque nous avions des images et des paramètres spécifiques.
Rappelons que ce logiciel fonctionne sous DOS, il est synchronisé avec le logiciel d’acquisition. L’instant
zéro de présentation de la stimulation déclenche l’instant t égal zéro d’enregistrement : on parle de trigger.
L’ensemble du principe de recueil des potentiels évoqués réside dans cette synchronie et ce triggerring
entre le logiciel de stimulation et d’enregistrement. C’est un concept primordial pour
l’électroencéphalographie, une sorte de chef d’orchestre qui permet la précision.
Les tests existants sont des tests simples : test de reconnaissance de visages, présentation
d’images simples, damiers visuels. Pour présenter nos images de poids forts et pour paramétrer notre test
nous utilisons le programme GENTASK, spécifique pour la programmation de tests personnels. Le logiciel
fonctionne sous DOS (pour l’optimisation du triggerring), mais le contenu des répertoires et fichiers n’est
accessible et modifiable que sous WINDOS. A l’allumage du système, on accède donc directement au
logiciel sous DOS. Il faut sélectionner son type de stimulation. La première page propose les 6 types, puis
2 ou 3 tests au sein de chacun. Notre utilitaire se situe dans le type UTILITIES, qui propose 3 tests : l’un
permettant de dessiner des stimuli visuels : Draw, l’autre de créer des stimuli auditifs : Sound, et le dernier
qui propose de programmer des tests : Gentask. Celui-ci propose un ensemble de tests de démonstration.
Chaque test est caractérisé par ses paramètres, ceux-ci sont rassemblés dans un fichier de
données le SETUP file. Une fois le type de stimulation choisi, il s’agit donc de sélectionner le SETUP file,
avec lequel on souhaite réaliser notre test. Le menu principal propose effectivement 7 options : Batch,
Setup files, Config, Info, Save , Run, Analysis. Un setup file donne la configuration du test, il le caractérise
par le type de paramètres qui le constitue. Il est composé :
- d’un sous-fichier qui contient les valeurs précises affectées à chaque paramètre d’un test précis.
C’est le deuxième fichier à sélectionner sous DOS pour accéder au test. Il apparaît d’ailleurs en blanc
alors que le setup File était rouge. Cela marque la hiérarchie. Chaque fois que l’on souhaite varier des
paramètres et les sauvegarder, on crée un nouveau sous-fichier. Le nombre de variation de paramètres
pour un même test correspond donc au nombre de sous fichier existant pour un même fichier. C’est par
32
celui-ci que l’on entre dans le test puisqu’il en contient la configuration. Il existera sous Windos un fichier
correspondant, portant le même nom, qui sera un fichier générateur (en extension .gen). Il ne contiendra
qu’un chiffre et une lettre. :2.3 p Beta pour tous les fichiers.
- d’un fichier séquentiel, qui contient la séquence de stimulation. Celui-ci est un paramètre à
déterminer dans la configuration. La sélection du fichier séquentiel se fait donc sous DOS, en accédant à
la configuration du test. Sa création se fait par contre sous WINDOS, sous format texte.
Ainsi chaque fois que l’on sauvegarde une configuration, c’est à dire les valeurs des paramètres,
on crée un nouveau sous-fichier, auquel on accédera alors sous DOS (via des fichiers/répertoires blancs)
et qui fera partie de la sélection des fichiers générateurs. A une configuration de paramètres correspond
un sous fichier sous Dos et une séquence génératrice sous Windos.
Dès que ce fichier générateur a été sélectionné on accède à l’interface graphique du test, et au menu
principal, avec ses options : Batch, SetUP files, Config, Info, Save, Run, Analysis.
2
Les paramètres de test/la configuration
Config : comme nous venons de l’expliquer c’est par cette option que l’on accède à la configuration
des paramètres du test. La séquence de paramètre se présente de la manière suivante :
-
Sequence file : détermine le fichier séquentiel de stimulation auquel le programme se réfère. Il s’agit
de la séquence créée sous Windos que nous détaillerons par la suite.
-
Image path : donne le chemin d’accès sous DOS au fichier séquentiel lorsque celui ci n’est pas dans
le même setup File, dans le même répertoire. Il n’a pas besoin d’être spécifier quand le fichier est
dans le répertoire.
-
Stimulus preload : cette option permet ou non de charger les images et/ou les sons dans la RAM
avant leur affichage. Lors de la présentation d’images dépassant un certain poids, il est indispensable
de précharger les images, sinon le logiciel n’est pas en mesure de les présenter. Le temps de charge
entre les stimuli serai trop important et risquerai de dépasser la durée interstimuli programmée.
Effectivement si on ne précharge pas la séquence de stimulations, les stimuli sont chargés dans la
RAM au moment de l’exécution du test. Ces stimuli ont alors simplement besoin de correspondre avec
le disque dur, mais le temps requis pour charger les stimuli du disque à la RAM peut dépasser
l’achèvement de la durée Inter stimuli (ISI). Ce qui n’est pas le cas lorsqu’on précharge les stimuli,
puisque les stimuli sont déjà en mémoire. Le préchargement a lieu juste avant l’exécution du test, si la
RAM n’est pas suffisante à ce moment un message d’erreur s’affiche. La RAM nécessaire pour le
préchargement des images dépend de leur format, CUT, IMG ou PCX. Dans notre cas il a été
indispensable de précharger la séquence de stimulation puisque nos images sont lourdes de l’ordre
de 300 Ko Nous reviendrons dans le paragraphe suivant sur la spécificité de nos images.
- Fixation : option qui permet l’affichage ou non d’un point de fixation, soit entre chaque stimulation, soit
de manière continue. On peut aussi en déterminer les coordonnées et al couleur avec les 3 options
suivantes. Nous évoquerons les difficultés rencontrées pour l’affichage de ce point de fixation.
33
- Instruction file : indique quel fichier texte est présenté avant le début du test. Permet de donner les
instructions au sujet. Il est réalisé sous Windos.
-
Port type et port adress : sont les paramètres d’adressage entre les périphériques. Le port type
détermine via quel type et quel port le trigger est envoyé au système d’acquisition. Il est recommandé
d’utiliser un port parallèle car le timing de déclenchement des ports parallèles et beaucoup précis que
celui des ports séries. Le port adress détermine le périphérique qui va être utilisé pour déclencher ou
synchroniser les machines. Ces deux paramètres sont donc définis par défaut lorsque l’on utilise Stim,
Neuroscan et le response pad ensemble. Ils sont à modifier uniquement si l’on change de boîtier de
réponse ou de système de stimulation.
-
Background color permet de choisir la couleur de fond d’écran, les couleurs peuvent être choisies
parmi la palette du logiciel.
-
Counter permet d’afficher et de compter le nombre de stimulation si on le souhaite
-
Response Type détermine le périphérique par lequel les réponses vont être données : souris ou
STIMPAD.
-
Min response time est la plus courte période dans la quelle le sujet peut répondre après la
présentation du stimulus. S’il répond plus vite la réponse sera considérée comme erreur.
-
Response code : est le code qui permet de déclencher le système d’acquisition
-
Gray level : permet de changer la palette utilisée par défaut (DEFPAL) et d’utiliser la palette de gris.
-
Timing data : pour les stimuli de type images, le temps est fondamentalement limité par le taux de
rafraîchissement de l’écran (14 – 15 msec). Comme il peut y avoir un écart entre le temps déterminé
dans la séquence et le temps requis et effectivement exécuté pour le test. Cette option permet donc
d’optimiser le temps donné dans la séquence et de l’adapter au taux de rafraîchissement et « vertical
blank time ».
-
.seq file version : détermine si la séquence est programmée en terme d’Intervalle Interstimuli (ISI) ou
de Stimulus Onset Asynchrony (SOA). L’ISI correspond à la durée du début d’un stimulus au début du
deuxième, le Soa à la durée entre le début du stimulus et le précédent. Par convention STIM utilise le
SOA.
Pour notre test nous avons créé différents fichiers séquentiels. Nous les évoquerons dans le
paragraphe 4) Aucun champ n’a été créé, nous avons été contraints de pré-charger nos images du fait de
leur poids. Nous souhaitions utiliser le point de fixation du test, mais nous nous sommes confronter à des
problèmes de palette de couleur, dus au format et au poids de nos images. Ce problème a alors permis
d’explorer un peu plus profondément le fonctionnement et les caractéristiques du système et de fichiers
d’images. Le détail sera donné dans le prochain paragraphe. Le fichier d’instruction était un fichier texte
créer sous WINDOS, sous Word pad qui présentait succinctement le protocole du test. Les valeurs de
trigger étaient celles de défaut puisque nous utilisions STIM. La réponse était donnée via STIMPAD, et le
temps de réponse minimum mis à 0 puisque nous souhaitons enregistrer toutes les réponses données
dans le temps imparti. La palette de gris est mise à 0N puisque nous utilisons des images noir et blanc, et
34
le timing data aussi puisque nos images sont lourdes et que l’on souhaite optimiser le temps de
présentation. Nous étions en version SOA par convention.
Une fois l’ensemble des paramètres déterminés on peut sauver notre configuration via l’option
SAVE CONFIG : celle-ci permet donc de créer un sous fichier sous DOS et un fichier .gen sous
WINDOWS.
On peut aussi accéder à la configuration d’autre fichiers via l’option READ CONFIG. CONFIG
propose aussi une option de randomisation RANDOMIZE que nous évoquerons plus loin pour la
réalisation de nos séquences, et une option de répétition :REPEAT qui permet de copier et répéter un
certain nombre de fois un bloc d’événements dans un fichier séquentiel. De plus on peut accéder à la
séquence déterminée dans la configuration via l’option VIEW qui affiche la séquence d’événements.
Info: permet d’entrer toutes les informations concernant le sujet. : son numéro d’identité, son nom,
le nom de la personne qui fait passer le test, le nom de celle qui l’a conviée au test, son age, son
sexe, sa latéralité…
Save: permet de sauver les résultats du test dans un fichier précis, s ion oublie de le faire avant de
lancer le test, la fenêtre de sauvegarde apparaît d’elle même
Run: lance l’exécution du test, et affiche la fenêtre de sauvegarde si l’oubli a été commis
Analysis: permet d’accéder aux résultats des tests,
de réaliser une analyse statistique des
données et de les écrire dans un fichier texte, d’imprimer les données.
L’affichage des données se fait par tableau de 5 colonnes comprenant : le numéro de l’essai, la
réponse donnée par le sujet, le type de stimulus, la correction de la réponse : 0 si incorrecte, 1 si
correcte, et la latence de réponse. Ces données sont enregistrées dans un fichier ASCII en
extension .DAT.
3-
Les images
Un problème important auquel nous nous sommes confrontés pour la programmation du test
réside dans les capacités graphiques du logiciel de stimulation.
Faible capacité graphique : limitée à 256 couleurs
Le logiciel possède effectivement une capacité graphique très basse limitée uniquement à 256
couleurs. Cette limite empêche la présentation d’images couleur en 16, 24 ou 32 bits ou d’images
dégradées noir et blanc ou couleur de définition supérieure à 256 couleurs. Seules les images noir et
blanc non dégradées peuvent être présentées par le logiciel car elles utilisent une palette de gris de 256
couleurs. C’est pourquoi nous avons réaliser tout d’abord un pré-test dans les conditions protocolaires
avec uniquement les images noir et blanc non dégradées. Cela permettait une familiarisation avec le
système, et une meilleure compréhension de son organisation. La réalisation du test avec les images
dégradées et/ou couleur nécessitant l’installation d’un autre logiciel plus performant. Celui-ci devra, de
plus, respecter le triggerring avec le logiciel d’acquisition ; ce qui rend la tâche délicate. Nous ferons appel
35
pour ce travail à un ingénieur informaticien qui travaillera pendant 2 mois à l’installation d’un nouveau
logiciel de présentation.
Le logiciel de stimulation STIM est surtout adapter à la présentation d’images de format CUT de
16 couleurs ou de format PCX de 256 couleurs. Le format CUT est un format pour images très simple type
dessin et formes très simples, il n’est donc pas approprié pour nos images de haute qualité. Le logiciel
permet également la présentation d’images de 256 couleurs sous le format PCX, seul format adaptable au
logiciel pour la présentation d’images de poids plus fort. Nous avons donc converti nos images dans ce
format dans un tout premier temps.
Exemple d’image PCX :
Faible capacité de poids d’image :
Mais, il existe en plus de la limite de définition graphique, une limite de poids d’images.
Effectivement, une fois l’expérience faite de la limite du nombre de couleur du logiciel je me suis
confrontée à la limite de poids d’image. Toutes ces notions de traitement et de définition d’images
m’étaient complètement nouvelles et j’ai du me familiariser avec elles pour maîtriser le logiciel et parvenir
à présenter nos stimuli malgré tout via notre logiciel. Après avoir appréhendé les définitions et les relations
existant entre taille, poids, qualité, résolution, nombre de couleur… je me suis penchée sur Photoshop et
j’ai exploré le logiciel pour réaliser les modifications des images. Mon objectif était alors de trouver la taille
d’image et le format maximum acceptés par le logiciel et par les conditions de notre protocole. La qualité
des images était conservée et leur dimension était convenable pour notre expérience de vision.
N’oublions pas les enjeux du test et de la présentation des images sur la recherche menée, les
modifications d’images peuvent avoir des répercussions multiples. L’image ne doit pas être trop grande
pour limiter le balayement des yeux et les artefacts sur nos signaux, pas trop petites non plus pour éviter
les clignements et le même genre de risque, et la qualité de l’image a son importance sur le ressenti
émotionnel. Je me suis donc arrêtée lorsque je suis parvenue à la limite supérieure de taille et de poids
d’image acceptés et présentés par le logiciel ( H : 639 pixels, l : 422 pixels, résolution de 72, en conservant
les proportions). Toutes les images ont également étaient transformées en mode couleurs indexées de
256. Le poids de nos images était alors de l’ordre de 100 Ko.
Problèmes liés à la palette de couleur :
Mais, jouant avec les limites du logiciel surtout adapté au format CUT, d’autres problèmes se sont
alors présentés. Le logiciel propose l’affichage d’un point de fixation entre et/ ou pendant les stimuli, ainsi
36
qu’une palette de couleur de fond d’écran. Nous souhaitions qu’un point de fixation s’affiche entre les
stimuli pour re-fixer les yeux avant l’apparition d’un stimulus afin d’éviter les artéfacts de balayement. Ceci
n’était pas possible à cause du poids et du format d’image et, pour une question de palette de couleur.
En effet, chaque image PCX possède sa propre palette de couleur et redéfinit complètement la
palette de couleur. Or, comme le logiciel ne possède qu’une seule palette de couleur, les palettes des
images PCX se chargent pendant l’affichage du point de fixation et écrase la palette de couleur de STIM.
L’affichage d’images PCX définie par une palette de couleur différente de celle de STIM- les 256 couleurs
de niveau de gris de nos images n’existent pas dans la palette de STIM - empêche donc l’affichage de
point de fixation, et le contrôle de sa couleur. La couleur change en effet pendant la charge de la palette
des images PCX en arrière plan de la mémoire vidéo.
La présentation d’un stimulus visuel requiert effectivement deux pages de mémoire vidéo :une
page de stimulation , une page Inter stimulus. STIM doit copier le stimulus suivant pour le présenter dans
la page de stimulus de mémoire vidéo, pendant que la page Inter stimulus est encore affichée sur le
moniteur. Ainsi, quand le moment arrive de présenter le stimulus et d’envoyer un pulse à SCAN, la carte
graphique charge la page de stimulus. Le seul moyen de faciliter le passage d’une page à l’autre et d’une
palette à une autre serait donc de réduire la résolution de nos images or nous ne pouvons le faire pour des
raisons de protocole. Ainsi seule des images définies avec la palette de couleur de STIM (c’est à dire celle
du point de fixation) peuvent utiliser la fonction point de fixation proposée par le logiciel. Il est d’ailleurs
conseillé de ne pas utiliser de point de fixation et de laisser la couleur de fond d’écran en noir pour faciliter
les changements de palette. Le logiciel propose une alternative à ce problème mais elle joue sur les
paramètres de notre test, la durée de présentation, ou le SOA, or, nos paramètres sont fixes. De plus cette
alternative dégrade les images très fortement.
Le logiciel propose également un programme d’optimisation des palettes de couleurs( Quant 3.0)
des images PCX or ce programme harmonise les palettes des images PCX avec celle du logiciel, cela
entraîne donc une dégradation des images, cette option n’est donc pas non plus efficace.
Le seul moyen d’afficher un point de fixation blanc sans que cela ne dégrade les images, sans
être obligé de réduire la résolution de nos stimuli, sans que la couleur du point change… a donc été de
créer nous même une image en format PCX en niveau de gris représentant un point de fixation blanc.
Cette image possédait alors la même palette que les autres images (palette de 256 couleurs en niveau de
gris) et s’assimilait donc à un stimulus supplémentaire. Les problèmes de palette de couleur étaient ainsi
contournés. Cependant l’ajout d’une image PCX même de faible poids nécessitera un certain temps de
charge. De plus, elle est considérée par STIM comme un stimulus supplémentaire. Ces paramètres seront
important lors de la création de nos séquences. C’est ce que nous allons évoquer à présent.
4-
La randomisation
Nous souhaitions créer à la fois des séquences d’images et des durées de SOA aléatoires.
STIM propose une fonction Random pour aléatoriser les séquences d’images. Cette fonction
permet de « randomiser » des blocs de séquences. Comme nous souhaitons « randomiser » toutes nos
images, il nous faut créer des blocs de séquence de 1 image. Cependant comme nous devons intercaler
nos images d’un point de fixation entre chaque stimulus image, et qu’il n’est pas possible, par exemple, de
l’exclure du Random, cette option ne nous est pas adaptée. Il nous faudra à nouveau la contourner.
37
Pour éviter les phénomènes d’habituation et d’attente des stimuli nous souhaitons également faire
varier aléatoirement la durée SOA entre 5 et 6 secondes par pas de 0.1. Le temps d’affichage du stimuli
était invariable :1.5 secondes. Nous souhaitions donc que la durée entre l’image X et l’image X -1 soit
variable. Nous rappelons que le SOA (Stimulus Onset Asynchrony) correspond à la durée entre le temps
t=0 de début du stimulus et le temps t=0 du stimulus précédent. Pour le premier stimulus il correspond à la
durée entre le temps t=0 de début du stimulus et le début de l’exécution du test. Le logiciel propose deux
fonctions de randomisation du SOA :
-
ASOA (adaptative SOA) donne le SOA de l’évènement suivant selon la performance du sujet,
bonne ou mauvaise réponse
-
ADUR (adaptative duration) modifie la durée de présentation du stimulus en fonction de la
réponse du sujet. On aurait pu utiliser cette fonction en jouant sur la durée de présentation du
point de fixation, ce qui ferait varier la durée SOA.
Mais on souhaite réaliser de l’aléatoire parfait, indépendant des réponses du sujet. Nous
procéderons donc sans l’aide de ces sous-fonctions.
.
5-
Création des fichiers séquentiels
La création des fichiers séquentiels a demandé beaucoup de minutie et d’essais pour contourner
tous les problèmes rencontrés. Il nous faut créer plusieurs séquences d’images. Rappelons que nous
souhaitons présenter 3 fois 30 images neutres et 30 images de plaisir sensoriel. Nous souhaitons
également faire une pause entre les séquences d’images. Nous pourrions créer une très longue séquence
avec nos 180 images et faire une pause à l’écran ( via Esc) mais pour favoriser le triggerring il est plus
prudent de ne pas faire de pause via l’écran et de faire se succéder trois séquences de chacune 60
images entrecoupées de 2 pauses. Nous créerons donc plusieurs séquences avec nos 60 stimuli,
chacune avec un ordre de présentation différent.
Nous avons décidé d’utiliser la fonction aléa d’Excel pour rendre aléatoire les séquences
d’images. Le stimulus point de fixation est intercalé entre chaque image. Nous pensions faire de même
pour le SOA du point de fixation ou de l’image X. Mais mes essais m’ont amenés à mieux saisir le
fonctionnement du système et à régler cette condition autrement.
Un fichier séquentiel se présente par colonne de la manière suivante :
EVENT : donne l’ordre des images de la séquence
MODE : donne le format des stimuli (PCX)
DUR : donne la durée de présentation du stimulus en secondes
WIN : détermine le temps en secondes pendant lequel le logiciel cherche une réponse à partir du
début de présentation de l’image
SOA :correspond à la durée qui sépare le temps t=0 d’un stimulus du temps t=0 du stimulus
précédent
Xpos/rdb :donne la valeur en abscisse de la position du centre de l’image
38
Ypos/ldb, donne la valeur en ordonnées de la position du centre de l’image
RESP est la réponse attendue selon le matériel via lequel se fait la réponse (1 ou 2 avec la souris,
de 1 à 4 via STIMPAD). Si aucune réponse n’est attendue, ce qui le cas pour les points de
fixation, il faut entrer -1 dans ce champ. C’est par ce champ que la colonne CORRECT du fichier
de données pourra être rempli. Puisque nous n’attendons pas de résultat par la réponse du sujet,
on entrera une valeur par défaut : 1.
TYPE : donne le type de chaque image : nous en avons trois : type 1 image neutre, type 2 image
de plaisir, type 3 point de fixation.
FILENAME : spécifie le nom de l’image qui va être affichée.
En pensant rendre aléatoire la durée Inter stimuli via la randomisation du SOA du point de fixation ou
de l’image X, nous nous sommes confrontés à des problèmes de temps de charge des images en
mémoire. Nous pensions que la valeur de SOA pouvait prendre n’importe qu’elle valeur supérieure à la
durée d’affichage du stimulus X-1, or il s’est avéré après plusieurs tentatives que le SOA devait être
supérieur à la somme de la durée d’affichage du stimulus X-1, et du temps de charge du stimulus suivant.
Après plusieurs essais nous avons pu déterminer la valeur du temps de charge des images PCX. Il est de
l’ordre de 400 millisecondes.
Il apparaissait alors plus simple de jouer sur la durée d’affichage du point de fixation, pour rendre la
durée inter stimuli aléatoire. Dès lors l’organisation temporelle des images se présentait de la manière
suivante ( cas des deux premières images) :
Durée :
0.4
1.5 sec
IMAGE 1
Temps de charge
image 1
0.4/ 0.6 à 1.6/ 0.4
POINT FIX
Temps de charge
du point de fixation
1.5
IMAGE 2
temps de charge
de l’image 2
SOA du point de fixation
SOA de l’image 2
correspond à WIN :4 secondes
varie entre 1 et 2 secondes
Nous avons donc « aléatorisé » les durées des points de fixation grâce à la fonction Alea d’Excel. Nous
avons alors pu y créer l’ensemble de nos séquences, avant de les transformer en fichier texte tabulation
pour les réincorporer à STIM.
39
Exemple type d’une séquence de stimulation réduite à 5 images :
Numevents 5
event
mode
dur
win
soa
x/r
y/l
resp
type
file
1
PCX
1.5
3.6
0.5
0
0
1
2
nb14P00
2
PCX
1.1
0
3.6
0
0
-1
3
fix
3
PCX
1.5
3.6
2.4
0
0
1
2
nb10P00
4
PCX
1.5
0
3.6
0
0
-1
3
fix
5
PCX
1.5
3.6
1.9
0
0
1
1
nb8N00
La programmation de ce test de stimulation m’a permis une découverte, une application et une
pratique des techniques de traitement des images. La familiarisation avec les paramètres de détermination
des capacités graphique d’un logiciel, et d’un ordinateur, leur corrélation et leur organisation. De plus cela
m’a permis d’explorer l’ensemble des fonctionnalités d’un logiciel de stimulation et de saisir, plus
techniquement la notion de triggerring, et sa synchronisation avec le logiciel d’acquisition.
40
IV.
Les enregistrements
Parallèlement à la programmation du test de stimulation et à l’acquisition du logiciel STIM, je me
suis confrontée au fonctionnement et à l’organisation du système d’acquisition des signaux : le casque, les
boîtes têtières, les amplificateurs SYN-AMPS et le logiciel d’acquisition SCAN 4.2. Pour cela j’ai procédé à
une familiarisation par la lecture des manuels anglais, corrélée à mes lectures purement théoriques ; et
nous avons réalisé nombreux essais d’enregistrements nécessaires à l’optimisation des branchements, à
la compréhension de l’organisation, du fonctionnement du logiciel et à la définition des paramètres
d’acquisition. Cela m’a donc permis une familiarisation optimale avec le logiciel et la pratique
encéphalographique.
A.
Numérisation crânienne et électrodes
Un intérêt majeur de l’analyse de signaux d’électroencéphalographie est la cartographie. Cela
permet de visualiser et de comparer avec beaucoup plus de clarté les activités de surface des régions. En
effet, un grand nombre de dérivations suscite un grand nombre d'informations; recueillies par les
enregistrements d'EEG et de réponses évoquées, elles sont souvent difficilement assimilables par
inspection visuelle. Le développement des cartographies électroencéphalographiques et de potentiels
évoqués a permis de résoudre ce problème. Ces deux techniques utilisent le même type d'équipement: les
signaux issus des amplificateurs sont échantillonnés, numérisés puis traités par un ordinateur qui dispose
d'un écran graphique en couleurs pour afficher les cartes représentant la distribution topographique sur le
scalp des grandeurs analysées. Comme nous l’avons précisé dans la présentation du matériel ( Partie II)
section D- Matériel et son organisation) le logiciel Scan 4.2 apporte une nouvelle dimension à la
cartographie en intégrant la représentation 3D ce qui permet d’associer les données électrophysiologiques
à l’anatomie.
Ainsi, pour réaliser les cartographies de nos potentiels, il nous faut tout d’abord numériser le crâne
de nos sujets et la position des électrodes sur leur scalp. Ceci est réalisable via une interface de
numérisation :Fastrak (@Polhemus), associée à l’application 3D Space Dx du logiciel Scan 4.2.
41
42
3-
Etapes de numérisation du sujet
Placer le sujet dans un siège confortable.
Bien droit.
Sans appui tête
Positionner le transmetteur à moins de 30cm de la tête du sujet
L’axe des X doit être dans le plan médian de la face du sujet.
Positionner les trois récepteurs sur la tête pour que cela forme un triangle.
Un sur chaque tempe / Un sur l’inion
Lancer 3D Space Dx
Dans Edit/ Options/ Electrode Set Up :sélectionner les Set up file contenant les
informations sur la position et les labels des électrodes à l’aide du browser.
Allumer Fastrak.
Lancer l’enregistrement : Digitize/ Record
Digitaliser les points auriculaires et le nasion en vérifiant que le bouton stylus
est sélectionné dans la colonne Markers.
Digitaliser le crâne . Dans la colonne Head Shape sélectionner stylus et le mode
continu.
Presser le bouton du stylus avant le contact avec le crâne.
Le relâcher avant de l’enlever du crâne.
Ne pas déplacer le stylus trop rapidement.
Sauvegarder cette numérisation : File/Save as… format TRI
Calculer la distance Inion-Nasion et entre les deux points auriculaires pour
déterminer le centre du crâne
Poser le casque et les électrodes oculaires
Vérifier que l’électrode centrale CZ soit bien positionner à l’aide des distances
précédemment mesurées ( il est très important que le casque soit bien en place
pour la numérisation et pour les conséquences sur la cartographie)
Numériser les électrodes
Digitize /Record sélectionner stylus dans la colonne Electrodes
Numériser les électrodes dans l’ordre indiqué dans cette colonne
Sauvegarder File/ Save As …dans le même document TRI que pour le crâne.
Exemple de crânes numérisés (1 : non lissé .3dd et 2 :lissé .tri ) et de carte de champs de potentiel (3) :
43
B.
Création du SET UP file d’acquisition
La définition des paramètres d’acquisition des signaux est une étape cruciale et déterminante pour le
recueil des signaux et leur enregistrement. Avec le logiciel Scan 4.2 cette étape se réalise via le module
ACQUIRE, destiné à l’enregistrement des paramètres d’acquisition, et à l’acquisition proprememnt dite. Elle
se concentre dans la création d’un fichier de données d’acquisition. Avant chaque enregistrement il s’agira
donc de choisir le fichier de paramètres avec lequel on souhaite réaliser l’acquisition.
Ce module, ACQUIRE, propose également une analyse en ligne des signaux, quasi identique à celle
proposée hors ligne. Nous ne nous y intéresserons pas ici car nous avons utilisé Acquire uniquement pour
ses fonctions d’acquisition, d’enregistrement et de stockage des données. Toute la phase d’analyse a été
réalisée hors ligne via le module EDIT.
Le module d’acquisition présente 7 fenêtres d’options :
FILE : permet de charger le fichier d’acquisition, de le sauver, de sortir du module.
EDIT : rassemble les options d’acquisition et permet de créer le fichier de données. Il se décline en
plusieurs items :
Overall Parameters permet d’accéder à la configuration d’acquisition. Cette option fait apparaître
une fenêtre d’options. C’est par son intermédiaire que l’on crée le fichier de paramètres. Voici les
différentes options proposées :
•
Start Up : définit le type d’affichage que l’on souhaite pendant l’acquisition. Ce peut être
en fenêtre d’acquisition simple où les tracés s’affichent pour chaque canal l’un en dessous de
l’autre, ou en fenêtre multiple où les canaux sont affichés dans une disposition donnée sur une
forme circulaire représentant le crâne. En cliquant sur un canal on peut alors voir le signal à
grande échelle. Nous choisirons pour nos enregistrements l’affichage en fenêtre simple permettant
d’observer les tracés de chacun de nos canaux d’acquisition.
L’affichage peut également être directement spectral, ou moyenné.
On peut choisir la direction de nos échelles : négative up or down.
Le logiciel propose également un filtrage en ligne pour chaque canal si on le souhaite, ainsi qu’une
option de dérivation linéaire qui permet de recombiner l’agencement des électrodes et de leurs
potentiels par combinaison linéaire.
Ainsi durant l’acquisition on peut observer par exemple à la fois les signaux initiaux par canal en
fenêtre simple, les signaux recombinés, la représentation spectrale en histogramme et en 2D, et
les options de filtrage.
44
Exemple de fenêtre :
•
Amplifiers : cette option permet de déterminer le taux de digitalisation, le nombre de
canaux, le type d’acquisition, le mode d’amplification : analogique ou digitale, d’utiliser le filtre
total : notch et de réaliser un filtrage à 50 ou 60 Hz selon les normes du pays. On y déclare les
données d’amplification de gain et de filtrage.
Le taux de digitalisation donne le nombre de points affichépar millisecondes. Le logiciel propose
une fenêtre entre 100 et 100 000. Nous utiliserons un taux de 500Hz, on aura un point toutes les
2 millisecondes. Ce taux est caractéristique pour les potentiels évoqués endogènes.
On donne ici le nombre de canaux utilisés : 64 dans notre cas, ainsi que le mode d’acquisition :
continue, époque : sur une durée limitée, ou moyennée. Nous acquerrons en mode époque sur
750 millisecondes ( dont 250 millisecondes de baseline). C’est à dire que nous ne recueillerons
que les signaux correspondant au moment du déclenchement de l’image.
On peut effectuer une DC correction automatique en le sélectionnant ici. Sinon on pourra la
réaliser manuellement.
Les données de gain et de filtre peuvent être affectées indépendamment pour chaque canal. En
effet, les électrodes de mouvement oculaires ne nécessitent pas systématiquement la même
amplification que les électrodes du scalp. Les gains varient entre 500 et 12 500 (préamplification comprise) et le filtre passe bas 30 et 100 Hz et passe haut entre 0.1 et 5 Hz. Nous
utilisons un gain de 500 préconisé pour les enregistrements de PE, et une bande passante de
filtre très large entre 0.1 et 100 Hz, afin d’optimiser les recueils. On rappelle que le filtre passe
bas laisse passer les valeurs les fréquences inférieures à la fréquence donnée et atténue les
fréquences supérieures, inversement pour le filtre passe haut.
45
Exemple de fenêtre d’amplification :
•
Channel attributes: permet de donner une variété de paramètres aux canaux, soit
individuellement soit communs. Il est possible de sélectionner le canal par son nom ou son
numéro de canal physique, c'est-à-dire le numéro qui lui est assigné dans le connecteur et pour
la répartition dans les boites têtières. Pour le canal sélectionné on voit s’afficher alors la valeur
de sa calibration et de son impédance, on peut alors choisir une série d’attributs à ce canal via
des check box. En effet on peut choisir que ce canal sera artéfacté et rejeté : Artifact Rejection.
c’est le cas notamment pour les canaux bruités par les mouvements oculaires. Les tracés du
canal peuvent être cachés à l’affichage mais enregistrés tout de même : Hide. On peut passer
certaines données connues à l’avance pour l’analyse, elles s’afficheront en noir à l’affichage et
seront enregistrées : Skip operation. C’est le cas par exemple pour des données qui initieraient
les tracés. On peut éliminer des canaux d’opération statistiques, elles ne sont en général pas
connues à l’avance et apparaissent en rouge à l’écran : Bad.
On peut donner ici le nom de l’axe des abscisses et des ordonnées et attribuer différentes
couleurs aux tracés.
L’ensemble de ces options ont pour but de faciliter le lecture à l’écran puis le traitement hors
ligne.
•
Triggers: on y détermine le type de périphérique utilisé pour le déclenchement du
stimulus. Cela permet de compter le nombre de tracé pendant l’acquisition. C’est l’option qui
permet de relier le logiciel d’acquisition au logiciel de présentation des stimuli. Dans un premier
temps il faut déterminer le type de périphérique, dans notre cas le périphérique est externe :
STIM. Il s’agit ensuite de désigner la « Hold value », la valeur assignée au stimulus pour le
déclenchement de l’acquisition et du tracé. Elle peut varier de 1 à 255 pour des périphériques
externes ( port allant jusqu’à 8 bits). Mais doit valoir 0 pour le logiciel STIM, par convention.
Cette valeur sera affichée dans la boîte d’état qui apparaît lors de l’acquisition, ce qui permet le
contrôle de ce paramètre de triggerring. Mais le trigger peut également être interne ou dépendre
d’une valeur seuil de tension pour un certain canal. C’est de ce paramètre que dépend la
synchronisation entre les logiciels. Il est donc très important.
46
•
Epoch: ce champ permet de spécifier les paramètres d’enregistrements de l’époque :
durée d’enregistrement pour chaque trigger. Ces paramètres contrôlent le nombre de tracés à
enregistrer, le temps de début et de fin d’acquisition, le nombre de points par tracés. On
détermine ici tout d’abord le nombre de tracés que l’on souhaite recueillir pendant l’acquisition,
soit, le nombre de stimuli présentés. Dans notre cas, nous avons un événement déclencheur
considéré à tort par le logiciel comme stimulus : le point de fixation. Cependant comme nous
effectuons toute notre analyse hors ligne, nous ne le trierons qu’après l’enregistrement. Il entre
donc en compte ici, et le logiciel enregistre un tracé après son déclenchement. Le nombre de
tracés attendus correspond au nombre d’événements de notre séquence. Nous en aurons donc
119 (60 stimuli images + 59 points de fixation), puisque chaque test est entrecoupé de 2 pauses
après présentation de 60 images et que nous enregistrons ces 3 tests sous des fichiers
différents, que nous regrouperons ensuite, hors ligne. ( Rappelons que nous souhaitons
présenter 3 fois 60stimuli, soit obtenir 180tracés.) Cela est en effet plus prudent et évite les
éventuels erreurs de manipulation lors de la pause, cela optimise également le triggerring. Ainsi,
une fois ce nombre déterminé, le logiciel enregistre les tracés jusqu’à ce que le nombre de
tracés soit atteint.
On y détermine également la durée de début et de fin d’enregistrement. Nous enregistrons
sur une durée totale de 750 millisecondes réparties en 250 millisecondes de ligne de base
(durée préstimulus permettant d’avoir une référence) et 500 millisecondes d’époque.
Le logiciel calcule ensuite automatiquement le nombre de points par tracé en fonction du
taux de digitalisation et de la durée de l’époque.
Il est également possible, dans le cas d’un moyennage hors ligne, de déterminer la
fréquence à laquelle on souhaite réaliser ce moyennage en indiquant le nombre de tracé que
l’on souhaite pour ce moyennage. On peut aussi réaliser la correction de la ligne de base en
ligne en indiquant sa durée. On rappelle que la ligne de base est calculée sur une période
préstimuli, elle se fait par le calcul de la moyenne des points sur la période déterminée que l’on
soustrait ensuite à chaque points. De la même manière le rejet des artéfacts peut se faire à ce
niveau en spécifiant les limites de temps et de voltage. Les paramètres d’affichage et les
coordonnées des axes se déterminent ici.
•
Fsp average: est une option de moyennage en ligne dans le cas d’un rapport signal sur
bruit très faible. Il s’agit de la méthode statistique du simple point F que nous détaillons dans
notre cinquième partie sur les méthodes de traitement proposées par Scan.
•
Frequency : le logiciel propose donc une analyse fréquentielle en ligne. Nous
détaillerons cette option dans la partie sur le traitement, puisque les paramètres d’analyse
proposés ici sont les mêmes que dans le module de traitement EDIT.
•
Sorting : est une option qui permet le tri en ligne des tracés. Il permet de créer jusqu’à
10 types de moyennages différents. Nous ne l’utiliserons pas à ce niveau.
•
Audio : option qui permet par exemple d’entendre l’amplitude du signal recueilli. Il s’agit
pour cela de sélectionner pour chaque électrode l’écouteur duquel on souhaite entendre le bruit
47
•
Mapping : détermine les paramètres des bandes de fréquence pour l’analyse en ligne,
leur nom, leur limite, leur domaine de représentation : fréquence ou temps, leur domaine de
fréquence. On peut choisir un fichier de dérivation linéaire et faire de la combinaison linéaire
d’électrodes en ligne.
•
Events : affichage à l’écran, via la frappe d’une touche, les événements se produisant
lors de l’enregistrement : mouvement du sujet, clignement….
•
Misc : regroupe divers paramètres et options, tels artefact oculaire, le chargement du
fichier .3dd du crâne numérisé, sauver les valeurs de calibration vers un fichier ASCII, caché les
canaux ou les exclure s’ils dépassent un seuil d’impédance…
Voici présentées les options et paramètres à déterminer pour la création d’un fichier d’acquisition. Il existe
d’autres options liées plus particulièrement à l’affichage, au sujet, et au contrôle du triggerring.
Channel layout:: permet de placer les canaux en représentation 2D pour l’affichage en
fenêtre multiple. On peut aussi y modifier l’ordre d’affichage en fenêtre simple, et afficher les
enregistrements sur plusieurs pages. Le logiciel propose de placer les électrodes en 2D selon le
système10-20 ou selon les coordonnées des électrodes enregistrées à l’aide du numérisateur.
Channel assignement: on détermine ici l’ordre d’affichage des canaux en fenêtre simple. On
attribut à chaque numéro d’ordre d’affichage le numéro de canal physique correspondant, c’est à
dire le numéro attribué à chaque canal dans le connecteur et au sein de boîtes têtières. On assigne
également le nom des électrodes. La correction de ce fichier s’est faite au gré de nos essais et de
notre compréhension du fonctionnement du casque, des têtières et du connecteur.
L’ordre désigné ici correspondra également à l’ordre dans lequel le module 3d Space Dx nous
indiquera la numérisation des électrodes. Il faudra donc bien le combiner de sorte à minimiser les
mouvements lors de la numérisation afin de limiter les interférences.
Subject: permet de remplir une série d’informations sur le sujet, nom, age, médecin….
Syn Amps hardware: permet de contrôler la communication entre le système d’amplification et le
logiciel SCAN. Elle permet notamment de tester le Trigger au cours de l’acquisition. Cela entraîne
l’apparition d’une fenêtre qui spécifie en binaire et en décimale, le numéro de stimulus, du dernier
stimulus, la réponse donnée, le nombre de stimuli et la Hold value. Cela permet de vérifier le
triggerring au cours des acquisitions.
Ainsi une fois toutes ces options et ces paramètres déterminés nous pouvons sauvegarder notre fichier de
données via File/ Save Set up . l’acquisition pourra ensuite être lancée après avoir choisi le fichier
correspondant.
Attardons-nous à présent sur les options proposées au cours de l’enregistrement.
48
VIEW/ TOOLBAR
Les options d’affichage sont accessibles via la barre d’écran. On peut accélérer ou décélérer
l’affichage, augmenter ou diminuer l’échelle, faire une auto-échelle, inverser la polarité des canaux, réaliser
la correction de la ligne de base en ligne. Il s’agit comme nous l’avons précédemment présenté de calculer la
valeur moyenne des points sur la période définie et de soustraire ensuite cette valeur à chaque point. Cela
permet d’approximer une référence de signal préstimulation. On peut également réaliser une correction de
Dc manuellement, cela permet de recentrer le signal vers le niveau de la ligne de base lorsque les
amplificateurs saturent.. Si cette opération est à répéter plusieurs fois, il y a sûrement un problème
d’acquisition au niveau d’un ou plusieurs canal. Ce peut être aussi un problème d’impédance.
ACQUISITION/TOOLBAR
En ce qui concerne l’acquisition proprement dite, la toute première chose à réaliser avant de lancer
l’enregistrement et même de brancher le sujet est de faire une calibration des canaux. Cela permet de
réajuster les canaux et de compenser leurs différences d’amplification et de gain. Pour cela on fixe un type
de tracé sur lequel se calibrer. La calibration peut être interne, dans ce cas on calibre sur un signal
sinusoïdal de fréquence et d’amplitude à définir qui est injecté à l’entrée du système d’amplification SynAmps. Elle peut aussi être externe, dans ce cas un signal sinusoïdal atténué est envoyé par une source
externe. Dans notre cas la calibration est interne et la forme de sinus injecté est de l’ordre de 400 uV et de
fréquence de 20 Hz. Pour commencer l’enregistrement la valeur de calibration doit être comprise entre 1.05
et 1.1 pusique celle-ci sert juste à corriger les légères déviations de signal. Si les valeurs sont plus
importantes cela signifie qu’il faut modifier le gain.
La deuxième opération à réaliser, une fois le sujet connecté cette fois, et de mesurer les impédances des
électrodes, c’est à dire leur résistance. Il s’agit de vérifier l’homogénéisation du gel à la surface du crâne. Le
logiciel permet cette étape, elle nécessite une durée d’attente due à l’application du gel dans les puits
d’électrodes, la quantité de gel déposée joue alors sur les résultats d’impédance recueillie. L’enregistrement
ne peut commencer que pour des impédances inférieures à 5 kiloOhms, sinon la résistance est trop
importante et on ne peut pas recueillir de signal.
On peut alors lancer l’enregistrement, on peut faire une pause d’affichage à l’écran sans couper
l’enregistrement, on peut également stopper l’enregistrement et le relancer en enregistrant dans le même
fichier.
OPTION D’AFFICHAGE
Il existe ensuite une série d’option d’affichage, de couleur…
49
C. Les enregistrements : Approche, Pratique et Familiarisation avec
le logiciel
Le propre de l’acquisition de nouveau matériel, d’autant plus dans des domaines évolutifs
comme l’électroencéphalographie, nécessite une longue phase de familiarisation avec le matériel et de
pratique. Il faut de nombreux essais, tâtonnements et modifications des câblages, des implantations
ou des paramètres d’acquisition pour obtenir des signaux EEG que l'on estime interprétables, c'est à
dire les moins perturbés possibles par l'environnement électromagnétique. Le résultat de l'efficacité
sera alors la non utilisation des filtres 50-60 Hz.
Effectivement il nous a fallu beaucoup de temps et de nombreux essais pour affiner les
paramétrages, déterminer la bonne configuration de câblage des boîtes têtières, et pour optimiser
l’environnement d’enregistrement et se familiariser avec le matériel. Mais cela est indispensable,
inévitable et primordial. Cela fait partie intégrante de l’acquisition de nouveau matériel. Nous avons par
exemple du ôter tous les éléments du box susceptibles de créer des interférences et de bruiter les
signaux : tous les éléments métalliques ou radiatifs qui risqueraient d’inférer et de créer un champ
électromagnétique. Nous avions installé une caméra et un interphone pour visualiser le sujet durant
l’expérience, mais ces éléments bruitaient considérablement les signaux, nous ne recueillons que du
50 Hz . Nous avons également bouché les canaux monopolaires des têtières qui étaient à l’air libre et
qui bruitaient tous les recueils.
Une des premières étapes et condition d’acquisitioon réside dans l’environnement
d’enregistrement, et dans la pose du casque. En effet un casque trop serré peut entraîner des
céphalées et une diminution de l’attention du sujet d’où un recueil moins optimal. De plus le sujet ne
doit pas souffrir. Un casque pas assez serré peut, par contre, minimiser le recueil. Les conditions sont
quasi les mêmes pour le gel. Nous les avons déjà développées en première partie. De même le sujet
doit être dans des conditions de détente optimale. C’est pourquoi il est installé sur un siège spécial
pour enregistrement EEG, avec un appui-tête, afin de limiter les contractures musculaires et le bruitage
des signaux par électromyogramme. Il faut également veiller à ce que les yeux ne soient pas gênés
par les cheveux ou par le casque pour éviter les mouvements oculaires.
De plus le casque demande grande minutie, les électrodes sont conçues avec un fil d’extrême
qualité électrique mais moins bonne mécaniquement. Les risques de dégradation, donc de bruit et de
mauvaise impédance sont assez importants ; il faut donc le manipuler avec précaution. Il faut
également respecter des règles d’hygiène très strictes car il peut exister des risques infectieux via les
électrodes. Un nettoyage et une désinfection minutieuse sont nécessaires après chaque utilisation. Le
nettoyage a son importance aussi pour l’entretien des électrodes, mal nettoyées, elles sont à
rechloridrer souvent. Elles risquent donc de s’abîmer plus rapidement et dérader le recueil.
Nous avons du modifier notre gain d’acquisition pour réaliser nos recueils. En effet nous
n’obtenions pas de bonnes valeurs de calibration, ceci était entre autres du au fait qu’il ne faut pas
oublier de réaliser la calibration avant de brancher le sujet au connecteur ; mais également au fait que
la calibration des potentiels évoqués est performée pour un gain de 500, or nous souhaitions au départ
recueillir avec un gain double .
50
Nous sommes ensuite confrontés à la configuration des différents casques et aux configurations
utilisées habituellement pour le recueil de PE. Notamment nous avons utilisé la Terre interne plut^to
que de poser comme à l’habitude une électrode sur l’épaule. Nous avons posé la référence
mastoïdienne en court-circuit du casque en position auriculaire, comme nous le souhaitions et grâce
aux prises DIN des électrodes de référence du casque. Ainsi les références sont directement liées au
casque, au connecteur, ce n’est pas la peine de les brancher sur les têtières.
Nos essais nous ont permis de mieux saisir l’organisation des connecteurs et de la boîte têtière.
Notamment le paramètre de canal physique, numéro correspondant à une électrode précise. A chaque
électrode est associé un numéro de canal physique qui le représente. On associe le label uniquement
après, celui-ci n’a aucune valeur déterminante dans l’organisation des têtières, c’est le numéro de
canal physique qui est déterminant. Par contre, chaque label est indissociable de son numéro de canal.
Nous avons pu le constater au cours de nos premiers essais où l’on observait les artéfacts de
mouvements oculaires sur les canaux occipitaux. Ceci est aberrant, les mouvements oculaires
n’artéfactent généralement que les canaux frontaux voir pariétaux. Nous en avons donc déduit que
l’attribution des canaux était mal répartie. Nous avons donc du reconsidérer notre fichier d’acquisition
et d’attribution des canaux à plusieurs reprises. Il a fallu de plus tenir compte, du fait que l’ordre
d’attribution est l’ordre de numérisation et qu’il est important de minimiser les mouvements lors de cette
étape. Nous avons donc passé du temps à optimiser cette configuration.
De plus les canaux bipolaires oculaires horizontaux et verticaux ( HEOG et VEOG) ont un statut
particulier puisque ce sont les seuls pour lesquels on souhaite que la différence de potentiel soit
calculée entre leur borne positive et leur borne négative. Il ne la calcule pas par rapport à la référence
moyenne comme pour les autres canaux qui doivent donc être monopolaires. L’attribution de leur
numéro de canal physique est donc extrêmement déterminante. Si elle est mal faite, on n’observera
pas pour les labels des électrodes oculaires la ddp des électrodes bipolaires correspondantes mais une
ddp de canaux monopolaires. Il faut donc toujours attribuer le canal physique numéro 31 à HEOG et 32
à VEOG. Seuls canaux pour laquelle la ddp est faite entre les bornes positive et négative au sein du
connecteur 1 relié à la première têtière.
En revanche, les autres canaux bipolaires sont utilisés comme monopolaires, ils sont liés à la
référence interne. Rappelons que les deux boîtes têtières sont constituées de 28 canaux monopolaires
et 4 canaux bipolaires. Seuls, les canaux HEOG et VEOG de recueil de mouvements oculaires sont
utilisés en bipolaire. Il faut donc trouver les branchements qui permettront de recueillir un signal propre
pour ces électrodes. Suite à nos essais, et aux observations, on a remarqué que les électrodes
assignée à un numéro de canal bipolaire, ne correspond qu’au pôle positif. Elles n’utilisent donc pas
leurs pôles négatifs. Il faut donc les chinter pour qu’ils ne soient pas source de bruit. L’utilisation de ces
canaux bipolaires nous a causé nombreux soucis de branchements et de connections. Nous nous
sommes attardés lors de tous nos derniers essais à résoudre ce problème. Le recueil de signaux sur
ces canaux était quasi nul, voir inexistant. L’ensemble de nos essais s’est donc attaché à l’optimisation
des branchements des boîtes têtières, à la compréhension de l’organisation des têtières, à la
recherche de la configuration permettant de recueillir des signaux propres sur tous les canaux. Il est
effectivement nécessaire de recueillir les signaux sur 64 canaux pour que les potentiels évoqués aient
une signification et que leur interprétation soit possible. Cela a aussi une grande importance pour la
réalisation des cartographies et pour les objectifs ultérieurs de localisation de source, voir de
multimodalité.
Ainsi, je quitte le laboratoire assez satisfaite car la dernière configuration tentée a enfin permis de
51
recueillir des signaux sur ces canaux bipolaires.
La passation des enregistrements se trouve en annexe, page 67. Elle présente les étapes
nécessaires à toute acquisition.
C’est par cette mise en pratique et ces manipulations du logiciel que j’ai acquis progressivement
l’ensemble du système Neuroscan et appréhendé théoriquement et techniquement la pratique
électroencéphalographique. Cependant, les enregistrements demandent une grande disponibilité et
nécessitent plusieurs heures : temps de la numérisation, de la pose du casque, de la pose du gel, de
l’obtention de bonnes impédances stables, puis du test, retrait du casque, lavage des cheveux et nettoyage
et désinfection du casque. Il n’était donc pas toujours facile de rassembler l’équipe et de trouver un sujet
test. Ainsi, une fois le test de programmation réalisé, le fichier d’acquisition crée, la corrélation théorie/
technique faite pour la compréhension du système ; je me suis donc, entre chaque essai d’acquisition pour
optimisation du système, attachée au logiciel de traitement.
,
V.
Traitement des signaux
Le logiciel Scan 4.2 possède un module de pointe de traitement des signaux : le module EDIT.
Celui-ci propose un panel d’options de traitements très complexe. J’ai passé une partie de mon stage à me
familiariser avec les outils proposés et à manipuler, pour leur compréhension, des tracés de démonstration
sauvegardés dans le logiciel. Cette familiarisation s’est bien entendue accompagnée de nombreuses
recherches théoriques en signal. Cette partie du rapport présentera donc les options proposées par le
logiciel, ainsi qu’une succincte explication des concepts abordés, synthèse de mes recherches. Suite à
mon travail, j’ai organisé ces options et ai réalisé un cahier des charges. C’est ce que je vous propose ci
dessous. J’ai en même temps évalué et organisé les options de traitement pour les signaux que l’on
souhaitait recueillir, en fonction des paramètres de protocole et des résultats souhaités. J’en agrémente
mon rapport quand je le peux.
Cette étape de mon travail m’a permis de découvrir l’ampleur et la spécification du domaine du
traitement du signal, sa puissance évolutive et sa pertinence scientifique. De plus, la connaissance des
options hors ligne proposées par le logiciel m’a permis de mieux optimiser les paramètres d’acquisition.
.
A.
Etapes de traitement :
Dans notre protocole, avant toutes choses, il s’agit de rassembler dans un même fichier les trois
fichiers correspondant aux trois étapes du test de stimulation pour un même sujet. Cela organisera les
tracés les uns à la suite des autres. La deuxième chose à faire et de trier ce fichier «sujet » en éliminant
tous les tracés correspondant au stimulus point de fixation, afin de les extraire de notre moyennage. Cela
52
se fera simplement grâce à la fonction tri « Sort » qui éliminera les tracés de type 3 (point de fixation). Les
autres modifications de fichier sont présentées en annexe 3. On peut alors passer aux étapes de traitement
pur.
1-
Correction de la ligne de base :
La toute première étape à réaliser est la correction de la ligne de base. C’est à dire l’approximation
de la valeur des points pendant une durée déterminée considérée comme base. Dans notre protocole on
corrige la ligne de base sur une période de 250 millisecondes avant le trigger ( l’instant t=0 où l’image est
envoyée). Cependant le logiciel nous propose plusieurs options à partir desquelles la calculer :
- le premier point, qui, pris comme référence serait soustrait à chaque point ensuite
- la période pré-stimuli déterminée dans le fichier d’acquisition : les points inclus dans cette
période sont moyennés le résultat est ensuite soustrait à chaque point de cette période.
- la totalité de l’époque : tous les points sont alors moyennés cele-ci est ensuite soustraite à
chaque point.
- Sur un intervalle défini au choix par l’utilisateur
Il est également possible de déterminer les canaux sur lesquelles on souhaite appliquer cette correction.
Dans notre cas nous déterminons la ligne de base donc en pré-stimulus, sur tous les canaux.
2-
Rejet des artefacts :
Une fois la ligne de base calculée, il s’agit de rejeter les canaux soumis à des artefacts qui viennent
parasiter les signaux. Ces artefacts peuvent déjà avoir été désignés dans le fichier d’acquisition, où, on l’a
vu il est possible d’attribuer à chaque canal une spécificité : artefact, caché, mauvais tracé….Cette option
rejette alors directement (on line) les canaux définis comme artéfactés dans le fichier d’acquisition. Mais il
est possible de rejeter ces artéfacts hors ligne via l’option ARTIFACT REJECTION. On peut alors définir la
période sur laquelle on souhaite réaliser les rejets (époque entière ou définie par le sujet), les critères de
rejet, le range d’amplitude en dehors duquel les tracés vont être rejetés, les canaux sur lesquelles ces
paramètres vont s’appliquer.
De plus si des canaux ont été désignés comme artéfactés dans le fichier d’acquisition, on peut les
désélectionner, et les accepter.
3-
La réduction de l’artéfact de mouvement oculaire
Une des sources d’artéfact la plus proéminente et fréquente lors d’enregistrements EEG est
l’artéfact lié au mouvement des yeux. Il est recueilli par les électrodes oculaires verticales et horizontales.
Ils sont la source de nombreuses contaminations surtout au niveau frontal et temporal. Une ancienne
méthode consistait à rejeter l’essai contaminé par ces artéfacts. Le système Neuroscan, à présent, permet
de corriger ces artéfacts par une série de méthodes computationelles et analogique. En général ces
fonctions soustraient une fraction de l’électro-oculogramme à l’EEG. Cette méthode emploie une analyse
régressive en combinaison avec la moyenne de l’artéfact. On peut également utiliser les méthodes de filtre
spatial. Elle doit s’effectuer avant le moyennage et requiert trois étapes :
53
-
recherche de l’amplitude maximale sur le canal artefacté (VEOG ou HEOG). Un
pourcentage à déterminer dans la fenêtre marquera la valeur de début
l’artéfact. Il est en général donné à 10%.
-
de
Construction d’une moyenne des valeurs d’artéfact supérieur au seuil donné par
le pourcentage. A partir de cette moyenne des coefficients de transmission sont
calculés par estimation de la covariance des potentiels moyennés des canaux
oculaires.
-
La valeur EOG est alors soustraite des canaux EEG tracé par tracé et point par
point. Ainsi on a :
EEG corrigé = EEG original – coeff de transmission * EOG
L’option nous permet de spécifier le nombre minimum de tracés et leur durée minimale pour le moyennage,
ainsi que le canal requis pour le calcul (VEOG ou HEOG). La détermination de ces paramètres nécessite
grande expérience et de multiples manipulations car diverses variables entrent en jeu. En effet par exemple
les longs intervalles diminuent les coefficients de transmission et augmentent donc la variabilité. Ils donnent
donc une moyenne moins précise. Pour les mêmes raisons, cette option démarque automatiquement les
artéfacts purement oculaires d’autres causes d’augmentation d’amplitude. Cette opération entraîne la
création d’un fichier de dérivation linéaire (LDR) qui peut être utilisé pour la réduction des artéfacts pour le
même sujet.
Cette opération de réduction des artéfacts demande beaucoup de pratique et de maîtrise, la
définition du nombre de tracés requis et de leur durée, nécessitent nombreux essais, réductibles avec
l’expérience.
4-
Moyennage des tracés
Ces trois premières opérations réalisées le moyennage des tracés électroencéphalographiques
peut alors être effectué. Il s’agit comme nous l’avons évoqué dans la partie théorique d’une étape
primordiale
pour
l’analyse
des
potentiels
évoqués.
Elle
permet
l’élimination
de
l’activité
électroencéphalographique de base et la révélation de l’activité évoquée par la stimulation. La première
option à déterminer pour le moyennage est le type de domaine dans lequel on souhaite le réaliser : en
domaine temps ou fréquence.
Il est également possible de moyenner par essai et/ou par type de stimuli et/ ou par réponse, et / ou par
latence de réponse et /ou par réponse correcte ou incorrecte.
Cette option permet également de calculer la déviation standard (écart-type) et/ou le rapport signal sur bruit
(SNR) – pour les fichiers en domaine temps uniquement - et pour chaque électrode. Ce rapport permet de
déterminer si le nombre de tracés retenu est optimal pour le moyennage. Il est d’ailleurs possible de
sauvegarder les données de SNR et de les afficher pour chaque électrode, ou de les enregistrer dans un
fichier ASCII.
Pour notre protocole, il s’agirait de moyenner par type de d’images de stimulation (neutre ou
sensoriel), afin d’étudier l’activité cérébrale à la stimulation émotionnelle ; puis éventuellement par type de
plaisir et par type de réponse. Cela permet différents niveaux d’analyse, d’abord global et général, puis de
plus en plus affinés.
54
5-
Filtrage des signaux : (FILTER)
Le filtrage est une étape très importante dans le traitement du signal. Elle peut se réaliser avec
notre logiciel Neuroscan sur des fichiers électroencéphalographes ou sur des fichiers moyennés.
Il existe plusieurs types de filtrage : Passe haut passe-bas, bande passante et bande stop, des filtres en
phase zéro ou en mode filtre de simulation analogique.
Cette option permet donc de définir le type de filtrage :
-
Passe bas : laisse passer toutes les fréquences inférieures à la fréquence
donnée, et atténue les fréquence supérieures, plus rapides.
-
Passe haut réalise un filtrage inverse
Bande passante : passe les fréquences entre les bornes basses et hautes et
-
atténue les fréquences hors ces bornes.
Bande stop : réalise un filtrage inverse
Ces filtrages peuvent se réaliser dans deux modes différents :
Phase zéro ou simulation analogique :le mode en phase zéro fait deux passages à
travers le filtre, un dans chaque sens alors que le mode de simulation analogue ne fait qu’un passage à
travers le filtre.
Ces options peuvent évidemment être définies pour des canaux précis à déterminer via l’option Channels.
6-
Dérivation linéaire (linear Detrend)
Après le moyennage, les données peuvent apparaître déviées ou artéfactées. Il est possible
d’adapter une tendance linéaire, de calculer une ligne de meilleur type aux courbes existantes, et de la
soustraire aux courbes.
B. Autres Méthodes de moyennages
1-
FSP average ( pour SNR faible)
Il est possible de moyenner les signaux EEG via la méthode de « single point F. » décrite par
Ederling et Don en 1984. Cette méthode s’applique surtout dans les cas où le rapport signal sur bruit (SNR)
est faible. En effet lors du recueil de très nombreux tracés pour activité évoquée, le SNR peut varier
considérablement entre les sessions d’enregistrements et le moyennage peut alors être de qualité très
différente. Ce problème peut être résolu par la méthode statistique du FSP. Le FSP est un rapport de deux
variances :
55
FSP =
la variance estimée du signal entre deux points
L’estimation de la variance du bruit à un simple point
On compare ensuite la valeur du SNR à la FSP pour chaque tracé. Si SNR est supérieure au FSP
on ne prend pas le tracé, il est exclu du moyennage. Cette méthode permet donc de réaliser des
moyennages de même qualité de SNR, construit avec un nombre de tracés différents.
La fenêtre de cette option permet de déterminer une valeur seuil de FSP au delà de laquelle
l’analyse est arrêtée, de la même manière on peut définir une valeur de bruit en deçà de laquelle l’analyse
s’arrête. On peut également déterminer la fenêtre de temps dans laquelle réaliser le moyennage ainsi que
les critères de tri. Le fichier moyenné sera enregistré en extension .avg.
2Bande de puissance/ Cohérence des événements liés (Event related band
power/coherence)
Neuroscan propose d’autres manières de réaliser le moyennage en fonction du type de protocole.
En effet, la traduction la plus classique d'un événement répété sur l'électroencéphalogramme (EEG) est le
potentiel évoqué dont la mise en évidence repose sur le moyennage de l'EEG. Cependant il existe
également des activités appelées « induites » qui répondent à une activité motrice L'étude de cette
réactivité est possible par la méthode des Désynchronisations et Synchronisations Liées à l'événement
(DLE/SLE) proposée par Pfurtscheller et Aranibar en 1977. Cette méthode consiste à mesurer l'évolution
temporelle de la puissance du signal EEG dans une bande de fréquence donnée, avant, pendant, et après
un événement. Ces phénomènes de DLE/SLE varient en fonction du type de mouvement, et permettent
d'explorer les modifications de l'excitabilité corticale rencontrées au cours de la maladie de Parkinson et de
l'épilepsie avec crises motrices.
Neuroscan nous offre donc 3 choix d’activité : induite, évoquée ou liés à l’événement synchronisé
ou non. Pour réaliser les moyennages il utilise la méthode de démodulation complexe qui permet donc à la
fois un filtrage de la bande de fréquence et le calcul du signal d’enveloppe. On peut donc définir une
largeur de bande passante filtrante dont on doit définir le centre, la largeur et le rolloff (qui permet de
contrôler la raideur de l’atténuation ainsi que son aspect plat hors de la bande). On peut aussi choisir de
déterminer l’enveloppe du signal et réduire les artéfacts de chaleur prédominant en début ou en fin
d’époque.
Cette option a un intérêt surtout pour le cas ou souhaite recueillir des événements induits ou liés à
l’événement désynchronise ou synchronisé. Elle n’a pas d’intérêt pour notre protocole puisqu’il se situe en
activité évoquée.
C.
Localisation de sources
On l’a vu dans notre préambule théorique, l’intérêt majeur de l’électroencéphalographie réside dans
l’analyse cartographique spatiale et dans la localisation de sources. Les filtres spatiaux sont utilisés pour
réaliser de la localisation de sources. Le filtrage spatial consiste à laisser passer une activité électrique
provenant d’une région particulière et de couper les autres signaux originaires d’autres endroits.
56
A priori, l’EEG ne permet pas de faire de l’imagerie, mais recueille simplement des signaux
électriques. Des chercheurs ont trouvé des algorithmes qui permettent une localisation spatiale des
événements. Pour cela, ils sont partis de résultats obtenus par imagerie à rayon X, qui déterminent les
zones du cerveau qui fonctionnent en réponse à des stimuli précis (battements de cils, test auditifs…) et
ont fait la même chose avec l’EEG. Ils en ont extrait des rapprochements et des algorithmes spécifiques
ont pu être trouvé. Ainsi, en isolant un événement et en observant avec quelle intensité celui-ci a touché les
différentes électrodes placées autour du crâne, on peut alors le localiser.
Le principal problème est alors le filtrage spatial. Celui-ci consiste à laisser passer une activité
électrique provenant d’une région particulière, et de couper les autres signaux originaires d’autres endroits.
Je n’ai pas jugé utile d’entrer dans les détails de la description de ce filtrage, qui est assez complexe.
1-
SCD / Interpolate
En cartographie de réponses évoquées, l'ordinateur représente sur chaque carte la topographie de
l'amplitude de la réponse électrique du cerveau à une latence donnée. On peut ainsi observer l'évolution du
champ de potentiel sur le scalp à partir de plusieurs cartes topographiques successives. La représentation
cartographique de potentiels évoqués nécessite l'utilisation d'un nombre élevé d'électrodes (16 à 32), avec
un montage unipolaire. Une des méthodes de représentation les plus utilisées consiste, à partir des valeurs
numériques des paramètres mesurés pour chaque localisation d'électrode, à calculer les valeurs interélectrodes par des techniques d'interpolation bi et tridimensionnelle, puis à affecter à chacune des valeurs
calculées une nuance de couleur. Cette interpolation est effectuée par des méthodes linéaires,
barycentriques ou par des fonctions splines. Cette option permet de calculer la densité de courant radial du
scalp (Scalp Current Density).On le rappelle, les distributions de potentiels électriques créés sur le scalp
par la présence de générateurs de courant intracérébraux sont très étalés. Cet étalement est provoqué par
la présence de milieux de conductivité différents interposés entre le cerveau et les électrodes. Une
localisation des générateurs des PE peut être obtenue en faisant appel à des modèles mathématiques qui
estiment la position des générateurs des courants électriques intracérébraux ainsi que leur orientation.
Pour faciliter la localisation visuelle des générateurs intracérébraux, une autre grandeur électrique sur le
scalp a été estimée : la densité radiale de courant (SCD scalp current density). En effet, la cartographie de
réponses évoquées rend possible l'estimation, à partir de la répartition des potentiels sur le scalp, d'une
autre grandeur physique: la densité radiale de courant sur le scalp. Calculée en appliquant l'opérateur
laplacien à deux dimensions du potentiel, cette densité radiale de courant permet de représenter en
chaque point du scalp les zones où les lignes de courant ont tendance soit à sortir du cerveau (sources)
pour circuler dans le scalp, soit à retourner au cerveau (puits). Cette méthode permet d'analyser avec plus
de précision l'activité des groupes de neurones situés essentiellement dans l'écorce cérébrale.
Pour calculer cette valeur il est nécessaire de travailler avec une fonction d’interpolation continue.
Le logiciel Scan propose d’utiliser la méthode d’optimisation empirique qui utilise deux paramètres :
l’excentricité qui détermine la localisation d’un point sous chaque électrode, et d’un exposant qui détermine
la fonction puissance de la distance carrée de chaque point. Cette procédure minimise les erreurs
d’interpolation.
57
2-
Filtre spatial (Spatial Filter)
Cette option très complexe proposée par Neuroscan, permet de créer un sous espace de l’espace
de l’ensemble des mesures et permet donc de conserver les signaux non artéfactés. Pour estimer les
signaux à conserver, le programme se réfère à un signal contrôle issu d’un échantillon d’EEG de référence.
Cette transformation spatiale peut être utilisée à différentes fins. Notamment pour la correction de l’Artefact
oculaire et permet d’atténuer ces effets dans les champs frontaux. Il peut également implémenter la
méthode de projection de l’espace du signal, utiliser pour extraire les sources neuronales.
Pour réaliser ces réductions, le filtre utilise différents fichiers de dérivation linéaire qui sont à déterminer sur
la fenêtre. Il peut utiliser un fichier qui spécifie les signaux à ôter, ou ceux à conserver, ou encore celui
contenant l’activité de référence pour le signal contrôle.
3-
Filtre spatial à décomposition des valeurs singulières (SVD)
Pour l'estimation du nombre de sources le système Neuroscan propose un filtrage par la
Décomposition en Valeurs Singulières des matrices spectrales décalées. C’est une méthode très complexe
d’algèbre multilinéaire qui permet estimation et localisation de sources. Mais c’est une méthode
approximative car le modèle mathématique utilisé requiert des composantes SVD orthogonales, alors que
les projections biophysiques des sources du cerveau ne sont pas forcément orthogonales. La
décomposition par valeurs singulières est donc une décomposition linéaire qui produit des sources
statistiques. Il n’y a donc pas toujours de correspondance 1 à 1 entre le modèle mathématique et les
sources biophysiques.
D.
Cartographie
Un intérêt grandissant de l’analyse de signaux d’électroencéphalographie est la cartographie. Cela
permet de visualiser et de comparer avec beaucoup plus de clarté les activités de surface des régions. Ces
cartes peuvent être créées en utilisant 2 types d’algorithme d’interpolation : une méthode globale ou locale.
La méthode globale utilise l’ensemble des électrodes pour calculer les valeurs à certains points donnés,
alors que la méthode locale n’utilise que 1 à 4 points les plus proches des électrodes. Le système
Neuroscan utilise la méthode globale par défaut. Celle-ci permet des cartes plus lisses mais cela peut
prendre du temps car cela est proportionnel au nombre d’électrodes. La méthode locale est donc plus rapide
mais moins précise et lisse.
Les cartographies 2 D proposées nécessitent l’utilisation de fichiers Map Gen correspondant en
terme de labels, le nombre d ‘électrode peut être inférieur mais il est primordial que leurs labels soient
identiques car le système se base sur eux pour réaliser les cartes.
Neuroscan propose d’abord une option qui permet sélectionner les moments à cartographier :
1-
GFP / Reference
58
La Global Field Power (GFP) champ de puissance globale est une mesure définie comme une
déviation standard à travers plusieurs canaux en fonction du temps dans un intervalle précis.
C’est une mesure qui quantifie l’activité instantanée globale du scalp. Le résultat de cette analyse
est une courbe qui représente les changements temporels dans le GFP. Les pics et les creux de la courbe
GFP (représentant respectivement les maximum et minimum d’activité) sont utilisés pour sélectionner les
moments les plus représentatifs pour la cartographie.
Ce calcul peut se faire au choix sur tous les canaux ou uniquement sur ceux sélectionnés, en
incluant ou non la référence, en affichant un nouveau tracé avec les résultats GFP , le calcul de la Z-score.
2-
2D Mapping
Cette cartographie affiche des points individuels sur une carte en deux dimensions. En
agrandissant un tracé - moyenné ou non - et en évoluant le long de l’époque on observe l’évolution des
couleurs et donc des amplitudes des potentiels au niveau de chaque zone du crâne.
Cette option permet de modifier l’échelle des min et des max, le type d’échelle de représentation :
en gris, en rouge et bleu ou dans plusieurs couleurs, de charger un fichier Map Gen 2D plus adapté, dont la
position de s électrodes correspond exactement, d’afficher les électrodes et leur valeur de potentiel,
d’utiliser plutôt une méthode d’interpolation locale, de placer directement sur la courbe une carte. Il est
également possible cartographier en trois dimensions à partir du 2D, pour des fichiers déjà moyennés. Le
logiciel utilise alors un crâne numérisé standard et place les électrodes du fichier d’acquisition selon, le
système10-20. Il est possible de modifier et de charger un crâne et la position des électrodes numérisées
et sauvegardés dans 3D Space Dx. ( nous utiliserons un crâne standard présent dans le fichier de
démonstration sur lequel nous aurons numérisé nos positions d’électrodes.
3-
2D cartooning
Cette option permet de créer une série de cartes dans le temps selon un point de départ et de fin,
et un intervalle de moyennage qui sont à définir dans les paramètres. (On peut aussi déterminer sur
combien de lignes et de colonnes on souhaite que notre série s’affiche, et faire varier l’échelle.) De la
même manière que précédemment on peut envoyer les résultats vers 3D Space pour un affichage en
3dimension. Il est nécessaire alors de travailler sur un crâne dont les labels et la position des électrodes
correspondent au fichier d’acquisition.
Il est ensuite possible de modifier les sens d’orientation des cartes, de charger un autre fichier 2D
de Map Gen, de sauver la série d’images ou de la copier vers le un fichier permettant de renvoyer les
cartes vers des application Windows…
4-
Spectrum Mapping
Permet de générer une série de cartes de spectre de puissance correspondant aux bandes de
fréquence prédéfinies. Puisque la transformation doit calculer une FFT le nombre de point des courbes
doit être multiple de 2. comme pour 2D cartooning, il est possible de retourner les vues de la carte, de
modifier les couleurs de fond, l’échelle, la carte 2D.. ;on peut également modifier les valeurs des bandes
de fréquence et leur nom en déterminant les limites en fréquence et en amplitude.
59
5-
3D space
Cette option de cartographie directe en trois dimension est utilisable uniquement si l’on a numérisé
un crâne et la position des électrodes dans 3D Space DX et que l’on a un fichier .3dd ou .tri. Le fichier TRI
: fichier triangularisé et lissé, doit correspondre exactement au fichier d’acquisition en terme de nombre
d’électrodes, de labels. Mais dans ce cas, il est nécessaire de numériser la position des électrodes sur un
crâne existant.
E.
Analyses statistiques
Avant moyennage :
1-
Coherence / Event related coherence (eeg)
L’analyse de la cohérence permet d’examiner les relations entre des enregistrements EEG à différents
sites. En effet, l’eeg enregistré au niveau d’une électrode peut dépendre du signal enregistré à un autre
site. Ainsi, la cohérence mesure l’interdépendance des fréquences. C’est une mesure dépendant de la
fréquence qui détermine le degré de relation linéaire entre 2 canaux. Une forte cohérence implique les
amplitudes à une fréquence donnée sont corrélées à travers les échantillons d’EEG et de plus qu’ils tend à
y avoir une angle de phase constant entre 2 signaux.
En effet la cohérence est une mesure du comportement d’un ensemble d’ondes qui ont la même fréquence
et qui se propagent uniformément en phase. C’est un indice de synchronisation toujours compris entre 0 et
1.
Le calcul est le même que le pearson’s r sauf que cohérence est calculée en complexe .La
cohérence est un nombre compris entre 0 et 1. Pour effectuer ce calcul le nombre de points de nos
courbes doit être multiple de2 pour que le calcul de la FFT soit possible, sinon il faut modifier ce nombre
via la SPLINE FIT. Il est également possible de trier les canaux ou les tracés que l’on souhaite corréler. Le
calcul de corrélation se fait à partir d’une électrode de référence qui est la première du Channel assigment,
on peut la modifier via une option « Set coherence reference ».
2moyenné : avg)
Corrélation de Pearson et calcul de son coefficient r ( fichier eeg ou
Cette mesure est une mesure de corrélation entre des paires d’électrodes dans un range de
latence donné. C’est une mesure sensible à la forme des courbes mais insensible aux différences absolue
d’amplitude, à ’inverse de l’Intra class corrélation comme nous le verrons plus tard. Il se différencie du
calcul de cohérence qui se fait en complexe, car c’est un calcul dans l’espace des réels. Le calcul se fait
ente deux fichiers contenant le même nombre de d’électrodes, les mêmes labels, et les même temps de
début et fin d’époque. Il s’agit donc de définir le fichier de référence en ainsi que la période sur laquelle o,n
souhaite calculer la corrélation, on peut aussi choisir les canaux sur lesquels son souhaite réaliser la
corrélation. Le résultat est affiché sur une carte 2D et les coefficients apparaissent à côté.
60
Après moyennage:
3-
Corrélation croisée / intra corrélation croisée (après moyennage)
L e coefficient de corrélation statistique est crée par le calcul de la corrélation entre des électrodes
au sein d’une série. Ce calcul se fait entre 2 fichiers de même nombre d’électrode, de même labels et de
même époque. Comme pour le calcul de cohérence et du coefficient de corrélation de Pearson, on peut
déterminer l’intervalle sur lequel on souhaite réaliser cette corrélation.
L’intra corrélation croisée est une mesure de variabilité entre 2 courbes de deux fichiers différents.
Les valeurs de ce calcul varient entre 0 (pour les fichiers différents) et 1 pour des fichiers identiques. Avec
les données PE, cette mesure est sensible à la fois à la forme des tracés et aux valeurs absolues des
tensions. Par exemple un indice ICR de 0.5 signifie que le fichier de travail compte environ 50% de
variabilité par rapport au tracé comparatif. ICR peut être calculé pour tous les sites d’électrodes à travers
un intervalle de temps précis. Ces coefficients sont affichés, comme pour le coefficient de Pearson sur une
carte 2D, à côté de laquelle chaque valeur statistique est affichée par électrode.
On remarquera que même si les résultats de l’intra class corrélation sont aussi sensibles à la
différence d’amplitude, les valeurs sont plus faibles qu’avec le coefficient statistique de Pearson.
4-
Calcul du t-score apparié (avg)
Cette mesure statistique est utile pour la comparaison de 2 groupes, ou pour comparer les mesures
test-retest d’un même groupe. On peut souvent utiliser un test de Student apparié pour augmenter la
probabilité afin d’obtenir une différence significative. Dans notre cas l’intérêt d’une telle mesure résiderait
dans la comparaison entre les stimulations sensorielles et /ou neutres. Pour cela il s’agit de faire la
différence par individu entre les tracés obtenus pour chacun des types de stimulus. Faire ensuite une
moyenne des différences. Réaliser un test t apparié c’est à dire :
Difference des scores
( différence de score de variance / racine de (n-1)
On remarquera que le test t peut également être utilisé pour vérifier qu’une courbe est significativement
différente de 0.
5-
t-score (avg)
Cette option calcule la valeur t du test de Student pour chaque électrode à travers le temps pour
chaque tracé et à travers la fréquence pour les données spectrales. Ce test ne peut s’appliquer qu’à des
fichiers identiques qui doivent avoir le même nombre de d’électrodes, les mêmes labels et les mêmes
époques. Il faut donc sélectionner le fichier de comparaison dans la fenêtre de l’option t-test. Les résultats
sont affichés électrodes par électrodes et point par point, les ordonnées correspondront aux valeurs de t et
les abscisse s au temps. Il est également possible de cartographier les résultats t-score sur un cartes 2D
sur une durée souhaitée.
61
6-
z-score (avg)
Est une mesure de la significativité des résultats. Par exemple cela peut être utile pour comparer une
Potentiel évoqué d’un individu à un groupe de distribution normale.
Ainsi voici présentée les principales méthodes de traitement du signal proposées par le logiciel
Neursoscan. Elles sont très vastes et couvrent une grande part de type de protocoles de recueil de signal
nécessitant un traitement.
62
CONCLUSION
Cette incursion dans ce laboratoire de recherche en psychopathologie UMR 7593 m’a permis, la
découverte et la familiarisation, avec la pratique encéphalographique et le domaine du traitement du signal.
Tout son intérêt réside dans l’approche très personnelle que j’ai pu en faire, et par la liberté de travail qui
m’a été donnée. Ainsi, par la combinaison et la confrontation perpétuelles des aspects théorique et
technique, j’ai pu faire progressivement l’acquisition du système complexe d’électroencéphalographie
Neuroscan. Ces deux aspects, nécessaires à mon évolution, ont permis mon travail et mon apprentissage.
J’ai eu la chance de pouvoir, dans la mesure des impératifs d’équipe, mener mon travail à mon gré. Cela
m’a permis d’explorer à mon rythme le logiciel, et d’approfondir mes bases théoriques quand cela était
nécessaire à ma compréhension du système, du logiciel ou des options.
Je me suis donc d’abord conjointement
familiarisée avec la théorie encéphalographique et
l’architecture du système, son organisation, les fonctions, caractéristiques et spécificités de chacun des
composants. Cela m’a permis une appréciation globale et générale d’un tel système. Je me suis ensuite
penchée plus spécifiquement sur le logiciel de stimulation, j’ai alors découvert les notions de « triggerring »
et de synchronie ; ainsi que le domaine du traitement des images, des fonctions graphiques des logiciels et
des ordinateurs. J’ai pu, à cette occasion, me familiariser avec des logiciels tels Photoshop pour opérer
mes modifications et ; optimiser notre logiciel de présentation des images pour réaliser un test répondant
aux exigences protocolaires de la recherche menée. De la même manière j’ai progressivement, par la
pratique et la théorie, acquis , configuré et optimisé le système de recueil c’est à dire, le casque, les boîtes
têtières, les amplificateurs-numérisateurs et le logiciel d’acquisition. La répétition des séances d’essais
d’enregistrements a permis une utilisation optimale du système :
−
des casques par la limitation des branchements et de la pose d’électrodes supplémentaires,
−
des boîtes têtières par l’optimisation des connexions jusqu’au recueil de signaux propres sur les 64
voies,
−
du module d’acquisition Acquire du logiciel Scan 4.2,
−
du numérisateur crânien Fastrak,
− du module de cartographie 3D Space Dx.
Par ces essais j’ai donc également acquis la pratique électroencéphalographique. Celle-ci m’a été facilité
par toute mon approche théorique sur l’électroencéphalographie, et technique d’un système spécifique et
de ces composants.
Une autre part de mon travail a consisté en la découverte et la réalisation d’un cahier des charges
des étapes de traitement des signaux. Bien que je n’aie pu la pratiquer sur des signaux liés à notre
protocole, j’ai pu m’immiscer dans le vaste domaine du traitement du signal en me confrontant au module
de traitement de SCAN 4.2 : EDIT. J’ai pu estimer le degré de spécificité du traitement et la précision des
opérations à réaliser, l’importance de leur organisation. J’ai également évalué la puissance et la
performance de ce module adaptable et adapté à de nombreux protocoles expérimentaux de recherche
innovantes.
Ainsi l’acquisition et la configuration d’un tel système réalisées, la création de cahiers des charges
d’acquisition et de traitement ; il reste à présent à faire passer les expériences aux sujets. A recueillir,
63
traiter, analyser et interpréter les signaux. Sans oublier que l’on traite toujours dans un contexte spécifique
à corréler avec le protocole expérimental.
Ceci permettra donc de mieux saisir et d’analyser
progressivement l’organisation des processus de traitement de l’information sensorielle et des
perturbations.
Par cette insertion de six mois dans un laboratoire de recherche, j’ai donc pu réaliser de la place et
de la fonction d’un ingénieur. En effet, par ma responsabilité face à l’acquisition du nouveau matériel et à
son adaptation et optimisation dans le contexte spécifique de la recherche menée, j’ai pris conscience de
toute la fonction technique et scientifique d’un ingénieur. J’ai saisi très clairement la désignation
d’ingénierie biomédicale car j’ai manipulé durant six mois des connaissances et des concepts :
−
biologiques et physiologiques primordiaux à la compréhension et la mise en place d’une
technique d’exploration fonctionnelle
−
physico-chimiques, propres à l’instrumentation, au système de recueil, aux capteurs
−
électriques et informatiques pour l’acquisition des logiciels, de leur hiérarchie, de leur
organisation, de leur connexions ; pour la compréhension des composants, pour la sécurité du
matériel, l’acquisition et la mise en forme des signaux ; ainsi que pour le traitement des images
− mathématiques et statistiques pour le traitement des signaux.
Il est donc nécessaire de maîtriser des connaissances nombreuses, et d’avoir des compétences multiples
et pluridisciplinaires pour parvenir à une autonomie et une pertinence dans le travail scientifique. De plus,
dans le cadre particulier de la psychopathologie et des sciences cognitives, j’ai pu également faire
référence à mes acquis en sciences cognitives qui m’ont apporté un degré d’autonomie supplémentaire.
L’intérêt, la motivation et la pertinence de ce stage résident dans l’impressionnante convergence et
corrélation des domaines et des disciplines.
L’intérêt supplémentaire de mon travail siège dans l’aspect «conception » de tel système. J’ai été très
impressionnée par l’harmonie existant entre la conception de système d’exploration fonctionnelle et les
recherches menées les plus inédites mondialement. De même il est très impressionnant et extrêmement
motivant de constater que le domaine du traitement du signal évolue conjointement aux recherches
menées et qu’il est en constante évolution. Par cette expérience professionnelle j’appréhende alors
clairement les concepts d’Innovation, de Conception et d’Evolution propre à la qualité d’un ingénieur. Cette
confrontation avec les disciplines et avec le milieu professionnel, hospitalier et médical, me permettra donc
d’aiguiser mes choix à venir. Elle a également fortement renforcé ma motivation pour l’exploration
fonctionnelle, l’analyse des signaux et la recherche et le développement.
64
ANNEXES
ANNEXE 1 : Exemple d’ondes P300 recueillies lors de tests
précédents (texte II),A-, 3, p15)
65
ANNEXE 2 : Modèle de dipôle de courant (ref text, II) B-3-, p 16)
66
ANNEXE 3 : Système 10-20 utilisé pour nos acquisitions
67
ANNEXE 4 : Passation acquisition électroencéphaolographique avec le
système Neuroscan
1- Allumer les amplificateurs jusqu’à l’apparition de SN1/ SN2
2- Allumer SCAN PC
3- Allumer STIM système
4- Allumer le périphérique du moniteur
5- Allumer STIM PC
6- Numérisation crânienne
Placer le sujet dans un siège confortable.
Bien droit.
Sans appui tête
Positionner le transmetteur à moins de 30cm de la tête du sujet.
L’axe des X doit être dans le plan médian de la face du sujet.
Positionner les trois récepteurs sur la tête pour que cela forme un triangle.
Un sur chaque tempe / Un sur l’inion
Lancer 3D Space Dx
Dans Edit/ Options/ Electrode Set Up :sélectionner les Set up file contenant les
informations sur la position et les labels des électrodes à l’aide du browser.
Allumer Fastrak.
Lancer l’enregistrement : Digitize/ Record
Digitaliser les points auriculaires et le nasion en vérifiant que le bouton stylus
est sélectionné dans la colonne Markers.
Digitaliser le crâne . Dans la colonne Head Shape sélectionner stylus et le mode
continu.
Presser le bouton du stylus avant le contact avec le crâne.
Le relâcher avant de l’enlever du crâne.
Ne pas déplacer le stylus trop rapidement.
Sauvegarder cette numérisation : File/Save as… format TRI
7- Pose du casque
Se laver les mains
Nettoyer le pourtour des yeux et les lobes des oreilles avec de l’alcool
Déposer le gel abrasif sur les lobes si on utilise une référence auriculaire
Pose du casque et de la mentonnière.
Pose des électrodes oculaires VEOH/ VEOL/ HEOR/HEOL
68
8- Numérisation des électrodes
Digitize /Record sélectionner stylus dans la colonne Electrodes
Numériser les électrodes dans l’ordre indiqué dans cette colonne
Sauvegarder File/ Save As …dans le même document TRI que pour le crâne.
9- Pose du gel
Mettre le gel à chauffer
L’introduire à l’aide d’une seringue dans les puits des électrodes.
Installer le sujet sur le fauteuil eeg
Régler l’appui-tête pour que le sujet repose sa tête au mieux (baisse des
contractures et donc des artéfacts)
Faire la calibration via Acquire / Cal ou via Acquisition/ Calibration.
Calibration Interne Atténuation *1/ Sweeps 10/ 400uV / 20 Hz
Les valeurs doivent être comprises entre 1.05 et 1.1 sinon vérifier les
branchements ou le gain ou le taux de digitalisation.
Connecter le sujet
Placer les boites têtières assez près du sujet
10- Lancer Acquire
11- Sélectionner un Set up file : File/ Load Set UP, vérifier que les paramètres d’acquisition
sont toujours les mêmes
12- Remplir la fiche Sujet dans Edit/ Subject
13- Tester l’Impédance via l’icône Z ou Acquisition/ Impédance
Régler le Range
Attendre qu’elles atteignent environ 5 kOhms
14- Sélectionner le test de stimulation
Gentask/ Draw
Demo/ PCX/ Test ou labo/Images/test
15- Entrer les coordonnées du sujet dans Info
17-Sauver le fichier de données qui contiendra les réponses du sujet.
18- Donner les consignes au sujet
19- Lancer l’acquisition puis l’enregistrement via les icônes
20- Lancer le test sur STIM : Run
21- Au cours de l’acquisition possibilité de :
69
Corriger la base line,
Corriger le DC offset
Vérifier la synchronisation de STIM et SCAN via Acquire/ Edit/ Synamps
Hardware/ Trigger port
22- Stopper l’enregistrement
23- Sauver l’enregistrement en format .eeg
24- Déconnecter le sujet
25- Eteindre le système en ordre inverse d’allumage
70
ANNEXE 5 : Modifications des fichiers d’acquisition avant et/ ou après
traitement dans le module EDIT de SCAN 4.2
Selon la manière dont on a réalisé les enregistrements, il peut être nécessaire de réaliser quelques
modifications au sein des fichiers, préalablement au traitement. Ceci peut alors faciliter les étapes
suivantes. En effet, il peut être nécessaire de trier les tracés, d’en extraire, de réorganiser les fichiers, de
modifier les durées d’acquisition ou le type de fichier…C’est ce que je récapitule ici dessous.
Avant :
Ajouter deux fichiers ensemble (ADD)
Ajouter un fichier eeg à la suite d’un autre dans un même et nouveau fichier (APPEND
SWEEPS)
Réduction de la durée d’époque pour les fichiers EEG ou moyennés (CUT EPOCH)
Rejeter les tracés des canaux paramétrés comme mauvais dans le fichier d’acquisition et
créer un nouveau fichier EEG (DELETE REJECTED SWEEPS)
Extraire des canaux en créant un nouveau fichier contenant uniquement les canaux que
l’on sélectionnera ( EXTRACT CHANNELS)
Créer un nouveau fichier avec uniquement les tracés triés par essais, type de stimulation,
de réponses, latence. (SORT SWEEPS)
Transformer un fichier en donnée de temps en spectre de fréquence et inversement via la
transformation FORWARD FAST FOURIER Transformation (pour laquelle le nombre de
point doit être un multiple de 2, sinon utiliser la fonction SPLINE FIT) et L’INVERSE FFT.
En général une fonction f n’est pas périodique .Il faut donc la définir et l’exprimer au
moyen d ‘un ensemble infini non dénombrable de de fonctions périodiques élémentaires.
Cette représentation est appelée transformée de Fourier. La transformée de Fourier est
une technique mathématique qui permet de décomposer une fonction du temps en un
spectre de fréquences, à la manière d'un prisme qui décompose la lumière en un spectre
de couleurs. Ainsi, par la transformée de Fourier on obtient des spectres de puissance qui
permettent de décrire en même temps la fréquence et l’amplitude du signal. Il existe deux
manières de calculer le spectre de de puissance, soit via la transformée de Fourier
directement en la rendant réelle ou en élevant au carré le spectre d’amplitude.
Après :
Ajouter des canaux d’un fichier moyenné à un autre fichier moyenné ne comportant pas
les mêmes canaux mais le même nombre de points par tracé, les mêmes limites d’époque
(APPEND CHANNELS)
Modification du nombre de canaux par combinaison linéaire via la création d’une matrice
de coefficients de contribution ( fichier ASCII de dérivation linéaire) qui crée de nouveaux
canaux en dérivant les anciens. Cela permet de regrouper les canaux et de créer et
71
regrouper les canaux par zone. La création de fichier de dérivation linéaire grâce à l’éditeur
de montage permet également de re-référencer les électrodes ou de créer un montage
bipolaire. De même lors de la réduction d’un artéfact oculaire génère également la création
de fichier de dérivation linéaire. (LINEAR DERIVATION)
Il est possible d’inverser les valeurs négatives en valeurs positives (RECTIFY)
Lissage des courbes moyennées, en déterminant les coefficients de lissage, nombre de
points adjacents moyennés . (SMOOTH DATA)
Spectre de courbes moyennées (SPECTRUM), type de spectre moins significatif que le
spectre sur des tracés simples non moyennés. En effet, le moyennage en domaine de
temps réduit la puissance de l’eeg. De plus, le spectre de tracé moyen consiste en la
somme de la puissance des ERP’s et du bruit, d’où la diminution de significativité. Il peut se
calculer en en amplitude ou en phase, comme pour tout calcul de spectre.
Calcul de la différence des tracés de deux fichiers ayant le même nombre d’électrodes, les
même labels, le même nombre de points, les mêmes valeurs de début et de fin d’époque et
affichage de leur différence. ( SUBSTRACT)
Modification du nombre de points par tracé à l’aide de la fonction, est utilisé surtotu qund
on veut réaliser une FFT, car le nombre de points doit être une puissance de 2. (SPLINE
FIT)
Réaliser des moyennes de fichier par groupe à partir de tracé simple et inversement (
GROUP / INDIVIDUAL Average)
Détection et marquage d’un pic d’amplitude et/ou de latence dans un range spécifique sur
des fichiers moyennés ou non. ( PEAK DETECTION)
72
ANNEXE 6 : Cahier des charges traitement des signaux recueillis lors
du test de stimulation programmé
Modification des fichiers :
1- Ajouter les 3 fichiers d’un même sujet, correspondant aux 3 tests de 60 images de stimulation :
APPEND SWEEPS
2- Trier les tracés en ôtant les tracés correspondant au trigger point de fixation : trier en conservant
les stimuli de types 1 (images neutres) et 2 ( images sensorielles), :SORT SWEEPS
3- Rejeter les canaux déterminés comme artéfactés pour l’acquisition (mauvaise impédance,
mauvaise calibration, ….) :DELETE REJECT SWEEPS
Traitements :
4- Correction de la ligne de base sur 250 millisecondes prestilmulus : BASELINE CORRECTION
5- Rejet des artéfacts : ARTEFACT REJECTION
6- Rejet de l’artefact oculaire : OCULAR ARTIFACT REDUCTION Moyennage des tracés en fonctions
de divers critères. Il est possible de ne pas trier le fichier avant le opérations de traitements et de
réaliser le tri par type de stimulation au moment du moyennage : AVERAGE ou dans le cas de
signaux avec très faible SNR via FSP AVERAGE
7- Filtrage des signaux :FILTER
Cartographie 2D et 3D :
8- GFP : mesure de la l’activité globale instantanée
9- 2D Mapping
10- 2D Cartooning
11- Spectrum mapping
12- 3D Mapping
Affinage et options :
13- Lissage des tracés : SMOOTH DATA
14- Modification du nombre de points : SPLINE DATA
15- Détection de pics particuliers :PEAK DETECTION
Analyse statistique :
16- Cohérence / Pearson’s r
17- Cross corrélation ou intra cross corrélation (pour les fichiers moyennés)
18- Test de Student pour échantillons appariés
19- Test de Student et t-score
20- Z-score
73
ANNEXE 7 : Box d’enregistrement, sujet prêt pour l’acquisition
Boîtes têtières
Connecteurs
Quick-Cap 64
Response Pad : boîtier de réponse
74
électrodes oculaires
ANNEXE 8 : Box d’enregistrement, vue de derrière durant le test
(écran à 1.5 mètres)
75
ANNEXE 9 : Tracé EEG yeux fermés enregistré en continu sur
10
76
Subject: Unspecified
EEG file: Closed.cnt
Rate - 500 Hz, HPF - 1 Hz, LPF - 30 Hz, Notch - off
Neurosoft, Inc.
SCAN 4.2
Printed : 12:07:54 11-Jul-2003
FP1*PZ*FP2*OZF3FTC1F4FTC2C3TCP1C4TCP2P3-
77
CP1P4CP2O1PO1O2PO2F7F8T3T4T5T6-
+256 µV
CZFZ-
1.1 s
VEOG-
00:00:02
00:00:04
00:00:06
00:00:08
00:00:10
ANNEXE 10 : Fenêtre multiple de signaux eeg recueillis les yeux
fermés en mode époque ( même graphe obtenu pour chaque stimulus)
Subject:
EEG file:
Unspecified
Rate - 500 Hz, HPF - 1 Hz,
closed.eeg
LPF - 30 Hz, Notch - off
Neurosof
SCA
t, Inc.
Printed
N 4.2 :
12:05:07 11-Jul-
VE
FP
FP
F
F
F
F
F
FT
FT
C
C
C
T
T
P
P
C
C
P
T
T
TC
TC
P
O
P
O
78
O
ANNEXES 11 : Tracé cru EEG recueilli via l’électrode CPZ (centropariétale)pour un stimulus donné
-
N100
-18.633µV,
CPZ-
0.12S
0.20S
T=0
20.391µV, 0.25S
23.730µV, 0.61S
P300
+
-0.20
0.05
I.
0.30
0.55
S
79
0.80
ANNEXE12 :
CPZ
tracé
moyenné
de
-
N100
- 4.661µV, 0.11S
CPZ-
0.20S
T=0
6.545µV, 0.37S
P300
+
-0.20
0.05
0.30
0.55
S
80
0.80
l’électrode
ANNEXE 13 : Réduction de l’artéfact oculaire pour un tracé de CPZ
-
N100
-18.281µV, 0.12S
CPZ
0.20S
-
20.830µV, 0.25S
23.555µV, 0.61S
P300
LPP
+
0.20
0.05
0.30
0.55
81S
0.80
ANNEXE 14 : Exemple de calcul de cohérence
Subject:
EEG
file:
Unspecified
Rate - 500 Hz, HPF - 1 Hz, LPF
tuto3.3.coh
- 30 Hz, Notch - off
Neurosof
SCAN
t, Inc.
Printed : 12:02:26
4.2
11-Jul-2003
VE
F
F
F
F
F
F
F
FT
FT
C
C
C
T
T
P
P
C
C
P
T
T
TC
TC
P
O
P
O
82
O
83
Téléchargement