magazine scientifique - Université Paul Sabatier

publicité
février 2012
PAUL
SABATIER
magazine scientifique
DOSSIER
La planétologie
Délégation
Midi-Pyrénées
Avec la
participation de
www.ups-tlse.fr
Délégation régionale
Midi-Pyrénées, Limousin
N°24
février 2012
PAUL
SABATIER
magazine scientifique
Dossier
N°24
DOSSIER
La planétologie
La planétologie
p.
Délégation
Midi-Pyrénées
4
Délégation régionale
Midi-Pyrénées, Limousin
Avec la
participation de
www.ups-tlse.fr
Paul Sabatier
N° 24 • Février 2012
Illustration
de couverture :
Représentation du Rover
Curiosity (mission MSL)
en action sur Mars, avec
un tir laser de ChemCam
en premier plan.
(©NASA/JPL-Caltech).
Directeur
de la publication :
Gilles Fourtanier
Rédacteur en chef :
Daniel Guedalia
Comité de rédaction :
Jean-François Arnal
Patrick Calvas
Daniel Guedalia
Guy Lavigne
Fréderic Mompiou
Aude Olivier
Martine Poux
Carine Desaulty
Nathalie Boudet
Valeria Medina
(délégation Midi-Pyrénées
du CNRS)
Christine Ferran
(délégation régionale
Midi-Pyrénées de l’Iserm)
Conseillère de rédaction :
Anne Debroise
Diffusion :
Joëlle Dulon
Vie des laboratoires
p.
12
Coordination
du dossier Planétologie
Michael Toplis
Conception graphique
et impression :
Ogham-Delort
05 62 71 35 35 n° 1347
dépôt légal :
Février 2012
ISSN : 1779-5478
Tirage : 2 000 ex.
Université Paul Sabatier
118, route de Narbonne
31 062 Toulouse cedex 9
Infos en
a
Vos encouragements,
vos critiques, vos suggestions,
une seule adresse :
revue-paulsabatier@
adm.ups-tlse.fr
Vous pouvez consulter et télécharger ce
magazine et les numéros antérieurs
sur le site www.ups-tlse.fr
(rubrique « diffusion des savoirs/
le magazine scientifique »)
Innovation
p.
22
Édito
Peau neuve…
L
e magazine scientifique Paul Sabatier fait peau neuve… Après huit ans
d’existence sous sa jaquette initiale qui datait de juin 2004, il méritait en
effet un « lifting ». La couverture a été retravaillée pour la rendre plus attractive.
Pour les pages intérieures un format à trois colonnes a été adopté. Ce nouveau
format permet d’améliorer la place réservée aux graphiques et aux photos, répondant
ainsi à de nombreuses demandes de lecteurs, tout en gardant le même volume de texte.
Vous noterez l’apparition d’une image sur la quatrième de couverture offrant un autre
regard sur la recherche dans nos laboratoires. Tous ces changements s’appuient sur de
nouveaux codes de couleurs pour mieux identifier les différentes rubriques.
Sur le fond, les modifications sont aussi importantes. Depuis sa première parution,
chaque numéro du magazine comportait deux dossiers scientifiques. Ce sont 46 dossiers
qui ont été ainsi publiés depuis 2004, balayant les différentes disciplines scientifiques.
Désormais, chaque numéro ne contiendra qu’un seul dossier. Chaque dossier pourra
être préparé avec plus de temps et d’autre part, les actualités scientifiques, de plus en
plus nombreuses, auront une plus grande place. On notera aussi une modification de
la fréquence de parution du magazine, qui passe de 3 à 4 par an.
Nous espérons que ces changements rendront ce magazine encore plus accessible,
plus proche de l’actualité scientifique, sans rien perdre de sa rigueur et de son sérieux.
Que le comité de rédaction à l’origine de cette nouvelle maquette soit ici remercié
pour son implication. Rappelons également que ce magazine existe et se développe
grâce au soutien de la présidence de l’Université Paul Sabatier et des délégations
régionales du CNRS et de l’Inserm, associées à cette aventure.
Le dossier présenté dans ce numéro concerne la planétologie. Un dossier sur ce sujet
avait été publié dans le premier numéro de juin 2004. Au cours des dix dernières
années, l’exploration du système solaire a connu un essor sans précédent. Des
sondes et des rovers travaillant in situ de plus en plus perfectionnés sont envoyés
vers Mars, Vénus et Saturne, sans oublier notre propre Lune. Cette période intense
et riche en données scientifiques, a permis de réaliser d’immenses progrès quant
à notre perception de la planétologie, allant d’une vision nouvelle de l’histoire de
l’eau à la surface de Mars, à la découverte de paysages étrangement familiers
sur Titan, lune glacée de Saturne dont la surface est façonnée par des pluies de
méthane.
Les chercheurs toulousains ont eu une contribution significative à ces avancées.
Je vous souhaite, au nom du comité de rédaction, une très bonne année 2012 et
une agréable lecture, en espérant que vous serez encore plus nombreux à être
séduits par le nouveau format du magazine.
Daniel Guédalia
Rédacteur en chef du magazine
© S. Chastanet
Dossier
La planétologie
La planétologie : la quête
des origines
Photo prise par la sonde Galileo de la surface de
Europa, lune de Jupiter. Sous la surface glacée se
trouve un océan d’eau liquide.
© Galileo propject, JPL, NASA, retravaillée par Ted
Stryk
Les sondes envoyées à la rencontre des planètes du système
solaire bouleversent notre vision de l’histoire de la Terre et de
l’origine de la vie.
D
epuis l’antiquité, philosophes et scientifiques ont scruté le ciel, directement ou
indirectement, animés par la question
de notre place dans l’univers. L’invention de la
lunette astronomique et la découverte des lunes
de Jupiter par Galilée en 1610 annonçaient une
ère nouvelle, où la combinaison d’observations
et d’études théoriques permettait de repousser
les limites de nos connaissances. Cependant,
malgré des télescopes de plus en plus puissants,
les planètes et leurs satellites sont longtemps
restés des objets mystérieux et lointains.
Cette situation a brusquement évolué dans la
seconde moitié du XXe siècle, avec le développement de sondes capables de voyager à travers
l’espace interplanétaire, pour scruter de près nos
voisins célestes. Le début des années soixante a
vu les premiers survols de Vénus et depuis cette
date une centaine de missions spatiales ont été
envoyées vers les principaux corps du système
solaire, de Mercure à Neptune.
4
PAUL SABATIER f é v r i e r 2 0 1 2
Un essor sans précédent
Au cours des dix dernières années, l’exploration
du système solaire a connu un essor sans précédent, avec des orbiteurs et atterrisseurs de plus
en plus perfectionnés envoyés vers Mars, Vénus
et Saturne, sans oublier notre propre Lune.
Cette période, intense et riche en données
scientifiques, a permis de réaliser d’immenses
progrès dans notre perception de l’origine et de
l’évolution du système solaire et des objets qui
le constituent. Depuis une vision nouvelle de
l’histoire de l’eau à la surface de Mars, jusqu’à la
découverte de paysages étrangement familiers
sur Titan, lune glacée de Saturne dont la surface
est façonnée par des pluies de méthane.
Des équipes techniques et scientifiques de
l’Observatoire Midi-Pyrénées ont participé activement à un très grand nombre de ces aventures
à dimension internationale en se trouvant en
première ligne, que ce soit dans la conception,
Michael Toplis, directeur de recherche
CNRS et Pierre-Louis Blelly, directeur de
recherche CNRS, à l’Institut de recherche en
astrophysique et planétologie (IRAP, unité
mixte UPS/CNRS)
u Contacts
[email protected]
& [email protected]
La planétologie
dans la construction d’instruments embarqués,
ou bien dans l’exploitation scientifique des données acquises par les instruments. Ces nombreux
succès ont été le fruit de collaborations efficaces,
non seulement entre équipes techniques et
scientifiques, mais également entre chercheurs
de disciplines différentes.
En effet, la planétologie est une science pluridisciplinaire par excellence depuis ses débuts, quand
astronomes, mathématiciens et physiciens perçaient les mystères des mouvements des astres
dans le ciel. Ce caractère pluridisciplinaire s’est
renforcé avec l’ère spatiale et la nécessité de
développer une ingénierie de pointe capable de
répondre aux contraintes de la mesure toujours
plus précise dans les environnements extrêmes.
Par ailleurs, les questionnements scientifiques
posés par cette exploration planétaire ont suscité un dialogue croissant entre planétologues,
géophysiciens et géologues.
Pluridisciplinarité
Peut-être plus qu’ailleurs, la planétologie à Toulouse s’inscrit totalement dans cette démarche,
caractérisée à la fois par des liens étroits entre
science et instrumentation, et par la constitution
d’équipes scientifiques transdisciplinaires, héritage de la création visionnaire, en 1995, du pôle
de planétologie à l’Observatoire Midi-Pyrénées.
Le rapprochement de spécialistes de différents
laboratoires a été une initiative déterminante
dans la création du groupe Géophysique planétaire et plasmas spatiaux (GPPS) au sein du
nouvel Institut de recherche en astrophysique et
planétologie (IRAP), créé en janvier 2011.
Le groupe GPPS est riche d’une centaine de chercheurs, ingénieurs, doctorants et post-docs et
il bénéficie de liens forts avec le CNES. Comme
ce dossier l’illustre bien, les membres du groupe
s’intéressent à l’ensemble des enveloppes planétaires, des plus internes (noyau/manteau),
aux plus externes (magnétosphère/ionosphère),
cherchant à comprendre les processus physiques
et chimiques à l’œuvre.
La constitution du groupe GPPS ouvre la voie
à une vision intégrée des corps planétaires, qui
permettra de reconstruire leur histoire géologique, mettant ainsi en avant la grande variété
des spécificités de chaque objet, et contribuant
dès lors à une meilleure compréhension de l’histoire du système solaire dans son ensemble.
Les formations associées :
Les recherches en planétologie couvrent un large panel de compétences allant de la conception
et la réalisation de l’instrumentation spatiale, au déploiement et l’entretien de réseaux de
sismomètres, en passant par la réalisation d’expériences de laboratoire et le développement de
modèles et de simulations numériques dans les domaines aussi divers que la thermodynamique,
les interactions rayonnement-matière, la physique des plasmas et la dynamique des fluides
d’intérêt géophysique en général. Sur Toulouse, un grand nombre de formations permettent
d’accéder à ces compétences, en particulier les Masters de recherche en Sciences de la Terre et en
astrophysique (M2R STPS et M2R ASEP), le Master Pro Techniques spatiales et instrumentation,
ainsi que la formation assurée par le département « mesures physiques » de l’IUT.
Huygens autour de Saturne ; Cluster qui
étudie l’interaction du vent solaire avec la
magnétosphère terrestre, ou les missions américaines et européennes vers Mars (Mars Odyssey,
Mars Exploration Rovers, Mars Express), devrait
faire place à un avenir tout aussi prometteur.
En effet, de nombreux projets d’envergure sont
engagés pour les années à venir, dans lesquels
notre contribution instrumentale est importante : la mission Mars Science Laboratory de la
NASA lancée en décembre 2011, la mission MAVEN qui va partir vers Mars en 2013, la mission
BepiColombo de l’agence spatiale européenne
(ESA) qui va partir vers Mercure en 2017 ou la
mission Solar Orbiter de l’ESA prévue pour un
lancement vers le soleil en 2017.
Le groupe participe également à la préparation
d’autres missions ambitieuses, en particulier
vers les lunes de Jupiter (mission JUICE de l’ESA)
et l’envoi du premier sismomètre vers Mars (mission InSight de la NASA).
Difficile de prévoir de quoi sera fait l’avenir,
car; aujourd’hui encore, la découverte de nombreuses planètes autour d’autres étoiles et
l’éternelle question de l’origine de la vie font
que la planétologie se diversifie, tissant des liens
nouveaux avec d’autres disciplines, de l’astrophysique à la biologie. Le brassage d’idées et de
cultures scientifiques est plus que jamais nécessaire pour explorer le contexte de notre planète
et la vie qui y est apparue. ■
Les principaux corps du
système solaire : les planètes,
la Lune, les astéroïdes et les
comètes.
© NASA
Missions
Cette décennie, riche d’une récolte exceptionnelle de résultats pour les équipes toulousaines, par exemple la mission Cassini/
f é v r i e r 2 0 1 2 PAUL SABATIER
5
Dossier
La planétologie
Intérieurs planétaires
L’écoute du bruit sismique a dévoilé la structure interne de notre planète.
Une méthode que l’on commence à appliquer aux autres planètes…
planètes où l’absence de tectonique risque de
priver les sismologues de séisme.
Des grains de fer de taille
différente
Vue d’artiste de l’atterrisseur du projet de
mission NASA « InSight » (responsables à
l’IRAP : R.F. Garcia et B. Dubois,
© JPL/NASA)
L
’échographie est bien connue dans le
domaine médical. Les sismologues
utilisent la même technique pour imager les
entrailles de la Terre. En effet, les tremblements
de Terre sont la source d’ondes élastiques qui
se propagent partout à l’intérieur de la planète,
se réfléchissent sur les interfaces et voyagent à
des vitesses qui dépendent de la température
et des propriétés physiques du milieu traversé.
En écoutant un grand nombre de séismes en
différents points du globe on parvient à identifier
les structures internes de la Terre.
Résolution spectaculaire
Les recherches en sismologie connaissent actuellement un développement rapide avec en
particulier l’utilisation de réseaux sismologiques
denses. Ces outils permettent d’utiliser le bruit
de fond micro-sismique pour réaliser des images
d’une résolution spectaculaire. Par exemple,
l’expérience PYROPE (PYRenean Observational
Portable Experiment) déploie depuis la fin de
2010 un réseau dense de stations sur le sudouest de la France. Ce projet franco-espagnol
regroupant plus de 25 chercheurs (géologues
et géophysiciens) de sept instituts différents
vise l’étude multidisciplinaire d’une chaîne de
montagne complète, les Pyrénées, une première
mondiale. Le développement de ces techniques
devient un atout essentiel pour ausculter les
6
PAUL SABATIER f é v r i e r 2 0 1 2
Ces techniques permettent de sonder des
zones beaucoup plus profondes de la Terre. Par
exemple, le noyau de fer, enfoui sous 2 880 km
de manteau rocheux. La partie externe de ce
noyau est liquide, mais la partie interne, qu’on
appelle la graine est cristallisée. Cette graine de
1 220 km de rayon passait pour un des objets les
plus tranquilles de la Terre, mais la sensibilité des
réseaux sismiques et l’analyse des signaux ont
révélé une structure asymétrique, avec un côté
(situé sous l’Indonésie) dans lequel les ondes sismiques se propagent plus rapidement que dans
le côté opposé (situé sous le Pérou). Des calculs
montrent que cette variation peut s’expliquer
par des tailles de grains de fer différentes entre
les deux hémisphères, mais restait à expliquer
pourquoi. En 2010, les chercheurs de l’IRAP
ont montré que sous certaines conditions, la
graine peut être gravitationnellement instable,
donnant lieu à un mouvement de translation
continu. Ce déplacement implique la cristallisation sur une face et la fusion sur la face opposée,
l’asymétrie de taille des grains de fer étant simplement dû au fait que ces derniers grossissent
au cours de leur transit à travers la graine.
La graine, une véritable fonderie à plus de
5 000 km sous nos pieds !
Regarder à l’intérieur des autres
planètes
Les autres planètes ont-elles aussi une graine ?
Ont-elles même un noyau et de quelle taille ?
Parfois, l’analyse fine des orbites des sondes spatiales permet d’obtenir quelques informations,
mais cette source de données a ses limites. Pour
la Lune, l’existence d’un noyau est une question
qui vient tout juste d’être résolue, grâce à une
étude récente conduite par les sismologues de
l’IRAP en collaboration avec l’IPGP de Paris. Ces
travaux ont permis de détecter, dans les données sismologiques des missions Apollo vieilles
de 40 ans, des ondes réfléchies sur le noyau
de la Lune et de quantifier le rayon du noyau
de 380 km. Cet éclairage sur la structure interne
de la Lune permet de mieux cerner les conditions
de l’impact géant qui a formé le système TerreLune et la composition de notre planète et de son
satellite. Dans le cas de Mars, les données orbitales indiquent que la Planète Rouge possède un
noyau, mais on ne connaît ni sa densité ni sa
taille avec précision. Pour répondre à ces questions les équipes scientifiques et techniques de
l’IRAP et de l’OMP sont impliquées dans le projet
de mission NASA « InSight » visant à déployer
un capteur sismologique à la surface de Mars.
Ce capteur permettra d’avoir une première
estimation de la sismicité et de la structure
interne de Mars. Et pourquoi pas, de visualiser
pour la première fois son noyau… ■
Schéma représentant le modèle de croissance de
la graine. La graine est dans un régime dynamique
instable et une hétérogénéité de température entre
les 2 hémisphères induit un décalage du centre
de masse. La cristallisation à la surface du côté
dense et froid et la fusion de l’autre côté tendent
à amplifier l’hétérogénéité de densité initiale. Il en
résulte un mouvement de translation permanent de
la graine avec des grains jeunes et petits d’un côté
et des grains vieux et gros de l’autre.
Raphaël F. Garcia, maître de conférences
et Marie Calvet, physicienne-adjointe à
l’Institut d’astrophysique et de planétologie
(IRAP, unité mixte UPS/CNRS)
u Contacts
[email protected]
& [email protected]
La planétologie
Les volcans de Mars sont-ils toujours actifs ?
Grâce à l’exploration spatiale, l’étude de la morphologie, de la minéralogie et de la composition des
roches martiennes permet de reconstruire l’histoire géologique de la Planète Rouge.
S
ur des corps planétaires de la taille de la
Terre, Mars ou la Lune, des grands mouvements internes donnent lieu à la fusion des
roches en profondeur. Ces liquides magmatiques
peuvent à leur tour atteindre la surface, formant
des coulées de laves et des volcans.
À l’Observatoire Midi Pyrénées, où géologues,
géophysiciens, géochimistes et planétologues
impliqués dans les missions spatiales se rencontrent, les dix dernières années ont vu une
véritable révolution, tant par la quantité que par
la qualité des données disponibles. La planète
Mars a été au coeur de ces activités, à travers de
nombreuses participations à des missions européennes et américaines.
Les données d’imagerie HRSC (High-ResolutionStereo-Camera) à bord la sonde Mars Express de
l’ESA ont largement bouleversé notre vision de
l’histoire volcanique martienne. Parmi les découvertes, des chercheurs toulousains ont contribué
à la mise en évidence d’une grande province volcanique (Central Elysium Planitia, analogue à la
« Snake River Plain » aux Etats-Unis) où le volcanisme a été très actif sur les derniers 200 millions
d’années, voire beaucoup plus récemment par
endroits. À l’échelle de l’histoire du système so-
laire de tels âges sont extrêmement récents, ce
qui laisse ouverte la possibilité que le volcanisme
martien ne soit pas totalement éteint
Points chauds
Les données orbitales offrent aussi la possibilité
de mettre en évidence la présence de certains
minéraux qui cristallisent dans les laves, grâce à
l’imagerie hyperspectrale (ou spectro-imagerie)
dans le domaine visible et proche infrarouge.
Cependant, la détection de l’ensemble des minéraux est un problème complexe et un défi pour
la communauté internationale, car la signature
spectroscopique de certains minéraux peut
masquer celle d’autres tout aussi importants.
En mettant au point une méthode d’inversion
numérique validée en laboratoire, la présence régionale du minéral olivine dans les laves situées
dans la partie centrale d’un large édifice volcanique ancien, dénommé Syrtis Major, a pu ainsi
être établie à partir des données de l’instrument
OMEGA à bord de Mars Express. La présence
d’olivine est caractéristique de liquides basaltiques issus d’un large degré de fusion partielle
du manteau, et évoque sur Terre des contextes
de points chauds tels que l’Islande ou Hawaii.
Les globes martiens illustrent la position de 12 grandes provinces volcaniques, 6 d’entre elles sont jeunes
(en rouge), et 6 autres ont un âge supérieur à 3.6 milliards d’années. C’est à partir des ces provinces et de
concentrations en fer, silice et thorium des roches volcaniques que le refroidissement de l’intérieur de la
planète rouge au cours du temps a pu être mis en évidence.
David Baratoux, maître de conférences
UPS et Patrick Pinet, directeur de recherche
CNRS, chercheurs à l’Institut d’astrophysique
et de planétologie (IRAP, unité mixte UPS/
CNRS)
Mars se refroidit moins vite
Concernant la chimie de ces mêmes roches
volcaniques, plusieurs chercheurs toulousains
sont impliqués dans l’analyse des données du
Gamma Ray Spectrometer à bord de la sonde
Mars Odyssey de la NASA, avec l’objectif de
produire et d’analyser des cartes de l’abondance
de plusieurs éléments chimiques sur une grande
partie de la surface de Mars. Parmi ces éléments,
le fer, la silice et le thorium sont particulièrement
sensibles aux conditions de formation des magmas. À partir des ces trois éléments, et pour 12
provinces volcaniques d’âges différents, il a été
possible de retracer l’évolution de la température du manteau martien sur 3 milliards d’années. Il apparaît alors que Mars se refroidit bien
moins vite que la Terre, une différence notable
probablement liée à la tectonique des plaques
sur Terre. Ce travail offre un cadre solide pour
comprendre les évolutions minéralogiques révélées par la spectro-imagerie orbitale ainsi que
la persistance d’une activité volcanique jusqu’à
nos jours évoquée ci-dessus. ■
u Contacts
[email protected] &
[email protected]
f é v r i e r 2 0 1 2 PAUL SABATIER
7
Dossier
La planétologie
De l’eau sur
d’autres planètes ?
L’observation de la minéralogie des
surfaces planétaires, associée à des
expérimentations de laboratoire et
à la modélisation thermocinétique, peut
apporter de précieux renseignements sur
la présence d’eau à des époques lointaines.
Ces travaux sont possibles dans le cas
de Mars mais plus difficile dans le cas de
Venus, deux planètes proches ayant connu
des atmosphères plus ou moins agressives.
Représentation du Rover Curiosity (mission MSL) en action sur Mars, avec un tir laser de
ChemCam en premier plan. ©NASA/JPL-Caltech
D
ans le cas de Mars, les indices de la présence d’eau sont nombreux. La spectroscopie et imagerie orbitale ont permis de
définir trois grands ensembles géomorphologiques qui semblent, sur la base de leur minéralogie, associés à des conditions de surface bien
distinctes. Sur les terrains de l’époque la plus
ancienne (le Noachien) il existait effectivement
un environnement humide de type terrestre. Puis
les fluides de surface se sont enrichis en soufre
(l’époque Hesperienne). Depuis à peu près
3 milliards d’années, les sols se sont asséchés,
refroidis et oxydés (l’époque Amazonienne). Les
progrès de l’exploration au sol, avec des rovers
de plus en plus mobiles et de mieux en mieux
équipés, ont permis d’obtenir des informations
bien plus précises sur la composition chimique
et minéralogique des sites d’atterrissage. Grâce
aux données obtenues sur les roches très riches
en sulfate, analysées à Meridiani Planum par le
rover Opportunity de la NASA, les chercheurs
de l’Observatoire Midi-Pyrénées ont abordé la
question de l’altération Hesperienne sous un
angle de géochimie plus globale. Sur la base
de modélisations numériques des interactions
fluide-roche, il a été démontré que la formation
de ces roches a nécessité une très forte acidité,
mais très peu d’eau et des temps d’altération
extrêmement courts à l’échelle géologique.
Eau en abondance
L’attention de la communauté scientifique
se focalise maintenant sur les périodes plus
anciennes de Mars, quand l’eau se trouvait en
abondance. Ces conditions clémentes ont pu
permettre l’émergence d’organismes vivants,
une hypothèse qui a guidé le choix du site d’étude
et l’équipement du robot Curiosity de la NASA
(dont l’arrivée sur Mars est prévue en août 2012)
sur lequel est embarqué, parmi d’autres instruments, la sonde laser ChemCam développée à
l’IRAP et le CNES à Toulouse en partenariat avec
le LANL aux USA. Les microanalyses chimiques
par spectroscopie laser réalisées par ChemCam
à des distances allant jusqu’à 7 m du rover vont
permettre l’étude de la minéralogie à la surface
de Mars à l’échelle infra millimétrique. En raison de la courte durée de l’analyse (quelques
secondes) et sa capacité à mesurer loin du rover
ChemCam sera également un éclaireur pour
les autres instruments équipant Curiosity. Les
minéraux argileux seront des cibles privilégiées
d’étude, car ils sont sans doute propices à un
début de colonisation de la vie, notamment en
préservant des conditions favorables avant que
l’arrivée de soufre ait généré des acides bien plus
forts qu’H2CO3.
Volcanisme intense
Le cas de Venus s’avère plus difficile à étudier.
L’atmosphère dense riche en gaz carbonique, les
nuages d’altitude et les conditions thermiques
au sol (470 °C) rendent son observation depuis
l’espace très difficile, tout autant que son exploration au sol où la durée de vie des instruments
n’excède pas 3 heures. On sait néanmoins que sa
surface est modelée par un volcanisme intense
et qu’il existe une chimie du soufre atmosphérique complexe. Les rares observations faites au
sol par les missions russes Venera suggèrent des
Olivier Gasnault, chargé de recherche
CNRS et Gilles Berger, directeur de
recherche CNRS, à l’Institut de recherche en
astrophysique et planétologie de Toulouse
(IRAP, unité mixte UPS/CNRS)
u Contacts
[email protected] &
[email protected]
phénomènes d’altération. La question de l’existence de minéraux hydratés en surface renvoie
au contrôle du cycle de l’eau mais l’atmosphère
sèche de Vénus soulève des questions chimiques
élémentaires. Ces questions sont abordées à
l’IRAP à l’aide d’une chambre expérimentale reproduisant les conditions de la surface de Vénus.
Cette enceinte permet aujourd’hui de reproduire
l’interaction basalte-atmosphère, et à terme
de permettre l’analyse in situ des roches altérées par spectrométrie laser LIBS et Raman,
instruments proposés par l’IRAP à l’embarquement dans une possible future mission
spatiale NASA (SAGE). ■
Infos en
8
PAUL SABATIER f é v r i e r 2 0 1 2
www.msl-chemcam.fr
a
La planétologie
Environnements ionisés des
planètes telluriques
Le vent solaire qui balaie les planètes telluriques leur dérobe de la
matière : gaz, poussières, ou même l’eau qu’elles ont pu abriter…
U
n vent froid, dense, qui se déplace à environ 1,5 millions de km/h : le vent solaire,
un plasma constitué de particules chargées émis depuis la couronne solaire, balaie les
planètes telluriques avec violence. Mais toutes
ne réagissent pas de la même manière. À la
différence de la Terre, les planètes sans champ
magnétique intrinsèque comme Mars et Vénus
sont soumises à son influence directe. Mars et
Vénus possèdent une atmosphère et leur interaction avec le vent solaire produit une queue
magnétosphérique induite, étendue, comme
celle observées à l’arrière des comètes. Les
atmosphères de Mars et Vénus sont ainsi soumises à une érosion intense au contact du vent
solaire. Les modèles prédisent un effet cumulé
très important à l’échelle du milliard d’années,
potentiellement capable de dissiper une atmosphère primitive dense, nécessaire au maintient
de l’eau sous forme liquide. Le cas de Mercure
est différent puisque cette planète possède un
champ magnétique intrinsèque mais n’a pas
d’atmosphère notable. Son interaction avec le
plasma environnant provoque une érosion des
matériaux de sa surface, au contact du milieu
solaire pour produire l’exosphère de la planète.
Echappements des matériels
planétaires
L’IRAP a construit, en coopération avec l’institut
spatial de Kiruna en Suède, les spectromètres de
masse qui, placés à bord des premières missions
planétaires européennes Mars Express (MEX)
Flux des ions hydrogène solaires au voisinage
de Vénus. La zone d’exclusion correspond à la
magnétosphère de la planète induite par le drapé
du champ magnétique interplanétaire autour de
l’ionosphère conductrice.
et Venus Express (VEX), permettent actuellement de quantifier les échappements de matériels planétaires. Contrairement aux prédictions,
les mesures de MEX montrent que si les échappements de l’atmosphère martienne sont importants (1,2 1 024 ions/s, en minimum d’activité
solaire), ils ne peuvent probablement pas expliquer la disparition des océans primitifs de Mars.
En effet, même en tenant compte de l’évolution
du soleil et des flux UV et particulaires reçus par
Mars depuis plusieurs milliards d’années, l’effet
cumulé du soleil, calculé à partir des données
de Mars Express et de l’observation de « soleils
jeunes », ne peut être à l’origine que de la disparition de quelques centimètres d’eau de la surface
de la planète. D’autres phénomènes doivent
être invoqués (échappements à très basse énergie par exemple, événement cataclysmique…).
À moins que l’eau ne soit enfouie dans des réservoirs qui restent à découvrir… En ce qui concerne
Vénus, la mission Venus Express a permis la première estimation de l’érosion de l’atmosphère
en période de minimum d’activité solaire. Le
flux des ions d’énergie comprise entre 10 eV et
25 000 eV qui s’échappent a été mesuré pour
l’hydrogène et pour l’oxygène. Ces taux sont
dans un rapport voisin de 2, ce qui indique que
la surface de la planète ne s’oxyde plus ou peu.
Ils sont très voisins des taux estimés auparavant
en période de forte activité solaire par la mission
américaine Pionner Venus. Ceci montre que les
pertes atmosphériques de Vénus ne dépendent
que faiblement de l’activité solaire.
Flux des ions planétaires oxygène s’échappant de
Vénus.
Jean André Sauvaud, directeur de
recherche CNRS et Andrei Fedorov,
ingénieur de recherche CNRS, à l’Institut de
recherche en astrophysique et planétologie
de Toulouse (IRAP, unité mixte UPS/CNRS)
u Contacts
[email protected] &
[email protected]
Atomes accélérés
Les mécanismes physiques responsables de
l’échappement du matériel planétaire et de son
accélération ont pu être cernés. Les études en
cours des différentes régions de l’environnement de ces planètes révèlent que le mécanisme
d’accélération principal est lié à la forte tension
magnétique régnant dans la région antisolaire
de la queue magnétique induite de la planète
ainsi qu’à à un champ électrique de polarisation.
Dans une seconde région plus externe, les ions
sont accélérés par le champ électrique interplanétaire et un champ électrique de séparation de
charge. Ainsi les atomes de l’exosphère ionisés
par impact du vent solaire sont accélérés par le
champ électrique interplanétaire.
A partir de 2014, les chercheurs de l’IRAP disposeront des données de la mission américaine
MAVEN pour laquelle ils ont fourni un spectromètre d’électrons. MAVEN (Mars Atmosphere
and Volatile EvolutioN) a pour objectif d’étudier
les mécanismes à l’origine de la disparition de
l’atmosphère de la planète Mars. Le lancement
de la sonde est planifié pour fin 2013.
Par ailleurs, l’IRAP fournit des instruments pour
la première mission européenne d’exploration de
Mercure, BepiColombo qui sera lancée en 2014.
Lors de l’arrivée autour de Mercure, en 2020,
elle subira des températures atteignant 350 °C
et fournira des données pendant 1 an, avec une
extension possible d’une année supplémentaire. BepiColombo est une mission coordonnée
entre l’ESA et agence spatiale japonaise JAXA.
L’IRAP participe aussi aux groupes scientifiques chargés de la préparation de la mission
et de la simulation numérique de l’environnement de Mercure. ■
f é v r i e r 2 0 1 2 PAUL SABATIER
9
Dossier
La planétologie
Plongée dans
l’environnement
des planètes géantes
Le système de Saturne et ses principales composantes observés
par les instruments de la mission Cassini-Huygens haut à gauche:
émissions aurorales et infrarouges dans la haute-atmosphère de
Saturne; à droite: plume de gaz neutre éjecté par Encelade. En bas à
gauche: émissions en atomes énergétiques neutres de Titan; milieu:
Titan; à droite: représentation imagée de la magnétosphère de
Saturne. © NASA/JPL
D
es environnements constituent des cibles
privilégiées d’exploration pour les missions spatiales : le système de Saturne
est étudié depuis juin 2004 (et jusqu’en 2017)
par la mission NASA/ESA Cassini-Huygens,
la mission américaine Juno se mettra en orbite
polaire autour de Jupiter en 2016, tandis que la
mission européenne JUICE (JUpiter ICy Moon Explorer) est à l’étude pour un lancement en 2022.
Magnétosphères instables
Dans les magnétosphères des planètes géantes,
les sources de plasma sont très abondantes
et variées, d’origine essentiellement interne
au système, à l’inverse du cas terrestre où
l’importance des sources externe (vent solaire) et interne (ionosphère) est comparable.
Les magnétosphères des planètes géantes sont
structurées en différentes régions et composées de plasmas de différentes caractéristiques
et origines. Le couplage entre les différentes
régions, notamment à leur interface, est à l’origine de la dynamique de ces magnétosphères.
Un des problèmes clés de la physique magnétosphérique à Jupiter et Saturne est ainsi de
comprendre comment des plasmas créés dans
le vent solaire, dans la haute atmosphère des
planètes, et surtout par leurs lunes, tout particulièrement Io à Jupiter et Encelade à Saturne,
alimentent l’ensemble de la cavité magnétique,
diffusent radialement, sont accélérés et finalement recombinent.
En s’appuyant sur les données de Cassini, les
équipes de l’IRAP ont mis en évidence le rôle de
l’instabilité d’échange dans le transport radial du
plasma. Cette instabilité centrifuge, dont la pré-
10
PAUL SABATIER f é v r i e r 2 0 1 2
Jupiter et Saturne ont des environnements planétaires
complexes, multiphases, dans lesquels les composantes
du système planétaire (surfaces solides des anneaux
et des lunes, gaz neutres atmosphériques, particules
chargées et populations de plasma piégées par le champ
magnétique de la planète) sont en étroites interactions.
Un vrai défi pour les scientifiques.
sence était anticipée dans les magnétosphères
en rotation rapide des planètes géantes, est
l’équivalente de l’instabilité convective, de type
Rayleigh-Taylor, qui conditionne le mélange des
couches adjacentes dans les atmosphères planétaires en présence de gravité.
Les secrets de Titan
Découverte par l’astronome hollandais Huygens
au XVIIe siècle, Titan est un satellite de Saturne,
unique dans notre système solaire. Par sa grande
taille d’une part, avec un diamètre supérieur à
celui de la planète Mercure. Par son atmosphère
d’autre part, la plus dense parmi les satellites
connus avec une pression à la surface 1,5 fois
supérieure à celle de notre planète Terre.
La mission Cassini-Huygens a révélé de nombreux secrets, en particulier sur le cycle du méthane, dont la présence sous les formes gazeuse,
liquide et solide crée un cycle similaire à celui de
l’eau sur la Terre. Par ailleurs, l’atmosphère de
Titan est caractérisée par une chimie complexe
entre hydrocarbures et nitriles qui en fait une
véritable usine à molécules organiques lourdes,
prémices des blocs à l’origine de la vie.
Les équipes de l’IRAP ont montré que l’interaction entre Titan et le plasma du système de
Saturne induit un chauffage de la haute atmosphère de Titan amenant à un échappement
important, génère des atomes énergétiques
neutres imagés comme des photons par l’instrument INCA, ionise l’atmosphère neutre initiant
ainsi la chimie complexe précitée, et force l’entrée du champ magnétique saturnien que Titan
garde ainsi en « mémoire » dans l’ionosphère.
Mini-magnétosphère
Enfin, il faut citer la mission américaine Galileo
qui a permis de découvrir en 1996 que Ganymède, le plus grand satellite naturel du système
solaire, possède son propre champ magnétique,
et donc forme une mini-magnétosphère contenue dans la magnétosphère géante de Jupiter.
Les équipes de l’IRAP développent actuellement
des modèles numériques pour caractériser les
populations de particules chargées présentes
dans cette mini-magnétosphère et concevoir
ensuite des instruments de mesure qui seraient
proposés sur la future mission JUICE. ■
Philippe Garnier, maître de conférences
UPS et Nicolas André, chargé de recherche
au CNRS, chercheurs à l’Institut de recherche
en astrophysique et planétologie (IRAP, unité
mixte UPS/CNRS).a
u Contacts
[email protected] &
[email protected]
La planétologie
Météorologie de l’espace
Prévoir les orages magnétiques en provenance du Soleil permet
de se prémunir contre leurs effets délétères sur les systèmes
électriques et de communication terrestres.
Tâches solaires
Les tâches solaires correspondent à des zones
aux travers desquelles des éruptions de particules et de flux magnétique ont lieu. Les
particules ainsi éjectées emportent un champ
magnétique intense et se propagent dans
l’héliosphère pour former des bulles de plusieurs
milliards de tonnes de plasma – appelées « éjection de masse coronale » – dont les dimensions
peuvent être de l’ordre de la moitié de la distance
Soleil-Terre, ou plus au-delà de l’orbite terrestre.
Le Soleil est caractérisé par un cycle d’activité
d’environ 11 ans. Depuis environ 4 siècles, l’indicateur le plus utilisé pour quantifier cette activité est le nombre de « tâches solaires » observées
à sa surface
Perturbations terrestres
Les orages géomagnétiques déclenchés par les
éjections de masse coronale engendrent des
perturbations très importantes au voisinage de
la Terre, de la magnétosphère à l’ionosphère et
jusqu’au sol. Ils provoquent des dégradations ou
des coupures des systèmes de communications,
des black-out électriques sur des régions très
vastes, des dysfonctionnements du système
GPS, impact sur l’aviation civile et militaire et
sur les satellites et les hommes dans l’espace.
Les capacités prédictives de ces phénomènes
sont directement dépendantes de notre com-
préhension physique de la chaine de processus
qui régit l’interaction Soleil-Terre. Les activités
du groupe GPPS de l’IRAP sont donc largement
centrées sur l’étude des processus plasmas
fondamentaux se produisant dans l’environnement terrestre proche, tels que la reconnexion
magnétique, les chocs, la turbulence, et autres
mécanismes d’accélération des particules générant entre autres les aurores boréales. Cette
thématique de prédiction des conditions dans
l’environnement terrestre, mais également au
niveau des autres planètes du système solaire
en fonction de l’activité solaire est appelée
« météorologie de l’espace », une discipline en
plein essor. Ces études mobilisent des approches
diverses, allant de la théorie et la modélisation,
jusqu’aux observations. Le groupe GPPS est
fortement investi dans tous ces domaines, et en
particulier dans l’instrumentation. Ont été ainsi
réalisés des instruments de mesure de particules
pour de nombreuses missions spatiales passées
(Interball, Giotto, Double Star), présentes (Cluster, THEMIS, STEREO, DEMETER) et futures
(MMS, Solar Orbiter, Bepi-Colombo, Maven).
Mission Stereo
En 2006, par exemple, était lancée la mission
Stereo. Sa mission : observer l’initiation, la propagation et l’impact de ces structures dans
l’héliosphère. Elle comprenait deux satellites
Une éjection de masse
coronale est représentée
se propageant en direction
de la Terre, où celle-ci est
susceptible de produire de
nombreuses perturbations
dans l’environnement terrestre
(incluant les aurores boréales).
Les inserts du haut montrent,
respectivement de gauche
à droite, une éruption vue
dans l’UV, une éruption vue
dans le visible à partir d’un
coronographe, puis deux
images d’aurores dans le
visible et l’UV.
Benoit Lavraud, chargé de recherche
CNRS, et Iannis Dandouras, directeur de
recherche CNRS, à l’Institut de recherche en
astrophysique et planétologie (IRAP, unité
mixte UPS/CNRS)
u Contacts
[email protected] &
[email protected]
distants avec des instruments de mesure de
particules réalisés dans le groupe GPPS de l’IRAP.
Cette capacité d’observation multipoints, combinée à la qualité des mesures in situ et d’imagerie à bord des satellites, nous a permis pour la
première fois de suivre ces éjections, sans interruption, depuis leur initiation au Soleil jusqu’à la
Terre. Les données de Stereo ont également été
utilisées pour démontrer, par exemple, l’ubiquité
du processus de reconnexion magnétique dans
le vent solaire et la capacité de ce processus à
éroder les éjections de masse coronales au cours
de leur propagation dans l’héliosphère. L’érosion
magnétique ayant lieu à l’avant de ces structures, elle altère le contenu et la quantité de plasma qui interagit ensuite avec la magnétosphère
terrestre (produisant orages géomagnétiques et
aurores boréales). Outre de tels résultats scientifiques relatifs aux processus d’éjection et d’interaction de ces structures dans l’héliosphère, les
travaux menés récemment ont mis en exergue
la capacité à surveiller (par imagerie) et ainsi
prédire de manière efficace l’arrivée et l’intensité
des plus grosses de ces structures à la Terre.
Cet important effort dans le développement
instrumental s’accompagne d’une activité pour
pérenniser et valoriser les masses des données
spatiales obtenues, à travers le développement
d’outils scientifiques et « d’Observatoires Virtuels » dans le cadre du Centre de Données de la
Physique des Plasmas. ■
Infos en
www.cdpp.cesr.fr
a
f é v r i e r 2 0 1 2 PAUL SABATIER
11
Vie des labos
Sciences de la matière
Un miroir de Bragg
immatériel pour des
ondes de matière
L’équipe ‘Atomes froids’du Laboratoire « collisions,
agrégats et réactivité » a mis au point un dispositif
innovant d’optique atomique. Il est basé sur le
guidage d’une onde de matière pour sonder les
structures fines. Entretien avec David Guéry-Odelin,
professeur à l’Université Paul Sabatier dans
le laboratoire LCAR.
David
Guéry-Odelin,
Professeur à l’Université Paul Sabatier, au
Laboratoire Collisions,
Agrégats et Réactivité
(LCAR, unité mixte
UPS/CNRS)
Dispositif expérimental.
Qu’est-ce c’est que la physique
des atomes froids ?
La physique des atomes froids est un domaine
de recherche qui permet de sonder, de contrôler et de manipuler les atomes avec une grande
précision. Une partie importante de notre travail
consiste à développer des outils pour manipuler
les ondes de matière. Pour exalter le comportement ondulatoire il faut se placer à très basse
température, au voisinage du zéro absolu.
Depuis 1995, les physiciens savent ainsi
atteindre avec des atomes froids un état particulier de la matière, le condensat de Bose-Einstein,
état que la physique quantique prévoyait depuis
longtemps. Cette découverte a valu à Cornell,
Wieman et Ketterle le prix Nobel de physique en
2001. Cet état particulier est souvent considéré
comme le 4e état de la matière, et n’est ni solide
ni liquide mais gazeux avec un comportement
ondulatoire.
En quoi consiste votre avancée
scientifique ?
Nous avons développé une technique qui met en
oeuvre un condensat de Bose-Einstein d’atomes
de rubidium à une température de 100 nano
Kelvin. L’onde de matière obtenue est ensuite
12
PAUL SABATIER f é v r i e r 2 0 1 2
guidée par un faisceau laser, comme le serait une
onde lumineuse par une fibre optique. Ce dispositif permet d’étudier les interactions de l’onde
de matière avec des potentiels extérieurs. Ici, le
croisement de deux rayons de lumière issus d’un
même laser crée un réseau de franges d’interférences, soit une alternance de plans lumineux
et sombres séparés par moins d’un micromètre.
L’onde de matière explore en se propageant la
succession de murs de lumière qui résulte de
cette superposition d’ondes lumineuses. L’onde
réfléchie qui résulte de cette interaction est en
fait le résultat d’un phénomène d’interférences
d’ondes de matière dans lequel la contribution à
la réflexion de chaque couche s’additionne. Nous
avons pu ainsi créer l‘équivalent de la réfraction
de Bragg pour les ondes de matière.
Quelles informations et quelles
applications découlent de cette
étude ?
Nous avons pu visualiser directement la structure de bandes du réseau, phénomène quantique par essence qui prend place en présence
d’un motif périodique. La technique qui consiste
à sonder une structure grâce à des ondes de
matière nous a conduit à d’autres avancées avec
en particulier l’étude de structures chaotiques
générées par un motif lumineux approprié.
Ces travaux participent au développement de
l’optique atomique guidée, étape indispensable
pour la miniaturisation de ces expériences dont
l’un des objectifs est d’exploiter la grande sensibilité des atomes à la mesure d’une rotation ou
d’une accélération, soit au développement de
senseurs inertiels ultraprécis. ■
Propos recueillis par Martine Poux
u
Contact
[email protected]
Pour en savoir
a
C. M. Fabre, P. Cheiney, G. L. Gattobigio,
F. Vermersch, S. Faure, R. Mathevet, T.
Lahaye, and D. Guery-Odelin. Realization of a Distributed Bragg Reflector
for Propagating Guided Matter Waves,
Physical Review Letters, décembre 2011
G. L. Gattobigio, A. Couvert, B. Georgeot, et D. Guéry-Odelin, Exploring classically chaotic potentials with a matter
wave quantum probe, Physical Review
Letters, décembre 2011
http://www.coldatomsintoulouse.com/
Nanotechnologies
Un nanocomposite explosif
Une équipe toulousaine vient de créer un nanocomposite assemblé
grâce à de l’ADN et qui présente une des meilleures densités
énergétiques connues. Il pourrait servir de source d’énergie dans un
grand nombre d’applications. Entretien avec Fabrice Séverac du LAAS.
Dans quel contexte
s’inscrivent vos travaux ?
Parmi les matériaux énergétiques, les nanothermites suscitent un grand intérêt dans la communauté des nano matériaux énergétiques et des
microsources d’énergie car ils sont caractérisés
par une densité énergétique très élevée, proche
des explosifs, sont peu coûteux, non polluants
et « sûrs ». Ainsi, ces matériaux font l’objet d’intenses recherches pour des applications civiles,
spatiales et bien sûr militaires.
De quoi sont composés
ces matériaux et comment
fonctionnent-ils ?
Les nanothermites sont constituées par des
poudres ultrafines d’aluminium et d’oxyde métallique (typiquement CuO, Fe2O3, WO3) mélangés mécaniquement. En chauffant, le métal et
l’oxyde diffusent l’un dans l’autre ; l’aluminium
s’oxyde pour former de l’alumine (Al2O3) et
l’oxyde se réduit. Cette réaction s’accompagne
d’un fort dégagement de chaleur. La réduction
de la taille des particules d’aluminium et d’oxyde
permet, en rapprochant les constituants, de
gagner plus d’un facteur 100 sur les vitesses de
réaction. De plus, en diminuant la taille des particules, on augmente leur surface de contact, fa-
Alain Estève, chargé de recherche CNRS,
Carole Rossi, directeur de recherche CNRS,
Aurélien Bancaud, chargé de recherche
CNRS, chercheurs au Laboratoire d’Analyse
et d’Architecture des Systèmes (LAAS, unité
propre CNRS, associée à l’UPS) et Fabrice
Severac, actuellement ingénieur de
recherche chez Nanomade-Concept.
vorisant ainsi la réactivité. Enfin, la température
d’initiation de la réaction est réduite lorsque les
particules d’aluminium ont un diamètre inférieur
à 100nm.
Quelle a été votre démarche pour
améliorer ces matériaux ?
Afin d’optimiser les propriétés de réaction, il
est idéal de pouvoir disposer les nanoparticules
d’oxyde autour des nanoparticules d’aluminium.
Pour cela, nous nous sommes inspirés d’une
technologie née aux USA et qui consiste à diriger
l’assemblage de nanoparticules par des monobrins
d’ADN complémentaires. L’idée était donc d’adapter cette technologie à nos matériaux pour mettre
en intimité ces deux types de nanoparticules.
Comment avez-vous procédé ?
Nous avons d’abord effectué un travail de modélisation pour définir la chimie de greffage des
brins d’ADN sur l’aluminium et sur l’oxyde de
cuivre. Puis nous avons développé un procédé
permettant de disperser les nanopoudres en solution, avant de coiffer les nanoparticules d’aluminium et d’oxyde de cuivre avec des monobrins
d’ADN distincts pour chacun des matériaux
mais complémentaires entre eux. Les nanoparticules sont ensuite mélangées. Les brins d’ADN
s’hybrident pour former la fameuse double hélice
d’ADN engendrant un assemblage des nanoparticules sous forme d’agrégat de taille micrométrique homogène en composition chimique.
La densité d’énergie de ce matériau est surprenante : elle est environ 8 fois supérieure à celle du
même composé préparé classiquement.
Quels pourraient être
les débouchés pour ce matériau ?
Intégrées par exemple dans des micro initiateurs
ou micro détonateurs, les nanothermites pourraient remplacer certains matériaux énergétiques
dangereux. Ils sont également envisagés dans
des micropiles thermiques, des assemblages pour
effectuer de la soudure in-situ et aussi, comme
agents de neutralisation de produits chimiques
dans des systèmes miniaturisés. De plus, l’utilisation de l’ADN devrait permettre de « multi-fonctionnaliser » ce type de matériaux. Par exemple,
en y attachant des colorants photo-absorbants,
il serait possible sous l’action de la lumière de
déclencher la libération d’énergie. ■
Propos recueillis par Frédéric Mompiou
u
Schéma représentant
les différentes étapes
de fabrication des
nanocomposites Al/CuO
par assemblage ADN. Les
nanopoudres d’aluminium
et d’oxyde de cuivre sont
d’abord mises en suspension et
stabilisées en solution aqueuse,
ensuite fonctionnalisées avec
des monobrins d’ADN et
finalement assemblées grâce
à l’hybridation des brins d’ADN
complémentaires.
Contacts
[email protected], [email protected] &
[email protected]
Pour en savoir
a
High Energy Al/CuO nanocomposites
obtained by DNA-directed assembly.
F. Séverac, P. Alphonse, A. Estève,
A. Bancaud, and C. Rossi, Adv. Funct.
Mater., DOI: 10.1002/adfm.201100763.
f é v r i e r 2 0 1 2 PAUL SABATIER
13
Vie des labos
Sciences du vivant
Chlöé
Farrer-Pujol,
chargée de recherche
CNRS au Centre de
recherche cerveau
et cognition (Cerco,
unité mixte UPS/
CNRS) .
u
Contact
[email protected]
Les patients schizophrènes
utilisent mal leur expérience
sociale
La schizophrénie est une maladie mentale complexe, avec un trouble
des relations sociales. Ce dysfonctionnement social est en partie
expliqué par les difficultés que rencontrent ces patients à comprendre
les intentions des autres. L’équipe de Chlöé Farrer, au Centre de
recherche cerveau et cognition (CERCO), a montré que ces difficultés
s’expliquent par une utilisation inappropriée de leur expérience passée.
À quelles questions
souhaitiez-vous répondre
par l’étude que vous publiez ?
Les difficultés qu’ont les schizophrènes à apprécier les intentions d’autrui au cours d’une
interaction sont établies. Nous souhaitions
approfondir la connaissance des mécanismes
en cause car ces déficits sont en fait mal cernés
malgré de nombreuses études.
Pouvez-vous nous expliquer
les bases de cette étude ?
Nous avons utilisé un nouveau paradigme de
compréhension des intentions d’autrui développé chez des sujets sains. La reconnaissance
des intentions d’autrui est un phénomène qui
relève de la confrontation de l’observation sensorielle d’une action en cours avec un savoir
stocké a priori, fait d’expériences mémorisées.
Nous avons émis l’hypothèse que ces deux types
d’information, les informations sensorielles
et les informations a priori, étaient mal utilisés chez les patients schizophrènes. Pour cela,
nous avons étudié la capacité des patients à
reconnaître différentes intentions lorsque l’information sensorielle et les informations à priori
étaient contrôlées. Les patients visionnaient des
vidéos montrant des acteurs manipulant des
objets, avec des intentions différentes. Certaines
intentions étaient volontairement plus fréquentes afin de manipuler l’information a priori.
Les séquences étaient ensuite visualisées en faisant varier la quantité d’information sensorielle
(c’est-à-dire la durée du film montré au sujet).
Nous avons ainsi pu montrer que les patients
schizophrènes ont une utilisation inadéquate
des informations a priori.
14
PAUL SABATIER f é v r i e r 2 0 1 2
Reconnaissance de 4 types d’intentions: des intentions dirigées vers des objets (intentions non-sociales, figures
A et B) et des intentions dirigées vers autrui (intentions sociales, figures C et D). Les intentions dirigées vers
des objets consistaient à manipuler des objets de manière à construire une forme particulière, que les sujets
devaient reconnaître. Pour les intentions sociales, le sujets visualisaient deux joueurs interagir au cours d’un jeu
de manipulation d’objets. Les sujets devaient reconnaître les intentions des joueurs (collaborer ou rentrer en
compétition avec l’autre).
S’agit-il d’une caractéristique
propre à cette maladie ?
Comment envisagez vous la suite
de ce travail ?
Il n’est pas encore possible de répondre, des
études précédentes ont montré que le déficit de
reconnaissance des intentions d’autrui est stable
dans le temps chez les patients. Par contre, ce
que montre aussi cette étude est que la nature
de l’intention à découvrir influence le résultat.
En effet, différentes intentions étaient manipulées dans cette étude. Certaines intentions
étaient dirigées vers des objets (intentions nonsociales) et d’autres étaient dirigées vers autrui
(intentions sociales). Nous avons montré que la
mauvaise utilisation des informations à priori
s’observait surtout pour les intentions sociales.
Nous étendrons l’analyse de ce paradigme à
d’autres types de patients souffrant aussi de
trouble des interactions sociales comme l’autisme. Nous souhaitons également étudier les
régions et les circuits cérébraux impliqués dans
l’interaction entre les informations a priori et les
informations sensorielles en réalisant des études
en IRM fonctionnelle chez les sujets sains. ■
Propos recueillis par Patrick Calvas
Pour en savoir
a
Mentalizing under influence :
abnormal dependence on prior
expectations in patients with
schizophrenia. V. Chambon, E Pacherie,
G. Barbalat, P. Jacquet, N. Franck and C.
Farrer. Brain. 2011 ;134 :3728-41.
Sciences du vivant
Contrôler des vaisseaux
sanguins impliqués
dans l’inflammation
et le cancer
Les cellules dendritiques contrôlent la fabrication
de certains vaisseaux sanguins, qui servent de
portes d’entrée des lymphocytes dans les ganglions
lymphatiques, les tissus enflammés et les tumeurs
cancéreuses. C’est ce que vient de publier dans la revue
Nature, l’équipe de Jean-Philippe Girard, chercheur
à l’IPBS. Entretien avec le chercheur.
Jean-Philippe
Girard,
directeur de recherche
Inserm, directeur de
l’Institut de pharmacologie et de biologie
structurale (IPBS,
unité mixte
UPS/CNRS)
u
Contact
[email protected]
Quelle est la fonction
des cellules dendritiques
dans le système immunitaire ?
Les cellules dendritiques sont des cellules sentinelles du système immunitaire, découvertes en
1973 par Ralph Steinman, Prix Nobel de Médecine 2011. Elles sont chargées de collecter et de
présenter les antigènes étrangers provenant de
virus, de bactéries ou de cellules cancéreuses,
aux lymphocytes. Leur forme étoilée avec de
longs prolongements cellulaires, leur permet de
capter les éléments de leur environnement dans
les tissus périphériques. Elles migrent ensuite
vers les ganglions lymphatiques pour aller à la
rencontre des lymphocytes.
Quel est le rôle des vaisseaux
sanguins HEV dans l’organisme ?
Afin de lutter contre les infections virales et bactériennes, les lymphocytes s’acheminent vers
les ganglions lymphatiques. Ils pénètrent dans
Visualisation en microscopie multi-photonique d’un vaisseau sanguin HEV (en
vert) dans un ganglion lymphatique. Les autres vaisseaux sanguins du ganglion
sont colorés en rouge. Les vaisseaux HEV permettent l’entrée dans le ganglion
des lymphocytes circulant dans le sang.
les ganglions grâce à un type particulier de vaisseaux sanguins, appelés HEV - pour High Endothelial Venul. Les cellules qui tapissent la paroi de
ces vaisseaux HEV sont bombées, arrondies, et
cette morphologie très caractéristique facilite le
passage des lymphocytes du sang vers le tissu.
Les vaisseaux HEV constituent des portes d’entrée très efficaces puisque l’on estime que dans
l’organisme, à chaque seconde au moins 5 millions de lymphocytes entrent dans les ganglions
lymphatiques via les vaisseaux HEV.
En quoi consiste votre récente
découverte ?
Depuis plusieurs années, notre équipe s’efforce
de mieux comprendre comment un vaisseau
sanguin normal se transforme en vaisseau HEV
(et vice versa). En étudiant les cellules présentes
au voisinage des vaisseaux HEV, Christine
Moussion, doctorante dans mon équipe, a mis
en évidence le rôle fondamental des cellules
dendritiques dans la fabrication des vaisseaux
HEV. Sous l’action des cellules dendritiques, les
vaisseaux sanguins qui constituaient une barrière infranchissable, se transforment en vaisseaux HEV et deviennent alors capables de faire
entrer massivement les lymphocytes dans les
ganglions lymphatiques. En contrôlant l’accès
des lymphocytes aux ganglions via les vaisseaux
HEV, les cellules dendritiques vont permettre la
rencontre entre les lymphocytes et les antigènes
étrangers contre lesquels ils sont dirigés. Les
cellules dendritiques jouent ainsi un nouveau
rôle essentiel dans le système immunitaire, rôle
insoupçonné jusqu’alors.
Cette découverte peut-elle
conduire à de nouveaux
traitements des maladies
inflammatoires ou du cancer ?
Des vaisseaux HEV apparaissent dans la plupart des maladies inflammatoires chroniques
(polyarthrite rhumatoïde, maladie de Crohn,
dermatite atopique, psoriasis, asthme…) et
contribuent à l’inflammation du tissu. Bloquer la
fabrication des vaisseaux HEV permettrait donc
de diminuer l’inflammation. A l’inverse, dans le
cancer, les vaisseaux HEV ont un effet bénéfique
lorsqu’ils sont présents dans les tumeurs, car ils
facilitent l’entrée dans ces tumeurs des lymphocytes tueurs. Mieux comprendre les mécanismes
de fabrication des vaisseaux HEV pourrait
permettre d’augmenter la quantité de ces
vaisseaux dans les tumeurs afin d’améliorer
l’éradication des cellules cancéreuses par
les cellules tueuses. ■
Propos recueillis par Christine Ferran
Pour en savoir
a
Moussion C, Girard JP. Dendritic cells
control lymphocyte entry to lymph
nodes through high endothelial venules.
Nature. 2011 Nov 13;479(7374):542-6.
doi: 10.1038/nature10540.
f é v r i e r 2 0 1 2 PAUL SABATIER
15
Vie des labos
Sciences du vivant
Les poissons d’eau douce
se ressemblent de plus en plus
L’homme a non seulement provoqué des extinctions d’espèces, mais il a également introduit,
volontairement ou non, de nombreuses espèces hors de leur aire d’origine. Ces deux processus
peuvent conduire à accroître la proportion d’espèces communes à différentes faunes, ce qu’on
appelle l’homogénéisation biotique. Un consortium international piloté par Sébastien Villéger et
Sébastien Brosse, chercheurs au laboratoire EDB a fait le point sur cette question. Entretien avec
Sébastien Villéger.
Comment est-on arrivés au
constat d’une homogénéisation
biotique ?
Notre étude, basée sur des données relatives à
des poissons présents dans 1 054 cours d’eau
du monde, révèle que si la ressemblance entre
faunes n’a augmenté que de 0.5 % à l’échelle du
globe durant les deux derniers siècles, certaines
zones présentent un taux d’homogénéisation
jusqu’à 20 fois supérieur. C’est en particulier le
cas des cours d’eau Eurasiens et Nord-Américains qui ont accueilli un grand nombre d’espèces non-natives. Par ailleurs, le pourcentage
de cours d’eau n’ayant aucune espèce en commun a fortement diminué à l’échelle mondiale,
passant de 81 à 68 %.
Les introductions d’espèces engendrent donc
non seulement des changements dans le nombre
d’espèces présentes dans les cours d’eau mais
aussi un déclin d’une autre facette de la biodiversité, la dissemblance entre les communautés.
Comment expliquer
cette évolution ?
un intérêt aquacole ou récréatif (par exemple la
carpe commune et la truite arc-en-ciel) ont été
introduites dans de nombreux cours d’eau à travers le monde ce qui amplifie l’homogénéisation.
Que peut-on y faire ?
Nous avons montré que l’homogénéisation biotique est essentiellement imputable aux introductions d’espèces, alors que les extinctions
locales n’y contribuent que faiblement. Plus particulièrement, un petit nombre d’espèces ayant
Pour en savoir
« Niveau d’homogénéisation actuelle des faunes de poissons d’eau douce (variation du pourcentage de
ressemblance entre une faune et ses voisines depuis la période pré-industrielle) ».
© Sébastien Villéger et al.
a
Proceedings of the National Academy of
Sciences of the United States of America
(PNAS) : http://www.pnas.org/content/
early/2011/10/18/1107614108
Même si le risque d’une homogénéisation mondiale massive parfois évoquée sous le terme de
« nouvelle Pangée » ne semble pas d’actualité,
le niveau particulièrement élevé d’homogénéisation révélé par cette étude dans certains cours
d’eau suggère de mener des études ciblées pour
évaluer les risques écologiques encourus par ces
écosystèmes.
De quelles collaborations
avez-vous bénéficié ?
Il s’agit d’un consortium de chercheurs de l’UPS,
du CNRS, de l’IRD, du Museum national d’Histoire naturelle (MNHN) et de l’Université d’Anvers (Belgique) qui a mesuré pour la première
fois l’homogénéisation biotique des poissons
d’eau douce à l’échelle du globe. ■
Propos recueillis par Valeria Medina
16
PAUL SABATIER f é v r i e r 2 0 1 2
Simon Blanchet, chargé de recherche
CNRS à EcoEx Moulis ; Sébastien
Villéger, post doctorant et Sébastien
Brosse, professeur UPS, tous les deux
au laboratoire Evolution dynamique et
biodiversité (EDB, unité mixte UPS/CNRS)
u
Contact
[email protected] &
[email protected]
Sciences du vivant
Jean-Charles
Guéry, directeur de
recherche Inserm au
Centre de physiopathologie de Toulouse
Purpan (CPTP, unité
mixte UPS/Inserm).
Hommes et femmes ne sont
pas égaux devant la maladie
Les femmes développent souvent des réponses immunes plus fortes
que les hommes. Cette différence pourrait expliquer la fréquence plus
élevée des maladies autoimmunes chez les femmes. Jean-Charles
Guéry, nous livre les grandes lignes d’une étude qu’il a menée au Centre
de Physiopathologie de Toulouse-Purpan (CPTP) pour expliquer ces
différences.
Comment peut-on expliquer les
réactions différentes des hommes
et des femmes à la maladie ?
Les différences liées au sexe dans la susceptibilité aux maladies autoimmunes apparaissent
après la puberté. Cela suggére que les hormones
sexuelles peuvent être impliquées. Nous nous
intéressons plus particulièrement à l’une d’entre
elles, l’œstradiol, produit par les ovaires. En fonction des pathologies, les œstrogènes peuvent
exercer des effets soit bénéfiques (anti-inflammatoires), soit délétères (pro-inflammatoires),
en se fixant sur un récepteur intracellulaire,
le récepteur aux œstrogènes (RE). Nos travaux
visent à définir les cibles cellulaires répondant
donc aux oestrogènes et responsables des effets
pro-inflammatoires et anti-inflammatoires de
l’œstradiol (E2), en particulier dans des modèles
de maladies autoimmunes, comme le lupus
érythémateux disséminé. Bien que le rôle délétère des œstrogènes soit reconnu depuis plus de
30 ans, leurs mécanismes d’action dans cette
pathologie restent largement incompris.
Quelle est donc la principale
population de cellules du système
immunitaire impliquée ?
Les cellules dendritiques plasmacytoïdes (pDCs)
représentent une population rare de cellules de
l’immunité innée (moins de 0.5 % des globules
blancs dans le sang). Ces « sentinelles » de
l’organisme reconnaissent notamment les virus
grâce à des récepteurs spécifiques, les récepteurs Toll, dont l’activation induit la production
de quantités considérables d’interférons de
type I. Ces cytokines possèdent une puissante
activé anti-virale, mais également de propriétés
immunorégulatrices fortes. Dans le cas du lupus,
l’activation chronique de ces cellules par des
complexes immuns constitués d’anticorps dirigés contre nos propres acides nucléiques conduirait à la production soutenue d’interférons de
type I et à l’amplification de la réponse autoimmune. Bien qu’il ait été reconnu que les pDCs des
femmes produisent plus d’interférons de type I
que celles provenant d’hommes, la raison précise de cette différence liée au sexe n’avait pas
été élucidée.
Qu’avez-vous observé ?
Marquage analysé en microscopie confocale
de cellules dendritiques de souris normales ou
déficientes pour le récepteur aux œstrogènes (ERa)
marquées à l’aide d’un anti-ERa (vert), les pDCs
sont marquées en rouge (anti-B220).
Grâce à une collaboration avec des cliniciens du
CHU de Toulouse, nous avons confirmé que la réponse des pDCs est augmentée chez les femmes
par rapport aux hommes avant 45 ans, alors
qu’elle est fortement réduite chez les femmes
ménopausées suggérant un rôle des œstrogènes. Effectivement, l’administration d’estradiol chez des femmes ménopausées augmente
u
Contact
[email protected]
de manière très significative la réponse des pDCs
après stimulation de leurs récepteurs Toll. Enfin,
dans des modèles expérimentaux chez la souris,
nous démontrons que l’estradiol peut agir directement in vivo, via l’activation du RE exprimé par
les pDCs pour moduler leur fonction effectrice
innée. Ainsi, les œstrogènes jouent un rôle majeur dans la régulation de la fonction des pDCs à
la fois chez l’humain et la souris, pouvant rendre
compte de leur influence sur certaines maladies
autoimmunes, comme le lupus.
Quelles peuvent être
les retombées thérapeutiques
de ce travail ?
L’estradiol pourrait favoriser la réponse immune
vis-à-vis de certains pathogènes, comme par
exemple le virus de l’hépatite C, comme le suggère le fait que le pronostic des femmes ménopausées infectées par l’hépatite C est meilleur
lorsqu’elles prennent un traitement œstrogénique. Il s’agit maintenant de le prouver par un
essai clinique randomisé. Nous proposons donc
d’activer, avec des oestrogènes ou des molécules
apparentées, les RE pour améliorer la réponse
des pDCs dans cette affection qui touche plus de
200 millions de personnes à travers le monde. ■
Propos recueillis par Jean-François Arnal
Pour en savoir
a
Seillet, C., S. Laffont, F. Tremollieres,
N. Rouquie, C. Ribot, J. F. Arnal,
V. Douin-Echinard, P. Gourdy, and J. C.
Guery. 2011. The TLR-mediated response
of plasmacytoid dendritic cells is positively
regulated by estradiol in vivo through cellintrinsic estrogen receptor alpha-signaling.
Blood. Nov 16. [Epub ahead of print]
f é v r i e r 2 0 1 2 PAUL SABATIER
17
Vie des labos
Sciences de la planète
Tempête tropicale en Méditerranée
En novembre dernier un
quasi-cyclone frappait les
côtes du Var. Comment ces
phénomènes se forment-ils ?
Une équipe du Laboratoire
d’Aérologie, en collaboration
avec une équipe du
Laboratoire de météorologie
dynamique (LMD/IPSL
CNRS/Université Pierre et
Marie Curie/Ecole normale
supérieure de Paris/Ecole
Polytechnique) a modélisé
le développement
explosif d’une dépression
méditerranéenne. Entretien
avec Jean-Pierre Chaboureau,
principal auteur de l’étude.
Vue tri-dimensionelle du medicane (en violet)
au-dessus de la mer Adriatique le 26 septembre
2006 à 12 h TU après avoir traversé le courant jet
(en grisé) simulé par le modèle Méso-NH
La Méditerrané peut-elle connaître
des tempêtes de type tropical ?
Oui. Ce type de tempête qu’on appelle « medicane » (contraction de « Mediterranean hurricane ») se forme généralement à l’automne
lorsque la mer Méditerranée est encore chaude.
Des orages qui se développent autour d’une
dépression vont en s’intensifiant la creuser et
s’enrouler autour jusqu’à former un œil, des
vents forts à la surface de l’eau et une température dans les basses couches atmosphériques
plus élevée au cœur des nuages qu’à l’extérieur.
Comment les avez-vous étudiés ?
Nous nous sommes intéressé au medicane le
plus intense jamais enregistré. Ce medicane
s’est produit le matin du 26 septembre 2006 au
Pour en savoir
a
Chaboureau, J.-P., F. Pantillon, D.
Lambert, E. Richard, and C. Claud:
Tropical transition of a Mediterranean
storm by jet crossing, Quart. J. Roy.
Meteor. Soc., doi :10.1002/qj.960, sous
presse, 10 novembre 2011
18
PAUL SABATIER f é v r i e r 2 0 1 2
sud de l’Italie. La dépression initiale s’est formée
la veille derrière l’Atlas algérien le long duquel
elle s’est ensuite déplacée avant de rejoindre
la Méditerranée via la Tunisie. Elle s’est ensuite
développée de manière explosive en medicane
sur la mer Ionienne dans la matinée du 26. Le
passage du medicane au-dessus de la Pouille
méridionale quelques heures plus tard a permis
de mesurer son creusement (diminution de la
pression au cœur de la tempête) qui était très
profond (986 hPa) et les rafales de vent qui atteignaient plus de 144 km/h. Bien que l’intensité du
vent moyen n’ait pas atteint celle d’un cyclone
(118 km/h), ce medicane a néanmoins été classé
comme une tempête tropicale sévère. Pour l’étudier, nous avons réalisé une série de simulations
numériques avec le modèle météorologique de
recherche Méso-NH à haute résolution en faisant varier les conditions initiales
Que vous ont apporté
ces simulations ?
Les simulations numériques nous ont permis de
constater que pour reproduire le medicane dans
des conditions proches de la réalité, il faut non
seulement une situation fortement orageuse
autour de la dépression mais aussi la présence
d’un courant-jet d’altitude. C’est le passage de
la dépression sous le courant-jet qui conduit à
son creusement explosif et au phénomène de
medicane.
Jean-Pierre
Chaboureau,
physicien au
Laboratoire d’Aérologie (LA, unité mixte
UPS/CNRS)
u Contact
jean-pierre.chaboureau@
aero.obs-mip.fr
Ce phénomène explosif est-il facile
à prédire ?
Ce type de phénomène est difficile à prévoir
avec exactitude car de petites modifications
des conditions initiales suffisent à modifier radicalement l’évolution du système vers, ou non,
un medicane. Cela est d’autant plus vrai pour
les modèles opérationnels dont la résolution
est bien plus grossière que celle du modèle de
recherche Méso-NH. ■
Propos recueillis par Daniel Guedalia
Sciences de la planète
Mais où va l’eau de fonte
de la Sibèrie ?
Une équipe du LEGOS s’est intéressée au devenir de l’eau
provenant de la fonte du manteau neigeux dans la région arctique
de la Sibérie Occidentale. Rencontre avec Alexei Koraev, qui nous
fait part de résultats pour le moins inattendus.
Alexei V Kouraev,
maître de conférences
UPS au Laboratoire
d’études en
géophysique et
océanographie
spatiales (unité mixte
UPS/CNRS/
IRD/CNES)
u Contact
[email protected]
Comment arrivez-vous à accéder
aux bilans d’eau ?
À l’aide de données satellitaires, nous avons
pu faire une estimation de la hauteur du manteau neigeux avant la fin du printemps sur une
période allant de 1989 à 2006 pour une région
de Sibérie (entre les fleuves Ob et Ienissei) qui
couvre une superficie identique à celle de l’Allemagne. Il nous est ainsi possible de calculer, en
utilisant les mesures sur le terrain de la densité
de la neige, la quantité d’eau qui provient de sa
fonte. D’autre part, avec les enregistrements des
débits journaliers des quatre fleuves majeurs qui
irriguent cette région, nous avons estimé le volume d’eau qui passe chaque année pendant les
crues de printemps. En combinant les mesures
satellitaires, les mesures in situ et la modélisation hydrologique et hydrodynamique, nous
avons pu étudier le bilan d’eau dans les bassins
versants et les liens avec le climat régional et ses
forçages.
Qu’avez-vous constaté ?
Tout d’abord, et de façon évidente, plus la quantité de neige est importante, plus le flux d’eau au
printemps est élevé. Mais une constatation inattendue est que, pour cette eau issue de la fonte
des neiges, une grande partie (environ 30 %) ne
se retrouve pas dans le débit des fleuves pendant
les crues. Et, deuxième constatation, plus importante encore, on note une tendance à l’augmentation de cette perte avec les années, pour
passer de 20 à 30 % dans les années 1990 à 50
à 60 % dans les années 2000.
Pour en savoir
a
Snow Cover and Spring Flood Flow
in the Northern Part of Western
Siberia (the Poluy, Nadym, Pur,
and Taz Rivers). E. A. Zakharova,
A. V. Kouraev, S. Biancamaria, M.
V. Kolmakova, N. M. Mognard,
V. A. Zemtsov, S. N. Kirpotin,
and B. Decharme. Journal of
Hydrometeorology, Volume 12, dec
2011, pp 1498-1511
Valeurs annuelles (période
1989-2006) du ratio eau de
fonte de la neige perdu (en %
par rapport au volume total
de l’eau présent dans le couvert
neigeux en hiver) pour le bassin
de la Pur (courbe rouge),
de la Nadym (courbe bleue),
de la Taz (courbe verte),
de la Poluy (courbe orange).
Sur ces courbes les lignes
verticales correspondent
aux barres d’erreur.
Comment expliquer cette perte d’eau ?
Cette région présente une forte concentration
en zones humides, marécages et lacs, qui sont
propices à un taux d’évaporation élevé. D’autre
part, ces zones humides stockent l’eau qui est
libérée graduellement tout le long de l’été. En
plus de ces deux facteurs, le pergelisol (sous-sol
gelé) joue aussi un rôle majeur dans la redistribution saisonnière des débits fluviaux. L’augmentation de la température de l’air depuis les années
2000 a pour effet de favoriser l’évaporation
mais aussi de modifier la végétation induisant
un changement de surface et une modification
de la profondeur de la couche active,c’est-àdire la couche supérieure du sol qui, au gré des
saisons, gèle et dégèle, mais leur impact est
encore mal étudié et reste complexe. Les incendies de toundra auraient aussi un effet sur ces
pertes, en modifiant aussi la profondeur de la
couche active du sol.
retombées sociétales. Le transport fluvial des
marchandises n’est plus possible sur les rivières
de taille moyenne et la période de fonctionnement des routes d’hiver - « zimnik » - construites
à travers des marécages gelés a été réduite.
L’évolution du manteau neigeux dans le contexte
des changements climatiques affecte aussi la vie
animale, en particulier les troupeaux de rennes. ■
Propos recueillis par Martine Poux
1 GDRI CAR WET SIB Biogeochemical cycle of carbon
in wetlands of Western Siberia
À votre avis, quelles seraient
à terme les conséquences de
la diminution de la couverture
neigeuse ?
Le manteau neigeux participe activement au
cycle de l’eau, et c’est ce cycle que nous étudions
dans le cadre d’une coopération entre le CNRS
et la Russie1. La diminution du manteau affecte
directement les débits fluviaux et induit des
Vue aérienne, à proximité de la ville de Noviy
Urengoy, mettant en évidence la multitude de
lacs, marécages, zones inondées et petites rivières
caractéristiques de cette région.
f é v r i e r 2 0 1 2 PAUL SABATIER
19
Vie des labos
Sciences de la planète
L’histoire de la tectonique
des plaques bouleversée
Un article publié en novembre 2011 dans la revue Nature
Geoscience, bouleverse les connaissances sur l’histoire de la Terre.
Il propose une chronologie de la tectonique des plaques différente
de celle admise jusqu’ici. En outre, elle permettrait une meilleure
localisation des gisements aurifères
en Afrique de l’Ouest. Jérôme
Jérôme Ganne,
Ganne, du GET, nous parle de cette
chargé de recherche
IRD au laboratoire
étude, réalisée en collaboration
Géosciences
avec une équipe du Brookhaven
environnement de
Toulouse (GET, unité
National Laboratory (USA).
mixte UPS/CNRS/
IRD)
Comment peut-on remonter aux origines
de la tectonique des plaques ?
Comment est-il possible de dater
la formation des zones de subduction ?
La planète Terre est constituée d’enveloppes
concentriques dont les plus denses ont formé le
noyau, et les moins denses le manteau terrestre.
Le manteau supérieur est découpé en plaques
rigides (lithosphère) qui se déplacent horizontalement sur le manteau inférieur (asthénosphère),
plus ductile. Ces mouvements de surface sont
couplés à une dynamique plus profonde que
l’on appelle la convection. Cette mécanique est
décrite par la théorie unificatrice de la tectonique
des plaques, proposée en 1968, qui rend compte
du fonctionnent de notre système Terre durant
les derniers 900 millions d’années de son évolution, sur un modèle proche de l’actuel. En remontant le temps au-delà de cette frontière, des
différences apparaissent, liées principalement à
l’absence apparente des zones de subduction.
Les zones de subduction reliques identifiées à la
surface de la Terre sont toutes caractérisées par
la présence de minéraux de métamorphisme
formés à haute pression et basse température
(HP-BT). Le plus caractéristique de ces minéraux
est l’amphibole bleue (glaucophane) dont on ne
trouve pour le moment aucune trace dans les terrains géologiques vieux de plus de 900 Ma.
D’où l’hypothèse admise jusqu’ici que les roches
de HP-BT, donc les zones de subduction, n’existaient pas avant cette époque et que la tectonique des plaques fonctionnait sur un mode
assez différent…
u Contact
[email protected]
Image SEM (Scanning Electron
Microscopy) sur des minéraux du
métamorphisme préservés dans les
ceintures de roches vertes d’âge paléoprotérozoïque d’Afrique de l’Ouest
(zone de Fada N’Gourma, Burkina
Faso). Il s’agit pour l’essentiel de
chlorite et de phengite ayant cristallisé
autour d’oxydes de fer (hématite). Les
variations de compositions chimiques
présentes au sein de ces plages minérales
permettent de mieux comprendre à quelle
profondeur et à quelle température la
roche métamorphique s’est formée. Cet
enregistrement exceptionnel permet de
discuter des processus géodynamiques
qui ont existé sur Terre il y a plus de
2 milliards d’années.
20
PAUL SABATIER f é v r i e r 2 0 1 2
Dans ce contexte, en quoi consiste
votre découverte ?
Nous avons pu démontrer qu’il est possible de
caractériser la présence de roches de HP-BT –
donc de zones de subduction - dans des terrains
géologiques anciens en tenant compte du couple
chlorite-micas blancs et non plus seulement de
l’amphibole bleue. Notre découverte de zones
de subduction actives il y a plus de 2 milliards
d’années dans les grandes provinces d’Afrique
de l’Ouest améliore considérablement notre
compréhension de l’évolution thermique et mécanique de la lithosphère au cours de l’histoire
de la Terre. C’est la preuve que la lithosphère
pouvait s’enfoncer, sans se désagréger, dans
le manteau asthénosphérique et que la tectonique des plaques, telle que nous la connaissons
aujourd’hui, était déjà pleinement fonctionnelle.
En quoi le fait d’avoir daté plus
précisément la tectonique vous
aide t’il à prévoir la localisation
des gisements d’or ?
Les dépôts aurifères du Burkina Faso et du
Ghana se sont mis en place sous des conditions
très particulières de pression, de température
et de composition du fluide minéralisateur qu’il
faut pouvoir caractériser finement si l’on veut
retrouver la source de ces gisements. Ces conditions physico-chimiques sont enregistrées par
l’assemblage chlorite – micas blancs que l’on
retrouve systématiquement associé aux dépôts
aurifères. Ces couples chlorite – micas blancs,
associés à l’or, ont pour beaucoup cristallisé
dans des conditions de basse pression (P < 1 000
bars) et généralement basse température (T
< 250 °C). Cette nouvelle technologie nous offre
donc la possibilité de cartographier en 3D les
fines évolutions de pression et de température
enregistrées par un socle minéralisé ou un bassin
sédimentaire faiblement métamorphisé. Une
application potentielle de nos travaux dans le
domaine de l’exploration pétrolière est aussi
envisageable. ■
Propos recueillis par Guy Lavigne
Pour en savoir
a
Modern-style plate subduction
preserved in the Palaeoproterozoic
West African Craton. Ganne, J., De
Andrade, V., Weinberg, R., Dubacq, B.,
Vidal, O. Kagambega, N., Naba, S.,
Baratoux, L., Jessell, M. and Allibon, J.
Nature Geoscience, 2011. DOI: 10.1038/
NGEO1321.
Sciences de l’univers
Prédire les vibrations
acoustiques stellaires
La propagation des ondes à l’intérieur des étoiles permet de sonder
leur structure. Encore faut-il disposer d’un modèle prédisant
les modes de vibration des étoiles en rotation rapide.
Une collaboration originale entre astrophysiciens de l’IRAP
(Institut de Recherche en Astrophysique et Planétologie) et
physiciens du LPT (Laboratoire de Physique Théorique) a permis
tout récemment d’avancer sur le sujet. Entretien avec Bertrand
Georgeot, directeur de recherche CNRS au LPT.
De gauche à droite : Bertrand Georgeot,
directeur de recherche CNRS au Laboratoire
de physique théorique (LPT, unité mixte
UPS/CNRS), Mickael Pasek, doctorant
et François Lignières, chargé de
recherche CNRS à l’Institut de recherche en
astrophysique et planétologie (IRAP, unité
mixte UPS/CNRS)
u Contacts
[email protected]) &
[email protected])
Quelle a été votre approche pour
contourner ce problème ?
Exemple de mode régulier dans une étoile en rotation rapide, vue dans un plan méridien. Le mode est centré sur
une orbite périodique des rayons acoustiques, marquée en noir.
Qu’est-ce que l’astérosismologie ?
L’astérosismologie s’intéresse aux ondes qui sont
engendrées par différents mécanismes dans les
étoiles. Ces ondes se propagent et provoquent
à la surface des variations d’intensité lumineuse
qui peuvent être mesurées. Comme dans le cas
de la sismologie terrestre, l’étude de ces ondes
permet de « sonder » l’intérieur d’une étoile. En
raison de sa proximité avec la Terre, la sismologie solaire s’est développée la première dès les
années soixante-dix. Depuis, grâce au lancement de programmes spatiaux d’envergure tel
que CoRoT en 2006, la mesure fine des spectres
acoustiques d’une large gamme d’étoiles a été
rendue possible.
Peut-on alors en déduire
la structure interne des étoiles ?
En principe oui, mais cela suppose de bien comprendre la physique des modes d’oscillation associés. Dans le cas d’une étoile sphérique comme le
Soleil, ces modes de vibration sont bien connus. Les
plus importants à l’échelle de l’étoile produisent
des oscillations stationnaires, qui résultent d’un
phénomène de résonance, comme dans le cas
d’une corde vibrant à une fréquence harmonique.
Cependant de nombreuses étoiles sont en rotation
rapide, ce qui a tendance à les rendre plus renflées
à l’équateur sous l’effet de l’accélération centrifuge. Calculer les modes de vibrations pour ces
étoiles est une tâche plus ardue.
Nous savions que la rotation rapide provoquait
des phénomènes chaotiques dans les ondes
acoustiques. Nous avons alors utilisé les outils
mathématiques développés en physique théorique pour l’étude des mécanismes chaotiques
rencontrés en mécanique quantique. Cela nous
a permis de séparer les modes chaotiques des
modes réguliers plus faciles à observer et à
identifier. Des comparaisons effectuées avec les
simulations numériques d’oscillations dans des
modèles d’étoiles montrent que les fréquences
et les amplitudes de ces modes sont décrites
avec précision par notre approche pour presque
toutes les valeurs de la rotation. Les spectres
sont principalement caractérisés par deux
nombres quantiques, dont l’extraction à partir
des spectres observés devrait permettre d’obtenir des informations sur l’intérieur des étoiles en
rotation rapide. ■
Propos recueillis par Frédéric Mompiou
Pour en savoir
a
M. Pasek, B. Georgeot, F. Lignières,
D. R. Reese «Regular modes in rotating
stars», Phys. Rev. Lett. 107, 121101
(2011).
f é v r i e r 2 0 1 2 PAUL SABATIER
21
Innovation
Diagnostic
Diagnostic innovant
des pannes automobiles
L’électronique est omniprésente dans les
voitures modernes ce qui rend le diagnostic des
dysfonctionnements automobiles de plus en plus
complexe. Fort de ce constat, le LAAS et la société
toulousaine ACTIA ont breveté un procédé de diagnostic
qui permet une identification optimisée du composant
électronique à l’origine de la défaillance. Louise TravéMassuyès, directeur de recherche CNRS au LAAS, revient
avec nous sur ces travaux.
Louise
Travé-Massuyès,
directrice de recherche
CNRS, responsable du
groupe « Diagnostic
supervision et
conduite » au
Laboratoire d’analyse
et d’architecture des
systèmes (LAAS, unité
propre CNRS,
associée à l’UPS).
Dans quel contexte s’insèrent vos
recherches ?
Actuellement, les voitures sont équipées d’un
nombre grandissant d’équipements électroniques qui permettent la réalisation de multiples
fonctions : sécurité, confort, respect de l’environnement… Mais la complexité des architectures
électroniques impliquées rend indispensables
des systèmes d’aide au diagnostic. Ces systèmes
doivent être capables d’indiquer le plus efficacement possible, les séquences de tests à effectuer
pour localiser le composant défaillant.
ces valeurs attendues sont statiques : elles ne
donnent qu’une image instantanée du circuit
électronique. Or, dans les voitures modernes,
les équipements électroniques communiquent,
en temps réel, des informations concernant leur
état aux calculateurs de bord qui peuvent basculer, en conséquence, la commande des équipements. Nous sommes donc dans un mode de
fonctionnement totalement dynamique où la
signature des défaillances elle-même se caractérise par des évolutions temporelles.
Quelle est l’originalité du procédé
que vous proposez ?
Avec ce nouveau procédé, nous modélisons les
fonctions mécatroniques du véhicule, décrivant
l’interaction de l’activité mécanique, électronique et informatique en temps réel du véhicule,
et nous sommes capables de simuler, par anticipation, des scénarios de défauts des différents
composants impliqués dans ces fonctions. Les
résultats de ces simulations sont analysés et
synthétisés de manière très visuelle sous la
forme de courbes, dites de « référence », représentant l’évolution temporelle des paramètres
clés de la voiture.
Jusqu’à présent, comment fonctionnaient les outils de diagnostic
automobile ?
Pourriez-vous nous décrire une
séquence de diagnostic « type » ?
Les outils actuels se basent sur des procédures
de diagnostic élaborées à partir des schémas
de conception des circuits électroniques. Elles
proposent au garagiste de mesurer un certain
nombre de paramètres du véhicule et de comparer leurs valeurs à des valeurs attendues. Mais
Voici un exemple. L’automobiliste indique au garagiste la nature du dysfonctionnement observé.
A partir de ce signalement, l’algorithme va proposer au garagiste d’effectuer un premier test.
Un premier signal est recueilli et comparé à l’ensemble des courbes de référence relatives aux
22
PAUL SABATIER f é v r i e r 2 0 1 2
Nouvelle
génération d’outil
de diagnostic
ACTIA.
© ACTIA
défauts anticipés. Seules les courbes similaires
au signal mesuré sont retenues, réduisant alors
l’ensemble des défauts possibles. En fonction de
cette comparaison, le programme va sélectionner un nouveau test jusqu’à réduire l’ensemble
des défauts possibles à un seul. Le composant à
remplacer est alors localisé. Le garagiste bénéficie ainsi d’un procédé rapide et efficace pour
repérer les composants défectueux. D’ailleurs, la
société ACTIA propose déjà à ses clients d’intégrer ce nouveau procédé dans les outils d’aide au
diagnostic qu’elle commercialise.
Quelles sont les perspectives
d’application de votre brevet, hors
du domaine automobile ?
Ce brevet a une portée très large puisqu’il
peut trouver des applications dans tous les
domaines qui utilisent des systèmes électroniques embarqués. On peut penser en premier
lieu à l’aéronautique. ■
Propos recueillis par Nathalie Boudet
u
Contact
[email protected]
Pour en savoir
a
« Procédé de diagnostic d’un
dysfonctionnement d’un système
mécatronique », copropriété CNRSACTIA. Dépôt national n°09.59513.
23/12/2009. Publication en France
24/06/2011.
La Recherche à l’UPS
Le Potentiel de Recherche de l’Université Paul Sabatier se répartit sur
66 laboratoires, la plupart unités mixtes avec le CNRS, l’INSERM, l’IRD,
l’INRA, le CNES…
1500 enseignants-chercheurs, 950 chercheurs, 1200 personnels
techniques et administratifs travaillent dans ces laboratoires..
Les quatre grands pôles de recherche sont :
> MST2I (Mathématiques et Sciences et Technologies de l’Information et
de l’Ingénierie) : 5 laboratoires mixtes, 1 laboratoire CNRS, 3 EA, 5 fédérations
> UPEE (Univers, Planète, Espace, Environnement) : 7 laboratoires mixtes,
1 Observatoire
> SM (Sciences de la matière) : 9 laboratoires mixtes, 3 laboratoires CNRS,
2 Fédérations
> SV (Sciences du vivant) : 21 laboratoires mixtes, 1 laboratoire INRA,
11 EA, 7 Fédérations
À ces quatre pôles, il faut ajouter un axe : CIGEDIL (Communication, Information,
Gestion et Didactique des Langues) : 1 EA, et 2 unités universitaires
EA : équipe d’accueil
© P. DUMAS
© OMP
1700 doctorants sont inscrits à l’UPS, répartis dans 11 Écoles Doctorales,
dont 6 pilotées par l’UPS.
Infos en
www.ups-tlse.fr
rubrique “recherche”
a
La science
en images
2012 : Année
internationale
de l’énergie
durable
Lampes à décharge
basse pression.
Une lampe à décharge
basse pression est une
lampe dans laquelle
la lumière est produite
par le passage d’une
décharge électrique
dans une ampoule ou
un tube renfermant
une vapeur métallique
(mercure, sodium) ou
un gaz. L’objectif est
la fabrication de
lampes à décharge
basse pression sur
mesure pour
le diagnostic du
plasma, ces travaux
sont aussi appliqués
à l’éclairage basse
consommation.
Laboratoire : Plasma et Conversion
d’Energie (LAPLACE, unité mixte UPS/
CNRS, Toulouse).
© Photothèque CNRS -VRIGNAUD
François
Téléchargement