novembre 2007 - Université Paul Sabatier

publicité
Paul Sabatier
Novembre 2007
M
a
g
a
z
i
n
e
s
c
i
e
n
t
i
f
i
q
u
e
-
n
u
m
é
r
o
11
Dossiers
L’astrophysique
Les systèmes
embarqués
Avec la
participation de
www.ups-tlse.fr
Délégation
Administration déléguée
Midi-Pyrénées du CNRS
Midi-Pyrénées, Limousin de l’Inserm
édito
Des prix et
des médailles…
On associe de plus en plus la recherche scientifique à
de grands équipements, de gros moyens scientifiques,
des infrastructures…mais il faut rappeler que la qualité
de la recherche dépend en premier lieu de la qualité et
des compétences des hommes et des femmes dont
c’est le métier. De même, alors qu’il n’y a pas de véritable
université sans recherche, la liaison entre la recherche et
l’enseignement, fondement de l’université, se fait par
l’intermédiaire des personnes.
MAGAZINE UPS
N° 11 — NOVEMBRE 2007
Illustration
de couverture :
Aurore boréale de Saturne,
vue depuis le télescope
spatial Hubble
(copyright NASA, ESA)
Directeur
de la publication :
Jean-François Sautereau
Rédacteur en chef :
Daniel Guedalia
Comité de rédaction :
Isabelle Berry
Patrick Calvas
Jean-Pierre Daudey
Daniel Guedalia
Alexandra Guyard
Guy Lavigne
Fréderic Mompiou
Carine Desaulty,
délégation Midi-Pyrénées
du CNRS
Christine Ferran,
administration déléguée
Midi-Pyrénées de l’Inserm
Conseillère de rédaction :
Anne Debroise
Diffusion :
Joëlle Dulon
Coordination dossiers
scientifiques :
Astrophysique :
Sylvie Roques et
Jean-André Sauvaud
Systèmes embarqués :
Jean Arlat
Conception graphique
et impression :
Ogham-Delort
05 62 71 35 35 n°8401
dépôt légal :
Novembre 2007
ISSN : 1779-5478
Tirage : 2000 ex.
Université Paul Sabatier
On entend dire d’habitude que la recherche est un travail
d’équipe, ce qui n’empêche pas de constater que
la plupart des récompenses scientifiques sont attribuées
à des chercheurs individuellement et rarement
à des équipes ; ceci, et malgré la complexité croissante
des travaux, parce qu’il y a toujours un leader.
Nous avons choisi de vous présenter dans ce numéro un
certain nombre de chercheurs de notre université, souvent
de jeunes chercheurs, qui ont été distingués récemment par
des médailles du CNRS, des prix de l’Académie des Sciences
ou des prix européens. A travers eux, ce sont leurs équipes
et l’ensemble de l’université qui se sentent honorés.
On peut espérer que ces récompenses viendront aussi
mettre du baume au cœur à des chercheurs et enseignantschercheurs confrontés à des difficultés dans l’exercice de leur métier et dans le
déroulement de leurs carrières, à un moment où l’organisation de la recherche est soumise
à de fortes turbulences.
Vous trouverez aussi dans ce numéro les rubriques habituelles avec deux dossiers
scientifiques. Ils correspondent à des thématiques où les chercheurs toulousains sont
reconnus parmi les meilleurs au niveau national et international.
Le premier dossier est celui des recherches en astrophysique. C’est un domaine scientifique
parmi les plus anciens (on trouve des traces d’études astronomiques qui datent de
plusieurs milliers d’années). L’objectif de cette discipline est avant tout d’améliorer nos
connaissances sur l’origine de l’univers, sur l’origine de la vie. L’astrophysique est tout
d’abord une science d’observation et les instruments utilisés, depuis le sol ou dans l’espace,
font appel aux dernières avancées de l’optique, de l’informatique, du traitement du signal.
Peu d’applications industrielles sont attendues de ces recherches, sauf dans le domaine des
instruments, ce qui n’empêche pas une forte attirance des jeunes scientifiques pour
l’astrophysique et une grande curiosité du grand public pour ces découvertes.
Le deuxième dossier concerne les recherches sur les systèmes embarqués. C’est,
contrairement au précédent, un domaine où les applications sont présentes à tous les
stades des travaux. Les systèmes embarqués sont en particulier une des clefs du succès des
nouvelles avancées dans les transports terrestres et aéronautiques, ainsi que dans plusieurs
autres secteurs d’activité. Les avancées, dont un certain nombre vous est présenté dans ce
numéro, ont apporté une réelle révolution dans l’automatisation des processus, dans la
sécurité, dans le dialogue homme-machine. Les enjeux économiques sont considérables.
Ces études bénéficient des compétences remarquables et reconnues des équipes
toulousaines des sciences de l’information et de la communication.
Je vous souhaite une très agréable lecture.
118, route de Narbonne
31062 Toulouse cedex 9
Jean-François SAUTEREAU
Président de l’Université Paul Sabatier
sommaire
Dossier :
Astrophysique
4
Vie des laboratoires
12
-
Quand les physiciens se penchent sur l’ADN
Mieux prévoir les orages…
Dans le secret des bactéries transformantes
Un sérieux pas de plus vers l’ordinateur moléculaire
Dossier :
16
24
Les systèmes
embarqués
Prix et médailles
- Des médailles et des prix… 2007
- Deux prix de l’Académie des sciences
à des chercheurs toulousains
Vos encouragements, vos critiques, vos suggestions, une seule adresse :
[email protected]
Vous pouvez consulter et télécharger ce magazine et les numéros antérieurs
sur le site www.ups-tlse.fr (rubrique «Recherche»)
dOSSIER
ASTROPHYSIQUE
L’Astrophysique… de l’origine
de l’univers à l’origine de la vie
C’est un sentiment profondément humain que la curiosité pour notre
univers. C’est elle qui conduit à son étude et à son exploration.
>>> Sylvie ROQUES, directeur de recherche au
CNRS et directrice du Laboratoire
d’Astrophysique de Toulouse Tarbes
(LATT, unité mixte UPS/CNRS).
>>> Jean-André SAUVAUD, directeur de recherche
CNRS et directeur du Centre d’Etudes
Spatiales du rayonnement
(CESR, unité mixte UPS/CNRS).
L’astronomie en tant que science a une
influence directe sur nos vies. Elle traite par
exemple de l’effet du Soleil et de l’inclinaison
de l’axe de rotation de la Terre sur les saisons,
sur les climats, de l’effet de la Lune sur les
marées. Cette science est aussi indispensable
aux systèmes de navigation par satellite qui,
utilisant la gravité, la rotation de la Terre et la
relativité générale, permettent aux avions
d’atterrir et aux balises de détresse d’être
repérées. Par ailleurs, la compréhension de
l’activité solaire, et celle des effets orbitaux de
la Terre sont cruciales pour prédire les
changements climatiques à long terme. De
même, des progrès dans l’observation et la
compréhension du soleil devraient conduire à
prédire les orages solaires et à prévenir leurs
effets sur les satellites, et sur les astronautes en
mission dans l’espace.
Autres mondes
L’astronomie a aussi une immense dimension
culturelle. Elle traite de questions
fondamentales pour l’humanité, telle que
l’origine de l’univers, du temps et de l’espace,
celle de notre galaxie et des étoiles qui la
forment, celle de notre système solaire, de
notre planète et même de la vie. Depuis une
dizaine d’année, en effet, les astronomes ont
entrepris la recherche d’autres mondes au-delà
de notre système solaire, d’autres systèmes
planétaires autour de soleils distants. Il en
résulte une coopération intense entres
astronomes, chimistes et biologistes pour tenter
de comprendre les conditions dans lesquelles la
vie pourrait s’être développée ailleurs et
comment cette vie extrasolaire pourrait être
détectée.
Astronomie et technologie sont étroitement
liées. En effet la nécessité d’accroître toujours la
qualité des mesures, en terme de sensibilité et
de précision, a souvent poussé au
développement de nouvelles technologies avec
un impact sociétal fort. C’est ainsi que les
télescopes optiques et infrarouges au sol ont
des tailles de plus en plus grandes et peuvent
maintenant être installés à des altitudes
extrêmes. Si les télescopes radio, utilisés depuis
le milieu de siècle dernier, ont ouvert une
nouvelle fenêtre sur l’univers, la possibilité
d’utiliser les satellites a permis de couvrir la
totalité du spectre électromagnétique.
Big Bang
L’origine de l’univers est donc la question
essentielle que voudrait résoudre
l’astrophysique. La description des premiers
instants est toujours impossible faute de
théorie. Les cosmologistes utilisent un modèle
dit standard (celui du Big Bang) qui retrace
convenablement l’histoire de l’univers après sa
première seconde, en utilisant la relativité
générale. Avec cependant des lacunes
importantes concernant l’origine de la matière
et de l’énergie noire. En effet toutes les
structures de l’univers organisées par la gravité,
galaxies, amas de galaxies…, sont dominées
par une matière invisible. En outre l’expansion
de l’univers s’accélère avec le temps. Une forme
d’énergie inconnue, dite noire est nécessaire à
cette expansion. Observations et théories sont
confrontées à ce problème, posé depuis une
dizaine d’années, qui révolutionne
l’astrophysique et la physique.
C’est l’astrophysique qui décrit tant le cycle de
la matière dans l’univers que la formation des
étoiles et des planètes. En effet, les réactions
nucléaires à l’intérieur des étoiles sont à
l’origine de l’évolution de la matière dite
‘visible’ de l’univers, permettant la création de
métaux en partant des éléments légers initiaux.
Les éléments les plus lourds sont générés au
moment de l'explosion cataclysmique d'étoiles
massives. L’explosion survient quand l’étoile a
épuisé tout son combustible nucléaire,
provoquant ainsi l'effondrement du coeur et
l’expulsion d'une quantité d'énergie
considérable qui souffle les couches externes de
>>>
page 4
Paul Sabatier — Le magazine scientifique — numéro 11
Astrophysique
dOSSIER
>>> l'étoile, pour ne laisser qu'une étoile à neutron
ou un trou noir. C’est cependant dans le milieu
interstellaire et dans les disques
circumstellaires que se forment les molécules
complexes nécessaires à la vie. Dans ce milieu
interstellaire, immense réacteur chimique, des
molécules organiques se forment au voisinage
des protoétoiles et une branche de
l’astrophysique traite avec des chimistes du
cycle de la matière dans les étoiles et le milieu
interstellaire.
Coopérations internationales
Cet éclairage très partiel, donne une idée de la
complexité de la tâche des astrophysiciens dont
les disciplines couvrent des champs de
connaissance particulièrement vastes et traitent
de sujets allant de l’origine de l’univers, la
formation des étoiles et des planètes jusqu’au
cycle de la matière. Ces disciplines ont besoin
d’une forte structuration et doivent s’appuyer
sur d’intenses coopérations internationales. Au
niveau européen l’astrophysique est structurée
par l’ESO (European Southern Observatory) et
par l’ESA (European Space Agency). Au niveau
>>> Interaction entre deux galaxies, vue par le télescope
spatial Hubble (copyright NASA, ESA).
français, c’est l’INSU (Institut National des
Sciences de l’Univers) qui regroupe et fédère
l’action des laboratoires, avec pour l’espace
le support du CNES (Centre National d’Etudes
Spatiales). A Toulouse, les recherches en
astrophysique se font dans deux laboratoire,
le CESR (Centre d’étude spatiale des
rayonnements) et le LATT (Laboratoire
d’astrophysique de Toulouse-Tarbes),
tous deux unités mixtes du CNRS et de l’UPS.
Contacts : [email protected] et
[email protected]
Les filières de formation dans le domaine
de l’astrophysique
L’Université Paul Sabatier propose à des étudiants issus des licences de
physique une formation de niveau master conduisant à une spécialité
recherche «Astrophysique, sciences de l'espace et planétologie» et à
une spécialité professionnelle « Sciences et techniques spatiales».
La poursuite en thèse s’effectue dans le cadre de l’Ecole doctorale
Sciences de l’univers, de l’environnement et de l’espace (SDUEE,
cohabilitée avec SupAéro) dans un des laboratoires d’astrophysique.
page 5
dOSSIER
Astrophysique
Le champ magnétique,
maillon manquant pour comprendre
la naissance des nouveaux mondes
Comment les étoiles se forment-elles ? Comment les systèmes
planétaires naissent-ils ? Pour le savoir, les astrophysiciens doivent
découvrir la recette que la Nature emploie pour transformer de vastes
nuages cosmiques de gaz en disques d'accrétion, puis en étoiles et en
planètes. Il semblerait que, parmi les ingrédients majeurs, le champ
magnétique figure en bonne place.
>>> Jean-François DONATI,
directeur de recherche CNRS
au Laboratoire d’astrophysique de Toulouse
Tarbes (LATT, unité mixte UPS/CNRS).
L’étoile V2129 Ophiuchi, située dans une des
pouponnières stellaires les plus proches du Soleil, la
constellation d'Ophiuchus, est un candidat idéal pour
étudier ces questions. Bien que presque aussi chaude
que le Soleil et environ 2.5 fois plus grosse que lui
(sa contraction jusqu’à sa taille adulte n'étant pas
achevée), elle est pourtant environ un million de fois
trop peu lumineuse pour être visible à l'oeil nu, du fait
de sa distance à la Terre (420 années-lumière). Elle
n'est âgée que de 2 millions d'années. Ramenée à
l'échelle de la vie humaine, c'est une bébé-étoile d'à
peine quelques jours, qui doit encore passer une année
entière à se contracter pour devenir une étoile adulte
comme le Soleil, accompagnée de son cortège de
planètes.
Les étoiles comme V2129 Oph prennent vie lorsqu'une
portion du nuage moléculaire parent s'effondre sous
son propre poids. Dans ce processus, le globule en
effondrement se met à tourner sur lui-même de plus
en plus vite à la manière d'un patineur sur glace qui
rapproche les bras de son corps. Il se change alors
progressivement en un disque aplati, que l'on nomme
disque d'accrétion, et dont le coeur donne naissance
à la nouvelle étoile tandis que le disque qui l'entoure
engendre les planètes. Cette théorie, proposée à l'origine
par le scientifique Pierre-Simon Laplace, n'est que très
approximative. Elle prédit en particulier que les étoiles
très jeunes doivent tourner très vite sur elles-mêmes,
une propriété qui n'est pas confirmée par les
observations. Il est donc clair qu'il nous manque
certains des ingrédients élémentaires de cette recette.
Jets de matière
L'ingrédient manquant est probablement le champ
magnétique. Les champs magnétiques affectent peu en
effet la vie des étoiles adultes comme le Soleil. Dans les
régions de formation d'étoiles en revanche, les champs
magnétiques sont probablement beaucoup plus
puissants. Grâce à leurs toiles invisibles traversant
les nuages protostellaires, les champs magnétiques
parviennent à contrôler la dynamique des disques
d'accrétion, et à produire de très longs jets de matière
en redirigeant vers le milieu interstellaire une fraction
de la matière du disque. Les champs magnétiques
page 6
>>> Liens magnétiques entre un bébé-étoile et son disque
d’accrétion (vue d’artiste). © Chandra
parviennent également à évacuer les régions centrales
des disques d'accrétion (en contact direct avec l'étoile),
ainsi qu'à guider la matière du bord interne du disque
jusqu'à la surface de la jeune étoile au moyen de “tubes
magnétiques” (comme de la lumière dans des fibres
optiques). Les détails physiques de cette opération
sont essentiels pour comprendre et prédire le destin
d'une étoile et de son cortège de planètes.
C'est en mesurant la polarisation que les champs
magnétiques engendrent dans la lumière de V2129
Oph que les chercheurs ont pu cartographier pour la
première fois les gigantesques arches magnétiques qui
relient la jeune étoile à son disque d'accrétion.
Grâce à leur travail, les théoriciens devraient pouvoir
développer de nouveaux modèles plus précis de la
formation des étoiles et des planètes. Pour cette
découverte, ils ont utilisé le spectropolarimètre
ESPaDOnS installé sur le Télescope Canada-FranceHawaii de 3.6m au sommet du Mauna-Kea, un volcan
éteint de l'archipel d'Hawaii. Depuis Décembre 2006,
le Télescope Bernard Lyot de l’Observatoire du
Pic di Midi est équipé du même instrument (NARVAL)
et assiste ESPaDOnS dans son enquête sur les origines
des étoiles et des planètes.
pour en savoir plus: http://www.ast.obsmip.fr/article.php3?id_article=628
Contact : [email protected]
Paul Sabatier — Le magazine scientifique — numéro 11
Astrophysique
Le milieu interstellaire,
berceau des étoiles
La spectroscopie permet de suivre la transformation des nuages de matière
dans le milieu interstellaire et de mieux comprendre la genèse des étoiles et
leurs cortège de planètes.
>>> Christine JOBLIN, directeur de recherche
au CESR (unité mixte UPS/CNRS).
>>> Charlotte VASTEL, astronome-adjoint
au CESR (unité mixte UPS/CNRS).
La matière interstellaire est composée d’atomes,
radicaux et molécules plus ou moins complexes ainsi
que de très petits grains de poussière de dimensions
sub-microniques. Mais cette matière diluée entre les
étoiles est en constante évolution physico-chimique.
A des phases chaudes et ténues succèdent des phases
très froides et denses qui sont le berceau de la formation
de nouvelles étoiles. Ce sont les détails de cette
évolution que recherche le Centre d’étude spatial
des rayonnements (CESR) au moyen d’observatoires
spatiaux et de dispositifs expérimentaux, dans le cadre
de collaborations largement interdisciplinaires entre
astrophysiciens, physiciens et chimistes.
>>> la nébuleuse de la Trifide observée dans
le visible et dévoilée dans l’infrarouge par
le télescope spatial Spitzer (NASA).
Placenta
Dans les condensations sombres et froides, les grains
coagulent entre eux et les molécules sont en grande
partie collées sur ces grains pour former des manteaux
de glaces moléculaires. Dans les régions plus chaudes et
brillantes soumises au rayonnement UV et visible
des étoiles, les molécules s’évaporent, des grains sont
photodissociées et les grains eux-mêmes évoluent
sous l’action du rayonnement. La spectroscopie, en
particulier dans les domaines de l’infrarouge et du
millimétrique, est l’outil qui permet de suivre les
transformations de cette matière. En effet, d’une part
ces domaines contiennent des signatures caractéristiques
des molécules et des grains et d’autre part, la lumière
visible est bloquée par la poussière alors que les
longueurs d’ondes plus grandes comme l’IR dévoilent
les régions plus denses tels les cocons de poussières,
« placenta » dans lesquels les cœurs pré-stellaires,
embryons d’étoiles, se forment. Dans ces cœurs froids et
denses, la majorité des molécules en phase gazeuse
condensent à la surface des grains et un enrichissement
en deutérium des molécules en phase gazeuse est
observé. Ce sont des ions moléculaires tels H2D+ et
D2H+ (découvert par C. Vastel) qui sont utilisés pour
sonder ces coeurs et en comprendre la chimie. Toutes
ces données spectrales permettent ainsi de tracer les
étapes les plus jeunes de la formation stellaire. Dans un
autre type de régions, là où la matière est chauffée par
le rayonnement UV et visible des étoiles, les données
des télescopes infrarouges ISO et Spitzer ont permis
à notre équipe de caractériser l’évolution des très petits
grains de poussière et leur lien avec les macromolécules
polycycliques aromatiques hydrogénées (PAH) et
la chimie du carbone.
Relier ces observations spectrales aux processus
physico-chimiques mis en jeu nécessite un travail en
page 7
amont reposant sur des expériences de laboratoire et
des calculs théoriques. Ces études comportent un certain
nombre d’enjeux comme l’approche en laboratoire des
conditions d’isolation et de basses températures du
milieu interstellaire (objectif du dispositif PIRENEA au
CESR) et pour les études théoriques, la mise en place
de simulations dynamiques impliquant des nanograins
(travaux en cours au LCPQ (unité mixte UPS/CNRS).
Un domaine inexploré
En 2008, le lancement de la mission spatiale
Herschel-Planck va permettre d’explorer l’Univers
dans les domaines des longueurs d’onde de l’IR lointain
et du sub-millimétrique. Cela permettra de mieux
caractériser l’évolution physico-chimique des grains
à basse température incluant les processus de
coagulation en lien avec les études expérimentales
qui sont menées avec le dispositif ESPOIRS au CESR.
Un autre enjeu sera celui d’identifier les macromolécules
PAH. De plus, les études de spectroscopie du gaz
à (très) haute résolution spectrale avec le spectromètre
hétérodyne HIFI d’Herschel, en partie développé au
CESR sous la direction d’Emmanuel Caux, vont nous
permettre de progresser dans la compréhension de
la formation des étoiles et des systèmes planétaires
en dévoilant un domaine de longueurs d’onde inexploré
à ce jour, car inaccessible depuis les télescopes au sol.
Contacts : [email protected] et
[email protected]
Astrophysique
Un Big Bang
toujours subversif
Les toutes dernières observations semblent confirmer la pertinence du
modèle du Big Bang. Pourtant, celui-ci pourrait amener à remettre à plat tout
un pan de la physique : la relativité générale.
>>> Alain BLANCHARD, professeur UPS,
chercheur au laboratoire d’astrophysique
de Toulouse Tarbes
dOSSIER
(LATT, unité mixte UPS/CNRS).
C’est l’histoire d’un succès. En 1964, la découverte
d’un rayonnement électromagnétique, le fameux
« fond cosmologique » marque l'avènement de la
cosmologie moderne. Il donne un coup d’accélérateur
au modèle du « Big Bang », dont les bases avaient
été posées dès les années 1930, mais qui va dès lors
acquérir un statut de « science établie ». C'est
ce qui conduira le comité Nobel a récompenser
en 1978 les auteurs de sa découverte.
Les progrès au cours des quarante dernières années
ont été particulièrement spectaculaires: l'histoire de
l'univers depuis le premier milliardième de seconde
jusqu'à l'époque actuelle est comprise dans ses
grandes lignes. L'expansion de l'univers est
confortée par de nombreuses observations. Les
abondances des éléments légers (Hélium 4, Hélium
3, Deutérium et Lithium 6) sont en bon accord avec
les observations, même si les processus complexes
au sein des étoiles, peuvent rendre délicates les
comparaisons fines. La mesure détaillée du spectre
du fond cosmologique, effectuée en 1990 par le
satellite COBE et par une expérience à partir
d’une fusée canadienne ont montré que ce spectre
était un corps noir quasi parfait en total accord
avec les attentes.
Ce satellite a par ailleurs permis pour la première
fois de détecter des variations dans le fond
cosmologique. Or, dans les années 1930 Georges
Lemaître avait proposé que les structures qui
peuplent l'univers actuel (galaxies, amas de galaxies,
structures plus grandes encore dont la taille se
>>> Traduction en intensité de couleur des variations
d'intensité de la carte céleste du rayonnement cosmologique.
Ces variations sont infimes: typiquement 0.001%. Elles sont
essentiellement dues aux fluctuations primordiales, ces
compte en centaines de millions d'années lumière)
étaient le résultat de la concentration sous l'effet
de la gravitation de structures initialement plus
beaucoup ténues. L'image fournie par COBE
d’un fond cosmologique dont la densité varie
colle admirablement avec cette proposition. Les
fluctuations seraient alors les ancêtres des structures
actuelles et le fonds cosmologique donnerait à voir
l'univers tel qu'il était il y a environ 14 milliards
d'années, quelques 350 000 ans après le
« Big Bang ».
Univers incroyable
Cerise sur le gâteau, les fluctuations du fond
cosmologique possèdent les caractéristiques
attendues. Ce sont ces résultats qui valurent à
Georges Smoot et John Mather le prix Nobel de
physique en 2006. Pourtant le modèle d'univers
qui a aujourd'hui la faveur de la quasi totalité des
cosmologistes est un univers vraiment « incroyable ».
L'essentiel de ce qui constitue les grands objets de
l'univers, galaxies, amas, grandes structures est en
effet constitué d’une matière inconnue sur Terre :
une matière qui n'est pas constituée d'atomes, peut
être des particules encore inconnue des accélérateurs,
et dont seule l'action gravitationnelle est perceptible.
Cette perspective a largement contribué à faire
de la cosmologie un champ au carrefour de
l'astrophysique, de la physique des particules et
de la physique théorique.
Une autre conclusion, plus spectaculaire s’est
imposée depuis une dizaine d'années : il existe à
l'échelle de l'univers une force répulsive. Ceci fut
une surprise totale, car à l’échelle de l’univers,
c'est la gravitation qui domine, or celle-ci est
toujours attractive. La présence de cette force qui
produit une accélération de l'expansion de l'univers
(et non une décélération comme on s'y attendait)
nécessite une révision extrêmement profonde de la
physique fondamentale: soit qu'un nouvel élément
contribue de façon dominante au bilan
gravitationnel de l'univers (il pourrait s'agir tout
simplement du vide!), soit d'une façon plus radicale
qu'il faille revoir la relativité générale...
variations minimes de la densité de l'univers quand celui ci
était âgé de seulement 350 000 ans, époque la plus reculée
qui soit accessible à l'observation....
page 8
Contact : [email protected]
Paul Sabatier — Le magazine scientifique — numéro 11
Astrophysique
Au plus près
des trous noirs
L’observation des photons de haute énergie permet d’étudier les phénomènes
les plus violents de l’univers : les émissions de rayons X et gamma impliquant
des étoiles à neutrons ou des trous noirs.
>>> Jean-Juc ATTEIA, astronome au Laboratoire
d’Astrophysique de Toulouse Tarbes (LATT,
unité mixte UPS/CNRS) et Jean-Pierre ROQUES,
directeur de recherche au CNRS, au Centre
d’études spatiales du rayonnement
(CESR, unité mixte UPS/CNRS).
L'observation de la voûte céleste dans le domaine des
rayons X et gamma (de quelque kilo électron-Volt à
quelque Méga électron-Volt) nous fait approcher au
plus près des astres compacts – étoiles à neutrons et
trous noirs – et de comprendre les processus physiques
associés aux très grands transferts d’énergie.
Toutefois, notre atmosphère étant opaque aux photons
de haute énergie, les instruments utilisés doivent être
placés à bord de ballons stratosphériques ou de
satellites. Le CESR a, depuis sa création en 1963, été
un des leaders pour la conception et la réalisation de
tels instruments. Le lancement du télescope Sigma en
1989 marque notamment une étape majeure pour le
développement de l'astronomie gamma. Une nouvelle
étape a été franchie en 2002 avec le lancement, à bord
de la mission Integral (de l’agence européenne ESA),
sous la responsabilité du CESR, du spectromètre SPI,
toujours en fonctionnement, qui donne accès à la
haute résolution spectrale grâce à 20 kg de détecteurs
en Germanium refroidis à 80 Kelvin.
Quelques secondes d’émission
Les émissions X et gamma sont très souvent variables,
parfois même elles ne durent que quelques secondes,
pendant lesquelles la source émet une énergie
comparable à celle rayonnée par le Soleil durant toute
sa vie. Les chercheurs du CESR et du LATT collaborent
étroitement pour observer ces sources de façon
coordonnée depuis le sol (en visible) et l’espace, par
exemple en utilisant des télescopes entièrement
robotisés qui se pointent en quelques secondes en
direction des sources signalées par les satellites
(observatoire TAROT).
>>> Une vue en coupe du télescope SPI.
L’interprétation scientifique de ces observations nous
apporte un éclairage unique sur plusieurs processus
clefs de l’Univers. Ainsi, le champ de gravitation
intense qui existe à proximité des objets compacts –
trous noirs et étoiles a neutrons – en accélérant la
matière permet d'atteindre des densités extrêmes.
Il se crée donc des plasmas qui sont le siège de
mécanismes associés aux très grands transferts
d'énergie, avec des densités de rayonnement
exceptionnelles. Nous disposons donc là de
“laboratoires naturels” permettant d'étudier le
comportement des particules dans des conditions
bien éloignées de ce que l'on peut produire dans les
accélérateurs terrestres les plus puissants. En outre,
page 9
>>> Les 19 détecteurs germanium
du télescope SPI en cours de test.
l'observation de raies gamma nucléaires émises par
les éléments créés lors de l'explosion d'une étoile
permet de comprendre comment les éléments lourds
apparaissent dans l'Univers. L'observation de la raie
d'annihilation électron-positron témoigne quand
à elle d'une quantité importante d'antimatière
dans la Galaxie, dont l’origine demeure à ce jour
incomprise. Enfin, l'observation du rayonnement
diffus permet d'étudier les régions d’accélération
des rayons cosmiques et le rôle du champ magnétique
diffus de notre Galaxie.
Missions spatiales
Ce domaine affiche un beau dynamisme. Plusieurs
instruments sont ainsi en préparation pour deux
missions spatiales pour la décennie 2010-2020.
> Le projet SVOM, en collaboration avec la Chine,
a pour objectif de surveiller depuis l’espace des
explosions stellaires donnant naissance à un trou noir,
connues sous le nom de sursauts gamma.
> Le projet Simbol-X, développé par le CNES et
l’agence spatiale italienne, utilisera la technique
du vol en formation pour positionner deux satellites
à une distance de 30 m permettant de construire un
instrument à grande distance focale. Cet instrument,
destiné principalement à l’étude des objets compacts,
va lever le voile sur les régions les plus proches
des trous noirs.
Contacts : [email protected] et [email protected]
Astrophysique
Soleil-Terre :
une relation privilégiée
Le magnétisme solaire a une influence sur la Terre et tout particulièrement
dans le développement des technologies modernes de communication et
d’exploration spatiale.
>>> Christian JACQUEY, maître de conférences
à l’UPS, chercheur au Centre
d’études spatiales du rayonnement
(CESR, unité mixte UPS/CNRS) et
Fréderic PALETOU, astronome au Laboratoire
d’astrophysique de Toulouse Tarbes
(LATT, unité mixte UPS/CNRS).
Le Soleil, une d’étoile « banale » ? Certes, c’est une
étoile à maturité, plus aussi turbulente qu’une jeune
étoile, mais sa proximité avec notre terre en fait une
étoile très particulière ! Les astronomes peuvent non
seulement l’observer et l’étudier avec un niveau de
détails incomparable, mais son influence se fait aussi
directement sentir dans notre environnement
immédiat.
C’est ainsi que le Soleil envoie un flux continu de
particules chargées dans le milieu interplanétaire.
Ce vent solaire rencontre sur son passage les divers
obstacles du système solaire et en particulier notre
planète. Il est le siège de tempêtes spatiales parfois
violentes, dangereuses tant pour les systèmes
embarqués que pour les spationautes. Elles résultent
de l'éjection explosive de grandes quantités
de matière provenant de la couronne solaire.
Ces éjections de masse coronale (ou CME) sont le plus
souvent associées à l’éruption de protubérances
solaires, dans lesquelles le champ magnétique
jouerait un rôle majeur.
Le champ magnétique des protubérances solaires est
étudié par spectrométrie par l’équipe « magnétisme
solaire et stellaire » du LATT. Cette méthode
d’observation repose sur l’exploitation du télescope
franco-italien THéMIS installé sur l’ile de Tenerife
(Canaries, Espagne). Cet instrument permet des
observations uniques au monde tant du point de vue
de leur couverture spectrale que de la qualité de la
mesure polarimétrique et de la capacité à observer
des objets de faible intensité, les protubérances,
vues au bord du disque solaire.
Orages magnétiques
Les magnétosphères planétaires résultent de
l'interaction du vent solaire avec les obstacles
magnétisés (Terre, Mercure, Jupiter, Saturne, …).
Elles constituent des cavités magnétiques creusées,
gigantesques, compressées du côté jour et très étirées
du côté nuit. La magnétosphère terrestre s’étire ainsi
sur plus de 6 millions de kilomètres.
La dynamique de la magnétosphère terrestre dépend
essentiellement des conditions du milieu
interplanétaire. Dans certaines conditions en effet,
deux phénomènes peuvent se coupler : le vent solaire
fournit de l'énergie à la magnétosphère qui
l'accumule pour la dissiper lors des passages
page 10
>>> Aurores terrestres vues du sol.
des orages magnétiques. Au cours de ceux-ci, des
particules sont fortement accélérées et précipitées
le long du champ magnétique sur l'atmosphère
produisant alors de magnifiques aurores boréales
dans les régions des hautes latitudes.
Ces précipitations, associées à la génération
de courant dans l'ionosphère, perturbent
énormément les activités humaines, notamment
les communications radios ou GPS ainsi que de
la distribution de l'énergie électrique ou des réseaux
de pipe-lines.
L'étude du magnétisme solaire, du vent solaire,
des magnétosphères constitue la base sur laquelle
s'établit la météorologie de l'espace qui est
devenue incontournable dans le développement
des technologies modernes de communication et
de l'exploration spatiale.
Les progrès instrumentaux apportent des données
de plus en plus complexes et volumineuses. Afin de
valoriser l’exploitation de ces observations, l’OMP
héberge deux grands centres des données à vocation
internationale, la base de données solaires, BASS
2000, et le Centre de Données de Physique
des Plasmas, le CDPP.
Contacts : [email protected] et
[email protected]
Paul Sabatier — Le magazine scientifique — numéro 11
Astrophysique
Observer
l’univers
L’astrophysique progresse grâce à des observations de mondes de plus en plus
éloignés. Une observation possible grâce à des instruments de plus en plus
sensibles…
>>> Peter Von BALLMOOS, professeur à l’UPS,
chercheur au CESR (unité mixte UPS/CNRS).
L’astrophysique est avant tout une science
d’observation. Pour l’univers lointain, cette observation
repose d’abord sur la mesure de messagers : photons et
particules de très grande énergie. Les détecteurs
utilisés convertissent le plus souvent des quantités
de mouvement en charges électriques mesurables.
C’est l’ensemble détecteur-électronique qui constitue
le capteur astrophysique. Son étude et sa réalisation
impliquent la mise en œuvre de savoirs-faire variés
puisqu’ils impliquent physiciens du solide, des
opticiens, des mécaniciens, des instrumentalistes et
des électroniciens. A l’Université Paul Sabatier,
le CESR, et le LATT, sont acteurs reconnus
respectivement de l’instrumentation des missions
spatiales et des grands observatoires au sol.
Interaction avec l’industrie
La photo-détection recouvre un vaste domaine
spectral, de la radio aux rayons gamma de hautes
énergies. Les différentes plages sont couvertes par des
techniques spécifiques qui parfois se recouvrent.
Nos laboratoires sont impliqués dans tout le spectre de
photo-détection, hormis le domaine hertzien. La
complexité des expériences et la diversité des capteurs
ont amené les chercheurs à de fortes interactions avec
l’industrie. La contribution des laboratoires repose sur
la maîtrise de la physique des capteurs, la conception
des systèmes dans leur intégralité, leur qualification,
leur prototypage, leur calibration, ainsi que leur
intégration sur satellite et au sol. Ces développements
instrumentaux très complexes ont conduit le CESR et
le LATT à faire partie de réseaux de laboratoires
développant comme eux de l’instrumentation
astrophysique.
Concernant l’instrumentation des observatoires situés
au sol, il faut signaler l’expertise unique au monde
dans le domaine de la spectropolarimétrie qui a permis
de développer l’instrument ESPADONS sur le grand
télescope d’Hawaii et son frère NARVAL au Pic du
Midi (voir article page 6 de ce dossier)
>>> Le télescope spatial HERSCHEL
sera lancé en juillet 2008; Il observera
le ciel infrarouge et submillimétrique.
Dans le domaine allant de l’infrarouge lointain au
millimétrique les bolomètres refroidis à très basse
température (T< 300 mK) sont les détecteurs plus
sensibles. Pour améliorer encore la sensibilité des
capteurs, les efforts portent sur la réalisation de
matrices de bolomètres, associées à des antennes
page 11
qui collectent l’énergie de l’onde électromagnétique et
la guide vers les bolomètres. La disposition des
antennes permet de sélectionner la polarisation.
Ces dispositifs sont associés à des télescopes spatiaux
refroidis (missions spatiales HERSCHEL, PLANCK,
PILOT).
Vol en formation
Pour le rayonnement X et gamma les photons sont
détectés grâce à la collection des charges qu’ils
induisent à leur traversée de semi-conducteurs.
Tandis que le succès des télescopes à rayons X est basé
sur l’utilisation de miroirs à incidence rasante
(p.e. XMM/NEWTON), il était généralement admis
qu’il était impossible de réfléchir ou réfracter les
rayons gamma du fait de leur longueur d’onde
extrêmement courte. Jusqu’à présent, l’astronomie
gamma se servait des principes de l'optique
géométrique (masques codés comme les télescopes
spatiaux SIGMA,SPI/INTEGRAL) ou de l'optique
quantique (télescopes Compton spatiaux comme
CGRO/COMPTEL). Pour réaliser des instruments
ayant une sensibilité au moins 30 fois meilleure que
celle des télescopes actuels, on étudie
la focalisation des rayons gamma depuis une grande
surface de collection vers un détecteur de faible
volume. L’utilisation de deux satellites volant en
formation, l’un emportant l’optique, l’autre emportant
le détecteur focal, devrait permettre de réaliser un
télescope de plusieurs dizaines voire centaines de
mètres de focale. En astronomie X, il devient nécessaire
de focaliser des rayons X de plus en plus haute énergie
impliquant également des distances focales très
importantes. C’est pourquoi, des projets basés sur
le vol en formation ont récemment été étudiés par
le CNES. Une mission de ce type devrait voler
dans la prochaine décade (SIMBOL-X).
Contacts: [email protected] et
[email protected]
Vie des
laboratoires
Vie des laboratoires
>>> Nicolas DESTAINVILLE,
maître de conférences UPS,
Manoel MANGHI,
maître de conférences UPS et
John PALMERI, CR CNRS,
auteurs de l’article et chercheurs
au laboratoire de Physique Théorique
(LPT, unité mixte UPS/CNRS).
>>> Fraction de paires de bases ouvertes
en fonction de la température pour un ADN
synthétique [un brin est constitué uniquement
de bases adénine (A), l'autre thymine (T)].
Les symboles correspondent aux points
expérimentaux et la courbe théorique est
ajustée avec seulement 2 paramètres.
Les configurations typiques d'un ADN
double-brin sont schématisées pour
différentes températures montrant les
différentes “étapes” de sa dénaturation.
page 12
Quand les physiciens
se penchent sur l’ADN
L’ADN intéresse de plus en plus les physiciens. Nicolas Destainville, chercheur au
LPT, teste un modèle statistique de dénaturation à l’IPBS, laboratoire des sciences
de la vie.
➜ Vous étudiez la physique de l’ADN.
De quoi s’agit-il ?
En France, l’intérêt pour la « matière molle »
a pris son essor autour de Pierre Gilles de Gennes.
Le développement d’outils capables d’accéder aux
échelles nanométriques a en outre donné des
perspectives passionnantes aux physiciens, qui ont
enfin accès à ces échelles d’espace, soit pour y tester
des développements théoriques de la matière molle
parfois anciens, soit pour proposer de nouveaux
paradigmes susceptibles de rendre compte des
expériences. Les physiciens s’intéressent beaucoup
à la double hélice d’ADN. Pour eux, elle est bien
souvent vue comme un simple polymère en solution.
Ce système-modèle isolé de la complexité du milieu
biologique permet d’étudier les propriétés physiques
et mécaniques de l’ADN et de comprendre certains
des mécanismes fondamentaux. Comprendre la
physique de l’ADN et de sa dénaturation, c'est-àdire la séparation en deux brins de la double hélice,
est un défi important dans la compréhension des
systèmes vivants, puisque de nombreux mécanismes
biologiques, comme la condensation de l’ADN,
la réplication, la transcription ou la fixation
de protéines en dépendent intimement.
➜ Vos récents travaux, publiés dans Physical
Review Letters, s’intéressent aux « bulles de
dénaturation de l’ADN ». Qu’est-ce que c’est ?
On pourrait imaginer que les deux brins qui
forment une molécule d’ADN se séparent à partir
de leurs extrémités, tels les deux côtés d’une
fermeture éclair. Mais sous l’effet de la
température, le double brin d’ADN peut aussi
spontanément s’ouvrir en son milieu, c’est le
processus de dénaturation. Lorsque cette séparation
se produit sur de nombreuses bases successives,
l’ouverture de ces paires de bases occasionne ce que
l’on nomme une bulle de dénaturation. Les deux
brins simples alors formés sont près de cinquante
fois moins rigides que l’ADN double brin. Ils
peuvent donc se tordre et
se déformer considérablement en prenant de
nombreuses configurations qui s’opposent
à la recombinaison des brins et à la disparition
de la bulle.
➜ Et vous avez étudié ces déformations ?
Avec mes collègues John Palmeri et Manoel
Manghi, nous avons analysé l’effet de la
température sur la géométrie du polymère d’ADN et
sur l’appariement des bases. Le modèle statistique
que nous proposons relie explicitement la
température de dénaturation (au-dessus de laquelle
le double brin s’ouvre entièrement) aux paramètres
microscopiques. Il permet également de déterminer
la taille typique de l’ADN en fonction de la
température, qu’il soit étiré ou en pelote.
Ces prédictions permettront de tester notre modèle
en le confrontant aux mesures expérimentales de ces
grandeurs physiques. Des expériences sont en cours
à l’Institut de pharmacologie et de biologie
structurale (IPBS, unité mixte UPS/CNRS).
➜ Vous collaborez donc avec des biologistes de
l’université Paul Sabatier dans ce domaine ?
Bien sûr ! Avec Laurence Salomé et ses
collaborateurs de l’IPBS et l’équipe de Mick
Chandler au Laboratoire de microbiologie et de
génétique moléculaires (unité mixte CNRS/UPS),
nous essayons de développer une vraie synergie
entre biologistes et physiciens. Nous co-encadrons
d’ailleurs avec Laurence Salomé et Chantal Lebrun
une thèse sur les membranes biologiques dans le
cadre du projet MEMBIOPHYS, soutenu par le
conseil scientifique de l’UPS. Je suis moi-même
actuellement à l’IPBS pour une durée de six mois,
en délégation CNRS.
Contact : Nicolas.destainville@irsamc.
ups-tlse.fr
Paul Sabatier — Le magazine scientifique — numéro 11
Vie des laboratoires
Mieux prévoir
les orages…
Avec son équipe du laboratoire d’Aérologie, Evelyne Richard a participé pendant l’été 2007 à une grande campagne internationale dans le but de mieux
comprendre les orages intenses et pouvoir ainsi contribuer à leur prévision.
>>> Evelyne RICHARD, Directrice de Recherche
CNRS au Laboratoire d’Aérologie
(LA, unité mixte UPS/CNRS).
➜ Quel est le contexte général de cette
campagne COPS ?
Initialement la campagne COPS a émergé d’une
initiative allemande. Le projet s’est vite
internationalisé et a fait appel à de nombreuses
ressources européennes mais aussi américaines.
Le choix de la zone d’étude, la région des Vosges et
de la Forêt Noire, région transfrontalière, a bien sûr
contribué à motiver une forte participation
française.
➜ Quels moyens ont été déployés ?
Nous avons bénéficié d’une flotte de cinq avions de
recherche dont deux Falcons français et allemand,
équipés de lidars embarqués et permettant la
mesure de la vapeur d’eau. Ces avions ont travaillé
de façon coordonnée avec un ensemble de mesures
positionnées au sol (radiomètres, lidars, radars,
profileurs de vent, …). Notre but était d’acquérir
une cartographie aussi détaillée que possible
de tous les paramètres conduisant à la genèse
des orages.
➜ Quelle est la difficulté majeure dans cette
appréhension des précipitations intenses
liées aux orages ?
Les orages sont des phénomènes rapides et intenses
qui sont particulièrement mal prévus. Leur
déclenchement, leur trajectoire, leur durée de vie
sont sensibles à la stabilité de l’atmosphère bien sûr
mais aussi à la structure à petite échelle de la
topographie sous jacente ou encore à celle des
champs de température et d’humidité de surface.
Les modèles actuels ont une résolution insuffisante
pour décrire correctement la topographie, les pics
de relief y sont trop lisses, les vallées étroites
complètement gommées. Leur capacité de prévision
est par ailleurs très limitée par une connaissance
imprécise de l’état de la surface et de l’état
atmosphérique initial.
>>> L’avion français de recherche
Falcon 20 opéré par le groupement SAFIRE
(Météo-France/CNRS/CNES).
➜ Quelle a été la contribution
de votre équipe ?
Nous sommes avant tout un groupe de
modélisation. Naturellement, notre première
contribution s’est inscrite dans ce domaine
d’activité. Pendant la campagne, nous avons
page 13
mis en œuvre une chaîne de prévision opérationnelle
à résolution kilométrique basée sur le code de
recherche Méso-NH que nous avons développé en
collaboration avec Météo-France. Ces prévisions ont
servi à guider la campagne et notamment à définir
au jour le jour les missions des avions et le mode
opératoire des différents instruments. Une seconde
contribution importante de notre équipe a été de
coordonner l’ensemble de la contribution française
et de veiller à son insertion optimale dans le
dispositif international.
➜ Peut-on dire que le code numérique
que vous utilisez se place parmi les plus
performants au monde pour ce type
de recherches ?
Notre code appartient à la petite dizaine de modèles
numériques capables d’effectuer des prévisions
météorologiques à très fine échelle. Il a en outre des
atouts propres comme celui de pouvoir combiner des
simulations très détaillées de systèmes nuageux et
de qualité de l’air.
➜ Satisfaite des résultats obtenus ?
La campagne s’est extrêmement bien déroulée.
Le fonctionnement des instruments a été presque
parfait, ce qui est une vraie gageure pour les
campagnes de terrain. Mon seul regret est que l’été
2007 ait été aussi atypique. Nous avons connu un
été anormalement froid où les orages isolés ont été
plutôt rares. En revanche, les situations de
convection frontales ont été pléthoriques. Sur
ce thème, nous disposons d’une base de données
d’une richesse et d’une variété sans précédent.
Contact : [email protected]
Vie des laboratoires
Dans le secret des bactéries
transformantes
Certaines bactéries sont capables de capturer l’ADN présent dans leur
environnement et d’acquérir ainsi de nouvelles compétences. Jean Pierre Claverys,
chercheur au LMGM ausculte ce curieux mécanisme.
>>> Jean-Pierre CLAVERYS, directeur de
recherche CNRS (responsable de l’équipe
‘‘Transformation bactérienne & plasticité
génétique’’) et Patrice Polard, directeur de
recherche CNRS (responsable de l’équipe
‘‘Assemblages moléculaires et dynamique
du génome des bactéries’’), chercheurs au
Laboratoire de Microbiologie et Génétique
labos
Moléculaires (LMGM, unité mixte UPS/CNRS)
avec leurs équipes.
➜ Quelles sont les conséquences de la
transformation de l’ADN d’une bactérie ?
Un certain nombre de ses propriétés vont changer.
La majorité des bactéries ont un seul chromosome.
Quand des fragments d’ADN, prélevés dans le milieu
extérieur, rentrent dans la cellule, ils peuvent,
à l’issue d’un certain nombre d’étapes, remplacer
physiquement un morceau d’ADN du chromosome
récepteur. Il y a transformation à partir du moment
où le fragment qui a été intégré dans le chromosome
récepteur porte des informations qui diffèrent de
l’information génétique initialement présente dans
la bactérie. Pour les bactéries, la transformation est
une forme de sexualité rudimentaire sans gamète
(spermatozoïde ou ovule) n’impliquant qu’un seul
partenaire vivant (la bactérie réceptrice), l’autre
étant réduit à sa plus simple expression
(de l’ADN en solution).
➜ Que nous a déjà apporté, par le passé,
l’étude de S. pneumoniae ?
Cette bactérie est connue du grand public sous le nom
de pneumocoque. C’est un pathogène majeur,
responsable notamment de pneumonies, et donc
étudié pour sa virulence depuis Louis Pasteur.
La transformation de cette bactérie-là découverte
dans les années 30-40, a conduit à l’identification de
l’ADN comme support du matériel héréditaire,
et donc au fondement de la biologie moléculaire
moderne.
➜ Qu’apporte votre étude, à cette réflexion,
publiée dans la revue « Cell » en septembre
2007 ?
Depuis 2001, trois équipes ont participé à cette
étude multipartite: des chercheurs du Laboratoire
de microbiologie et génétique moléculaires de
l’Université Paul Sabatier, du Laboratoire de
génétique microbienne de Jouy-en-Josas, et du
Laboratoire interactions moléculaires et cancer
de l’Institut de cancérologie Gustave Roussy.
Nous étudions les processus moléculaires qui
amènent à cette transformation, ce qui nous
a permis de caractériser le rôle de la protéine DprA.
On ne connaissait jusqu’ici aucune des activités de
cette protéine très largement conservée dans le
monde bactérien (présence dans plus de 80% des
espèces dont le génome a été séquencé), tout en lui
page 14
>>> Modèle de transformation bactérienne.
Au cours de la transformation, l’ADN présent à l’extérieur
(OUT) sous forme double brin (dsDNA) pénètre dans la
bactérie (IN) sous forme simple brin (ssDNA). Il est pris en
charge par la protéine DprA qui permet le recrutement de
la recombinase RecA pour former un nucléofilament
mixte contenant les deux protéines.
soupçonnant un rôle important puisque son absence
interdit la transformation du pneumocoque.
➜ Quel rôle exact joue la protéine DprA ?
L’une des problématiques de la transformation de
la bactérie est la présence d’un ADN exogène qui doit
rentrer dans la cellule. Lors du processus d’entrée, un
seul des deux brins qui constituent la molécule d’ADN
pénètre dans la cellule. Pour que la transformation ait
lieu, cet ADN doit ‘’retrouver sa place’’ dans le
chromosome récepteur puis remplacer physiquement
l’un des brins d’ADN de la bactérie réceptrice. Cette
opération extrêmement précise nécessite l’intervention
d’une protéine spécifique de la recombinaison, la
protéine RecA (universellement conservée dans le
monde bactérien). Nous avions précédemment montré
qu’en l’absence de la protéine DprA, l’ADN entrant
était rapidement dégradé. Nos derniers résultats
montrent que la protéine DprA est capable de se fixer
sur l’ADN entrant et permet alors l’accès de la
protéine RecA à cet ADN. Ils révèlent donc qu’au-delà
d’un rôle de protection, la protéine DprA joue un rôle
actif en facilitant l’intervention de la protéine RecA
requise pour la formation des recombinants
(des transformants). C’est une étape supplémentaire
dans la compréhension d’un processus qui joue un rôle
central dans l’évolution génétique des bactéries et dans
leur capacité à s’adapter aux changements de leur
environnement.
Contact: [email protected] et
[email protected]
Paul Sabatier — Le magazine scientifique — numéro 11
Vie des laboratoires
Un sérieux pas de plus
vers l’ordinateur moléculaire
Azzedine Bousseksou, directeur de recherche au Laboratoire de Chimie de
Coordination, a fait cinq fois la couverture de plusieurs journaux scientifiques
internationaux depuis 2005 (1). Au cœur de ses recherches, les composés bi-stables.
>>> Équipe Matériaux
Moléculaires Commutables.
➜ Qu’est-ce que que cette bi-stabilité
qui suscite tant d’intérêt ?
On connaît depuis longtemps des composés
moléculaires « bi-stables » existant dans deux
« états de spin » stables, et capables de basculer
de l’un à l’autre. Notre première couverture en
2005 révélait la possibilité de provoquer de manière
réversible cette commutation à température
ambiante par une impulsion laser ultra-rapide
de 8 nanosecondes.
➜ Cette découverte a-t-elle conduit
à un brevet ?
Jusqu’ici, les tentatives de mise en forme de
matériaux bi-stables par dépôt sur une surface
avaient été vouées à l’échec car les interactions
entre la surface et le matériau déposé conduisaient
irrémédiablement à la perte de cette bi-stabilité,
propriété intrinsèque et fragile du matériau
moléculaire.
Récemment, nous avons breveté un procédé
qui consiste à déposer sur la surface une couche
d’ancrage composée de molécules mercaptopyridines
fixées sur la surface par leurs atomes de soufre,
tandis que les atomes d’azote pointés vers le haut
vont servir de points d’ancrage pour construire
ensuite séquentiellement (couche par couche)
le complexe métallique polymérique tri-dimensionnel
par auto-assemblage. L’expérience montre que
le matériau ainsi isolé de la surface conserve
la propriété de bi-stabilité.
Nous avons alors appliqué une méthode de
lithographie électronique mise au point au LAAS
par l’équipe de Christophe Vieu pour organiser
ce matériau sous la forme d’un réseau de plots
nanométriques de 30nm de diamètre espacés
de 200 nm. Ce sont ces avancées que l’on retrouve
sur les couvertures des périodiques scientifiques
dont vous parliez.
➜ Quelles applications peut-on envisager
pour ces systèmes ?
Sachant que ces plots peuvent passer de l’état
« off » (bas spin) à l’état « on » (haut spin) sous
l’effet d’une impulsion, ils deviennent capables
de stocker une information, ce qui ouvre la voie
à la conception de mémoires d’ordinateurs de haute
densité. Il faut savoir que la limite actuelle
page 15
>>> Photographie au microscope électronique d'un réseau
de plots de 30 nm de diamètre espacés de 200 nm.
Chaque plot est constitué d'un matériau moléculaire
à transition de spin dont la structure moléculaire est
schématisée dans l'insert.
de 30 nm dans la taille de ces bits est seulement
celle de la détection du signal, et non celle de la
réalisation des plots, qui peuvent être de taille
encore inférieure. Il devient donc possible d’abaisser
la limite de miniaturisation des composants
électroniques conventionnels. Nous envisageons
de la même manière la mise en forme de matériaux
type « bleu de Prusse » pour lesquels on pourra
étudier en plus de la bi-stabilité les transferts
d’électrons et la modulation de la conductivité
par la distance entre les plots.
En outre, avec le progrès des techniques de
nanolithographie, il est également possible
d’organiser ces matériaux non plus en plots,
mais par exemple en lignes régulièrement espacées
constituant des réseaux optiques capables
de diffracter la lumière et adressables à volonté.
Ces travaux sont un sérieux pas de plus vers
l'ordinateur moléculaire et les composants
nanoélectroniques et optoélectroniques.
(1) : Angewandte Chemie International Edition (2005 et
2006), Advanced Materials (Juillet 2007), J. Phys. Chem. A
(Aout 2007), Chemical Physics Letter (Octobre 2007)
Contact: [email protected]
SYSTÈMES
EMBARQUÉS
Technologie de pointe ou
du quotidien : les systèmes
embarqués sont au cœur
d’applications sensibles
C'est un des points forts de la recherche toulousaine: sa coopération avec
l'industrie pour la conception de systèmes embarqués, que ce soit dans les
avions, dans les voitures ou dans les téléphones portables.
>>> Jean ARLAT, Directeur de recherche CNRS,
dOSSIER
au LAAS, unité CNRS, associée à l’UPS.
On les appelle aussi des systèmes « enfouis ».
Les systèmes embarqués, sont des systèmes
électroniques et informatiques autonomes,
construits pour effectuer des tâches précises.
Cette autonomie nécessite qu’ils soient capables
d’interagir avec leur environnement et de gérer
leurs ressources disponibles (puissance de
traitement, capacité de stockage, énergie, etc.).
On trouve des systèmes embarqués partout.
Au-delà du militaire, de la production de l’énergie,
du spatial, de la productique, de tels systèmes sont
aussi largement déployés dans les transports :
aérien, routier, ferroviaire, naval. Dans ces
domaines où l’erreur peut avoir de graves
conséquences, le processus de développement est
particulièrement rigoureux — tant des
composants matériels et logiciels que de leur
interconnexion — mettant de plus en plus en jeu
des techniques formelles. La sûreté de
fonctionnement est aussi obtenue en incorporant
des mécanismes de détection d’erreur et de
reconfiguration en ligne permettant d’améliorer
la résilience des comportements. Lorsqu’une
faute survient, qu’elle ait été anticipée,
simplement prévisible, ou même non prévue
(perturbations physiques, activation de bogues,
méprises,…) le système doit être capable de se
remettre en route.
Intelligence ambiante
Mais les systèmes embarqués pénètrent de plus
en plus la vie quotidienne, et ce, bien au-delà
de la bureautique : la téléphonie mobile, la santé,
la domotique, l’assistance aux personnes, la
monétique, les jeux, etc. L’autonomie est d’autant
plus difficile à réaliser dans ces domaines que
les systèmes sont introduits au milieu d’un grand
nombre de dispositifs numériques qui
interagissent simultanément entre eux ou avec
les infrastructures fixes (Internet). Par ailleurs, ces
applications doivent tenir compte des interactions
potentielles des individus avec de tels dispositifs,
interactions souvent inconscientes (et donc pas
forcément maîtrisé). En plus de la problématique
liée aux fautes accidentelles qui a été évoquée
plus haut, ce contexte « d’intelligence ambiante »,
largement ouvert, évolutif et hyper-communicant,
génère d’autres types de menaces, comme le déni
de service, le vol d’identité, ou encore l’atteinte
à la vie privée.
Les laboratoires toulousains sont bien placés au
niveau international dans la recherche et la
proposition de solutions bien adaptées (c’est-à-dire,
à la fois novatrices et viables) pour relever les
principaux défis associés à l’essor des systèmes
embarqués destinés à des applications critiques.
Trois laboratoires phares sont à mentionner :
l’Institut de Recherche en Informatique de
Toulouse (IRIT, unité mixte UPS/CNRS/INP/UT1),
le Laboratoire d’Analyse et d’Architecture des
Systèmes (LAAS, unité propre CNRS, associée
à l’UPS) et le Centre de Toulouse de l’ONERA.
Le contexte industriel, fortement axé autour
du spatial, de l’avionique, de l’automobile et
du ferroviaire fournit un cadre privilégié pour
le développement de ces travaux et leur
exploitation.
Collaboration industrie-recherche
De nombreuses coopérations industrie-recherche
ont été mises en place sur cette thématique avec
le soutien du Conseil Régional de Midi-Pyrénées.
On peut citer le caractère pionnier du premier
laboratoire commun français MIRGAS (MIxed
Research Group Automotive System) créé en 1991
entre Siemens Automotive et le CNRS (LAAS, LEEI et
IMFT) sur différentes problématiques liées à
l’automobile. Une autre forme de collaboration
exemplaire a été développée dans le cadre du LIS
(Laboratoire d’Ingénierie de la Sûreté de
>>>
page 16 Paul Sabatier — Le magazine scientifique — numéro 11
Systèmes embarqués
dOSSIER
>>> Une « touche toulousaine » sous Broadway :
Un protocole de gestion de redondances (PADRE)
conçu au LAAS contribue à la sécurité de la ligne
Canarsie du métro new-yorkais qui a été
automatisée en 2005 par Siemens Transportation
>>>
Systems (© David Pirnann).
fonctionnement) (http://www.laas.fr/LIS). Créé en
1992, sous la forme d’un laboratoire coopératif,
le LIS a accueilli au sein du LAAS sur une période
de 8 ans, 17 ingénieurs issus des sociétés
industrielles partenaires — Airbus, Astrium, EDF,
AREVA TA, Thales — travaillant en étroite
collaboration avec les chercheurs du LAAS
impliqués. Le LIS a assuré la formation de 13
doctorants, dont la majorité a intégré le tissu
industriel régional. On peut également citer le
laboratoire commun AUTODIAG
(http://www.laas.fr/autodiag) établi en juin 2005
entre la société ACTIA, l’IRIT et le LAAS sur le
diagnostic dans le domaine automobile. L’accord
de coopération AIRSYS (Architecture et ingénierie
des systèmes) établi en avril 2006 entre Airbus,
l’IRIT, le LAAS et l’ONERA est un autre exemple
récent de la concrétisation des liens existant entre
le secteur industriel et la recherche publique
autour de la problématique des systèmes
embarqués. Cette problématique constitue
également un des quatre thèmes structurant la
Fondation de Coopération Scientifique « Sciences
et Technologies pour l’Aéronautique et l’Espace ».
Il faut également souligner la place centrale
occupée par les systèmes embarqués au sein du
pôle de compétitivité Aerospace Valley. Au-delà de
ce périmètre, on peut citer la contribution depuis
2005 au programme Num@tec Automotive
développé au sein du pôle System@tic ParisRegion (projets MasCotTE et SCARLET). Au niveau
européen, il est important de noter le fort accent
mis sur l’informatique mobile et ubiquitaire au
sein du réseau d’excellence du 6ème PCRD
ReSIST (Resilience for Survivability in IST) créé en
janvier 2006 pour une durée de 3 ans et dont la
coordination est assurée par le LAAS. Il faut aussi
souligner la participation au pôle d'innovation
EICOSE (European Institute for COmplex & Safety
critical embedded systems Engineering) mis en place
en avril 2007 dans le cadre de la plate-forme
technologique européenne ARTEMIS (Advanced
Research & Technology for EMbedded Intelligence and
Systems).
Contact : [email protected]
Les filières de formation
aux systèmes embarqués
La formation initiale en matière de systèmes embarqués est un volet majeur à
l’Université Paul Sabatier et au sein des autres établissements d’enseignement
supérieur toulousains. Au niveau des formations de niveau master, on peut noter :
• l’IUP Ingénierie des systèmes et microsystèmes embarqués (ISME)
— http://www.laas.fr/~gibs/iup-isme/Isme.html.
• le master pro Génie logiciel, logiciels répartis et embarqués (GLRE)
— http://www.irit.fr/PERSONNEL/SMAC/arcangeli/M2GLRE.html
• le master pro Concepteur des architectures des machines et des systèmes
informatiques (CAMSI) — http://www.enseeiht.fr/fr/master/masterp_camsi.html
• le master spécialisé Systèmes embarqués
— http://www.enseeiht.fr/fr/masters_specialises/systemes_embarques.html
page 17
dOSSIER
Systèmes embarqués
Maîtriser les temps
d’exécution
Le défi pour les concepteurs de calculateurs destinés aux systèmes critiques
est d'offrir de plus en plus de performance de calcul et d'assurer la
terminaison de l'exécution d'une application en un temps donné quels que
soient les événements.
>>> Pascal SAINRAT, professeur à l'UPS,
chercheur à l'IRIT (unité mixte
UPS/CNRS/INP/UT1) et Jacques Collet, directeur
de recherche au CNRS, chercheur au LAAS,
(unité CNRS associée à l'UPS) et les membres
des équipes participant aux projets
MasCotTE et SCEPTRE.
L'idéal serait d'obtenir toujours exactement le même
temps d'exécution. S'oppose à cet idéal l'idée même
d'algorithme, un programme étant en réalité composé
de suites d'instructions parcourues différemment
selon l’état du système. De ce fait, ce qui doit être
garanti par le concepteur du système est un temps
maximal d'exécution de l'application quoi qu'il
se passe (appelée WCET pour Worst-Case
Execution Time).
Pour garantir cette borne, on peut imaginer une
approche exhaustive consistant à exécuter
l'application sur le calculateur dans toutes les
conditions possibles. Cependant, le besoin en
performance et, plus généralement, l'évolution de la
technologie ont rendu les calculateurs de plus en plus
complexes et ceux-ci ont un état interne et donc un
temps d'exécution dépendant des événements passés.
Il est donc nécessaire de garantir un WCET
statiquement, c'est-à-dire sans exécution sur le
calculateur, ce qui nécessite d'analyser conjointement
le programme et le matériel sur lequel il doit
s'exécuter.
Eviter les conflits
Ainsi, s'il y a quelques années, on pouvait calculer
des temps d'exécution uniques pour chaque suite
d'instructions et faire la somme des temps de ces
suites pour chaque ensemble de suites possibles, ce
n'est plus possible et on doit recourir à des analyses
plus globales sur chaque ensemble de suites. L'analyse
statique devient donc, elle aussi, incroyablement
complexe. Il devient alors difficile d'assurer qu'elle
est correcte.
Le défi est donc de trouver des architectures de
calculateur à la fois performantes et pour lesquelles
une analyse statique peut être construite simplement.
Il est alors facile de garantir qu'elle est correcte et
donc que le temps d'exécution maximum calculé est
sûr. Nos contributions portent sur l'amélioration,
non seulement des méthodes d'analyse statiques pour
des processeurs complexes, mais aussi des
architectures de processeurs à la fois performantes et
analysables, comme la proposition d'un mode
d'exécution spécifique rendant analysable un
processeur superscalaire par évitement des conflits
possibles entre instructions au sein du processeur.
page 18
>>> un des calculateurs de l'A380.
(copyright Airbus)
Nous développons aussi une chaîne de mesure
dynamique. L’utilisation conjointe des méthodes
statiques et dynamiques permettra d'apprécier la
représentativité des vecteurs de tests utilisés dans
l'approche dynamique, ainsi que les approximations
introduites dans la description architecturale par
l'approche statique.
L'équipe TRACES de l'IRIT et le groupe TSF du
LAAS tentent de faire face à ce défi au travers de
deux projets. Le projet ANR MasCotTE (Maitrise et
Contrôle des Temps d'Exécution) répond à une
demande du monde de l'automobile : les méthodes
d'analyse statique actuelles peuvent-elles être utilisées
pour les futurs calculateurs ? Le projet SCEPTRE
(Systèmes Critiques Et Propriétés TempoRElles), mené
en collaboration avec Airbus au sein du laboratoire
commun AIRSYS et soutenu par la Région MidiPyrénées, tente de définir une charte de conception
des calculateurs permettant de réaliser des
calculateurs analysables le plus simplement possible.
Contacts : [email protected] et [email protected]
Paul Sabatier — Le magazine scientifique — numéro 11
dOSSIER
Systèmes embarqués
Aéronefs
sans fils
L'introduction de capteurs sans fils autonomes dans les applications
aéronautiques embarquées ouvre de nouvelles perspectives.
>>> Robert PLANA, Professeur UPS et
membre de l’IUF, chercheur au LAAS
(unité CNRS, associée à l’UPS).
Les réseaux de capteurs sans fils sont en train de
bouleverser la conception de nouveaux aéronefs.
L'explosion des recherches dans ce domaine va
conduire à une nouvelle manière de développer les
aéronefs, mais aussi d'effectuer la maintenance et
à l'émergence de nouveaux services à bord.
L’idée consiste à déployer des nappes de capteursactionneurs pouvant être autonomes, mais connectés
sans fils et capables à la fois de récupérer des
informations, afin d'en faire un traitement
préliminaire ou non suivant le type d’architecture et
de les envoyer vers une unité centrale miniaturisée.
>>> Architecture typique d’un réseau de capteurs sans fil incluant
Signature radar
des innovations technologiques.
Le premier axe de nos recherches propose des avancées
sur les nouvelles générations de capteurs basées sur le
couplage entre une grandeur physique et/ou chimique
et la résonance électromagnétique. Des capteurs de
pression ont déjà été réalisés utilisant des techniques
de micro-usinage de surface et de volume et une
technique d’assemblage (le « wafer bonding »)
qui présente des résolutions inférieures à 100 Pa.
D’autres études en cours visent à exploiter les ondes
acoustiques de surface et de volume en utilisant des
matériaux tels que le PZT ou le ZnO pour réaliser
sur le même principe des capteurs de contrainte.
L’originalité la plus marquée est liée au moyen de
lecture de ces données qui sera basée sur le principe
de la mesure de la « signature radar » des capteurs
en les excitant à partir d’un radar à modulation
de fréquence et en mesurant le décalage fréquentiel
associé à la valeur de la quantité physique et/ou
chimique.
Un second axe de recherche concerne les aspects
énergétiques en fonction des gammes d’énergie
nécessaire. Ainsi, une première voie consiste à
explorer les technologies photovoltaïques associées
à des architectures de circuits appropriées.
Une seconde voie vise à explorer la récupération
d’énergie mécanique à partir d’actionneur
piézoélectrique et une troisième voie est liée à
l’exploitation de l’effet Seebeck géant présenté
par les nanotubes de carbone.
page 19
Plateforme de simulation
Un troisième axe de recherche concerne les
architectures des systèmes de communications qui
devront présenter un fort caractère de reconfiguration
soit au niveau analogique à l’aide de MEMS soit au
niveau numérique à l’aide d’architectures « Ultra
Wide Band » par impulsions (entre 5GHz et 60
GHz). Ceci devrait permettre de minimiser les
interférences ainsi que les perturbations
environnementales car les niveaux de puissances mis
en jeu seront extrêmement faibles. Ces travaux sur les
architectures sont menés conjointement avec des
travaux sur les antennes miniaturisées planaires qui
seront implémentées dans les réseaux de capteurs.
Le quatrième axe de recherche explore des
architectures aux fonctionnalités augmentées incluant
les aspects communication, datation, localisation,
fiabilité prédictive tout en respectant les contraintes
énergétiques. Une plateforme de simulation et
d’émulation tout à fait originale a été mise en place
afin de prédire les dimensionnements du réseau à
mettre en place. Cette plateforme est enrichie par
des recherches sur les protocoles de communication
qui doivent répondre aux architectures reconfigurables
à très faible consommation et haut débit.
Partenariats : AIRBUS-EADS-INTESPACE-CRILDELTA-EPSILON-DATUS
Contact : [email protected]
dOSSIER
Systèmes embarqués
Eviter les erreurs de communication
dans les futurs avions
Les avions du futur seront commandés avec des liaisons numériques. La
complexité des réseaux de communication nécessite d'inventer des
systèmes pour vérifier qu'aucune erreur n'a déformé le message.
>>> Yves CROUZET, Chargé de recherche
Dans le domaine de l'aviation civile, un des défis
pour les systèmes de commande de vol du futur est
le remplacement des liaisons analogiques entre les
calculateurs et les capteurs/actionneurs par un réseau
de communication numérique. A court terme, cela
réduira le poids du câblage. A plus long terme, le
passage au numérique permettra de satisfaire aux
exigences que nécessiteront le remplacement des
gouvernes actuelles par une multitude de petites
surfaces qui ne pourront plus être commandées par
des liaisons analogiques.
au CNRS et Agnan DE BONNEVAL,
Maître de conférence UPS, chercheurs
au LAAS (unité CNRS, associée à l’UPS).
Depuis 2001, Airbus et le LAAS ont engagé des études
communes sur ce sujet.
>>> réseau numérique pour les commandes de vol :
Il est très rapidement apparu que, compte tenu de
la présence nécessaire dans le réseau de communication
de noeuds intermédiaires complexes et donc actifs, les
techniques classiques de protection des communications
ne pourraient pas être utilisées pour faire face à des
erreurs répétitives. Nous avons dû chercher une autre
solution qui génère un niveau d'intégrité suffisant
sans être trop onéreuse.
En analysant les spécificités du domaine d'application
visé, nous avons remarqué que, compte tenu de la
dynamique d'évolution des organes commandés,
il n'était pas nécessaire d'avoir un haut niveau
d'intégrité sur un message unitaire. En effet, ce n'est
uniquement la répétition de la prise en compte
d'une information erronée qui peut être dangereuse.
À titre d'exemple, prenons une gouverne dont la
vitesse maximum de déplacement est 50°/sec et dont
la consigne est rafraîchie toutes les 10 ms. Il faut que
l'information erronée survienne sur 10 cycles successifs
avant d'atteindre un écart de 5° par rapport à la
consigne, écart qui est le seuil limite à ne pas dépasser.
Protection cyclique
Pour résoudre la question des répétitions d’ordres
erronés, nous avons proposé une solution originale
appelée Multiple Error Checking Function qui associe
une protection classique (par exemple : codes CRC –
page 20
vision de principe.
Cyclic Redundancy Check) sur un cycle avec
modification de cette protection sur des cycles
successifs (par exemple : changement du polynôme
générateur de CRC). Ainsi, avec une protection qui
conduirait à une probabilité p de ne pas détecter une
erreur sur un cycle, la probabilité de ne pas détecter
cette même erreur sur aucun de trois cycles successifs
utilisant des codes différents pourrait se rapprocher
de la limite théorique : p3. On arrive ainsi à un faible
coût de redondance en nombre de bits et à un haut
niveau d'intégrité. Pour arriver à une efficacité
maximale, il convient, en utilisant les bases
mathématiques de tels codages, de choisir correctement
les différents polynômes générateurs de façon à ce
qu'ils aient le moins possible de facteurs en commun.
La solution proposée a été validée via des modèles
Matlab/Simulink.
Cette invention a fait l'objet d’un dépôt de brevet
conjoint Airbus-CNRS au niveau national (accepté) et
international (en cours d’évaluation).
Contacts : [email protected],
[email protected]
Paul Sabatier — Le magazine scientifique — numéro 11
dOSSIER
Systèmes embarqués
Des automobiles reliées
en réseau sans fil
L'utilisation des communications sans fil en voiture ouvre des perspectives
nouvelles. A condition de pouvoir assurer la sûreté de fonctionnement de
telles applications mobiles embarquées.
>>> Mohamed Kaâniche, Marc-Olivier
Killijian, Hélène Waeselynck, Chargés de
recherche CNRS, chercheurs au LAAS,
unité CNRS associée à l’UPS et
les participants au projet HIDENETS.
Le domaine de l’automobile porte un intérêt croissant
à l’utilisation des communications sans-fil et des
réseaux ad hoc. Elles pourraient d'une part améliorer
la sécurité des passagers et, d’autre part, offrir de
nouveaux services de confort et de loisir aux passagers.
Grâce aux récentes évolutions dans les technologies
de communication, l’établissement de réseaux maillés
entre les véhicules peut permettre la transmission
en temps réel des informations critiques sur l’état
du trafic ou sur l’environnement permettant ainsi
de réagir au plus tôt à des conditions susceptibles
d’engendrer des accidents catastrophiques.
De tels réseaux peuvent également être mis à profit
pour d’autres applications originales. Exemple, cette
idée promue par le LAAS: inventer une «boîte noire
distribuée». Une boîte noire classique peut enregistrer
des informations comme la vitesse du moteur ou du
véhicule, l’état des freins, la position du volant, ou
encore la situation de la ceinture de sécurité du
conducteur. Ces informations peuvent être très utiles
pour établir les causes et responsabilités dans un
accident. Mais si l'on parvient à collecter
l'information venant des véhicules voisins, on obtient
plusieurs avantages. Premièrement, la réduction du
coût du matériel de la boîte noire. Puisque la boîte
noire devient « virtuelle », elle n’a plus besoin de
résister aux accidents ou aux incendies. Deuxièmement,
il est possible d'enrichir l'information disponible grâce
à celles dont disposent les véhicules avoisinants.
De cette façon, il est possible aux enquêteurs de se faire
une meilleure idée des causes de l’accident. Ainsi, les
informations caractérisant l’état de la voiture et de son
environnement pourraient être archivées périodiquement,
en utilisant les véhicules se trouvant à proximité comme
support de sauvegarde temporaire permettant ainsi de
préserver la disponibilité des données en cas de perte
accidentelle ou malveillante des données originales.
>>> : Illustration du fonctionnement d’une boîte noire
distribuée basée sur une sauvegarde cooperative des
données.
Ceci est un des défis que tente de relever le projet
européen HIDENETS (HIghly DEpendable ip-based
NETworks and Services), au sein duquel le LAAS joue
un rôle important. Ce projet, démarré en janvier 2006,
regroupe 9 partenaires académiques et industriels et
vise le développement de solutions innovantes pour
concevoir, tester et évaluer des applications mobiles
embarquées sûres, en privilégiant les applications
dans l'automobile.
page 21
Un prochain déploiement
De manière plus générale, le développement
d’applications relevant de l’informatique mobile
embarquée est en pleine croissance. Ces applications
sont basées sur la présence de processeurs embarqués
dans des objets physiques et pouvant communiquer
entre eux via des réseaux sans fil, avec possibilité de
connexion à des infrastructures fixes. Elles devraient
être déployées en masse prochainement et être
accessibles à chacun dans divers domaines, par
exemple, la domotique, l’assistance aux personnes,
la protection de l’environnement, l’automobile et les
transports en général. Toutefois, pour que les services
fournis par ces nouvelles applications soient acceptés et
adoptés par le plus grand nombre, ils doivent être sûrs
et de confiance. Plusieurs contraintes sont donc à
prendre en compte dans la conception et la validation
de ces nouvelles applications, en particulier vis-à-vis
de la sûreté de fonctionnement et de la tolérance aux
fautes accidentelles et aux malveillances : mobilité des
objets et des utilisateurs, déconnexions fréquentes,
autonomie limitée, restrictions de bande passante et
de traitement...
Les solutions actuellement en cours de développement
par le LAAS pour répondre à ces défis s’appuient
sur des techniques de sauvegarde coopérative utilisant
des codes d’effacement d’erreurs, qui permettent
de tolérer des fautes accidentelles et des intrusions.
Nos contributions concernent également le
développement de méthodes et d’environnements
expérimentaux pour le test et l’évaluation de la sûreté
de fonctionnement de ces applications.
Contacts : [email protected],
[email protected],
[email protected]
dOSSIER
Systèmes embarqués
Du télédiagnostique
pour les voitures
L'électronique et l'informatique embarquées dans les voitures constituent
un réseau tellement complexe que de nouveaux outils informatiques sont
nécessaires pour le tester et diagnostiquer les pannes.
>>> Louise TRAVÉ-MASSUYÈS, Directeur
de recherche CNRS au LAAS (unité CNRS,
associée à l’UPS) et Jean-Luc SOUBIE,
Ingénieur de Recherche INRIA, à l’IRIT
(unité mixte UPS/CNRS/INP/UT1/UTM).
Allumage électronique, fermeture centralisée, injection,
anti-vol, système anti-blocage, coussins gonflables
de sécurité, correcteurs de trajectoire… L’introduction
massive de fonctions électroniques et de l’informatique
embarquée a provoqué ces dernières années une
véritable révolution dans l’industrie automobile.
Ces évolutions technologiques touchent maintenant
une grande gamme de véhicules.
La multiplication des fonctionnalités offertes à bord
génère des faisceaux électriques d’une complexité
extrême. Depuis quelques années, la solution est venue
des bus multiplexés, (par exemple, CAN : Controller
Area Network). Il simplifie énormément l’architecture
électrique et permet donc d’en augmenter la fiabilité.
La maintenance affectée en profondeur
Du coup, les nouveaux véhicules sont dotés d’un
équipement informatique distribué, dont la complexité
se rapproche de celle d’un réseau local informatique.
Les fonctionnalités offertes par cette informatique
embarquée diffèrent de celles d’un réseau domestique,
et les aspects temps réel et sûreté de fonctionnement
y sont particulièrement critiques, ce qui en augmente
encore la complexité. Il apparaît donc clairement que
le problème du diagnostic doit être pris en compte très
en amont, et intégré dans la chaîne de développement.
Les métiers de la maintenance automobile sont
également affectés en profondeur. Actuellement, un
outil de diagnostic spécifique, capable de se connecter
au système informatique embarqué pour en extraire
des informations, est nécessaire pour envisager un
diagnostic de l’état du véhicule. Les méthodes de
diagnostic employées sont elles-mêmes à définir pour
assurer couverture et précision maximales tout
en maîtrisant le coût de conception de l’outil.
>>> Architecture électrique et équipement
informatique distribué à bord d'un véhicule.
page 22
Par ailleurs, les nouvelles technologies (Internet,
communications sans fil et architectures orientées
services) ouvrent des perspectives pour le télédiagnostic,
en exploitant une distribution du diagnostic à bord
du véhicule, chez le constructeur et en garage.
On s’oriente vers une prévention des défauts basée sur
une analyse des tendances des paramètres clé et une
détection des anomalies au plus tôt à bord du véhicule,
accompagnées de la transmission de rapports.
Elle sous-tend également l’évolution des fonctions
de diagnostic pendant le cycle de vie du véhicule,
par télédéchargement de fonctions de contrôle ou
de réparation.
Le diagnostic dans le domaine automobile pose ainsi
de vraies problématiques scientifiques qui sont étudiées
par le Laboratoire Commun AUTODIAG qui réunit
deux laboratoires toulousains, le LAAS et l’IRIT, et
la société ACTIA (http://www.laas.fr/autodiag/).
Détecter les défauts
Le LAAS intervient sur des études concernant le
diagnostic débarqué et notamment l’élaboration de
stratégies pour la génération automatique d’arbres
de diagnostic ou la proposition interactive de tests à
effectuer en garage. Les méthodes utilisées s’appuient
sur des techniques de simulation hybride récentes qui
permettent de constituer un dictionnaire de signatures
de défauts. Les diagnostics préventif et distribué sont
également abordés dans un contexte embarqué. Nous
proposons d’espionner les messages circulant sur le
réseau entre les différents calculateurs. Un test de
cohérence dynamique par rapport à un modèle à
événements discrets permet alors de détecter les défauts
et de les identifier.
L’IRIT travaille sur la représentation des connaissances
du domaine, afin d’indexer les fiches constructeur
constituant le retour d’expérience de diagnostics
antérieurs et les requêtes des garagistes pour une
recherche d’information performante. Ainsi, il est
introduit une nouvelle méthode de diagnostic tirant
parti de l’expertise du constructeur. De plus, l’IRIT
étudie l’ergonomie des outils de diagnostic afin d’en
faciliter l’acceptabilité par ses futurs utilisateurs,
au-delà des aspects poste de travail et organisation
du travail de l’atelier. La méthode mise en œuvre
permettra de prendre en compte la spécificité de
l’approche de chaque opérateur.
Contacts : [email protected] et [email protected]
Paul Sabatier — Le magazine scientifique — numéro 11
dOSSIER
Systèmes embarqués
Topcased : Un logiciel libre
pour développer des systèmes
et des applications critiques.
L'atelier-logiciel Topcased, un des projets majeurs du pôle de compétitivité
Aerospace Valley, permet de développer des modèles. Il est capable de
s'adapter à l'évolution des systèmes et des langages de programmation.
>>> François VERNADAT, Professeur
à l’INSA et chercheur au LAAS (unité CNRS,
associée à l’UPS) et Christian PERCEBOIS,
Professeur à l’UPS et chercheur à l’IRIT
(unite mixte UPS/CNRS/INP/UT1).
Autrefois confinés à un rôle de documentation,
les modèles sont désormais des entités de base
du développement. Cette approche a conduit à
l'apparition d'un nouveau domaine du génie logiciel,
« l’ingénierie des modèles » (IDM). L’investissement
des industriels dans les outils de modélisation et de
développement exige de disposer d’un environnement
adaptable aux évolutions technologiques et d’offrir
aux utilisateurs un logiciel qui leur permette de
concevoir, d’intégrer et de vérifier ces modèles
Dans cette optique a été lancé en 2004 le projet
Topcased (Toolkit in OPen source for Critical Applications
and SystEm Development). Cet atelier d’ingénierie,
conçu pour être extensible et favoriser la coopération
des outils, est l'un des projets majeurs du pôle
de compétitivité Aerospace Valley. Initié par Airbus,
ce projet associe notamment le Laas, l’Irit et l’Onera.
Topcased offre des outils « open source » qui vont
de la compréhension des besoins des développeurs et la
vérification des propriétés associées à l’implémentation
du code dans un équipement embarqué. Il est conforme
aux principes de l’ingénierie des modèles et met
l’accent sur les aspects modélisation et méthodes
formelles pour la vérification. Topcased propose
des outils de modélisation (éditeurs graphiques), de
simulation et de vérification pour divers langages de
programmation, spécifiques à un secteur d’activités
(ce que l’on appelle les langages « métier »). La phase
de vérification permet d'établir la correction d'un
modèle écrit dans l'un de ces langages, en fonction
des propriétés attendues. Ces vérifications peuvent être
qualitatives (sûreté, vivacité) ou quantitatives telles
que des propriétés de ponctualité ou de respect des
contraintes d'ordonnancement. Le couplage entre
langages « métier » et outils de vérification est facilité
par l'utilisation de langages formels intermédiaires,
cachés de l’utilisateur, appelés « langages pivot ».
Métamodélisation
Pour établir ces connexions, le processus de
développement consiste en une succession de
transformations de modèles. Celles-ci opèrent sur
page 23
>>> Une vue de l'architecture de l’atelier Topcased et
des différents outils offerts.
un ou plusieurs modèles sources et produisent un ou
plusieurs modèles cibles qui doivent préserver des
propriétés structurelles et comportementales des
modèles sources. Conformément à l'IDM, Topcased
offre aussi en amont des moyens de métamodélisation
permettant de définir de nouveaux langages de
modélisation « métier », et de réaliser certains
outils associés.
Le choix d’un atelier «open source» présente plusieurs
avantages : la durabilité des outils d’ingénierie pour le
développement et la maintenance de systèmes dont la
durée de vie peut dépasser 50 ans, l’adaptation à la
complexité croissante des systèmes ; un faible coût et
des délais de développement courts. Topcased s’inscrit
ainsi dans la future plate-forme Opees (Outils
d'ingénierie pour les Systèmes Embarqués) résultant
d'une coopération des pôles de compétitivité Aerospace
Valley, Minalogic et System@tic. Opees a pour objectif
d'assurer la maintenance et la pérennité d’outils
développés dans différents projets d’ingénierie système.
Une version majeure de Topcased livrée début juillet
2007 est disponible sur le site www.topcased.org.
Suivant leur niveau de maturité, certains outils
de Topcased seront utilisés dans des programmes
industriels dès 2008, comme par exemple dans
le programme de l’avion A350.
Contacts : [email protected] et [email protected]
Médailles et prix
Des médailles et des
Une médaille de bronze du CNRS pour une boule de neige.
Yves Godderis, chercheur au LMTG nous en dit un peu plus.
>>> Yves GODDERIS, CR CNRS,
➜ Quel est l’objet de votre recherche ?
Mon thème principal est d’étudier le rôle que joue
l’altération des roches continentales dans les cycles
biogéochimiques (en particulier celui du carbone) à
diverses échelles de temps. Il s’agit d’une approche
par modélisation numérique.
au laboratoire d’étude des mécanismes
de transfert en géologie (LMTG,
unité mixte UPS/CNRS/IRD).
➜ Pouvez-vous donner un exemple ?
Parmi les objets de mes études récentes, il y a les
causes et conséquences des glaciations globales de la
fin du Protérozoïque, dites glaciations « boule de
neige » (vers 700 millions d’années). En particulier,
nous avons exploré les conséquences de la
fragmentation du super continent Rodinia dès
800 Ma sur le cycle du carbone et le climat à l’aide
d’une nouvelle génération de modèles numériques
climat-carbone. Nous avons montré que la dispersion
des blocs continentaux le long de l’équateur, qui
a conduit à l’augmentation de la consommation
de CO2 par l’altération des surfaces continentales en
milieu chaud et humide était la cause principale du
refroidissement dramatique du climat (*).
➜ Que représente pour vous cette médaille
de bronze du CNRS ?
Quelque chose d’inattendu. C’est aussi le sentiment
qu’une étape est accomplie, que nous avons jeté des
bases sur lesquelles la communauté peut s’appuyer
pour les recherches futures. Le doute est en
permanence présent dans mon esprit. Comment
évaluer la pertinence scientifique que représente
une étude publiée ? Comment savoir si nous
progressons réellement ? Cette médaille est un des
éléments d’une réponse complexe et souvent difficile
à appréhender.
(*) voir article dans le magazine UPS n°10 de juin 2007.
Contact : [email protected]
Du bronze pour la supraconduction
Entretien avec Cyril Proust, chercheur au LNCMP…
Cyril PROUST, chargé de recherche CNRS
au Laboratoire National de champs
magnétiques pulsés (LNCMP,
Unité mixte CNRS/UPS/INSA).
➜ Que représente pour vous cette médaille
de bronze ?
C'est avant tout une reconnaissance de mes pairs
au niveau national. Le CNRS est encore une
institution où l'on peut se permettre d'investir
à long terme dans une thématique, pour récolter
plus tard les fruits du travail. Certains collègues
au laboratoire avaient d'ailleurs critiqué cette
démarche, mais aujourd'hui ils reconnaissent le
travail accompli. Je n'aurai probablement pas pu
réaliser le même parcours dans une institution
étrangère où, bien souvent, la pression pour publier
rapidement est très forte. Je dois également cette
réussite au soutien de mon directeur de laboratoire
et à certains de mes collègues du CNRS.
➜ Quel est l’objet de votre recherche ?
J’ai été recruté au LNCMP pour développer une
activité de recherche fondamentale autour des
supraconducteurs à haute température critique
sous champ magnétique intense.
page 24
➜ Comment avez-vous procédé ?
Universitaire de formation, j'ai effectué un
postdoctorat de deux ans au Canada avant
d'être recruté au CNRS en 2001. En tant
qu'expérimentateur, j’ai passé les premières années
au laboratoire à concevoir et développer des
techniques de mesures innovantes sous champ
magnétique pulsé, notamment les mesures
ultrasonores et, pour la première fois dans ces
conditions expérimentales difficiles, des mesures
thermoélectriques. Grâce à de nombreuses
collaborations avec d’autres laboratoires français et
internationaux, j’ai récemment obtenu des résultats
marquants dans le domaine des supraconducteurs
à haute température critique, qui ont donné lieu
cette année à deux publications dans Nature.
Contact : [email protected]
Paul Sabatier — Le magazine scientifique — numéro 11
Médailles et prix
prix… 2007
Rufin VanRullen, un double lauréat
Ses travaux sur les phénomènes attentionnels lui ont valu la médaille
de bronze 2007 du CNRS et le prix du jeune chercheur européen Euryi
(European young invistigator).
>>> Rufin VANRULLEN, CR CNRS au
Centre d’études et de recherches sur le
médiailles et
prix 2007
cerveau (CERCO, unité mixte UPS/CNRS).
1 - Le prix Euryi est doté
de 1 à 1,25 million d'euros
sur 5 ans, les lauréats
peuvent constituer leur
propre équipe de recherche.
➜ Quel est l'objet de votre recherche ?
D’une manière générale, il s'agit de comprendre
les mécanismes neuronaux qui nous permettent
de percevoir consciemment le monde qui nous
entoure. Plus particulièrement, je m'intéresse aux
phénomènes attentionnels: ce qui fait qu'une même
scène visuelle pourra donner lieu à des activités
cérébrales et des perceptions très différentes selon
qu'on s'intéresse à l'un ou l'autre des objets
de la scène.
➜ Quelles sont les principales questions
dans ce domaine ?
Comment notre perception du monde extérieur
est-elle organisée dans le temps ? Perçoit-on le monde
comme une série d'instantanés (à la manière
d'une séquence vidéo) ou comme un flux continu ?
Quel est le rôle potentiel de l'attention (qu'elle soit
automatique ou volontaire) dans ce séquençage
temporel ? Quelle est, ou quelles sont, la ou les
fréquences critiques de ce découpage, et dans
quelles situations ces fréquences limitent-elles
la performance humaine ?
J'utilise une approche double : l'expérimentation
psychophysique et électrophysiologique chez l'homme
pour mettre en évidence ces phénomènes, et
la modélisation mathématique et informatique
pour bien les comprendre sur le plan théorique.
➜ Vous venez de recevoir le prix Euryi1,
de quoi s'agit-il ?
Récemment, ma recherche s'est orientée sur les
aspects temporels des phénomènes perceptuels et
attentionnels. On sait, grâce à l'expérimentation
chez l'animal, que la communication entre les
neurones, et entre les aires du cerveau, repose sur
une activité électrique oscillatoire. Mais l'on ne
comprend pas encore comment cette dynamique
affecte, limite ou façonne les processus cognitifs tels
que l'attention ou la perception. C'est pour pouvoir
répondre à ces questions que le prix Euryi m'a été
attribué.
➜ Quelles perspectives cela offre-t-il pour
vos études ? Et pour le laboratoire ?
Le prix Euryi confère à ces recherches un "sceau de
légitimité" unique, qui devrait permettre d'attirer
sur ce projet des étudiants et jeunes chercheurs
compétents dans divers domaines. Le montant du
prix permettra leur recrutement, et la mise en place
d'une nouvelle équipe au sein du laboratoire. Pour
ce dernier, ainsi que pour l'université, on peut
espérer un gain de visibilité au niveau national et
international.
➜ Et que représente pour vous la médaille
de bronze du CNRS ?
C'est surtout une marque de reconnaissance de la
part de mes collègues plus expérimentés, pour me
signaler que mes efforts ne passent pas inaperçus.
C'est pour moi un encouragement important.
➜ Dans ce contexte, avez-vous des projets
particuliers ?
M'entourer de collaborateurs compétents et motivés.
Poser beaucoup de questions, même “idiotes”. En
résoudre certaines.
>>> Lorsqu’un mouvement périodique à une fréquence bien particulière est présenté à un observateur, celui-ci peut parfois le
percevoir « à l’envers ». Cette illusion, similaire à ce que l’on peut
observer à la télévision ou au cinéma, révèle l’existence d’un
découpage attentionnel périodique de l’information visuelle.
Contact : [email protected]
page 25
Médailles et prix
Deux prix de l’Académie
des sciences à des chercheurs
toulousains..
Le prix destiné à récompenser des travaux de cartographie
dans tous les domaines des sciences de la Terre, attribué à
Frédérique Rémy et Etienne Berthier du LEGOS.
>>> Etienne BERTHIER,
Chargé de recherche CNRS et
Frédérique RÉMY,
➜ Que récompense votre prix ?
Ce prix récompense nos travaux de télédétection
des glaciers et des calottes polaires. Ces éléments
de la cryosphère sont difficiles d’accès avec des
conditions climatiques qui rendent les mesures de
terrain délicates. La calotte de l’Antarctique couvre
15 millions de km2 et il existe environ 160000
glaciers dont seulement quelques dizaines sont
suivis. La télédétection offre une grande variété
d’observations, à l’échelle globale et facilement
répétables. Dans l’équipe, nous nous sommes
attachés à estimer les paramètres liés à l’état de
santé des zones polaires : la topographie et son
évolution ainsi que la vitesse d’écoulement et ses
variations.
Directeur de recherche CNRS,
chercheurs au LEGOS (Unité mixte
UPS/CNRS/CNES/IRD)
➜ Que disent vos observations sur l'évolution des glaciers depuis ces vingt dernières
années ?
Le réchauffement climatique a un effet paradoxal
sur la cryosphère : un climat plus chaud augmente
certes la fonte de la neige et de la glace mais il
augmente aussi le cycle hydrologique. D’où une
augmentation des quantités de neige déposées. La
majorité des glaciers montrent très nettement une
diminution de leur épaisseur surtout à basse
altitude où il fait le plus chaud. Mais ceux dont la
zone d’accumulation de neige, là où ils gagnent du
volume, est suffisamment élevée pour ne pas être
affectée par la fonte, montrent une stabilité voire
un épaississement en altitude. Cet épaississement ne
compense pas en général les pertes à basse altitude,
comme on le voit en Himalaya ou dans l’ensemble
du Groenland. En ce qui concerne l’Antarctique, il
existe une grande différence entre la partie ouest
qui diminue en volume, et l’est ayant plutôt
tendance à gagner de la masse.
Contacts : [email protected] et
[email protected]
Le prix destiné à récompenser des travaux
en spectroscopie attribué à Jean-François
Nierengarten, chercheur au LCC
Jean-François NIERENGARTEN,
Directeur de recherches CNRS, chercheur
au Laboratoire de Chimie de Coordination
(LCC, unité CNRS associée à l’UPS)
➜ Pouvez-vous nous résumer les travaux qui
vous ont valu ce prix ?
Mes travaux concernent la chimie des fullerènes et
des dendrimères. Nos travaux récents ont
contribué à démontrer que les fullerènes et leurs
dérivés sont d’excellents candidats pour la
préparation d’assemblages supramoléculaires et de
nouveaux matériaux, comme par exemple notre
« fullérodendrimère » publié en 2007 à Angewandte
Chemie , un « nano-cluster » qui incorpore
des fullérènes en périphérie.
➜ Quelles applications peut-on espérer de
ces travaux ?
Certaines de nos molécules présentent un grand
intérêt dans le cadre d’une approche moléculaire de
page 26
la conversion de l’énergie lumineuse en énergie
électrique. En particulier, nous synthétisons de
nombreux dérivés du C60 à propriétés électroniques
et photochimiques originales en combinant le
fullerène à d’autres chromophores et nous les
incorporons dans une cellule photovoltaïque
plastique. Par ailleurs, nous avons développé une
nouvelle approche pour l’incorporation de C60
au sein de cristaux liquides. Celle-ci repose sur
la formation de complexes supramoléculaires du
C60 avec des macrocycles porteurs de longues
chaînes aliphatiques.
Contact : [email protected]
Paul Sabatier — Le magazine scientifique — numéro 11
La Recherche à l’UPS
Le Potentiel de Recherche de l’Université Paul Sabatier se répartit
sur 53 laboratoires, dont 80 reconnus au niveau national,
la plupart unités mixtes avec le CNRS, l’INSERM, l’IRD, l’INRA, le CNES…
Plus de 2350 chercheurs et enseignants-chercheurs et
1130 personnels technique et administratif travaillent
dans ces laboratoires.
1900 doctorants sont inscrits à l’UPS, répartis dans 6 Ecoles Doctorales.
Les sept grands domaines de recherche sont :
> Biologie et Santé : 7 laboratoires mixtes, 8 EA, 3 Fédérations.
> Mathématiques, Informatique et Systèmes : 2 laboratoires mixtes, 1 unité CNRS.
> Sciences Humaines et de Société : 5 EA.
> Sciences pour l’Ingénieur : 4 laboratoires mixtes, 2 EA, 1 Fédération.
> Sciences de la matière : 9 laboratoires mixtes, 2 unités CNRS, 2 Fédérations.
> Sciences de la planète et de l’Univers : 7 laboratoires mixtes, 1 Observatoire.
> Sciences de la Vie : 10 laboratoires mixtes, 1 EA, 2 Fédérations.
EA : équipe d’accueil
© P. DUMAS
© OMP
Pour plus de détails consultez : www.ups-tlse.fr rubrique "recherche"
Les MASTERS à L’UPS
Domaines
de
formation
> sciences de la modélisation, de l’information et
des systèmes (4 mentions)
> sciences et techniques de la matière et
de l’énergie (6 mentions)
> sciences de la planète et de l’univers (4 mentions)
> sciences de la vie et de la santé (9 mentions)
> sciences humaines et sociales (1 mention)
> gestion (2 mentions)
Le cursus master comporte en 2ème année une centaine de spécialités
“ recherche ” et “ professionnelle ”. Un certain nombre de ces spécialités sont
cohabilitées avec d’autres universités et établissements de la région
toulousaine.
Téléchargement