Paul Sabatier Novembre 2007 M a g a z i n e s c i e n t i f i q u e - n u m é r o 11 Dossiers L’astrophysique Les systèmes embarqués Avec la participation de www.ups-tlse.fr Délégation Administration déléguée Midi-Pyrénées du CNRS Midi-Pyrénées, Limousin de l’Inserm édito Des prix et des médailles… On associe de plus en plus la recherche scientifique à de grands équipements, de gros moyens scientifiques, des infrastructures…mais il faut rappeler que la qualité de la recherche dépend en premier lieu de la qualité et des compétences des hommes et des femmes dont c’est le métier. De même, alors qu’il n’y a pas de véritable université sans recherche, la liaison entre la recherche et l’enseignement, fondement de l’université, se fait par l’intermédiaire des personnes. MAGAZINE UPS N° 11 — NOVEMBRE 2007 Illustration de couverture : Aurore boréale de Saturne, vue depuis le télescope spatial Hubble (copyright NASA, ESA) Directeur de la publication : Jean-François Sautereau Rédacteur en chef : Daniel Guedalia Comité de rédaction : Isabelle Berry Patrick Calvas Jean-Pierre Daudey Daniel Guedalia Alexandra Guyard Guy Lavigne Fréderic Mompiou Carine Desaulty, délégation Midi-Pyrénées du CNRS Christine Ferran, administration déléguée Midi-Pyrénées de l’Inserm Conseillère de rédaction : Anne Debroise Diffusion : Joëlle Dulon Coordination dossiers scientifiques : Astrophysique : Sylvie Roques et Jean-André Sauvaud Systèmes embarqués : Jean Arlat Conception graphique et impression : Ogham-Delort 05 62 71 35 35 n°8401 dépôt légal : Novembre 2007 ISSN : 1779-5478 Tirage : 2000 ex. Université Paul Sabatier On entend dire d’habitude que la recherche est un travail d’équipe, ce qui n’empêche pas de constater que la plupart des récompenses scientifiques sont attribuées à des chercheurs individuellement et rarement à des équipes ; ceci, et malgré la complexité croissante des travaux, parce qu’il y a toujours un leader. Nous avons choisi de vous présenter dans ce numéro un certain nombre de chercheurs de notre université, souvent de jeunes chercheurs, qui ont été distingués récemment par des médailles du CNRS, des prix de l’Académie des Sciences ou des prix européens. A travers eux, ce sont leurs équipes et l’ensemble de l’université qui se sentent honorés. On peut espérer que ces récompenses viendront aussi mettre du baume au cœur à des chercheurs et enseignantschercheurs confrontés à des difficultés dans l’exercice de leur métier et dans le déroulement de leurs carrières, à un moment où l’organisation de la recherche est soumise à de fortes turbulences. Vous trouverez aussi dans ce numéro les rubriques habituelles avec deux dossiers scientifiques. Ils correspondent à des thématiques où les chercheurs toulousains sont reconnus parmi les meilleurs au niveau national et international. Le premier dossier est celui des recherches en astrophysique. C’est un domaine scientifique parmi les plus anciens (on trouve des traces d’études astronomiques qui datent de plusieurs milliers d’années). L’objectif de cette discipline est avant tout d’améliorer nos connaissances sur l’origine de l’univers, sur l’origine de la vie. L’astrophysique est tout d’abord une science d’observation et les instruments utilisés, depuis le sol ou dans l’espace, font appel aux dernières avancées de l’optique, de l’informatique, du traitement du signal. Peu d’applications industrielles sont attendues de ces recherches, sauf dans le domaine des instruments, ce qui n’empêche pas une forte attirance des jeunes scientifiques pour l’astrophysique et une grande curiosité du grand public pour ces découvertes. Le deuxième dossier concerne les recherches sur les systèmes embarqués. C’est, contrairement au précédent, un domaine où les applications sont présentes à tous les stades des travaux. Les systèmes embarqués sont en particulier une des clefs du succès des nouvelles avancées dans les transports terrestres et aéronautiques, ainsi que dans plusieurs autres secteurs d’activité. Les avancées, dont un certain nombre vous est présenté dans ce numéro, ont apporté une réelle révolution dans l’automatisation des processus, dans la sécurité, dans le dialogue homme-machine. Les enjeux économiques sont considérables. Ces études bénéficient des compétences remarquables et reconnues des équipes toulousaines des sciences de l’information et de la communication. Je vous souhaite une très agréable lecture. 118, route de Narbonne 31062 Toulouse cedex 9 Jean-François SAUTEREAU Président de l’Université Paul Sabatier sommaire Dossier : Astrophysique 4 Vie des laboratoires 12 - Quand les physiciens se penchent sur l’ADN Mieux prévoir les orages… Dans le secret des bactéries transformantes Un sérieux pas de plus vers l’ordinateur moléculaire Dossier : 16 24 Les systèmes embarqués Prix et médailles - Des médailles et des prix… 2007 - Deux prix de l’Académie des sciences à des chercheurs toulousains Vos encouragements, vos critiques, vos suggestions, une seule adresse : [email protected] Vous pouvez consulter et télécharger ce magazine et les numéros antérieurs sur le site www.ups-tlse.fr (rubrique «Recherche») dOSSIER ASTROPHYSIQUE L’Astrophysique… de l’origine de l’univers à l’origine de la vie C’est un sentiment profondément humain que la curiosité pour notre univers. C’est elle qui conduit à son étude et à son exploration. >>> Sylvie ROQUES, directeur de recherche au CNRS et directrice du Laboratoire d’Astrophysique de Toulouse Tarbes (LATT, unité mixte UPS/CNRS). >>> Jean-André SAUVAUD, directeur de recherche CNRS et directeur du Centre d’Etudes Spatiales du rayonnement (CESR, unité mixte UPS/CNRS). L’astronomie en tant que science a une influence directe sur nos vies. Elle traite par exemple de l’effet du Soleil et de l’inclinaison de l’axe de rotation de la Terre sur les saisons, sur les climats, de l’effet de la Lune sur les marées. Cette science est aussi indispensable aux systèmes de navigation par satellite qui, utilisant la gravité, la rotation de la Terre et la relativité générale, permettent aux avions d’atterrir et aux balises de détresse d’être repérées. Par ailleurs, la compréhension de l’activité solaire, et celle des effets orbitaux de la Terre sont cruciales pour prédire les changements climatiques à long terme. De même, des progrès dans l’observation et la compréhension du soleil devraient conduire à prédire les orages solaires et à prévenir leurs effets sur les satellites, et sur les astronautes en mission dans l’espace. Autres mondes L’astronomie a aussi une immense dimension culturelle. Elle traite de questions fondamentales pour l’humanité, telle que l’origine de l’univers, du temps et de l’espace, celle de notre galaxie et des étoiles qui la forment, celle de notre système solaire, de notre planète et même de la vie. Depuis une dizaine d’année, en effet, les astronomes ont entrepris la recherche d’autres mondes au-delà de notre système solaire, d’autres systèmes planétaires autour de soleils distants. Il en résulte une coopération intense entres astronomes, chimistes et biologistes pour tenter de comprendre les conditions dans lesquelles la vie pourrait s’être développée ailleurs et comment cette vie extrasolaire pourrait être détectée. Astronomie et technologie sont étroitement liées. En effet la nécessité d’accroître toujours la qualité des mesures, en terme de sensibilité et de précision, a souvent poussé au développement de nouvelles technologies avec un impact sociétal fort. C’est ainsi que les télescopes optiques et infrarouges au sol ont des tailles de plus en plus grandes et peuvent maintenant être installés à des altitudes extrêmes. Si les télescopes radio, utilisés depuis le milieu de siècle dernier, ont ouvert une nouvelle fenêtre sur l’univers, la possibilité d’utiliser les satellites a permis de couvrir la totalité du spectre électromagnétique. Big Bang L’origine de l’univers est donc la question essentielle que voudrait résoudre l’astrophysique. La description des premiers instants est toujours impossible faute de théorie. Les cosmologistes utilisent un modèle dit standard (celui du Big Bang) qui retrace convenablement l’histoire de l’univers après sa première seconde, en utilisant la relativité générale. Avec cependant des lacunes importantes concernant l’origine de la matière et de l’énergie noire. En effet toutes les structures de l’univers organisées par la gravité, galaxies, amas de galaxies…, sont dominées par une matière invisible. En outre l’expansion de l’univers s’accélère avec le temps. Une forme d’énergie inconnue, dite noire est nécessaire à cette expansion. Observations et théories sont confrontées à ce problème, posé depuis une dizaine d’années, qui révolutionne l’astrophysique et la physique. C’est l’astrophysique qui décrit tant le cycle de la matière dans l’univers que la formation des étoiles et des planètes. En effet, les réactions nucléaires à l’intérieur des étoiles sont à l’origine de l’évolution de la matière dite ‘visible’ de l’univers, permettant la création de métaux en partant des éléments légers initiaux. Les éléments les plus lourds sont générés au moment de l'explosion cataclysmique d'étoiles massives. L’explosion survient quand l’étoile a épuisé tout son combustible nucléaire, provoquant ainsi l'effondrement du coeur et l’expulsion d'une quantité d'énergie considérable qui souffle les couches externes de >>> page 4 Paul Sabatier — Le magazine scientifique — numéro 11 Astrophysique dOSSIER >>> l'étoile, pour ne laisser qu'une étoile à neutron ou un trou noir. C’est cependant dans le milieu interstellaire et dans les disques circumstellaires que se forment les molécules complexes nécessaires à la vie. Dans ce milieu interstellaire, immense réacteur chimique, des molécules organiques se forment au voisinage des protoétoiles et une branche de l’astrophysique traite avec des chimistes du cycle de la matière dans les étoiles et le milieu interstellaire. Coopérations internationales Cet éclairage très partiel, donne une idée de la complexité de la tâche des astrophysiciens dont les disciplines couvrent des champs de connaissance particulièrement vastes et traitent de sujets allant de l’origine de l’univers, la formation des étoiles et des planètes jusqu’au cycle de la matière. Ces disciplines ont besoin d’une forte structuration et doivent s’appuyer sur d’intenses coopérations internationales. Au niveau européen l’astrophysique est structurée par l’ESO (European Southern Observatory) et par l’ESA (European Space Agency). Au niveau >>> Interaction entre deux galaxies, vue par le télescope spatial Hubble (copyright NASA, ESA). français, c’est l’INSU (Institut National des Sciences de l’Univers) qui regroupe et fédère l’action des laboratoires, avec pour l’espace le support du CNES (Centre National d’Etudes Spatiales). A Toulouse, les recherches en astrophysique se font dans deux laboratoire, le CESR (Centre d’étude spatiale des rayonnements) et le LATT (Laboratoire d’astrophysique de Toulouse-Tarbes), tous deux unités mixtes du CNRS et de l’UPS. Contacts : [email protected] et [email protected] Les filières de formation dans le domaine de l’astrophysique L’Université Paul Sabatier propose à des étudiants issus des licences de physique une formation de niveau master conduisant à une spécialité recherche «Astrophysique, sciences de l'espace et planétologie» et à une spécialité professionnelle « Sciences et techniques spatiales». La poursuite en thèse s’effectue dans le cadre de l’Ecole doctorale Sciences de l’univers, de l’environnement et de l’espace (SDUEE, cohabilitée avec SupAéro) dans un des laboratoires d’astrophysique. page 5 dOSSIER Astrophysique Le champ magnétique, maillon manquant pour comprendre la naissance des nouveaux mondes Comment les étoiles se forment-elles ? Comment les systèmes planétaires naissent-ils ? Pour le savoir, les astrophysiciens doivent découvrir la recette que la Nature emploie pour transformer de vastes nuages cosmiques de gaz en disques d'accrétion, puis en étoiles et en planètes. Il semblerait que, parmi les ingrédients majeurs, le champ magnétique figure en bonne place. >>> Jean-François DONATI, directeur de recherche CNRS au Laboratoire d’astrophysique de Toulouse Tarbes (LATT, unité mixte UPS/CNRS). L’étoile V2129 Ophiuchi, située dans une des pouponnières stellaires les plus proches du Soleil, la constellation d'Ophiuchus, est un candidat idéal pour étudier ces questions. Bien que presque aussi chaude que le Soleil et environ 2.5 fois plus grosse que lui (sa contraction jusqu’à sa taille adulte n'étant pas achevée), elle est pourtant environ un million de fois trop peu lumineuse pour être visible à l'oeil nu, du fait de sa distance à la Terre (420 années-lumière). Elle n'est âgée que de 2 millions d'années. Ramenée à l'échelle de la vie humaine, c'est une bébé-étoile d'à peine quelques jours, qui doit encore passer une année entière à se contracter pour devenir une étoile adulte comme le Soleil, accompagnée de son cortège de planètes. Les étoiles comme V2129 Oph prennent vie lorsqu'une portion du nuage moléculaire parent s'effondre sous son propre poids. Dans ce processus, le globule en effondrement se met à tourner sur lui-même de plus en plus vite à la manière d'un patineur sur glace qui rapproche les bras de son corps. Il se change alors progressivement en un disque aplati, que l'on nomme disque d'accrétion, et dont le coeur donne naissance à la nouvelle étoile tandis que le disque qui l'entoure engendre les planètes. Cette théorie, proposée à l'origine par le scientifique Pierre-Simon Laplace, n'est que très approximative. Elle prédit en particulier que les étoiles très jeunes doivent tourner très vite sur elles-mêmes, une propriété qui n'est pas confirmée par les observations. Il est donc clair qu'il nous manque certains des ingrédients élémentaires de cette recette. Jets de matière L'ingrédient manquant est probablement le champ magnétique. Les champs magnétiques affectent peu en effet la vie des étoiles adultes comme le Soleil. Dans les régions de formation d'étoiles en revanche, les champs magnétiques sont probablement beaucoup plus puissants. Grâce à leurs toiles invisibles traversant les nuages protostellaires, les champs magnétiques parviennent à contrôler la dynamique des disques d'accrétion, et à produire de très longs jets de matière en redirigeant vers le milieu interstellaire une fraction de la matière du disque. Les champs magnétiques page 6 >>> Liens magnétiques entre un bébé-étoile et son disque d’accrétion (vue d’artiste). © Chandra parviennent également à évacuer les régions centrales des disques d'accrétion (en contact direct avec l'étoile), ainsi qu'à guider la matière du bord interne du disque jusqu'à la surface de la jeune étoile au moyen de “tubes magnétiques” (comme de la lumière dans des fibres optiques). Les détails physiques de cette opération sont essentiels pour comprendre et prédire le destin d'une étoile et de son cortège de planètes. C'est en mesurant la polarisation que les champs magnétiques engendrent dans la lumière de V2129 Oph que les chercheurs ont pu cartographier pour la première fois les gigantesques arches magnétiques qui relient la jeune étoile à son disque d'accrétion. Grâce à leur travail, les théoriciens devraient pouvoir développer de nouveaux modèles plus précis de la formation des étoiles et des planètes. Pour cette découverte, ils ont utilisé le spectropolarimètre ESPaDOnS installé sur le Télescope Canada-FranceHawaii de 3.6m au sommet du Mauna-Kea, un volcan éteint de l'archipel d'Hawaii. Depuis Décembre 2006, le Télescope Bernard Lyot de l’Observatoire du Pic di Midi est équipé du même instrument (NARVAL) et assiste ESPaDOnS dans son enquête sur les origines des étoiles et des planètes. pour en savoir plus: http://www.ast.obsmip.fr/article.php3?id_article=628 Contact : [email protected] Paul Sabatier — Le magazine scientifique — numéro 11 Astrophysique Le milieu interstellaire, berceau des étoiles La spectroscopie permet de suivre la transformation des nuages de matière dans le milieu interstellaire et de mieux comprendre la genèse des étoiles et leurs cortège de planètes. >>> Christine JOBLIN, directeur de recherche au CESR (unité mixte UPS/CNRS). >>> Charlotte VASTEL, astronome-adjoint au CESR (unité mixte UPS/CNRS). La matière interstellaire est composée d’atomes, radicaux et molécules plus ou moins complexes ainsi que de très petits grains de poussière de dimensions sub-microniques. Mais cette matière diluée entre les étoiles est en constante évolution physico-chimique. A des phases chaudes et ténues succèdent des phases très froides et denses qui sont le berceau de la formation de nouvelles étoiles. Ce sont les détails de cette évolution que recherche le Centre d’étude spatial des rayonnements (CESR) au moyen d’observatoires spatiaux et de dispositifs expérimentaux, dans le cadre de collaborations largement interdisciplinaires entre astrophysiciens, physiciens et chimistes. >>> la nébuleuse de la Trifide observée dans le visible et dévoilée dans l’infrarouge par le télescope spatial Spitzer (NASA). Placenta Dans les condensations sombres et froides, les grains coagulent entre eux et les molécules sont en grande partie collées sur ces grains pour former des manteaux de glaces moléculaires. Dans les régions plus chaudes et brillantes soumises au rayonnement UV et visible des étoiles, les molécules s’évaporent, des grains sont photodissociées et les grains eux-mêmes évoluent sous l’action du rayonnement. La spectroscopie, en particulier dans les domaines de l’infrarouge et du millimétrique, est l’outil qui permet de suivre les transformations de cette matière. En effet, d’une part ces domaines contiennent des signatures caractéristiques des molécules et des grains et d’autre part, la lumière visible est bloquée par la poussière alors que les longueurs d’ondes plus grandes comme l’IR dévoilent les régions plus denses tels les cocons de poussières, « placenta » dans lesquels les cœurs pré-stellaires, embryons d’étoiles, se forment. Dans ces cœurs froids et denses, la majorité des molécules en phase gazeuse condensent à la surface des grains et un enrichissement en deutérium des molécules en phase gazeuse est observé. Ce sont des ions moléculaires tels H2D+ et D2H+ (découvert par C. Vastel) qui sont utilisés pour sonder ces coeurs et en comprendre la chimie. Toutes ces données spectrales permettent ainsi de tracer les étapes les plus jeunes de la formation stellaire. Dans un autre type de régions, là où la matière est chauffée par le rayonnement UV et visible des étoiles, les données des télescopes infrarouges ISO et Spitzer ont permis à notre équipe de caractériser l’évolution des très petits grains de poussière et leur lien avec les macromolécules polycycliques aromatiques hydrogénées (PAH) et la chimie du carbone. Relier ces observations spectrales aux processus physico-chimiques mis en jeu nécessite un travail en page 7 amont reposant sur des expériences de laboratoire et des calculs théoriques. Ces études comportent un certain nombre d’enjeux comme l’approche en laboratoire des conditions d’isolation et de basses températures du milieu interstellaire (objectif du dispositif PIRENEA au CESR) et pour les études théoriques, la mise en place de simulations dynamiques impliquant des nanograins (travaux en cours au LCPQ (unité mixte UPS/CNRS). Un domaine inexploré En 2008, le lancement de la mission spatiale Herschel-Planck va permettre d’explorer l’Univers dans les domaines des longueurs d’onde de l’IR lointain et du sub-millimétrique. Cela permettra de mieux caractériser l’évolution physico-chimique des grains à basse température incluant les processus de coagulation en lien avec les études expérimentales qui sont menées avec le dispositif ESPOIRS au CESR. Un autre enjeu sera celui d’identifier les macromolécules PAH. De plus, les études de spectroscopie du gaz à (très) haute résolution spectrale avec le spectromètre hétérodyne HIFI d’Herschel, en partie développé au CESR sous la direction d’Emmanuel Caux, vont nous permettre de progresser dans la compréhension de la formation des étoiles et des systèmes planétaires en dévoilant un domaine de longueurs d’onde inexploré à ce jour, car inaccessible depuis les télescopes au sol. Contacts : [email protected] et [email protected] Astrophysique Un Big Bang toujours subversif Les toutes dernières observations semblent confirmer la pertinence du modèle du Big Bang. Pourtant, celui-ci pourrait amener à remettre à plat tout un pan de la physique : la relativité générale. >>> Alain BLANCHARD, professeur UPS, chercheur au laboratoire d’astrophysique de Toulouse Tarbes dOSSIER (LATT, unité mixte UPS/CNRS). C’est l’histoire d’un succès. En 1964, la découverte d’un rayonnement électromagnétique, le fameux « fond cosmologique » marque l'avènement de la cosmologie moderne. Il donne un coup d’accélérateur au modèle du « Big Bang », dont les bases avaient été posées dès les années 1930, mais qui va dès lors acquérir un statut de « science établie ». C'est ce qui conduira le comité Nobel a récompenser en 1978 les auteurs de sa découverte. Les progrès au cours des quarante dernières années ont été particulièrement spectaculaires: l'histoire de l'univers depuis le premier milliardième de seconde jusqu'à l'époque actuelle est comprise dans ses grandes lignes. L'expansion de l'univers est confortée par de nombreuses observations. Les abondances des éléments légers (Hélium 4, Hélium 3, Deutérium et Lithium 6) sont en bon accord avec les observations, même si les processus complexes au sein des étoiles, peuvent rendre délicates les comparaisons fines. La mesure détaillée du spectre du fond cosmologique, effectuée en 1990 par le satellite COBE et par une expérience à partir d’une fusée canadienne ont montré que ce spectre était un corps noir quasi parfait en total accord avec les attentes. Ce satellite a par ailleurs permis pour la première fois de détecter des variations dans le fond cosmologique. Or, dans les années 1930 Georges Lemaître avait proposé que les structures qui peuplent l'univers actuel (galaxies, amas de galaxies, structures plus grandes encore dont la taille se >>> Traduction en intensité de couleur des variations d'intensité de la carte céleste du rayonnement cosmologique. Ces variations sont infimes: typiquement 0.001%. Elles sont essentiellement dues aux fluctuations primordiales, ces compte en centaines de millions d'années lumière) étaient le résultat de la concentration sous l'effet de la gravitation de structures initialement plus beaucoup ténues. L'image fournie par COBE d’un fond cosmologique dont la densité varie colle admirablement avec cette proposition. Les fluctuations seraient alors les ancêtres des structures actuelles et le fonds cosmologique donnerait à voir l'univers tel qu'il était il y a environ 14 milliards d'années, quelques 350 000 ans après le « Big Bang ». Univers incroyable Cerise sur le gâteau, les fluctuations du fond cosmologique possèdent les caractéristiques attendues. Ce sont ces résultats qui valurent à Georges Smoot et John Mather le prix Nobel de physique en 2006. Pourtant le modèle d'univers qui a aujourd'hui la faveur de la quasi totalité des cosmologistes est un univers vraiment « incroyable ». L'essentiel de ce qui constitue les grands objets de l'univers, galaxies, amas, grandes structures est en effet constitué d’une matière inconnue sur Terre : une matière qui n'est pas constituée d'atomes, peut être des particules encore inconnue des accélérateurs, et dont seule l'action gravitationnelle est perceptible. Cette perspective a largement contribué à faire de la cosmologie un champ au carrefour de l'astrophysique, de la physique des particules et de la physique théorique. Une autre conclusion, plus spectaculaire s’est imposée depuis une dizaine d'années : il existe à l'échelle de l'univers une force répulsive. Ceci fut une surprise totale, car à l’échelle de l’univers, c'est la gravitation qui domine, or celle-ci est toujours attractive. La présence de cette force qui produit une accélération de l'expansion de l'univers (et non une décélération comme on s'y attendait) nécessite une révision extrêmement profonde de la physique fondamentale: soit qu'un nouvel élément contribue de façon dominante au bilan gravitationnel de l'univers (il pourrait s'agir tout simplement du vide!), soit d'une façon plus radicale qu'il faille revoir la relativité générale... variations minimes de la densité de l'univers quand celui ci était âgé de seulement 350 000 ans, époque la plus reculée qui soit accessible à l'observation.... page 8 Contact : [email protected] Paul Sabatier — Le magazine scientifique — numéro 11 Astrophysique Au plus près des trous noirs L’observation des photons de haute énergie permet d’étudier les phénomènes les plus violents de l’univers : les émissions de rayons X et gamma impliquant des étoiles à neutrons ou des trous noirs. >>> Jean-Juc ATTEIA, astronome au Laboratoire d’Astrophysique de Toulouse Tarbes (LATT, unité mixte UPS/CNRS) et Jean-Pierre ROQUES, directeur de recherche au CNRS, au Centre d’études spatiales du rayonnement (CESR, unité mixte UPS/CNRS). L'observation de la voûte céleste dans le domaine des rayons X et gamma (de quelque kilo électron-Volt à quelque Méga électron-Volt) nous fait approcher au plus près des astres compacts – étoiles à neutrons et trous noirs – et de comprendre les processus physiques associés aux très grands transferts d’énergie. Toutefois, notre atmosphère étant opaque aux photons de haute énergie, les instruments utilisés doivent être placés à bord de ballons stratosphériques ou de satellites. Le CESR a, depuis sa création en 1963, été un des leaders pour la conception et la réalisation de tels instruments. Le lancement du télescope Sigma en 1989 marque notamment une étape majeure pour le développement de l'astronomie gamma. Une nouvelle étape a été franchie en 2002 avec le lancement, à bord de la mission Integral (de l’agence européenne ESA), sous la responsabilité du CESR, du spectromètre SPI, toujours en fonctionnement, qui donne accès à la haute résolution spectrale grâce à 20 kg de détecteurs en Germanium refroidis à 80 Kelvin. Quelques secondes d’émission Les émissions X et gamma sont très souvent variables, parfois même elles ne durent que quelques secondes, pendant lesquelles la source émet une énergie comparable à celle rayonnée par le Soleil durant toute sa vie. Les chercheurs du CESR et du LATT collaborent étroitement pour observer ces sources de façon coordonnée depuis le sol (en visible) et l’espace, par exemple en utilisant des télescopes entièrement robotisés qui se pointent en quelques secondes en direction des sources signalées par les satellites (observatoire TAROT). >>> Une vue en coupe du télescope SPI. L’interprétation scientifique de ces observations nous apporte un éclairage unique sur plusieurs processus clefs de l’Univers. Ainsi, le champ de gravitation intense qui existe à proximité des objets compacts – trous noirs et étoiles a neutrons – en accélérant la matière permet d'atteindre des densités extrêmes. Il se crée donc des plasmas qui sont le siège de mécanismes associés aux très grands transferts d'énergie, avec des densités de rayonnement exceptionnelles. Nous disposons donc là de “laboratoires naturels” permettant d'étudier le comportement des particules dans des conditions bien éloignées de ce que l'on peut produire dans les accélérateurs terrestres les plus puissants. En outre, page 9 >>> Les 19 détecteurs germanium du télescope SPI en cours de test. l'observation de raies gamma nucléaires émises par les éléments créés lors de l'explosion d'une étoile permet de comprendre comment les éléments lourds apparaissent dans l'Univers. L'observation de la raie d'annihilation électron-positron témoigne quand à elle d'une quantité importante d'antimatière dans la Galaxie, dont l’origine demeure à ce jour incomprise. Enfin, l'observation du rayonnement diffus permet d'étudier les régions d’accélération des rayons cosmiques et le rôle du champ magnétique diffus de notre Galaxie. Missions spatiales Ce domaine affiche un beau dynamisme. Plusieurs instruments sont ainsi en préparation pour deux missions spatiales pour la décennie 2010-2020. > Le projet SVOM, en collaboration avec la Chine, a pour objectif de surveiller depuis l’espace des explosions stellaires donnant naissance à un trou noir, connues sous le nom de sursauts gamma. > Le projet Simbol-X, développé par le CNES et l’agence spatiale italienne, utilisera la technique du vol en formation pour positionner deux satellites à une distance de 30 m permettant de construire un instrument à grande distance focale. Cet instrument, destiné principalement à l’étude des objets compacts, va lever le voile sur les régions les plus proches des trous noirs. Contacts : [email protected] et [email protected] Astrophysique Soleil-Terre : une relation privilégiée Le magnétisme solaire a une influence sur la Terre et tout particulièrement dans le développement des technologies modernes de communication et d’exploration spatiale. >>> Christian JACQUEY, maître de conférences à l’UPS, chercheur au Centre d’études spatiales du rayonnement (CESR, unité mixte UPS/CNRS) et Fréderic PALETOU, astronome au Laboratoire d’astrophysique de Toulouse Tarbes (LATT, unité mixte UPS/CNRS). Le Soleil, une d’étoile « banale » ? Certes, c’est une étoile à maturité, plus aussi turbulente qu’une jeune étoile, mais sa proximité avec notre terre en fait une étoile très particulière ! Les astronomes peuvent non seulement l’observer et l’étudier avec un niveau de détails incomparable, mais son influence se fait aussi directement sentir dans notre environnement immédiat. C’est ainsi que le Soleil envoie un flux continu de particules chargées dans le milieu interplanétaire. Ce vent solaire rencontre sur son passage les divers obstacles du système solaire et en particulier notre planète. Il est le siège de tempêtes spatiales parfois violentes, dangereuses tant pour les systèmes embarqués que pour les spationautes. Elles résultent de l'éjection explosive de grandes quantités de matière provenant de la couronne solaire. Ces éjections de masse coronale (ou CME) sont le plus souvent associées à l’éruption de protubérances solaires, dans lesquelles le champ magnétique jouerait un rôle majeur. Le champ magnétique des protubérances solaires est étudié par spectrométrie par l’équipe « magnétisme solaire et stellaire » du LATT. Cette méthode d’observation repose sur l’exploitation du télescope franco-italien THéMIS installé sur l’ile de Tenerife (Canaries, Espagne). Cet instrument permet des observations uniques au monde tant du point de vue de leur couverture spectrale que de la qualité de la mesure polarimétrique et de la capacité à observer des objets de faible intensité, les protubérances, vues au bord du disque solaire. Orages magnétiques Les magnétosphères planétaires résultent de l'interaction du vent solaire avec les obstacles magnétisés (Terre, Mercure, Jupiter, Saturne, …). Elles constituent des cavités magnétiques creusées, gigantesques, compressées du côté jour et très étirées du côté nuit. La magnétosphère terrestre s’étire ainsi sur plus de 6 millions de kilomètres. La dynamique de la magnétosphère terrestre dépend essentiellement des conditions du milieu interplanétaire. Dans certaines conditions en effet, deux phénomènes peuvent se coupler : le vent solaire fournit de l'énergie à la magnétosphère qui l'accumule pour la dissiper lors des passages page 10 >>> Aurores terrestres vues du sol. des orages magnétiques. Au cours de ceux-ci, des particules sont fortement accélérées et précipitées le long du champ magnétique sur l'atmosphère produisant alors de magnifiques aurores boréales dans les régions des hautes latitudes. Ces précipitations, associées à la génération de courant dans l'ionosphère, perturbent énormément les activités humaines, notamment les communications radios ou GPS ainsi que de la distribution de l'énergie électrique ou des réseaux de pipe-lines. L'étude du magnétisme solaire, du vent solaire, des magnétosphères constitue la base sur laquelle s'établit la météorologie de l'espace qui est devenue incontournable dans le développement des technologies modernes de communication et de l'exploration spatiale. Les progrès instrumentaux apportent des données de plus en plus complexes et volumineuses. Afin de valoriser l’exploitation de ces observations, l’OMP héberge deux grands centres des données à vocation internationale, la base de données solaires, BASS 2000, et le Centre de Données de Physique des Plasmas, le CDPP. Contacts : [email protected] et [email protected] Paul Sabatier — Le magazine scientifique — numéro 11 Astrophysique Observer l’univers L’astrophysique progresse grâce à des observations de mondes de plus en plus éloignés. Une observation possible grâce à des instruments de plus en plus sensibles… >>> Peter Von BALLMOOS, professeur à l’UPS, chercheur au CESR (unité mixte UPS/CNRS). L’astrophysique est avant tout une science d’observation. Pour l’univers lointain, cette observation repose d’abord sur la mesure de messagers : photons et particules de très grande énergie. Les détecteurs utilisés convertissent le plus souvent des quantités de mouvement en charges électriques mesurables. C’est l’ensemble détecteur-électronique qui constitue le capteur astrophysique. Son étude et sa réalisation impliquent la mise en œuvre de savoirs-faire variés puisqu’ils impliquent physiciens du solide, des opticiens, des mécaniciens, des instrumentalistes et des électroniciens. A l’Université Paul Sabatier, le CESR, et le LATT, sont acteurs reconnus respectivement de l’instrumentation des missions spatiales et des grands observatoires au sol. Interaction avec l’industrie La photo-détection recouvre un vaste domaine spectral, de la radio aux rayons gamma de hautes énergies. Les différentes plages sont couvertes par des techniques spécifiques qui parfois se recouvrent. Nos laboratoires sont impliqués dans tout le spectre de photo-détection, hormis le domaine hertzien. La complexité des expériences et la diversité des capteurs ont amené les chercheurs à de fortes interactions avec l’industrie. La contribution des laboratoires repose sur la maîtrise de la physique des capteurs, la conception des systèmes dans leur intégralité, leur qualification, leur prototypage, leur calibration, ainsi que leur intégration sur satellite et au sol. Ces développements instrumentaux très complexes ont conduit le CESR et le LATT à faire partie de réseaux de laboratoires développant comme eux de l’instrumentation astrophysique. Concernant l’instrumentation des observatoires situés au sol, il faut signaler l’expertise unique au monde dans le domaine de la spectropolarimétrie qui a permis de développer l’instrument ESPADONS sur le grand télescope d’Hawaii et son frère NARVAL au Pic du Midi (voir article page 6 de ce dossier) >>> Le télescope spatial HERSCHEL sera lancé en juillet 2008; Il observera le ciel infrarouge et submillimétrique. Dans le domaine allant de l’infrarouge lointain au millimétrique les bolomètres refroidis à très basse température (T< 300 mK) sont les détecteurs plus sensibles. Pour améliorer encore la sensibilité des capteurs, les efforts portent sur la réalisation de matrices de bolomètres, associées à des antennes page 11 qui collectent l’énergie de l’onde électromagnétique et la guide vers les bolomètres. La disposition des antennes permet de sélectionner la polarisation. Ces dispositifs sont associés à des télescopes spatiaux refroidis (missions spatiales HERSCHEL, PLANCK, PILOT). Vol en formation Pour le rayonnement X et gamma les photons sont détectés grâce à la collection des charges qu’ils induisent à leur traversée de semi-conducteurs. Tandis que le succès des télescopes à rayons X est basé sur l’utilisation de miroirs à incidence rasante (p.e. XMM/NEWTON), il était généralement admis qu’il était impossible de réfléchir ou réfracter les rayons gamma du fait de leur longueur d’onde extrêmement courte. Jusqu’à présent, l’astronomie gamma se servait des principes de l'optique géométrique (masques codés comme les télescopes spatiaux SIGMA,SPI/INTEGRAL) ou de l'optique quantique (télescopes Compton spatiaux comme CGRO/COMPTEL). Pour réaliser des instruments ayant une sensibilité au moins 30 fois meilleure que celle des télescopes actuels, on étudie la focalisation des rayons gamma depuis une grande surface de collection vers un détecteur de faible volume. L’utilisation de deux satellites volant en formation, l’un emportant l’optique, l’autre emportant le détecteur focal, devrait permettre de réaliser un télescope de plusieurs dizaines voire centaines de mètres de focale. En astronomie X, il devient nécessaire de focaliser des rayons X de plus en plus haute énergie impliquant également des distances focales très importantes. C’est pourquoi, des projets basés sur le vol en formation ont récemment été étudiés par le CNES. Une mission de ce type devrait voler dans la prochaine décade (SIMBOL-X). Contacts: [email protected] et [email protected] Vie des laboratoires Vie des laboratoires >>> Nicolas DESTAINVILLE, maître de conférences UPS, Manoel MANGHI, maître de conférences UPS et John PALMERI, CR CNRS, auteurs de l’article et chercheurs au laboratoire de Physique Théorique (LPT, unité mixte UPS/CNRS). >>> Fraction de paires de bases ouvertes en fonction de la température pour un ADN synthétique [un brin est constitué uniquement de bases adénine (A), l'autre thymine (T)]. Les symboles correspondent aux points expérimentaux et la courbe théorique est ajustée avec seulement 2 paramètres. Les configurations typiques d'un ADN double-brin sont schématisées pour différentes températures montrant les différentes “étapes” de sa dénaturation. page 12 Quand les physiciens se penchent sur l’ADN L’ADN intéresse de plus en plus les physiciens. Nicolas Destainville, chercheur au LPT, teste un modèle statistique de dénaturation à l’IPBS, laboratoire des sciences de la vie. ➜ Vous étudiez la physique de l’ADN. De quoi s’agit-il ? En France, l’intérêt pour la « matière molle » a pris son essor autour de Pierre Gilles de Gennes. Le développement d’outils capables d’accéder aux échelles nanométriques a en outre donné des perspectives passionnantes aux physiciens, qui ont enfin accès à ces échelles d’espace, soit pour y tester des développements théoriques de la matière molle parfois anciens, soit pour proposer de nouveaux paradigmes susceptibles de rendre compte des expériences. Les physiciens s’intéressent beaucoup à la double hélice d’ADN. Pour eux, elle est bien souvent vue comme un simple polymère en solution. Ce système-modèle isolé de la complexité du milieu biologique permet d’étudier les propriétés physiques et mécaniques de l’ADN et de comprendre certains des mécanismes fondamentaux. Comprendre la physique de l’ADN et de sa dénaturation, c'est-àdire la séparation en deux brins de la double hélice, est un défi important dans la compréhension des systèmes vivants, puisque de nombreux mécanismes biologiques, comme la condensation de l’ADN, la réplication, la transcription ou la fixation de protéines en dépendent intimement. ➜ Vos récents travaux, publiés dans Physical Review Letters, s’intéressent aux « bulles de dénaturation de l’ADN ». Qu’est-ce que c’est ? On pourrait imaginer que les deux brins qui forment une molécule d’ADN se séparent à partir de leurs extrémités, tels les deux côtés d’une fermeture éclair. Mais sous l’effet de la température, le double brin d’ADN peut aussi spontanément s’ouvrir en son milieu, c’est le processus de dénaturation. Lorsque cette séparation se produit sur de nombreuses bases successives, l’ouverture de ces paires de bases occasionne ce que l’on nomme une bulle de dénaturation. Les deux brins simples alors formés sont près de cinquante fois moins rigides que l’ADN double brin. Ils peuvent donc se tordre et se déformer considérablement en prenant de nombreuses configurations qui s’opposent à la recombinaison des brins et à la disparition de la bulle. ➜ Et vous avez étudié ces déformations ? Avec mes collègues John Palmeri et Manoel Manghi, nous avons analysé l’effet de la température sur la géométrie du polymère d’ADN et sur l’appariement des bases. Le modèle statistique que nous proposons relie explicitement la température de dénaturation (au-dessus de laquelle le double brin s’ouvre entièrement) aux paramètres microscopiques. Il permet également de déterminer la taille typique de l’ADN en fonction de la température, qu’il soit étiré ou en pelote. Ces prédictions permettront de tester notre modèle en le confrontant aux mesures expérimentales de ces grandeurs physiques. Des expériences sont en cours à l’Institut de pharmacologie et de biologie structurale (IPBS, unité mixte UPS/CNRS). ➜ Vous collaborez donc avec des biologistes de l’université Paul Sabatier dans ce domaine ? Bien sûr ! Avec Laurence Salomé et ses collaborateurs de l’IPBS et l’équipe de Mick Chandler au Laboratoire de microbiologie et de génétique moléculaires (unité mixte CNRS/UPS), nous essayons de développer une vraie synergie entre biologistes et physiciens. Nous co-encadrons d’ailleurs avec Laurence Salomé et Chantal Lebrun une thèse sur les membranes biologiques dans le cadre du projet MEMBIOPHYS, soutenu par le conseil scientifique de l’UPS. Je suis moi-même actuellement à l’IPBS pour une durée de six mois, en délégation CNRS. Contact : Nicolas.destainville@irsamc. ups-tlse.fr Paul Sabatier — Le magazine scientifique — numéro 11 Vie des laboratoires Mieux prévoir les orages… Avec son équipe du laboratoire d’Aérologie, Evelyne Richard a participé pendant l’été 2007 à une grande campagne internationale dans le but de mieux comprendre les orages intenses et pouvoir ainsi contribuer à leur prévision. >>> Evelyne RICHARD, Directrice de Recherche CNRS au Laboratoire d’Aérologie (LA, unité mixte UPS/CNRS). ➜ Quel est le contexte général de cette campagne COPS ? Initialement la campagne COPS a émergé d’une initiative allemande. Le projet s’est vite internationalisé et a fait appel à de nombreuses ressources européennes mais aussi américaines. Le choix de la zone d’étude, la région des Vosges et de la Forêt Noire, région transfrontalière, a bien sûr contribué à motiver une forte participation française. ➜ Quels moyens ont été déployés ? Nous avons bénéficié d’une flotte de cinq avions de recherche dont deux Falcons français et allemand, équipés de lidars embarqués et permettant la mesure de la vapeur d’eau. Ces avions ont travaillé de façon coordonnée avec un ensemble de mesures positionnées au sol (radiomètres, lidars, radars, profileurs de vent, …). Notre but était d’acquérir une cartographie aussi détaillée que possible de tous les paramètres conduisant à la genèse des orages. ➜ Quelle est la difficulté majeure dans cette appréhension des précipitations intenses liées aux orages ? Les orages sont des phénomènes rapides et intenses qui sont particulièrement mal prévus. Leur déclenchement, leur trajectoire, leur durée de vie sont sensibles à la stabilité de l’atmosphère bien sûr mais aussi à la structure à petite échelle de la topographie sous jacente ou encore à celle des champs de température et d’humidité de surface. Les modèles actuels ont une résolution insuffisante pour décrire correctement la topographie, les pics de relief y sont trop lisses, les vallées étroites complètement gommées. Leur capacité de prévision est par ailleurs très limitée par une connaissance imprécise de l’état de la surface et de l’état atmosphérique initial. >>> L’avion français de recherche Falcon 20 opéré par le groupement SAFIRE (Météo-France/CNRS/CNES). ➜ Quelle a été la contribution de votre équipe ? Nous sommes avant tout un groupe de modélisation. Naturellement, notre première contribution s’est inscrite dans ce domaine d’activité. Pendant la campagne, nous avons page 13 mis en œuvre une chaîne de prévision opérationnelle à résolution kilométrique basée sur le code de recherche Méso-NH que nous avons développé en collaboration avec Météo-France. Ces prévisions ont servi à guider la campagne et notamment à définir au jour le jour les missions des avions et le mode opératoire des différents instruments. Une seconde contribution importante de notre équipe a été de coordonner l’ensemble de la contribution française et de veiller à son insertion optimale dans le dispositif international. ➜ Peut-on dire que le code numérique que vous utilisez se place parmi les plus performants au monde pour ce type de recherches ? Notre code appartient à la petite dizaine de modèles numériques capables d’effectuer des prévisions météorologiques à très fine échelle. Il a en outre des atouts propres comme celui de pouvoir combiner des simulations très détaillées de systèmes nuageux et de qualité de l’air. ➜ Satisfaite des résultats obtenus ? La campagne s’est extrêmement bien déroulée. Le fonctionnement des instruments a été presque parfait, ce qui est une vraie gageure pour les campagnes de terrain. Mon seul regret est que l’été 2007 ait été aussi atypique. Nous avons connu un été anormalement froid où les orages isolés ont été plutôt rares. En revanche, les situations de convection frontales ont été pléthoriques. Sur ce thème, nous disposons d’une base de données d’une richesse et d’une variété sans précédent. Contact : [email protected] Vie des laboratoires Dans le secret des bactéries transformantes Certaines bactéries sont capables de capturer l’ADN présent dans leur environnement et d’acquérir ainsi de nouvelles compétences. Jean Pierre Claverys, chercheur au LMGM ausculte ce curieux mécanisme. >>> Jean-Pierre CLAVERYS, directeur de recherche CNRS (responsable de l’équipe ‘‘Transformation bactérienne & plasticité génétique’’) et Patrice Polard, directeur de recherche CNRS (responsable de l’équipe ‘‘Assemblages moléculaires et dynamique du génome des bactéries’’), chercheurs au Laboratoire de Microbiologie et Génétique labos Moléculaires (LMGM, unité mixte UPS/CNRS) avec leurs équipes. ➜ Quelles sont les conséquences de la transformation de l’ADN d’une bactérie ? Un certain nombre de ses propriétés vont changer. La majorité des bactéries ont un seul chromosome. Quand des fragments d’ADN, prélevés dans le milieu extérieur, rentrent dans la cellule, ils peuvent, à l’issue d’un certain nombre d’étapes, remplacer physiquement un morceau d’ADN du chromosome récepteur. Il y a transformation à partir du moment où le fragment qui a été intégré dans le chromosome récepteur porte des informations qui diffèrent de l’information génétique initialement présente dans la bactérie. Pour les bactéries, la transformation est une forme de sexualité rudimentaire sans gamète (spermatozoïde ou ovule) n’impliquant qu’un seul partenaire vivant (la bactérie réceptrice), l’autre étant réduit à sa plus simple expression (de l’ADN en solution). ➜ Que nous a déjà apporté, par le passé, l’étude de S. pneumoniae ? Cette bactérie est connue du grand public sous le nom de pneumocoque. C’est un pathogène majeur, responsable notamment de pneumonies, et donc étudié pour sa virulence depuis Louis Pasteur. La transformation de cette bactérie-là découverte dans les années 30-40, a conduit à l’identification de l’ADN comme support du matériel héréditaire, et donc au fondement de la biologie moléculaire moderne. ➜ Qu’apporte votre étude, à cette réflexion, publiée dans la revue « Cell » en septembre 2007 ? Depuis 2001, trois équipes ont participé à cette étude multipartite: des chercheurs du Laboratoire de microbiologie et génétique moléculaires de l’Université Paul Sabatier, du Laboratoire de génétique microbienne de Jouy-en-Josas, et du Laboratoire interactions moléculaires et cancer de l’Institut de cancérologie Gustave Roussy. Nous étudions les processus moléculaires qui amènent à cette transformation, ce qui nous a permis de caractériser le rôle de la protéine DprA. On ne connaissait jusqu’ici aucune des activités de cette protéine très largement conservée dans le monde bactérien (présence dans plus de 80% des espèces dont le génome a été séquencé), tout en lui page 14 >>> Modèle de transformation bactérienne. Au cours de la transformation, l’ADN présent à l’extérieur (OUT) sous forme double brin (dsDNA) pénètre dans la bactérie (IN) sous forme simple brin (ssDNA). Il est pris en charge par la protéine DprA qui permet le recrutement de la recombinase RecA pour former un nucléofilament mixte contenant les deux protéines. soupçonnant un rôle important puisque son absence interdit la transformation du pneumocoque. ➜ Quel rôle exact joue la protéine DprA ? L’une des problématiques de la transformation de la bactérie est la présence d’un ADN exogène qui doit rentrer dans la cellule. Lors du processus d’entrée, un seul des deux brins qui constituent la molécule d’ADN pénètre dans la cellule. Pour que la transformation ait lieu, cet ADN doit ‘’retrouver sa place’’ dans le chromosome récepteur puis remplacer physiquement l’un des brins d’ADN de la bactérie réceptrice. Cette opération extrêmement précise nécessite l’intervention d’une protéine spécifique de la recombinaison, la protéine RecA (universellement conservée dans le monde bactérien). Nous avions précédemment montré qu’en l’absence de la protéine DprA, l’ADN entrant était rapidement dégradé. Nos derniers résultats montrent que la protéine DprA est capable de se fixer sur l’ADN entrant et permet alors l’accès de la protéine RecA à cet ADN. Ils révèlent donc qu’au-delà d’un rôle de protection, la protéine DprA joue un rôle actif en facilitant l’intervention de la protéine RecA requise pour la formation des recombinants (des transformants). C’est une étape supplémentaire dans la compréhension d’un processus qui joue un rôle central dans l’évolution génétique des bactéries et dans leur capacité à s’adapter aux changements de leur environnement. Contact: [email protected] et [email protected] Paul Sabatier — Le magazine scientifique — numéro 11 Vie des laboratoires Un sérieux pas de plus vers l’ordinateur moléculaire Azzedine Bousseksou, directeur de recherche au Laboratoire de Chimie de Coordination, a fait cinq fois la couverture de plusieurs journaux scientifiques internationaux depuis 2005 (1). Au cœur de ses recherches, les composés bi-stables. >>> Équipe Matériaux Moléculaires Commutables. ➜ Qu’est-ce que que cette bi-stabilité qui suscite tant d’intérêt ? On connaît depuis longtemps des composés moléculaires « bi-stables » existant dans deux « états de spin » stables, et capables de basculer de l’un à l’autre. Notre première couverture en 2005 révélait la possibilité de provoquer de manière réversible cette commutation à température ambiante par une impulsion laser ultra-rapide de 8 nanosecondes. ➜ Cette découverte a-t-elle conduit à un brevet ? Jusqu’ici, les tentatives de mise en forme de matériaux bi-stables par dépôt sur une surface avaient été vouées à l’échec car les interactions entre la surface et le matériau déposé conduisaient irrémédiablement à la perte de cette bi-stabilité, propriété intrinsèque et fragile du matériau moléculaire. Récemment, nous avons breveté un procédé qui consiste à déposer sur la surface une couche d’ancrage composée de molécules mercaptopyridines fixées sur la surface par leurs atomes de soufre, tandis que les atomes d’azote pointés vers le haut vont servir de points d’ancrage pour construire ensuite séquentiellement (couche par couche) le complexe métallique polymérique tri-dimensionnel par auto-assemblage. L’expérience montre que le matériau ainsi isolé de la surface conserve la propriété de bi-stabilité. Nous avons alors appliqué une méthode de lithographie électronique mise au point au LAAS par l’équipe de Christophe Vieu pour organiser ce matériau sous la forme d’un réseau de plots nanométriques de 30nm de diamètre espacés de 200 nm. Ce sont ces avancées que l’on retrouve sur les couvertures des périodiques scientifiques dont vous parliez. ➜ Quelles applications peut-on envisager pour ces systèmes ? Sachant que ces plots peuvent passer de l’état « off » (bas spin) à l’état « on » (haut spin) sous l’effet d’une impulsion, ils deviennent capables de stocker une information, ce qui ouvre la voie à la conception de mémoires d’ordinateurs de haute densité. Il faut savoir que la limite actuelle page 15 >>> Photographie au microscope électronique d'un réseau de plots de 30 nm de diamètre espacés de 200 nm. Chaque plot est constitué d'un matériau moléculaire à transition de spin dont la structure moléculaire est schématisée dans l'insert. de 30 nm dans la taille de ces bits est seulement celle de la détection du signal, et non celle de la réalisation des plots, qui peuvent être de taille encore inférieure. Il devient donc possible d’abaisser la limite de miniaturisation des composants électroniques conventionnels. Nous envisageons de la même manière la mise en forme de matériaux type « bleu de Prusse » pour lesquels on pourra étudier en plus de la bi-stabilité les transferts d’électrons et la modulation de la conductivité par la distance entre les plots. En outre, avec le progrès des techniques de nanolithographie, il est également possible d’organiser ces matériaux non plus en plots, mais par exemple en lignes régulièrement espacées constituant des réseaux optiques capables de diffracter la lumière et adressables à volonté. Ces travaux sont un sérieux pas de plus vers l'ordinateur moléculaire et les composants nanoélectroniques et optoélectroniques. (1) : Angewandte Chemie International Edition (2005 et 2006), Advanced Materials (Juillet 2007), J. Phys. Chem. A (Aout 2007), Chemical Physics Letter (Octobre 2007) Contact: [email protected] SYSTÈMES EMBARQUÉS Technologie de pointe ou du quotidien : les systèmes embarqués sont au cœur d’applications sensibles C'est un des points forts de la recherche toulousaine: sa coopération avec l'industrie pour la conception de systèmes embarqués, que ce soit dans les avions, dans les voitures ou dans les téléphones portables. >>> Jean ARLAT, Directeur de recherche CNRS, dOSSIER au LAAS, unité CNRS, associée à l’UPS. On les appelle aussi des systèmes « enfouis ». Les systèmes embarqués, sont des systèmes électroniques et informatiques autonomes, construits pour effectuer des tâches précises. Cette autonomie nécessite qu’ils soient capables d’interagir avec leur environnement et de gérer leurs ressources disponibles (puissance de traitement, capacité de stockage, énergie, etc.). On trouve des systèmes embarqués partout. Au-delà du militaire, de la production de l’énergie, du spatial, de la productique, de tels systèmes sont aussi largement déployés dans les transports : aérien, routier, ferroviaire, naval. Dans ces domaines où l’erreur peut avoir de graves conséquences, le processus de développement est particulièrement rigoureux — tant des composants matériels et logiciels que de leur interconnexion — mettant de plus en plus en jeu des techniques formelles. La sûreté de fonctionnement est aussi obtenue en incorporant des mécanismes de détection d’erreur et de reconfiguration en ligne permettant d’améliorer la résilience des comportements. Lorsqu’une faute survient, qu’elle ait été anticipée, simplement prévisible, ou même non prévue (perturbations physiques, activation de bogues, méprises,…) le système doit être capable de se remettre en route. Intelligence ambiante Mais les systèmes embarqués pénètrent de plus en plus la vie quotidienne, et ce, bien au-delà de la bureautique : la téléphonie mobile, la santé, la domotique, l’assistance aux personnes, la monétique, les jeux, etc. L’autonomie est d’autant plus difficile à réaliser dans ces domaines que les systèmes sont introduits au milieu d’un grand nombre de dispositifs numériques qui interagissent simultanément entre eux ou avec les infrastructures fixes (Internet). Par ailleurs, ces applications doivent tenir compte des interactions potentielles des individus avec de tels dispositifs, interactions souvent inconscientes (et donc pas forcément maîtrisé). En plus de la problématique liée aux fautes accidentelles qui a été évoquée plus haut, ce contexte « d’intelligence ambiante », largement ouvert, évolutif et hyper-communicant, génère d’autres types de menaces, comme le déni de service, le vol d’identité, ou encore l’atteinte à la vie privée. Les laboratoires toulousains sont bien placés au niveau international dans la recherche et la proposition de solutions bien adaptées (c’est-à-dire, à la fois novatrices et viables) pour relever les principaux défis associés à l’essor des systèmes embarqués destinés à des applications critiques. Trois laboratoires phares sont à mentionner : l’Institut de Recherche en Informatique de Toulouse (IRIT, unité mixte UPS/CNRS/INP/UT1), le Laboratoire d’Analyse et d’Architecture des Systèmes (LAAS, unité propre CNRS, associée à l’UPS) et le Centre de Toulouse de l’ONERA. Le contexte industriel, fortement axé autour du spatial, de l’avionique, de l’automobile et du ferroviaire fournit un cadre privilégié pour le développement de ces travaux et leur exploitation. Collaboration industrie-recherche De nombreuses coopérations industrie-recherche ont été mises en place sur cette thématique avec le soutien du Conseil Régional de Midi-Pyrénées. On peut citer le caractère pionnier du premier laboratoire commun français MIRGAS (MIxed Research Group Automotive System) créé en 1991 entre Siemens Automotive et le CNRS (LAAS, LEEI et IMFT) sur différentes problématiques liées à l’automobile. Une autre forme de collaboration exemplaire a été développée dans le cadre du LIS (Laboratoire d’Ingénierie de la Sûreté de >>> page 16 Paul Sabatier — Le magazine scientifique — numéro 11 Systèmes embarqués dOSSIER >>> Une « touche toulousaine » sous Broadway : Un protocole de gestion de redondances (PADRE) conçu au LAAS contribue à la sécurité de la ligne Canarsie du métro new-yorkais qui a été automatisée en 2005 par Siemens Transportation >>> Systems (© David Pirnann). fonctionnement) (http://www.laas.fr/LIS). Créé en 1992, sous la forme d’un laboratoire coopératif, le LIS a accueilli au sein du LAAS sur une période de 8 ans, 17 ingénieurs issus des sociétés industrielles partenaires — Airbus, Astrium, EDF, AREVA TA, Thales — travaillant en étroite collaboration avec les chercheurs du LAAS impliqués. Le LIS a assuré la formation de 13 doctorants, dont la majorité a intégré le tissu industriel régional. On peut également citer le laboratoire commun AUTODIAG (http://www.laas.fr/autodiag) établi en juin 2005 entre la société ACTIA, l’IRIT et le LAAS sur le diagnostic dans le domaine automobile. L’accord de coopération AIRSYS (Architecture et ingénierie des systèmes) établi en avril 2006 entre Airbus, l’IRIT, le LAAS et l’ONERA est un autre exemple récent de la concrétisation des liens existant entre le secteur industriel et la recherche publique autour de la problématique des systèmes embarqués. Cette problématique constitue également un des quatre thèmes structurant la Fondation de Coopération Scientifique « Sciences et Technologies pour l’Aéronautique et l’Espace ». Il faut également souligner la place centrale occupée par les systèmes embarqués au sein du pôle de compétitivité Aerospace Valley. Au-delà de ce périmètre, on peut citer la contribution depuis 2005 au programme Num@tec Automotive développé au sein du pôle System@tic ParisRegion (projets MasCotTE et SCARLET). Au niveau européen, il est important de noter le fort accent mis sur l’informatique mobile et ubiquitaire au sein du réseau d’excellence du 6ème PCRD ReSIST (Resilience for Survivability in IST) créé en janvier 2006 pour une durée de 3 ans et dont la coordination est assurée par le LAAS. Il faut aussi souligner la participation au pôle d'innovation EICOSE (European Institute for COmplex & Safety critical embedded systems Engineering) mis en place en avril 2007 dans le cadre de la plate-forme technologique européenne ARTEMIS (Advanced Research & Technology for EMbedded Intelligence and Systems). Contact : [email protected] Les filières de formation aux systèmes embarqués La formation initiale en matière de systèmes embarqués est un volet majeur à l’Université Paul Sabatier et au sein des autres établissements d’enseignement supérieur toulousains. Au niveau des formations de niveau master, on peut noter : • l’IUP Ingénierie des systèmes et microsystèmes embarqués (ISME) — http://www.laas.fr/~gibs/iup-isme/Isme.html. • le master pro Génie logiciel, logiciels répartis et embarqués (GLRE) — http://www.irit.fr/PERSONNEL/SMAC/arcangeli/M2GLRE.html • le master pro Concepteur des architectures des machines et des systèmes informatiques (CAMSI) — http://www.enseeiht.fr/fr/master/masterp_camsi.html • le master spécialisé Systèmes embarqués — http://www.enseeiht.fr/fr/masters_specialises/systemes_embarques.html page 17 dOSSIER Systèmes embarqués Maîtriser les temps d’exécution Le défi pour les concepteurs de calculateurs destinés aux systèmes critiques est d'offrir de plus en plus de performance de calcul et d'assurer la terminaison de l'exécution d'une application en un temps donné quels que soient les événements. >>> Pascal SAINRAT, professeur à l'UPS, chercheur à l'IRIT (unité mixte UPS/CNRS/INP/UT1) et Jacques Collet, directeur de recherche au CNRS, chercheur au LAAS, (unité CNRS associée à l'UPS) et les membres des équipes participant aux projets MasCotTE et SCEPTRE. L'idéal serait d'obtenir toujours exactement le même temps d'exécution. S'oppose à cet idéal l'idée même d'algorithme, un programme étant en réalité composé de suites d'instructions parcourues différemment selon l’état du système. De ce fait, ce qui doit être garanti par le concepteur du système est un temps maximal d'exécution de l'application quoi qu'il se passe (appelée WCET pour Worst-Case Execution Time). Pour garantir cette borne, on peut imaginer une approche exhaustive consistant à exécuter l'application sur le calculateur dans toutes les conditions possibles. Cependant, le besoin en performance et, plus généralement, l'évolution de la technologie ont rendu les calculateurs de plus en plus complexes et ceux-ci ont un état interne et donc un temps d'exécution dépendant des événements passés. Il est donc nécessaire de garantir un WCET statiquement, c'est-à-dire sans exécution sur le calculateur, ce qui nécessite d'analyser conjointement le programme et le matériel sur lequel il doit s'exécuter. Eviter les conflits Ainsi, s'il y a quelques années, on pouvait calculer des temps d'exécution uniques pour chaque suite d'instructions et faire la somme des temps de ces suites pour chaque ensemble de suites possibles, ce n'est plus possible et on doit recourir à des analyses plus globales sur chaque ensemble de suites. L'analyse statique devient donc, elle aussi, incroyablement complexe. Il devient alors difficile d'assurer qu'elle est correcte. Le défi est donc de trouver des architectures de calculateur à la fois performantes et pour lesquelles une analyse statique peut être construite simplement. Il est alors facile de garantir qu'elle est correcte et donc que le temps d'exécution maximum calculé est sûr. Nos contributions portent sur l'amélioration, non seulement des méthodes d'analyse statiques pour des processeurs complexes, mais aussi des architectures de processeurs à la fois performantes et analysables, comme la proposition d'un mode d'exécution spécifique rendant analysable un processeur superscalaire par évitement des conflits possibles entre instructions au sein du processeur. page 18 >>> un des calculateurs de l'A380. (copyright Airbus) Nous développons aussi une chaîne de mesure dynamique. L’utilisation conjointe des méthodes statiques et dynamiques permettra d'apprécier la représentativité des vecteurs de tests utilisés dans l'approche dynamique, ainsi que les approximations introduites dans la description architecturale par l'approche statique. L'équipe TRACES de l'IRIT et le groupe TSF du LAAS tentent de faire face à ce défi au travers de deux projets. Le projet ANR MasCotTE (Maitrise et Contrôle des Temps d'Exécution) répond à une demande du monde de l'automobile : les méthodes d'analyse statique actuelles peuvent-elles être utilisées pour les futurs calculateurs ? Le projet SCEPTRE (Systèmes Critiques Et Propriétés TempoRElles), mené en collaboration avec Airbus au sein du laboratoire commun AIRSYS et soutenu par la Région MidiPyrénées, tente de définir une charte de conception des calculateurs permettant de réaliser des calculateurs analysables le plus simplement possible. Contacts : [email protected] et [email protected] Paul Sabatier — Le magazine scientifique — numéro 11 dOSSIER Systèmes embarqués Aéronefs sans fils L'introduction de capteurs sans fils autonomes dans les applications aéronautiques embarquées ouvre de nouvelles perspectives. >>> Robert PLANA, Professeur UPS et membre de l’IUF, chercheur au LAAS (unité CNRS, associée à l’UPS). Les réseaux de capteurs sans fils sont en train de bouleverser la conception de nouveaux aéronefs. L'explosion des recherches dans ce domaine va conduire à une nouvelle manière de développer les aéronefs, mais aussi d'effectuer la maintenance et à l'émergence de nouveaux services à bord. L’idée consiste à déployer des nappes de capteursactionneurs pouvant être autonomes, mais connectés sans fils et capables à la fois de récupérer des informations, afin d'en faire un traitement préliminaire ou non suivant le type d’architecture et de les envoyer vers une unité centrale miniaturisée. >>> Architecture typique d’un réseau de capteurs sans fil incluant Signature radar des innovations technologiques. Le premier axe de nos recherches propose des avancées sur les nouvelles générations de capteurs basées sur le couplage entre une grandeur physique et/ou chimique et la résonance électromagnétique. Des capteurs de pression ont déjà été réalisés utilisant des techniques de micro-usinage de surface et de volume et une technique d’assemblage (le « wafer bonding ») qui présente des résolutions inférieures à 100 Pa. D’autres études en cours visent à exploiter les ondes acoustiques de surface et de volume en utilisant des matériaux tels que le PZT ou le ZnO pour réaliser sur le même principe des capteurs de contrainte. L’originalité la plus marquée est liée au moyen de lecture de ces données qui sera basée sur le principe de la mesure de la « signature radar » des capteurs en les excitant à partir d’un radar à modulation de fréquence et en mesurant le décalage fréquentiel associé à la valeur de la quantité physique et/ou chimique. Un second axe de recherche concerne les aspects énergétiques en fonction des gammes d’énergie nécessaire. Ainsi, une première voie consiste à explorer les technologies photovoltaïques associées à des architectures de circuits appropriées. Une seconde voie vise à explorer la récupération d’énergie mécanique à partir d’actionneur piézoélectrique et une troisième voie est liée à l’exploitation de l’effet Seebeck géant présenté par les nanotubes de carbone. page 19 Plateforme de simulation Un troisième axe de recherche concerne les architectures des systèmes de communications qui devront présenter un fort caractère de reconfiguration soit au niveau analogique à l’aide de MEMS soit au niveau numérique à l’aide d’architectures « Ultra Wide Band » par impulsions (entre 5GHz et 60 GHz). Ceci devrait permettre de minimiser les interférences ainsi que les perturbations environnementales car les niveaux de puissances mis en jeu seront extrêmement faibles. Ces travaux sur les architectures sont menés conjointement avec des travaux sur les antennes miniaturisées planaires qui seront implémentées dans les réseaux de capteurs. Le quatrième axe de recherche explore des architectures aux fonctionnalités augmentées incluant les aspects communication, datation, localisation, fiabilité prédictive tout en respectant les contraintes énergétiques. Une plateforme de simulation et d’émulation tout à fait originale a été mise en place afin de prédire les dimensionnements du réseau à mettre en place. Cette plateforme est enrichie par des recherches sur les protocoles de communication qui doivent répondre aux architectures reconfigurables à très faible consommation et haut débit. Partenariats : AIRBUS-EADS-INTESPACE-CRILDELTA-EPSILON-DATUS Contact : [email protected] dOSSIER Systèmes embarqués Eviter les erreurs de communication dans les futurs avions Les avions du futur seront commandés avec des liaisons numériques. La complexité des réseaux de communication nécessite d'inventer des systèmes pour vérifier qu'aucune erreur n'a déformé le message. >>> Yves CROUZET, Chargé de recherche Dans le domaine de l'aviation civile, un des défis pour les systèmes de commande de vol du futur est le remplacement des liaisons analogiques entre les calculateurs et les capteurs/actionneurs par un réseau de communication numérique. A court terme, cela réduira le poids du câblage. A plus long terme, le passage au numérique permettra de satisfaire aux exigences que nécessiteront le remplacement des gouvernes actuelles par une multitude de petites surfaces qui ne pourront plus être commandées par des liaisons analogiques. au CNRS et Agnan DE BONNEVAL, Maître de conférence UPS, chercheurs au LAAS (unité CNRS, associée à l’UPS). Depuis 2001, Airbus et le LAAS ont engagé des études communes sur ce sujet. >>> réseau numérique pour les commandes de vol : Il est très rapidement apparu que, compte tenu de la présence nécessaire dans le réseau de communication de noeuds intermédiaires complexes et donc actifs, les techniques classiques de protection des communications ne pourraient pas être utilisées pour faire face à des erreurs répétitives. Nous avons dû chercher une autre solution qui génère un niveau d'intégrité suffisant sans être trop onéreuse. En analysant les spécificités du domaine d'application visé, nous avons remarqué que, compte tenu de la dynamique d'évolution des organes commandés, il n'était pas nécessaire d'avoir un haut niveau d'intégrité sur un message unitaire. En effet, ce n'est uniquement la répétition de la prise en compte d'une information erronée qui peut être dangereuse. À titre d'exemple, prenons une gouverne dont la vitesse maximum de déplacement est 50°/sec et dont la consigne est rafraîchie toutes les 10 ms. Il faut que l'information erronée survienne sur 10 cycles successifs avant d'atteindre un écart de 5° par rapport à la consigne, écart qui est le seuil limite à ne pas dépasser. Protection cyclique Pour résoudre la question des répétitions d’ordres erronés, nous avons proposé une solution originale appelée Multiple Error Checking Function qui associe une protection classique (par exemple : codes CRC – page 20 vision de principe. Cyclic Redundancy Check) sur un cycle avec modification de cette protection sur des cycles successifs (par exemple : changement du polynôme générateur de CRC). Ainsi, avec une protection qui conduirait à une probabilité p de ne pas détecter une erreur sur un cycle, la probabilité de ne pas détecter cette même erreur sur aucun de trois cycles successifs utilisant des codes différents pourrait se rapprocher de la limite théorique : p3. On arrive ainsi à un faible coût de redondance en nombre de bits et à un haut niveau d'intégrité. Pour arriver à une efficacité maximale, il convient, en utilisant les bases mathématiques de tels codages, de choisir correctement les différents polynômes générateurs de façon à ce qu'ils aient le moins possible de facteurs en commun. La solution proposée a été validée via des modèles Matlab/Simulink. Cette invention a fait l'objet d’un dépôt de brevet conjoint Airbus-CNRS au niveau national (accepté) et international (en cours d’évaluation). Contacts : [email protected], [email protected] Paul Sabatier — Le magazine scientifique — numéro 11 dOSSIER Systèmes embarqués Des automobiles reliées en réseau sans fil L'utilisation des communications sans fil en voiture ouvre des perspectives nouvelles. A condition de pouvoir assurer la sûreté de fonctionnement de telles applications mobiles embarquées. >>> Mohamed Kaâniche, Marc-Olivier Killijian, Hélène Waeselynck, Chargés de recherche CNRS, chercheurs au LAAS, unité CNRS associée à l’UPS et les participants au projet HIDENETS. Le domaine de l’automobile porte un intérêt croissant à l’utilisation des communications sans-fil et des réseaux ad hoc. Elles pourraient d'une part améliorer la sécurité des passagers et, d’autre part, offrir de nouveaux services de confort et de loisir aux passagers. Grâce aux récentes évolutions dans les technologies de communication, l’établissement de réseaux maillés entre les véhicules peut permettre la transmission en temps réel des informations critiques sur l’état du trafic ou sur l’environnement permettant ainsi de réagir au plus tôt à des conditions susceptibles d’engendrer des accidents catastrophiques. De tels réseaux peuvent également être mis à profit pour d’autres applications originales. Exemple, cette idée promue par le LAAS: inventer une «boîte noire distribuée». Une boîte noire classique peut enregistrer des informations comme la vitesse du moteur ou du véhicule, l’état des freins, la position du volant, ou encore la situation de la ceinture de sécurité du conducteur. Ces informations peuvent être très utiles pour établir les causes et responsabilités dans un accident. Mais si l'on parvient à collecter l'information venant des véhicules voisins, on obtient plusieurs avantages. Premièrement, la réduction du coût du matériel de la boîte noire. Puisque la boîte noire devient « virtuelle », elle n’a plus besoin de résister aux accidents ou aux incendies. Deuxièmement, il est possible d'enrichir l'information disponible grâce à celles dont disposent les véhicules avoisinants. De cette façon, il est possible aux enquêteurs de se faire une meilleure idée des causes de l’accident. Ainsi, les informations caractérisant l’état de la voiture et de son environnement pourraient être archivées périodiquement, en utilisant les véhicules se trouvant à proximité comme support de sauvegarde temporaire permettant ainsi de préserver la disponibilité des données en cas de perte accidentelle ou malveillante des données originales. >>> : Illustration du fonctionnement d’une boîte noire distribuée basée sur une sauvegarde cooperative des données. Ceci est un des défis que tente de relever le projet européen HIDENETS (HIghly DEpendable ip-based NETworks and Services), au sein duquel le LAAS joue un rôle important. Ce projet, démarré en janvier 2006, regroupe 9 partenaires académiques et industriels et vise le développement de solutions innovantes pour concevoir, tester et évaluer des applications mobiles embarquées sûres, en privilégiant les applications dans l'automobile. page 21 Un prochain déploiement De manière plus générale, le développement d’applications relevant de l’informatique mobile embarquée est en pleine croissance. Ces applications sont basées sur la présence de processeurs embarqués dans des objets physiques et pouvant communiquer entre eux via des réseaux sans fil, avec possibilité de connexion à des infrastructures fixes. Elles devraient être déployées en masse prochainement et être accessibles à chacun dans divers domaines, par exemple, la domotique, l’assistance aux personnes, la protection de l’environnement, l’automobile et les transports en général. Toutefois, pour que les services fournis par ces nouvelles applications soient acceptés et adoptés par le plus grand nombre, ils doivent être sûrs et de confiance. Plusieurs contraintes sont donc à prendre en compte dans la conception et la validation de ces nouvelles applications, en particulier vis-à-vis de la sûreté de fonctionnement et de la tolérance aux fautes accidentelles et aux malveillances : mobilité des objets et des utilisateurs, déconnexions fréquentes, autonomie limitée, restrictions de bande passante et de traitement... Les solutions actuellement en cours de développement par le LAAS pour répondre à ces défis s’appuient sur des techniques de sauvegarde coopérative utilisant des codes d’effacement d’erreurs, qui permettent de tolérer des fautes accidentelles et des intrusions. Nos contributions concernent également le développement de méthodes et d’environnements expérimentaux pour le test et l’évaluation de la sûreté de fonctionnement de ces applications. Contacts : [email protected], [email protected], [email protected] dOSSIER Systèmes embarqués Du télédiagnostique pour les voitures L'électronique et l'informatique embarquées dans les voitures constituent un réseau tellement complexe que de nouveaux outils informatiques sont nécessaires pour le tester et diagnostiquer les pannes. >>> Louise TRAVÉ-MASSUYÈS, Directeur de recherche CNRS au LAAS (unité CNRS, associée à l’UPS) et Jean-Luc SOUBIE, Ingénieur de Recherche INRIA, à l’IRIT (unité mixte UPS/CNRS/INP/UT1/UTM). Allumage électronique, fermeture centralisée, injection, anti-vol, système anti-blocage, coussins gonflables de sécurité, correcteurs de trajectoire… L’introduction massive de fonctions électroniques et de l’informatique embarquée a provoqué ces dernières années une véritable révolution dans l’industrie automobile. Ces évolutions technologiques touchent maintenant une grande gamme de véhicules. La multiplication des fonctionnalités offertes à bord génère des faisceaux électriques d’une complexité extrême. Depuis quelques années, la solution est venue des bus multiplexés, (par exemple, CAN : Controller Area Network). Il simplifie énormément l’architecture électrique et permet donc d’en augmenter la fiabilité. La maintenance affectée en profondeur Du coup, les nouveaux véhicules sont dotés d’un équipement informatique distribué, dont la complexité se rapproche de celle d’un réseau local informatique. Les fonctionnalités offertes par cette informatique embarquée diffèrent de celles d’un réseau domestique, et les aspects temps réel et sûreté de fonctionnement y sont particulièrement critiques, ce qui en augmente encore la complexité. Il apparaît donc clairement que le problème du diagnostic doit être pris en compte très en amont, et intégré dans la chaîne de développement. Les métiers de la maintenance automobile sont également affectés en profondeur. Actuellement, un outil de diagnostic spécifique, capable de se connecter au système informatique embarqué pour en extraire des informations, est nécessaire pour envisager un diagnostic de l’état du véhicule. Les méthodes de diagnostic employées sont elles-mêmes à définir pour assurer couverture et précision maximales tout en maîtrisant le coût de conception de l’outil. >>> Architecture électrique et équipement informatique distribué à bord d'un véhicule. page 22 Par ailleurs, les nouvelles technologies (Internet, communications sans fil et architectures orientées services) ouvrent des perspectives pour le télédiagnostic, en exploitant une distribution du diagnostic à bord du véhicule, chez le constructeur et en garage. On s’oriente vers une prévention des défauts basée sur une analyse des tendances des paramètres clé et une détection des anomalies au plus tôt à bord du véhicule, accompagnées de la transmission de rapports. Elle sous-tend également l’évolution des fonctions de diagnostic pendant le cycle de vie du véhicule, par télédéchargement de fonctions de contrôle ou de réparation. Le diagnostic dans le domaine automobile pose ainsi de vraies problématiques scientifiques qui sont étudiées par le Laboratoire Commun AUTODIAG qui réunit deux laboratoires toulousains, le LAAS et l’IRIT, et la société ACTIA (http://www.laas.fr/autodiag/). Détecter les défauts Le LAAS intervient sur des études concernant le diagnostic débarqué et notamment l’élaboration de stratégies pour la génération automatique d’arbres de diagnostic ou la proposition interactive de tests à effectuer en garage. Les méthodes utilisées s’appuient sur des techniques de simulation hybride récentes qui permettent de constituer un dictionnaire de signatures de défauts. Les diagnostics préventif et distribué sont également abordés dans un contexte embarqué. Nous proposons d’espionner les messages circulant sur le réseau entre les différents calculateurs. Un test de cohérence dynamique par rapport à un modèle à événements discrets permet alors de détecter les défauts et de les identifier. L’IRIT travaille sur la représentation des connaissances du domaine, afin d’indexer les fiches constructeur constituant le retour d’expérience de diagnostics antérieurs et les requêtes des garagistes pour une recherche d’information performante. Ainsi, il est introduit une nouvelle méthode de diagnostic tirant parti de l’expertise du constructeur. De plus, l’IRIT étudie l’ergonomie des outils de diagnostic afin d’en faciliter l’acceptabilité par ses futurs utilisateurs, au-delà des aspects poste de travail et organisation du travail de l’atelier. La méthode mise en œuvre permettra de prendre en compte la spécificité de l’approche de chaque opérateur. Contacts : [email protected] et [email protected] Paul Sabatier — Le magazine scientifique — numéro 11 dOSSIER Systèmes embarqués Topcased : Un logiciel libre pour développer des systèmes et des applications critiques. L'atelier-logiciel Topcased, un des projets majeurs du pôle de compétitivité Aerospace Valley, permet de développer des modèles. Il est capable de s'adapter à l'évolution des systèmes et des langages de programmation. >>> François VERNADAT, Professeur à l’INSA et chercheur au LAAS (unité CNRS, associée à l’UPS) et Christian PERCEBOIS, Professeur à l’UPS et chercheur à l’IRIT (unite mixte UPS/CNRS/INP/UT1). Autrefois confinés à un rôle de documentation, les modèles sont désormais des entités de base du développement. Cette approche a conduit à l'apparition d'un nouveau domaine du génie logiciel, « l’ingénierie des modèles » (IDM). L’investissement des industriels dans les outils de modélisation et de développement exige de disposer d’un environnement adaptable aux évolutions technologiques et d’offrir aux utilisateurs un logiciel qui leur permette de concevoir, d’intégrer et de vérifier ces modèles Dans cette optique a été lancé en 2004 le projet Topcased (Toolkit in OPen source for Critical Applications and SystEm Development). Cet atelier d’ingénierie, conçu pour être extensible et favoriser la coopération des outils, est l'un des projets majeurs du pôle de compétitivité Aerospace Valley. Initié par Airbus, ce projet associe notamment le Laas, l’Irit et l’Onera. Topcased offre des outils « open source » qui vont de la compréhension des besoins des développeurs et la vérification des propriétés associées à l’implémentation du code dans un équipement embarqué. Il est conforme aux principes de l’ingénierie des modèles et met l’accent sur les aspects modélisation et méthodes formelles pour la vérification. Topcased propose des outils de modélisation (éditeurs graphiques), de simulation et de vérification pour divers langages de programmation, spécifiques à un secteur d’activités (ce que l’on appelle les langages « métier »). La phase de vérification permet d'établir la correction d'un modèle écrit dans l'un de ces langages, en fonction des propriétés attendues. Ces vérifications peuvent être qualitatives (sûreté, vivacité) ou quantitatives telles que des propriétés de ponctualité ou de respect des contraintes d'ordonnancement. Le couplage entre langages « métier » et outils de vérification est facilité par l'utilisation de langages formels intermédiaires, cachés de l’utilisateur, appelés « langages pivot ». Métamodélisation Pour établir ces connexions, le processus de développement consiste en une succession de transformations de modèles. Celles-ci opèrent sur page 23 >>> Une vue de l'architecture de l’atelier Topcased et des différents outils offerts. un ou plusieurs modèles sources et produisent un ou plusieurs modèles cibles qui doivent préserver des propriétés structurelles et comportementales des modèles sources. Conformément à l'IDM, Topcased offre aussi en amont des moyens de métamodélisation permettant de définir de nouveaux langages de modélisation « métier », et de réaliser certains outils associés. Le choix d’un atelier «open source» présente plusieurs avantages : la durabilité des outils d’ingénierie pour le développement et la maintenance de systèmes dont la durée de vie peut dépasser 50 ans, l’adaptation à la complexité croissante des systèmes ; un faible coût et des délais de développement courts. Topcased s’inscrit ainsi dans la future plate-forme Opees (Outils d'ingénierie pour les Systèmes Embarqués) résultant d'une coopération des pôles de compétitivité Aerospace Valley, Minalogic et System@tic. Opees a pour objectif d'assurer la maintenance et la pérennité d’outils développés dans différents projets d’ingénierie système. Une version majeure de Topcased livrée début juillet 2007 est disponible sur le site www.topcased.org. Suivant leur niveau de maturité, certains outils de Topcased seront utilisés dans des programmes industriels dès 2008, comme par exemple dans le programme de l’avion A350. Contacts : [email protected] et [email protected] Médailles et prix Des médailles et des Une médaille de bronze du CNRS pour une boule de neige. Yves Godderis, chercheur au LMTG nous en dit un peu plus. >>> Yves GODDERIS, CR CNRS, ➜ Quel est l’objet de votre recherche ? Mon thème principal est d’étudier le rôle que joue l’altération des roches continentales dans les cycles biogéochimiques (en particulier celui du carbone) à diverses échelles de temps. Il s’agit d’une approche par modélisation numérique. au laboratoire d’étude des mécanismes de transfert en géologie (LMTG, unité mixte UPS/CNRS/IRD). ➜ Pouvez-vous donner un exemple ? Parmi les objets de mes études récentes, il y a les causes et conséquences des glaciations globales de la fin du Protérozoïque, dites glaciations « boule de neige » (vers 700 millions d’années). En particulier, nous avons exploré les conséquences de la fragmentation du super continent Rodinia dès 800 Ma sur le cycle du carbone et le climat à l’aide d’une nouvelle génération de modèles numériques climat-carbone. Nous avons montré que la dispersion des blocs continentaux le long de l’équateur, qui a conduit à l’augmentation de la consommation de CO2 par l’altération des surfaces continentales en milieu chaud et humide était la cause principale du refroidissement dramatique du climat (*). ➜ Que représente pour vous cette médaille de bronze du CNRS ? Quelque chose d’inattendu. C’est aussi le sentiment qu’une étape est accomplie, que nous avons jeté des bases sur lesquelles la communauté peut s’appuyer pour les recherches futures. Le doute est en permanence présent dans mon esprit. Comment évaluer la pertinence scientifique que représente une étude publiée ? Comment savoir si nous progressons réellement ? Cette médaille est un des éléments d’une réponse complexe et souvent difficile à appréhender. (*) voir article dans le magazine UPS n°10 de juin 2007. Contact : [email protected] Du bronze pour la supraconduction Entretien avec Cyril Proust, chercheur au LNCMP… Cyril PROUST, chargé de recherche CNRS au Laboratoire National de champs magnétiques pulsés (LNCMP, Unité mixte CNRS/UPS/INSA). ➜ Que représente pour vous cette médaille de bronze ? C'est avant tout une reconnaissance de mes pairs au niveau national. Le CNRS est encore une institution où l'on peut se permettre d'investir à long terme dans une thématique, pour récolter plus tard les fruits du travail. Certains collègues au laboratoire avaient d'ailleurs critiqué cette démarche, mais aujourd'hui ils reconnaissent le travail accompli. Je n'aurai probablement pas pu réaliser le même parcours dans une institution étrangère où, bien souvent, la pression pour publier rapidement est très forte. Je dois également cette réussite au soutien de mon directeur de laboratoire et à certains de mes collègues du CNRS. ➜ Quel est l’objet de votre recherche ? J’ai été recruté au LNCMP pour développer une activité de recherche fondamentale autour des supraconducteurs à haute température critique sous champ magnétique intense. page 24 ➜ Comment avez-vous procédé ? Universitaire de formation, j'ai effectué un postdoctorat de deux ans au Canada avant d'être recruté au CNRS en 2001. En tant qu'expérimentateur, j’ai passé les premières années au laboratoire à concevoir et développer des techniques de mesures innovantes sous champ magnétique pulsé, notamment les mesures ultrasonores et, pour la première fois dans ces conditions expérimentales difficiles, des mesures thermoélectriques. Grâce à de nombreuses collaborations avec d’autres laboratoires français et internationaux, j’ai récemment obtenu des résultats marquants dans le domaine des supraconducteurs à haute température critique, qui ont donné lieu cette année à deux publications dans Nature. Contact : [email protected] Paul Sabatier — Le magazine scientifique — numéro 11 Médailles et prix prix… 2007 Rufin VanRullen, un double lauréat Ses travaux sur les phénomènes attentionnels lui ont valu la médaille de bronze 2007 du CNRS et le prix du jeune chercheur européen Euryi (European young invistigator). >>> Rufin VANRULLEN, CR CNRS au Centre d’études et de recherches sur le médiailles et prix 2007 cerveau (CERCO, unité mixte UPS/CNRS). 1 - Le prix Euryi est doté de 1 à 1,25 million d'euros sur 5 ans, les lauréats peuvent constituer leur propre équipe de recherche. ➜ Quel est l'objet de votre recherche ? D’une manière générale, il s'agit de comprendre les mécanismes neuronaux qui nous permettent de percevoir consciemment le monde qui nous entoure. Plus particulièrement, je m'intéresse aux phénomènes attentionnels: ce qui fait qu'une même scène visuelle pourra donner lieu à des activités cérébrales et des perceptions très différentes selon qu'on s'intéresse à l'un ou l'autre des objets de la scène. ➜ Quelles sont les principales questions dans ce domaine ? Comment notre perception du monde extérieur est-elle organisée dans le temps ? Perçoit-on le monde comme une série d'instantanés (à la manière d'une séquence vidéo) ou comme un flux continu ? Quel est le rôle potentiel de l'attention (qu'elle soit automatique ou volontaire) dans ce séquençage temporel ? Quelle est, ou quelles sont, la ou les fréquences critiques de ce découpage, et dans quelles situations ces fréquences limitent-elles la performance humaine ? J'utilise une approche double : l'expérimentation psychophysique et électrophysiologique chez l'homme pour mettre en évidence ces phénomènes, et la modélisation mathématique et informatique pour bien les comprendre sur le plan théorique. ➜ Vous venez de recevoir le prix Euryi1, de quoi s'agit-il ? Récemment, ma recherche s'est orientée sur les aspects temporels des phénomènes perceptuels et attentionnels. On sait, grâce à l'expérimentation chez l'animal, que la communication entre les neurones, et entre les aires du cerveau, repose sur une activité électrique oscillatoire. Mais l'on ne comprend pas encore comment cette dynamique affecte, limite ou façonne les processus cognitifs tels que l'attention ou la perception. C'est pour pouvoir répondre à ces questions que le prix Euryi m'a été attribué. ➜ Quelles perspectives cela offre-t-il pour vos études ? Et pour le laboratoire ? Le prix Euryi confère à ces recherches un "sceau de légitimité" unique, qui devrait permettre d'attirer sur ce projet des étudiants et jeunes chercheurs compétents dans divers domaines. Le montant du prix permettra leur recrutement, et la mise en place d'une nouvelle équipe au sein du laboratoire. Pour ce dernier, ainsi que pour l'université, on peut espérer un gain de visibilité au niveau national et international. ➜ Et que représente pour vous la médaille de bronze du CNRS ? C'est surtout une marque de reconnaissance de la part de mes collègues plus expérimentés, pour me signaler que mes efforts ne passent pas inaperçus. C'est pour moi un encouragement important. ➜ Dans ce contexte, avez-vous des projets particuliers ? M'entourer de collaborateurs compétents et motivés. Poser beaucoup de questions, même “idiotes”. En résoudre certaines. >>> Lorsqu’un mouvement périodique à une fréquence bien particulière est présenté à un observateur, celui-ci peut parfois le percevoir « à l’envers ». Cette illusion, similaire à ce que l’on peut observer à la télévision ou au cinéma, révèle l’existence d’un découpage attentionnel périodique de l’information visuelle. Contact : [email protected] page 25 Médailles et prix Deux prix de l’Académie des sciences à des chercheurs toulousains.. Le prix destiné à récompenser des travaux de cartographie dans tous les domaines des sciences de la Terre, attribué à Frédérique Rémy et Etienne Berthier du LEGOS. >>> Etienne BERTHIER, Chargé de recherche CNRS et Frédérique RÉMY, ➜ Que récompense votre prix ? Ce prix récompense nos travaux de télédétection des glaciers et des calottes polaires. Ces éléments de la cryosphère sont difficiles d’accès avec des conditions climatiques qui rendent les mesures de terrain délicates. La calotte de l’Antarctique couvre 15 millions de km2 et il existe environ 160000 glaciers dont seulement quelques dizaines sont suivis. La télédétection offre une grande variété d’observations, à l’échelle globale et facilement répétables. Dans l’équipe, nous nous sommes attachés à estimer les paramètres liés à l’état de santé des zones polaires : la topographie et son évolution ainsi que la vitesse d’écoulement et ses variations. Directeur de recherche CNRS, chercheurs au LEGOS (Unité mixte UPS/CNRS/CNES/IRD) ➜ Que disent vos observations sur l'évolution des glaciers depuis ces vingt dernières années ? Le réchauffement climatique a un effet paradoxal sur la cryosphère : un climat plus chaud augmente certes la fonte de la neige et de la glace mais il augmente aussi le cycle hydrologique. D’où une augmentation des quantités de neige déposées. La majorité des glaciers montrent très nettement une diminution de leur épaisseur surtout à basse altitude où il fait le plus chaud. Mais ceux dont la zone d’accumulation de neige, là où ils gagnent du volume, est suffisamment élevée pour ne pas être affectée par la fonte, montrent une stabilité voire un épaississement en altitude. Cet épaississement ne compense pas en général les pertes à basse altitude, comme on le voit en Himalaya ou dans l’ensemble du Groenland. En ce qui concerne l’Antarctique, il existe une grande différence entre la partie ouest qui diminue en volume, et l’est ayant plutôt tendance à gagner de la masse. Contacts : [email protected] et [email protected] Le prix destiné à récompenser des travaux en spectroscopie attribué à Jean-François Nierengarten, chercheur au LCC Jean-François NIERENGARTEN, Directeur de recherches CNRS, chercheur au Laboratoire de Chimie de Coordination (LCC, unité CNRS associée à l’UPS) ➜ Pouvez-vous nous résumer les travaux qui vous ont valu ce prix ? Mes travaux concernent la chimie des fullerènes et des dendrimères. Nos travaux récents ont contribué à démontrer que les fullerènes et leurs dérivés sont d’excellents candidats pour la préparation d’assemblages supramoléculaires et de nouveaux matériaux, comme par exemple notre « fullérodendrimère » publié en 2007 à Angewandte Chemie , un « nano-cluster » qui incorpore des fullérènes en périphérie. ➜ Quelles applications peut-on espérer de ces travaux ? Certaines de nos molécules présentent un grand intérêt dans le cadre d’une approche moléculaire de page 26 la conversion de l’énergie lumineuse en énergie électrique. En particulier, nous synthétisons de nombreux dérivés du C60 à propriétés électroniques et photochimiques originales en combinant le fullerène à d’autres chromophores et nous les incorporons dans une cellule photovoltaïque plastique. Par ailleurs, nous avons développé une nouvelle approche pour l’incorporation de C60 au sein de cristaux liquides. Celle-ci repose sur la formation de complexes supramoléculaires du C60 avec des macrocycles porteurs de longues chaînes aliphatiques. Contact : [email protected] Paul Sabatier — Le magazine scientifique — numéro 11 La Recherche à l’UPS Le Potentiel de Recherche de l’Université Paul Sabatier se répartit sur 53 laboratoires, dont 80 reconnus au niveau national, la plupart unités mixtes avec le CNRS, l’INSERM, l’IRD, l’INRA, le CNES… Plus de 2350 chercheurs et enseignants-chercheurs et 1130 personnels technique et administratif travaillent dans ces laboratoires. 1900 doctorants sont inscrits à l’UPS, répartis dans 6 Ecoles Doctorales. Les sept grands domaines de recherche sont : > Biologie et Santé : 7 laboratoires mixtes, 8 EA, 3 Fédérations. > Mathématiques, Informatique et Systèmes : 2 laboratoires mixtes, 1 unité CNRS. > Sciences Humaines et de Société : 5 EA. > Sciences pour l’Ingénieur : 4 laboratoires mixtes, 2 EA, 1 Fédération. > Sciences de la matière : 9 laboratoires mixtes, 2 unités CNRS, 2 Fédérations. > Sciences de la planète et de l’Univers : 7 laboratoires mixtes, 1 Observatoire. > Sciences de la Vie : 10 laboratoires mixtes, 1 EA, 2 Fédérations. EA : équipe d’accueil © P. DUMAS © OMP Pour plus de détails consultez : www.ups-tlse.fr rubrique "recherche" Les MASTERS à L’UPS Domaines de formation > sciences de la modélisation, de l’information et des systèmes (4 mentions) > sciences et techniques de la matière et de l’énergie (6 mentions) > sciences de la planète et de l’univers (4 mentions) > sciences de la vie et de la santé (9 mentions) > sciences humaines et sociales (1 mention) > gestion (2 mentions) Le cursus master comporte en 2ème année une centaine de spécialités “ recherche ” et “ professionnelle ”. Un certain nombre de ces spécialités sont cohabilitées avec d’autres universités et établissements de la région toulousaine.