mini-dossiers - Collège de Maisonneuve

publicité
Projet Culture Scientifique
Julie Descheneau, département de physique
Collège de Maisonneuve
Voici un aperçu des mini-dossiers ( remis par les étudiants de Physique NYC des
groupes 6,7,8 de la session d’hiver 2008.)
Pour en savoir plus sur un sujet, double-cliquez sur l’image du résumé (pages suivantes)
et le document s’ouvrira.
DESJARDINS-D., Daphnée,
HAMEL, Élyse
et
LEFEBVRE, Myriam
La Terre est pourvue d’un champ magnétique qui influence la vie des organismes
vivants. Saviez-vous que celui-ci s’est déjà inversé il y a 780 000 ans et que cela pourrait
se reproduire d’ici 2000 ans? Il intéressant de noter les divers impacts qu’auraient un tel
phénomène. Celui-ci peut être provoqué de deux manières différentes. Certains
scientifiques affirment que l’inversion des pôles sera spontanée et d’autres croient qu’elle
sera due à l’impact d’une comète. Suite à cette collision, les pôles pourraient s’inverser
ou retourner tout simplement à leur origine. Mais tous s’entendent pour dire que peu
importe la manière dont le champ se déplace, il y aura d’abord une absence de champ
magnétique pour une durée approximative de quelques semaines. Selon des spécialistes,
cette absence entraînerait la disparition de la protection de la ceinture magnétique de la
Terre. Suite à cette disparition, les vivants ne seraient plus protéger contre les
bombardements cosmiques. Ceci pourrait provoquer l’extinction de plusieurs espèces ou
la création de nouvelles espèces par mutation génétique.
Cette inversion affecterait particulièrement certains animaux qui s’orientent grâce
au champ magnétique. Nous nous sommes penchées sur le cas des pigeons voyageurs et
des oiseaux migrateurs, mais nous aurions pu vous parler des abeilles, des baleines, des
tortues de mer et même de certaines bactéries. Contrairement aux humains, les pigeons
possèdent réellement un sixième sens. En effet, il ne s’oriente pas seulement avec la
vision et l’olfaction, mais aussi avec le sens magnétique. Après plusieurs expériences, des
scientifiques ont émis l’hypothèse que des microcristaux de magnétites situés dans la
boîte crânienne sont la cause de leur sensibilité magnétique. Les oiseaux migrateurs n’ont
pas seulement le sens magnétique, ils ont aussi une sensibilité aux différentes longueurs
d’onde de la lumière. Par exemple, lors d’une expérience un chercheur a remarqué que
les rouges-gorges qui étaient éclairés par de la lumière jaune étaient désorientés pour leur
migration. La lumière dérange leur perception magnétique ce qui les faits déviés de leur
trajectoire habituelle. De plus, l’intensité de la lumière les fait tous converger vers une
GAGNÉ, Antoine
GERARDI, Savannah
LABERGE GOUPIL, Mathieu
L’antimatière
Le sujet de notre recherche scientifique, dans le cadre du cours de physique NYC,
n’est certainement pas un phénomène que tous reconnaissent. L’antimatière suscite beaucoup
d’intérêt au sein des sociétés scientifiques.
Sur la planète Terre, nous sommes entourés et constitués de matière. Cette dernière
porte une charge. Le terme « antimatière » a été choisi pour ce phénomène pour indiquer
qu’elle est entre autres l’opposé de la matière. Ceci signifie que l’antimatière porte une
charge de signe contraire de la charge de la matière. Il est important de mentionner que la
matière est sur terre et que l’antimatière est dans l’Univers, à l’au-delà de notre « visibilité ».
Par contre, de nombreuses théories affirment que l’Univers est constitué de plus de matière
que d’antimatière. Une explication qui puisse soutenir ce fait n’a pas encore fait surface dans
le domaine des sciences physiques, mais plusieurs croient que ce problème soit originaire du
Big Bang. Lors de cette « explosion », la matière et l’antimatière étaient présentes à quantité
égales. Pour une raison encore ignorée, la quantité de matière aurait pris le dessus sur celle de
l’antimatière.
La matière, étant caractérisée par des particules positives (les protons) et des particules
négatives (les électrons), est l’opposé de l’antimatière (comme mentionné ci-haut). Ceci nous
indique donc que les protons (+) de la matière deviennent négatifs (les antiprotons) dans
l’antimatière et que les électrons (-) de la matière deviennent positifs (les positrons) dans
l’antimatière. La réaction matière-antimatière occasionne un très grand dégagement d’énergie
suivant E=mc2. La matière et l’antimatière, une fois en contact, s’annihilent. Cette
transformation de l’énergie a lieu lorsqu’une particule de la matière rencontre son opposé de
l’antimatière (exemple : positron + électron = ÉNERGIE). Cette réaction devrait égaliser les
quantités de matière et d’antimatière existantes dans l’Univers, mais ce n’est tout de même
pas le cas.
Résumé de l’article 1
Des chercheurs ont découvert que le centre de la voie lactée émet 511 KeV d’énergie
sous forme de photons gamma. Cela correspond exactement à l’énergie émise par
l’annihilation d’un électron par son antiparticule : le positron. Des chercheurs ont donc tenté
de découvrir l’origine de la quantité immense d’antimatière nécessaire pour que ce
phénomène ait lieu. Ils ont tout d’abord posé l’hypothèse de la matière noire. Pour quelle soit
confirmée, le centre de la galaxie devait être symétrique au niveau énergétique. Ces les
positrons pouvaient provenir de l’annihilation de particules exotiques de matière noire dans le
halo central symétrique de la galaxie. Il pouvait s'agir de neutralinos, ou de particules
massives de Kaluza-Klein, de mini trous noirs ou de supernovas. Or, le satellite a révélé un
flux deux fois plus intense d’un coté du centre galactique que de l’autre. Des astres de la
classe binaire X seraient donc les sources plus probables de l’antimatière. Ils sont composés
d’un soleil équivalent au notre et d’un trou noir ou une étoile à neutrons.
Le point sur… la radiothérapie :
La radiothérapie est une technique qui permet de soigner divers types de cancer.
Le principe est de bombarder tumeur et ganglions satellites à l’aide de rayons
électromagnétiques pour que le matériel génétique détruit empêche la régénération des
cellules malades. Les rayons X sont produits par un accélérateur de particules qui
augment la vitesse des électrons. Les électrons sont freinés par une cible de Tungstène
qui permet de convertir l’énergie en rayon X. L’utilisation des électrons est dû au fait
que ces particules peuvent passer à travers les tissus et s’arrêter en fonction de leur
énergie. De plus, le Tungstène est utilisée parce qu’il permet de prolonger cette distance.
Ensuite, un obturateur en plomb est utilisé pour formé le rayon à celle de la tumeur pour
diminuer le nombre de cellules saines touchées. Avant d’agir sur la tumeur, les
cancérologues doivent la localiser. Ils disposent de diverses méthodes comme la
curiethérapie. Cette technique consiste à implanter une source radioactive au cœur de la
tumeur. Pour arriver à l’emplacement de la tumeur, les cancérologues doivent utilisés les
cavités naturelles de l’organisme ce qui veut dire que l’accès est restreint. Ils peuvent
utilisés se bombardement de rayon X qui permet d’aller plus en profondeur et minimiser
les risques d’endommagement. La radiothérapie possède déjà des projets d’avenir pour
améliorer les traitements. Par exemple : l’utilisation de bras mécanique pour la précision,
les ions carbonés chargés remplacerons les électrons parce qu’il semble plus puissant et
permet la réduction du nombre d’exposition au rayon X.
Résumé
Aujourd’hui, avec tous les progrès scientifiques cumulés depuis des
années, des chercheurs veulent ériger un observatoire astronomique géant sur
la lune, rien de moins. Et c’est grâce au miroir liquide qu’ils sont prêts du but.
Cette invention a été faite en 1850 par Ernesto Cappocci, un astronome italien.
Ce dernier a remplacé un miroir normal par du mercure en rotation dans une
assiette. Il a découvert que la rotation donne au liquide une forme concave et
lui confère donc les mêmes propriétés que les miroirs concaves c’est-à-dire
converger la lumière vers le foyer. Cette invention est merveilleuse, car non
seulement les miroirs liquides sont moins lourds que ceux en verre, ils sont
moins chers et la gravité ne tend pas à les déformer, au contraire, elle leur sert
à conserver leur forme. Aussi, les liquides sont naturellement lisses et ne
requièrent donc pas un polissage interminable. Cependant, il reste un
problème à régler… sur la lune la température descend jusqu'à -231°C et le
point de fusion du mercure est de -39°C. Heureusement, Omar Seddiki et
Ermanno Borra ont découvert les liquides ioniques. Leur miroir liquide
fonctionne comme suit : il chauffe du chrome et de l’argent jusqu’à vaporisation,
par la suite, des nanogouttelettes retombe sur le ECOENG 212, un liquide
ionique. Cela donne une pellicule 2500 fois plus fine qu’un cheveu! Cette
dernière a aussi les mêmes propriétés réflectives que le mercure. Par contre,
ce liquide ionique n’est pas encore au point, car son point de fusion est de 98°C. Mais ils sont quand même sur une bonne voie parce qu’il reste malgré
tout des millions d’autres liquides ioniques à découvrir. Grâce à cette
technologie, on pourra construire un observatoire sur la lune et plus le miroir
sera grand plus le télescope sera puissant. Avec un miroir liquide de 20m à
100m de diamètre, on pourra voir des images 100 à 1000 fois plus précises que
celles des plus puissants observatoires. Déjà sur la Terre, à l’aide des miroirs
liquides au mercure, on voie des étoiles situées à environ 10 000 années
lumières de nous. Néanmoins cette découverte permettrait des progrès
immenses dans le domaine de l’astronomie.
Kaouah Alaa Eddine Erdougdo Mehmet
gr:07
Un trou noir est un objet cosmologique ayant une masse énorme et en même temps un
volume très petit comparé à celui des autres étoiles. Ce qui fait que sa densité dépasse de
milliards de fois celle des autres corps dans l’espace. Sa gravité est de telle que sa vitesse
d’échappement est égale à celle de la lumière. La façon la plus commune pour former les
trous noirs est l’explosion d’une étoile avec une masse plus grande de dizaines de fois à celle
du soleil sous la forme de supernovae. Lorsque celle-ci épuise ses réserve de matière à brûler
elle s’effondre sur elle-même et devient une étoile a neutrons.
Chaque galaxie possède un trou noir particulier. Ces astres demeurent le mystère irrésolu dans
l’Univers. Ces géants sont entre un million et un milliard de fois la masse du Soleil
(Équivalent de mille Galaxie). Ils sont décrit comme étant super massif. Par contre, ces astres
situés au centre des galaxies ne possèdent qu’un diamètre de 180 millions de Km (un peu
moins que l’orbite de Vénus). Cela est dû à leur densité remarquablement élevée. Par
comparaison, un trou noir de la masse du Soleil n’aurait qu’un diamètre de 2 Km.
À ce qu’on peut penser des trous noirs, ils ne font pas que tout absorber. Lors de
l’affaissement de la matière (gaz, étoiles et poussières) sur le trou noir, une partie est chauffée
à haute température dans un disque d’accrétion et des rayonnements énergiques y sont
expulsés soit dans l’ultraviolet, les rayons X et gamma. Même si le mécanisme n’est pas
encore totalement connu, les scientifiques lancent de l’avant qu’il peut s’agir du champ
magnétique, qui se forme dans le trou noir, qui est la cause de l’expulsions de ces
rayonnements à environ 1.5 million d’années-lumière de l’emplacement du trou.
Un trou noir possède deux moyens de croître ; soit en avalant de la matière, soit en fusionnant
avec un autre trou noir. Cet aspect lui confère le renom de régulateur de l’Univers, car il est
capable de modifier la distance entre les satellites de quelques picomètres. En effet, la fusion
de deux trous noirs, qui est l’événement le plus énergétique après le Big Bang, possède assez
de puissance pour faire vibrer l’espace-temps. Cela est causé par l’apparition de nouvelles
ondes appelées onde gravitationnelle qui se créent lors de la collision de deux trous noirs.
Étant donné que ces ondes sont très peu perceptible parce qu’ils diminuent d’intensité à cause
de l’amplitude des déformations qui décroît en fonction de l’inverse du carré de la distance,
les capter afin de les analyser serait le point tournant qui viendrait enfoncer le clou sur la
preuve irréfutable de l’existence des trous noirs.
Selon les simulations, une fois traversée l’horizon, l’Univers que nous avons quitté nous
apparaît comme un anneau très fin, très lumineux. Lorsque nous nous trouvons dans le trou
noir, toute matière parvenue à ce lieu où la gravité atteint la démesure finit par s’étirer sur une
longueur infinie, tandis que son épaisseur devient nul pour finalement s’écraser sur la
singularité.
Mais que ce passe-t-il réellement une fois qu’une particule ait traversé l’horizon? Même si
nous observons des simulations, deux théories décrivant le phénomène sont plausibles. Une
première qui stipule qu’il s’agirait d’un ‘trou de ver’, c’est-à-dire un passage entre des parties
différentes de notre Univers, ou de notre Univers et d’autres. Dans la seconde hypothèse, il se
crée un tout nouveau univers qui remplace la région centrale du trou noir. Dans cette seconde
théorie, une particule continue son trajet sans jamais atteindre la singularité, car le nouvel
univers est en expansion dans une direction de l’espace. Des thèses qui découlent de la
science-fiction bien entendu.
Résumé
Le Big Bang, est-ce vrai ?
Le Big Bang est une théorie sur l’origine de l’univers, cette théorie stipule donc un temps
0 où tout a été créé, tout s’est créé par une explosion. L’avantage de cette théorie c’est qu’elle
rallie la majorité des scientifiques et même certains théologiens, car il y a la possibilité qu’une
force extérieure ait créé l’explosion. Cette explosion installe toute la théorie de l’expansion de
l’Univers. À l’origine l’univers était donc une boule de matière très dense qui a explosé.
L’énergie créée par cette explosion a réchauffé tout l’Univers durant plusieurs années, des
centaines de milles. Lors du refroidissement de l’Univers, les noyaux d’atomes et les électrons se
sont regroupés pour former tranquillement des planètes et des étoiles. Il y a trois principales
preuves de cette théorie : Premièrement il y a la fuite des galaxies, ensuite il y a la
nucléosynthèse primordiale et enfin il y a le rayonnement du fond cosmique.
La fuite des galaxies est une théorie assez simple : c’est le fait que toutes les galaxies et
les étoiles s’éloignent d’un point central. La nucléosynthèse primordiale est le fait que
l’abondance des atomes dans l’Univers soit exactement ce qui est prédit par la théorie du Big
Bang. Finalement, la preuve la plus solide, le rayonnement du fond cosmique quant à lui, c’est
un rayonnement qui réchauffe l’Univers entier : au lieu d’être a 0 K, il est à 2,7 K.
Cependant, de récentes découvertes permettent de douter de cette théorie. En effet,
l’équipe de Mark Dickson a découvert, en juin 2005, une galaxie qui pourrait être plus vieille
que le Big Bang, la galaxie HUDF-JD2, oups ! Ce serait physiquement impossible. Donc suite a
cette découverte, les yeux de tous les astrophysiciens sont braqués sur cette galaxie et tente de
découvrir ce qui va se passer. Avec l’amélioration des technologies, une autre observation a
été faite par le satellite Wmap qui remet en question la théorie du rayonnement fossile. Ce
satellite nous renseigne sur l’état de l’Univers 380 000 ans après le Big Bang. A cette époque,
elle était constituée de particule très dense à 3000 degrés Celsius, l’écart de température ne
dépassait pas les 0,0002°C donc comment est-ce possible qu’en 2003 l’Univers soit
pratiquement à la température 0 et le cœur des étoiles à des milliers de degrés ? Comment un
milieu homogène peut-il devenir vide avec des écarts de température aussi élevés ? Deux
réponses soit le Big Bang n’a pas eu lui ou nous nous sommes trompés dans nos interprétations
du rayonnement. Le pilier principal de la théorie du Big Bang est donc entrain de s’effriter.
Nous ne pouvons malheureusement pas trancher la question car trop d’inconnus persistent
dans notre Univers.
La spectroscopie et l’astrométrie, dont deux phénomènes étroitement liés, autant sur le plan
physique qu’astronomique; en d’autres termes, l’un ne va pas sans l’autre. Bien que ces
phénomènes physiques ne soient pas observables dans la vie de tous les jours, il demeure que ces
manifestations physiques sont parmi les plus importantes du domaine astronomique. Tout
d’abord, définissons ces phénomènes. L’astrométrie se définit comme étant l’étude de la position
des étoiles et des autres objets célestes ainsi que l’étude de leurs mouvements. Toutefois, dans le
contexte ci-présent, elle se définit comme étant l’étude de la trajectoire d’une étoile en fonction
de l’attraction de sa planète. Or, si une planète existe autour de cette étoile, la superposition des
images obtenues de l’étoile, au fil de plusieurs années d’observations, dessinera une sinusoïde par
rapport à une trajectoire rectiligne. Bien sûr, cette variation de position par rapport à sa trajectoire
sera très minime, mais il reste qu’avec un bon télescope, cette variation est assez significative
pour être perceptible. Maintenant que l’astrométrie a été présentée, parlons de la spectroscopie.
Ce phénomène est, en quelque sorte, une conséquence de l’astrométrie. En effet, la spectroscopie
est engendrée par l’astrométrie qui fait osciller l’étoile sur son orbite. Tout comme l’astrométrie,
il s’agit de mettre en évidence l’influence de la planète sur son étoile et ainsi analyser ce qui en
résulte. Or, une fois que l’étoile oscille selon une période régulière, la partie perceptible de la
spectroscopie apparait et est décrite comme suit. L’étoile se met à osciller sur sa trajectoire par
rapport à un observateur. Or, cela signifie que cette étoile se rapproche de nous pendant un certain
moment et pendant une autre, elle s’éloigne. Qu’est-ce que cela nous rappelle??? En effet, c’est
grâce à Doppler qu’on peut observer cela. En s’approchant de nous, l’étoile émet de la lumière,
une onde, qui se trouve à être légèrement plus condensée vers l’avant que vers l’arrière. En
d’autres mots, la fréquence des ondes lumineuses est plus élevée en avant de l’étoile qu’en
arrière. Ainsi, une grande fréquence implique une petite longueur d’onde, et vice-versa. Cela dit,
en analysant le spectre électromagnétique de l’étoile à différents moments, on observe un
décalage vers le bleu lorsque l’étoile s’approche de nous et un décalage vers le rouge lorsqu’elle
s’éloigne de nous durant son cycle d’oscillation. La théorie vue en classe sur le décalage des
ondes sonores nous permet de comprendre l’effet que la spectroscopie engendre, sauf que l’effet
Doppler est lumineux. On peut ainsi constater que la physique ne s’applique pas seulement sur
Terre, mais dans tout l’univers. Les méthodes de spectroscopie et d’astrométrie sont notamment
utilisées dans la recherche d’exoplanètes, c’est-à-dire de planètes, autres que celles dans notre
système solaire, qui orbite autour d’une étoile, autre que notre soleil. L’astrométrie ne s’avère pas
très efficace, car nous n’avons trouvé aucune planète grâce à cette méthode. Toutefois, 90% des
exoplanètes découvertes à ce jour sont le résultat de la spectroscopie. D’où l’importance de l’effet
Doppler. On utilise souvent la spectroscopie dans l’analyse de la composition chimique des
étoiles. La spectroscopie de rayon X est notamment très utile dans ce type d’analyse.
Depuis notre tendre enfance nous observons la mer, et cela sans trop nous poser la question
au sujet de sa couleur. Mais pourquoi la mer est-elle bleue. Au début de la recherche, nous ne
savions pas exactement pourquoi il en est ainsi ; la réponse nous a surpris. Plusieurs peuvent penser
que ce phénomène est dû à la réflexion du ciel sur l’eau. Mais cela semble un peu trop évident. En
profondeur, si on émet de la lumière, l’eau apparaît quand même bleue. En fait, le phénomène est
très simple. Tout est une question d’absorption. La molécule d’H20 a la propriété d’absorber le rouge
et non le bleu. Donc, quand la lumière blanche incidente provenant du soleil atteint la mer, les
couleurs primaires rouges et jaunes sont soustraites de celle-ci et l’on obtient le bleu, qui nous donne
l’impression que l’eau est de cette couleur. Plusieurs personnes peuvent aussi se demander pourquoi
ne vois-je pas mon verre d’eau de couleur bleu si le phénomène en question est vrai. Encore là, on
revient au même principe. Il n’y a tout simplement pas assez de molécules absorbantes dans un verre
d’eau pour nous donner l’impression que celle-ci est bleue. Donc, plus il y en a, plus elle est foncée et
opaque. Une autre remarque intéressante face à ce phénomène est le fait qu’à certains endroits sur
le globe, on observe que l’eau n’est pas bleue, mais bien verte. Dans ces lieux particuliers, on
constate la production massive d’éléments biologiques. Ces éléments en question, soit le
phytoplancton, contiennent de la chlorophylle, et ceux-ci ont tendance à complètement absorber le
spectre bleu provenant de la lumière blanche et de diffuser massivement le vert. Il est également
intéressant de constater l’aspect environnemental et biologique de la chose. Les chercheurs de
l’espace observent de là-haut les différentes teintes de la couleur de l’océan partout sur la terre. Ils
peuvent ainsi déduire où il y a production massive d’éléments organiques tel que ceux mentionnés
précédemment. Donc, plus l’eau est verte, plus il y a production. Ainsi ils peuvent faire leur rapport et
ainsi établir un lien direct avec les changements climatiques qui surviennent à l’heure actuelle.
Joëlle Pion-Massicotte
Marie-Gabrielle Bronsard
Valérie Limoges
Qui a déjà espéré que la téléportation puisse exister? Cette idée de
voyager d’un espace à un autre instantanément a d’ailleurs fasciné et inspiré les
créateurs de l’émission Star Trek. Selon eux, la téléportation est la
dématérialisation d’une personne et l’envoi de ses molécules à un autre endroit.
En fait, la téléportation est plutôt la transmission d’information d’une particule à
une autre. Par contre, la téléportation est théoriquement impossible si l’on se fie
à la théorie de la relativité, car elle stipule que rien de peut dépasser la vitesse
de la lumière. Historiquement, plusieurs expériences ont permis de prouver le
contraire et de mieux comprendre le fonctionnement de ce phénomène. De plus,
plusieurs applications possibles peuvent en découler.
Tout d’abord, Einstein, Podolsky et Rosen ont été les premiers physiciens
à élaborer une théorie sur la téléportation en 1935. Selon eux, deux particules
ayant interagi auparavant restent liées par un lien mystérieux. Ce faisant, chaque
perturbation subie par une affecte nécessairement l’autre de la même manière.
C’est en 1993 que l’équipe de Charles Bennett conçoit un scénario permettant le
passage d’informations via la téléportation. Ce n’en qu’en 1997 que Anton
Zeilinger réussi à téléporter expérimentalement de l’information à l’aide de
photons. Aujourd’hui, la science est capable de téléporter un rayon laser sur une
distance d’un mètre à l’aide d’ondes radio.
Plus précisément, voici comment fonctionne la téléportation. Pour
commencer, il faut se rappeler que la téléportation n’est pas un effet de
duplication, mais de reconstruction dans un autre endroit. Cela est dicté en partie
par un effet qui se nomme EPR. Celui-ci implique que, dans certaines
circonstances, une influence quantique mystérieuse peut se transmettre d’une
particule à une autre. Ce basant sur cela, deux particules ayant un lien
inexpliqué le conserveront même si elles sont extrêmement éloignées. En
d’autres mots, dès qu’une perturbation est subie par l’une des deux, l’autre la
subira en temps réel. Puisque cette influence n’est ni énergétique, ni matérielle,
elle n’est donc pas affectée par la limitation de la vitesse de la lumière. Cette
caractéristique quantique pourrait être à la base de beaucoup d’applications
futures.
Ainsi, la cryptographie, l’informatique et la télécommunication pourraient
bénéficier de cette nouvelle technologie. Par exemple, une cryptographie
quantique utilisant la téléportation de codes par les photons serait impossible à
intercepter et donc inviolable. En informatique, le remplacement du système
binaire actuel par un système quantique basé sur la téléportation des
informations dans l’ordinateur quantique augmenterait incroyablement l’efficacité
des opérations les plus difficiles. Il en va de même dans l’industrie des
télécommunications.
Charles Bergeron
Le stockage d’hydrogène
L’évolution industrielle a été le catalyseur de la montée du charbon en tant que
combustible tout comme celle du pétrole plusieurs années plus tard. À présent, à l’aube du
XXIème siècle, l’avènement de l’hydrogène se fait sentir dans les pays industrialisés. De tout
ce brouhaha scientifique découlent des promesses de fin du réchauffement climatique, de
protection de la couche d’ozone et de révolution des moyens de transport. Pourtant, bien peu
sont ceux qui comprennent réellement les enjeux, tant économiques qu’écologiques, et qui
réalisent la distance qui sépare les présentes recherches du but ultime prédit par plusieurs.
Il faut tout d’abord se pencher sur la façon dont l’hydrogène pourrait être utilisé
comme forme d’énergie. En fait, on désire construire ce que les scientifiques appellent une
pile à combustible. Celle-ci, contenant de l’hydrogène, le combinerait à l’oxygène afin de
faire de l’eau et de libérer une certaine quantité d’énergie. Pourtant, l’hydrogène ne se laisse
pas retenir facilement et il faut donc trouver des composés dans lesquels il est lié afin qu’il
reste dans la pile. La découverte récente de l’instabilité que procure le LiBH4, tout en
empêchant les atomes d’hydrogène de se libérer trop facilement, pourrait permettre aux
chercheurs de pouvoir obtenir le plus d’énergie possible avec le moins de pertes en
conséquence.
La compression de l’hydrogène est aussi primordiale pour arriver à créer une bonne
pile à combustion pour les industries. Nous savons qu’un gramme d’hydrogène peut produire
assez d’énergie pour parcourir 100 m à bord d’une automobile, mais à température ambiante
et à pression normale ce gramme occupe 22,4 L. Donc, pour comprimer l’hydrogène en
faisant varier seules la température et la pression, il faudrait le liquéfier à moins de 20 K ou le
laisser en phase gazeuse et appliquer une pression de plusieurs centaines d’atmosphères.
Aucune de ces options n’est pourtant réaliste. Les scientifiques se sont donc attelés à la tâche
et ont réussi à découvrir une méthode qui permettrait le stockage de l’hydrogène sous forme
solide. Ce contenant mystérieux est en fait une cage moléculaire nommée
buckminsterfullerène, que l’on nommera fullerène, et qui a été découverte par Richard
Smalley, Robert Curl et Harold Kroto. Les trois chercheurs ont pu découvrir cette molécule,
qui a la forme d’un ballon de football, lors d’une expérience de vaporisation d’atomes de
carbone suivie de l’étude de l’arrangement des molécules. Chaque fullerène peut stocker
jusqu’à 58 atomes d’hydrogène, qui se retrouvent sous forme métallique à cause de l’immense
pression à l’intérieur de cette cage moléculaire. On se rend donc compte que la résistance
mécanique de ces fullerènes est immensément grande puisqu’elle reste intacte à des pressions
très élevées, tout comme d’autres regroupements d’atomes de carbone comme les nanotubes.
Toutefois, cette découverte relance d’autres interrogations. Par exemple, on doit se demander
comment faire pour injecter des atomes d’hydrogène dans ces cages et les libérer à volonté.
On peut donc affirmer que ce sera un dossier à suivre.
L’application la plus intéressante de l’hydrogène comprimé est en tant que
combustible pour les moteurs des véhicules routiers. La quantité de pollution que l’on pourrait
enrayer en changeant les moteurs qui utilisent le pétrole est astronomique et ce changement
serait bénéfique dans les pays industrialisés. On pourrait aussi se servir des piles à
combustible pour électrifier des résidences ainsi que des bateaux ou des avions. On l’utilise
déjà en aérospatiale, mais les découvertes récentes pourraient certainement permettre
d’améliorer le rendement des moteurs de nos navettes spatiales.
Beaudry, Andréanne, Larbaoui, Kahina et Lévesque, Marie-Ève
Résumé :
L’effet tunnel est un phénomène de la mécanique quantique découvert par
George Gamow en 1928. Son principe s’oppose à celui de la physique classique qui
admet que si le niveau d’énergie d’une particule est inférieur au seuil d’énergie requis
pour franchir une barrière énergétique, alors la particule ne pourra pas franchir cette
barrière. En effet, en mécanique quantique, l’effet tunnel permet à la particule de franchir
la barrière sans avoir l’énergie cinétique nécessaire en créant une sorte de tunnel. Les
articles retenus traitent respectivement des aspects ondulatoire et énergétique du
phénomène et de deux exemples d’application. Tout d’abord, un électron peut être
représenté davantage comme un nuage de probabilité que comme une particule, donc,
lorsqu’il est confronté à un mur, une barrière énergétique, il existe une probabilité non
nulle qu’une partie de ce nuage se retrouve de l’autre côté et que donc, l’électron soit
scindé en deux. Comme l’électron ne peut rester dans cet état indéfiniment, il doit se
retrouver d’un côté ou l’autre de la barrière, ce qui lui permettrait de la franchir. On parle
aussi de l’effet tunnel appliqué aux ondes, qui, confrontées à une barrière érigée sur leur
parcours, ne peuvent s’arrêter radicalement en un point précis. Elles continueront leur
déplacement en perdant de l’amplitude. Si la barrière est suffisamment mince pour que
l’amplitude totale ne soit perdue, l’onde continuera son chemin après.
L’effet tunnel est aussi un phénomène que l’on doit considérer en ce qui concerne
les mouvements de la molécule d’ammoniac (NH3). La forme de cette molécule est telle
que les atomes d’hydrogènes et d’azote forment une sorte de «parapluie». Selon la
mécanique bien connue, cette géométrie empêche l’inversion de la molécule. Cependant,
ce «parapluie» peut s’inverser avec selon la mécanique quantique. Si la molécule
d’ammoniac était visible, on pourrait la voir osciller d’une position à l’autre et ce, grâce à
l’effet tunnel. On s’intéresse à la molécule d’ammoniac, car lors de sa photodissociation,
un hydrogène lui est arraché, ce qui fait de la molécule un acide aminé, l’élément de base
de la protéine et donc de la vie. L’effet tunnel est la principale cause de cette réaction;
c’est son effet oscillatoire sur l’ammoniac qui fragilise les liaisons hydrogène-azote. On
observe que la formation d’acides aminés est favorisée si les molécules sont accrochées à
un grain de poussière, car la proximité de celles-ci accélère les réactions chimiques.
Certains chercheurs de l’institut UTINAM effectueront des recherches visant à observer
cette contrainte puisque les oscillations de la molécule d’ammoniac sont gênées par la
surface du grain de poussière.
Selon le dernier article de la série, ce sont Louis de Broglie et Erwin Shrödinger
qui ont prédit l’effet tunnel, par les théories sur la mécanique ondulatoire. Selon eux,
l’électron, que l’on considère en mécanique quantique comme la combinaison d’un
corpuscule et d’une onde associée, ne franchit généralement pas d’obstacles. L’obstacle
dont on parle ici est le vide (ou l’espace) compris entre deux matériaux conducteurs. Si
cette barrière est extrêmement mince, alors une partie de l’onde associée réussit à passer
à travers cet espace et, si son amplitude est suffisante, la particule formant l’électron suit
l’onde. Ainsi il se produit un courant électrique, très faible il va sans dire, entre deux
Andrew Dang
Ellen Li
Earya Pong
Les rayons infrarouges jouent un rôle important dans la vie humaine. Tant que sur le plan
de la santé et divertissement, ils nous sont essentiels. Dans ce qui suit, cela vous explique
leur fonctionnement dans différent objet.
La télécommande à infrarouge est un outil indispensable pour nos journées
sédentaires que nous passons à la maison assise devant la télé avant des croustilles et une
bonne boisson gazeuse. Inventée en 1975, elle permet d’allumer le téléviseur à distance.
Ruwido, l’Autrichien qui a inventé la télécommande à infrarouge, a choisi cette sorte de
rayon puisqu’elle est invisible à l’œil humain, dû à la longueur d’onde, et à sa facilité
d’émission et de réception. La télécommande fonctionne par un codage numérique.
Chaque touche de l’engin correspond à un nombre. Lorsqu’on presse sur un bouton, une
puce convertit ce nombre en ondes infrarouges qui sont émises par une diode et ce signal
est reçu par la diode réceptrice de la télé. Une puce dans la télé se charge de convertir le
message, qui par la suite fait l’action demandée. Cependant, ce n’est pas si simple qu’on
ne le pense. C’est un procédé comme en informatique qui est constitué de 0 et 1. Chacune
de ses deux valeurs représente des ondes différentes. À lire pour en savoir plus!
Des chimistes de l’université de Manchester travaillent depuis des années sur
l’utilisation de la spectroscopie infrarouge à transformée de Fourier comme méthode de
détection de l’altération des aliments alimentaire. Ce processus ne nécessite aucun
contact avec la nourriture et aucune injection de produits chimiques. En fait, ces
scientifiques utilisent des faisceaux infrarouges qui ont réfléchi par l’échantillon d’un
aliment. Le spectre obtenu est enregistré et permet d’identifier des composés
biochimiques produits lorsque les microbes décomposent la nourriture. Grâce à
l’utilisation des algorithmes génétiques, les chimistes de l’université ont mis au point un
logiciel capable d’analyser des spectres enregistrés. Des données ont été sauvegardées
dans un ordinateur dans lequel les algorithmes ont permis de sélectionner des longueurs
d’onde qui évaluent la concentration de bactérie. Elle a la capacité de détecter des
concentrations aussi faibles qu’un million pour le poulet et 10 000 pour le bœuf.
Cependant, les longueurs d’onde identifiées pour le bœuf ne sont pas idéales. Ils ont
cependant un bon espoir de développer cette technique sur d’autres types d’aliment
alimentaire comme les produits laitiers, aux jus de fruits, etc.
Sotcheadt Sim
Gina Duplan
Stéphanie Magana
La technologie des télescopes conventionnels en verre a atteint sa limite depuis plus de 40 ans.
Les chercheurs se sont donc tourner vers d’autres technologies qui augmenteraient le diamètre du
miroir d’un télescope pour ainsi augmenter la puissance et la précision de celui-ci. L’une des solutions est
d’utiliser du mercure pour former un miroir liquide, car c’est un métal liquide aux propriétés
réfléchissantes. Afin de donner au mercure la conformation d’un télescope, il suffit de l’étaler dans une
cuve circulaire et lui donner une rotation constante. C’est en tournant que la surface du mercure va
s’approfondir pour former une fine couche d’environ 0,5 mm à 1 mm et atteindre une forme
parabolique, ce qui est idéal pour un miroir de télescope. Toutefois, pour bien fonctionner, le télescope
doit être entièrement isolé des vibrations du sol ou de l’air environnant. Évidemment, cette technologie
possède un inconvénient : il n’est pas possible de l’orienter vers n’importe quelle étoile ou galaxie. En
effet, le problème est que si on penchait le bassin, le mercure se verserait sur le sol. Donc, ce type de
télescope ne permet que de voir les étoiles situées directement au-dessus de lui, c’est-à-dire au zénith.
Par contre, l’avantage est que cette technologie révolutionnaire exige beaucoup moins de frais que les
télescope conventionnels. Par exemple, les deux plus grands télescopes en verre au monde ont demandé
beaucoup d’années de polissage et couté des millions de dollars. Alors qu’un géant miroir liquide ne
coûterait que quelques centaines de milliers de dollars. Un autre avantage est que, contrairement au
miroir en verre, les miroirs au liquide ne peuvent pas se casser lors du transport. Le but d’un télescope
au mercure est de pouvoir observer les galaxies au moment de leur formation, ce qu’on est capable de
faire présentement avec un télescope conventionnel de 10 mètres de diamètre. Paul Hickson,
astrophysicien à l’université de la Colombie-Britannique, compte fabriquer un télescope au mercure qui
obtiendrait une résolution inégalée équivalente à celle d’un télescope de plus de 40 mètres de diamètre
pour une fraction du prix des télescopes conventionnels. Il nomme son projet : LAMA, qui est un
assemblage de 18 miroirs liquides arrangés en cercles concentriques. On pourrait alors détecter des
planètes de la taille de la terre en orbite autour d’étoiles lointaines, découvrir la signature
spectroscopique de l’oxygène dans leur atmosphère et avec un peu de chance, on pourrait également
savoir s’il y a de la vie sur ces planètes. Le télescope au mercure a capté avec triomphe des images
d’étoiles, situées à 10 000 années lumières de la Terre, du nord de la Voie Lactée. Un tel télescope
augmentera énormément nos connaissances sur les galaxies éloignées, les quasars, la structure et les
confins de l’univers.
Kim Anh Bui
Marie-Sophie Morin
Marjorie Panneton
Depuis très longtemps, on associe apport d’énergie avec chauffage et donc,
augmentation de température. Cette théorie peut facilement être illustrée par le
fait de chauffer de l’eau, sur un rond de poêle, par exemple, et qu’elle,
logiquement, devienne chaude !
Mais voilà qu’il a été découvert que ceci, à une échelle infiniment grande par
exemple, n’était pas toujours la réalité.
D’ailleurs, c’est en 1968 que le
scientifique Donald Lynden-Bel propose que le rayonnement des étoiles serait
contraire à cette théorie. En effet, bien que les étoiles, lors de leur rayonnement,
perdent de l’énergie, la température de leur noyau augmente. A ce moment, leur
capacité calorifique serait négative. Dès que l'on veut créer une bulle de gaz
dans le liquide ou une goutte de liquide dans du gaz, il faut payer le prix de
l'interface, l'énergie de la surface de la bulle ou de la goutte. Ce prix énergétique
est payé aux dépens de l'agitation thermique : l'interface entre deux phases fait
baisser la température. Bien que cette découverte fut accueillie avec une grande
méfiance de la part des thermodynamiciens, cette nouvelle théorie de processus
de refroidissement par rayonnement serait à la base de la formation des étoiles
et donc, des galaxies et de l’univers entier.
Pour comprendre cela, voici quelques articles expliquant et décrivant, entre
autres, le fonctionnement de la capacité calorifique négative autant au niveau
des étoiles qu’au niveau des atomes.
Par ailleurs, un des articles décrit le
déroulement typique de la vie d’une étoile en expliquant chaque étape en lien
avec la thermodynamique de celle-ci.
Émilie Houle
Thanh Luu
Judeline Chéry
LA THERMOLUMINESCENCE
La thermoluminescence est la propriété physique qu’ont les cristaux, tels que le quartz,
le feldspath et le zircon, d’accumuler l’irradiation naturelle de leur milieu
d’enfouissement et d’émettre de la lumière lorsqu’ils sont exposés à la chaleur.
Les rayonnement alpha, bêta et gamma (irradiation) ionisent des atomes et ainsi créent
des charges indépendantes. Lors de leur passage dans le temps, des charges sont libérées
et vont dans des sites du cristal qui y restent piégés. Ces charges ne peuvent être libérées
lorsqu’il y a une agitation thermique. Les archéologues utilisent la thermoluminescence
pour dater les cristaux puisque le nombre de charges capturées est proportionnel au
temps.
La datation peut se faire lorsque nous chauffons un cristal, ayant été soumis à une
irradiation, avec une certaine température pour que les sites se vident des électrons.
Ceux-ci rencontrent d’autres charges positives et en se combinant, ils excitent les centres
luminogènes du cristal. Ces centres perdent le surplus d’énergie sous forme de photons,
c’est ce que nous appelons luminescence. Les scientifiques mesurent cette luminescence
(qui est proportionnelle au nombre de charges piégées) par proportion au temps écoulés
depuis le dernier vidage du cristal.
Dossier culturel scientifique : le microscope électronique
Par
Alejandro Castellanos
Ahmed Nachi
David Nguyen
En comparant l’humain aux autres animaux, on remarque qu’il présente des
lacunes sur le plan physique. Son odorat est loin d’être aussi développé que celui du
chien, sa force est moindre que celle d’un ours et sa rapidité ne peut se mesurer à celle du
léopard. Toutefois, son intelligence lui permet d’améliorer ses aptitudes par les
innovations technologiques que celle-ci amène. Ainsi, l’homme a réussi, au niveau de
l’optique, à voir plus loin qu’un aigle. Ceci a commencé par la loupe ensuite par les
lunettes et finalement le microscope. Il existe deux types de microscopes : le microscope
optique et le microscope électronique. Le microscope optique utilise les photons pour
percer le mystère de l’infiniment petit. Il utilise les notions du cours de physique NYC.
La diffraction en est un exemple. Par analogie, le microscope électronique utilise, comme
son nom l’indique, les électrons pour reproduire une image jusqu'à 5 000 000 de fois plus
grande. Il a été mis au point en 1931 par Max Knoll et Ernst Ruska. Ils ont eu l’idée
fabuleuse d’utiliser les notions de physique (apprises dans le cours de physique NYB)
pour avoir une meilleure précision. En effet, le fonctionnement du microscope
électronique est basé sur la déviation contrôlée des électrons. Dans le microscope
optique, on utilise la diffraction sur une pellicule mince pour dévier un rayon (photons).
On a donc le contrôle sur deux paramètres, soit : la longueur d’onde et la grosseur de la
pellicule. Dans le microscope électronique, on accélère des électrons, pris dans une
source, grâce à un accélérateur d’électrons. Ces derniers vont bombarder deux plaques
très rapprochées (analogue de la pellicule mince). Ces deux plaques contiennent un
champ magnétique uniforme interne (entre les plaques), mais isolent le champ à
l’extérieur des plaques (champ externe nul). Grace à ce champ interne les électrons sont
déviés. Le résultat est donc le même pour la déviation de l’électron que celle du photon.
Par contre, dans le cas d’un microscope électronique, on peut contrôler plus de
paramètres, soit : le champ entre les plaques, la vitesse des électrons, la quantité
d’électrons dégagés par la source. Ces derniers paramètres sont plus faciles à contrôler
par rapport à la longueur d’onde et la minceur de la pellicule. En ce qui concerne le trajet
de l’image jusqu’ à la photographie finale, ceci relève d’un niveau de cours de physique
avancé. Bref, grâce à tous les nouveaux paramètres qu'on peu contrôler avec le
microscope électronique et grâce à la plus petite longueur d’onde de l’électron, on réussit
à atteindre des grossissements inimaginables avant. Avec ce nouveau type de microscope,
Sedef Calasin
Simon Giroux-Portelance
Maryse Fournier
Le monde des nanotechnologies est très vaste et il ne cesse de s’agrandir depuis quelques temps.
Par exemple, les découvertes faites en ce domaine en santé ne cessent de constamment faire
évoluer les anciennes techniques médicale. Dans ce présent texte, nous parlerons donc des
propriétés qui distinctes les nanomatériaux des matériaux normaux et des applications de cette
nouvelle technologie émergente dans le domaine de la santé.
Les nanotechnologies sont le résultat de regroupements de nanomatériaux qui sont eux-mêmes un
assemblage de particules nanométriques. Ces particules ont une taille qui se situe en dessous de
100 nm. Une chose est sûre, c’est qu’à cette grosseur, les propriétés changent. En effet, la
diminution de la taille augmente la dureté et la résistance. Par exemple, une nanoparticule de
cuivre de 50 nm est deux fois plus dure qu’un morceau normal. De plus, la petite taille accroît
aussi la malléabilité et la ductilité. Ainsi, un nanomatériau sera beaucoup plus dur à briser s’il
subit un choc. Ce qui expliquerait en partie ces phénomènes, se sont les liens atomiques qui se
sont formés à partir des partages des électrons à l’intérieur même des atomes. Un des avantages
des nanomatériaux est le ratio surface-volume qui permet de faire d’importante découverte en
chimie puisque cet avantage favorise grandement les réactions chimiques. Par contre, pour ce qui
est des désavantages, le coût de production de ces matériaux est très coûteux, l’entreposage est
difficiles et des réactions indésirables (vu leur grande réactivité) arrivent très souvent. La
nanotechnologie en santé permet la construction de nouvelles molécules et de nouveaux
instruments afin d’expérimenter de nouvelles applications, en partie sur l’ADN (2 nm) et les virus
(10 nm).
Chargés de découvrir si les nanotubes de carbones sont toxiques pour l’environnement aquatique,
puisque ils sont de plus en plus à envahir les marchés, Menachem Elimelech, professeur et chair
of chemical and environmental engineering à l’Université de Yale et son équipe ont effectué des
recherches dans ce domaine. En effet, sachant que les nanotubes de carbones sont environ des
milliers de fois plus fins qu’un cheveu, et qu’ainsi, ils sont facilement absorbés par les cellules
humaines, ils voulaient étudier si ceux-ci auraient un impact sur la chaîne alimentaire. L’étude a
plus précisément été faite sur les nanotubes d’une seule couche d’atomes de carbone (nommés
SWCNTs). Elle consistait à incuber dans un même milieu des bactéries E. coli et des SWCNTs
pendant une heure. Résultat : Les bactéries qui eurent un contact direct avec les nanotubes furent
tuées. Pour diminuer au plus haut point les risques d’erreurs, ils ont voulu diminuer le risque
d’une action toxique de métaux présents dans les nanotubes, donc, obtenir un produit pur. Ceci
mènera à de futures recherches avec d’autres types de nanotubes ainsi que d’autres types de
bactéries. Cette découverte pourrait mener à la découverte de nouveaux antibiotiques car ceux qui
existent sur le marché ne cessent de diminuer leur effet dû à la résistance contre les germes
pathogènes.
Voici une seconde application des nanotechnologies. Les médicaments de la médicine moderne
sont très efficaces. Cependant, les patients ont souvent des effets secondaires provenant du fait
que les médicaments n’agissent pas uniquement dans la zone désirée par le médecin comme par
exemple les chimiothérapies. Les chercheurs de la polytechnique de Montréal ont trouvé
comment mieux cibler les effets des médicaments. Leur méthode révolutionnaire consiste à
utiliser des bactéries de l’ordre des nanomètres pour transporter dans les vaisseaux sanguins
comme les capillaires le médicament à l’endroit souhaité. Pour guider les bactéries à l’intérieur
du patient, ils utilisent un champ électromagnétique. Cette technologie devrait bientôt être
commercialisée et utilisée.
Le diagnostic du cancer du sein: de nouvelles techniques émergent
Par
Geneviève Bois
Caroline Malo Pion
Mélissa Savary
Le cancer du sein est aujourd'hui de part le monde un des types de cancer qui affecte le plus les
femmes et celui qui est le plus souvent fatal. Dans les pays développés, on estime qu'une femme sur
onze sera atteinte de cancer du sein au cours de sa vie. Ce qui rend ce cancer bien souvent mortel, en
dépit des traitements sans cesse perfectionnés, est que le diagnostic ne se pose pas facilement et
s'effectue souvent trop tard. Classiquement, le diagnostic du cancer du sein se fait par mammographie.
Les femmes chez lesquelles on détecte une masse suspecte doivent ensuite subir une biopsie pour
déterminer s'il s'agit d'une tumeur maligne ou d'un simple kyste. Ces biopsies restent des opérations
chirurgicales malgré leur apparente simplicité et les coûts qu'elles engendrent sont importants. Elles
exposent, de plus, un grand nombre de femmes à une chirurgie bien souvent inutilement, et à un stress
appréciable.
Depuis peu, une nouvelle technique de diagnostic a vu le jour. Celle-ci peut être utilisée seule,
mais préférablement en complément à la mammographie classique. La limitation principale de la
mammographie est que l'image obtenue permet de localiser une tumeur ou un kyste, mais pas de
différencier s’il s’agit d’une masse maligne ou bénigne. De plus, pour être visible, la tumeur ou le kyste
doit déjà avoir une certaine taille et de facto, le diagnostic précoce s'en trouve gêné. Le procédé de la
photo-acoustique est intéressant. Il suffit d'envoyer un faisceau lumineux modulé et focalisé sur
l'échantillon (dans le cas d'un diagnostic de cancer sur sein, le sein lui même) puis le milieu absorbe
partiellement l'onde électromagnétique qui produit de la chaleur, qui produit à son tour une dilatation.
Cette dilatation crée finalement une onde pouvant par la suite être captée. Comme c'est la “relaxation”
des tissus après la dilatation qui est responsable de la création de l'onde, et que différents tissus ont
différentes élasticités (un tissu cancéreux est beaucoup moins élastique qu'un tissu sain et une tumeur
maligne moins élastique qu'un kyste), les ondes captées permettent d'identifier la présence d'une tumeur
ou d'un kyste et aussi de les différencier. De plus, d'autres essais ont conduits des chercheurs à utiliser
une combinaison de lumière et d'ultrasons pour effectuer le test de dépistage ; la lumière est difractée,
ce qui complique la reconstruction d'une image et les ultrasons, qui eux sont absorbés en grande partie
par les vaisseaux sanguins, sont peu réfléchis, ce qui rend impossible la visualisation en détail de la
zone avec l’utilisation seule des ultrasons. L'utilisation d'une combinaison de ces deux méthodes est
donc idéale. Les tumeurs malignes sont nourries par une multitude de petits vaisseaux sanguins. La
Isabelle Lord-Poitras, Claudine Lessard et Mylène Moreau
Ordinateur quantique
Alexandre Blais, chercheur physicien de l’université de Sherbrooke, a
récemment révolutionné le monde de la physique de par sa découverte reposant
sur l’utilisation des photons au niveau des ordinateurs. Le moyen d’emprisonner
ces derniers, trouvé par ce physicien, constitue la première partie de cette
découverte fascinante. Grâce à cette méthode d’emprisonnement, il a été en
mesure de déterminer l’état dans lequel se trouvaient les photons ainsi que de
calculer leur nombre dans un espace bien précis. Il s’agit d’une expérience
remarquable puisque avant aujourd’hui, il était simplement impossible d’observer
ces particules discontinues de par leur facile désintégration. La seconde partie
de ses exploits consiste en l’élaboration d’un moyen de communication entre les
qubits (quantiques bits).
Les qubits ressemblent beaucoup au bits, qui sont
présents dans les ordinateurs classiques, à l’exception qu’ils peuvent être
représentés à la fois par 1 et 0, c’est-à-dire qu’ils peuvent être dans deux états à
la fois. Le moyen qui leur permet de communiquer entre eux se nomme BUS
(Bidirectional Universal Switch). Ces BUS sont construits à partir d’aluminium et
permettent à deux qubits non adjacents de s’échanger de l’information sans
passer par leur voisin immédiat. Cette façon d’interagir s’avère ainsi beaucoup
plus rapide de même qu’elle diminue la possibilité d’erreur. Le BUS sert donc
de passerelle pour transmettre des bits d’information de la mémoire au
processeur, et vice-versa. De nombreux scientifiques de partout dans le monde
essaient maintenant de concrétiser l’invention d’Alexandre Blais. D’ailleurs, l’une
des diverses options de fabrication possibles amenées par ces chercheurs a
particulièrement retenu l’attention d’Alexandre Blais. Cette méthode nécessite
une plaque d’aluminium sur laquelle sont alignés plusieurs circuits, également
construits à base d’aluminium. Sur ces fils, des circuits fabriquent les qubits, qui
eux se transmettent de l’information par l’entremise de photons circulant dans les
fils. Pour permettre cet échange, les fils doivent être refroidis afin de devenir
supraconducteurs. Plus le nombre de qubits est élevé, plus la communication est
Mélanie Filion
Marie-Christine Foglietta
Geneviève Lacroix
Le Grand collisionneur de hadrons (LHC)
Alors que les scientifiques du 17e siècle n’avaient recours qu’à des
instruments rudimentaires afin d’effectuer leurs expériences, les physiciens
d’aujourd’hui sont sur le point de mettre sur pied un gigantesque instrument
scientifique qui porte le nom de Grand collisionneur de hadrons (LHC). Avec sa
circonférence de 27 kilomètres, il s’agit du plus grand accélérateur de particules
au monde. Le LHC constitue un élément clé de la recherche scientifique et dont
les expériences pourraient permettre d’élucider certains mystères de la physique
fondamentale, notamment au sujet de la nature de la matière et de l’énergie
dans l’Univers.
Situé près de Genève à environ 100 mètres sous terre, le LHC a pour idée
de pouvoir accélérer des particules de la famille des hadrons (principalement des
protons) dans le but de les faire entrer en collision à 99,99975 % de la vitesse de
la lumière. Afin que les faisceaux de particules atteignent ces très hautes
énergies, il faut pouvoir courber leur trajectoire autour de l’accélérateur. Cela
nécessite un champ magnétique intense produit par des milliers d’aimants qui
fonctionnent à l’état supraconducteur. Cet état requiert une température de 2
Kelvins, soit -271oC, qui pourra être atteinte à l’aide d’hélium superfluide.
En étudiant l’infiniment petit au niveau des particules du noyau atomique,
les centaines de scientifiques travaillant au LHC pourront en savoir plus sur
l’infiniment grand, l’Univers. Le LHC va recréer les conditions existantes au
moment du Big Bang et il sera possible d’analyser les particules issues de ces
collisions extrêmement violentes à l’aide de quatre détecteurs spécialisés. Ces
analyses aideront les scientifiques à répondre à des questions sur la physique de
Emmanuelle Poirier
Sabrina Purcell Lalonde
Isabelle Richard
Résumé de la téléportation quantique
Le progrès de la téléportation quantique
L’idée de la téléportation germa dans l’esprit des physiciens suite à la
populaire série télévisée Star Trek. Environ 30 ans plus tard, soit en 1993, une
équipe de chercheurs internationaux a réalisé que la téléportation quantique était
théoriquement possible. Puis, l’Autriche réussit, quelques années plus tard, à
appliquer les notions théoriques pour effectuer la première téléportation réelle d’état
quantique. Plus la science évolue, plus nous sommes en mesure de téléporter les
photons à de grandes distances. Par contre, étant donné les grandes distances à
franchir, on doit établir des relais pour les photons, car ceux-ci sont susceptibles de
se perdre dans la fibre optique. En 2002, des scientifiques suisses ont réussit à
téléporter un photon sur une distance de six kilomètres. Il y a quatre ans, il y eut un
grand progrès technique, on réussit à téléporter un atome !
Le principe de la téléportation quantique
Tout d’abord, il faut comprendre que la téléportation quantique ne permet pas
la téléportation de matière. La téléportation permet de créer une copie parfaite du
photon de départ, donc il n’y a pas de déplacement physique du photon du point A
au point B. Il s’agit d’un transfert d’information et non de matière! Mesurer l’état
quantique d’une particule nous renseigne sur l’état perturbé de cette dernière, il
nous est alors impossible de connaître son état original. En fait, la téléportation
s’effectue en trois étapes. Premièrement, le photon est dématérialisé.
Deuxièmement, il y a l’envoi d’un signal du point A au point B. Troisièmement, il y a
reconstruction du photon au point B à partir d’atomes déjà présents. Il est important
de constater que le photon B n’est pas le même que le photon de départ, car il est
fait de différents atomes. Le photon B est donc une copie identique du photon A. Un
lien invisible unit les deux photons ce qui fait en sorte que lorsqu’on modifie l’état de
l’un l’autre sera, lui aussi, modifié même si plusieurs kilomètres les séparent. Ceci
prouve que l’effet EPR (Einstein-Podolsky-Rosen) est bien réel contrairement à ce
que ces scientifiques avançaient.
Les applications futures de la téléportation quantique
La téléportation quantique permettra un jour d’améliorer le domaine des
télécommunications et des technologies. Premièrement, cette téléportation rendra la
transmission de certains messages secrets inviolable. De plus, si les messages sont
interceptés, ils seront détruits, afin d’assurer la plus grande confidentialité possible.
Deuxièmement, la téléportation révolutionnera le domaine technologique, car nos
ordinateurs auront davantage de qubits, ce qui leur donnera une puissance
DANEAU, Maryse
LAGACÉ, Marie-Ève
La radiographie
Les rayons X ont été découverts en 1895 par le physicien allemand, Wilhem
Conrad Roentgen, qui faisait l’étude de rayons cathodiques. Puis, en 1896, la première
radiographie de tableau a été réalisée.
Premièrement, la radiographie regroupe tous les procédés qui servent à détailler
un organe à l’aide de rayons X. Elle comprend donc la radiographie, mais aussi la
radioscopie, qui signifie l’observation de l’organe en profondeur sur un écran de
télévision. L’image obtenue par radiographie est due aux rayons X qui peuvent pénétrer
la matière à cause de leur faible longueur d’onde qui est comprise entre 10 -7 et 10-11 mètres.
Comme la longueur d’onde est plus petite que la distance inter-atomique, ces rayons
peuvent alors pénétrer la matière et seulement le plomb peut les en empêcher. Donc, le
principe de la radiographie est basé sur l’émission des rayons X, qui sont des ondes
électromagnétiques, comme la lumière visible ou les micro-ondes utilisées pour les
cellulaires.
Tout d’abord, les rayons X sont générés par un tube Coolidge qui est en verre ou
encore par un tube fait en plomb et en céramique que l’on utilise depuis peu. Dans ce
tube, il y a une cathode et une anode. La cathode possède un filament de tungstène qui
est relié à une source de courant, dont l’intensité peut varier pour modifier la
température du fil. C’est ce qui produit un faisceau d’électrons qui voyagent vers l’anode.
Le faisceau d’électrons frappe donc l’anode, qui est constituée en tungstène et agit
comme un miroir : les électrons frappent plus précisément ce que l’on appelle le foyer et
c’est ce qui émet un rayonnement électromagnétique invisible dans lequel on retrouve les
rayons X. Ces rayons sont présents puisque la collision entre l’électron émis par la
cathode et celui de l’alliage métallique a forcé ce dernier à quitter son orbital et c’est ce
qui produit un photon X. Il y a aussi une autre possibilité possible pour la production de
rayons X : le noyau de l’atome dans l’alliage de tungstène fait dévier l’électron venant de
CATHERINE BERGERON-LEGROS
JADE-EMMANUELLE DESHAIES
MAXIME PAQUIN
Articles sur les neutrinos et leurs applications
Les neutrinos sont des particules de très petite masse et sans charge. Leurs
interactions avec les atomes sont très limitées. De ces caractéristiques surgissent
un avantage et un inconvénient. Tout d’abord, les neutrinos donnent des
renseignements sur des lieux inconnus (les autres particules sont absorbées avant
d’atteindre ces lieux, tandis que les neutrinos passent au travers des corps
célestes en changeant à peine leur vitesse et leur trajectoire). On peut prendre
comme exemple, le centre de la Terre. Les photons (lumière) arrêtent à la
surface, tandis que les neutrinos traversent la Terre. Par contre, ils sont
extrêmement difficiles à détecter.
Mais d’où viennent les neutrinos? Lorsqu’un neutron est isolé, il disparaît
rapidement. En fait, il ne disparaît pas, il devient un électron, un proton et un
neutrino! Les neutrinos proviennent donc d’activités nucléaires. Les plus
importants flux de neutrinos proviennent des étoiles. Ces dernières sont
effectivement reconnues pour leurs activités nucléaires démesurées!
Le premier article est en fait trois courtes chroniques du livre Chroniques des
atomes et des galaxies d’Hubert Reeves. Il décrit les circonstances ayant mené à
cette découverte. Aussi, il décrit le neutrino lui-même et explique quelques
applications possibles.
Le deuxième article traître du rôle joué par les neutrinos sur la théorie de Big
Bang ainsi que du Modèle Standard. En effet, la mer de neutrinos (car il y a des
neutrinos partout) de l’Univers ne semble pas être homogène (non homogène,
car il y a présence de flux). Ainsi, des variations minimes seraient donc
percevables et de là, plusieurs déductions pourraient être faites.
Flux de neutrinos
Qui a été observé
Le troisième article traite du télescope à neutrinos, Antares. Ce dernier à deux
objectifs : l’astronomie de haute énergie et la recherche de la matière noire. Pour
ce faire, ce télescope est immergé en dessous de 2500 mètres. En effet,
l’importante couche d’eau protège Antares du rayonnement cosmique.
Paulina Ear
Nathalia Motuzco
Doris Buzarnescu
Résumé :
Le Soleil émet des ondes radio qui peuvent être cartographiées lors d’une activité
solaire minimale. En effet, ce n’est que pendant les activités solaires plus violentes que
les ondes radio émises subissent des changements majeurs. Ces changements dépendent
de la densité électronique dans les régions solaires tels que la chromosphère et la
couronne. Les manifestations radioélectriques qui résultent de l’activité violente du soleil,
les sursauts, se classent dans cinq catégories. Celles-ci se distinguent par leur origine, la
bande de fréquence des signaux émis et la durée du phénomène. Certains sursauts
s'accompagnent de l'émission de rayons X et ultraviolets. Les ondes radio émises par le
soleil et particulièrement par les photons de courte longueur forment l’Ionosphère. Ce
phénomène permet d’effectuer des communications radio à longue distance sur Terre.
Mise à part les ondes radio, le Soleil émet des ondes sonores qui présentent un
grand intérêt pour les astrophysiciens. Comme dans le cas des sismologues qui utilisent
des ondes sismiques pour étudier la composition de la terre, les astrophysiciens étudient
la composition du soleil à partir des ondes acoustiques. Ainsi, le soleil peut être comparé
à un instrument musical, car il émet des ondes sonores aux fréquences spécifiques
imperceptibles par l’oreille humaine. Malgré cette ressemblance, la propagation des
ondes solaires est différente de celle d’un instrument musical à cause de la forme
sphérique tridimensionnelle du Soleil.
Le champ magnétique du Soleil se couple avec celui de la Terre par l'intermédiaire du vent
solaire
Pour comprendre la structure et la physique du soleil, il est nécessaire de prendre
en considération, la fréquence, l’amplitude, le taux d’amortissement et la trajectoire des
RÉSUMÉ
D’après la théorie de la relativité einsteinienne, le temps est une notion individuelle et non
collective. Chaque chose aurait une « horloge personnelle ». Einstein explique ces propos en affirmant
que tout se déplace dans un certain espace-temps. Paradoxalement, ceci voudrait dire que pour un objet
qui se déplacerait plus vite qu’un autre, le temps s’écoulerait moins vite. De plus, Einstein pousse ses dires
plus loin en insinuant que s’il y avait un objet qui se déplacerait à la vitesse de la lumière, la notion de
temps n’existerait plus.
Par contre, cette idée que se fait Einstein du temps ne nous renseigne pas sur sa nature
intrinsèque. Il existe deux notions sur le temps que l’expérience sensible peut nous montrer :
l’écoulement du temps et la direction du temps. De prime
abord, Green, un important physicien du 21ième siècle, nous
explique le temps grâce à sa fameuse métaphore « la rivière
gelée ». Il compare le temps à une rivière et l’ensemble des
choses à une barque qui se trouve sur cette rivière. Le
temps, tout comme la rivière, semble avancer en entraînant
avec lui les passagers de la barque. Ensuite, le temps
s’avère avoir une certaine direction. Encore une fois, c’est
l’expérience sensible qui nous le prouve. Prenons les
exemples suivants : les gens vieillissent, mais ne
rajeunissent pas, une vase qui se casse ne va jamais se
reformer. On peut voir là une certaine direction du temps,
c’est-à-dire du passé vers le futur.
Le temps a donc un cours qui fait en sorte que les événements passent et il engendre de la durée.
Ces phénomènes ont par contre une propriété spécifique qui n’affecte pas ce cours : c’est la flèche du
temps. Elle définit la linéarité de ces phénomènes : cette flèche montre le caractère irréversible des
systèmes physiques. Elle dit dans quel sens les phénomènes doivent se produire, tandis que le cours du
temps n’exclut pas la répétition de ces derniers, mais exige que les lois physiques demeurent inchangées.
Ce sont là les deux premiers principes de la thermodynamique.
Bien que le principe de causalité reste à la base de la
définition du temps, on ne saurait décrire la collision de deux
particules comme étant un phénomène simplement causal. Un
système est un tout qu’on ne saurait réduire à la position de
chaque composante dans le temps jumelée à un signal transmis
entre chacune. Cette corrélation des particules s’effectue dans le
temps : elle est inscrite dans un temps donné, à un instant donné,
sans que le temps s’écoule. L’expérience de Gisin et Suarez
confirme cette théorie de la physique quantique.
Est-ce que le temps s’écoule vraiment?
Le plus gros télescope au monde !
Cet énorme télescope est un projet de l’Observatoire européen astral
(European Southern Observatory : ESO) de 1.1 milliards de dollars. L’extremely large
telescope, l’ELT, utilisera la technique de miroir segmenté.
Le miroir primaire de l’ELT sera composé de 984 miroirs hexagonaux de 1.14
mètres de diamètre. Tous les miroirs assemblés ensemble, le miroir primaire
atteindra une surface totale de 1200 mètres carrés et pèsera 120 tonnes. Les miroirs
sont tellement lourds (152 kilos ≈ 334 livres) que la gravité les désoriente. Il y a donc
sur chaque miroir un appareil qui les réajuste dix fois par seconde.
Voyons maintenant comment ce télescope fonctionne. Pour mieux visualiser
vous pouvez vous référez au schéma ci-dessous.
1. La lumière vient frapper le miroir primaire et est réfléchie sue le miroir A
2. Le miroir A réfléchi la lumière et la fait passer à travers le trou du miroir C pour
ensuite aller frapper le miroir B
3. Le miroir B dirige la lumière vers le haut pour revenir au miroir C. Ce dernier
est un très mince miroir au-dessus de 5 000 déclencheurs qui pousse ou tire
sur la surface du miroir 1 000 fois par seconde. Cette action rapide permet de
réaligner la lumière déformée par l’entrée dans notre atmosphère. Cette action
permet aussi aux astronomes d’obtenir une image claire.
4. Après avoir été corrigé par le miroir C, la lumière frappe le miroir D. Ce dernier
bouge jusqu’à 20 fois par seconde pour garder l’étoile observée alignée
correctement malgré le vent.
5. Finalement, le miroir D réfléchie la lumière vers un détecteur qui abrite une
caméra permettant de capturer les images des étoiles.
Le ELT nous permettra d’observer l’atmosphère d’exo planètes et permettra
aux astrophysiciens d’apercevoir des planètes d’une taille comparable à la Terre
en orbite autour de soleil distant de plusieurs dizaines d’années lumières. Pour
vous donnez un point de comparaison, la résolution de l’image de cet énorme
télescope est de 10 à 15 fois celle du Hubble.
Yoann Gosselin, Marianne Arsenault & Léa Constantineau
les trous noirs et les rayons gamma
Bibliographie
SITES INTERNET :
L'expérience H.E.S.S. découvre un accélérateur cosmique en pleine action au centre
de la Voie Lactée (Page consultée le 1 avril 2008)
http://www.mpihd.mpg.de/hfm/HESS/public/PressRelease/DiffusePress/PressRelease_F.html
 Ce site est intéressent parce qu’il écrit la façon dont on a découvert les rayons
gamma dans la Voie Lactée.
Comment détecte-t-on les trous noirs? (page consultée le 1 avril 2008)
http://pagesperso-orange.fr/trounoir/emissions_de_rayons_x_et_gamma.html
 Ce site est intéressent parce qu’il explique le fonctionnement d’un trou noir et
comment celui-ci en vient à éjecter des rayons gamma.
Sgr A* : un accélérateur de particules au centre de la Voie Lactée (page consultée le
1 avril 2008)
http://www.futura-sciences.com/fr/sinformer/actualites/news/t/univers/d/sgr-a-unaccelerateur-de-particules-au-centre-de-la-voie-lactee_10486/
 Ce site est intéressant parce qu’il vulgarise bien comment le trou noir se
comporte pour devenir un accélérateur de particules.
LIVRE :
SÉGUIN, Marc et VILLENEUVE, Benoît, Astronomie et Astrophysique, Québec, ERPI
2002, p. 295 à 300
 Ce livre est intéressant parce que comme c’est un manuel collégial, la matière
est vraiment bien vulgarisée et il explique vraiment ce qu’est un trou noir.
RÉSUMÉ :
Pour commencer, les trous noirs sont des « cadavres » de vielles étoiles dont la
fusion atomique a progressé jusqu’à atteindre l’élément final, le fer. Si l’étoile pèse plus
de trois fois la masse du soleil, l’étoile devient assez dense pour que même la lumière ne
puisse échapper à sa gravité. On appel alors cette «étoile morte» un trou noir. Par la suite,
le trou noir peut capturer des fragments d’étoiles et des lambeaux de nuages
interstellaires qui s’accumulent en forme d’anneaux autour du trou noir. De plus, la
vitesse de rotation des anneaux peut accélérer jusqu'à atteindre la vitesse de la lumière et
ils forment une spirale avec pour centre le trou noir. La température de cette spiral est très
élevée, car l’énergie cinétique y est transformée en énergie thermique par ce mécanisme :
lorsque des protons à très hautes énergies entrent en collision avec d'autres protons à plus
basses énergies cela crée des mésons qui se désintègreront par la suite pour donner
naissance à des rayons gamma. Ensuite, le trou noir, en tournant sur lui-même, crée un
champ magnétique qui expulse des particules à une vitesse de 276 000 km par seconde,
soit 92% de la vitesse de la lumière. En faisant percuter des particules ayant une telle
vitesse entre elles, on obtient l’équivalent d’un accélérateur de particules beaucoup plus
puissant que ceux construits sur terre. Les résultats, s’il serait possible de les analyser,
serait beaucoup plus concluants qu’avec n’importe lequel accélérateur de particules
terrestre.
GLOSSAIRE :
Rayon Gamma :
Les rayons gamma sont un type de radiation électromagnétique avec les fréquences les
plus élevées, et donc les longueurs d’ondes les plus petites (soit 10 picomètres = 1E-12).
Ces derniers sont formés de photons, tout comme la lumière visible ou les rayons X, mais
ils sont de plus haute énergie (lumière visible = 1 eV, rayons gamma = plus de 100 keV).
Mésons :
Particule non élémentaire composant entre autre les protons.
Disque d’accrétion :
Un disque d’accrétion est une structure formée par une accumulation de matière par
aspiration. En astrophysique, elle est formée par de la matière en orbite autour d’un
corps. La force centrifuge transforme alors le nuage en rotation en disques.
Rayons cosmiques :
Les rayons cosmiques sont le flux de particules de haute énergie. Il s’agit entre autre de
protons, de noyaux d’hélium (particules alpha), d’électrons et de différents nucléons
(noyaux d’atomes). On y retrouve aussi une partie de rayons gammas ainsi que de
neutrino (particules élémentaires à très faible énergie).
Quasar :
Une source d’énergie électromagnétique incluant la lumière visible et autres longueurs
d’onde électromagnétiques. C’est un halo de matière qui entoure un trou noir d’une
jeune galaxie : elle dépasse alors de plusieurs centaines de fois la luminosité des galaxies
environnantes.
Télescope H.E.S.S.:
Le télescope HESS est installé dans la savane Namibienne, en Afrique austral. Ses 4
miroirs géants de 13 m de diamètre captent au moyen de caméras ultra-rapides l'éclair
lumineux produit par les rayons gamma.
Pulsars :
C’est un trou noir ou une étoile à neutron, un une « étoile morte » pas assez massive pour
devenir un trou noir, qui absorbe la matière et qui en transforme de 10 à 20% en énergie
en partie lumineuse.
Téléchargement