Projet Culture Scientifique Julie Descheneau, département de physique Collège de Maisonneuve Voici un aperçu des mini-dossiers ( remis par les étudiants de Physique NYC des groupes 6,7,8 de la session d’hiver 2008.) Pour en savoir plus sur un sujet, double-cliquez sur l’image du résumé (pages suivantes) et le document s’ouvrira. DESJARDINS-D., Daphnée, HAMEL, Élyse et LEFEBVRE, Myriam La Terre est pourvue d’un champ magnétique qui influence la vie des organismes vivants. Saviez-vous que celui-ci s’est déjà inversé il y a 780 000 ans et que cela pourrait se reproduire d’ici 2000 ans? Il intéressant de noter les divers impacts qu’auraient un tel phénomène. Celui-ci peut être provoqué de deux manières différentes. Certains scientifiques affirment que l’inversion des pôles sera spontanée et d’autres croient qu’elle sera due à l’impact d’une comète. Suite à cette collision, les pôles pourraient s’inverser ou retourner tout simplement à leur origine. Mais tous s’entendent pour dire que peu importe la manière dont le champ se déplace, il y aura d’abord une absence de champ magnétique pour une durée approximative de quelques semaines. Selon des spécialistes, cette absence entraînerait la disparition de la protection de la ceinture magnétique de la Terre. Suite à cette disparition, les vivants ne seraient plus protéger contre les bombardements cosmiques. Ceci pourrait provoquer l’extinction de plusieurs espèces ou la création de nouvelles espèces par mutation génétique. Cette inversion affecterait particulièrement certains animaux qui s’orientent grâce au champ magnétique. Nous nous sommes penchées sur le cas des pigeons voyageurs et des oiseaux migrateurs, mais nous aurions pu vous parler des abeilles, des baleines, des tortues de mer et même de certaines bactéries. Contrairement aux humains, les pigeons possèdent réellement un sixième sens. En effet, il ne s’oriente pas seulement avec la vision et l’olfaction, mais aussi avec le sens magnétique. Après plusieurs expériences, des scientifiques ont émis l’hypothèse que des microcristaux de magnétites situés dans la boîte crânienne sont la cause de leur sensibilité magnétique. Les oiseaux migrateurs n’ont pas seulement le sens magnétique, ils ont aussi une sensibilité aux différentes longueurs d’onde de la lumière. Par exemple, lors d’une expérience un chercheur a remarqué que les rouges-gorges qui étaient éclairés par de la lumière jaune étaient désorientés pour leur migration. La lumière dérange leur perception magnétique ce qui les faits déviés de leur trajectoire habituelle. De plus, l’intensité de la lumière les fait tous converger vers une GAGNÉ, Antoine GERARDI, Savannah LABERGE GOUPIL, Mathieu L’antimatière Le sujet de notre recherche scientifique, dans le cadre du cours de physique NYC, n’est certainement pas un phénomène que tous reconnaissent. L’antimatière suscite beaucoup d’intérêt au sein des sociétés scientifiques. Sur la planète Terre, nous sommes entourés et constitués de matière. Cette dernière porte une charge. Le terme « antimatière » a été choisi pour ce phénomène pour indiquer qu’elle est entre autres l’opposé de la matière. Ceci signifie que l’antimatière porte une charge de signe contraire de la charge de la matière. Il est important de mentionner que la matière est sur terre et que l’antimatière est dans l’Univers, à l’au-delà de notre « visibilité ». Par contre, de nombreuses théories affirment que l’Univers est constitué de plus de matière que d’antimatière. Une explication qui puisse soutenir ce fait n’a pas encore fait surface dans le domaine des sciences physiques, mais plusieurs croient que ce problème soit originaire du Big Bang. Lors de cette « explosion », la matière et l’antimatière étaient présentes à quantité égales. Pour une raison encore ignorée, la quantité de matière aurait pris le dessus sur celle de l’antimatière. La matière, étant caractérisée par des particules positives (les protons) et des particules négatives (les électrons), est l’opposé de l’antimatière (comme mentionné ci-haut). Ceci nous indique donc que les protons (+) de la matière deviennent négatifs (les antiprotons) dans l’antimatière et que les électrons (-) de la matière deviennent positifs (les positrons) dans l’antimatière. La réaction matière-antimatière occasionne un très grand dégagement d’énergie suivant E=mc2. La matière et l’antimatière, une fois en contact, s’annihilent. Cette transformation de l’énergie a lieu lorsqu’une particule de la matière rencontre son opposé de l’antimatière (exemple : positron + électron = ÉNERGIE). Cette réaction devrait égaliser les quantités de matière et d’antimatière existantes dans l’Univers, mais ce n’est tout de même pas le cas. Résumé de l’article 1 Des chercheurs ont découvert que le centre de la voie lactée émet 511 KeV d’énergie sous forme de photons gamma. Cela correspond exactement à l’énergie émise par l’annihilation d’un électron par son antiparticule : le positron. Des chercheurs ont donc tenté de découvrir l’origine de la quantité immense d’antimatière nécessaire pour que ce phénomène ait lieu. Ils ont tout d’abord posé l’hypothèse de la matière noire. Pour quelle soit confirmée, le centre de la galaxie devait être symétrique au niveau énergétique. Ces les positrons pouvaient provenir de l’annihilation de particules exotiques de matière noire dans le halo central symétrique de la galaxie. Il pouvait s'agir de neutralinos, ou de particules massives de Kaluza-Klein, de mini trous noirs ou de supernovas. Or, le satellite a révélé un flux deux fois plus intense d’un coté du centre galactique que de l’autre. Des astres de la classe binaire X seraient donc les sources plus probables de l’antimatière. Ils sont composés d’un soleil équivalent au notre et d’un trou noir ou une étoile à neutrons. Le point sur… la radiothérapie : La radiothérapie est une technique qui permet de soigner divers types de cancer. Le principe est de bombarder tumeur et ganglions satellites à l’aide de rayons électromagnétiques pour que le matériel génétique détruit empêche la régénération des cellules malades. Les rayons X sont produits par un accélérateur de particules qui augment la vitesse des électrons. Les électrons sont freinés par une cible de Tungstène qui permet de convertir l’énergie en rayon X. L’utilisation des électrons est dû au fait que ces particules peuvent passer à travers les tissus et s’arrêter en fonction de leur énergie. De plus, le Tungstène est utilisée parce qu’il permet de prolonger cette distance. Ensuite, un obturateur en plomb est utilisé pour formé le rayon à celle de la tumeur pour diminuer le nombre de cellules saines touchées. Avant d’agir sur la tumeur, les cancérologues doivent la localiser. Ils disposent de diverses méthodes comme la curiethérapie. Cette technique consiste à implanter une source radioactive au cœur de la tumeur. Pour arriver à l’emplacement de la tumeur, les cancérologues doivent utilisés les cavités naturelles de l’organisme ce qui veut dire que l’accès est restreint. Ils peuvent utilisés se bombardement de rayon X qui permet d’aller plus en profondeur et minimiser les risques d’endommagement. La radiothérapie possède déjà des projets d’avenir pour améliorer les traitements. Par exemple : l’utilisation de bras mécanique pour la précision, les ions carbonés chargés remplacerons les électrons parce qu’il semble plus puissant et permet la réduction du nombre d’exposition au rayon X. Résumé Aujourd’hui, avec tous les progrès scientifiques cumulés depuis des années, des chercheurs veulent ériger un observatoire astronomique géant sur la lune, rien de moins. Et c’est grâce au miroir liquide qu’ils sont prêts du but. Cette invention a été faite en 1850 par Ernesto Cappocci, un astronome italien. Ce dernier a remplacé un miroir normal par du mercure en rotation dans une assiette. Il a découvert que la rotation donne au liquide une forme concave et lui confère donc les mêmes propriétés que les miroirs concaves c’est-à-dire converger la lumière vers le foyer. Cette invention est merveilleuse, car non seulement les miroirs liquides sont moins lourds que ceux en verre, ils sont moins chers et la gravité ne tend pas à les déformer, au contraire, elle leur sert à conserver leur forme. Aussi, les liquides sont naturellement lisses et ne requièrent donc pas un polissage interminable. Cependant, il reste un problème à régler… sur la lune la température descend jusqu'à -231°C et le point de fusion du mercure est de -39°C. Heureusement, Omar Seddiki et Ermanno Borra ont découvert les liquides ioniques. Leur miroir liquide fonctionne comme suit : il chauffe du chrome et de l’argent jusqu’à vaporisation, par la suite, des nanogouttelettes retombe sur le ECOENG 212, un liquide ionique. Cela donne une pellicule 2500 fois plus fine qu’un cheveu! Cette dernière a aussi les mêmes propriétés réflectives que le mercure. Par contre, ce liquide ionique n’est pas encore au point, car son point de fusion est de 98°C. Mais ils sont quand même sur une bonne voie parce qu’il reste malgré tout des millions d’autres liquides ioniques à découvrir. Grâce à cette technologie, on pourra construire un observatoire sur la lune et plus le miroir sera grand plus le télescope sera puissant. Avec un miroir liquide de 20m à 100m de diamètre, on pourra voir des images 100 à 1000 fois plus précises que celles des plus puissants observatoires. Déjà sur la Terre, à l’aide des miroirs liquides au mercure, on voie des étoiles situées à environ 10 000 années lumières de nous. Néanmoins cette découverte permettrait des progrès immenses dans le domaine de l’astronomie. Kaouah Alaa Eddine Erdougdo Mehmet gr:07 Un trou noir est un objet cosmologique ayant une masse énorme et en même temps un volume très petit comparé à celui des autres étoiles. Ce qui fait que sa densité dépasse de milliards de fois celle des autres corps dans l’espace. Sa gravité est de telle que sa vitesse d’échappement est égale à celle de la lumière. La façon la plus commune pour former les trous noirs est l’explosion d’une étoile avec une masse plus grande de dizaines de fois à celle du soleil sous la forme de supernovae. Lorsque celle-ci épuise ses réserve de matière à brûler elle s’effondre sur elle-même et devient une étoile a neutrons. Chaque galaxie possède un trou noir particulier. Ces astres demeurent le mystère irrésolu dans l’Univers. Ces géants sont entre un million et un milliard de fois la masse du Soleil (Équivalent de mille Galaxie). Ils sont décrit comme étant super massif. Par contre, ces astres situés au centre des galaxies ne possèdent qu’un diamètre de 180 millions de Km (un peu moins que l’orbite de Vénus). Cela est dû à leur densité remarquablement élevée. Par comparaison, un trou noir de la masse du Soleil n’aurait qu’un diamètre de 2 Km. À ce qu’on peut penser des trous noirs, ils ne font pas que tout absorber. Lors de l’affaissement de la matière (gaz, étoiles et poussières) sur le trou noir, une partie est chauffée à haute température dans un disque d’accrétion et des rayonnements énergiques y sont expulsés soit dans l’ultraviolet, les rayons X et gamma. Même si le mécanisme n’est pas encore totalement connu, les scientifiques lancent de l’avant qu’il peut s’agir du champ magnétique, qui se forme dans le trou noir, qui est la cause de l’expulsions de ces rayonnements à environ 1.5 million d’années-lumière de l’emplacement du trou. Un trou noir possède deux moyens de croître ; soit en avalant de la matière, soit en fusionnant avec un autre trou noir. Cet aspect lui confère le renom de régulateur de l’Univers, car il est capable de modifier la distance entre les satellites de quelques picomètres. En effet, la fusion de deux trous noirs, qui est l’événement le plus énergétique après le Big Bang, possède assez de puissance pour faire vibrer l’espace-temps. Cela est causé par l’apparition de nouvelles ondes appelées onde gravitationnelle qui se créent lors de la collision de deux trous noirs. Étant donné que ces ondes sont très peu perceptible parce qu’ils diminuent d’intensité à cause de l’amplitude des déformations qui décroît en fonction de l’inverse du carré de la distance, les capter afin de les analyser serait le point tournant qui viendrait enfoncer le clou sur la preuve irréfutable de l’existence des trous noirs. Selon les simulations, une fois traversée l’horizon, l’Univers que nous avons quitté nous apparaît comme un anneau très fin, très lumineux. Lorsque nous nous trouvons dans le trou noir, toute matière parvenue à ce lieu où la gravité atteint la démesure finit par s’étirer sur une longueur infinie, tandis que son épaisseur devient nul pour finalement s’écraser sur la singularité. Mais que ce passe-t-il réellement une fois qu’une particule ait traversé l’horizon? Même si nous observons des simulations, deux théories décrivant le phénomène sont plausibles. Une première qui stipule qu’il s’agirait d’un ‘trou de ver’, c’est-à-dire un passage entre des parties différentes de notre Univers, ou de notre Univers et d’autres. Dans la seconde hypothèse, il se crée un tout nouveau univers qui remplace la région centrale du trou noir. Dans cette seconde théorie, une particule continue son trajet sans jamais atteindre la singularité, car le nouvel univers est en expansion dans une direction de l’espace. Des thèses qui découlent de la science-fiction bien entendu. Résumé Le Big Bang, est-ce vrai ? Le Big Bang est une théorie sur l’origine de l’univers, cette théorie stipule donc un temps 0 où tout a été créé, tout s’est créé par une explosion. L’avantage de cette théorie c’est qu’elle rallie la majorité des scientifiques et même certains théologiens, car il y a la possibilité qu’une force extérieure ait créé l’explosion. Cette explosion installe toute la théorie de l’expansion de l’Univers. À l’origine l’univers était donc une boule de matière très dense qui a explosé. L’énergie créée par cette explosion a réchauffé tout l’Univers durant plusieurs années, des centaines de milles. Lors du refroidissement de l’Univers, les noyaux d’atomes et les électrons se sont regroupés pour former tranquillement des planètes et des étoiles. Il y a trois principales preuves de cette théorie : Premièrement il y a la fuite des galaxies, ensuite il y a la nucléosynthèse primordiale et enfin il y a le rayonnement du fond cosmique. La fuite des galaxies est une théorie assez simple : c’est le fait que toutes les galaxies et les étoiles s’éloignent d’un point central. La nucléosynthèse primordiale est le fait que l’abondance des atomes dans l’Univers soit exactement ce qui est prédit par la théorie du Big Bang. Finalement, la preuve la plus solide, le rayonnement du fond cosmique quant à lui, c’est un rayonnement qui réchauffe l’Univers entier : au lieu d’être a 0 K, il est à 2,7 K. Cependant, de récentes découvertes permettent de douter de cette théorie. En effet, l’équipe de Mark Dickson a découvert, en juin 2005, une galaxie qui pourrait être plus vieille que le Big Bang, la galaxie HUDF-JD2, oups ! Ce serait physiquement impossible. Donc suite a cette découverte, les yeux de tous les astrophysiciens sont braqués sur cette galaxie et tente de découvrir ce qui va se passer. Avec l’amélioration des technologies, une autre observation a été faite par le satellite Wmap qui remet en question la théorie du rayonnement fossile. Ce satellite nous renseigne sur l’état de l’Univers 380 000 ans après le Big Bang. A cette époque, elle était constituée de particule très dense à 3000 degrés Celsius, l’écart de température ne dépassait pas les 0,0002°C donc comment est-ce possible qu’en 2003 l’Univers soit pratiquement à la température 0 et le cœur des étoiles à des milliers de degrés ? Comment un milieu homogène peut-il devenir vide avec des écarts de température aussi élevés ? Deux réponses soit le Big Bang n’a pas eu lui ou nous nous sommes trompés dans nos interprétations du rayonnement. Le pilier principal de la théorie du Big Bang est donc entrain de s’effriter. Nous ne pouvons malheureusement pas trancher la question car trop d’inconnus persistent dans notre Univers. La spectroscopie et l’astrométrie, dont deux phénomènes étroitement liés, autant sur le plan physique qu’astronomique; en d’autres termes, l’un ne va pas sans l’autre. Bien que ces phénomènes physiques ne soient pas observables dans la vie de tous les jours, il demeure que ces manifestations physiques sont parmi les plus importantes du domaine astronomique. Tout d’abord, définissons ces phénomènes. L’astrométrie se définit comme étant l’étude de la position des étoiles et des autres objets célestes ainsi que l’étude de leurs mouvements. Toutefois, dans le contexte ci-présent, elle se définit comme étant l’étude de la trajectoire d’une étoile en fonction de l’attraction de sa planète. Or, si une planète existe autour de cette étoile, la superposition des images obtenues de l’étoile, au fil de plusieurs années d’observations, dessinera une sinusoïde par rapport à une trajectoire rectiligne. Bien sûr, cette variation de position par rapport à sa trajectoire sera très minime, mais il reste qu’avec un bon télescope, cette variation est assez significative pour être perceptible. Maintenant que l’astrométrie a été présentée, parlons de la spectroscopie. Ce phénomène est, en quelque sorte, une conséquence de l’astrométrie. En effet, la spectroscopie est engendrée par l’astrométrie qui fait osciller l’étoile sur son orbite. Tout comme l’astrométrie, il s’agit de mettre en évidence l’influence de la planète sur son étoile et ainsi analyser ce qui en résulte. Or, une fois que l’étoile oscille selon une période régulière, la partie perceptible de la spectroscopie apparait et est décrite comme suit. L’étoile se met à osciller sur sa trajectoire par rapport à un observateur. Or, cela signifie que cette étoile se rapproche de nous pendant un certain moment et pendant une autre, elle s’éloigne. Qu’est-ce que cela nous rappelle??? En effet, c’est grâce à Doppler qu’on peut observer cela. En s’approchant de nous, l’étoile émet de la lumière, une onde, qui se trouve à être légèrement plus condensée vers l’avant que vers l’arrière. En d’autres mots, la fréquence des ondes lumineuses est plus élevée en avant de l’étoile qu’en arrière. Ainsi, une grande fréquence implique une petite longueur d’onde, et vice-versa. Cela dit, en analysant le spectre électromagnétique de l’étoile à différents moments, on observe un décalage vers le bleu lorsque l’étoile s’approche de nous et un décalage vers le rouge lorsqu’elle s’éloigne de nous durant son cycle d’oscillation. La théorie vue en classe sur le décalage des ondes sonores nous permet de comprendre l’effet que la spectroscopie engendre, sauf que l’effet Doppler est lumineux. On peut ainsi constater que la physique ne s’applique pas seulement sur Terre, mais dans tout l’univers. Les méthodes de spectroscopie et d’astrométrie sont notamment utilisées dans la recherche d’exoplanètes, c’est-à-dire de planètes, autres que celles dans notre système solaire, qui orbite autour d’une étoile, autre que notre soleil. L’astrométrie ne s’avère pas très efficace, car nous n’avons trouvé aucune planète grâce à cette méthode. Toutefois, 90% des exoplanètes découvertes à ce jour sont le résultat de la spectroscopie. D’où l’importance de l’effet Doppler. On utilise souvent la spectroscopie dans l’analyse de la composition chimique des étoiles. La spectroscopie de rayon X est notamment très utile dans ce type d’analyse. Depuis notre tendre enfance nous observons la mer, et cela sans trop nous poser la question au sujet de sa couleur. Mais pourquoi la mer est-elle bleue. Au début de la recherche, nous ne savions pas exactement pourquoi il en est ainsi ; la réponse nous a surpris. Plusieurs peuvent penser que ce phénomène est dû à la réflexion du ciel sur l’eau. Mais cela semble un peu trop évident. En profondeur, si on émet de la lumière, l’eau apparaît quand même bleue. En fait, le phénomène est très simple. Tout est une question d’absorption. La molécule d’H20 a la propriété d’absorber le rouge et non le bleu. Donc, quand la lumière blanche incidente provenant du soleil atteint la mer, les couleurs primaires rouges et jaunes sont soustraites de celle-ci et l’on obtient le bleu, qui nous donne l’impression que l’eau est de cette couleur. Plusieurs personnes peuvent aussi se demander pourquoi ne vois-je pas mon verre d’eau de couleur bleu si le phénomène en question est vrai. Encore là, on revient au même principe. Il n’y a tout simplement pas assez de molécules absorbantes dans un verre d’eau pour nous donner l’impression que celle-ci est bleue. Donc, plus il y en a, plus elle est foncée et opaque. Une autre remarque intéressante face à ce phénomène est le fait qu’à certains endroits sur le globe, on observe que l’eau n’est pas bleue, mais bien verte. Dans ces lieux particuliers, on constate la production massive d’éléments biologiques. Ces éléments en question, soit le phytoplancton, contiennent de la chlorophylle, et ceux-ci ont tendance à complètement absorber le spectre bleu provenant de la lumière blanche et de diffuser massivement le vert. Il est également intéressant de constater l’aspect environnemental et biologique de la chose. Les chercheurs de l’espace observent de là-haut les différentes teintes de la couleur de l’océan partout sur la terre. Ils peuvent ainsi déduire où il y a production massive d’éléments organiques tel que ceux mentionnés précédemment. Donc, plus l’eau est verte, plus il y a production. Ainsi ils peuvent faire leur rapport et ainsi établir un lien direct avec les changements climatiques qui surviennent à l’heure actuelle. Joëlle Pion-Massicotte Marie-Gabrielle Bronsard Valérie Limoges Qui a déjà espéré que la téléportation puisse exister? Cette idée de voyager d’un espace à un autre instantanément a d’ailleurs fasciné et inspiré les créateurs de l’émission Star Trek. Selon eux, la téléportation est la dématérialisation d’une personne et l’envoi de ses molécules à un autre endroit. En fait, la téléportation est plutôt la transmission d’information d’une particule à une autre. Par contre, la téléportation est théoriquement impossible si l’on se fie à la théorie de la relativité, car elle stipule que rien de peut dépasser la vitesse de la lumière. Historiquement, plusieurs expériences ont permis de prouver le contraire et de mieux comprendre le fonctionnement de ce phénomène. De plus, plusieurs applications possibles peuvent en découler. Tout d’abord, Einstein, Podolsky et Rosen ont été les premiers physiciens à élaborer une théorie sur la téléportation en 1935. Selon eux, deux particules ayant interagi auparavant restent liées par un lien mystérieux. Ce faisant, chaque perturbation subie par une affecte nécessairement l’autre de la même manière. C’est en 1993 que l’équipe de Charles Bennett conçoit un scénario permettant le passage d’informations via la téléportation. Ce n’en qu’en 1997 que Anton Zeilinger réussi à téléporter expérimentalement de l’information à l’aide de photons. Aujourd’hui, la science est capable de téléporter un rayon laser sur une distance d’un mètre à l’aide d’ondes radio. Plus précisément, voici comment fonctionne la téléportation. Pour commencer, il faut se rappeler que la téléportation n’est pas un effet de duplication, mais de reconstruction dans un autre endroit. Cela est dicté en partie par un effet qui se nomme EPR. Celui-ci implique que, dans certaines circonstances, une influence quantique mystérieuse peut se transmettre d’une particule à une autre. Ce basant sur cela, deux particules ayant un lien inexpliqué le conserveront même si elles sont extrêmement éloignées. En d’autres mots, dès qu’une perturbation est subie par l’une des deux, l’autre la subira en temps réel. Puisque cette influence n’est ni énergétique, ni matérielle, elle n’est donc pas affectée par la limitation de la vitesse de la lumière. Cette caractéristique quantique pourrait être à la base de beaucoup d’applications futures. Ainsi, la cryptographie, l’informatique et la télécommunication pourraient bénéficier de cette nouvelle technologie. Par exemple, une cryptographie quantique utilisant la téléportation de codes par les photons serait impossible à intercepter et donc inviolable. En informatique, le remplacement du système binaire actuel par un système quantique basé sur la téléportation des informations dans l’ordinateur quantique augmenterait incroyablement l’efficacité des opérations les plus difficiles. Il en va de même dans l’industrie des télécommunications. Charles Bergeron Le stockage d’hydrogène L’évolution industrielle a été le catalyseur de la montée du charbon en tant que combustible tout comme celle du pétrole plusieurs années plus tard. À présent, à l’aube du XXIème siècle, l’avènement de l’hydrogène se fait sentir dans les pays industrialisés. De tout ce brouhaha scientifique découlent des promesses de fin du réchauffement climatique, de protection de la couche d’ozone et de révolution des moyens de transport. Pourtant, bien peu sont ceux qui comprennent réellement les enjeux, tant économiques qu’écologiques, et qui réalisent la distance qui sépare les présentes recherches du but ultime prédit par plusieurs. Il faut tout d’abord se pencher sur la façon dont l’hydrogène pourrait être utilisé comme forme d’énergie. En fait, on désire construire ce que les scientifiques appellent une pile à combustible. Celle-ci, contenant de l’hydrogène, le combinerait à l’oxygène afin de faire de l’eau et de libérer une certaine quantité d’énergie. Pourtant, l’hydrogène ne se laisse pas retenir facilement et il faut donc trouver des composés dans lesquels il est lié afin qu’il reste dans la pile. La découverte récente de l’instabilité que procure le LiBH4, tout en empêchant les atomes d’hydrogène de se libérer trop facilement, pourrait permettre aux chercheurs de pouvoir obtenir le plus d’énergie possible avec le moins de pertes en conséquence. La compression de l’hydrogène est aussi primordiale pour arriver à créer une bonne pile à combustion pour les industries. Nous savons qu’un gramme d’hydrogène peut produire assez d’énergie pour parcourir 100 m à bord d’une automobile, mais à température ambiante et à pression normale ce gramme occupe 22,4 L. Donc, pour comprimer l’hydrogène en faisant varier seules la température et la pression, il faudrait le liquéfier à moins de 20 K ou le laisser en phase gazeuse et appliquer une pression de plusieurs centaines d’atmosphères. Aucune de ces options n’est pourtant réaliste. Les scientifiques se sont donc attelés à la tâche et ont réussi à découvrir une méthode qui permettrait le stockage de l’hydrogène sous forme solide. Ce contenant mystérieux est en fait une cage moléculaire nommée buckminsterfullerène, que l’on nommera fullerène, et qui a été découverte par Richard Smalley, Robert Curl et Harold Kroto. Les trois chercheurs ont pu découvrir cette molécule, qui a la forme d’un ballon de football, lors d’une expérience de vaporisation d’atomes de carbone suivie de l’étude de l’arrangement des molécules. Chaque fullerène peut stocker jusqu’à 58 atomes d’hydrogène, qui se retrouvent sous forme métallique à cause de l’immense pression à l’intérieur de cette cage moléculaire. On se rend donc compte que la résistance mécanique de ces fullerènes est immensément grande puisqu’elle reste intacte à des pressions très élevées, tout comme d’autres regroupements d’atomes de carbone comme les nanotubes. Toutefois, cette découverte relance d’autres interrogations. Par exemple, on doit se demander comment faire pour injecter des atomes d’hydrogène dans ces cages et les libérer à volonté. On peut donc affirmer que ce sera un dossier à suivre. L’application la plus intéressante de l’hydrogène comprimé est en tant que combustible pour les moteurs des véhicules routiers. La quantité de pollution que l’on pourrait enrayer en changeant les moteurs qui utilisent le pétrole est astronomique et ce changement serait bénéfique dans les pays industrialisés. On pourrait aussi se servir des piles à combustible pour électrifier des résidences ainsi que des bateaux ou des avions. On l’utilise déjà en aérospatiale, mais les découvertes récentes pourraient certainement permettre d’améliorer le rendement des moteurs de nos navettes spatiales. Beaudry, Andréanne, Larbaoui, Kahina et Lévesque, Marie-Ève Résumé : L’effet tunnel est un phénomène de la mécanique quantique découvert par George Gamow en 1928. Son principe s’oppose à celui de la physique classique qui admet que si le niveau d’énergie d’une particule est inférieur au seuil d’énergie requis pour franchir une barrière énergétique, alors la particule ne pourra pas franchir cette barrière. En effet, en mécanique quantique, l’effet tunnel permet à la particule de franchir la barrière sans avoir l’énergie cinétique nécessaire en créant une sorte de tunnel. Les articles retenus traitent respectivement des aspects ondulatoire et énergétique du phénomène et de deux exemples d’application. Tout d’abord, un électron peut être représenté davantage comme un nuage de probabilité que comme une particule, donc, lorsqu’il est confronté à un mur, une barrière énergétique, il existe une probabilité non nulle qu’une partie de ce nuage se retrouve de l’autre côté et que donc, l’électron soit scindé en deux. Comme l’électron ne peut rester dans cet état indéfiniment, il doit se retrouver d’un côté ou l’autre de la barrière, ce qui lui permettrait de la franchir. On parle aussi de l’effet tunnel appliqué aux ondes, qui, confrontées à une barrière érigée sur leur parcours, ne peuvent s’arrêter radicalement en un point précis. Elles continueront leur déplacement en perdant de l’amplitude. Si la barrière est suffisamment mince pour que l’amplitude totale ne soit perdue, l’onde continuera son chemin après. L’effet tunnel est aussi un phénomène que l’on doit considérer en ce qui concerne les mouvements de la molécule d’ammoniac (NH3). La forme de cette molécule est telle que les atomes d’hydrogènes et d’azote forment une sorte de «parapluie». Selon la mécanique bien connue, cette géométrie empêche l’inversion de la molécule. Cependant, ce «parapluie» peut s’inverser avec selon la mécanique quantique. Si la molécule d’ammoniac était visible, on pourrait la voir osciller d’une position à l’autre et ce, grâce à l’effet tunnel. On s’intéresse à la molécule d’ammoniac, car lors de sa photodissociation, un hydrogène lui est arraché, ce qui fait de la molécule un acide aminé, l’élément de base de la protéine et donc de la vie. L’effet tunnel est la principale cause de cette réaction; c’est son effet oscillatoire sur l’ammoniac qui fragilise les liaisons hydrogène-azote. On observe que la formation d’acides aminés est favorisée si les molécules sont accrochées à un grain de poussière, car la proximité de celles-ci accélère les réactions chimiques. Certains chercheurs de l’institut UTINAM effectueront des recherches visant à observer cette contrainte puisque les oscillations de la molécule d’ammoniac sont gênées par la surface du grain de poussière. Selon le dernier article de la série, ce sont Louis de Broglie et Erwin Shrödinger qui ont prédit l’effet tunnel, par les théories sur la mécanique ondulatoire. Selon eux, l’électron, que l’on considère en mécanique quantique comme la combinaison d’un corpuscule et d’une onde associée, ne franchit généralement pas d’obstacles. L’obstacle dont on parle ici est le vide (ou l’espace) compris entre deux matériaux conducteurs. Si cette barrière est extrêmement mince, alors une partie de l’onde associée réussit à passer à travers cet espace et, si son amplitude est suffisante, la particule formant l’électron suit l’onde. Ainsi il se produit un courant électrique, très faible il va sans dire, entre deux Andrew Dang Ellen Li Earya Pong Les rayons infrarouges jouent un rôle important dans la vie humaine. Tant que sur le plan de la santé et divertissement, ils nous sont essentiels. Dans ce qui suit, cela vous explique leur fonctionnement dans différent objet. La télécommande à infrarouge est un outil indispensable pour nos journées sédentaires que nous passons à la maison assise devant la télé avant des croustilles et une bonne boisson gazeuse. Inventée en 1975, elle permet d’allumer le téléviseur à distance. Ruwido, l’Autrichien qui a inventé la télécommande à infrarouge, a choisi cette sorte de rayon puisqu’elle est invisible à l’œil humain, dû à la longueur d’onde, et à sa facilité d’émission et de réception. La télécommande fonctionne par un codage numérique. Chaque touche de l’engin correspond à un nombre. Lorsqu’on presse sur un bouton, une puce convertit ce nombre en ondes infrarouges qui sont émises par une diode et ce signal est reçu par la diode réceptrice de la télé. Une puce dans la télé se charge de convertir le message, qui par la suite fait l’action demandée. Cependant, ce n’est pas si simple qu’on ne le pense. C’est un procédé comme en informatique qui est constitué de 0 et 1. Chacune de ses deux valeurs représente des ondes différentes. À lire pour en savoir plus! Des chimistes de l’université de Manchester travaillent depuis des années sur l’utilisation de la spectroscopie infrarouge à transformée de Fourier comme méthode de détection de l’altération des aliments alimentaire. Ce processus ne nécessite aucun contact avec la nourriture et aucune injection de produits chimiques. En fait, ces scientifiques utilisent des faisceaux infrarouges qui ont réfléchi par l’échantillon d’un aliment. Le spectre obtenu est enregistré et permet d’identifier des composés biochimiques produits lorsque les microbes décomposent la nourriture. Grâce à l’utilisation des algorithmes génétiques, les chimistes de l’université ont mis au point un logiciel capable d’analyser des spectres enregistrés. Des données ont été sauvegardées dans un ordinateur dans lequel les algorithmes ont permis de sélectionner des longueurs d’onde qui évaluent la concentration de bactérie. Elle a la capacité de détecter des concentrations aussi faibles qu’un million pour le poulet et 10 000 pour le bœuf. Cependant, les longueurs d’onde identifiées pour le bœuf ne sont pas idéales. Ils ont cependant un bon espoir de développer cette technique sur d’autres types d’aliment alimentaire comme les produits laitiers, aux jus de fruits, etc. Sotcheadt Sim Gina Duplan Stéphanie Magana La technologie des télescopes conventionnels en verre a atteint sa limite depuis plus de 40 ans. Les chercheurs se sont donc tourner vers d’autres technologies qui augmenteraient le diamètre du miroir d’un télescope pour ainsi augmenter la puissance et la précision de celui-ci. L’une des solutions est d’utiliser du mercure pour former un miroir liquide, car c’est un métal liquide aux propriétés réfléchissantes. Afin de donner au mercure la conformation d’un télescope, il suffit de l’étaler dans une cuve circulaire et lui donner une rotation constante. C’est en tournant que la surface du mercure va s’approfondir pour former une fine couche d’environ 0,5 mm à 1 mm et atteindre une forme parabolique, ce qui est idéal pour un miroir de télescope. Toutefois, pour bien fonctionner, le télescope doit être entièrement isolé des vibrations du sol ou de l’air environnant. Évidemment, cette technologie possède un inconvénient : il n’est pas possible de l’orienter vers n’importe quelle étoile ou galaxie. En effet, le problème est que si on penchait le bassin, le mercure se verserait sur le sol. Donc, ce type de télescope ne permet que de voir les étoiles situées directement au-dessus de lui, c’est-à-dire au zénith. Par contre, l’avantage est que cette technologie révolutionnaire exige beaucoup moins de frais que les télescope conventionnels. Par exemple, les deux plus grands télescopes en verre au monde ont demandé beaucoup d’années de polissage et couté des millions de dollars. Alors qu’un géant miroir liquide ne coûterait que quelques centaines de milliers de dollars. Un autre avantage est que, contrairement au miroir en verre, les miroirs au liquide ne peuvent pas se casser lors du transport. Le but d’un télescope au mercure est de pouvoir observer les galaxies au moment de leur formation, ce qu’on est capable de faire présentement avec un télescope conventionnel de 10 mètres de diamètre. Paul Hickson, astrophysicien à l’université de la Colombie-Britannique, compte fabriquer un télescope au mercure qui obtiendrait une résolution inégalée équivalente à celle d’un télescope de plus de 40 mètres de diamètre pour une fraction du prix des télescopes conventionnels. Il nomme son projet : LAMA, qui est un assemblage de 18 miroirs liquides arrangés en cercles concentriques. On pourrait alors détecter des planètes de la taille de la terre en orbite autour d’étoiles lointaines, découvrir la signature spectroscopique de l’oxygène dans leur atmosphère et avec un peu de chance, on pourrait également savoir s’il y a de la vie sur ces planètes. Le télescope au mercure a capté avec triomphe des images d’étoiles, situées à 10 000 années lumières de la Terre, du nord de la Voie Lactée. Un tel télescope augmentera énormément nos connaissances sur les galaxies éloignées, les quasars, la structure et les confins de l’univers. Kim Anh Bui Marie-Sophie Morin Marjorie Panneton Depuis très longtemps, on associe apport d’énergie avec chauffage et donc, augmentation de température. Cette théorie peut facilement être illustrée par le fait de chauffer de l’eau, sur un rond de poêle, par exemple, et qu’elle, logiquement, devienne chaude ! Mais voilà qu’il a été découvert que ceci, à une échelle infiniment grande par exemple, n’était pas toujours la réalité. D’ailleurs, c’est en 1968 que le scientifique Donald Lynden-Bel propose que le rayonnement des étoiles serait contraire à cette théorie. En effet, bien que les étoiles, lors de leur rayonnement, perdent de l’énergie, la température de leur noyau augmente. A ce moment, leur capacité calorifique serait négative. Dès que l'on veut créer une bulle de gaz dans le liquide ou une goutte de liquide dans du gaz, il faut payer le prix de l'interface, l'énergie de la surface de la bulle ou de la goutte. Ce prix énergétique est payé aux dépens de l'agitation thermique : l'interface entre deux phases fait baisser la température. Bien que cette découverte fut accueillie avec une grande méfiance de la part des thermodynamiciens, cette nouvelle théorie de processus de refroidissement par rayonnement serait à la base de la formation des étoiles et donc, des galaxies et de l’univers entier. Pour comprendre cela, voici quelques articles expliquant et décrivant, entre autres, le fonctionnement de la capacité calorifique négative autant au niveau des étoiles qu’au niveau des atomes. Par ailleurs, un des articles décrit le déroulement typique de la vie d’une étoile en expliquant chaque étape en lien avec la thermodynamique de celle-ci. Émilie Houle Thanh Luu Judeline Chéry LA THERMOLUMINESCENCE La thermoluminescence est la propriété physique qu’ont les cristaux, tels que le quartz, le feldspath et le zircon, d’accumuler l’irradiation naturelle de leur milieu d’enfouissement et d’émettre de la lumière lorsqu’ils sont exposés à la chaleur. Les rayonnement alpha, bêta et gamma (irradiation) ionisent des atomes et ainsi créent des charges indépendantes. Lors de leur passage dans le temps, des charges sont libérées et vont dans des sites du cristal qui y restent piégés. Ces charges ne peuvent être libérées lorsqu’il y a une agitation thermique. Les archéologues utilisent la thermoluminescence pour dater les cristaux puisque le nombre de charges capturées est proportionnel au temps. La datation peut se faire lorsque nous chauffons un cristal, ayant été soumis à une irradiation, avec une certaine température pour que les sites se vident des électrons. Ceux-ci rencontrent d’autres charges positives et en se combinant, ils excitent les centres luminogènes du cristal. Ces centres perdent le surplus d’énergie sous forme de photons, c’est ce que nous appelons luminescence. Les scientifiques mesurent cette luminescence (qui est proportionnelle au nombre de charges piégées) par proportion au temps écoulés depuis le dernier vidage du cristal. Dossier culturel scientifique : le microscope électronique Par Alejandro Castellanos Ahmed Nachi David Nguyen En comparant l’humain aux autres animaux, on remarque qu’il présente des lacunes sur le plan physique. Son odorat est loin d’être aussi développé que celui du chien, sa force est moindre que celle d’un ours et sa rapidité ne peut se mesurer à celle du léopard. Toutefois, son intelligence lui permet d’améliorer ses aptitudes par les innovations technologiques que celle-ci amène. Ainsi, l’homme a réussi, au niveau de l’optique, à voir plus loin qu’un aigle. Ceci a commencé par la loupe ensuite par les lunettes et finalement le microscope. Il existe deux types de microscopes : le microscope optique et le microscope électronique. Le microscope optique utilise les photons pour percer le mystère de l’infiniment petit. Il utilise les notions du cours de physique NYC. La diffraction en est un exemple. Par analogie, le microscope électronique utilise, comme son nom l’indique, les électrons pour reproduire une image jusqu'à 5 000 000 de fois plus grande. Il a été mis au point en 1931 par Max Knoll et Ernst Ruska. Ils ont eu l’idée fabuleuse d’utiliser les notions de physique (apprises dans le cours de physique NYB) pour avoir une meilleure précision. En effet, le fonctionnement du microscope électronique est basé sur la déviation contrôlée des électrons. Dans le microscope optique, on utilise la diffraction sur une pellicule mince pour dévier un rayon (photons). On a donc le contrôle sur deux paramètres, soit : la longueur d’onde et la grosseur de la pellicule. Dans le microscope électronique, on accélère des électrons, pris dans une source, grâce à un accélérateur d’électrons. Ces derniers vont bombarder deux plaques très rapprochées (analogue de la pellicule mince). Ces deux plaques contiennent un champ magnétique uniforme interne (entre les plaques), mais isolent le champ à l’extérieur des plaques (champ externe nul). Grace à ce champ interne les électrons sont déviés. Le résultat est donc le même pour la déviation de l’électron que celle du photon. Par contre, dans le cas d’un microscope électronique, on peut contrôler plus de paramètres, soit : le champ entre les plaques, la vitesse des électrons, la quantité d’électrons dégagés par la source. Ces derniers paramètres sont plus faciles à contrôler par rapport à la longueur d’onde et la minceur de la pellicule. En ce qui concerne le trajet de l’image jusqu’ à la photographie finale, ceci relève d’un niveau de cours de physique avancé. Bref, grâce à tous les nouveaux paramètres qu'on peu contrôler avec le microscope électronique et grâce à la plus petite longueur d’onde de l’électron, on réussit à atteindre des grossissements inimaginables avant. Avec ce nouveau type de microscope, Sedef Calasin Simon Giroux-Portelance Maryse Fournier Le monde des nanotechnologies est très vaste et il ne cesse de s’agrandir depuis quelques temps. Par exemple, les découvertes faites en ce domaine en santé ne cessent de constamment faire évoluer les anciennes techniques médicale. Dans ce présent texte, nous parlerons donc des propriétés qui distinctes les nanomatériaux des matériaux normaux et des applications de cette nouvelle technologie émergente dans le domaine de la santé. Les nanotechnologies sont le résultat de regroupements de nanomatériaux qui sont eux-mêmes un assemblage de particules nanométriques. Ces particules ont une taille qui se situe en dessous de 100 nm. Une chose est sûre, c’est qu’à cette grosseur, les propriétés changent. En effet, la diminution de la taille augmente la dureté et la résistance. Par exemple, une nanoparticule de cuivre de 50 nm est deux fois plus dure qu’un morceau normal. De plus, la petite taille accroît aussi la malléabilité et la ductilité. Ainsi, un nanomatériau sera beaucoup plus dur à briser s’il subit un choc. Ce qui expliquerait en partie ces phénomènes, se sont les liens atomiques qui se sont formés à partir des partages des électrons à l’intérieur même des atomes. Un des avantages des nanomatériaux est le ratio surface-volume qui permet de faire d’importante découverte en chimie puisque cet avantage favorise grandement les réactions chimiques. Par contre, pour ce qui est des désavantages, le coût de production de ces matériaux est très coûteux, l’entreposage est difficiles et des réactions indésirables (vu leur grande réactivité) arrivent très souvent. La nanotechnologie en santé permet la construction de nouvelles molécules et de nouveaux instruments afin d’expérimenter de nouvelles applications, en partie sur l’ADN (2 nm) et les virus (10 nm). Chargés de découvrir si les nanotubes de carbones sont toxiques pour l’environnement aquatique, puisque ils sont de plus en plus à envahir les marchés, Menachem Elimelech, professeur et chair of chemical and environmental engineering à l’Université de Yale et son équipe ont effectué des recherches dans ce domaine. En effet, sachant que les nanotubes de carbones sont environ des milliers de fois plus fins qu’un cheveu, et qu’ainsi, ils sont facilement absorbés par les cellules humaines, ils voulaient étudier si ceux-ci auraient un impact sur la chaîne alimentaire. L’étude a plus précisément été faite sur les nanotubes d’une seule couche d’atomes de carbone (nommés SWCNTs). Elle consistait à incuber dans un même milieu des bactéries E. coli et des SWCNTs pendant une heure. Résultat : Les bactéries qui eurent un contact direct avec les nanotubes furent tuées. Pour diminuer au plus haut point les risques d’erreurs, ils ont voulu diminuer le risque d’une action toxique de métaux présents dans les nanotubes, donc, obtenir un produit pur. Ceci mènera à de futures recherches avec d’autres types de nanotubes ainsi que d’autres types de bactéries. Cette découverte pourrait mener à la découverte de nouveaux antibiotiques car ceux qui existent sur le marché ne cessent de diminuer leur effet dû à la résistance contre les germes pathogènes. Voici une seconde application des nanotechnologies. Les médicaments de la médicine moderne sont très efficaces. Cependant, les patients ont souvent des effets secondaires provenant du fait que les médicaments n’agissent pas uniquement dans la zone désirée par le médecin comme par exemple les chimiothérapies. Les chercheurs de la polytechnique de Montréal ont trouvé comment mieux cibler les effets des médicaments. Leur méthode révolutionnaire consiste à utiliser des bactéries de l’ordre des nanomètres pour transporter dans les vaisseaux sanguins comme les capillaires le médicament à l’endroit souhaité. Pour guider les bactéries à l’intérieur du patient, ils utilisent un champ électromagnétique. Cette technologie devrait bientôt être commercialisée et utilisée. Le diagnostic du cancer du sein: de nouvelles techniques émergent Par Geneviève Bois Caroline Malo Pion Mélissa Savary Le cancer du sein est aujourd'hui de part le monde un des types de cancer qui affecte le plus les femmes et celui qui est le plus souvent fatal. Dans les pays développés, on estime qu'une femme sur onze sera atteinte de cancer du sein au cours de sa vie. Ce qui rend ce cancer bien souvent mortel, en dépit des traitements sans cesse perfectionnés, est que le diagnostic ne se pose pas facilement et s'effectue souvent trop tard. Classiquement, le diagnostic du cancer du sein se fait par mammographie. Les femmes chez lesquelles on détecte une masse suspecte doivent ensuite subir une biopsie pour déterminer s'il s'agit d'une tumeur maligne ou d'un simple kyste. Ces biopsies restent des opérations chirurgicales malgré leur apparente simplicité et les coûts qu'elles engendrent sont importants. Elles exposent, de plus, un grand nombre de femmes à une chirurgie bien souvent inutilement, et à un stress appréciable. Depuis peu, une nouvelle technique de diagnostic a vu le jour. Celle-ci peut être utilisée seule, mais préférablement en complément à la mammographie classique. La limitation principale de la mammographie est que l'image obtenue permet de localiser une tumeur ou un kyste, mais pas de différencier s’il s’agit d’une masse maligne ou bénigne. De plus, pour être visible, la tumeur ou le kyste doit déjà avoir une certaine taille et de facto, le diagnostic précoce s'en trouve gêné. Le procédé de la photo-acoustique est intéressant. Il suffit d'envoyer un faisceau lumineux modulé et focalisé sur l'échantillon (dans le cas d'un diagnostic de cancer sur sein, le sein lui même) puis le milieu absorbe partiellement l'onde électromagnétique qui produit de la chaleur, qui produit à son tour une dilatation. Cette dilatation crée finalement une onde pouvant par la suite être captée. Comme c'est la “relaxation” des tissus après la dilatation qui est responsable de la création de l'onde, et que différents tissus ont différentes élasticités (un tissu cancéreux est beaucoup moins élastique qu'un tissu sain et une tumeur maligne moins élastique qu'un kyste), les ondes captées permettent d'identifier la présence d'une tumeur ou d'un kyste et aussi de les différencier. De plus, d'autres essais ont conduits des chercheurs à utiliser une combinaison de lumière et d'ultrasons pour effectuer le test de dépistage ; la lumière est difractée, ce qui complique la reconstruction d'une image et les ultrasons, qui eux sont absorbés en grande partie par les vaisseaux sanguins, sont peu réfléchis, ce qui rend impossible la visualisation en détail de la zone avec l’utilisation seule des ultrasons. L'utilisation d'une combinaison de ces deux méthodes est donc idéale. Les tumeurs malignes sont nourries par une multitude de petits vaisseaux sanguins. La Isabelle Lord-Poitras, Claudine Lessard et Mylène Moreau Ordinateur quantique Alexandre Blais, chercheur physicien de l’université de Sherbrooke, a récemment révolutionné le monde de la physique de par sa découverte reposant sur l’utilisation des photons au niveau des ordinateurs. Le moyen d’emprisonner ces derniers, trouvé par ce physicien, constitue la première partie de cette découverte fascinante. Grâce à cette méthode d’emprisonnement, il a été en mesure de déterminer l’état dans lequel se trouvaient les photons ainsi que de calculer leur nombre dans un espace bien précis. Il s’agit d’une expérience remarquable puisque avant aujourd’hui, il était simplement impossible d’observer ces particules discontinues de par leur facile désintégration. La seconde partie de ses exploits consiste en l’élaboration d’un moyen de communication entre les qubits (quantiques bits). Les qubits ressemblent beaucoup au bits, qui sont présents dans les ordinateurs classiques, à l’exception qu’ils peuvent être représentés à la fois par 1 et 0, c’est-à-dire qu’ils peuvent être dans deux états à la fois. Le moyen qui leur permet de communiquer entre eux se nomme BUS (Bidirectional Universal Switch). Ces BUS sont construits à partir d’aluminium et permettent à deux qubits non adjacents de s’échanger de l’information sans passer par leur voisin immédiat. Cette façon d’interagir s’avère ainsi beaucoup plus rapide de même qu’elle diminue la possibilité d’erreur. Le BUS sert donc de passerelle pour transmettre des bits d’information de la mémoire au processeur, et vice-versa. De nombreux scientifiques de partout dans le monde essaient maintenant de concrétiser l’invention d’Alexandre Blais. D’ailleurs, l’une des diverses options de fabrication possibles amenées par ces chercheurs a particulièrement retenu l’attention d’Alexandre Blais. Cette méthode nécessite une plaque d’aluminium sur laquelle sont alignés plusieurs circuits, également construits à base d’aluminium. Sur ces fils, des circuits fabriquent les qubits, qui eux se transmettent de l’information par l’entremise de photons circulant dans les fils. Pour permettre cet échange, les fils doivent être refroidis afin de devenir supraconducteurs. Plus le nombre de qubits est élevé, plus la communication est Mélanie Filion Marie-Christine Foglietta Geneviève Lacroix Le Grand collisionneur de hadrons (LHC) Alors que les scientifiques du 17e siècle n’avaient recours qu’à des instruments rudimentaires afin d’effectuer leurs expériences, les physiciens d’aujourd’hui sont sur le point de mettre sur pied un gigantesque instrument scientifique qui porte le nom de Grand collisionneur de hadrons (LHC). Avec sa circonférence de 27 kilomètres, il s’agit du plus grand accélérateur de particules au monde. Le LHC constitue un élément clé de la recherche scientifique et dont les expériences pourraient permettre d’élucider certains mystères de la physique fondamentale, notamment au sujet de la nature de la matière et de l’énergie dans l’Univers. Situé près de Genève à environ 100 mètres sous terre, le LHC a pour idée de pouvoir accélérer des particules de la famille des hadrons (principalement des protons) dans le but de les faire entrer en collision à 99,99975 % de la vitesse de la lumière. Afin que les faisceaux de particules atteignent ces très hautes énergies, il faut pouvoir courber leur trajectoire autour de l’accélérateur. Cela nécessite un champ magnétique intense produit par des milliers d’aimants qui fonctionnent à l’état supraconducteur. Cet état requiert une température de 2 Kelvins, soit -271oC, qui pourra être atteinte à l’aide d’hélium superfluide. En étudiant l’infiniment petit au niveau des particules du noyau atomique, les centaines de scientifiques travaillant au LHC pourront en savoir plus sur l’infiniment grand, l’Univers. Le LHC va recréer les conditions existantes au moment du Big Bang et il sera possible d’analyser les particules issues de ces collisions extrêmement violentes à l’aide de quatre détecteurs spécialisés. Ces analyses aideront les scientifiques à répondre à des questions sur la physique de Emmanuelle Poirier Sabrina Purcell Lalonde Isabelle Richard Résumé de la téléportation quantique Le progrès de la téléportation quantique L’idée de la téléportation germa dans l’esprit des physiciens suite à la populaire série télévisée Star Trek. Environ 30 ans plus tard, soit en 1993, une équipe de chercheurs internationaux a réalisé que la téléportation quantique était théoriquement possible. Puis, l’Autriche réussit, quelques années plus tard, à appliquer les notions théoriques pour effectuer la première téléportation réelle d’état quantique. Plus la science évolue, plus nous sommes en mesure de téléporter les photons à de grandes distances. Par contre, étant donné les grandes distances à franchir, on doit établir des relais pour les photons, car ceux-ci sont susceptibles de se perdre dans la fibre optique. En 2002, des scientifiques suisses ont réussit à téléporter un photon sur une distance de six kilomètres. Il y a quatre ans, il y eut un grand progrès technique, on réussit à téléporter un atome ! Le principe de la téléportation quantique Tout d’abord, il faut comprendre que la téléportation quantique ne permet pas la téléportation de matière. La téléportation permet de créer une copie parfaite du photon de départ, donc il n’y a pas de déplacement physique du photon du point A au point B. Il s’agit d’un transfert d’information et non de matière! Mesurer l’état quantique d’une particule nous renseigne sur l’état perturbé de cette dernière, il nous est alors impossible de connaître son état original. En fait, la téléportation s’effectue en trois étapes. Premièrement, le photon est dématérialisé. Deuxièmement, il y a l’envoi d’un signal du point A au point B. Troisièmement, il y a reconstruction du photon au point B à partir d’atomes déjà présents. Il est important de constater que le photon B n’est pas le même que le photon de départ, car il est fait de différents atomes. Le photon B est donc une copie identique du photon A. Un lien invisible unit les deux photons ce qui fait en sorte que lorsqu’on modifie l’état de l’un l’autre sera, lui aussi, modifié même si plusieurs kilomètres les séparent. Ceci prouve que l’effet EPR (Einstein-Podolsky-Rosen) est bien réel contrairement à ce que ces scientifiques avançaient. Les applications futures de la téléportation quantique La téléportation quantique permettra un jour d’améliorer le domaine des télécommunications et des technologies. Premièrement, cette téléportation rendra la transmission de certains messages secrets inviolable. De plus, si les messages sont interceptés, ils seront détruits, afin d’assurer la plus grande confidentialité possible. Deuxièmement, la téléportation révolutionnera le domaine technologique, car nos ordinateurs auront davantage de qubits, ce qui leur donnera une puissance DANEAU, Maryse LAGACÉ, Marie-Ève La radiographie Les rayons X ont été découverts en 1895 par le physicien allemand, Wilhem Conrad Roentgen, qui faisait l’étude de rayons cathodiques. Puis, en 1896, la première radiographie de tableau a été réalisée. Premièrement, la radiographie regroupe tous les procédés qui servent à détailler un organe à l’aide de rayons X. Elle comprend donc la radiographie, mais aussi la radioscopie, qui signifie l’observation de l’organe en profondeur sur un écran de télévision. L’image obtenue par radiographie est due aux rayons X qui peuvent pénétrer la matière à cause de leur faible longueur d’onde qui est comprise entre 10 -7 et 10-11 mètres. Comme la longueur d’onde est plus petite que la distance inter-atomique, ces rayons peuvent alors pénétrer la matière et seulement le plomb peut les en empêcher. Donc, le principe de la radiographie est basé sur l’émission des rayons X, qui sont des ondes électromagnétiques, comme la lumière visible ou les micro-ondes utilisées pour les cellulaires. Tout d’abord, les rayons X sont générés par un tube Coolidge qui est en verre ou encore par un tube fait en plomb et en céramique que l’on utilise depuis peu. Dans ce tube, il y a une cathode et une anode. La cathode possède un filament de tungstène qui est relié à une source de courant, dont l’intensité peut varier pour modifier la température du fil. C’est ce qui produit un faisceau d’électrons qui voyagent vers l’anode. Le faisceau d’électrons frappe donc l’anode, qui est constituée en tungstène et agit comme un miroir : les électrons frappent plus précisément ce que l’on appelle le foyer et c’est ce qui émet un rayonnement électromagnétique invisible dans lequel on retrouve les rayons X. Ces rayons sont présents puisque la collision entre l’électron émis par la cathode et celui de l’alliage métallique a forcé ce dernier à quitter son orbital et c’est ce qui produit un photon X. Il y a aussi une autre possibilité possible pour la production de rayons X : le noyau de l’atome dans l’alliage de tungstène fait dévier l’électron venant de CATHERINE BERGERON-LEGROS JADE-EMMANUELLE DESHAIES MAXIME PAQUIN Articles sur les neutrinos et leurs applications Les neutrinos sont des particules de très petite masse et sans charge. Leurs interactions avec les atomes sont très limitées. De ces caractéristiques surgissent un avantage et un inconvénient. Tout d’abord, les neutrinos donnent des renseignements sur des lieux inconnus (les autres particules sont absorbées avant d’atteindre ces lieux, tandis que les neutrinos passent au travers des corps célestes en changeant à peine leur vitesse et leur trajectoire). On peut prendre comme exemple, le centre de la Terre. Les photons (lumière) arrêtent à la surface, tandis que les neutrinos traversent la Terre. Par contre, ils sont extrêmement difficiles à détecter. Mais d’où viennent les neutrinos? Lorsqu’un neutron est isolé, il disparaît rapidement. En fait, il ne disparaît pas, il devient un électron, un proton et un neutrino! Les neutrinos proviennent donc d’activités nucléaires. Les plus importants flux de neutrinos proviennent des étoiles. Ces dernières sont effectivement reconnues pour leurs activités nucléaires démesurées! Le premier article est en fait trois courtes chroniques du livre Chroniques des atomes et des galaxies d’Hubert Reeves. Il décrit les circonstances ayant mené à cette découverte. Aussi, il décrit le neutrino lui-même et explique quelques applications possibles. Le deuxième article traître du rôle joué par les neutrinos sur la théorie de Big Bang ainsi que du Modèle Standard. En effet, la mer de neutrinos (car il y a des neutrinos partout) de l’Univers ne semble pas être homogène (non homogène, car il y a présence de flux). Ainsi, des variations minimes seraient donc percevables et de là, plusieurs déductions pourraient être faites. Flux de neutrinos Qui a été observé Le troisième article traite du télescope à neutrinos, Antares. Ce dernier à deux objectifs : l’astronomie de haute énergie et la recherche de la matière noire. Pour ce faire, ce télescope est immergé en dessous de 2500 mètres. En effet, l’importante couche d’eau protège Antares du rayonnement cosmique. Paulina Ear Nathalia Motuzco Doris Buzarnescu Résumé : Le Soleil émet des ondes radio qui peuvent être cartographiées lors d’une activité solaire minimale. En effet, ce n’est que pendant les activités solaires plus violentes que les ondes radio émises subissent des changements majeurs. Ces changements dépendent de la densité électronique dans les régions solaires tels que la chromosphère et la couronne. Les manifestations radioélectriques qui résultent de l’activité violente du soleil, les sursauts, se classent dans cinq catégories. Celles-ci se distinguent par leur origine, la bande de fréquence des signaux émis et la durée du phénomène. Certains sursauts s'accompagnent de l'émission de rayons X et ultraviolets. Les ondes radio émises par le soleil et particulièrement par les photons de courte longueur forment l’Ionosphère. Ce phénomène permet d’effectuer des communications radio à longue distance sur Terre. Mise à part les ondes radio, le Soleil émet des ondes sonores qui présentent un grand intérêt pour les astrophysiciens. Comme dans le cas des sismologues qui utilisent des ondes sismiques pour étudier la composition de la terre, les astrophysiciens étudient la composition du soleil à partir des ondes acoustiques. Ainsi, le soleil peut être comparé à un instrument musical, car il émet des ondes sonores aux fréquences spécifiques imperceptibles par l’oreille humaine. Malgré cette ressemblance, la propagation des ondes solaires est différente de celle d’un instrument musical à cause de la forme sphérique tridimensionnelle du Soleil. Le champ magnétique du Soleil se couple avec celui de la Terre par l'intermédiaire du vent solaire Pour comprendre la structure et la physique du soleil, il est nécessaire de prendre en considération, la fréquence, l’amplitude, le taux d’amortissement et la trajectoire des RÉSUMÉ D’après la théorie de la relativité einsteinienne, le temps est une notion individuelle et non collective. Chaque chose aurait une « horloge personnelle ». Einstein explique ces propos en affirmant que tout se déplace dans un certain espace-temps. Paradoxalement, ceci voudrait dire que pour un objet qui se déplacerait plus vite qu’un autre, le temps s’écoulerait moins vite. De plus, Einstein pousse ses dires plus loin en insinuant que s’il y avait un objet qui se déplacerait à la vitesse de la lumière, la notion de temps n’existerait plus. Par contre, cette idée que se fait Einstein du temps ne nous renseigne pas sur sa nature intrinsèque. Il existe deux notions sur le temps que l’expérience sensible peut nous montrer : l’écoulement du temps et la direction du temps. De prime abord, Green, un important physicien du 21ième siècle, nous explique le temps grâce à sa fameuse métaphore « la rivière gelée ». Il compare le temps à une rivière et l’ensemble des choses à une barque qui se trouve sur cette rivière. Le temps, tout comme la rivière, semble avancer en entraînant avec lui les passagers de la barque. Ensuite, le temps s’avère avoir une certaine direction. Encore une fois, c’est l’expérience sensible qui nous le prouve. Prenons les exemples suivants : les gens vieillissent, mais ne rajeunissent pas, une vase qui se casse ne va jamais se reformer. On peut voir là une certaine direction du temps, c’est-à-dire du passé vers le futur. Le temps a donc un cours qui fait en sorte que les événements passent et il engendre de la durée. Ces phénomènes ont par contre une propriété spécifique qui n’affecte pas ce cours : c’est la flèche du temps. Elle définit la linéarité de ces phénomènes : cette flèche montre le caractère irréversible des systèmes physiques. Elle dit dans quel sens les phénomènes doivent se produire, tandis que le cours du temps n’exclut pas la répétition de ces derniers, mais exige que les lois physiques demeurent inchangées. Ce sont là les deux premiers principes de la thermodynamique. Bien que le principe de causalité reste à la base de la définition du temps, on ne saurait décrire la collision de deux particules comme étant un phénomène simplement causal. Un système est un tout qu’on ne saurait réduire à la position de chaque composante dans le temps jumelée à un signal transmis entre chacune. Cette corrélation des particules s’effectue dans le temps : elle est inscrite dans un temps donné, à un instant donné, sans que le temps s’écoule. L’expérience de Gisin et Suarez confirme cette théorie de la physique quantique. Est-ce que le temps s’écoule vraiment? Le plus gros télescope au monde ! Cet énorme télescope est un projet de l’Observatoire européen astral (European Southern Observatory : ESO) de 1.1 milliards de dollars. L’extremely large telescope, l’ELT, utilisera la technique de miroir segmenté. Le miroir primaire de l’ELT sera composé de 984 miroirs hexagonaux de 1.14 mètres de diamètre. Tous les miroirs assemblés ensemble, le miroir primaire atteindra une surface totale de 1200 mètres carrés et pèsera 120 tonnes. Les miroirs sont tellement lourds (152 kilos ≈ 334 livres) que la gravité les désoriente. Il y a donc sur chaque miroir un appareil qui les réajuste dix fois par seconde. Voyons maintenant comment ce télescope fonctionne. Pour mieux visualiser vous pouvez vous référez au schéma ci-dessous. 1. La lumière vient frapper le miroir primaire et est réfléchie sue le miroir A 2. Le miroir A réfléchi la lumière et la fait passer à travers le trou du miroir C pour ensuite aller frapper le miroir B 3. Le miroir B dirige la lumière vers le haut pour revenir au miroir C. Ce dernier est un très mince miroir au-dessus de 5 000 déclencheurs qui pousse ou tire sur la surface du miroir 1 000 fois par seconde. Cette action rapide permet de réaligner la lumière déformée par l’entrée dans notre atmosphère. Cette action permet aussi aux astronomes d’obtenir une image claire. 4. Après avoir été corrigé par le miroir C, la lumière frappe le miroir D. Ce dernier bouge jusqu’à 20 fois par seconde pour garder l’étoile observée alignée correctement malgré le vent. 5. Finalement, le miroir D réfléchie la lumière vers un détecteur qui abrite une caméra permettant de capturer les images des étoiles. Le ELT nous permettra d’observer l’atmosphère d’exo planètes et permettra aux astrophysiciens d’apercevoir des planètes d’une taille comparable à la Terre en orbite autour de soleil distant de plusieurs dizaines d’années lumières. Pour vous donnez un point de comparaison, la résolution de l’image de cet énorme télescope est de 10 à 15 fois celle du Hubble. Yoann Gosselin, Marianne Arsenault & Léa Constantineau les trous noirs et les rayons gamma Bibliographie SITES INTERNET : L'expérience H.E.S.S. découvre un accélérateur cosmique en pleine action au centre de la Voie Lactée (Page consultée le 1 avril 2008) http://www.mpihd.mpg.de/hfm/HESS/public/PressRelease/DiffusePress/PressRelease_F.html Ce site est intéressent parce qu’il écrit la façon dont on a découvert les rayons gamma dans la Voie Lactée. Comment détecte-t-on les trous noirs? (page consultée le 1 avril 2008) http://pagesperso-orange.fr/trounoir/emissions_de_rayons_x_et_gamma.html Ce site est intéressent parce qu’il explique le fonctionnement d’un trou noir et comment celui-ci en vient à éjecter des rayons gamma. Sgr A* : un accélérateur de particules au centre de la Voie Lactée (page consultée le 1 avril 2008) http://www.futura-sciences.com/fr/sinformer/actualites/news/t/univers/d/sgr-a-unaccelerateur-de-particules-au-centre-de-la-voie-lactee_10486/ Ce site est intéressant parce qu’il vulgarise bien comment le trou noir se comporte pour devenir un accélérateur de particules. LIVRE : SÉGUIN, Marc et VILLENEUVE, Benoît, Astronomie et Astrophysique, Québec, ERPI 2002, p. 295 à 300 Ce livre est intéressant parce que comme c’est un manuel collégial, la matière est vraiment bien vulgarisée et il explique vraiment ce qu’est un trou noir. RÉSUMÉ : Pour commencer, les trous noirs sont des « cadavres » de vielles étoiles dont la fusion atomique a progressé jusqu’à atteindre l’élément final, le fer. Si l’étoile pèse plus de trois fois la masse du soleil, l’étoile devient assez dense pour que même la lumière ne puisse échapper à sa gravité. On appel alors cette «étoile morte» un trou noir. Par la suite, le trou noir peut capturer des fragments d’étoiles et des lambeaux de nuages interstellaires qui s’accumulent en forme d’anneaux autour du trou noir. De plus, la vitesse de rotation des anneaux peut accélérer jusqu'à atteindre la vitesse de la lumière et ils forment une spirale avec pour centre le trou noir. La température de cette spiral est très élevée, car l’énergie cinétique y est transformée en énergie thermique par ce mécanisme : lorsque des protons à très hautes énergies entrent en collision avec d'autres protons à plus basses énergies cela crée des mésons qui se désintègreront par la suite pour donner naissance à des rayons gamma. Ensuite, le trou noir, en tournant sur lui-même, crée un champ magnétique qui expulse des particules à une vitesse de 276 000 km par seconde, soit 92% de la vitesse de la lumière. En faisant percuter des particules ayant une telle vitesse entre elles, on obtient l’équivalent d’un accélérateur de particules beaucoup plus puissant que ceux construits sur terre. Les résultats, s’il serait possible de les analyser, serait beaucoup plus concluants qu’avec n’importe lequel accélérateur de particules terrestre. GLOSSAIRE : Rayon Gamma : Les rayons gamma sont un type de radiation électromagnétique avec les fréquences les plus élevées, et donc les longueurs d’ondes les plus petites (soit 10 picomètres = 1E-12). Ces derniers sont formés de photons, tout comme la lumière visible ou les rayons X, mais ils sont de plus haute énergie (lumière visible = 1 eV, rayons gamma = plus de 100 keV). Mésons : Particule non élémentaire composant entre autre les protons. Disque d’accrétion : Un disque d’accrétion est une structure formée par une accumulation de matière par aspiration. En astrophysique, elle est formée par de la matière en orbite autour d’un corps. La force centrifuge transforme alors le nuage en rotation en disques. Rayons cosmiques : Les rayons cosmiques sont le flux de particules de haute énergie. Il s’agit entre autre de protons, de noyaux d’hélium (particules alpha), d’électrons et de différents nucléons (noyaux d’atomes). On y retrouve aussi une partie de rayons gammas ainsi que de neutrino (particules élémentaires à très faible énergie). Quasar : Une source d’énergie électromagnétique incluant la lumière visible et autres longueurs d’onde électromagnétiques. C’est un halo de matière qui entoure un trou noir d’une jeune galaxie : elle dépasse alors de plusieurs centaines de fois la luminosité des galaxies environnantes. Télescope H.E.S.S.: Le télescope HESS est installé dans la savane Namibienne, en Afrique austral. Ses 4 miroirs géants de 13 m de diamètre captent au moyen de caméras ultra-rapides l'éclair lumineux produit par les rayons gamma. Pulsars : C’est un trou noir ou une étoile à neutron, un une « étoile morte » pas assez massive pour devenir un trou noir, qui absorbe la matière et qui en transforme de 10 à 20% en énergie en partie lumineuse.