La philosophie de l`expérience - Tracés. Revue de Sciences humaines

publicité
La philosophie de l’expérience :
illustrations de l’ultrafroid *
Ian Hacking, Collège de France
Je présente ici un exemple contemporain de science « en action » – selon l’expression
de Bruno Latour – pour illustrer certains thèmes importants de la philosophie des
sciences. Quelques-unes des questions philosophiques sont familières, quelquesunes peut-être sont nouvelles. Mon propos sera un peu déséquilibré, dans la mesure
où je dois consacrer une proportion assez importante de ma présentation à donner
certaines explications simples sur une science assez nouvelle et très complexe. La
deuxième partie, l’analyse philosophique, ne fait donc qu’esquisser quelques idées
et suggestions.
Du contexte physique…
Des expériences sur le plateau d’une table
Dans la deuxième partie de mon livre Concevoir et expérimenter, j’appelais les philosophes des sciences à étudier les expériences scientifiques 1. La version originale
de ce livre, Representing and Intervening, est parue en 1983, il y a plus de vingt ans.
À cette époque tous les grands auteurs répétaient que la science, c’est la théorie.
Popper affirmait que « la théorie commande le travail expérimental de sa conception
aux derniers maniements en laboratoire ». Il a écrit cela dans la première édition
de la Logik der Forschung (1934), et il l’a redit cinquante ans plus tard 2. Thomas
Kuhn, Bas van Fraassen et d’autres, ont eu la même attitude. Van Fraassen écrivait
dans son livre de 1980, L’image scientifique – et il le répète avec constance dans les
* N.D.R. : il s’agit du texte de la conférence prononcée par Ian Hacking à l’ENS LSH, le 22 novembre
2005. Ian Hacking avait été invité par Tracés, à l’occasion de la parution du n° 9, « Expérimenter ».
. Concevoir et expérimenter, Paris, Christian Bourgeois, 1989. Traduction française de Representing and
Intervening, Cambridge University Press, 1983.
. Karl Popper, La Logique de la découverte scientifique, Paris, Payot, 1973, p. 107.
Revue Tracés n° 11 – 2006 / 1 – p. 195-228
Revue Tracés n° 11 – 2006 / 1
ouvrages plus récents 3 : « L’expérience, c’est la continuation de la théorie par d’autres
moyens. » Il n’y avait alors qu’un livre, un seul livre, où l’on trouvait une étude sur
le laboratoire : c’est le livre de Bruno Latour et Steve Woolgar, Laboratory Life: The
Social Construction of Scientific Facts, publié en anglais en 1979, mais qui n’a été
traduit en français qu’en 1988 4.
Les temps changent. Je suis très heureux que la revue Tracés ait traduit dans un
précédent numéro * mon intervention de 1988 à la réunion biennale de la Philosophy
of Science Association 5. à cette date, on avait déjà des œuvres magistrales d’auteurs tels
que Steven Shapin et Simon Shaffer 6 Peter Galison 7, et cætera. J’ai peu écrit sur la
physique et l’expérimentation depuis vingt ans. Je considérais que j’avais dit ce qu’il
fallait dire en 1983, et je me suis tourné vers d’autres sujets. Cette année mon intérêt
s’est ranimé, après un cours donné au Collège de France par Sandro Stringari, un
physicien italien de l’université de Trente. Stringari est un théoricien, mais très proche
de l’expérience. Il traitait de la condensation de Bose-Einstein, un sujet qui me fascine. Je dois signaler certaines différences entre mes exemples d’aujourd’hui et ceux
de la science qui avait cours à l’époque de la rédaction de Concevoir et expérimenter.
La plupart des exemples datant d’avant 1983 relèvent de la big science, la « grande
science ». J’habitais près du SLAC, le Stanford Linear Accelerator, et plusieurs de
mes proches étaient des physiciens des hautes énergies. Quelques années plus tard,
j’ai organisé à Toronto une conférence sur le thème : des expériences sur une table. La
« petite » science, si vous voulez. Les expériences que je décrirai aujourd’hui sont
vraiment petites.
* N.D.R. : voir Tracés n° 9, « Expérimenter » ; Hacking I., « Les philosophes de l’expérience », traduit
par Marc Lenormand et Anthony Manicki.
. Bas van Fraassen, The Scientific Image, Oxford, Clarendon, 1980. Laws and Symmetry, Oxford,
Clarendon, 1989, trad. fr. Lois et symétrie, Paris, Vrin, 1994. The Empirical Stance, New Haven, Yale
Univesity Press, 2002.
. Bruno Latour et Steve Woolgar, Laboratory Life: The Social Construction of Scientific Facts, Los Angeles
et Londres, Sage, 1979, trad. fr. La vie de laboratoire, Paris, La Découverte, 1988. La deuxième
édition anglaise a supprimé l’adjectif « social » du titre, au motif que tout est social ; ­l’adjectif est
ainsi superflu.
. « Philosophers of Experiment », PSA 1988, Vol. 2 (Evanston, Illinois, 1989), p. 147-155, trad. fr.
« Philosophes de l’expérience », Tracés, n° 9, novembre 2005.
. Steven Shapin et Simon Schaffer, Leviathan and the Air Pump: Hobbes, Boyle and the Experimental
Life. Including a translation of Thomas Hobbes, Dialogus Physicus de natura aeris by Simon Schaffer,
Princeton, Princeton University Press, 1985. Trad. fr. Leviathan et la pompe à air. Hobbes et Boyle
entre science et politique, Paris, La Découverte, 1998. Noter la différence entre le sous-titre français et
le sous-titre anglais ; de plus, la version française n’inclut pas le texte de Hobbes.
. Peter Galison, Ainsi s’achèvent les expériences. La place des expériences dans la physique du xx e siècle, Éd.
la Découverte, 2002. Article original : How Experiments End, Chicago, University of Chicago Press,
1987.
196
La philosophie de l’expérience : illustrations de l’ultrafroid
Les équipes du SLAC ou du CERN sont énormes. Pour prendre un exemple, à
Stanford, je me suis intéressé au projet « Gravity Probe B », commencé depuis bientôt
trente ans. Les responsables de ce projet sont en train de mener une expérience
réalisée dans un laboratoire spatial, qui vise à mettre à l’épreuve la théorie générale
de la relativité. Le physicien qui est à la tête du projet, Francis Everitt, a collaboré à
plusieurs sections de Concevoir et expérimenter (qui sont signalées par un « E »). Dans
la publicité de GP-B on lit : « Plus de 400 physiciens, plus de 2100 ingénieurs, des
milliers d’étudiants… »
Voilà le milieu dans lequel je travaillais il y a 25 ans. En comparaison, celui qui
m’intéresse aujourd’hui est tout petit. Une équipe travaillant sur les condensats de
Bose-Einstein ne comporte généralement pas plus de six personnes : le directeur,
deux post-docs, deux doctorants, et un ou deux étudiants de deuxième cycle. Une
partie essentielle de l’expérience est conduite littéralement sur une table, une table
à laser, mesurant 2 mètres sur trois 8. Le piège à atomes et quelques autres appareils
sont disposés sur une autre table. Il y a aussi une petite table pour les ordinateurs,
quelques papiers, et des tasses de café.
Nous sommes peut-être revenus à l’ère de la table. Le professeur Gérard Mourou
est un physicien des lasers qui a travaillé de nombreuses années aux États-Unis et
est revenu en France, au Laboratoire d’optique appliquée de Palaiseau. Voici un
article qu’il a publié il y a sept ans : « Les lasers à ultra-haute intensité : la physique
de l’extrême sur un plateau de table. » 9 Le 25 novembre 2005, Gérard Mourou a
donné une conférence à l’école normale supérieure de Paris : « Lumière extrême :
optique relativiste et ses applications. » Il a parlé d’une « montée spectaculaire de la
puissance et de l’intensité des lasers ». Sur une table, on peut produire des champs
et des énergies comparables aux énergies obtenues au CERN, pendant un très court
laps de temps.
Il y a une différence plus profonde entre mon sujet d’aujourd’hui et mes ­exemples
des années passées. Je vais parler de la condensation de Bose-Einstein, qui est liée
à la supraconductivité, et qui est liée aussi à la superfluidité, le phénomène qui
l’accompagne dans les plus basses températures. Autrement dit, je parlerai essentiellement de ce qu’on appelle aujourd’hui la physique de la matière condensée, et qu’on
appelait autrefois la physique des solides. Les physiciens de la matière condensée
ont traditionnellement une perspective très différente de celle des physiciens des
. Mais plus grandes que les tables décrites par Eric Cornell, quand il a rencontré Carl Wiemann (les
deux physiciens qui ont produit les premiers condensats de Bose-Einstein en 1995). « In contrast
to the other laser cooling experiments I had seen, which took up the better part of a room, Carl’s
experiment could have fit on a card table. » (Eric A. Cornell, Nobel Lecture, 2001)
. Gérard Mourou, « Ultrahigh-intensity lasers: Physics of the Extreme on the Tabletop », Physics
Today, January 1998, p. 22-28.
197
Revue Tracés n° 11 – 2006 / 1
hautes ­énergies. En particulier, ces derniers sont généralement « réductionnistes ».
Les physiciens dont je parle aujourd’hui ont tendance à avoir une position très différente. Je regrette de ne pas avoir le temps de discuter ici de cet anti-réductionnisme.
Sa formulation classique est celle de Philip Anderson : more is different, « Plus est
différent » 10.
Le vide et le zéro : des indices de la réalité ?
Une remarque très brève et tout à fait spéculative. Je parle de températures très
­proches du zéro absolu. Selon l’idée vulgaire, au zéro absolu, les particules n’ont
plus d’énergie, elles sont immobiles et rien ne se passe – et le vide est vraiment vide,
sans matière, sans énergie, sans rien. En effet, au xviie siècle, dans les débats sur les
atomes et le vide, les partisans de la théorie corpusculaire pensaient que le vide était
vraiment sans contenu. Descartes, de son côté, en doute. Ce n’est plus le cas depuis
le début du xxe siècle. Je cite les deux premières phrases d’un manuel bien connu
de Peter Milonni, Le Vide Quantique : « Dans les conceptions contemporaines, il
n’y a pas de vide au sens ordinaire d’un paisible néant. À la place, il y a un vide
quantique fluctuant. » 11 Dans la même page, Milonni cite une remarque de P. C.
Davies adressée au grand public. Davies est un physicien qui a un penchant pour
les déclarations extrêmes : « Le vide renferme la clé d’une compréhension complète
des forces de la nature. » 12
Milonni ajoute que : « La conception moderne du vide est étroitement liée à
l’idée d’énergie du point zéro, l’énergie associée au mouvement persistant même à
une température atteignant le zéro absolu, où tout mouvement cesse, dans la vision
classique. » 13
Je voudrais sauter, pour une minute, de la physique d’aujourd’hui au monde
ancien. Pierre Hadot dans un merveilleux livre intitulé Le Voile d’Isis 14, retrace
10.Philip Anderson, « More is different. Broken Symmetry and the nature of the hierarchical structure
of science », Science, 177 (1972), p. 393-396. C’est à Anderson que nous devons le changement de
nomenclature de la physique des solides, qui devient « physique de la matière condensée ». Ce changement traduit une modification de la conception du sujet.
11.Peter W. Milonni, The Quantum Vacuum: An Introduction to Quantum Electrodynamics, Boston,
Academic Press Inc, 1997. « According to present ideas there is no vacuum in the ordinary sense of
tranquil nothingness. There is instead a fluctuating quantum vacuum », p. xiii.
12.P. C. W. Davies, Superforce, New York : Simon and Schuster, 1985. Trad. fr. Superforce : recherches
pour une théorie unifiée de l’univers, Paris, Payot, 1987. « The vacuum holds the key to a full understanding of the forces of nature », p. 104.
13 « The modern view of the vacuum is closely related to zero-point energy, the energy associated with
motion persisting even at the absolute zero of temperature, where classically all motion ceases »,
p. xiii.
14.Pierre Hadot, Le Voile d’Isis. Essai sur l’histoire de l’idée de Nature, Gallimard, 2004.
198
La philosophie de l’expérience : illustrations de l’ultrafroid
l­’histoire d’une phrase d’Héraclite que l’on traduit souvent ainsi : « La Nature aime
à se voiler. » Le livre est illustré de représentations classiques de la nature – il s’agit
toujours d’une femme, souvent Isis, qui se dévoile et révèle ses secrets devant la
science. Avec un message sous-jacent : elle se déshabille devant les hommes de
science. Pierre Hadot a reproduit les frontispices de plusieurs livres, dont un ouvrage
de 1687 publié par Leeuwenhoek, l’inventeur du microscope. Le livre montre aussi
une statue célèbre de Louis-Ernest Barrias, La Nature se dévoilant devant la science
(1899), conservée au Musée d’Orsay (je l’ai mentionnée dans mon article traduit
dans Tracés, n° 9, novembre 2005). C’est une image sexiste ! Pierre Hadot n’a pas
reproduit dans son livre la gravure qui orne le revers de la médaille du prix Nobel de
physique et de chimie. Elle « représente la nature sous la forme d’une déesse prenant
les traits d’Isis émergeant des nuées et tenant dans ses bras une corne d’abondance.
Le génie de la science lève le voile qui recouvre son visage ». Modeste allégorie ? Non :
sa poitrine est déjà nue.
On pourrait dire, pour parodier la formule d’Héraclite et celle du physicien
Davies : La Nature se cache dans le vide, où son énergie est « zéro ». Quelle cachette !
J’ai parlé de Gérard Mourou. Le 19 octobre dernier, Le monde lui consacrait
un article intitulé « L’intensité du laser fera jaillir la matière du vide ». L’article cite
Mourou :
« “Le vide est mère de toute matière”, lance-t-il avec une certaine jubilation. à l’état
parfait, “il contient une quantité gigantesque de particules par cm3… et tout autant
d’antiparticules”. D’où une somme nulle qui conduit à cette apparente absence de
matière que nous nommons…le vide. » 15
J’ai un programme de recherche philosophique sur ce que j’appelle les « styles de
raisonnements ». De ce point de vue, le style du laboratoire est capital. J’ai un faible
pour les mythes de l’origine, et j’ai choisi la pompe à air de Robert Boyle comme
l’invention qui marque le début de ce style 16. J’aime beaucoup l’idée que cette histoire du laboratoire, comme style de pensée, commence par des essais pour produire
le vide – où la nature se cache.
15.Le Monde, 20 octobre 2005.
1 6. Ian Hacking, « “Style” for historians and philosophers », Studies in History and Philosophy of Science
23 (1992), p. 1-20. J’utilise le livre de Shapin et Schaffer, op. cit. note 6, pour mon mythe de l’origine. On trouvera quelques remarques sur ce livre dans mon compte-rendu, « Artificial phenomena », British Journal for the History of Science, 24 (1991), 235-241. Je mets l’accent sur la pompe,
comme instrument, sur le laboratoire, la création des phénomènes et les objections de Hobbes contre
la création de phénomènes nouveaux. Bruno Latour, initiateur de la traduction française et préfacier,
met l’accent sur la divergence, au temps de Boyle et Hobbes, entre la science et la société, d’où le
sous-titre français, et l’omission de la traduction de la diatribe contre la création des ­phénomènes.
199
Revue Tracés n° 11 – 2006 / 1
Je n’en dirai pas davantage sur le vide, mais nous sommes très proches du zéro
dans les expériences que je vais vous présenter maintenant. À un nanokelvin du zéro
absolu. Je dois placer ici, pour mémoire, le tableau suivant :
Le zéro absolu
Un millikelvin
Un microkelvin
Un nanokelvin
- 273,15 ° Celsius
1/1000 d’un degré Celsius au-dessus de 0 K
1/1 000 000 d’un degré Celsius au-dessus 0 K
1/1 000 000 000 K (10-9 K)
0 Kelvin
1μK
1nK
Voici un petit résumé de l’histoire :
1. Les basses températures : en dessous de 4 K.
Il y a un siècle, le physicien néerlandais Kamerlingh Onnes (1853-1926) a produit
ces températures au cours de ses recherches sur la liquéfaction de l’hélium. En 1911,
il a démontré qu’à ces températures le mercure n’a pas de résistance électrique : il
devient supraconducteur.
(En 1986 Bednorz et Müller ont créé des céramiques présentant une supraconductivité dès 150 K, soit -123 °C)
2. Température très basse : en dessous de 2,174 K.
Le russe Pyotr Kapitsa (1894-1984) a découvert en 1937 que l’hélium-4 est superfluide à cette température.
Attention : L’atome He-4 est un boson.
3. Froid extrême : en dessous de 0,005 K.
À cette température l’hélium-3, un fermion, devient superfluide. Cette superfluidité
est un phénomène presque totalement différent de la superfluidité de He-4.
4. Ultrafroid : vers 1 nanokelvin.
La condensation de Bose-Einstein apparaît dans l’ultrafroid – en 1995.
BEC = Bose-Einstein Condensation = condensation de Bose-Einstein
ou Bose-Einstein Condensate = condensat de Bose-Einstein.
On dit souvent simplement « condensat de Bose ».
La lumière et la matière agissent l’un sur l’autre
2005 était l’année Einstein, le centenaire de la publication de la théorie de la relativité restreinte – mais aussi de sa thèse sur l’existence des photons, ces « grains de
lumière », objets quantiques qu’il invoque pour expliquer l’effet photoélectrique.
Cette idée est à l’origine de toute l’histoire moderne de la lumière. Elle transforme
notre conception du monde de façon plus bouleversante, à mon avis, que la théorie
200
La philosophie de l’expérience : illustrations de l’ultrafroid
de la relativité. Nous ne trouvons pas exceptionnel que la lumière soit réfléchie par
les objets matériels. Nous nous sommes accoutumés à la photographie traditionnelle,
qui repose sur les effets chimiques produits par la lumière sur des surfaces sensibles.
Le sens commun ne s’est guère avisé de ce qu’il y a d’étonnant dans le fait que lorsque
la lumière touche un atome, un tout petit morceau de matière, il se produit entre les
deux des processus d’une complexité extraordinaire, une dynamique que personne
n’avait prévue avant le vingtième siècle.
En 1839, A. C. Becquerel (1788-1878) et son fils ont fait des expériences sur
l’électricité, la lumière et des solutions salines comme le chlorure d’argent – c’est
quelques années après que L.-J.-M. Daguerre a utilisé l’iodure d’argent pour le
daguerréotype. Quand on illumine une électrode dans un dispositif composé de
deux électrodes identiques baignées dans cet électrolyte, il apparaît une différence
de potentiel entre les électrodes. À l’origine, ce sont des recherches liées à la fascination suscitée par la photographie qui ont révélé par hasard des indices d’effets plus
profonds : on dit que c’est ce Becquerel (le père de A. E. Becquerel et le grand-père
de Henri) qui a découvert l’effet photoélectrique.
En 1885, Heinrich Hertz (1857-1894) réalise ses profondes expériences sur les
ondes électromagnétiques. Quand il applique un rayonnement électromagnétique
à des électrodes sous tension dans un gaz raréfié, il produit une décharge. L’étincelle
étant un peu faible, pour mieux l’observer, il place des électrodes dans une boîte noire
avec une plaque de verre devant. L’étincelle est moins forte quand on ajoute le verre,
mais une plaque de quartz n’entraîne pas la même baisse d’intensité.
On pense aujourd’hui que les deux phénomènes décrits l’un par Hertz et l’autre
par Becquerel, apparemment très différents, illustrent en réalité le même phénomène : l’effet photoélectrique. Si la fréquence de la lumière dépasse un seuil caractéristique du métal employé, le métal absorbe le photon et son énergie, et il émet
instantanément un électron. Dans l’expérience de Hertz, le verre arrête les rayons
ultraviolets, qui ont une fréquence plus élevée que la lumière visible. Le quartz n’a
aucun effet sur les rayons UV.
C’est Philipp von Lenard (1862-1947) qui a découvert les phénomènes fondamentaux de l’effet photoélectrique. Ancien assistant de Heinrich Hertz, ses
­recherches sur les rayons cathodiques lui ont valu un prix Nobel en 1905. Il a étudié
le rayonnement ultraviolet et l’irradiation des métaux dans un vide élevé. Pour l’émission des particules – il s’agit de ceux que nous connaissons comme électrons – après
l’absorption de la lumière, il a démontré que c’est la fréquence – la « couleur » – de
la lumière qui est capitale. L’énergie des électrons émis ne correspond pas à l’intensité
de la radiation, mais à sa fréquence. Remarquons qu’il rencontre des difficultés parce
que ses échantillons de métal n’ont qu’une durée de vie d’environ dix minutes dans
201
Revue Tracés n° 11 – 2006 / 1
la mesure où ils s’oxydent, ce qui crée un écran qui protège les atomes du métal de
la radiation.
C’est Einstein qui a expliqué cet effet avec l’idée que les grains de lumière sont
quantisés selon la constante de Planck 17. Mais ce n’est qu’en 1915 que Robert
Millikan a confirmé cette théorie, et ce n’est qu’en 1921 qu’Einstein a reçu le prix
Nobel pour ses photons. Voici ce qu’écrit Millikan :
« J’ai passé dix ans de ma vie à tester l’équation de 1905 d’Einstein, et contrairement
à toutes mes attentes, j’ai été obligé en 1915 d’annoncer qu’elle avait été vérifiée
expérimentalement sans équivoque bien qu’elle soit si peu raisonnable, puisqu’elle
semble en contradiction avec tout ce que nous savons au sujet des interférences de
la lumière. » 18
Millikan a raison : c’est contraire au « sens commun » de notre perception du
monde.
Les rapports de Millikan expérimentateur avec la théorie d’Einstein sont parmi
les plus « nobles » dans l’histoire des interactions entre la théorie et l’expérience.
Tout à fait à l’inverse du dogme de Karl Popper selon lequel c’est toujours la réfutation qui compte. Ici, dix ans de non-réfutation – la soi-disant « corroboration »
de Popper – ont établi l’analyse théorique d’Einstein. (Bien sûr, on n’a pas exclu
toute possibilité de révision ; on suggère actuellement qu’il serait possible de rendre
compte de l’effet photoélectrique par une analyse classique.) Grâce aux recherches de
Millikan, on a finalement admis que l’hypothèse apparemment absurde d’Einstein
est vraie. Malheureusement les rapports de von Lenard avec Einstein sont les plus
« ignobles » de l’histoire de l’expérience et de la théorie. Von Lenard était jaloux de la
célébrité d’Einstein. Il détestait le physicien et toute son œuvre, y compris la théorie
de la relativité. Il a pris la tête de l’Organisation des Physiciens Aryens et est devenu
le porte-parole d’Hitler sur les questions scientifiques.
La condensation de Bose-Einstein. Ses débuts dans l’esprit des théoriciens :
Bose et Einstein, 1924/1925
Quand on parle d’Einstein, on pense à 1905 – les photons et la théorie de la relativité
restreinte – ou à 1916 – la théorie générale de la relativité. J’ai parlé de l’énergie du
17.hf = hf0 + ½ mv2, ou f0 est le seuil pour le métal, et ½ mv2 est l’énergie de l’électron émis.
1 8.R. A. Millikan, « Albert Einstein on his seventieth birthday » (Pour le soixante-dixième anniversaire
d’Albert Einstein) Reviews of Modern Physics, 21 (1949), p. 343. Le rapport de Millikan était intitulé
« A direct photoelectric determination of Planck’s h », ibid., 7 (1916), p. 355 (une détermination
photoélectrique directe du h de Planck). « I spent ten years of my life testing the 1905 equation of
Einstein, and contrary to all my expectations, I was compelled in 1915 to assert its unambiguous
experimental verification in spite of its unreasonableness, since it seems to violate everything we
know about the interference of light. »
202
La philosophie de l’expérience : illustrations de l’ultrafroid
point zéro. Les études fondamentales concernant ce concept sont d’Einstein (1909),
d’Einstein et Hopf (1910), et d’Einstein et Stern (1913). Passons à une autre facette
d’Einstein, l’une des plus tardives de sa carrière. L’histoire commence très loin de
Berlin. Satyendra Nath Bose (1894-1974) était physicien et enseignait à l’université
de Dacca, une institution nouvelle et sans ressources. En 1924, il essayait d’expliquer
le concept de photon à ses étudiants. À cette date, on avait le concept de photon,
mais on ne pouvait pas expliquer son comportement dans un « corps noir ». Ses
raisonnements comportent plusieurs éléments importants, mais je rappelle simplement un point qui m’intéresse à cause de ma fascination pour les probabilités.
Rappelons que cinquante ans plus tôt, Boltzmann avait établi la probabilité avec
laquelle une molécule de gaz se trouve dans un état d’énergie donné. Son modèle est
le suivant : il suppose que les molécules d’un gaz idéal sont toujours « discer­nables »,
c’est-à-dire que, lors d’un choc entre deux particules, nous pouvons identifier une
à une les particules avant et après la collision. C’est la statistique dite MaxwellBoltzmann. Bose, quant à lui, postule que les photons ne suivent pas cette description classique. Les photons sont numériquement distincts, mais indiscernables,
violant la célèbre loi de « l’identité des indiscernables » énoncée par Leibniz. C’est
une description analogue à la distribution dans des boîtes d’un nombre de balles
identique, mais sans distinction entre les balles. Grâce à cette modification, le gaz de
photons est en parfait accord avec le spectre du corps noir. Les photons obéissent à
une nouvelle statistique, celle que nous appelons aujourd’hui de Bose-Einstein.
Bose a écrit un article en anglais qui présentait son analyse, mais les revues scientifiques ont rejeté, probablement sans le lire, ce texte d’un Indien inconnu. Bose a
envoyé son papier à Einstein, qui à cette époque recevait des centaines de lettres par
jour. Einstein a néanmoins remarqué cette lettre, l’a traduite, et publiée 19. Einstein
ajoute une hypothèse supplémentaire : supposons que les atomes dans un gaz idéal
obéissent à la même statistique. Résultat : « La théorie quantique du gaz monatomique », en deux parties 20. L’article anglais écrit par Bose est perdu, mais en août
2005, à l’université de Leyde aux Pays-Bas, on a retrouvé le brouillon du manuscrit
d’Einstein. On peut le lire sur Internet à l’adresse suivante : http://www.lorentz.
leidenuniv.nl/history/Einstein_archive/Einstein_1925_manuscript/
Selon les déductions d’Einstein, il doit se passer quelque chose de très étrange
quand on réduit un tel gaz à une température très basse. Normalement un gaz passe à
19.S. N. Bose, « Plancks Gesetz und Lichtenquantenhypothese », Zeitschrift für Physik, 26 (1924),
p. 178-181.
20.A. Einstein, « Quantentheorie des einatomigen idealen Gases », Sitzungsberichte, Preussischen
Akademie des Wissenschaften, Physicalische-Mathematische Klasse, 22 (1924), p. 261-7 ; 23 (1925),
p. 3-14.
203
Revue Tracés n° 11 – 2006 / 1
l’état liquide, puis solide – la vapeur, l’eau, la glace. On parle de transitions de phase.
Mais dans le cas d’un gaz qui obéirait au modèle de Bose, on devrait obtenir un
phénomène bizarre, une transition à un nouvel état sans les transitions de phase ordinaire. Un sous-ensemble des atomes se placeraient dans un état d’énergie minimale,
l’« état fondamental », constituant ainsi ce qu’on appelle aujourd’hui un « condensat
de Bose-Einstein » (le reste des atomes conserve une distribution d’énergies gaussienne : ils perdurent comme s’ils formaient un gaz idéal dilué).
Beaucoup de concepts de la physique moderne n’existent pas encore en 1925.
Deux ans plus tard, à Leyde, George Uhlenbeck (1900-1988) introduit le concept
du spin de l’électron, un mot anglais qui désigne la rotation de l’électron. Uhlenbeck
pensait que l’électron tournait, littéralement, sur lui-même et que cela créait un
degré de liberté additionnel. C’est en effet un degré additionnel, mais le concept
est beaucoup plus abstrait et plus riche que cette image de la rotation. On parle du
nombre quantique du spin, qui détermine le moment cinétique d’une particule. Ce
nombre, le spin, ne peut pas avoir d’autre valeur qu’un nombre entier (comme 0,1,
3, ou même -2) ou demi-entier, (comme ½, ou -1½).
Les entités qui satisfont la statistique de Bose-Einstein ont un spin entier. On les
appelle des bosons. Les entités qui ont un spin fractionnaire sont des fermions. Ils
obéissent à la statistique de Fermi-Dirac. C’est la statistique des balles et d’un nombre
donné de boîtes où chaque boîte ne peut contenir qu’une balle au maximum. Selon
une métaphore courante, les bosons sont grégaires, et les fermions solitaires.
Le fait le plus remarquable de la physique, à mes yeux, est que rien ne satisfait la
statistique intuitive, celle de Maxwell-Boltzmann. Tout est boson ou fermion. C’est
un fait ultime, presque de l’ordre de la métaphysique, de l’ontologie.
En général, les particules de masse faible, comme les électrons, sont des fermions,
et les particules lourdes, comme les neutrons et les protons, sont des bosons. Mais
le photon, le grain de lumière, est aussi un boson. De plus les atomes d’éléments,
dans un gaz, ont eux aussi un spin, mais qui peut varier selon les isotopes, ayant pour
valeur un nombre entier ou bien demi-entier. Chaque élément a un isotope avec un
spin entier, c’est-à-dire bosonique, sauf le béryllium. En principe il est donc possible
qu’il existe des condensats de Bose-Einstein pour tous les éléments sauf un.
Une propriété remarquable de ces condensats est que tous les atomes sont censés
se placer dans l’état d’énergie minimale. Ils perdraient donc toute individualité. Ils
réagiraient collectivement comme une seule chose, comme un grand « atome ». Ils
auraient tous la même fonction d’onde. On parle d’un fonction d’onde macroscopique, et donc de phénomènes quantiques macroscopiques. Mais nous sommes
dans la théorie. Au laboratoire, tout cela a dû attendre soixante dix ans, jusqu’en
1995, l’année où deux équipes ont réussi à atteindre des températures ultrafroides et
à produire un condensat de Bose-Einstein.
204
La philosophie de l’expérience : illustrations de l’ultrafroid
Le refroidissement par la lumière : les années 1980
Du point de vue des rapports entre la théorie et l’expérience, l’histoire de la superfluidité et de la supraconductivité présente un grand contraste avec l’histoire de la
condensation de Bose-Einstein. Dans le cas de la BEC, on a le cœur de la théorie
en 1925, et le résultat en laboratoire en 1995. La théorie a 70 ans d’avance sur le
laboratoire. En revanche, Kammerlingh Onnes a produit la supraconductivité en
1911, sans les conseils des théoriciens. Il est tombé dessus par hasard, pour ainsi dire.
En revanche, ce n’est pas par hasard que Pyotr Kapitsa a découvert la superfluidité de
l’hélium-4 en 1937. Pourtant, la théorie ne donnait aucune indication concernant
cette possibilité.
Je ne veux pas dire que la théorie était absente, mais il manquait une microthéorie pour expliquer les phénomènes connus. La théorie se situait au niveau d’une
phénoménologie assez profonde. La grande figure de cette histoire, Fritz London
(1900-1954), est un personnage rare en physique : il a fait ses débuts en tant que
philosophe avant d’entamer une carrière de physicien. Il n’a entrepris ses recherches
en physique qu’après avoir soutenu son doctorat en phénoménologie Husserlienne.
Autre rareté, parmi les physiciens, il était également doué pour la théorie et pour
l’expérimentation. Acteur majeur de la théorie quantique des années 1930, il est
toujours resté anti-réductionniste, mais il avait une compréhension remarquable du
phénomène de la superfluidité comme effet quantique macroscopique. Il a réalisé
des expériences importantes sur ce phénomène : il ne distinguait guère la théorie
phénoménologique et les expériences.
Voici une anecdote qui illustre ce qu’étaient les rapports entre théorie et expérience il y a trente ans, dans le milieu des historiens et des philosophes des sciences.
Comme je l’ai dit, quand j’ai écrit Concevoir et expérimenter, je travaillais avec Francis
Everitt, le physicien expérimentaliste qui dirigeait le projet « Gravity Probe B ».
Féru d’histoire de la physique, Francis Everitt a également écrit un petit livre sur
James Clerk Maxwell. On lui demanda d’écrire les biographies des frères Fritz et de
Heinz London, deux figures majeures de la physique des basses températures, pour
le Dictionary of Scientific Biography en 24 tomes. Le rédacteur pour la physique était
Thomas Kuhn. Il rejeta les articles d’Everitt sur les frères London, disant qu’il parlait
trop de leurs expériences : à ses yeux, ils n’avaient d’intérêt que par leur œuvre théorique. Francis Everitt a donc modifié ces deux articles, mais il n’a pas tout concédé
à Thomas Kuhn.
Fritz London est devenu aujourd’hui l’une des grandes figures de référence dans
le domaine de la condensation de Bose-Einstein, parce qu’il a compris que l’hélium
4 était un boson (dont le spin est 0), et qu’il a vu que la condensation de BoseEinstein est impliquée dans sa superfluidité. On peut dire, cependant, que, jusqu’à
205
Revue Tracés n° 11 – 2006 / 1
1957, il manquait une microthéorie de la supraconductivité et de la superfluidité.
Depuis cette date, nous avons la théorie qu’on appelle BCS, d’après les initiales de ses
inventeurs : John Bardeen, Leon Cooper et John Schrieffer. (Bardeen est le premier
physicien qui ait obtenu deux fois le prix Nobel de physique, une première fois pour
sa contribution au transistor, et une seconde fois pour la superfluidité.)
Voilà donc cinquante ans de physique des basses températures pendant lesquels
l’expérience a toujours été en avance sur la théorie. Et cela continue : aucune théorie
n’explique la supraconductivité à haute température, connue depuis 1986. Pour la
condensation de Bose-Einstein, c’est tout le contraire. Soixante-dix ans de théorie
sans aucune expérience qui marche. Une histoire riche, surtout en Russie, avec Lev
Landau (1908-1968) et Nikolai Bogoliubov (1909-1992). Mais on n’a réussi à produire un condensat de Bose-Einstein qu’en 1995.
En Europe comme aux États-Unis, beaucoup de laboratoires essayaient de produire la BEC vers la fin des années 1980. On tentait le plus souvent de produire
un condensat d’hydrogène, mais les expériences sont devenues de plus en plus
complexes. On a finalement réussi avec des isotopes bosoniques d’éléments alcalins
comme le potassium, le lithium, et, pour la première expérimentation réussie, le
rubidium-87. Ce métal est toujours l’élément favori des équipes qui commencent
à travailler dans ce domaine. Le choix des alcalis paraît assez « naturel » parce qu’ils
n’ont qu’un seul électron dans l’orbite externe, mais le choix du rubidium est aussi
un peu « social ». Il est dû en partie au fait que les raies spectrales du rubidium sont
rouges (le nom rubidium vient du Latin rubidus, qui signifie « rouge foncé ») : or les
moins chers des lasers de précision, ceux qu’on utilise dans les lecteurs de CD par
exemple, utilisent la lumière rouge. J’ai visité à Hambourg un laboratoire où Andreas
Hemmerich travaille à partir du calcium, dont les raies spectrales sont bleues. Les
lasers de précision pour cette partie du spectre sont fabriqués à la main, à l’unité : il
faut plus d’un an pour en construire un. Mais je dois expliquer l’importance des lasers
dans l’histoire de l’ultrafroid. C’est une étape fondamentale dans notre compréhension des effets de la lumière sur la matière – une compréhension qui commence avec
les observations de Becquerel, faites par hasard, puis celles de Hertz.
Comment produire un « régime ultrafroid », selon l’expression en usage ? Les
techniques sont si belles que j’aimerais les décrire en détail, mais cela demanderait trop de place. Je vous inflige donc quelques instants de vulgarisation pénible.
Pour plus d’information, il faut consulter, par exemple, le document intitulé « De la
lumière laser aux atomes ultrafroids ». Il s’agit d’une présentation en termes simples
de la physique des atomes froids, réalisée par l’équipe « Atomes Ultrafroids » du
Laboratoire Kastler Brossel, dirigé par Claude Cohen-Tannoudji. (http://www.lkb.
ens.fr/recherche/atfroids/tutorial/index2.htm)
206
La philosophie de l’expérience : illustrations de l’ultrafroid
Dans les années 1980, on a fait une percée importante avec le refroidissement des
atomes par laser. Vers 1985 on commence à savoir ralentir des atomes par la pression
de la lumière fournie par des lasers. Grâce à ces techniques, on réduit l’agitation thermique des atomes et on diminue ainsi la vitesse moyenne et les fluctuations autour de
cette vitesse. Autrement dit, on réduit la « température ». Cette découverte a valu le
prix Nobel à Claude Cohen-Tannoudji du Collège de France et de l’école Normale
Supérieure, et à deux chercheurs américains, Steven Chu et William Phillips, en
1997. Mais il y a aussi une petite histoire, assez curieuse et absolument inédite, qu’on
ne trouve ni sur le site du laboratoire Kastler Brossel, ni ailleurs. J’en ai eu connaissance tout récemment, grâce à Paul Lett, un membre du groupe de Phillips.
La théorie qui avait cours à l’époque, au début des années 1980, prédisait le
refroidissement. Le groupe de Chu, puis celui de l’école normale supérieure de la rue
Ulm ont publié leurs résultats, avec en particulier, une estimation de la température
qu’ils avaient atteinte. Ces résultats marquaient un accord parfait avec la théorie.
Ce n’était pas le cas de William Phillips et de son équipe. Phillips est chercheur à
l’Institut américain des normes et de la technologie, le NIST – National Institute of
Standards and Technology, l’ancien Bureau des Standards, qui a un rôle comparable
à l’AFNOR en France, mais beaucoup plus étendu.
Phillips était un peu sceptique. Il obtenait des mesures très fluctuantes, peu en
accord avec celles de ses collègues. La méthode utilisée impliquait l’expansion d’un
nuage d’atomes froids après refroidissement, qui indique le niveau d’énergie et donc
la température. Après des mois d’incertitude, l’équipe du NIST s’est aperçue que
les différences pouvaient être liées à la position de certains détecteurs. Quand les
détecteurs se trouvaient au-dessus du dispositif expérimental, on observait moins
d’atomes.
Tout le monde sait que les objets immobiles, s’ils ne sont soumis à aucune autre
force, tombent simplement vers le centre de la Terre. C’est la découverte qu’on attribue à Galilée : un boulet de canon et une plume doivent tomber dans le vide de la
même manière, avec la même accélération. Pour ma part, j’avoue que j’ai été surpris
quand j’ai vu des clichés d’atomes tombant dans le vide… comme de vulgaires sacs
de pommes de terre. Un ami m’a parlé d’un physicien célèbre qui connaissait dès l’âge
de huit ans les lois de la chute libre de Galilée et de Newton, mais qui ne les n’avait
jamais appliquées à la réalité jusqu’à notre ère des atomes froids.
Une partie de l’explication des divergences entre les résultats de l’équipe de
Phillips et ceux des équipes concurrentes est la suivante : quand les atomes sont très
froids, ils sont dans un état de très basse énergie, presque immobiles. Beaucoup de ces
atomes n’ont pas assez d’énergie pour s’opposer à la force gravitationnelle. Ainsi, un
détecteur placé au dessus de l’appareil détecte moins d’atomes qu’un détecteur placé
207
Revue Tracés n° 11 – 2006 / 1
en dessous. Après une réorganisation des instruments, on s’est aperçu que le refroidissement par laser est beaucoup plus efficace qu’on ne l’espérait. Grande surprise : en
règle générale, les appareils sont moins efficaces que la théorie ne le prédit, mais ici,
ils se révèlent incroyablement plus efficace. Cohen-Tannoudji a résolu ce paradoxe
avec une nouvelle théorie du refroidissement, dite « Sisyphe » (voir numéro 7.2 sur
le site Kastler Brossel).
Le refroidissement par laser représente une étape essentielle dans l’histoire du
condensat de Bose. Mais ce n’est pas suffisant. Il faut revenir à une technique bien
connue : le refroidissement par évaporation. L’analogie habituelle est celle du bol de
soupe. La soupe se refroidit parce que des molécules de liquide s’évaporent, entraînant une perte d’énergie. On dit, de la même manière, que les atomes froids les plus
énergétiques échappent au piège. L’analogie est trompeuse, parce que dans le détail,
les techniques utilisées sont très subtiles. On utilise aussi les lasers, et on contrôle la
radiofréquence afin d’évaporer les atomes presque un par un.
Remarquons que le refroidissement par laser est vraiment la continuation de
l’aventure de Becquerel : c’est l’histoire de l’action de la lumière sur la matière. Même
le refroidissement par évaporation est réglé par l’action de la radiation électromagnétique sur la « matière » – ou en tout cas sur les atomes. J’ai commencé par souligner que toutes ces expériences ont lieu « sur la table » – il s’agit principalement
d’une table à laser, où on prépare et contrôle la lumière pour son interaction avec
la matière.
Les débuts de la condensation de Bose-Einstein au laboratoire :
Boulder & MIT, 1995
Tous les éléments étaient disponibles, la concurrence était amicale mais acharnée.
« La plupart des pièces qui permettent d’arriver à la CBE étaient connues en 1990,
mais on n’était pas sûr qu’elles s’adaptaient les unes aux autres. » 21 En 1994, dans un
article de Science, on cite Steven Chu : « Je parierais que la nature fait tout ce qu’elle
peut pour nous cacher la condensation de Bose. Ces 15 dernières années, elle s’en est
très bien tirée. » 22 Toujours la métaphore d’Héraclite : la nature aime à se cacher !
La voici dévoilée en quelques mois. On aurait pu penser qu’après ces immenses
investissements en temps, en talent et en argent, le succès devait revenir aux labora21.Wolfgang Ketterle, « Quand les atomes se comportent comme des ondes : la condensation de Bose–
Einstein et le laser atomique », conférence Nobel, 8 déc. 2001, p. 126.
22.« I’m betting on nature to hide Bose condensation from us. The last 15 years she has been doing a
great job. » G. Taubes, « Hot on the trail of a cold mystery », Science 265 (1994), p. 184-86. Avec
du recul, c’est un bon résumé de l’état de la recherche et de la concurrence quelques mois avant le
succès.
208
La philosophie de l’expérience : illustrations de l’ultrafroid
toires qui utilisaient l’hydrogène. Pas du tout : la victoire est allée à l’appareil le plus
simple (toutes proportions gardée). C’est celui de Carl Wiemann et Eric Cornell,
en juin 1995, dans un laboratoire du NIST situé à l’ouest, dans le Colorado, à partir
du rubidium-87 23. Le 29 septembre, l’équipe de Wolfgang Ketterle, au MIT, a
produit une BEC de sodium. Sur la photographie de ce groupe en 1996, on voit
Ketterle et six collègues, conformément à ce que j’ai dit de la taille de ces équipes.
Exceptionnellement, sur le cliché de 2001 on dénombre 19 personnes. Le premier
photographe a fait un montage ajoutant quatre hommes, dont David W. Pritchard,
un pionnier de beaucoup des techniques employées dans la production du condensat
de Bose, et vraiment le grand-père de la BEC dans le laboratoire 24. Ketterle était
son postdoc et Eric Cornell son étudiant doctoral. Mais le réseau de ces chercheurs
est plus intime que cela. Ketterle donne un « arbre généalogique » des Doktorvaters
qui remonte à I. I. Rabi (1898-1988), prix Nobel en 1944 pour ses travaux sur les
interactions entre les atomes et les champs électriques 25.
Un lecteur qui voudrait examiner en détail les protocoles expérimentaux mis en
oeuvre pour obtenir des condensats de Bose peut lire un article qui fait le point sur
la question et qui présente clairement les techniques assez innombrables qu’il faut
maîtriser pour produire un condensat de Bose. 26 Je me contenterai ici de signaler
une question qui s’est posée dès les premier jours de la BEC : sa « signature ». Le
phénomène est métastable, c’est-à-dire stable pendant quelques secondes, au plus
une minute ou deux. Comment sait-on qu’on a obtenu la BEC pendant un tel laps
de temps ? Quelle est la preuve du succès ? Quand on veut démontrer à ses pairs qu’on
a effectivement produit le phénomène, que dit-on pour les convaincre ?
23.M. H. Anderson, J. R. Enscher, M. R. Mathews, C. E. Wiemann, E. A. Cornell, « Observation of
Bose-Einstein condensation in a dilute atomic vapor », Science 289 (14 July 1995), p. 198-201.
(« 26 June 1995, accepted 29 June 1995 ».) Sur la simplicité : « Previous laser traps involved expensive massive laser systems and large vacuum chambers for atomic beam precooling. […] However in
the first JILA [Boulder] magnetic trap experiment our lasers were simple diode lasers, the vacuum
system was a small glass vapor cell, and the magnetic trap was just a few turns of wire wrapped
around it. » « If we wanted to modify our magnetic trap it only required a few hours winding and
installing a new coil of wires. This was a dramatic contrast with the hydrogen experiments that,
like all state of the art cryogenic experiments, required an apparatus that was the better part of two
stories, and the time to modify it was measured in (large) fractions of a year. » Eric A. Cornell et
Carl E. Wiemann, « Bose-Einstein condensation in a dilute gas: the first 70 years and some recent
experiments », Nobel lecture 2001, p. 83 et 87.
24.On trouve des photographies dans la conférence Nobel de Wolfgang Ketterle le 8 décembre 2001,
figures 16 et 22.
25.Ibid.. figure 10.
26.W. Ketterle, D.S. Durfee, D.M. Stamper-Kurn, « Making, probing and understanding BoseEinstein condensates », Numéro 9904034 v2 dans l’on-line archive de tous les articles depuis avril
1992, http://arxiv.org/archive/cond-mat
209
Revue Tracés n° 11 – 2006 / 1
La preuve est assez simple, en principe. On a un nuage d’atomes piégés dans un
vide. On débranche les champs électrique et magnétique autour du piège, et on fait
des photos tous les 8 millisecondes. Les photos sont prises au moyen d’un dispositif
numérique, encore un laser, utilisant un faisceau de lumière cohérente de même
fréquence que les atomes. L’appareil enregistre l’absorption des atomes par le nuage.
Au moment où on débranche les champs, les atomes sont très froids, ils ont un
niveau d’énergie très faible : ils tombent, et il se produit une dilatation ­adiabatique
très lente. On peut déduire de ces données la densité des atomes en fonction de
la vitesse. Si on a vraiment produit une BEC, on devrait trouver une distribution
bimodale. Une partie du nuage est « thermique », avec une distribution gaussienne.
L’autre partie doit avoir des atomes à l’état d’énergie minimale, avec la vitesse la plus
basse possible.
Grâce à l’ordinateur, on peut transposer les données numériques et les représenter
sous différentes formes. On veut obtenir une présentation claire et nette. Il y a beaucoup de choix possibles. L’équipe de Cornell et Wiemann a produit une séquence
de trois images en fausses couleurs, (a) avant l’apparition de la BEC, (b) quand la
BEC commence à apparaître, et (c) après évaporation, quand il reste un condensat
presque pur. Ce sont les « trois pics » de la BEC.
La première grande réunion de la communauté BEC après le succès obtenu
à Boulder s’est tenue près de Strasbourg, au Mont St Odile. (C’était la première
d’une série de conférences européennes biennales qui ont lieu désormais à St Feliu
en Espagne.) Il y a eu un débat de trois jours, qui s’est focalisé sur ces trois pics.
Conclusion : oui, c’est bien une BEC qu’on a obtenu. Il y a le problème des images
spécifiques de Boulder. Bien sûr, ce sont les résultats des premiers essais, qu’on trouve
pense très rudimentaires, mais qualitativement, ces images perdurent. Désormais
presque toutes les équipes qui annoncent qu’elles ont obtenu une BEC produisent
ces représentations graphiques avec des pics. Il y a des variantes, mais il s’agit toujours
essentiellement de la même image. Souvent, c’est même exactement la même image
à trois pics – à tel point qu’on fait des blagues géographiques : on parle des « trois
pics de Swaledale » (une région du Yorkshire connue pour ses collines) et cætera. S’il
n’y en a pas trois, il y a au moins le dernier pic, comme par exemple sur le site Kastler
Brossel déjà cité.
Il y a un contre exemple : celui de l’équipe de Klaus Sengstock à Hambourg, qui
a publié ses résultats le 23 septembre 2002. J’ai demandé au professeur Sengstock,
pourquoi il a utilisé des images différentes :
« Parce qu’à ce moment-là nous n’avions pas le programme informatique pour
transformer nos données et les présenter sous la forme canonique. Mais nous
voulions faire l’annonce immédiatement : nous n’avons pas le temps d’écrire le
programme. »
210
La philosophie de l’expérience : illustrations de l’ultrafroid
Une question se pose. Le choix de ces images canoniques est-il déterminé par la
nature, ou par un hasard de l’histoire, qui a voulu que la première image, celle de
Boulder, s’impose ? Une part de Nature, une part de Société ? On a ici sous une forme
très nette une question concernant la construction sociale dans une science. Une
petite question, et nette parce que petite.
L’actualité
Au début, en 1995, il y avait 2 équipes. Puis 4, 10, 16. En février 2005, on m’a dit que
40 équipes avaient produit un condensat de Bose. En juin, 70. En septembre, 100. Il
y a des dizaines de programmes de recherche. Il y a aussi des sceptiques qui trouvent
qu’il y a trop de laboratoires, et trop peu d’idées : la BEC est devenu une mode. Je ne
suis pas de cet avis. Il y a assez de questions pour tout le monde. Ces atomes froids
sont une porte ouverte à la manipulation et donc à la compréhension des atomes
à une échelle presque inconnue auparavant. Je signalerai quelques ­exemples qui
­relèvent de différents ordres de difficulté, d’importance, et de bizarrerie.
La comparaison avec l’exploration de la terre est trop évidente. On a découvert
un nouveau continent : il faut l’explorer, établir des colonies, découvrir des minéraux à exploiter, etc. Il y a premièrement des variations sur le thème principal : la
préparation d’un condensat de Bose. Des variations dans plusieurs directions. Même
en jouant sur un même élément, le rubidium-87, devenu aujourd’hui la bête de
somme par excellence, pour les chercheurs, on peut introduire des variations. On
peut essayer de prolonger la vie d’un condensat ; d’augmenter la taille et le nombre
des atomes dans l’échantillon froid, ou de les diminuer. Les premiers condensats à
Boulder ne comptent que 2000 atomes ; plus tard les échantillons sont dix mille fois
plus grands. Mais on essaie aussi de faire des nuages de plus en plus dilués, et on parle
ici de « number-squeezing ».
J’ai dit que tous les atomes sauf le béryllium ont des isotopes bosoniques : on
peut donc s’entraîner à faire un condensat de Bose pour chaque espèce d’atome
bosonique. Les condensats ne peuvent-ils être obtenus que dans l’état fondamental
d’un atome, comme je l’ai laissé entendre jusqu’ici ? En réalité, non : le 20 février
2001 le laboratoire Kastler Brossel a obtenu un condensat d’atomes d’hélium à un
niveau d’énergie interne supérieur à l’état fondamental, à une température relativement élevée (vers 5 microkelvins) et avec une durée de vie métastable longue – de
l’ordre d’une heure.
Il y a un champ de recherche très actif sur les fermions. À cause du principe
d’exclusion de Pauli, il est impossible d’obtenir un condensat de fermions. Les fermions ont un spin demi-entier. Les spins sont additifs. Une paire de fermions a
donc un spin entier, la paire est un boson. En 2003, à Boulder, Deborah Jin, une
211
Revue Tracés n° 11 – 2006 / 1
ancienne étudiante d’Eric Cornell, a obtenu le premier condensat à partir de paires
de fermions 27.
C’est une réussite d’un très grand intérêt, à cause de l’analogie avec les « paires
de Cooper » qui sont au cœur de la théorie Bardeen-Cooper-Schieffer de la superfluidité. Il s’agit de paires d’électrons : chaque électron est un fermion, mais les
paires sont des bosons, et leur comportement en paire à basse température explique
les phénomènes de supraconductivité et de superfluidité. Le condensat de paires de
fermions atomiques est-il un superfluide ? Tout le monde le pensait, mais c’est le
laboratoire du MIT qui en a fourni la preuve en juin 2005, en utilisant le lithium‑6.
On doit observer des tourbillons sur la surface d’un superfluide, et on les trouve
effectivement 28. Rudolf Grimm, du laboratoire d’Innsbruck, parle à ce sujet d’une
« révolution » comparable à la condensation des bosons en 1995 29. Il poursuit :
« L’observation spectaculaire de tourbillons dans un gaz de Fermi annonce l’avènement d’une nouvelle ère de recherche qui va bien au-delà de la condensation de
Bose-Einstein. […] Et l’incroyable niveau de maîtrise dont on a fait preuve dans
ces travaux [au MIT] est susceptible d’être étendu à des systèmes plus sophistiqués
– des mélanges de systèmes de Fermi pourraient être utilisés pour simuler un noyau
de protons et de neutrons, ou des semi-conducteurs exotiques. Cette preuve définitive de la superfluidité dans un système de Fermi ouvre des perspectives fantastiques
pour de nombreux domaines de la physique quantique à N corps. » 30
On parle des deux « régimes », celui de la BEC, et celui de BCS, et du croisement
des régimes BEC / BCS. On pense qu’au fond, c’est la même physique dans les deux
cas. Les analogies entre les paires de Cooper, les électrons, et les paires d’atomes
fermioniques suggèrent que nous approchons de la compréhension des fondements
de BEC /BCS.
Il s’agit là de la recherche concernant le coeur du sujet. Il ne manque pas de
recherches plus périphériques, plus spéculatives. Je me contente d’en mentionner
trois exemples que j’ai rencontrés récemment.
27.M. Greiner, C. A. Regal, and D. S. Jin, « Emergence of a molecular Bose-Einstein condensate from
a Fermi gas », Nature, 426 (2003), p. 537-540.
28.M. W. Zweierlin, J. R. Abo-Schaer, A. Shirotzek, C. H. Schunk and W. Ketterle, « Vortices and
superfluidity in a strongly interacting Fermi gas », Nature, 425 (23 June 2005), p. 1047-1051.
29.Rudolf Grimm, « A quantum revolution », ibid., p. 1035.
30.« The spectacular observation of vortices in a Fermi gas heralds the advent of a new era of research
reaching far beyond Bose-Einstein condensation. As an immediate experimental step, interfering
light fields can be used to simulate a crystal lattice, providing a unique tool for solving problems
in condensed matter physics, And the amazing level of control demonstrated in the work [at MIT]
can be extended to more sophisticated systems – mixed Fermi systems could be used to simulate
a nucleus of protons and neutrons, or exotic semiconductors. This final proof of superfluidity in
a Fermi system opens fantastic new prospects for many different fields of many-body quantum
physics. » (Ibid., p. 1036)
212
La philosophie de l’expérience : illustrations de l’ultrafroid
(a) Qu’est-ce qui se passe quand la lumière traverse le verre, c’est-à-dire quand
un photon passe dans un diélectrique ? La question se pose directement après
Einstein, vers 1908. Hermann Minkowski (1864-1909) a proposé un modèle, et
Max Abraham (1875-1922) un autre, un peu plus complexe. À ce jour on ne sait pas
qui avait raison. Paul Lett du NIST suggère que dans des circonstances très raffinées,
un matériau qu’on illumine du côté droit doit bouger à droite si c’est Minkowski
qui a raison, et à gauche si c’est Abraham. Cet effet très subtil a le mérite d’être
qualitatif, et pas quantitatif. M. Lett espère en faire la démonstration à l’aide d’un
condensat de Bose.
(b) Les atomes froids ont très peu d’énergie : donc, ils tombent comme des boulets de canon. Si on peut les libérer de l’attraction terrestre, on peut les étudier dans
un état moins sujet aux forces extérieures, et leur fonction d’onde elle-même doit
être plus large, plus « macroscopique » que jamais. Pourquoi ne pas le faire dans un
laboratoire spatial ? Il y a une collaboration panallemande pour produire une BEC
dans l’espace. On commence par rendre les lasers plus stables en chute libre, en les
laissant tomber d’une tour de 146 mètres de haut à Brême. C’est le ZARM-Fallturm
– tour de largage, ou de chute – qui permet d’obtenir 4,7 secondes d’apesanteur
contrôlée. (Cela évoque, pour moi, Galilée et la tour de Pise.)
(c) Un des effets quantiques les plus frappants est l’effet tunnel, dans lequel
un électron peut traverser une barrière énergétique de façon non-contrôlée. À un
moment, l’électron est à droite de la barrière, au moment suivant, il est de l’autre
côté. C’est un phénomène à la fois bien établi et mystérieux. Qu’est-ce qui se passe
pendant le passage ? La question n’a probablement pas de sens. Mais tout se passe
si lentement, dans l’ultrafroid, que Aephraim Steinberg, physicien à l’université de
Toronto, a eu l’idée d’essayer d’observer le mouvement des électrons dans l’effet
tunnel à travers un condensat de Bose.
… aux applications en philosophie
La création des phénomènes
Le chapitre 13 de Concevoir et expérimenter était intitulé « La création des phénomènes ». Je commençais par le paragraphe suivant :
« De tous les rôles joués par l’expérience, il en est un que l’on n’a même pas songé
à dénommer tant il est négligé. Il s’agit de la création des phénomènes. Traditionnellement, les scientifiques ont la réputation d’expliquer les phénomènes qu’ils
213
Revue Tracés n° 11 – 2006 / 1
­découvrent dans la nature. Je pense, quant à moi, qu’ils créent souvent les phénomènes qui deviennent alors les clés de voûte de la théorie. »
Quand je parle des phénomènes, je parle la langue des physiciens, pas des philo­
sophes, pas des Husserliens. Dans le Petit Robert on trouve une liste d’emplois du
mot : « Phénomènes électriques, magnétiques physiologiques, psychiques. » On mentionne le sens dérivé de l’astronomie : les « phénomènes célestes ». Je ne vais pas
répéter ce que j’ai dit dans mon livre. Dans le discours des physiciens, les phénomènes sont surtout publics. Le terme est employé dans un sens très proche du mot
« effet », comme dans la phrase : « L’effet tunnel est un phénomène quantique. »
Le dictionnaire indique aussi que depuis le xviiie siècle, le mot a la connotation
de quelque chose surprenant ou anormal. L’effet tunnel était surprenant, il est surprenant, dans un premier temps, pour ceux qui le découvrent. Il est « anormal »
– contraire à l’expérience quotidienne – mais on réalise ensuite que c’est une chose
normale et même nécessaire dans le monde quantique. C’est parce qu’il est si singulier et si frappant qu’on continue de parler d’« effet » et de le décrire comme un
« phénomène ».
Il y a un élément psychologique ou sociologique dans la terminologie physique
des effets et des phénomènes. L’effet tunnel est frappant pour nous, pas pour les
­électrons. De plus, la langue des phénomènes est très influencée par des théories,
elle est theory-laden, chargé de théorie. J’ai parlé de l’effet photoélectrique au para­
graphe 3 ci-dessus ; j’ai rappelé que Becquerel l’avait découvert en 1839, et que Hertz
l’a (re-)découvert en 1885, que von Lenard l’a produit et l’a étudié en 1902, et que
Einstein l’a expliqué en 1905 31. Qu’est-ce que cet effet photoélectrique ? Le phénomène observé par Becquerel n’est-il pas tout à fait différent du phénomène de Hertz ?
Non, ils sont identiques, parce que dans chaque cas des électrons sont libérés par des
photons qui entrent en collision avec les atomes d’un métal. Les critères d’identité
pour un phénomène peuvent donc être hautement théorique. (Dans C&E, je n’avais
pas éclairci ce point, et c’est une faute.)
31.Les analyses de T. S. Kuhn sur l’attribution de la découverte de l’oxygène – revient-elle à Scheele, à
Priestley, ou à Lavoisier ? – sont pertinentes ici. Pour Kuhn, le découvreur est Lavoisier, parce qu’il
est le premier à avoir compris ce qu’est l’oxygène. Mais le cas que nous évoquons est plus complexe,
même si nous sommes d’accord avec le principe de Kuhn. Von Lenard soutient que c’est lui qui a
identifié l’effet photoélectrique – il ne l’a pas simplement produit, il l’a aussi compris : il a démontré
par exemple, les rapports entre la fréquence de la lumière et le seuil spécifique du métal nécessaire
pour la libération des électrons. Cette question de la priorité et de la découverte originale n’a plus
guère d’importance un siècle plus tard, mais on est sans doute fidèle à l’esprit de l’analyse de Kuhn si
l’on dit (dans un sens précis) que c’est von Lenard qui a vraiment découvert l’effet photoélectrique
(pas Becquerel, ni Hertz) et que Einstein l’a expliqué.
214
La philosophie de l’expérience : illustrations de l’ultrafroid
Depuis Millikan en 1915, depuis le prix Nobel de 1921, ou depuis la deuxième
vague de la mécanique quantique en 1926-27, tout le monde a dit que l’effet photo­
électrique est un phénomène quantique des photons. Tout le monde – à ­l’exception
des « physiciens Aryens » – a reconnu à Einstein le mérite d’avoir le premier compris
l’effet photoélectrique. Complication. Aujourd’hui, on sait qu’on peut expliquer le
phénomène sans la quantisation de la lumière. Si on combine un traitement quantique de la matière avec un traitement classique de la lumière, on peut déduire la
probabilité par unité de temps de l’émission des électrons, qui commence instan­
tanément. Il existe une théorie néoclassique de l’optique, dont Edwin Jaynes
(1922‑1998) a été le pionnier. Cette théorie explique presque tous les phénomènes
connus jusqu’en 1980. Doit-on conclure que l’effet photoélectrique n’est pas un
phénomène quantique ? Pas du tout : simplement que l’identité des effets et des
phénomènes n’est pas donnée par la nature elle-même, mais par la nature comme
nous la comprenons 32.
Dans un laboratoire de physique, on fait beaucoup de choses et on a une vaste
gamme de buts. Mesurer, par exemple. Mais aussi produire, purifier, et même créer
les phénomènes. J’ai rencontré beaucoup de physiciens qui sont satisfaits de l’idée
qu’ils « produisent » et « purifient », mais qui résistent à l’idée qu’ils feraient un travail de « création ». Dans le cas de l’effet photoélectrique, ils ont raison. Becquerel
et Hertz ont produit le phénomène sans le comprendre. Von Lenard l’a purifié, et
Einstein l’a expliqué. Nous ne créons pas ce phénomène parce qu’il existe partout
– il y a en permanence des photons qui frappent des atomes à certaines fréquences,
et instantanément (pas après un processus), des électrons sont émis. Cet effet existe
partout, et ce n’est pas nous qui l’avons « créé » au sens littéral 33. Pour moi, nous ne
créons quelque chose que si cette chose n’a jamais existé dans l’histoire de l’univers
avant que nous la produisions de nos mains.
32.Je dois ces renseignements à Aephraim Steinberg, directeur du centre pour l’information quantique
et le contrôle quantique à l’université de Toronto. La cohérence d’une telle optique classique ne
porte pas, à mon avis, sur les débats philosophiques des années 1980 sur le « réalisme scientifique ».
Mais elle porte sur l’un des trois « points de blocage » qui (selon moi) distinguent les constructionnistes sociaux des anti-constructionnistes : la thèse de la contingence (I. Hacking, Entre Science et
réalité : la construction sociale de quoi ?, Paris, La découverte, 2001). Pour paraphraser ce que j’ai
écrit p. 112, l’optique aurait pu se développer de manière non-quantique à partir de 1904 – sans
Einstein – et elle aurait pu réussir tout aussi bien que l’optique quantique pendant au moins 70
ans, jusqu’en 1975. À mon avis, c’est peut-être le meilleur exemple pour illustrer un contingentisme
véritable, et non pas simplement imaginaire, dans un aspect fondamental de la physique.
33.Dans une interview publiée par la revue Sciences et avenir, j’ai dit que Becquerel avait créé l’effet
photoélectrique. C’est imprécis : il l’a produit, il l’a observé sans savoir exactement ce qu’il observait, mais il ne l’a pas créé (au sens où il en aurait produit la première occurrence dans l’histoire de
­l’univers).
215
Revue Tracés n° 11 – 2006 / 1
Passons au laser. Le mot est un sigle anglais, Light Amplification by Stimulated
Emission of Radiation. Un laser transforme la lumière incidente, composée d’un
mélange de fréquences, en un faisceau de lumière hautement amplifiée et cohérente,
c’est-à-dire avec une seule fréquence, et dont tout la lumière a la même phase. J’ai dit
que ce phénomène de « lasing » n’existait pas dans l’univers avant 1950. Aujourd’hui,
il y a des lasers partout dans le monde industriel, dans tous les lecteurs de CD ou
de DVD. J’affirme que ce sont les physiciens qui ont créé ce phénomène – pour la
première fois dans l’univers – vers 1950.
Certains physiciens contestent cette affirmation. L’objection est formulée de deux
manières. Première version (1) : comment puis le savoir ? Peut-être existe-t-il, dans
un coin ou un autre de l’univers, un dispositif naturel qui produit de la lumière cohérente à la manière d’un laser. Oui, c’est possible en principe, mais j’en doute. De plus,
il est presque certain que c’est notre espèce qui a créé ce phénomène. Deuxième version (2), platonicienne : ce phénomène existe dans les lois de la nature qui perdurent
au moins depuis le Big Bang. En réalité, je me méfie profondément de cette image du
monde. C’est l’image qui sert de fondement au principe anthropique. Premièrement,
il y eut la forme des lois de la nature, mais sans que soit fixée la valeur des paramètres
figurant dans les équations – sans que soient données la vitesse de la lumière, ou la
valeur de la constante de Planck, par exemple. Deuxièmement, il y eut ces valeurs,
insérées dans les équations. C’est le mythe de la création de l’univers en deux étapes.
Ou bien, si cela évoque trop un créateur qui aurait choisi les paramètres de notre univers, on embrasse la théorie de l’univers pluriel, le multiverse : tous les univers, avec
toutes les valeurs possibles pour les paramètres, existent. Le nôtre n’est qu’un univers
particulier parmi cette multitude des univers. Mais la forme des lois existe de toute
éternité. Une forme qui se justifie, peut-être, par des principes de symétrie. À mon
avis, ce n’est pas une vision théologique, mais un rêve anthropomorphique. Si nous
étions les architectes de l’univers, nous l’aurions fait comme cela. Vision noble de
Leibniz ! Dans cette vision, c’est comme si dieu avait créé toutes les choses possibles,
y compris le phénomène du laser, depuis le commencement des temps, simplement,
on ne postule pas ce dieu, on laisse tout à un dieu logique qui préfère les idéalités de
la symétrie. Le rêve de Kepler. Le rêve de Platon. Les rêves les plus nobles, parmi les
mythes qui sont notre héritage. Mais des rêves tout de même.
Je ne veux pas contester ces images, ces mythes, ces rêves. Je voudrais simplement
affirmer que cette deuxième version de l’objection contre ma doctrine de la création
des phénomènes, porte avec elle tout cet héritage métaphysique. Retournons à la
première version. Bien sûr, il n’est pas absolument absurde de postuler qu’il a pu
exister un laser avant son invention humaine au milieu du vingtième siècle. Mon
argument est plus fort dans le cas du condensat de Bose-Einstein. Je dis que c’est
nous qui l’avons créé, pour la première fois dans l’histoire de l’univers, en 1995.
216
La philosophie de l’expérience : illustrations de l’ultrafroid
Comment puis-je le savoir ? Parce que le température de fond de l’univers est de
3 degrés Kelvin, et que la BEC n’existe que tout près du zéro absolu. Qu’il s’agisse
d’un nanokelvin ou d’un millikelvin, cela importe peu : il s’agit de températures qui
existent uniquement dans les laboratoires.
Voilà un but du laboratoire : la création de phénomènes, et le condensat de Bose
en est une illustration capitale.
Les rapports entre théorie et expérience, ou plutôt entre des modèles,
à différents niveaux, et des expériences
Après ce sermon assez long et assez pieux sur la création des phénomènes, je voudrais passer plus rapidement sur des sujets philosophiques plus familiers. J’ai essayé
de les rendre déjà implicites dans l’exposition de la partie A. Il ressort clairement
de l’histoire de la physique des basses températures qu’il existe des rapports assez
divers entre la théorie et l’expérience. L’expérience a toujours été en tête sur la supra­
conductivité, de Kammerlingh Onnes en 1911 à aujourd’hui, tant qu’il n’y avait
pas de compréhension théorique de la supraconductivité aux températures élevées,
c’est-à-dire à 150 K. Au contraire, la théorie a toujours été en tête dans le cas de la
BEC, jusqu’en 1995.
La philosophie des sciences a toujours tendance à considérer le rapport entre
théorie et expérience comme ne faisant pas partie de l’histoire. En effet, les ­rapports
diffèrent au cours de l’évolution des sciences spécifiques. J’adore ce passage du
chimiste Humphry Davy (1778-1829) en 1805 :
« Les fondements de la philosophie chimique sont l’observation, l’expérimentation
et l’analogie. Par l’observation les faits sont distinctement et précisément imprimés
dans l’esprit. Par l’analogie, les faits similaires sont reliés. Par l’expérimentation
des faits nouveaux sont découverts et, dans la progression du savoir, l’observation
guidée par l’analogie conduit à l’expérimentation puis l’analogie confirmée par l’expérimentation devient vérité scientifique. » 34
Lucidité incomparable et justesse – pour la chimie de son époque. Karl Popper exagère la situation en ce qui concerne la physique de son époque à lui, mais pour éviter
de vaines controverses, disons que dans l’ensemble de la physique de 1935, la théorie
domine. Mais il était nécessaire d’affirmer que dans beaucoup de cas, « l’expérience a
une vie de soi-même ». 35 En physique comme dans beaucoup d’autres sciences, ces
débats appartiennent au passé. Il n’y a pas de priorité de l’un ou d’autre.
34.Humphry Davy, Elements of Chemical Philosophy, Londres 1812, p. 2. Pour une citation plus
complète, voir Concevoir et expérimenter, p. 250 (Representing and Intervening, p. 152).
35.Concevoir et Expérimenter, p. 127.
217
Revue Tracés n° 11 – 2006 / 1
Ma thèse est que la BEC illustre une situation de plus en plus commune dans la
physique de notre temps : la théorie et l’expérience sont inextricables, inséparables
l’une de l’autre. En visitant les grands laboratoires, j’ai eu des conversations qui
ressemblaient à peu près à ceci. Au sous-sol, où l’on trouve les laboratoires (parce
que c’est là qu’il y a le moins de vibrations, la température la plus stable, parce
que les appareils sont lourds), on me dit : nous avons de la chance ! Nous avons au
quatrième étage une équipe théorique qui nous comprend, qui peut répondre à nos
questions. Déterminer les régions où nous devons chercher les observations les plus
informatives… Au quatrième étage, on me dit : nous avons de la chance ! Nous avons
au sous-sol une équipe expérimentale qui nous comprend, qui peut répondre à nos
questions, fournir les données afin d’ajuster nos modèles…
Nous avons parlé des théories, un mot qui désigne les hypothèses les plus générales sur la nature. Nous devons à Nancy Cartwright d’avoir attiré l’attention des
philosophes sur les modèles au lieu des théories. Elle et son école avaient raison 36.
En feuilletant à peu près n’importe quel ouvrage sur le condensat de Bose, on ne
trouve pas de présentation des théories. Même chose pour les interventions dans les
colloques. On a des gaz dilués, on fait des modèles d’interactions entre deux corps,
et après cela, entre trois corps. (Les historiens de la mécanique céleste se souviennent
de la théorie des perturbations : la stratégie est la même.) Il n’y a pas simplement
des modèles des choses sur lesquelles porte la recherche, les modèles du fonctionnement des appareils sont tout aussi importants. Par exemple, que se passe-t-il lors
du refroidissement laser ? Il y a des modèles à chaque niveau de la recherche, commençant par des modèles très locaux, particuliers à une expérience et à ses appareils
spécifiques. On passe ensuite à des modèles de plus en plus généraux. Mais dans
la vie expérimentale ces modèles n’existent pas isolés et au-dessus de l’expérience.
À chaque niveau on trouve des rapports inextricables.
Des révolutions dans les science : une affaire du passé ?
De la stabilité et de la surprise
Les méthodologies officielles d’une époque, ou du moins celles qui sont révérées, sont
des miroirs des sciences du moment. Celles de Humphry Davy reflétaient ses propres
procédures dans ses recherches en chimie. Le dogme de la réfutation chez Popper
traduisait le bouleversement de l’espace de Newton par celui d’Einstein, l’abandon
du déterminisme universel par la théorie quantique – les événements de la jeunesse
de Karl Popper qui ont enflammé son imagination. La génération suivante, celle
de Thomas Kuhn, a dit que c’était plus qu’une réfutation : ce sont des révolutions
36.Nancy Cartwright, How the Laws of Physics Lie, Oxford University Press, 1983.
218
La philosophie de l’expérience : illustrations de l’ultrafroid
dans nos systèmes de pensée. Les connaissances a priori d’Emmanuel Kant, l’espace
absolu et la causalité déterministe ont été remplacés par le relativisme et le probabilisme. C’est dans ce contexte que tout le monde a pensé en termes de révolution,
et que Thomas Kuhn a formulé sa structure des révolutions scientifiques : la science
normale – un paradigme – des anomalies – une crise – sa résolution par un nouveau
paradigme – une nouvelle science normale. C’était en 1962, il y a presque un demisiècle. Son livre a préparé le programme des philosophes, historiens et sociologues
des sciences pendant des années.
Kuhn suggérait que des révolutions sont nécessaires pour une science : sans révolutions, pas de nouveautés, et la science se flétrit. Et il définit un type de révolution
qu’on peut nommer kuhnienne, avec une structure bien déterminée. Kuhn a-t-il
raison ? Parlons simplement de la physique, qui nous a donné des cas exemplaires
de révolutions kuhniennes, et à laquelle il a consacré un livre 37 (sur la révolution
planckienne des corps noirs). Ce qui est remarquable dans la physique, après 1962,
ce ne sont pas les réfutations ni les révolutions, mais au contraire la stabilité et la
croissance. C’est une histoire de la science cumulative. Mon idée est que nous ne
devons pas nous attendre en physique à de nouvelles révolutions de type kuhnien.
Quand j’ai exprimé cette position, en France, en Allemagne ou au Canada, mes
auditeurs ont été un peu choqués. La chose mérite d’être soulignée. Kuhn lui-même
a établi le paradigme pour la science, une science coupée de temps en temps par une
mutation révolutionnaire. Ne soyons pas trop consternés : en réalité, ma conjecture
n’est pas si audacieuse – j’ai simplement dit qu’il n’y aurait sans doute plus d’événements futurs présentant une structure kuhnienne. En physique, le phénomène le plus
remarquable depuis cinquante ans est le remarquable succès des prédictions. On a fait
de grands investissements au CERN pour trouver le W-boson – et on l’a trouvé en
1983. Aujourd’hui, toujours au CERN, on fait des efforts comparables pour trouver
le boson de Higgs, et tout le monde est confiant : on va le trouver.
On m’a objecté que nous avons besoin des révolutions pour résoudre le problème
de la masse manquante dans l’univers. Ou pour parvenir à une théorie complète
qui unifie la gravitation dans un monde quantique. On espère que la théorie des
cordes deviendra de plus en plus empirique et qu’elle pourra fournir des solutions.
Le succès d’une telle théorie sera révolutionnaire ! D’accord, mais parle-t-on d’une
révolution de type kuhnien ? Je crois que non. Ma proposition, cette idée que l’ère
des révolutions en physique est terminée, n’est pas exactement sérieuse. Je voudrais
surtout sonner le réveil : nous, philosophes, nous devons penser la stabilité, pas les
37.T. S. Kuhn, Black-Body Theory and the Quantum Discontinuity, 1894-1912, Oxford, Clarendon,
1978.
219
Revue Tracés n° 11 – 2006 / 1
réfutations et les révolutions. Nous restons faillibilistes, dans le style poppérien. Mais
le concept approprié est la surprise.
Prenons par exemple la petite histoire du succès inattendu du refroidissement par
laser, dont j’ai parlé au § 5. La théorie du refroidissement Doppler prédisait les résultats obtenus par Chu et par Cohen-Tannoudji. Mais William Phillips a démontré que
c’était une prévision illusoire. Grande surprise à deux niveaux. Premièrement, parce
qu’il existe un phénomène imprévu, l’effet Sisyphe, expliqué par Cohen-Tannoudji.
Deuxièmement, parce qu’habituellement les appareils marchent toujours moins bien
qu’on ne l’attend ; or dans ce cas, la nature est trop gentille et ils marchent mieux.
Grande surprise. Ce n’est pas exactement une réfutation. C’est de la découverte.
Une thèse de Pierre Duhem, très généralisée
Il y a un siècle, dans son chef d’œuvre sur la philosophie des sciences, La Théorie
physique, Pierre Duhem (1861-1916) a soutenu qu’une observation ne peut jamais
réfuter une théorie 38. Une théorie astronomique prédit qu’un phénomène céleste
doit être observé en un lieu et un temps prescrits d’avance. On braque le télescope,
mais on ne voit rien. Est-ce une réfutation ? est-il nécessaire de réviser la théorie ?
Non. On peut toujours modifier la théorie du télescope. Plus récemment, on a parlé
de la thèse Quine-Duhem, mais c’est une confusion. Quine parle de la possibilité
logique de la modification d’une partie des croyances pour en sauver une autre.
Duhem parle de la possibilité physique, ce qui est autre chose. Andrew Pickering
et moi-même avons généralisé la thèse de Duhem. On peut modifier la théorie du
fonctionnement du télescope, mais on peut aussi modifier le télescope lui-même.
J’ai répertorié quinze éléments du laboratoire que l’on peut modifier pour obtenir un
rapport stable entre des niveaux de théorie et des modèles, des appareils, des mesures
et des observations, et les données et leur analyse. La thèse est que tous ces éléments
sont des « ressources plastiques » qu’on modifie afin de donner du monde et de nos
productions une vision cohérente et stable 39.
L’histoire du refroidissement par laser illustre parfaitement cette thèse des
­ressources plastiques. On commence par un dispositif destiné à piéger les atomes, un
laser, etc. Ensuite, après les mesures de Phillips, on modifie la théorie de l’appareil,
et on finit par modifier l’appareil.
3 8.Pierre Duhem, La Théorie physique, son objet et sa structure, Paris : Chevalier et Rivière, 1906.
39.Ian Hacking, « The Self-Vindication of the Laboratory Sciences » in A. Pickering, Science as Practice
and Culture (Chicago : University of Chicago Press, 1991), p. 29-64. Andrew Pickering, The Mangle
of Practice, Chicago, 1995.
220
La philosophie de l’expérience : illustrations de l’ultrafroid
Les « boîtes noires » de Bruno Latour créées sous nos yeux
Nous ferons les expériences sur le plateau d’une table (§ 1). Une table à lasers n’est
pas une simple table ! La table elle-même repose sur des pieds antichocs permettant
de l’isoler des mouvements et des vibrations produits par exemple par les camions
circulant à l’extérieur. Comment obtient-on un pied antichoc ? On achète la table et
ses pieds à une société spécialisée. Tout le monde a une vague idée sur le fonctionnement de ces pieds, un piston, un coussin d’air, peut-être. Mais dans le détail, c’est
une boîte noire – coûteuse. Même si on les trouve d’occasion et à bon marché, une
série de quatre pieds coûtera au moins 2 000 euros.
Déjà du temps de Boyle et de la pompe à air, il y avait des fabricants d’instruments scientifiques à Paris, à Londres, et dans d’autres grandes villes. Aujourd’hui,
la concurrence fait rage et dans un laboratoire travaillant sur la BEC on trouve aussi
bien des appareils fabriqués en France qu’aux États-Unis ou en Chine. Sur la table à
lasers, il y a principalement des lasers, des lentilles et des miroirs, le plus souvent des
miroirs qui divisent un faisceau en deux, parce qu’il est nécessaire, en même temps
qu’on utilise un faisceau pour la manipulation, de vérifier constamment, avec l’autre
faisceau, que la lumière a les bonnes propriétés. Nous avons vu que les lasers sont
souvent achetés, en particulier dans le rouge, mais que d’autres, dans le bleu, sont
encore faits à la main au laboratoire. À une époque, c’était le cas pour tous les lasers.
Il y a un processus continuel de passage de l’état artisanal à l’état industriel. Les
appareils sont devenus des boîtes noires. Mais, aux expérimentateurs les plus intenses,
pas des boîtes absolument fermées. Eric Cornell raconte une leçon importante qu’il
a retenue de ses années d’apprentissage à Boulder.
« J’ai beaucoup appris aussi de Chris Monroe, un étudiant de Carl [Wiemann].
J’avais toujours détesté me plonger dans les entrailles des appareils qu’on achetait
tout faits, par peur de casser quelque chose. Chris n’avait jamais peur. Il partait du
principe suivant : si ce truc ne fait pas ce qu’on a besoin qu’il fasse, est-ce que ce
serait vraiment grave si jamais on le cassait ? » 40
Dans toutes les expériences que j’ai évoquées, les pièges à atomes sont faits à la main.
Ils sont assez grands, de la taille d’un ballon de football, même si les atomes sont
piégés dans le vide produit dans une petite boîte, pas noire, mais transparente, en
verre. Il faut régler les problèmes d’emplacement de tous les appareils auxiliaires, les
40.« I learned from Carl [Wiemann]’s student, Chris Monroe, as well. I had always been reluctant to
mess with the innards of a store-bought piece of equipment, lest I break something. Chris’ ever-fearless attitude was, if that gizmo isn’t doing what we need it to do now, how much worse off will we be
even if we do break it ? » (Eric A. Cornell, Nobel Lecture, 2001)
221
Revue Tracés n° 11 – 2006 / 1
caméras pour observer l’expansion du nuage atomique, par exemple. On s’efforce
donc de miniaturiser les pièges. L’équipe d’Alain Aspect à Paris a réalisé une « puce »
qui sert de piège atomique. Joseph Thywissen, qui a fait un postdoc à Paris, a emporté
une de ces puces parisiennes et l’utilise dans son laboratoire à Toronto. Voilà une
boîte « noire » – même si elle est littéralement transparente – qui est en cours de
transformation, qui passe du stade d’objet artisanal à celui d’objet industriel. Ce n’est
que le début – Thywissen essaie actuellement de construire une puce plus appropriée
aux contraintes spécifiques de son expérience sur les mélanges bosons-fermions.
Des phénomènes quantiques macroscopiques
On trouve dans les remarques de Fritz London, après 1945, une fascination pour
la possibilité d’« observer » des phénomènes quantiques. Cela sonne comme une
contradiction criante, mais en fait cela a du sens. Dans la BEC tous les bosons sont
dans le même état fondamental. Habituellement, la superposition des fonctions
d’ondes est très complexe, mais quand toutes les ondes sont identiques, la superposition donne une grande onde : on peut « voir » la fonction d’onde de Schrödinger,
simplement comme la moyenne des myriades d’ondes des atomes.
Selon certaines spéculations, pour l’instant plus exotiques que bien fondées,
on pourrait produire un chat de Schrödinger macroscopique, c’est-à-dire un état
macroscopique qui serait dans une superposition analogue à « mort » et « vivant ».
Mais au niveau microscopique, c’est une réalité. C’est même un champ très actif dans
la physique des ions, à cause de l’intérêt suscité par la computation quantique. Pour
prendre un exemple récent, une équipe du NIST au Colorado vient d’annoncer un
« chat » de six ions froids de béryllium, qui sont à la fois dans l’état de « spin-up »
(vivant) et de « spin-down » (mort) 41.
La BEC suggère donc une interprétation qui rend la théorie quantique moins
abstraite et plus proche de nous. Nous n’entrons pas dans le monde quantique, mais
le monde quantique se rapproche de plus en plus de l’échelle des êtres humains. Ici,
la physique se rapproche de la métaphysique.
Mais elle se rapproche aussi de la théorie de la connaissance. J’ai demandé à un
expérimentateur très connu : que voulez-vous dire quand vous parlez des ondes
quantiques macroscopiques ? Après une longue réflexion, il m’a répondu : c’est
macroscopique quand je peux le voir ! Dans Concevoir et expérimenter, je posais la
question « voit-on avec un microscope ? » (Je répondais oui). Voit-on des phénomènes quantiques, ou est-ce simplement une façon de parler ?
41.D. Leibfried et al., « Creation of a six-atom “Schrödinger cat” state », Nature, 438 (1er décembre
2005), p. 639-642. Ici la science est devenue de plus en plus « grande » – Cette lettre à Nature a 13
auteurs.
222
La philosophie de l’expérience : illustrations de l’ultrafroid
Questions sur le changement conceptuel : qu’est-ce qu’une molécule ?
Le mot « atome » est ancien, mais le mot « molécule » a son origine dans la nouvelle
science du xviie siècle. On trouve une définition en 1674, comme « partie très petite
d’un corps ». En 1803 : « Petite partie organique, prétendue animée, d’un corps. »
Encore en 1901, Henri Poincaré qualifiait de « molécule » ce que nous appelons
« électron » : « Les phénomènes électriques sont dus à certains petits corps matériels,
extrêmement ténus et chargés d’électricité [...]. Ces molécules matérielles sont des
corps solides qui se déplacent sans se déformer. » 42 Ce n’est qu’au début du xxe siècle
que notre usage est devenu définitif : « Ensemble électriquement neutre d’atomes
unis les uns aux autres par liaison chimique » (Le Petit Robert, qui affirme que cet
usage a vu le jour au début du xixe siècle – mais pendant un siècle l’usage plus général
était courant).
J’avais pensé que l’usage moderne serait permanent, mais non. Les chercheurs
qui travaillent actuellement avec les fermions froids (§ 7(a)) appellent les paires de
fermions des molécules. Leur liaison est extrêmement faible en comparaison avec la
liaison chimique : aux yeux des chimistes, ce ne seront jamais des molécules. Mais
de plus en plus, cette école de physiciens considère même les paires d’électrons – les
paires dites de Cooper qui sont à la base de la supraconductivité – comme des molécules. C’est presque un retour à Poincaré ! Mais on retient l’idée que les molécules
sont des entités composées, soit d’atomes, soit d’électrons. La nouveauté, c’est que les
liaisons entre les entités qui composent la molécule peuvent être de n’importe quel
sorte ou force. On suggère qu’il faut repenser même la nature de la liaison chimique.
Deborah Jin (note 27) dit aujourd’hui qu’il est évident que les paires de fermions
sont des molécules « dans le sens ordinaire du mot » mais dans ses articles publiés
autour de 2002, elle se montrait réticente envers cette idée. Le travail avec ces paires
de fermions a changé la manière de les conceptualiser.
Les « signatures » de la condensation Bose-Einstein :
fait de nature ou fait de société ?
Pendant les années 1990, la question de la construction sociale de la connaissance
scientifique a été portée sur le devant de la scène. L’affaire Sokal, qui en est l’emblème,
a fait grand bruit. Dans le chapitre 3 de mon livre sur la construction j’ai distingué
trois grands « points de blocage » qui opposent les constructionnistes à la position
réaliste et traditionnelle de la plupart des physiciens. Tous les trois sont des variations
sur des thèmes philosophiques qui n’ont jamais trouvé de résolution définitive – le
42.Henri Poincaré, Électricité et optique, 2e éd., Paris : Gauthier-Villars, 1901, p. 422.
223
Revue Tracés n° 11 – 2006 / 1
nominalisme, par exemple. L’incompréhension perdure entre les deux parties, parce
qu’au fond les différences reposent sur des questions non tranchées en philosophie.
Il serait utile de recourir à des exemples moins grandiloquents, où tout le monde
peut comprendre à la fois la tentation d’un constructionnisme modeste et celle d’un
naturalisme modeste. J’ai déjà mentionné un tel exemple.
À la fin du § 6, j’ai parlé des signatures de la BEC. Je demandais si le choix des
images canoniques était déterminé par la nature ou par un hasard de l’histoire. Qui
a voulu que la première image, celle de Boulder, s’impose ? La Nature, ou la Société,
sous la forme d’une équipe travaillant au Colorado, dont les résultats ont été acceptés
par la communauté des chercheurs Bose-Einstein (qui était une petite communauté,
en 1995) ? On a ici sous une forme très nette une question concernant la construction
sociale dans une science. Une question petite, et nette parce que petite. Elle ouvre
un champ nouveau pour la réflexion sur les phénomènes que nous créons en laboratoire. Leurs critères d’identité portent une très grande charge théorique, comme
nous l’avons dit plus haut (au § 8). Mais aussi ils portent ce qu’on peut appeler une
charge lourde « de signal ».
On recherche un signal caractéristique prouvant qu’on a vraiment produit le
phénomène. Souvent le signal se présente de lui-même. Pour Becquerel, dans le
cas de l’effet photoélectrique, le signal indiquant qu’il avait produit quelque chose
de nouveau et d’inattendu était la différence de potentiel entre les deux électrodes :
l’une des deux seulement était illuminée. Surprise ! Un siècle plus tard, on peut
expliquer ce signal par une émission d’électrons sous l’effet d’un faisceau de photons
de fréquence appropriée. Aujourd’hui, l’effet de surprise a disparu, l’effet photo­
électrique est un phénomène banal et les signaux très variés qui l’accompagnent ne
sont pas problématiques, en général. Mais comme pour beaucoup de phénomènes
nouveaux, il faut déterminer quels signaux sont fiables. On s’attendait à ce que les
paires de fermions ultrafroids soient superfluides. Le signal qui en fournit la preuve
est le treillis régulier des tourbillons. Dans l’argot des américains que j’ai écouté, en
anglais, en Allemagne, en Autriche et en France, c’est cela qui est the smoking gun
(l’arme à feu qui émet une volute de fumée qui prouve qu’on vient de s’en servir) 43.
L’indice décisif, le signal.
J’ai parlé de six atomes dans l’état du « chat de Schrödinger ». La détection d’un
tel état est très subtile : un signal direct est en principe impossible, parce qu’il détruirait la cohérence du système. Donc, les signaux qui confirment la création (le mot
43.Pour un exemple antérieur dans le même champ de recherche, voir « Fermionic first for conden­
sates », sur la recherche présentée ci-dessus (cf. note 29). Physics World, March 2004 : « The JILA
result is the “smoking gun” of a fermionic condensate. »
224
La philosophie de l’expérience : illustrations de l’ultrafroid
des auteurs) de ce phénomène sont très subtils et leur interprétation comme ayant
valeur de preuve demande toujours l’acceptation de la communauté.
À mon avis, le concept du signal décisif est mi-social, mi-naturel. Pour la définition de ce signal, nos modèles concernant la nature du phénomène sont déterminants, mais il y a aussi une part de choix : on préfère un signal très évident pour
un observateur humain. Entre le social et la nature il y a aussi les instruments. Les
signaux possibles sont déterminés par les types d’appareils employés et par leur histoire, qui est bien sûr contrainte par la nature, mais aussi par l’histoire particulière
d’un laboratoire et par ses traditions, par son financement, par les connaissances
implicites des chercheurs, etc.
Dans ses études magistrales sur la physique des hautes énergies, Peter Galison a
parlé de l’« événement en or » – parmi des milliards des évènements qui sont registré
dans la mémoire de l’ordinateur concernant une expérience, on trouve un événement
qui démontre sans la possibilité d’un doute la chose, la particule, ou le phénomène
que l’on cherche 44. Les événements en or sont analogues aux signaux décisifs, et il
y a un mélange caractéristique de détermination par la nature et par le choix social.
On note ici un vague relent d’anti-réalisme, mais ce n’est pas grave.
Cependant, nous ne sommes pas très éloignés d’un anti-réalisme fort. Bas van
Fraassen a donné trois conférences à Paris en avril 2005. Il a adopté (en le reconnaissant explicitement) l’expression de « création des phénomènes » que j’avais utilisée en
1983 dans Concevoir et expérimenter. Mais son empirisme (version sophistiquée du
positivisme d’Auguste Comte) est anti-réaliste. Pour lui, je crois, le « phénomène »
dans mon exemple des fermions ultrafroids, c’est la séquence des photographies de
tourbillons. On la trouve, par exemple, dans les deux articles de Nature du 23 juin
2005 (cf. notes 28, 29 ci-dessus). Ce ne sont pas des phénomènes de la phénoménologie, ils sont matériels, reproductibles. Les termes que nous employons pour
désigner ces configurations qu’on voit sur les photographies – même le mot « tourbillon » –, sont porteurs d’éléments théoriques. Pour moi, et pour les physiciens, le
phénomène, c’est la superfluidité. Les tourbillons réguliers sont des phénomènes qui
sont produit dans un condensat superfluide. Van Fraassen proteste qu’on ne peut
pas affirmer que ces phénomènes (dans le sens que j’ai indiqué) aient une existence :
ni les tourbillons ni la superfluidité. (On les accepte parce qu’ils sont adéquats pour
l’organisation de la théorie, mais on n’affirme pas leur existence.) Les choses qui
existent sont plus que des configurations sur des photographies. Et elles ne sont
pas, dans sa doctrine positiviste, un signal des vrais tourbillons dans une substance
ultrafroide et superfluide.
44.« Golden Event », Peter Galison, Image and Logic: A Material Culture of Microphysics, Chicago,
1992.
225
Revue Tracés n° 11 – 2006 / 1
Les enquêtes par analogie. De l’ultrafroid à l’ultrachaud (les étoiles à
neutrons). Des cristaux aux treillis optiques
Au xixe siècle, l’analogie était au cœur de tous les traités sur la méthodologie de
la science. Nous avons cité Humphry Davy, « Les fondations de la philosophie
chimique sont l’observation, l’expérience et l’analogie » (note 4). Là où les philo­
sophes du xxe siècle parlent de l’induction, ceux du xixe parlent de l’analogie. Ainsi
pour A. A. Cournot (1801-1877), l’induction n’est qu’une simple extrapolation,
une affaire d’habitude et de coutume chez Hume. Dans les science, au contraire,
le raisonnement par analogie s’élève par l’observation des rapports à la raison des
choses 45. À ma connaissance, le seul philosophe un peu distingué qui ait donné un
traitement sérieux et soutenu à l’analogie, dans la deuxième moitié du xxe siècle, est
Mary Hesse 46.
L’analogie elle-même désigne beaucoup de choses. Je m’intéresse à ce qu’elle
appelle l’analogie matérielle, mais dans un sens très spécifique : il s’agit d’analogies
structurelles entre une espèce de choses et une autre. On ne met pas l’accent sur le
raisonnement logique, mais sur la recherche matérielle. Un premier exemple est
fourni par la postérité des idées de Rudolf Grimm (note 30 ci-dessus). Le combustible des étoiles à neutrons, ce sont les paires de fermions, les paires d’électrons.
L’expérimentation sur les étoiles est évidemment impossible, et la physique de cette
combustion est presque inconnue. Mais l’analogie entre les paires froides et les paires
chaudes fournira, on l’espère, une clé pour comprendre les étoiles à neutrons.
Cela, c’est pour le futur. Passons à quelque chose de plus récent, et qui reste
­d’actualité : le treillis optique, optical lattice. Un cristal est un corps solide qui présente une forme géométrique bien définie, caractérisée par une répartition régulière
et périodique des atomes. La forme typique est celle d’un treillis en trois dimensions.
Un treillis optique est un « cristal » artificiel, constitué non pas d’atomes, mais de
lumière. Quand on oriente deux faisceaux de lumière laser de même fréquence dans
des directions opposées, la zone d’interférence produite à la rencontre entre les deux
faisceaux présente une alternance de raies claires et sombres, dont la période est
la moitié de la longueur d’onde. Avec six lasers, on produit un tel treillis en trois
dimensions. On l’utilise pour piéger les atomes des gaz quantiques froids. Mais les
45.A. A. Cournot, Essai sur les fondements de nos connaissances et sur les caractères de la critique philosophique, Hachette, 2 volumes, 1851, § 46 - § 49.
46.Mary Hesse, Models and Analogies in Science, London, Sheed and Ward, 1963 (édition courante,
University of Notre Dame Press, 1966). Elle commence par un dialogue imaginaire entre Duhem
et N. R. Campbell, un philosophe anglais qui, comme Duhem, était également un physicien. N. R.
Cambell, Physics, the Elements, 1920, réédition Foundations of Science, New York, Dover, 1954.
226
La philosophie de l’expérience : illustrations de l’ultrafroid
mathématiques de ces treillis sont empruntées aux mathématiques des cristaux. Il
est possible qu’on puisse utiliser ces treillis optiques pour comprendre les problèmes
posés par les cristaux physiques, par exemple dans la supraconductivité à haute température. En bref, on cherche à découvrir les propriétés d’une substance complexe,
difficile à manipuler et à modifier, en travaillant sur une substance analogue qui est
très facile à contrôler. Ce n’est pas l’argument par l’analogie mais l’enquête par l’analogie, presque une sonde analogique.
En conclusion
Pour conclure, je voudrais souligner que j’ai choisi un champ très animé de la
recherche physique contemporaine. Il est certain que d’autres champs peuvent
fournir des illustrations également précieuse. En mettant l’accent sur l’expérience,
on oriente les philosophes vers des directions nouvelles, qui ne sont pas inconnues
dans une philosophie plus abstraite, mais avec des aspects plus proches de ce qu’est
vraiment la science. On n’a pas une image des théories et des modèles organisés
selon une simple hiérarchie de complexité, mais des modèles de différents aspects
de la recherche. On s’occupe non pas des grands thèmes du constructionnisme et
du réalisme scientifique, mais de questions plus concrètes et donc plus susceptibles
de recevoir des réponses, par exemple sur les signaux des phénomènes. On gagne
une conception plus immédiate du monde quantique quand on pose la question :
voit-on ce monde quantique quand on regarde les ondes dites macroscopiques ?
Quels sont les principes des enquêtes par analogies, des sondes analogiques ? Est-il
vrai que la physique est entrée dans une nouvelle phase, où l’expérience et la modélisation sont absolument inextricables ? Face à toutes ces questions et à d’autres que
j’ai abordées, je n’ai donné que des prolégomènes à des recherches philosophiques à
venir. Ils suffisent, je l’espère, à faire entrevoir la richesse de ce champ, la philosophie
de l’expérience dans la physique.
227
Téléchargement