Un boson plus célèbre que connu

La découverte, longtemps attendue, du fameux « boson de Higgs », et le prix Nobel dont elle a déclenché l’attribution, ont fait les titres de la presse et des médias. Pour bien comprendre leur réelle signification, il faut les mettre en perspective.

Rarement un prix Nobel de physique aura été aussi peu inattendu que celui qui a été décerné au mois d’octobre 2013 au Britannique Peter Higgs et au Belge François Englert « pour la découverte théorique d’un mécanisme qui contribue à notre compréhension de l’origine de la masse des particules subatomiques ». Un peu plus d’un an auparavant, le CERN, le laboratoire européen pour la recherche en physique des particules, annonçait avoir identifié une particule susceptible d’être le fameux « boson de Higgs » impliqué par le mécanisme défini par les deux physiciens en 1964, il y a donc cinquante ans. Au mois de mars 2013, cette identification était confirmée. Le boson de Higgs, dont on cherchait à établir l’existence depuis plusieurs décennies, constitue une pièce fondamentale du « modèle standard » de la physique des particules. Sa mise en évidence expérimentale est unanimement considérée par les physiciens comme un développement de première importance, qu’ils n’hésitent pas à appeler avec emphase « la découverte du siècle ». L’attribution de la distinction scientifique suprême aux auteurs des travaux qui ont conduit à cette découverte était donc prévisible. Mais il n’y pas que la communauté scientifique qui ait accueilli la nouvelle sans véritable surprise. Le public des profanes familiers de la science n’avait pas davantage de raisons de s’étonner. Depuis des années, la presse spécialisée et générale, la télévision et internet, se faisaient régulièrement l’écho de la chasse au boson dans laquelle les physiciens et ingénieurs du CERN étaient lancés. Objet d’une campagne d’information d’une ampleur inhabituelle pour des recherches dans un domaine aussi éloigné de l’expérience quotidienne, campagne professionnellement menée par les services de communication du centre européen et relayée par ceux de nombreuses universités et organisations nationales de recherche, le boson de Higgs était devenu la particule élémentaire la plus célèbre du monde, la seule que beaucoup de ceux qui l’évoquaient étaient en mesure d’appeler par son nom. Lorsque son existence a été confirmée, la nouvelle a quasiment fait la une des journaux. Et au cours des mois qui précédaient et ont suivi la première annonce officielle, toute une série d’ouvrages de vulgarisation sur le sujet ont été publiés. Beaucoup d’entre eux étaient de nouvelles éditions mises à jour de livres parus quelques années auparavant, preuve que l’intérêt suscité par le célèbre boson ne datait pas de la veille. Explications, histoire (« history ») et histoires (« stories ») Qu’est-ce que le boson de Higgs ? Pourquoi l’appelle-t-on ainsi ? En quoi sa découverte-elle est-elle importante ? Quelles questions permet-elle de résoudre et quelles autres laisse-telle ouvertes ? Avec plus ou moins de détails et de précisions, tous ces livres récents sur le sujet s’emploient à répondre à ces questions. Ils le font à l’aide d’un mélange d’explications scientifiques, d’histoire (« history ») et d’histoires (« stories »), en proportions variables selon le type d’ouvrage et le profil de l’auteur. S’ils racontent tous la même histoire, ces livres le font en effet chacun à sa manière. Certains se concentrent sur les aspects scientifiques. C’est par exemple le cas de El bosón de Higgs, de Alberto Casas et Teresa Rodrigo et LHC : le boson de Higgs, de Michel Davier, tous deux rédigés par des chercheurs directement associés aux travaux concernés, ainsi que de Higgs Discovery, de Lisa Randall, une physicienne théoricienne américaine : trois ouvrages denses qui n’en restent pas moins remarquablement clairs. Die Entdeckung des Unteilbaren, de Jörg Resag, Higgs Force de Nicholas Mee, et Le Boson et le chapeau mexicain de Gilles Cohen-Tannoudji et Michel Spiro, sont des exposés très fouillés et techniques de l’état des connaissances dans l’ensemble de la physique des particules. Il bosone di Higgs, de Corrado Lamberti, est un entretien de lecture plus aisée avec un vulgarisateur réputé de la physique. D’autres ouvrages font davantage de place à l’histoire des sciences, aux anecdotes et à la personnalité des protagonistes. The Infinity Puzzle, de Frank Close, offre, racontée de l’intérieur par un physicien qui en a été un acteur, le meilleur récit de l’histoire du modèle standard depuis l’extraordinaire The Second Creation de Robert P. Crease et Charles C. Mann, en 1996. Les mêmes événements sont relatés dans trois livres de scientifiques devenus des vulgarisateurs professionnels : La Particule de Dieu, de Jim Baggott, Massive par Ian Sample et Higgs, le boson manquant de Sean Carroll, tous les trois largement traduits. Ne coïncidant qu’en partie par leur contenu, ces livres différent également par le style et la langue. Le ton retenu de Frank Close contraste avec celui, plus robuste et musclé, de Ian Sample et Jim Baggott ; et à la langue sobre et claire de Davier, de Randall et des deux auteurs espagnols, on opposera le style familier, plus journalistique de Carroll, légèrement exalté et plein de cet enthousiasme juvénile dont témoignent souvent les Américains lorsqu’ils s’expriment au sujet de la science et de la technologie – il se marque notamment par une forte propension à user et abuser de ces adjectifs contre lesquels la femme de Frank Wizleck, un autre grand artisan de la construction du modèle standard, « écrivain accompli », selon l’intéressé, mettait ce dernier en garde : « incroyable », « stupéfiant », « merveilleux », « époustouflant » et « extraordinaire ». Un surnom ridicule et malheureux Un point qui fait l’unanimité est le caractère ridicule et malheureux du surnom dont a été affublé le boson de Higgs, « God Particle », littéralement « Particule-Dieu » (et non « Particule de Dieu » comme on le traduit souvent, expression qui aurait eu pour équivalent « God’s Particle »). Tous les physiciens sont d’accord pour regretter l’usage sensationnaliste qui a été fait par la presse et les médias de cette expression malencontreusement employée par le prix Nobel Leon Lederman en guise de titre d’un ouvrage publié en 1993, une histoire de la physique des particules racontée de manière très personnelle avec beaucoup de verve et d’humour. Lederman a toujours prétendu que le titre lui avait été imposé par son éditeur en substitution de celui qu’il a avait proposé, « The Goddam Particle », qu’on retrouve dans celui de l’édition française du livre, Cette sacrée particule. Mais il soutient aussi que le surnom n’est pas sans justification, parce qu’il met bien en lumière l’importance singulière du boson de Higgs dans l’édifice théorique du modèle standard. Dans un ouvrage plus récent, Beyond God Particle, écrit avec un autre collaborateur que le premier, Lederman, que les controverses au sujet de cette expression ont toujours laissé imperturbable et qui ne manifeste pas le moindre regret de l’avoir mise en circulation, ne l’utilise plus dans le corps du texte, tout en la conservant, comme on le voit, dans le titre. Une des difficultés auxquelles on se heurte lorsque l’on veut expliquer la signification de la découverte du boson de Higgs est qu’il est impossible de l’appréhender correctement sans avoir une certaine idée de l’histoire de la physique au cours des cent dernières années. Cette histoire pourrait aisément être décrite comme celle du long chemin qui a conduit du modèle simple d’un atome composé d’un noyau constitué de protons et de neutrons autour duquel gravitent des électrons, à la construction complexe qu’est le modèle standard. Dans l’état actuel des connaissances en physique, la matière est constituée, au niveau le plus élémentaire, de deux grandes classes de particules, les « leptons » ainsi nommé d’après le terme signifiant « léger » en grec, et les « quarks », baptisés de ce nom étrange par celui qui en a imaginé l’existence, l’Américain Murray-Gell-Mann, en référence à un passage du roman de James Joyce Finnegans Wake évoquant trois mystérieux « quarks », à une époque où l’on pensait que ces particules étaient au nombre de trois. On sait aujourd’hui qu’il y en a en réalité six types différents, généralement désignés par leurs noms en anglais : « Down », « Up », « Strange », « Charm », « Bottom » et « Top » (les deux derniers sont également respectivement appelés, en termes plus poétiques, « Beauty » et « Truth »). Il existe aussi six sortes de leptons, dont les électrons, les muons et les neutrinos. Les quarks sont les composants de particules subatomiques non-élémentaires, dites pour cette raison « composites » et appelées les hadrons, qui se répartissent en deux familles : les baryons, c’est-à-dire les protons et les neutrons, et les mésons. Contrairement aux leptons, les quarks n’existent pas à l’état libre. Nécessairement confinés dans les hadrons, ils font de ceux-ci des particules composites indécomposables. La physique distingue d’un autre côté quatre forces fondamentales, correspondant à quatre interactions entre particules : l’interaction électromagnétique, combinaison de l’électricité et du magnétisme, qui se manifeste dans de nombreux phénomènes familiers comme la lumière, les réactions chimiques et toute l’électronique ; l’interaction forte, qui assure la cohérence des noyaux des atomes ; l’interaction faible, à l’origine de certains phénomènes de désintégration radioactive, et la gravitation. Toutes ces interactions opèrent par l’intermédiaire de l’échange d’une autre classe de particules appelées « vecteurs de force ». Ce sont les photons pour l’interaction électromagnétique, les gluons pour l’interaction forte et les bosons W et Z pour l’interaction faible. On fait l’hypothèse qu’existerait pour transmettre la gravité une particule, jamais observée, appelée « graviton ». Bosons et fermions Les photons, les gluons et les particules W et Z sont des bosons. Ce nom fait référence à celui du physicien indien Satyendranath Bose, et il leur a été donné parce que leur comportement collectif obéit à la statistique dite « de Bose-Einstein ». À cette classe de particules s’oppose celle des fermions, d’après le nom d’Enrico Fermi, qui obéissent à la statistique de Fermi-Dirac. Les bosons sont des particules de spin entier, les fermions de spin demi-entier. Le spin est une grandeur associée à toutes les particules, qu’elle définit en combinaison avec d’autres grandeurs comme la masse ou la charge électrique. Au cours de la seconde moitié du XXème siècle, il a été démontré que les interactions électromagnétique et faible pouvaient être unifiées en une interaction plus fondamentale appelée électrofaible. On essaie aujourd’hui d’unifier celle-ci et l’interaction forte. Ce qu’on appelle le modèle standard est le cadre théorique permettant de rendre compte de tous les phénomènes liés aux trois interactions électromagnétique, forte et faible. À ce jour, il laisse de côté l’interaction gravitationnelle. Celle-ci relève en effet d’une des deux grandes théories générales de la physique, la relativité générale, qu’en dépit de nombreuses tentatives les physiciens n’ont pas encore réussi à réunir de manière cohérente avec l’autre grande théorie, la mécanique quantique, dont relève le modèle standard. Dans son état actuel, celui-ci postule l’existence de six types de leptons et six de quarks, soit douze fermions, et cinq types de bosons : le photon, le gluon, les deux bosons W et Z et le fameux boson de Higgs, qui joue dans l’ensemble de cette construction un rôle très particulier. Comme dit Sean Carroll, le boson de Higgs est important « moins pour ce qu’il est que pour ce qu’il fait ». Le boson de Higgs est la particule associée à un champ appelé « champ de Higgs », présent dans tout l’espace. Par l’intermédiaire d’un mécanisme postulé par Peter Higgs et cinq autres physiciens, l’interaction avec le champ de Higgs confère une masse aux bosons vecteurs de l’interaction faible, les bosons W et Z. Théoriquement, ceux-ci, à l’instar des autre bosons, le photon et le gluon, devraient être dépourvus de masse. Mais il se trouve qu’ils en possèdent une, un fait qu’il s’agit d’expliquer. Le mécanisme imaginé par les six chercheurs le permet, et la découverte du boson de Higgs confirme qu’il est bien à l’œuvre. Mais ce n’est pas tout. Par l’intermédiaire d’un autre mécanisme (le couplage de Yukawa), le boson de Higgs confère de surcroît et surtout leur masse aux leptons et aux quarks. Symétrie Pourquoi les bosons W et Z ne devraient-ils normalement pas avoir de masse ? Pour répondre à cette question, il faut faire un détour par une série de considérations d’un caractère technique sur une notion fondamentale en physique et assez abstraite, celle de symétrie. Les principes de symétrie, disait Eugen Wigner, sont aux lois de la physique ce que les dispositions de la constitution d’un État sont aux lois ordinaires : des super-lois sur lesquelles les secondes sont basées et qui les contraignent. La notion de symétrie des objets est familière : un visage est symétrique dans son organisation, comme le plan d’une église selon son axe longitudinal, un cube est symétrique selon les trois axes de l’espace, etc. Appliquée à des lois, l’idée de symétrie est l’équivalente de celle d’invariance. Comme le résume très bien Steven Weinberg, « une loi de la nature peut être dite symétrique sous un certain aspect si cette loi ne change pas lorsque l’on modifie le point de vue d’où l’on observe un phénomène ». Par exemple, les lois de la gravitation universelle de Newton sont invariantes selon la translation et la rotation (elles demeurent les mêmes si on fait tourner les objets sur eux-mêmes ou si on les déplace parallèlement à eux-mêmes le long d’un axe). En 1918, dans un théorème fameux d’immense portée et aux conséquences profondes, la mathématicienne allemande Emmy Noether a montré qu’à chaque groupe de symétrie était associé un des grands principe de conservation de la physique, et réciproquement : le principe de la conservation de l’énergie, par exemple, à la symétrie de translation dans le temps, celui de la conservation de l’impulsion à la symétrie de translation dans l’espace et celui du moment cinétique à la symétrie de rotation dans l’espace. La symétrie associée à la mécanique newtonienne est une symétrie de l’espace-temps, et une symétrie globale, puisqu’elle est appliquée à tous les points de celui-ci. Mais il y a aussi des symétries dites « internes », qui s’appliquent à des objets particuliers (par exemple, un champ) et des symétries locales, qui s’appliquent indépendamment en chaque point de l’espace. Les symétries impliquées dans la théorie des trois interactions, électromagnétique, faible et forte, sont des symétries locales internes. On les appelle « symétries de jauges », expression opaque et peu compréhensible de l’aveu même des physiciens, qui déplorent souvent que l’usage l’ait imposée. Après des années de travail, il a été démontré que chacune des trois interactions mentionnées obéit à un type particulier de symétrie de jauge associé à un groupe donné de transformations mathématiques. Ces symétries requièrent que les particules servant de transmetteurs de force soient de masse nulle. C’est le cas du photon et du gluon, mais pas des bosons W et Z, dont il a été montré qu’ils ont une masse. Avec l’interaction faible, on se trouve donc dans un cas de figure assez fréquent en physique appelé « brisure de symétrie ». Un phénomène de ce genre s’observe notamment dans le cas de phénomènes magnétiques, de supraconductivité ou de superfluidité où, passé un certain seuil, par exemple une certaine température, un système cesse de manifester les caractéristiques de symétrie qu’il exhibait. En 1960, le physicien américain d’origine japonaise Yoichiro Nambu émettait l’hypothèse qu’une brisure de symétrie spontanée, c’est-à-dire ne requérant pas l’intervention d’une force extérieure, pouvait se produire en physique subatomique. Il jetait là les fondements de toute une série de travaux qui allaient conduire cinquante ans plus tard à la découverte du boson de Higgs. En réalité, parler de symétrie brisée dans un cas comme celui-ci n’est pas très heureux, et l’expression « symétrie cachée » (d’ailleurs parfois employée dans ce contexte) serait ici plus appropriée. La symétrie n’a en effet pas disparu, simplement elle ne se manifeste pas. « Dans le cas d’une symétrie brisée », dit très bien Steven Weinberg, « les solutions des équations [auxquelles obéit le système observé] ne respectent pas les symétries des équations elles-mêmes ». Images et comparaisons Pour aider les profanes à comprendre cette idée de brisure de symétrie, les physiciens recourent volontiers à toutes sortes d’images ou de comparaison tirées de l’expérience commune, qu’utilisent à leur suite les auteurs des livres sur le boson de Higgs. Il est possible, fait-on par exemple remarquer, de se faire idée de ce qu’est un système sujet à brisure de symétrie en considérant un crayon posé sur sa pointe. Une fois tombé, le système qu’il forme avec son environnement immédiat n’est plus symétrique. Ou une table dressée pour un dîner de gala, sur laquelle tous les couverts et les petits pains sont disposés de manière parfaitement symétrique, chaque petit pain séparant deux assiettes : à un moment donné, l’un des convives s’empare d’un petit pain situé, soit à la gauche de son assiette, soit à sa droite, déclenchant un mouvement général dans le même sens, qui brise la symétrie. Ou encore un chapeau mexicain au sommet duquel une bille est placée en équilibre instable. Lorsqu’elle tombe, elle est arrêtée par les bords recourbés du chapeau et se met à circuler à l’intérieur de la rigole qu’ils forment. Le système est stable, mais il n’est plus symétrique. Comme toutes les images, celles-ci peuvent être utiles, mais elles sont aussi trompeuses, parce qu’elles laissent nécessairement échapper certaines caractéristiques du phénomène que l’on souhaite expliquer. On le vérifie également dans le cas de celles qui ont été employées pour faire comprendre comment le champ de Higgs confère leur masse aux bosons W et Z, aux leptons et aux quarks. On a comparé le champ de Higgs à une mélasse épaisse, qui ralentirait les corps qui y circulent, processus présenté comme l’équivalent de l’acquisition d’une masse. L’image est justifiée par le fait que la viscosité d’un liquide est inversement proportionnelle à sa température, et que dans les millionièmes de seconde qui ont suivi le Big Bang, dans l’Univers primordial encore extrêmement chaud, le champ de Higgs avait une valeur nulle : la brisure de symétrie ne s’est manifestée qu’avec son refroidissement. Mais cette image est en toute rigueur inadéquate, et donc trompeuse, parce qu’elle tend à faire oublier le fait que dans les systèmes physiques considérés, l’interaction avec le champ de Higgs ne ralentit pas du tout les particules en déplacement, qui circulent toujours à la même vitesse. Close, Carroll, Sample et Baggott racontent l’histoire du concours d’explications du boson de Higgs à l’attention des non-physiciens lancé par le ministre de la recherche britannique William Waldegrave dans le but de convaincre ses collègues du gouvernement de l’opportunité de financer la construction du LHC, la machine conçue pour réaliser sa découverte. Le prix promis au gagnant était une bouteille de champagne millésimé, payée de sa propre poche par le ministre. La compétition fut remportée par un physicien britannique nommé David Miller, qui recycla en l’adaptant à un public de politiciens une explication imagée qu’il avait employée face à des journalistes. Madame Thatcher Dans sa version originale, l’histoire invitait à s’imaginer une salle remplie d’hommes en conversation. À un moment donné, une femme resplendissante pénètre dans la pièce. Les hommes s’agglomèrent immédiatement autour d’elle, ralentissant sa progression en un processus analogue à celui de l’acquisition d’une masse par les particules élémentaires du fait de leur interaction avec le champ de Higgs. Dans la version proposée au ministre, l’entrée de la belle femme dans une salle pièce bondée d’hommes fut remplacée par celle de Madame Thatcher dans un local où se presseraient des parlementaires. Pour aider les politiciens à visualiser, non le processus d’acquisition de leur masse par les particules élémentaires, mais le boson de Higgs lui-même (également doté d’une masse), Miller les engageait à se représenter les effets d’une rumeur se propageant dans la pièce où se trouvent rassemblés les parlementaires : ceux-ci se regroupant à proximité de l’endroit d’où elle part, des agrégats de parlementaires se forment et se déplacent en même temps que la rumeur. Bien qu’elle ait aidé les ministres britanniques à mieux comprendre la nature du boson de Higgs, cette double image est aussi insuffisante à capturer la nature de cette particule, du champ auquel elle est associée et du mécanisme qui lui est lié que celle de la mélasse, et pour les mêmes raisons. Qu’on le veuille ou non, les réalités exprimées dans le formalisme mathématique de la physique ne peuvent être adéquatement saisies que dans les termes de ce formalisme, et toute compréhension basée sur des analogies tirées de l’expérience sensible ordinaire ne sera jamais, au mieux, qu’une approximation. De manière générale, les auteurs de livres de vulgarisation cités réussissent à éviter la simplification excessive. On ne peut en dire autant des journalistes, qui tombent facilement dans ce piège. On a ainsi entendu certains d’entre eux déclarer que le boson de Higgs était à l’origine de la masse des objets physiques. Comme on l’a vu, le mécanisme auquel il est associé confère effectivement leur masse aux quarks et aux leptons. Mais la masse des atomes n’est que pour une faible part constituée par celle de ces deux catégories de particules, qui n’en représente qu’une partie très réduite. Pour l’essentiel, la masse des atomes est concentrée dans le noyau, constitué de protons et de neutrons. Et la masse de ceux-ci n’est pas avant tout celle des quarks qui les composent (qui est faible), elle est le produit de l’énergie de liaison des quarks par l’intermédiaire des gluons (qui sont sans masse) : comme on le sait depuis Einstein, l’énergie et la masse sont des grandeurs équivalentes. Ici comme souvent, ce qui est présenté comme une simplification à des fins pédagogiques s’avère donc en réalité une contre-vérité. Une question étudiée en détail dans tous les livres sur le boson de Higgs est celle des raisons pour laquelle il est ainsi nommé et de la justification d’une telle appellation, dont Peter Higgs lui-même n’est guère satisfait. « Le boson ainsi nommé d’après moi » dit-il modestement ; et pour désigner le mécanisme dit « de Higgs », il emploie volontiers l’expression, peu commode il faut le reconnaître, l’acronyme étant imprononçable, « mécanisme ABEGHHK’tH », qui se réfère aux noms des physiciens Anderson, Brout, Englert, Guralnik, Hagen, Higgs Kibble and ‘t Hooft, qu’on peut considérer comme ayant également contribué à sa définition. Plus fréquemment, le mécanisme en question est simplement appelé « mécanisme BEH », d’après les initiales des noms des trois chercheurs officiellement consacrés comme les véritables auteurs de la découverte, Hubert Brout, François Englert et Peter Higgs (si seuls les deux derniers ont été récompensés par le Prix Nobel, c’est qu’en 2013 Hubert Brout était malheureusement décédé). Querelles de priorité Les querelles de priorité sont fréquentes en science. Dans le cas d’espèce, il existe un large accord sur la manière dont les choses se sont effectivement passées. Les six physiciens travaillaient séparément en trois groupes distincts : d’un côté Higgs, de l’autre Englert et Brout (relativement coupés de la communauté internationale de la recherche en physique des particules et nouveaux venus dans le domaine), enfin les trois autres en collaboration. Le premier article publié sur le sujet a été celui d’Englert et Brout. Très peu de temps après, Kibble, Guralnik et Hagen en publiaient un autre. Entretemps, Higgs en avait fait paraître deux. N’ayant pris connaissance des articles des trois autres chercheurs qu’au moment de mettre sous presse le leur, Kibble, Guralnik et Hagen n’eurent le temps que de les mentionner en référence, sans intégrer leur contenu. Un point important est que seul Higgs, dans un de ses deux articles, faisait référence, non au mécanisme aujourd’hui appelé BEH, mais à l’existence du boson associé au champ qu’il implique. Pour cette raison, il n’est pas complètement injustifié que ce boson porte son nom. Si c’est aujourd’hui le cas, la faute en revient en grande partie à Steven Weinberg, qui, dans un article de 1967 et d’autres postérieurs, fait référence à Higgs comme l’auteur du premier article sur le sujet. Weinberg reconnaît volontiers cette erreur, comme d’ailleurs plusieurs autres qu’il a commises : pour rendre compte de la brisure de symétrie de l’interaction électrofaible, il défendait un mécanisme alternatif, et il a longtemps douté de l’existence des quarks. Sans doute Weinberg estime-t-il à juste titre sa réputation assez solidement établie pour qu’elle n’ait pas à souffrir de semblables aveux. L’histoire du boson de Higgs soulève à nouveau la question épineuse de la part d’arbitraire intervenant dans l’attribution des prix Nobel. En 1965, le prix Nobel de physique a été accordé à Richard Feynman, Julian Schwinger et Sin-Itiro Tomonoga pour leurs travaux fondateurs en électrodynamique quantique. Bien des observateurs ont déploré qu’ait ainsi été oublié le mathématicien britannique de Princeton Freeman Dyson, dont l’apport avait pourtant été déterminant, puisque c’est lui qui avait démontré l’équivalence mathématique des formalismes différents utilisés par les trois physiciens. Mais la règle du Prix Nobel est inflexible : trois lauréats au maximum peuvent être distingués. Dans le même esprit, Frank Close rappelle la contribution substantielle fournie par John Clive Ward à l’élaboration de la théorie de l’unification des interactions électromagnétique et faible, pour laquelle seuls Sheldon Lee Glashow, Abdus Salam et Steven Weinberg ont été récompensés. Lorsque la nouvelle a été connue, parmi les télégrammes qu’a reçus Salam en figurait un qui contenait uniquement les quatre mots « Widely Admired Richly Deserved » (W.A.R.D.), trait d’humour dans lequel il est difficile de ne pas percevoir une nuance d’ironie amère. Dans le cas du mécanisme de Higgs aussi, l’attribution du prix Nobel aux seuls Higgs et Englert a pu sembler un peu injuste. Compte tenu de ce que l’on sait de l’ordre de succession des articles, et les règles en la matière étant ce qu’elles sont, elle n’est cependant pas complètement dépourvue de fondement. Un chemin pavé de prix Nobel On a aussi fait remarquer qu’il était un peu étonnant qu’un an et demi après la mise en évidence du boson de Higgs, les membres de l’Académie suédoise des sciences aient jugé bon de distinguer les théoriciens dont les travaux ont rendu possible cette découverte, plutôt que les expérimentateurs qui l’ont effectivement réalisée. Ne faut-il pas voir là une nouvelle preuve du privilège accordé, de manière générale, aux théoriciens par rapport aux expérimentateurs, associés dans l’esprit de beaucoup à des activités moins prestigieuses ? Après que les bosons W et Z eurent été mis en évidence au CERN, le prix Nobel de physique a pourtant été attribué à Carlo Rubbia, qui emmenait une des deux équipes d’expérimentateurs à l’œuvre, et Simon van der Meer, qui avait mis au point la technique utilisée pour réaliser les collisions. Mais on notera que la plupart des physiciens impliqués dans le développement de la théorie que l’existence des bosons W et Z était censée valider avait déjà été récompensés. Comme on l’a vu, dans le cas du boson de Higgs, la situation était différente. L’équipe d’expérimentateurs à l’honneur était par ailleurs dirigée d’une main ferme par un homme à la forte personnalité et aux grands talents d’organisateur, Carlo Rubbia, qu’il était donc aisé d’identifier comme son responsable. Tel n’était pas le cas des équipes engagées dans la chasse au boson de Higgs, qui fonctionnaient sur un mode résolument démocratique et qu’il aurait donc fallu récompenser en entier, fait remarquer Sean Carroll, l’alternative étant de distinguer Lyn Evans, le principal concepteur du LHC. Peut-être, suggère à ce propos Carroll, serait-il temps d’envisager de changer les règles des prix Nobel scientifiques, en ouvrant la possibilité de les attribuer à des collaborations plutôt qu’uniquement des individus, en plus grande conformité avec le fonctionnement largement collectif de la recherche scientifique contemporaine. Dans l’attente d’une telle révolution, on ne peut que relever à quel point le chemin qui mène à la découverte du boson de Higgs est littéralement pavé de prix Nobel. À côté de tous ceux déjà évoqués, il faut citer ceux attribués à Murray Gell-Mann pour la théorie des quarks, à Martinus Veltmann et Gerard ‘t Hooft pour avoir montré que la théorie électrofaible est « renormalisable », c’est-à-dire qu’on peut éliminer des calculs les quantités infinies qui apparaissent dans les équations, et à Frank Wilczek et David Gross pour la découverte de la « liberté asymptotique » dans l’interaction forte, soit la propriété paradoxale des quarks de voir leur énergie de liaison décroître lorsqu’ils sont proches les uns des autres et croître lorsqu’ils s’éloignent, ce qui explique leur confinement à l’intérieur des hadrons. Certains de ces lauréats sont des personnages hauts en couleur, par exemple Carlo Rubbia, un homme bouillonnant d’énergie et très controversé. Mais tous sont intéressants à connaître, parce qu’il est toujours éclairant de découvrir les hommes qui se cachent derrière les idées. Dans les ouvrages sur le boson de Higgs qui font le plus de place à l’histoire des sciences et aux petites histoires (ceux de Lederman, Close, Baggott et Sample - qui consacre un grand nombre de pages à Peter Higgs lui-même), on trouvera, brossés avec plus ou moins de talent et de perspicacité, et inégalement développés, des portraits de toutes ces personnalités. Le plus puissant accélérateur de particules au monde Si le boson de Higgs a été découvert au CERN, c’est parce que cette organisation de recherche exploite ce qui est aujourd’hui le plus puissant accélérateur de particules au monde, le LHC (Large Hadron Collider). Décrit avec lyrisme par plusieurs des auteurs comme la plus grande et complexe machine jamais construite par l’homme, le LHC est un collisionneur de protons circulaire de 27 kilomètre de circonférence. Il est en service depuis 2008 dans un tunnel enfoui à cent mètre de profondeur sous le sol de la France et de la Suisse à proximité de Genève. Ce tunnel abritait auparavant un autre accélérateur, moins puissant, le LEP, un collisionneur électrons-positons, qui a été démonté pour permettre son installation. Pour « découvrir » des particules comme le boson de Higgs, qui n’existent pas naturellement, il faut en effet les produire en faisant se heurter à très hautes énergie d’autres particules. Le pouvoir de résolution augmentant avec l’énergie des collisions, plus celle-ci est élevée, plus il est possible de pénétrer dans l’intimité de la matière. L’histoire de la physique des particules au cours des dernières décennies pourrait donc être écrite comme, parallèlement à celle des hypothèses et des théories, l’histoire des accélérateurs, de plus en plus puissants : de 1930 à aujourd’hui, ils ont gagné huit ordres de grandeur. De manière générale, les collisionneurs de hadrons (protons-protons ou protons-antiprotons) permettent d’atteindre des énergies plus élevées, et les collisionneurs électrons-positons d’effectuer des mesures plus propres et précises. Parce que ces derniers sont des particules élémentaires, leurs interactions sont effet plus simples que celles auxquelles donnent lieu les chocs des hadrons, qui sont des particules composites. Dans le LHC, les protons, après avoir été accélérés successivement dans deux machines plus petites, circulent à une vitesse presque identique à celle de la lumière. Pour leur imprimer une trajectoire circulaire, on recourt à plusieurs milliers d’aimants supraconducteurs qui, pour fonctionner, doivent être constamment refroidis grâce à de l’hélium liquide à une température de 1,9 ° K (-271,3° C), très proche du zéro absolu des températures, ce qui a fait dire qu’il était le lieu le plus froid de la terre et même de l’univers, le vide intergalactique étant à une température, légèrement plus élevée, de 2,7 ° K. Le Désertron Le LHC n’était pas destiné à devenir la plus puissante machine expérimentale de recherche en physique des hautes énergies de la planète. À la fin des années 80’, le gouvernement américain avait décidé de lancer la construction d’un accélérateur circulaire bien plus grand encore, de 87 kilomètres de circonférence. Des travaux de forage dans le désert du Texas avaient même commencé. Après que 23 kilomètre de tunnel eurent été creusés, le chantier de cette machine appelée Superconducting Super Collider (SSC), et surnommée « Désertron » du fait de sa localisation, a été définitivement fermé. Le principal promoteur du projet était Leon Lederman, alors directeur du Fermilab, près de Chicago, qui exploite aujourd’hui le Tevatron, le second plus puissant accélérateur au monde après le LHC. Un de ses avocats les plus fervents était Steven Weinberg. Tous deux déplorent encore aujourd’hui l’abandon du projet, qui a privé les États-Unis de la possibilité de regagner le leadership que leur avait fait perdre la découverte des bosons W et Z par les Européens, et du prestige d’une nouvelle découverte historique. Pourtant, le Président américain Reagan avait pu être convaincu des mérites de l’entreprise. Ainsi que le rapporte Ian Sample, il avait communiqué son accord d’une manière énigmatique et insolite, en lisant un texte attribué à Jack London, dont seule la première phrase - « Je préférerais être cendre que poussière » - peut en réalité être garantie authentique. Soutenu par le successeur de Reagan, George H.W. Bush, le projet SSC fut interrompu par le Congrès pour une série de raisons combinées : l’escalade des coûts, qui étaient passés de 4 à 12 milliards de dollars, l’hostilité des physiciens favorisant l’emploi de machines plus petites, et la concurrence de la Station Spatiale Internationale (ISS), encore plus chère mais perçue comme plus prestigieuse - concurrence double, en vérité, l’ISS, piloté depuis Houston, étant également considéré pour cette raison comme un projet « texan ». Le coût de construction du LHC n’est pas beaucoup moins important que celui de l’accélérateur américain, puisque qu’il s’est finalement élevé à quelque 7,5 milliards d’euros. L’obtention de l’accord des pays européens contribuant au budget de l’organisation n’a pas été facile. L’Allemagne était réticente, tout comme le Royaume-Uni, où certains avaient même plaidé un temps pour le retrait du pays de l’organisation. Comme le rappelle Frank Close, le projet a pu bénéficier d’un heureux concours de circonstances. Comme le SSC, le LHC était explicitement conçu en vue de la découverte du boson de Higgs. On avait de bonnes raisons de penser que cette découverte allait se solder par un ou plusieurs prix Nobel, dont un pour le savant dont le boson porte le nom, qui est britannique. Il se trouve de surcroît que William Waldegrave, alors ministre anglais de la recherche, était député de Bristol, la ville de naissance de Peter Higgs. Très intéressé par le projet pour cette double raison, il décida de l’appuyer. Et c’est pour convaincre les autres membres du gouvernement qu’il imagina le petit concours évoqué plus haut. Trous noirs et « strangelets » La quête du boson de Higgs sur le LHC a fait l’objet d’attention dans les médias bien avant d’être couronnée de succès, et même avant d’être lancée, lorsque des rumeurs sans fondement se sont propagées au sujet de la possible création, dans la machine, de minuscules trous noirs susceptibles d’engloutir la terre entière. Pour y couper court, la direction du CERN a mis en place à deux reprises un comité d’expert, explicitement chargé d’évaluer les chances d’occurrence d’un scénario catastrophique. Dans les deux cas, leurs conclusions, prévisibles, furent qu’on pouvait exclure cette possibilité. Frank Close, Michel Davier et Sean Carroll évoquent en passant cet épisode, et Ian Sample raconte en termes circonstanciés un épisode comparable qui a eu lieu une dizaine d’années auparavant lors de la mise en service d’un nouvel accélérateur au laboratoire national américain de Brookhaven, dans l’État de New York. Dans les deux cas, plusieurs types de scénarios apocalyptiques ont dû être écartés. À côté de la création de microscopiques trous noirs, la crainte avait en effet été exprimée que les collisions conduisent à celle de « strangelets », des blocs de matière dans l’état dit « étrange », normalement instable, qui pourraient se combiner avec la matière ordinaire pour la transformer à leur image, ou bien d’un vide quantique différent du vide ordinaire, ou encore de « monopôles magnétiques », particules hypothétiques possédant une charge magnétique unique, qui pourraient désintégrer les protons autour d’eux. C’est le niveau élevé des énergies mises en cause qui était soupçonné d’être la source du risque. La réponse des scientifiques a été de faire valoir que les rayons cosmiques qui bombardent la terre en permanence y produisent depuis quatre milliards d’années des collisions à des niveaux d’énergie souvent très supérieurs à celui des grands accélérateurs, et que le fait que nous sommes là pour le constater est la preuve qu’elles sont sans conséquences. Si de telles spéculations alarmistes ont pu être émises, on le notera, c’est notamment du fait de la propension des scientifiques à s’exprimer, par souci de rigueur, en termes de probabilités, et de leur réticence à formellement exclure dans les formulations qu’ils emploient, même en s’adressant à un public profane, un événement de probabilité tellement infime qu’on peut la tenir en pratique pour nulle. « La probabilité de création de « strangelets », ironisait Frank Close dans un entretien, « est aussi peu élevée que celle de gagner trois semaines de suite le premier prix à la loterie. Le problème est que les gens croient que ceci est possible ». À l’instar de beaucoup d’autres particules élémentaires ou composites, les bosons de Higgs ont une durée de vie extrêmement brève, de l’ordre de quelques fractions de seconde, et se désintègrent presque immédiatement en un certain nombre d’autres particules. On ne les observe donc pas directement, mais on infère leur existence de l’étude des produits de leur désintégration, voire de la désintégration de ces derniers. Les millions d’événements ainsi réalisés sont longuement analysés par les physiciens qui y recherchent la signature de l’existence du boson. Les collisions à très haute énergie entre les paquets de protons circulant en deux faisceaux tournant en sens opposé dans la machine ont lieu à l’intérieur de vastes structures, les détecteurs. Deux détecteurs, respectivement appelés ATLAS et CMS sont installés sur le LHC. Le plus grand mesure 35 mètres de large, 55 mètres de long et 40 mètres de haut. Deux équipes, chacune composée de milliers de chercheurs, travaillaient sur ces détecteurs, largement en concurrence. Entre ces deux équipes, les informations n’étaient donc pas censées circuler. En pratique, il en allait très différemment. Ayant demandé à un chercheur du CERN s’il était exact que les membres de chacune des deux équipes ignoraient les résultats obtenus par ceux de l’autre, Sean Carroll s’entendit répondre : « Vous plaisantez ? La moitié des membres de l’équipe d’ATLAS couchaient avec la moitié de celle de CMS. Bien sûr qu’ils les connaissaient ! » Tous les chercheurs mobilisés dans la chasse au boson de Higgs sur le LHC ne travaillaient pas en permanence au CERN. La coordination des activités des milliers d’ingénieurs et de scientifiques physiquement répartis dans de nombreux pays associés à la construction et l’exploitation de l’accélérateur et des deux détecteurs représentait une opération d’une grande complexité. Michel Davier évoque en quelques pages ces aspects du fonctionnement de la recherche en physique des particules qui, souligne-t-il très justement, constituent un beau sujet d’étude pour les sociologues. De fait, ils mériteraient à eux seuls un ouvrage entier. Escalade des coûts Le LHC a été mis à l’arrêt pour y réaliser une série de travaux visant à augmenter encore sa puissance. Son exploitation dans ces conditions permettra d’acquérir de nouvelles données et de produire de nouveaux résultats. Mais la communauté internationale des physiciens voit déjà plus loin et planche sur deux projets d’accélérateurs encore plus puissants - deux collisionneurs linéaires électrons-positrons - qui sont actuellement en concurrence. Le plus avancé est l’ILC (International Linear Collider), d’une longueur prévue de 30 à 50 kilomètres. Le site de son installation n’a pas encore été choisi. L’autre est le CLIC (Compact Linear International Collider). Comme l’indique leur nom, les deux projets sont mis en œuvre en collaboration internationale. Le coût de l’ILC n’est pas encore connu, mais il pourrait avoisiner 20 milliards de dollars, soit plus du double de celui du LHC. Et si l’on ignore encore les caractéristiques de la machine qui sera proposée pour lui succéder dans quelques dizaines d’années, on sait au moins une chose à son sujet : elle sera encore plus puissante, donc encore plus grande, donc encore plus chère. Cette escalade des coûts des grands accélérateurs n’est pas sans soulever de sérieuses questions. Sommés de justifier les sommes considérables qu’ils demandent aux gouvernements de consacrer à leur construction, les physiciens soulignent les limitations qui affectent une autre technique d’investigation de la matière souvent présentée comme une alternative moins coûteuse aux accélérateurs, celle des détecteurs passifs de rayons cosmiques. Ils mettent aussi et surtout en avant les retombées de toutes sortes qu’engendrent les recherches en physique des hautes énergies, que plusieurs des auteurs de livres sur le boson de Higgs énumèrent à la fin de leur ouvrage, en appui à un vigoureux plaidoyer en faveur de la recherche en physique des particules : la construction des grandes machines a entraîné le développement de nombreuses technologies utiles, comme celle des aimants supraconducteurs ; le rayonnement synchrotron émis par les électrons en rotation peut être exploité pour l’étude des matériaux et en cristallographie des protéines ; le détecteur de particules inventé par le lauréat du prix Nobel George Charpak a donné lieu à des applications en imagerie médicale ; une méthode de traitement des cancers par radiothérapie, l’hadronthérapie, basée sur l’emploi de particules lourdes, a pu être mise au point grâce à l’existence des accélérateurs, et le système hypertexte World Wide Web, qui a fait d’internet l’outil de communication universel qu’il est aujourd’hui, est notoirement un sous-produit des activités menées au CERN, puisqu’il a au départ été imaginé pour permettre aux physiciens du laboratoire européen de partager des informations. On invoque aussi souvent les bénéfices des recherches conduites sur les grands accélérateurs en matière de formation. Comme le rappellent Michel Davier ainsi qu’Alberto Casas et Teresa Rodrigo, un tiers des personnes impliquées dans les deux vastes collaborations liées aux détecteurs ATLAS et CMS (un millier dans chaque cas) étaient de jeunes chercheurs. Considérations de prestige Si pertinents qu’ils soient, et si ostensiblement qu’ils soient invoqués dans les discours officiels, ce ne sont généralement pas des arguments de ce type qui déterminent les responsables politiques, au moment où se décident les budgets de la recherche, à consacrer à la physique des particules les moyens considérables dont elle a besoin. Au bout du compte, ce qui les motive, ce sont des considérations de prestige. Comme on l’a souvent relevé, il n’est pas tout à fait fortuit que le projet de SSC ait été abandonné peu de temps après l’effondrement de l’Union soviétique. En l’absence d’un adversaire à impressionner, il devenait moins crucial pour les États-Unis de démontrer leur supériorité scientifique et technologique. On cite souvent la célèbre réponse faite par le physicien Robert Wilson à un membre de la Commission des affaires nucléaires du Congrès qui lui demandait, lors d’une audition au sujet du projet de premier accélérateur du Fermilab, en 1967, s’il y avait quoi que ce fût dans ce projet qui fût important pour la sécurité du pays : « Non, je ne crois pas, [ce projet] n’a rien à voir avec la défense de ce pays, rien, sinon le fait qu’il le rend digne d’être défendu ». Cette déclaration est présentée par Leon Lederman et Sean Carroll comme un éloge de la valeur et de la grandeur de la recherche scientifique fondamentale, menée dans le seul but de faire progresser les connaissances et de repousser les frontières de l’inconnu, « pour l’honneur de l’esprit humain », pour utiliser la belle formule du mathématicien Jacobi. Il y a certainement un peu de cela. Mais il est difficile de ne pas entendre résonner aussi dans ces mots un appel à la fierté nationale. Si le CERN, créé, comme on sait, à la fin des années 50, pour aider l’Europe unie à se construire, bénéficie de la faveur des dirigeants politiques européens, c’est parce qu’ils voient en lui un porte-drapeau de la qualité de la recherche européenne face à la puissance scientifique américaine. Du fait de leur coût de plus en plus astronomique, l’ILC et les accélérateurs qui pourraient lui succéder seront nécessairement financés en collaboration mondiale. Sans concurrent ou adversaire en face d’eux, les pays concernés ne vont-ils pas un peu manquer de motivation pour les financer ? Il y a de toute manière certainement des limites aux moyens que les gouvernements sont prêts à consacrer à la recherche dans ce domaine. Steven Weinberg le reconnaît : la perspective que les secrets ultimes de la matière nous échappent parce que le prix à payer pour les percer serait trop élevé n’est pas totalement irréaliste. « Qui a commandé cela ? » Le modèle standard a permis de mettre un peu d’ordre dans un tableau qui se présentait au départ comme très complexe et anarchique, offrant du réel physique une image apparemment entachée d’un total arbitraire. Durant de longues années, le foisonnement de particules sans cesse plus nombreuses a laissé les physiciens déconcertés et irrités. « Jeune homme » a un jour répondu Fermi à un jeune physicien, « si je devais me rappeler le nom de toutes ces particules, je serais un botaniste ». On cite aussi souvent l’exclamation d’Isidor Rabi à l’occasion de la découverte du muon : « Qui a commandé ça ? » Et Willis Lamb n’hésitait pas à déclarer en plaisantant que « la découverte d’une nouvelle particule ne devrait pas être récompensée par le prix Nobel, mais punie d’une amende de 10.000 dollars ». En contraste avec le paysage peu compréhensible des débuts, le modèle standard élaboré au fil de décennies d’efforts permet d’apercevoir la logique à l’œuvre derrière de nombreux phénomènes, en fournissant pour les comprendre quelques principes d’organisation fondamentaux et des mécanismes explicatifs plausibles. Il s’en faut toutefois de beaucoup qu’on puisse le considérer comme le dernier mot de l’affaire. Pour cette raison, la plupart des ouvrages sur le boson de Higgs se concluent par des réflexions sur les perspectives qu’ouvre sa découverte, et sur l’avenir de la recherche en physique au-delà de celle-ci. Validé, consolidé et rendu cohérent par la démonstration de l’existence du boson de Higgs, le modèle standard de la physique des particules est de fait loin d’être complet et de tout expliquer. Pour commencer, il comporte 19 paramètres libres, dont la valeur ne peut donc pas être déduite des principes sur lesquels il repose, mais doit être déterminée expérimentalement. Il ne permet pas de rendre compte du nombre de particules élémentaires (pourquoi 12 fermions répartis en 3 générations ?), de leurs masses respectives ainsi que de celle des bosons, et des raisons pour lesquelles les unes et les autres différent parfois de plusieurs ordres de grandeur (le quark top, la particule élémentaire la plus massive, est 400.000 fois plus lourd que l’électron). Il ne contient par ailleurs rien qui permette de résoudre un certain nombre de grandes énigmes sur lesquelles bute aujourd’hui la physique. Matière noire et énergie noire La première est celle de la matière noire, qu’on pense cinq fois plus abondante dans l’univers que la matière ordinaire. Son existence a été postulée pour rendre compte d’une série d’observations astronomiques, notamment au sujet de la masse et du comportement de certaines galaxies. Mais elle n’a jamais été détectée et on ignore totalement sa composition. Différentes hypothèses ont été faites au sujet de la nature de cette matière exotique appelée « non-baryonique », improprement, puisqu’elle est définie comme différente d’une matière ordinaire composée non seulement de protons et de neutrons (qui sont effectivement des baryons) mais aussi d’électrons (qui sont des leptons) et de photons (qui sont des bosons). Des expériences de collisions de particules à des énergies supérieures à celle qui a permis la découverte du boson de Higgs pourraient aider à trancher entre ces hypothèses. Une d’entre elles implique l’existence d’une « supersymétrie » unissant en profondeur fermions et bosons, puisqu’à chaque fermion (de spin demi-entier) serait associé un boson « superpartenaire » de spin entier et à chaque boson (de spin entier) un fermion « superpartenaire » de spin demi-entier. La supersymétrie permettrait d’unifier les interactions électrofaible et forte, donc - la première étant le produit de l’unification des interactions électromagnétique et faible - trois des quatre interactions fondamentales. Une de ses caractéristiques est qu’elle implique l’existence de cinq bosons de Higgs. S’il s’avérait que cette hypothèse est fondée, ce qu’on découvert au CERN ne serait donc pas le boson de Higgs, mais un boson de Higgs. À côté de celle de la matière noire, une autre question irrésolue est celle de l’énergie noire, dont les physiciens ont été conduits à postuler l’existence pour expliquer que l’expansion de l’univers, loin de se ralentir progressivement sous l’effet de la gravité, comme on a longtemps pensé qu’elle elle faisait, s’accélérait, ce qui implique qu’une force répulsive s’oppose à celle de la gravitation. L’énergie noire est le plus souvent identifiée à la constante cosmologique, un paramètre qu’Einstein avait au départ introduit dans les équations de la relativité générale pour rendre compte du caractère statique de l’univers, mais qu’il en retira lorsqu’il se rendit à l’évidence qu’il était en expansion. Einstein a fameusement affirmé de l’hypothèse de la constante cosmologique qu’elle était la plus grande erreur qu’il avait commise dans sa vie. À présent que de nouveaux faits d’observation obligent à la ressusciter, fait remarquer Steven Weinberg, on pourrait soutenir que la plus grande erreur d’Einstein a été de penser qu’il commettait une erreur. La constante cosmologique est censée correspondre à la densité d’énergie du vide. Ainsi que l’ont mis en évidence les plus récentes observations cosmologiques satellitaires, l’énergie du vide telle qu’elle se manifeste à grande échelle est extrêmement faible, inférieure de 107 ordres de grandeur à la valeur à laquelle conduit l’application de la théorie quantique des champs, le cadre théorique dont relève le modèle standard. Un tel écart entre la valeur réelle et la valeur théorique résultant de ce qu’on a en conséquence rétrospectivement baptisé « la pire prédiction de l’histoire de la physique », ne laisse pas d’embarrasser considérablement cosmologistes et physiciens, tout comme, de manière générale, les difficultés à rendre compte de la matière noire et de l’énergie noire, qui, combinées, représentent tout de même apparemment 95 % de la densité totale d’énergie de l’univers. Ainsi que le fait judicieusement remarquer Pierre Papon dans son récent livre de prospective scientifique et technologique Bref récit du futur, il est en vérité possible que la matière noire et l’énergie noire s’avèrent un jour avoir été l’équivalent, pour la physique d’aujourd’hui, de ce qu’était l’éther pour les physiciens de la fin du XIXème siècle : une entité supposée réelle mais en réalité inexistante, et dont l’existence apparente s’est révélée le produit des insuffisances du cadre théorique à l’intérieur duquel les physiciens réfléchissaient, que la théorie de la relativité restreinte d’Einstein a, sinon complètement fait éclater, en tous cas très profondément renouvelé. Anges et Démons Qu’un renouvellement comparable du cadre théorique de la physique soit nécessaire aujourd’hui, d’autres éléments invitent à le penser. Le résidu de faits inexpliqués par le modèle standard et, plus largement, le dispositif théorique actuel de la physique, ne se limite en effet pas à la matière noire et l’énergie noire. À côté du caractère arbitraire de nombreux paramètres évoqué ci-dessus, on peut mentionner le fait que les neutrinos, selon ce qu’indiquent beaucoup d’observations, possèdent une masse, quand ils devraient en être dépourvus. Ou l’absence d’antimatière observable, à tout le moins en quantité qui ne soit pas infime. Une des implications de la célèbre équation de Dirac, qui a permis à celui-ci, en 1928, de rendre l’équation fondamentale de la mécanique quantique, l’équation de Schrödinger, compatible avec la relativité restreinte, était l’existence, à côté de l’électron, d’une particule de même masse et de même spin que lui et de charge électrique identique, mais positive au lieu de négative. Depuis lors, on sait que c’est le cas pour toutes les particules, qui possèdent chacune une antiparticule identique pour les deux aspects mentionnés (la charge et la masse), mais de signe opposé pour une série de valeurs, dont le spin. Ces antiparticules composent l’antimatière, qu’on n’a pu observer jusqu’à présent qu’à l’état de traces, dans les rayons cosmiques, au titre de produits de l’interaction de ceux-ci avec l’atmosphère terrestre, ou en laboratoire. La mise en contact de matière et d’antimatière se traduit par leur annihilation réciproque, caractéristique abondamment exploitée par les auteurs de romans et de films de science-fiction : dansAnges et Démons, de Dan Brown, une société secrète veut détruire le Vatican en utilisant une bombe d’antimatière volée au CERN. Ceci a conduit les physiciens à faire l’hypothèse que l’antimatière n’est pas présente dans l’univers observable. S’il y en avait, on assisterait en effet à des collisions épisodiques de galaxies de matière et d’antimatière, spectacle grandiose qu’on n’a jamais eu l’occasion de contempler. On est donc amené à conclure que l’antimatière a disparu de l’univers, ce qui implique, du fait du phénomène d’annihilation mutuelle mentionné, un léger excès de matière par rapport à l’antimatière dans l’Univers primordial issu du Big Bang ; par conséquent l’intervention d’une violation de symétrie, puisque les deux composantes sont censées être produites en quantités égales. Une violation du type nécessaire, appelée « violation de parité », a été observée dans certains réactions de désintégration. Associée à l’interaction électrofaible, elle a été incorporée dans le modèle standard. Mais elle y opère à un niveau insuffisant pour rendre compte de l’absence presque totale d’antimatière, qui reste donc inexpliquée. Supercordes Enfin et surtout, le modèle standard laisse complètement de côté la quatrième force, la gravitation, et ne contient rien qui permettre de résoudre le problème fondamental que pose l’incompatibilité de la relativité générale, qui régit les phénomènes de gravitation, et de la mécanique quantique, dont les lois gouvernent les trois autres interactions. Pour combler le fossé qui les sépare, un certain nombre de physiciens ont élaboré et proposé des constructions théoriques ambitieuses qui se présentent comme autant de solutions possibles au problème de la « grande unification » des deux théories. Après l’échec de plusieurs tentatives d’élaborer une théorie de la supergravité en étendant la supersymétrie à la gravitation, la théorie qui rallie aujourd’hui le plus de suffrages est celle des supercordes. L’idée de base est que ce que nous appelons les particules sont en réalité des espèces de cordes vibrant dans un espace-temps à de nombreuses dimensions. Il existe cinq variantes de la théorie des supercordes, qui impliquent toutes l’existence d’un espace-temps à dix dimensions (une de temps et neuf d’espace, les trois de l’espace qui nous est familier et six autres imperceptibles à nos sens et nos instruments, parce que repliées sur elles-mêmes). Récupérant certaines idées de la version la plus sophistiquée des théories de la supergravité qui ont été proposées puis abandonnées, Edward Witten et d’autres chercheurs ont réussi à unifier ces cinq variantes en une théorie unique, baptisée « théorie M » pour des raisons mystérieuses (toute une série d’explications plus ou moins plausibles de ce nom ont été avancées). Des objets clés de la théorie des supercordes sont les branes, qu’on peut définir comme les équivalents dans d’autres dimensions de ce que sont les membranes dans un espace à deux dimensions. Séduisante au plan mathématique, mais d’une grande complexité interne, la théorie des supercordes possède un caractère complètement spéculatif. Aucune expérience à ce jour n’a fourni le moindre indice qu’elle pourrait s’avérer fondée, et aucun dispositif expérimental n’a été proposé pour l’établir, non par défaut d’imagination des chercheurs, mais pour la simple raison que la théorie ne formule aucune prédiction susceptible d’être vérifiée ou invalidée (« Les théoriciens des cordes ne font pas de prédictions », ironisait Feynman, qui n’aimait guère cette théorie, « ils font des excuses »). « Même pas faux » Telle qu’elle a développée notamment par Leonard Susskind, Michael Green, John Schwarz, Edward Witten et Enrique Alvarez, la théorie des supercordes a pourtant séduit de nombreux chercheurs et a fini par devenir l’orthodoxie contemporaine en physique théorique. Elle a été présentée, souvent brillamment, dans une série d’ouvrages de haute vulgarisation très appréciés et largement lus comme ceux de Brian Greene, Michio Kaku et Lisa Randall. Mais elle a aussi été férocement attaquée par tous ceux qui ne peuvent accepter sa nature purement théorique et sa coupure radicale de toute possibilité de vérification expérimentale. Dans un ouvrage qui a fait grand bruit, Rien ne va plus en physique, Lee Smolin a analysé et dénoncé la façon dont elle s’est imposée et dont ses partisans ont réussi à dominer la recherche physique aux États-Unis, en commandant l’orientation des travaux, monopolisant les financements publics et décidant des carrières au point de stériliser toute approche alternative. La théorie des cordes est aussi une des principales cibles de l’ouvrage du commentateur de la physique Peter Woit Même pas fausse, ainsi nommé en référence au caractère invérifiable de ses affirmations, d’après une célèbre réflexion d’un des pères de la mécanique quantique, Wolfgang Pauli, réputé pour sa brutalité. À un jeune physicien dont il n’avait pas apprécié le travail et qui lui demandait son avis à son sujet, il est en effet censé avoir répondu : « Ce n’est même pas faux » - « Nicht einmal falsch ». (« Not Even Wrong » est aussi le nom du remarquable blog sur la physique et les mathématiques de Peter Woit). Dans le même esprit, dans son récent livre Farewell to Reality, Jim Baggott s’en prend avec vigueur à la théorie des supercordes et d’autres constructions de nature spéculative qu’il caractérise comme de la « physique de conte de fées », ainsi qu’à la façon dont ces théories sont présentées au grand public : « La diffusion continuelle de livres de vulgarisation scientifique et de documentaires télévisés susceptibles d’être perçus comme peignant la théorie des supercordes ou la théorie M comme des explications agréées de la réalité empirique sont au mieux trompeuses et au pire sujette à caution du point de vue déontologique ». Pace qu’il n’y a pas les supercordes. À côté de cette théorie et de la supersymétrie, moins éloignée du terrain expérimental mais à ce jour invérifiée, Peter Woit et Jim Baggott passent en revue plusieurs ensembles d’idées de caractère strictement théorique qui ont été émises dans l’espoir d’unifier le savoir physique. Lee Smolin, par exemple (ceci n’est sans doute pas complètement étranger à son animosité envers les supercordes), défend une théorie dite de la « gravitation quantique en boucle » en réalité tout aussi spéculative que celle qu’il a violemment attaquée. Elle est toutefois moins ambitieuse, puisqu’elle se contente d’essayer d’unifier la mécanique quantique et la relativité générale, sans complètement intégrer le modèle standard de la physique des particules. On fera la même observation au sujet de la théorie des « twisteurs » de l’Anglais Roger Penrose, théorie d’inspiration essentiellement mathématique élaborée à partir de la relativité générale, qui repose sur une géométrie complexe et originale et suppose une réinterprétation profonde de la mécanique quantique. Multivers Telle qu’elle est défendue par Edward Witten, la théorie des supercordes implique l’existence de très nombreux univers parallèles. Elle n’est pas la seule à postuler ainsi l’existence d’un « Multivers », un ensemble d’univers dans lesquels les lois physiques pourraient prendre des formes différentes et dont le nôtre, l’univers observable, ne serait qu’un parmi des millions d’autres. Dans son ouvrage La Réalité cachée, Brian Greene identifie neuf types différents de théories du « Multivers », dont la théorie des mondes multiples d’Hugh Everett reprise aujourd’hui par David Deutsch, celle du multivers inflationnaire qui implique qu’il y ait eu plusieurs Big Bang, la théorie des univers cycliques et celle du « paysage cosmique » avancée par Leonard Susskind. Absolument rien ne permet de vérifier l’existence de ces autres univers, a fortiori de déterminer combien sont réalisés parmi les milliards de milliards de types possibles d’univers différents dans la théorie des supercordes (ils correspondent à autant de manières, pour les six dimensions d’espace supplémentaires, de se replier sur elles-mêmes), ni combien d’univers existent au total, chaque type pouvant exister en de très nombreux exemplaires. En dépit de son caractère totalement hypothétique et quasiment philosophique, l’idée du Multivers a cependant réussi à séduire certains physiciens de premier plan, par exemple Steven Weinberg, également acquis à la théorie des supercordes. Et comme cette dernière, elle est souvent présentée dans les ouvrages de vulgarisation comme bien davantage qu’une simple idée. À l’exception de Sean Carroll, les auteurs des livres sur le boson de Higgs ne s’aventurent guère dans de telles spéculations. Lorsqu’ils évoquent la théorie des supercordes, c’est presque toujours dans des termes très généraux et avec une grande prudence - Lisa Randall elle-même, qui en est pourtant une fervente adepte, ne la mentionne même pas. Dans l’ensemble, ils s’en tiennent aux perspectives d’avenir à court terme de la recherche en physique des particules. De tous les développements théoriques évoqués, celui qui bénéficie par conséquent de la plus grande attention de leur part est la supersymétrie, parce que la possibilité de vérifier le bien-fondé de cette idée est relativement à portée de main, pour peu que l’on accède à des niveaux d’énergie supérieurs. Une chose est sûre, la physique ne peut progresser en se coupant de l’expérimentation. Les historiens et sociologues des sciences l’ont brillamment montré, l’expérimentation et l’administration de la preuve sont des procédures bien plus complexes et moins transparentes qu’on a pu le croire et qu’on l’enseigne dans les manuels. Mais on ne peut s’en passer. En physique, le savoir ne se construit jamais par le simple jeu des idées mathématiques. Les limites de l’intelligence humaine Il faut aussi sérieusement considérer la possibilité que l’explication ultime des lois de la matière et du cosmos nous échappe toujours. C’est une perspective que Steven Weinberg, témoignant sur ce point d’une lucidité et d’un réalisme dont ne font pas nécessairement montre tous les physiciens, envisage sérieusement dans les dernières pages de son ouvrage Dreams of a Final Theory, dans lequel il cherche à établir quelle forme pourrait prendre une telle théorie, qu’il voudrait malgré tout croire possible. Son idée n’est pas qu’il n’y a pas d’explication ultime, mais qu’on ne peut exclure qu’elle soit tout simplement hors de portée de l’intelligence humaine, étonnamment puissante mais peut-être trop limitée pour la saisir, de la même façon que l’intelligence d’un chien, suffisante pour apprendre des tours de cirque, ne l’est pas assez pour calculer des niveaux d’énergie à l’aide de la mécanique quantique. Weinberg le souligne pour s’en réjouir : il ne semble pas que nous soyons déjà arrivés au point où cette question des limites de l’intelligence humaine se pose en pratique, et la physique a encore à l’évidence de très beaux jours devant elle. Mais pour compenser et relativiser des déclarations triomphalistes comme celles qui ont accompagné la découverte du boson de Higgs, il n’est pas inutile que, de temps en, temps des savants de premier plan viennent nous inviter à la modestie, en nous rappelant le caractère nécessairement fini de nos moyens de maîtriser intellectuellement le monde. Le constat de cette limite ne devrait pas trop nous chagriner. Tous les livres sur le boson de Higgs le démontrent : même si sous sommes condamnés à ne jamais en connaître le fin mot, l’histoire dont la découverte de cette particule constitue le dernier épisode en date restera toujours très intéressante à connaître et passionnante à raconter. Michel André
LE LIVRE
LE LIVRE

Le boson de Higgs de Un boson plus célèbre que connu, ¿Qué sabemos de?

SUR LE MÊME THÈME

Blog « Notre Antigone n'a pas pu sortir »
Blog Le bel avenir de la presse papier
Blog Entre les murs

Dans le magazine
BOOKS n°123

DOSSIER

Faut-il restituer l'art africain ?

Chemin de traverse

13 faits & idées à glaner dans ce numéro

Edito

Une idée iconoclaste

par Olivier Postel-Vinay

Bestsellers

L’homme qui faisait chanter les cellules

par Ekaterina Dvinina

Voir le sommaire