LA NATURE DE LA PHYSIQUE

Antony P. French, Department of Physics, Massachusetts Institute of Technology, Etats-Unis

 

Introduction

Le monde est rempli d’expériences qui ne demandent qu’à être expliquées. Pensez par exemple aux couleurs de l’arc-en-ciel et à celles des bulles de savon, aux traînées de vapeur d’un avion volant à haute altitude, au fait que l’eau à l’état liquide se transforme brutalement en glace solide à une certaine température, à la production d’un éclair et du tonnerre qui s’ensuit lors d’un orage, à la merveilleuse symétrie hexagonale d’un petit flocon de neige ; tous ces phénomènes ainsi qu’un nombre infini d’autres tombent dans le domaine scientifique de la physique. En général, l’essence de la science est constituée de l’observation et de l’exploration du monde qui nous entoure, en vue d’identifier un ordre ou une structure dans ce que nous découvrons. Et la physique est cette partie de la science qui traite essentiellement du monde inanimé, et qui, de plus, vise à identifier les principes les plus fondamentaux et unificateurs. La première de ces conditions - la restriction au monde inanimé - distingue, au moins provisoirement, la physique de la biologie ; la deuxième la distingue de la chimie, qui, au moins dans ses aspects théoriques, emprunte des éléments à quelques domaines spécifiques de la physique, et peut en ignorer d’autres. Bien entendu, les mathématiques, même si elles sont indispensables à la pratique de la physique, sont un champ d’étude entièrement différent, étant donné qu’elles s’auto-suffisent et qu’en fin de compte, elles sont indépendantes des observations du monde réel.

Le sujet de cet article pourrait être abordé de manières bien différentes. L'une d'elles est de regarder l’histoire du développement de la physique de ses origines à nos jours afin de comprendre la nature de la physique. C’est ce que nous faisons dans cet article, même si nous ne prétendons pas à l’exhaustivité et que nous n’abordons pas de nombreux sujets que certains considèrent comme importants, voire essentiels. L’objectif principal de cet article n’est pas d’offrir une revue chronologique pour elle-même, mais simplement de mettre en lumière en quoi l’objectif de la physique est de mettre en relation notre connaissance des phénomènes avec un nombre minimal de principes généraux.

 

Archimède et le levier

On peut considérer avec une forte plausibilité que la physique a débuté avec la mécanique - la science des machines, des forces et du mouvement. Il y a toujours eu un lien étroit entre la physique et les dispositifs pratiques, et ce lien était déjà établi dans la mécanique des temps anciens. Le meilleur exemple est peut-être le levier, dont le principe a été reconnu par Archimède 250 av. J.-C. : "... des poids inégaux sont en équilibre seulement lorsqu’ils sont inversement proportionnels à la longueur des bras auxquels ils sont suspendus". Il s’agit ici, pour un cas simple, d’une assertion théorique construite à partir de la généralisation d’expériences particulières, ce type de généralisation est caractéristique de la nature de la physique. Ce résultat a probablement été le premier exemple d’une véritable loi physique. Il est devenu la base d’un appareil de pesée - la balance romaine (Figure 1) - qui a été utilisée depuis l’époque romaine et qui continue à être utilisée aujourd’hui. Cet exemple mérite d’être traité un peu plus en détail. Vraisemblablement, la mise en équilibre de poids inégaux était à l’origine un problème empirique. Archimède a ensuite produit sa formulation quantitative et générale de la relation. Mais il n’était pas satisfait de celle-ci, et il a recherché à la fonder sur l’un des plus puissants concepts utilisés par les physiciens - celui de la symétrie. Archimède a pris comme axiome (certainement facilement vérifiable) l’équilibre entre des masses égales (W) à des distances égales (l) d’un pivot (point d’appui). Il a ensuite imaginé que l’un de ces poids était remplacé par deux poids de grandeur W/2, un sur le point d’appui et l’autre à une distance 2l de ce point. Étant donné que le premier poids n’exercerait manifestement pas d’effet de rotation sur le point d’appui, il a indiqué qu’il était évident que W/2 équilibrerait W placé à l, et que la loi générale du levier pouvait être inférée à partir d’une extension de cet énoncé. En fait, cet énoncé n’est pas valide. Si la loi du levier était W1l1_ = W2l2_, il serait toujours vrai que des poids égaux à des distances égales sont en équilibre, mais il ne serait pas vrai que W/2 placé à 2l est en équilibre avec W placé à l. La loi correcte doit être fondée sur des observations effectives avec des poids inégaux. Néanmoins, comme nous le constaterons, lorsque cela est justifié, une référence à la symétrie est un outil extrêmement utile.

 

Figure 1. Médaille frappée pour Frederick I (1688-1713)

 

D’Aristote à Galilée : espace, temps et mouvement

Même avant Archimède et ses travaux en mécanique, Aristote (384-322 av. J.-C.), qui a introduit le terme grec pour la physique dans notre vocabulaire, a considéré le mouvement des corps. Sans aucun doute, l’espace et le temps ont été traditionnellement les concepts les plus fondamentaux dans notre vue de la nature, et la position comme fonction du temps a toujours été la base de notre description du mouvement. Aristote a examiné ces points, mais il a fait une distinction entre ce qui était considéré comme le mouvement circulaire parfait des étoiles, etc. (c'est en fait le reflet de la rotation de la terre sur son axe) et les trajectoires imparfaites des objets à la surface de la Terre. Mais il est clair que, lorsque c'est devenu l'objet de la physique, Aristote n'a pas étudié pas directement les phénomènes. Il a formulé la célèbre assertion "un poids deux fois plus grand tombera de la même hauteur en deux fois moins de temps" - ceci aurait pu être réfuté par une seule expérience. Le Moyen-Âge a assisté a un grand nombre d'investigations sur le mouvement de projectiles, mais c’est seulement au XVIIième siècle que Galilée (1564 - 1642) a établi la description correcte de la chute libre et du mouvement parabolique des projectiles, en combinant expérience et théorie. Je mentionne cela, non pour l’intérêt particulier du résultat, mais parce que cela indique un autre aspect important de la physique - l’assujettissement à l’observation ou à l’expérience. Sans une interaction directe avec la Nature, nous ne pourrions pas avoir une physique scientifique. Il a souvent été dit que de telles preuves issues de l’observation ou de l’expérience constituent le point de départ à partir desquelles les théories physiques sont construites, mais je pense que cela va trop loin. Tout ce que l’on peut dire de manière justifiable est que le progrès de la physique dépend d’une interaction continue entre l’expérience et la théorie. Il se peut que la théorie vienne en premier lieu, et qu’elle suggère les possibilités de tests expérimentaux par lesquels elle sera soit confortée , soit discréditée. Un ensemble de données expérimentales n'a jamais conduit à' une théorie fondamentale qui en rende compte, même s’il peut être vrai qu’une expérience indique de manière unique un lien particulier entre les quantités observées - par exemple la distance proportionnelle au carré du temps lors d’une chute libre avec la gravité (mais cela n’est pas une théorie de la gravitation).

 

Chocs et premiers principes de conservation

Le premier grand épanouissement de la physique s'est produit, comme cela est bien connu, au XVIIème siècle, et son fondement était l’étude des chocs entre objets. C’est Isaac Newton (1642 - 1727) qui le premier a pris conscience que les résultats de telles expériences étaient cohérents avec un principe unique de conservation - le principe de conservation de la quantité de mouvement. En lui-même, celui-ci ne permet pas d’expliquer en détail les résultats de chaque type de choc possible.

Toutefois, la conservation de la quantité de mouvement totale (mv) n’a jamais été transgressée dans les chocs entre deux objets. La formulation de ce principe met en jeu deux concepts importants :

1) Le concept de masse, défini de manière assez intuitive comme la quantité de matière dans un corps ;

2) Le concept de référentiel physique par rapport auquel la vitesse des autres objets pourrait être mesurée, et qui pourrait être considéré dans les expériences de cette époque (et même dans des expériences similaires aujourd’hui) comme étant fourni par la Terre apparemment fixe.

Ces deux concepts ont été l'objet de nombreuses discussions et de raffinements depuis cette période. Toutefois ceci illustre un autre aspect très important de la nature de la physique - l'acceptation d'hypothèses de travail qui sont tout à fait appropriées à un stade particulier du développement du sujet, et cependant toujours passibles de modifications ultérieures. Ainsi, par exemple, même au XVIIième siècle, il était bien connu que la terre n'était pas immobile, mais qu'elle tournait sur son axe et se déplaçait selon une orbite autour du soleil. Pourtant ces deux faits pouvaient être ignorés lors de l'analyse d'expériences de laboratoire sur les collisions. C'est seulement lorsque des mouvement à plus grande échelle ont été pris en compte que ces faits sont devenus pertinents ; les introduire dès le début aurait conduit à des complications inutiles et suscitant des obstacles. Un autre principe de conservation important mais moins général a été reconnu à peu près en même temps que la conservation de la quantité de mouvement. Il était limité à ce qui est appelé les chocs élastiques, pour lesquels deux objets entrant en collision s’éloignent l’un de l’autre avec la même "vigueur" avec laquelle ils se sont approchés. Si on considère un choc le long d’une ligne droite entre deux objets de masses m1 et m2, et que l’on désigne les vitesses initiales et finales par u1, u2, v1 et v2, alors la conservation de la quantité de mouvement est exprimée par l’équation :

m1u1 + m2u2 = m1v1 + m2v2

Ceci est valable lorsque le choc est élastique ou inélastique (moins qu’un rebond parfait). Mais, si le choc était élastique, la relation suivante serait également vraie :

m1u1_ + m2u2_ = m1v1_+ m2v2_

Avec le développement ultérieur de la mécanique, il a été reconnu que cette deuxième relation était une expression de la conservation de l’énergie cinétique lors de chocs élastiques, où l’énergie cinétique d’un corps a été plus tard définie comme étant mv_/_ et non mv_ pour des raisons que nous ne développerons pas ici.

En plus de ces principes de conservation, un autre principe physique fondamental applicable aux chocs a été reconnu par le grand contemporain de Newton, Christian Huygens (1629 - 1695).

C’était ce que nous appellerions aujourd’hui l’équivalence des différents référentiels. Il a considéré un choc élastique entre deux sphères de masses égales avec des vitesses égales et opposées (± v). Il a considéré que, par symétrie, elles devraient reculer avec leurs vitesses inversées. Il imagina ensuite un tel choc se produisant sur un bateau, lui-même animé d’une vitesse v par rapport à la rive (Figure 2). Si le choc était observé par un homme debout sur la berge de la rivière, il le verrait comme un choc entre une sphère immobile et une sphère se déplaçant à la vitesse 2v. Ou, si le bateau se déplaçait à la vitesse u, les vitesses initiales des sphères seraient u+v et u-v. Dans les deux cas, les vitesses observées par l’homme sur la berge seraient échangées par le choc. En d’autres termes, on peut prédire, sur la base d’un choc initial symétrique, les résultats de tout choc entre deux objets possédant une même vitesse initiale. relative

Figure 2. Une choc élastique entre deux sphères vue de deux référentiels différents. (d’après C. Huygens, Oeuvres Complètes, Vol. 16, The Hague: Martinus Nijhoff, 1940). (Le diagramme au dessus du croquis a été ajouté par Ernst Mach dans son ouvrage, The Science of Mechanics.)

Une autre condition jamais explicitement formulée était sous-jacente à tous ces phénomènes. Il s’agissait du fait que la masse totale des objets en jeu dans le choc restait constante - le principe de conservation de la masse. Ceci était considéré comme allant de soi dans ces systèmes physiques, mais une formulation explicite de la conservation de la masse, basée directement sur l’expérience, n’a été énoncée que plus d’un siècle plus tard, en chimie, lorsque Lavoisier (1743 - 1794) l’a établie pour ses réactions chimiques impliquant des réarrangements de la matière bien plus radicaux que dans le cas des expériences sur les chocs faites par les contemporains de Newton.

Il ne s’agit nullement de la dernière chose que l'on pourra entendre sur les principes de conservation, mais avant de continuer plus en avant dans cette voie, nous considérerons d’autres questions.

 

Cause et effet : deuxième loi de Newton

Les observateurs du monde physique se sont toujours intéressés à découvrir et reconnaître les causes des choses. L’exemple le plus célèbre de cela est peut-être celui de la formulation mathématique moderne de la deuxième loi du mouvement de Newton - F = ma. Sur la gauche, il y a la force ; sur la droite se trouve la masse multipliée par l’accélération résultant de la force. En d’autres termes, le côté gauche est interprété comme une cause, et le côté droit comme l’effet produit par cette cause. Les deux côtés de l’équation ne jouent pas des rôles équivalents. Il s’agit d’une particularité que l’on ne trouve pas dans les équations en mathématiques. Toutes les équations physiques ne sont pas de cette forme. Par exemple, ce qui est vraisemblablement la plus célèbre équation de toute la physique - celle d’Einstein E = mc_ - est une simple formulation de l’équivalence entre masse et énergie. Mais lorsque une équation physique est l’expression d’une relation de cause à effet, elle endosse une signification particulière.

 

La physique classique s’étend

Pendant les deux siècles après Newton, la portée de la physique s’est considérablement accrue. Déjà à cette période, la science de l’optique était bien développée, et Newton lui-même y avait contribué de façon majeure . Mais ensuite, pendant les XVIIIème et le XIXème siècles, la connaissance du monde physique s’est étendue pour inclure des domaines tels que la chaleur, le son, l’électricité et le magnétisme. Initialement, ces domaines, comme la mécanique et l’optique, étaient considérés comme des champs d’étude distincts, puis un fait très important se produisit : des connexions entre ces domaines commencèrent à être perçues. Par exemple, le son fut peu à peu appréhendé comme la vibration mécanique de colonnes d’air, de cordes, et ainsi de suite, et la chaleur comme le mouvement mécanique désordonné d’atomes et de molécules (même si les atomes en tant que tels ne pouvaient pas être observés, il existait une croyance forte concernant leur existence). Avec cela s’est produit un développement considérable du concept d’énergie et de sa conservation. On a compris que, lorsque l’énergie mécanique semble disparaître - comme par exemple dans un choc inélastique entre deux objets - on peut rendre compte des pertes en termes de transfert qui se retrouvent sous forme d'énergie thermique pour les objets en collision, exprimée par une augmentation de leur température. Ainsi, la conservation de l’énergie devenait un principe général, même si son prolongement pour l’électricité et le magnétisme n’est pas apparu immédiatement.

Au début du XIXème siècle, des connexions entre les phénomènes électriques et magnétiques ont été découvertes : le flux des charges électrique dans un fil conducteur induisait des effets magnétiques, et la variation de champ magnétique pouvait produire un courant électrique dans une boucle fermée de fil électrique. Ensuite, vers la fin du siècle, un grand physicien James Clerk Maxwell (1831 - 1879) a montré comment, en unifiant les équations décrivant les champs électriques et magnétiques du point de vue des grandeurs physiques (équations aux dimensions), il pouvait rendre compte de la transmission de la lumière à travers l’espace à la vitesse stupéfiante de 3 x 108 mètres par secondes - une valeur qui était déjà connue par l’expérience.

Le résultat final fut une formidable unification de la physique. Pendant de nombreuses années il a semblé que, au fur et à mesure que de nouvelles découvertes étaient réalisées, la diversité des phénomènes physiques s'étendait sans limite . Puis on est arrivé à voir que I que les divisions faites traditionnellement entre les différents domaines de la physique étaient en fait le résultat de notre ignorance de leurs interconnexions fondamentales. Par commodité, mais peut être malheureusement, ces différents domaines ont continué à être séparés . Toutefois, ceci n’était pas très grave tant qu’il était reconnu que, de manière fondamentale, la physique était une seule discipline.

 

La nature de la lumière

Un des principaux objectifs de la physique est de développer des modèles conceptuels vraisemblables, dans les termes desquels des phénomènes physiques variés peuvent être décrits et expliqués. Peut-être un ’exemple remarquable de ceci est la tentative de trouver un bon modèle pour le phénomène de la lumière. Selon certains anciens Grecs, notre capacité à voir un objet dépendait de l’émission de quelque chose par l’oeil - une idée qui peut facilement être réfutée par l’expérience (par exemple, l’invisibilité d’un objet dans un chambre obscure). D’autres ont pensé plus vraisemblablement qu’un objet devenait visible par les vertus de particules d’une certaine espèce émises par l’objet lui-même. La production d’ombres nettes par une petite source lumineuse a conduit naturellement à l’image de la lumière comme consistant en des particules se déplaçant en ligne droite depuis une source ou depuis un objet illuminé par celle-ci. Ce modèle a été renforcé par la découverte de la loi de la réflexion d’un rayon lumineux sur un miroir plan - l’angle de réflexion est égal à l’angle d’incidence. Newton a favorisé et soutenu ce modèle particulaire. Mais son contemporain Huygens a conçu et a encouragé un modèle très différent - la lumière consiste en des ondes se déplaçant à travers un milieu. Il considérait que la grande vitesse de la lumière et la capacité des rayons lumineux à se propager à travers un autre rayon sans interaction étaient des preuves que la lumière n’était pas composée de particules matérielles. Il pensait également que la vision devait dépendre de rétine qui est agitée par la lumière. Il a été capable d’expliquer la propagation rectiligne de la lumière comme se produisant à partir de la superposition d’ondes circulaires ou sphériques qui provenaient de différents points sur le front d’onde d’un faisceau se propageant.

A cette période il semblait évident que les modèles particulaire et ondulatoire était mutuellement exclusifs. C’est essentiellement grâce à la grande autorité de Newton que le modèle particulaire a été généralement accepté, et est resté incontesté pendant près de 100 ans. C’est alors que quelque chose de très étonnant s’est produit. En 1801 à peu près, Thomas Young (1773 - 1829) a montré qu’un faisceau de lumière, lorsqu’il est séparé en deux faisceaux qui se recouvrent , produit le phénomène d’interférence - la production d’alternance de zones brillantes et sombres sur un écran placé de manière à recevoir la lumière (Figure 3). L’apparition de zones sombres - interférences destructives - était inconcevable avec le modèle particulaire ; comment une particule de lumière pourrait-elle être supprimée par une autre ? Ainsi, le modèle particulaire de la lumière a été abandonné, et des preuves soutenant le modèle ondulatoire de la lumière ont continué à être accumulées durant le restant du XIXième siècle. Le point culminant s’est produit lorsque, comme cela a été mentionné dans la partie précédente, Maxwell a montré qu’il pouvait rendre compte de la propagation de la lumière comme étant une perturbation électromagnétique se propageant à travers un milieu qu’il a nommé l’éther, et qui était conçu comme remplissant tout l’espace. Le triomphe du modèle ondulatoire de la lumière semblait complet et permanent, mais cela n'a pas été le cas. Ce qui avait été présumé être un cas simple de choix de modèle s’est avéré être quelque chose de bien plus surprenant et mystérieux, comme nous en discuterons brièvement.

Figure 3. Un diagramme schématique de l’expérience de Young sur les interférences à partir de deux fentes. Les endroits où les ondes des deux fentes se renforcent sont montrés par des points noirs, les endroits où elles s’annulent sont indiqués par des cercles ouverts. Le schéma d’interférence a un maximum central et d’autres maximaux sur chaque coté. En pratique la longueur d’onde de la lumière est vraiment très petite en comparaison de l’espacement entre les fentes ; ceci signifie que les franges d’interférence sont extrêmement nombreuses et très proches les unes des autres.

 

La boite de Pandore s’ouvre

Alors que le XIXème siècle s'achevait, les physiciens sentaient que la physique était sujet presque un achevé. Ses ingrédients primaires étaient le temps et l’espace absolus, les lois causales de la mécanique, de l’électricité et du magnétisme (y compris un modèle ondulatoire de la lumière), et une image de la matière consistant en des particules discrètes et indivisibles obéissant à ces lois. Mais un telle suffisance était sur le point d’être anéantie. En l’espace de moins de 10 ans est arrivé la radioactivité, la découverte de l’électron, le quantum d’énergie et la relativité restreinte ; à leur manière, chacune de ces découvertes a amené des révisions radicales de notre image du monde physique.

 

La radioactivité

Ce phénomène, découvert en 1895 par Henri Becquerel (1852 - 1908), a eu comme principale caractéristique l’émission spontanée de différents types de radiations inconnues à partir de certains des plus gros atomes connus de la chimie. La source de ces émissions et de leur énergie était un grand mystère, et il a été suggéré à un moment que le principe de conservation de l’énergie devrait être abandonné. Des recherches ultérieures ont montré que cela n’était pas nécessaire, mais un principe encore plus précieux devait être sacrifié : la relation unique de cause à effet. Il devenait évident que, dans un groupe d’atomes radioactifs identiques, les temps auxquels ils subissaient une modification pour devenir un autre type d’atome était tout à fait aléatoire ; aussi loin qu’il était possible de le découvrir, il n’y avait rien qui pouvait être la cause qu'un atome particulier subisse une modification radioactive à un moment particulier ; les atomes se désintégraient spontanément et de manière indépendante. Ceci a été établi lors d’une expérience par Ernest Rutherford (1871 - 1937), la figure dominante dans les premiers temps de la physique nucléaire. Mais la physique n’a pas cessé d’être une science exacte avec un immense pouvoir prédictif. Nous aurons plus de choses à dire sur sujet un peu plus tard.

 

Les rayons X et l'électron

Durant la dernière décennie du XIXième siècle, la plupart des recherches se sont centrées sur le thème des décharges électriques dans les gaz à basse pression. Cela est devenu en grande partie possible du fait du développement de moyens efficaces pour produire le vide - un bon exemple de la manière dont les avancées de la technologie influence directement les progrès de la physique fondamentale. Un pan entier a été observé. Peut-être le plus spectaculaire a été la découverte des rayons X par Whilhem Conrad Roentgen (1845 - 1923). La capacité de ces rayons X à pénétrer le corps humain et à dévoiler sa structure interne a été rapidement exploitée. Au début, la nature de ces rayons était un mystère, mais après quelques années, il a été établi qu’il s’agissait d’ondes électromagnétiques, comme la lumière, mais avec une longueur d’onde beaucoup plus courte (d’un facteur 1000 à peu près). Mais derrière ces rayons X reposait quelque chose destinée à avoir une bien plus grande influence sur le cours de la physique. Ils étaient produits par l’impact sur une "cible" solide de ce qui était appelé des rayons cathodiques, émis par une électrode chargée négativement dans un tube à vide. Qu’étaient ces rayons cathodiques ? C’est Joseph Thomson (1856 - 1940) qui a trouvé qu’il s’agissait de particules chargées négativement avec une masse beaucoup plus petite, par rapport à leur charge, que toutes les autres particules connues jusqu’alors. En fait, si on supposait que leur charge était égale à celle de l’ion hydrogène dans l’électrolyse (proposition qui a été vérifiée ultérieurement dans une expérience), leur masse était inférieure de 1/1000 à la masse de l’atome d’hydrogène. De plus, leurs propriétés ne dépendaient pas du tout du matériau utilisé pour la cathode (électrode négative) de laquelle elles provenaient. La conséquence était que tous les atomes possédaient une structure interne comportant ces nouvelles particules, que nous connaissons évidemment de nos jours sous le nom d’électrons. L’ancienne idée des atomes comme étant indivisibles (la racine grecque de leur nom) était à jamais dépassée. La question suivante émergea naturellement : quels sont les autres constituants de la structure de l’atome, qui est électriquement neutre ?. La question n’a reçu de réponses convenables que plus de 10 ans plus tard, lorsque Rutherford a découvert que la partie positive de l’atome était un noyau avec un diamètre d’un facteur environ 10 000 fois plus petit que l’atome entier. Nous reviendrons à ce développement dans la prochaine partie de cet article.

 

Le quantum

Une connaissance générale de la radiation des objets chauds est aussi vieille que l’humanité, toutefois, une compréhension complète de ces propriétés n’a pas été réalisée avant l’aube du XXième siècle. Bien avant, on avait compris que la chaleur radiante était une forme de radiation électromagnétique, qui devenait visible lorsqu’un objet était suffisamment chaud mais qui comportait également une radiation de longueurs d’onde bien plus grandes. Le spectre d’une telle radiation (intensité en fonction de la longueur d’onde) pour un corps à une température donnée était une courbe à l’allure relativement inintéressante (Figure 4), dont le sommet se déplaçait vers des longueurs d’onde plus faibles lorsque la température des corps radiants augmentait. Des tentatives pour expliquer ce spectre en termes de la théorie classique de base des radiations électromagnétiques - une théorie bien comprise - ne fonctionnaient pas bien du tout.

Figure 4. Un graphe qualitatif de l’intensité en fonction de la longueur d’onde ou de la fréquence de radiation d’un corps chaud. Lorsque la température augmente, la quantité totale de radiation augmente et le sommet se déplace vers des longueurs d’onde plus courtes (plus grandes fréquences).

Le physicien allemand Max Planck (1858 - 1947) s'est lui-même mis à la tâche de trouver une meilleure explication. A sa surprise et à sa déception, il a lui-même tiré la conclusion (en 1900) que l’énergie d’un corps chaud ne peut seulement être libérée qu'en quantités discrètes, proportionnelles à la fréquence (inversement proportionnelles à la longueur d’onde) de la radiation émise, selon la formule E = hf, où f est la fréquence, et h est ce qui devait rapidement être connu comme la constante de Planck. Le quantum était alors né. Planck n’a pas osé proposer que la radiation elle-même était quantifiée - la théorie ondulatoire classique de la lumière conservait toujours sa suprématie - mais Albert Einstein (1879 - 1955) a avancé cette hypothèse d’une manière qu’il a appelée heuristique (quelque chose qui marche, mais qui n’est pas définitif) en 1905. Les conséquences ont été de très longue portée, comme nous y reviendrons plus tard.

 

Relativité

Les découvertes en physique atomique et en physique des radiations étaient suffisantes pour ébranler la physique classique dans son noyau même, mais plus encore restait à venir. Depuis le temps de Newton il avait toujours été accepté que l’espace et le temps étaient absolus, même si Newton lui-même reconnaissait notre incapacité à identifier l’espace absolu et qu'il fallait se satisfaire de l’étude des mouvement relatifs. C’est alors qu’en 1905, Einstein alla plus loin avec sa proposition révolutionnaire que ni le temps ni l’espace n’étaient absolus, qu’ils étaient liés l’un à l’autre et que tous deux dépendaient de la mesure faite en rapport à un référentiel choisi, qui devait être identifié. Ceci signifiait, en particulier, que l’on ne pouvait pas formuler de manière catégorique que deux événements se produisant à deux endroits différents étaient simultanés ; le jugement comme quoi ils étaient ou non simultanés dépendait du référentiel où l’on se situait.

Cette théorie - la théorie de la relativité restreinte - n’était fondamentalement ni difficile, ni compliquée ; dans une forme simplifiée, elle peut être présentée avec rien de plus que de l’algèbre de l’enseignement secondaire. Son enjeu est conceptuel, car il exige que nous abandonnions nos idées intuitives avec lesquelles nous avons tous grandi. Ce n’est pas un problème banal que de faire une telle adaptation, mais il est vite devenu évident aux contemporains d’Einstein (au moins pour beaucoup d’entre eux) que la nouvelle théorie avait un pouvoir prédictif indéniable. Le ralentissement d’une horloge se déplaçant par rapport à nous, par exemple, semble être de la science fiction - et c’est le cas pour la forme du "paradoxe des jumeaux" avec un voyageur humain qui resterait jeune, alors que son frère sur terre vieillirait ; toutefois, l’effet fondamental a été directement confirmé par des observations utilisant des horloges atomiques précises transportées autour de la terre dans des avions commerciaux à réaction.

Un aspect de la relativité qui était particulièrement dérangeant pour les traditionalistes était son refus de l’existence d’un référentiel préféré unique. Un tel référentiel était supposé être défini par ce que Huygens appelait l’éther - le milieu hypothétique qui était considéré comme étant essentiel au transport de la lumière et à tous les autres types d’ondes électromagnétiques. La notion d’ondes qui n’exige aucun milieu matériel pour transporter les vibrations était considérée comme une absurdité. Mais l’échec de toutes les expériences à détecter le mouvement de la terre à travers ce médium était l’un des arguments important en faveur de l’exactitude des idées d’Einstein. Les physiciens devaient s'habituer à l’idée que les ondes électromagnétiques n’ont pas besoin d’un milieu pour onduler ; cette image était nécessaire seulement si l’on exige un modèle purement mécanique de la propagation des ondes. Dans la dernière partie de XIXième siècle, la plupart des efforts ont porté sur la création de tels modèles mécaniques, jusqu’à ce qu’Einstein les rende superflus.

 

L’atome nucléaire

Vers le début du XXième siècle il était peu à peu accepté que les atomes étaient des objets avec un diamètre de l’ordre de 10-10m. Un raison importante de cette croyance était la connaissance de la valeur du nombre d’Avogadro - le nombre d’atomes ou de molécules dans une mole d’un élément - qui avait été inféré de phénomènes tels que la viscosité des gaz et qui émergeait également de l’analyse théorique de Planck des radiations thermiques. (Notons encore une fois les interconnexions des domaines de la physique !) En supposant que dans des matériaux tels que les métaux les atomes étaient entassés au maximum, c’était juste un problème de géométrie que d’en déduire le diamètre approximatif d’un atome individuel.

Après que l’électron fut découvert et que l’intensité de sa charge électrique fut connue, la théorie électromagnétique classique pouvait être utilisée pour déduire que son diamètre était de l’ordre de 10-14m.

Étant donné ce nombre et le fait que les électrons représentent approximativement 1/10 000 de la masse d’un atome, il était naturel de se figurer l’atome comme une balle de matériau chargé positivement avec un diamètre d’environ 10-10m, avec les électrons pratiquement ponctuels insérés dans celle-ci. C'était le modèle que J.J. Thomson a lui-même inventé. Il existait toutefois des problèmes variés avec ce modèle ; l’un d’entre eux était son incapacité à rendre compte des longueurs d’onde de la lumière émise par les atomes.

Ensuite, en 1911, la situation s’est complètement renversée lorsque, comme nous l’avons déjà mentionné, Ernest Rutherford a découvert, à partir des déviations importantes subies par les particules alpha (atomes d’hélium ionisé) lorsqu’elles traversent de fines couches de métal, que la plupart de la masse d’un atome d’un matériau tel que l’or ou l’argent était concentrée dans un rayon d’environ 10-14m.

A partir de cette théorie, Niels Bohr (1885 - 1962) en 1913 a proposé son célèbre modèle de l’atome comme une sorte de système solaire miniature, avec des électrons gravitant tels des planètes autour du noyau positif. Personne d’autre que Bohr lui-même n’était plus conscient de la nature très arbitraire de ce modèle. Il a simplement postulé, sans aucune justification théorique, que les électrons sur leur orbite n’émettaient aucune lumière (ce qu’ils devaient faire suivant la théorie électromagnétique classique). Il a également suggéré, avec une utilisation ingénieuse des idées de Planck sur la quantification de l’énergie, que ces orbites étaient limitées et correspondaient à un nombre discret de rayons. Il s’agissait vraiment d’une minutieuse théorie de fortune - mais cela marchait ! elle rendait compte triomphalement de bien des spectres connus de la lumière émise par les atomes d’hydrogène et prédisait d’autres ensembles de raies d’hydrogène (dans l’ultraviolet et l’infrarouge) qui n’avaient pas encore été observées.

Toutefois, la théorie avait de sévères limites. Elle a eu peu de succès pour interpréter les spectres autres que ceux de l’hydrogène et des systèmes appelés "hydrogénoïdes" - ceux qui possèdent un seul électron extérieur produisant une radiation, tels que certains ions positifs. Ce n’était certainement pas le dernier mot. C’est un fait intéressant que Bohr, comme Planck avant lui, ne croyait pas que la lumière elle-même était quantifiée, jusqu’à ce qu’il soit convaincu, des années plus tard, par la preuve directe apportée par l’expérience de chocs entre des quantas de lumière et des électrons (l’effet Compton).

 

Dualité énergie-matière

Nous avons vu comment les idées des gens sur la nature de la lumière ont fluctué entre un modèle particulaire et un modèle ondulatoire. Il avait semblé évident que ces deux modèles étaient mutuellement exclusifs. Les propriétés ondulatoires de la lumières ne pouvaient assurément pas être niées. Mais alors, très tôt au XXième siècle, des expériences étaient conduites sur l’effet photoélectrique - l’éjection d’électrons de métaux sous l’effet de la lumière - dans la logique de la proposition d’Einstein que l’énergie de la lumière était émise et absorbée en minuscules paquets - quanta - qui devaient être appelés photons. En d’autres mots, la lumière a des propriétés qui comprennent celles des particules et des ondes. C’était une idée totalement nouvelle.

Ensuite, près de 20 ans plus tard, Louis de Broglie (1892 - 1987) franchit une étape en émettant la suggestion complémentaire comme quoi les électrons, qui sans équivoque étaient acceptés comme des particules, devraient avoir des propriétés similaires à celles des ondes, avec une longueur d’onde égale à h/p, où h est la constante de Planck et p est la quantité de mouvement mv. En l’espace de quelques années, cela a également été confirmé. Les électrons ayant une énergie donnée étaient diffractés par des treillis de cristal, de la même manière que les rayons X (Figure 5). En d’autres mots, notre catégorisation reconnue des éléments de base du monde physique cessaient de s’appliquer au niveau atomique. En fait, à ce niveau, notre langage ordinaire, avec toutes ses associations coutumières s’est simplement effondré. Il était nécessaire d’accepter un photon ou un électron simplement pour ce qu’il était, défini non par les mots de notre propre cru, mais par son comportement.

Rayons X .........électrons

Figure 5. Une paire de photographies montrant la diffraction des électrons et de rayons X de longueurs d’onde similaires. Ces formes d’anneau sont obtenus lorsqu’un faisceau d’électrons ou de rayons X passe à travers une fine feuille faite de petits cristaux d'un matériau (aluminium) orientés de manière aléatoire dans toutes les directions. Les ondes diffractées (particules) sont reçues sur une plaque photographique de l’autre coté de la feuille (d’après A. P. French and Edwin F. Taylor, Introduction to Quantum Physics, New York: W. W. Norton. 1978.)

Peu de temps après, il a été découvert que tous les types d’objets physiques qui avaient reçu le label de particule - neutron et protons et tous les types d’atomes neutres ou de molécules - possédaient également cette propriété ondulatoire, avec une longueur d’onde donnée par la formule de de Broglie.

 

Le monde de la physique quantique

L’aspect aléatoire de la radioactivité et la dualité onde/particule pourraient simplement ne pas être adaptés à la structure de la physique classique, cependant il était clair que l’image classique fonctionnait bien dans beaucoup de cas. Que devait-on faire ? La réponse devait bientôt être fournie par deux brillants théoriciens, Werner Heisenberg (1901 - 1976) et Erwin Schroendinger (1887 - 1961). En 1925 - 1926, avec des approches très différentes, qui ne furent tout d’abord pas reconnues comme équivalentes, Heisenberg et Schroedinger créaient la nouvelle science de la mécanique quantique.

L’approche de Schroedinger est la plus simple à apprécier, et se fonde directement sue la dualité onde/particule que nous venons de décrire. En acceptant le caractère ondulatoire attribué aux particules par de Broglie, Schroedinger a été capable de construire une équation qui conduisait à la solution d'une grande variété de problèmes atomiques. (Cette version de la mécanique quantique est appelée mécanique ondulatoire). Il existait de fortes similarités avec l’acoustique. Nous savons qu’à l’air libre, un son de n’importe quelle longueur d’onde ou fréquence peut être transmis, mais que dans un espace clos, tel que l’intérieur d’une pièce ou dans le corps d’un instrument à vent, seules certaines longueurs d’onde et fréquences sont possibles. De même, dans le vide, des électrons de n’importe quelle longueur d’onde sont possibles, mais l’intérieur d’un atome est comme une enceinte fermée, avec des murs relativement mous, définis pour les électrons par l’attraction du noyau positif . Les électrons ne possédant pas une quantité d’énergie suffisante ne peuvent pas s’échapper, et de tels électrons sont limités à des quantités d’énergie discrètes. Les résultats de la théorie de Bohr sur l’atome d’hydrogène émergent naturellement et automatiquement de ce modèle, et ceci était applicable à de nombreux autres systèmes atomiques.

Il restait une question fondamentale : que sont ces ondes ? Cette question a le plus souvent été discutée dans un contexte analogue à la première expérience de Thomas Young avec les deux fentes sur l’interférence de la lumière. On peut imaginer une expérience similaire faite avec deux électrons (en fait, 35 ans après que la mécanique ondulatoire fut inventée, une telle expérience était réalisée). Que cette expérience soit faite avec de la lumière ou avec des électrons (ou d’autres particules), les principaux éléments sont les mêmes.

Discutons en terme de lumière, puisque cela est accessible par tous, alors que les faisceaux d’électrons ne le sont pas. Si l’intensité de la lumière est élevée, on a un schéma classique d’interférence d’ondes, avec de faibles variations de l’intensité entre les minima et maxima mesurées par exemple sur un interféromètre. Mais si l’intensité de la lumière est réduite à un niveau extrêmement faible, et si l’interféromètre est remplacé par un appareil extrêmement sensible qui peut détecter un photon individuel (un tube photoélectrique multiplicateur) alors un résultat surprenant apparaît. L’expérience peut être faite à condition qu’un seul photon à la fois traverse l’appareil. Lorsqu’il parvient à un point particulier de l’écran du détecteur -- il est alors détecté comme une particule. Son point d’arrivé sur l’écran est complètement imprédictible. Toutefois, si des millions de photons traversent successivement le système, la distribution des impacts individuels crée la figure classique d’interférences. Le point essentiel est que chaque photon traverse d’une certaine manière les deux fentes et interfère avec lui-même ; ceci est, au moins, la manière naïve de rendre compte des résultats de l’expérience. Cela signifie-t-il littéralement que les photons se séparent? La réponse est non ; quelque chose de plus subtil est en jeu.

Si l’on essaie de découvrir à travers quelle fente passe le photon ; la figure d’interférence disparaît. Pour décrire un tel phénomène, Bohr a introduit le concept de ce qu’il a appelé la complémentarité. Les aspects ondulatoire et particulaire des photons sont complémentaires. Ils sont détectés comme particules à un certain point, mais leur mouvement depuis la source au détecteur est décrit par une équation d’onde. C’était Max Born (1882 - 1970) qui a proposé que les ondes de Schroedinger soient des ondes de probabilité (ou, pour être plus exact, une amplitude de probabilité, la racine carrée d’une probabilité). En dépit de nombreux rebondissements, cette interprétation a résisté à l’épreuve du temps. C’est un résultat étrange qui a soulevé de nombreuses questions, comme le reconnaissent les physiciens. Parmi d’autres choses, cela indique l’association étroite entre la physique et les mathématiques - un phénomène qui était le sujet d’un essai appelé "the unreasonnable effectiveness of mathematics in the natural science" par le théoricien distingué Eugene Wigner (1902 - 1995).

Un commentaire supplémentaire est approprié à ce stade. Les phénomènes tels que la radioactivité montrent que des événements individuels à l’échelle atomique peuvent avoir une propriété aléatoire. Est-ce que cela signifie que la physique a cessé d’être totalement une science exacte ? La réponse est "non"! Le développement de la physique classique nous a conduit à croire que tous les types d’événements individuels étaient soumis à des lois causales strictes. Les phénomènes quantiques nous ont imposé de reconnaître que cela n’était pas vrai. Mais il reste vrai que le comportement statistique de grandes populations de systèmes atomiques identiques est rigoureusement prédictible. Ce n’est pas en soi une idée nouvelle, même si son importation en physique fondamentale est nouvelle. Nous sommes tous familiers avec le fait que les propriétés de grandes populations humaines relèvent de descriptions et de prédictions précises, même si cela n’est pas le cas pour les individus. Ainsi, par exemple, les compagnies d’assurance peuvent fonder leur travail sur un savoir très bien défini de distribution de durée de vie des hommes, même si le destin d’une seule personne est complètement imprédictible. Toutefois, les prédictions statistiques de la physique quantique sont excessivement plus précises que n’importe quelle affaire humaine.

 

A l’intérieur du noyau

Nous sommes depuis longtemps familiers avec le fait que les constituants fondamentaux des noyaux atomiques sont ce qui est appelé des nucléons - protons et neutrons. Le proton, noyau de l’atome d’hydrogène, est connu depuis 1910 à peu près. L’existence de son partenaire de masse approximativement identique, le neutron, a été suggérée par Rutherford en 1920 et a été établie expérimentalement par James Chadwick (1891 - 1974) en 1932. Peu de temps après, le nouveau champ de théorie nucléaire était né et allait s’accroître rapidement. Il a vite été reconnu qu’un type de force jusqu’ici inconnu était impliqué. Il est assez surprenant de réaliser que, jusqu’à ce que les forces nucléaires soient introduites, tous les phénomènes physiques connus étaient seulement explicables en termes de deux types de forces fondamentales - gravitationnelles et électromagnétiques. La gravité, qui est intrinsèquement une force extrêmement faible, devient importante seulement lorsqu’elle est exercée par des corps très importants, tels que la Terre. Toutes les autres forces pourraient être décrites en termes d’interactions électriques et magnétiques. Les forces nucléaires sont d’une portée extrêmement courte - leur effet s’étend à peine au delà de la limite du noyau atomique et ne joue donc aucun rôle dans toutes les interactions entre différents atomes. C’est seulement dans des circonstances au-delà de notre propre expérience - au centre des étoiles et même plus, dans des objets tels que les étoiles à neutron composées de nucléons étroitement assemblés - que les forces nucléaires jouent un rôle central. On a reconnu qu’il existe deux types de forces nucléaires, simplement dénommées fortes et faibles. La force forte est ce qui maintient les protons et les neutrons ensembles dans le noyau, contre la répulsion électrique des protons ; la force faible est l’agent se situant derrière certaines formes de désintégration radioactive. Nous ne considérerons aucune de ces deux forces en détail ici ; il est suffisant de savoir qu’elles existent.

Un fois que l’image de la structure nucléaire en termes de neutrons et protons a été bien établie, l’attention de nombreux physiciens s’est portée sur la marche inférieure suivante de l’échelle - la structure interne possible des nucléons eux-mêmes. La quête entraîna la construction d’accélérateurs de plus en plus grands, agissant comme des sources de particules de plus en plus énergétiques - tels que les électrons - comme sondes. Une raison primordiale de ce besoin pour des énergies toujours plus grandes réside dans la relation de de Broglie : la longueur d’onde est égale à la constante de Planck divisée par la quantité de mouvement. Les accélérateurs modernes de particules sont comme des microscopes pour l’étude d’objets plus petits de plusieurs puissance 10 que toute autre chose qui peut être examinée par un microscope optique. Pour faire cela, il faut des longueurs d’onde plus petites d’un facteur similaire à celles de la lumière visible, et la seule manière de parvenir à faire cela est d’augmenter la quantité de mouvement et de là l’énergie des particules sondeuses. Cette recherche a tout d’abord généré ce qui semblait être une liste infinie de particules nouvelles et exotiques (de faibles durées de vie), dont la plupart n’étaient pas du tout les composants de vase de la matière nucléaire. Mais ensuite, en 1964, la proposition a été faite que les nucléons étaient composés d’un triplet de quarks - un nom qui leur a été donné par leur inventeur, Murray Gell-Mann (1929 - ). Les conséquences de cette théorie étaient d’une portée considérable et s’étendaient bien au-delà de la constitution interne des nucléons. Ce sont essentiellement les particules "lourdes" connues (c’est à dire autres que l’électron et ses parents, tels que le neutrino) qui peuvent être conçues comme une combinaison de deux ou trois quarks. Des arguments sophistiqués de symétrie étaient impliqués dans toute cette analyse, qui ont conduit à la prédiction d’une particule qui n’avait pas encore été observée, une sorte d’état excité du nucléon. Une prédiction couronnée de succès telle que celle-là, comme nous l’avons déjà dit, est un critère important d’une bonne théorie.

 

Le domaine de la matière condensée

Il y a naturellement en physique bien plus que la recherche de nouvelles particules fondamentales. En effet, le nombre de personnes travaillant dans ce domaine de recherche est relativement faible en comparaison du nombre de personnes engagées dans les différents aspects de ce qui est appelé la physique de la matière condensée - essentiellement la physique des solides. Jusqu’à l’invention de la théorie quantique, les propriétés des matériaux solides - par exemple, qu'ils sont transparents ou opaques à la lumière, s conducteurs ou isolants électriques - étaient simplement des sujets d’études empiriques. Cela ne signifie pas pourtant que ce champ était inexploré. En effet, pour les solides cristallins en particulier, l’utilisation des rayons X a conduit à une image très détaillée et précise de l’arrangement des atomes. Mais les raisons de leur propriétés physiques restaient en grande partie un mystère. L’application des idées quantiques a bouleversé tout cela.

Les premiers calculs en mécanique quantique ont porté sur les états d’énergie des électrons dans des atomes individuels. L’étape suivante a consisté à considérer comment ces états d’énergie changeraient si les assemblages d’atomes similaires étaient de plus en plus proches les uns des autres. On a découvert que, certaines fractions d’électrons ne seraient plus attachées à un atome particulier, mais seraient partagées par l’étendue toute entière de l’assemblage. Dans certains cas, cela signifierait que l’assemblage deviendrait un bon conducteur électrique, et dans d’autres, cela il deviendrait un isolant. Il y avait aussi des cas intermédiaires - les semi-conducteurs. On a compris que ces propriétés étaient contrôlables par l’intermédiaire de l’addition d’autres types d’atomes - ce qui est appelé le dopage. Ainsi arrivait le transistor et ensuite toute la science de l’électronique de l’état solide, qui domine désormais nos communications et la technologie informatique. Le transistor a été inventé en 1947 par John Bardeen (1908 - 1991), Walter Brattain (1902 - 1987) et William Shockley (1910 - 1989).

Un autre domaine important de la physique de la matière condensée est celui des basses températures. Alors que les physiciens du nucléaire et des particules étaient concernés par l’exploration des propriétés de la matière à des énergies de plus en plus élevées, les physiciens des basses températures étaient intéressés par les phénomènes se produisant aux plus basses températures accessibles, dans une région proche des millionièmes de degré au dessus du zéro absolu. En terme d’énergie par particule, c’est un facteur d’à peu près 1022 (10,000,000,000,000,000,000,000) moins que la plus haute énergie réalisable dans les accélérateurs de particules modernes. Sous des conditions moins extrêmes, mais toujours dans la zone des basses températures (à peu près 100 degrés au dessus du zéro absolu) de nombreuses recherches ont été conduites sur le phénomène de la supraconductivité électrique, pour laquelle la résistance électrique de certains matériaux tombe à zéro. Les possibilités pratiques présentées par ce comportement sont immenses, surtout si l’on trouve des matériaux pour lesquels la supraconductivité peut être réalisée autour de la température ambiante.

 

Masers et lasers

Nous avons décrit comment la théorie des solides s’est développée à partir de considérations sur ce qu’il se passe lorsque un nombre important d’atomes ont des interactions proches par l’intermédiaire de leurs électrons. Une situation comparable bien que différente est relative à un nombre important d’atomes interagissant par l’intermédiaire d’échanges de quanta de radiations. Ceci peut se produire dans l’état solide condensé mais aussi dans les gaz à basse température - même dans le vide relatif de l’espace interstellaire - et l’exploitation contrôlée de ce phénomène a rendu possible l’invention du laser. Ceci constitue un autre exemple digne d’intérêt de la manière dont la physique fondamentale peut conduire à une contribution majeure pour la technologie.

Une fois encore, l’histoire commence avec Einstein. En 1916, il a développé une nouvelle méthode de dérivation de la formule de Planck pour le spectre de radiation d’un objet chaud. Il était déjà reconnu qu’un quantum de radiation serait spontanément émis par un atome dans un état excité d’énergie si il tombe à un état de plus faible énergie. Il était également reconnu qu’un atome dans un état plus bas peut être élevé à un état plus élevé si un quantum de lumière avec une énergie adéquate est lancé sur cet atome et qu’il est absorbé. A cela, Einstein a ajouté une éventualité supplémentaire - que la transition d’un atome de son état excité à un état plus bas pourrait être renforcée si elle provient d’un photon d’énergie similaire à celle qu’il aurait spontanément émis - un processus d’émission stimulée. Ce processus pourrait conduire à l'apparition de deux quanta d’une certaine énergie là où il n’y en avait qu’un auparavant, de manière à ce que, si l’on démarre avec une grande population d’atomes à l’état excité, il y ait une possibilité d’une sorte de réaction en chaîne ; un seul photon incident ayant la bonne énergie pourrait donner lieu à une grande explosion de radiations de fréquence et longueur d’ondes identiques. C’était le concept de laser.

Cela a été appliqué réellement en 1953 par Charles Town (1915 - ) et ses élèves, par l’utilisation de radiations de longueur d’onde ayant approximativement 1 cm émises et absorbées par des molécules d’ammoniac, ce qui est dans le domaine des radiations électromagnétiques appelées les micro-ondes. Charles Town et ses élèves ont décidé d’appeler leur invention un maser - Microwave Amplification by Stimulation Emission of Radiation. Sept ans plus tard, un appareil identique utilisant la lumière visible était créé par Theodore Mainman (1927 - ). Le terme "micro-onde" a été remplacé par "lumière" dans l’acronyme inventé par Townes et ses collègues, et le laser a ainsi acquis son nom. Sa caractéristique la plus évidente est la stupéfiante pureté de la lumière émise en comparaison de la lumière émise par la même transition atomique dans une source de lumière ordinaire. Avec cela se trouve la possibilité de produire un faisceau lumineux d’une très grande intensité et d’une divergence angulaire très faible de telle manière qu’il a été possible de placer des réflecteurs sur la lune et d’observer la lumière qu’ils renvoyaient par rapport à la position de la source du laser sur la Terre.

 

Plasmas

Bien que ce sujet n’implique aucun nouveau concept fondamental, aucune vue d’ensemble de la physique ne serait complète sans au moins une brève mention de ce qui est appelé les plasmas. Un plasma est, par essence, un gaz élevé à une température si grande qu’une grande partie de ses atomes ont perdu un électron, devenant par là même des ions positifs. Les électrons négatifs restent dans le système, qui est alors neutre dans son ensemble. Une lumière fluorescente est un exemple usuel de plasma. Il n’est pas ressenti comme chaud au toucher, mais sa température électrique, mesurée comme l’énergie des électrons libres, peut correspondre à des dizaines de milliers de degrés.

Le plasma a été nommé le "quatrième état de la matière". Même si (sauf pour des phénomènes naturels tels que les éclairs et l’aurore) des étapes spéciales doivent être suivies pour les créer sur terre - essentiellement les décharges électriques dans les gaz - la plupart de la matière visible dans l’univers est à l’état de plasma. En pratique, l’intégralité du volume d’une étoile normale est à l’état de plasma, avec une température proche des dizaines de millions de degrés. C’est pourquoi il est important d’inclure les plasmas dans toute discussion du monde physique. Toutefois, l’intérêt particulier que nous portons aux plasmas sur la terre est en relation avec la possibilité de leur utilisation pour générer de l’énergie "propre". L’idée est d'y parvenir en créant un plasma de certains éléments légers- en particulier les isotopes de l’hydrogène de masse atomique 2 et 3 - et de rendre le système suffisamment chaud pour produire des réactions de fusion nucléaire. Des travaux dans cette direction ont été réalisés depuis à peu près 50 ans. La réussite a toujours semblé cruellement proche ; on pense actuellement que l’on pourrait obtenir une puissance utile à partir des plasmas vers le milieu du XXIième siècle.

 

L’objectif de l’unification

Le compte-rendu précédent a indiqué que les physiciens ont été amenés à reconnaître quatre types de forces différentes : gravitationnelles, nucléaires faibles, électromagnétiques et nucléaires fortes. (Arrangées de cette manière, elles sont dans un ordre croissant de puissance.) Le rêve de nombreux physiciens théoriciens a été de trouver des bases pour combiner toutes ces forces au sein d’une seule théorie unifiée des forces. Einstein a travaillé vainement pendant des années, jusqu’à sa mort en 1955, à combiner la gravitation (qui était le sujet de sa théorie de la relativité générale) avec l’électromagnétisme. D’autres ont ensuite poursuivi les recherches. Une des principales réussites, en 1967, est la théorie qui a unifié les interactions électromagnétiques et nucléaires faibles ; elle a été élaborée indépendamment par Abdus Salam (1926 - 1996) et Stephen Weinberg (1933 -). Au moment où nous écrivons (1996) il n’y a pas encore eu d’avancées claires sur ce point. Des suggestions intéressantes ont été avancées sur le fait que les forces fortes nucléaires fusionnaient avec les forces faibles et électromagnétiques dans les premiers temps de la naissance de notre univers, lorsque (selon le modèle du "big bang") la température était plus élevée d’un facteur gigantesque que toutes celles qui peuvent exister de nos jours. La force gravitationnelle, en dépit des nombreux efforts, est restée en dehors de la structure des trois autres forces, mais peut-être qu’elle sera également intégrée dans un schéma unifié un jour. Elle est tellement faible en comparaison des autres forces que son existence même est un mystère.

 

Chaos : la physique classique reçoit un autre choc

Nous avons indiqué que l’étude des phénomènes quantiques implique une révision de nos croyances sur la productibilité des événements atomiques individuels. Mais le fait que les lois strictes de cause et effet permettent de prédire, en principe, le cours de tous les événements au delà du niveau atomique continue à être une profession de foi parmi les physiciens. Le très grand physicien français Pierre Simon de Laplace (1749 - 1827) a formulé cette croyance dans une célèbre déclaration :

" une intelligence qui, à un certain instant, connaît toutes les forces de la nature et aussi les situations (positions et vitesses) des entités qui y sont présentes, et qui de plus est capable d’analyser ces données, peut contenir dans les mêmes formules les mouvements des corps les plus vastes dans l’univers et ceux des plus petits atomes ; pour celle-ci (cette intelligence) rien ne serait incertain, et l’avenir serait aussi clair que le passé. "

Cette foi était fondée sur une caractéristique que nous avons déjà mentionnée ; le pouvoir des mathématiques à décrire les processus physiques de la nature. Il a été reconnu que certains problèmes (par exemple, le mouvement turbulent des fluides) étaient tellement compliqués qu’ils bravaient l’analyse formelle des mathématiques. Toutefois, il était jugé que ceci était simplement une limite pratique, et non une limite fondamentale. Un autre grand scientifique français, Henri Poincaré (1854 - 1912) a réalisé toutefois qu’il y avait plus que cela , en ce sens que - même avec des équations mathématiques strictement causales - il y avait des limites fondamentales à prédire à long terme l’histoire de certains types de systèmes physiques. Les facteurs clés étaient l’existence des termes nommés non linéaires dans les équations du mouvement. Avant l’avènement des ordinateurs modernes, le comportement de tels systèmes ne pouvait pas être exploré convenablement parce que - par exemple pour les mouvements périodiques tels que le mouvement du pendule - il serait prohibitif, au niveau du temps consacré, de suivre le mouvement à travers des milliers ou des millions de cycles. Mais c’est le type de travail - appelé calculs itératifs - pour lesquels les ordinateurs modernes sont idéalement conçus. Ce qu’ils font pourrait être appelé des mathématiques expérimentales ; les équations sont bien définies, mais leurs implications ne peuvent être suivies que si l’on peut répéter plusieurs fois un programme numérique. Et les résultats sont saisissants. Jusqu’alors on pensait que de très petits changements dans les conditions initiales produiraient en conséquence des petits changements dans le résultat final. Mais il a été découvert que le résultat final pouvait être tellement sensible aux conditions initiales que la situation à long terme était en fait imprédictible, et que des résultats totalement différents étaient possibles. C’est cela que Poincaré a compris. Le phénomène est appelé chaos déterministe ; il diffère de l’échec intrinsèque de la causalité dans les systèmes quantiques, mais ses conséquences sont similaires d’une certaine manière.

L’exploration des systèmes chaotiques est devenue un domaine important de la physique mathématique. Même si son application physique principale est probablement amenée à être la mécanique des fluides, elle a trouvé des applications dans la physique de l’état solide, en acoustique, en physique des plasmas, en physique des particules élémentaires et en astrophysique, comme en biologie et en chimie.

 

Remarques concluantes

Si l’on regarde le développement de la physique à travers le temps, c’est l’histoire d’efforts perpétuels pour repousser les frontières de nos connaissances de l’univers. La plupart du progrès en physique a consisté en une extension de la variété de nos connaissances en termes de distance et de temps. Quand l’Homme était limité à l’utilisation de ses facultés naturelles, il ne pouvait rien voir de plus petit qu’un grain de poussière - disons approximativement 1/1000 cm de diamètre. A l’autre extrême, même si il pouvait voir les étoiles et réaliser qu’elles étaient très loin, trouver la distance de quelque chose plus loin que la lune (à peu près 400,000 km) était au-delà de la portée de ses capacités. Maintenant, nous avons des connaissances spécifiques de distances aussi petites que 10-18 m et aussi grandes que 10+15 m. En ce qui concerne le temps, l’oeil ne peut pas séparer des événements se produisants à moins de 1/50 s l’un de l’autre, et la durée de vie d’un être humain atteint une limite supérieure de 109 s de la durée observable par n’importe quel individu, même si bien sûr, un sens de l’histoire pourrait permettre aux gens de prendre conscience du temps jusqu’à quelques milliers d’années.

Cela contraste avec ce qui est devenu possible aujourd’hui à partir des mesures physiques. Les miracles de l’électronique moderne ont permis d’étudier des temps aussi petits que 10-15s et la combinaison des observations et des déductions a permis aux astrophysiciens de parler avec certitude de temps tels que des billions d’années (1017s). Ainsi, en ce qui concerne le temps et l’espace, la physique a maintenant fourni un accès à des phénomènes incluant un éventail de facteurs de plus de 10+30. Des tentatives pour élargir cet éventail se poursuivent.

Notre connaissance de la manière dont les composants variés de la matière interagissent les uns avec les autres pour produire l’immense (et grandissante) variété des phénomènes physiques spécifiques n’est pas quantifiable de cette façon, mais il n'y a pas avoir de doutes sur la capacité actuelle de la physique à détecter, expliquer et contrôler de nouveaux. Il a même été suggéré que l’objectif traditionnel de recherche d’un nombre minimal de principes fondamentaux est actuellement remplacé par un programme d’utilisation de ces principes bien établis pour explorer un catalogue d’applications spécifiques toujours en expansion.

La vérité, je crois, est que les deux processus sont en cours, et continueront de l’être. La partie expansionniste du programme est indubitablement aidée par le pouvoir des méthodes computationnelles modernes, et elle affecte les autres sciences également. Toute la chimie peut, en principe tout au moins, être maintenant expliquée dans les termes des forces électromagnétiques et de la théorie quantique, et la biologie commence à puiser des idées précieuses dans l’application des principes physiques fondamentaux. Il ne s’agit pas de suggérer que la physique est de quelque manière que ce soit supérieure à ces autres sciences ; si quelqu’un observe les réussites stupéfiantes des chimistes et des biologistes, principalement au XXième siècle, il serait vite désenchanté d’une telle idée. Je ne souhaiterais pas non plus suggérer que le destin de la chimie et de la biologie est de devenir une partie de la physique. Sans aucun doute, la complexité des systèmes biologiques, qui concerne à la fois les chimistes et les biologistes, est tellement importante qu’elle exige une approche qualitativement différente de celle des physiciens. Le statut spécial de la physique est simplement que, dans un univers construit de particules élémentaires et de leurs interactions, sa tâche a été de comprendre ces choses au niveau le plus primitif. Cette phrase, en fait, incarne ce qui a constitué l’objectif de cet article.

Je souhaite remercier le Professeur E. L. Jossem pour avoir lu la première version de cet article et pour avoir fait de nombreuses suggestions pertinentes.