dimanche 24 janvier 2016

ACCUEIL - PRESENTATION

    Pourquoi, après avoir réalisé un blog sur l'Histoire de l'Art, ce blog sur l'Histoire des Sciences ?
Exactement pour les mêmes raisons. Pour l'Histoire de l'Art, il s'agissait de trouver le moyen de favoriser une approche rationnelle et accessible de l'art contemporain. Du point de vue de l'art, la majorité d'entre nous appartient encore au XVI ème siècle. Notre éducation, notre culture date de la Renaissance, pour l'essentiel. A la rigueur du XIX ème pour la période impressionniste. Je voulais trouver un moyen de faire en sorte que nous puissions être de notre temps.
Pour ce qui est de la science, plus précisément de la physique, le constat est le même. Nous sommes du XVIII ème siècle. Notre vision du monde est généralement celle de Newton. La révolution de la Relativité Générale, d'un côté, celle de la mécanique quantique, de l'autre, ont abouti à la description d'un monde fondamentalement différent. Il faut tenter d'approcher cette vision contemporaine si nous voulons, encore une fois, être de notre temps.

Qu'y a-t-il de si nouveau ?

Déjà la relativité générale d'Einstein aboutit (encore que cela n'ait pas été du goût de son concepteur) à une cosmologie qui met en évidence que notre univers a une histoire. L'univers newtonien est sans histoire. Astres et planètes y déroulent leur ballet indéfiniment répété. Chez Newton, il ne se passe rien. La cosmologie contemporaine nous offre la vision d'un univers en expansion accélérée qui a donc bien dû avoir un commencement. A projeter notre vision, classique sur cette idée, on imagine un commencement dans le temps alors que la relativité générale met en évidence un commencement du temps. Ainsi, non seulement notre appréhension classique nous masque la réalité des découvertes de notre temps mais encore nous empêche de les comprendre. Il faudra dénoncer au passage ce que Bachelard appelle des "obstacles épistémologiques".
Ensuite, la mécanique quantique nous conduit à la perception d'un monde dans lequel le déterminisme que nous voyons à l'oeuvre à notre échelle (qui est celle du monde newtonien) est absent de l'univers des atomes et des particules élémentaires dont le comportement est statistique. Là encore, il faudra lever des "obstacles épistémologiques" si nous voulons tenter de comprendre le comportement de l'infiniment petit. Notre matérialisme, par exemple aussi, nous empêche de saisir qu'il se pourrait très bien qu'une particule ne soit rien de matériel, que, d'autre part, notre univers soit constitué de près de 73% de quelque chose qui n'est pas matériel (l'énergie noire).

 Comment comptez-vous vous y prendre ? Le matériau est ardu ? Peut-on vraiment, sans tomber dans une vulgarisation exagérée, qui serait contre-productive, accéder à ces développements de la science contemporaine ?

Je compte utiliser, comme je l'ai fait pour l'art, la méthode de la comparaison. Présenter les recherches actuelles en comparant les démarches qui y conduisent à celles qui ont amené, hier, aux découvertes des siècles passés. La méthose est d'autant plus fructueuse qu'il ne s'agit pas d'opposer la science d'aujourd'hui à celle d'hier. La physique de Newton ne cesse pas de fonctionner, simplement la manière d'envisager les choses a changé. Ce n'est pas parce que Copernic met le soleil au centre que la Terre disparait. Simplement, pour expliquer ce qui se passe, ça marche mieux ! Et bien Einstein ça marche mieux que Newton. Ce qui n'empêche pas que Newton marche encore. La comparaison, parce qu'elle montre à la fois le point de départ et le point d'arrivée, donc la route parcourue, me semble la bonne méthode pour réaliser le dessein que je me propose.

Pas de vulgarisation alors ?

Non. C'est que je ne me propose pas de faire de la science. Ce n'est pas mon métier, ce n'est pas ma formation et je n'ai pas la compétence. J'entends faire de l'histoire de la science. Autrement dit, je n'irai pas jusqu'aux équations (sauf pour les plus simples) mais je devrai passer par la description des mécanismes, l'explication des résultats, la justification des hypothèses et ainsi de suite. Il me faudra être précis.
Je commencerai par 1) le modèle standard de la mécanique quantique, je poursuivrai avec 2) la cosmologie puis 3) la relativité restreinte et 4) la relativité générale.  A partir de là, je serai conduit 5) à un retour à la mécanique quantique pour la présentation des nouveaux modèles (théorie des cordes et théorie de la gravitation quantique à boucles) dont les 6) conséquences cosmologiques sont importantes (le multivers, par exemple). Je terminerai avec 7) quelques incursions dans l'astrophysique auxquelles les données cosmologiques conduisent inévitablement (la question, par exemple, des trous noirs).
Cet ordre n'est pas arbitraire. Le retour, par exemple, après passage par la cosmologie, à la mécanique quantique est justifié par le fait qu'un exposé préalable (dans le cadre de la première partie consacrée à cette discipline) n'aurait qu'un caractère anecdotique en n'empoterait pas la même signification.
Alors non, pas de vulgarisation. Ou alors, une vulgarisation sans vulgarité c'est-à-dire qui ne masque pas les difficultés, qui n'extrapole rien qui ne soit justifié par des équations ou des modèles acceptés ou discutés dans la communauté scientifique. Le type de travail effectué par l'excellent Etienne Klein, par exemple. La documentation sur laquelle je m'appuie ne relève que de la lecture et de l'écoute de spécialistes de ces domaines au nombre desquels de nombreux prix Nobel. J'ai exclu par principe comme source d'inspiration, les documentaires qui sont légion et qui sont trop souvent indexés sur le spectaculaire.
La science est déjà bien assez étonnante pour qu'on n'aille pas chercher ailleurs de prétendues émotions fortes. Attention ! Ce n'est pas là une condamnation de la science fiction qui imagine à partir des données de la science des univers tout à fait passionnants. Mais la science fiction dit qu'elle est fiction. Ce n'est pas le cas de certains de ces "documentaires" qui prétendent exposer les découvertes de la science et qui, ne visant en réalité que le spectaculaire, met la science dans l'arène d'un cirque et en travestit la signification.
Voila le projet.
Au travail ! 

TABLE DES MATIERES

Chapitre 1. -   La mécanique quantique : 1. Naissance de la mécanique quantique
Chapitre 2. -   La mécanique quantique : 2. Les particules
Chapitre 3. -   La mécanique quantique : 3. La théorie des champs 
Chapitre 4. -   La cosmologie : 1. Le big-bang 
Chapitre 5. -   La cosmologie : 2. L'évolution de l'univers
Chapitre 6. -   La cosmologie : 3. L'organisation de l'univers
Chapitre 7. -   La cosmologie : 4. La matière noire
Chapitre 8. -   La cosmologie : 5. L'énergie noire (ou sombre)
Chapitre 9. -   La physique : 1. La relativité restreinte 
Chapitre 10. - La physique : 2. La relativité générale
Chapitre 11. - La cosmologie : 6. Les modèles d'univers infini ou l'univers sans origine
Chapitre 12. - La cosmologie : 7. Les modèles d'univers fini
Chapitre 13. - L'astrophysique : 1. Les trous noirs en relativité générale
Chapitre 14. - L'astrophysique : 2. Thermodynamique des trous noirs
Chapitre 15. - La mécanique quantique : 4. Conductivité et supraconductivité 
Chapitre16. - La mécanique quantique : 5. Thermodynamique et mécanique quantique : gaz parfaits, gaz réels, gaz quantiques. Le condensat de Bose-Einstein, la superfluidité et la supraconductivité

ANNEXES
Annexe 1. - La physique : Les quadrivecteurs
Annexe 2. - La physique : Les ondes gravitationnelles
Annexe 3. - La mécanique quantique : La théorie des cordes
Annexe 4. - La mécanique quantique : La gravitation quantique à boucles 
Annexe 5. - L'astrophysique : Les rayons cosmiques  
Annexe 6. - La mécanique quantique : réalisme ou formalisme ?





 

Chapitre 1. La mécanique quantique : 1. Naissance de la mécanique quantique


Il ne s’agit pas simplement d’accumuler des connaissances relativement aux découvertes faites par la science, mais de comprendre aussi comment elles ont pu avoir lieu. Quelles expériences, quels problèmes, quels échecs, quelles exigences théoriques ont pu amener telle découverte et telle théorie.
De comprendre aussi les difficultés rencontrées par les théories élaborées, les problèmes qu’elles n’ont pas encore résolus, les contraintes auxquelles la réalité les soumet.
Il s’agit de comprendre la physique à partir de son histoire.



a. Le corps noir (Planck)

Tout commence avec le problème du spectre de rayonnement du corps noir.

Un corps noir est un corps idéal qui absorbe la totalité du rayonnement. Il ne réfléchit pas les rayons incidents, il ne les diffuse pas non plus. En revanche, il restitue sous forme de rayonnement électromagnétique (lumière) toute l’énergie qu’il reçoit (faute de quoi il s’échaufferait infiniment). A l’équilibre thermique, il émet autant d’énergie qu’il en reçoit.
Ce rayonnement a un spectre et il est le même quelle que soit la matière qui constitue le corps noir. A une même température, un morceau de bois ou une pièce métallique ont exactement la même couleur. C’est pourquoi l’étude du spectre du corps noir (d’une étoile par exemple) renseigne précisément sur sa température. La lumière émise par le soleil (qui est un corps noir) est bleue (il nous paraît jaune à cause de la diffusion dans l’atmosphère). Sa température est donc de l'ordre de 6000 kelvin (5778 kelvin).

La loi de Raleigh-Jeans, fonctionnant sur un modèle du corps noir assimilé à un gaz prédit parfaitement la température pour des grandes longueurs d’onde (donc les basses fréquences, donc les faibles niveaux d’énergie), mais elle prédit pour les courtes longueurs d’onde (donc les hautes fréquences, les hauts niveaux d’énergie) ce qu’on a nommé « la catastrophe ultraviolette »,  un système doté d’un niveau d’énergie infini, c’est-à-dire une explosion. Ce que contredit (heureusement) l’expérience.

C’est Planck qui résout mathématiquement le problème en faisant intervenir une constante : h (la constante de Planck : 6,625.10-34 joule.seconde). (Remarque : ce nombre correspond à la quantité d’énergie qu’il faut fournir à un atome d’hydrogène pour lui arracher son électron).

En effet, Jeans a tort de considérer le corps noir comme un gaz.. Dans un volume de gaz toutes particules finissent par avoir la même énergie (entropie d’un système fermé : 2ème loi de la thermodynamique). Autrement dit, les particules lourdes sont ralenties par les collisions et les particules légères accélérées. Ce qui permet une équipartition de l’énergie dans le système.
Or, un corps noir n’est pas un gaz. Dans le volume de gaz considéré, les particules étaient en nombre fini. Dans un corps noir le nombre de modes est infini. Qu’est-ce qu’un mode ? Le dispositif expérimental du corps noir est un four. Il est parfaitement isolé de l’extérieur et sa paroi interne, granuleuse, est noire. Un trou est percé en un endroit par lequel entre le rayonnement. Les rayons (particules) rebondissent sur les parois en perdant de l’énergie à chaque rebond (donc en échauffant la paroi qui absorbe cette énergie perdue).





Il faut concevoir que la paroi de ce four est composée d‘oscillateurs harmoniques (ce que, quand on aura accepté l’hypothèse des atomes, encore peu admise en 1900, on appellera des  atomes) qui, en vibrant, émettent un rayonnement à une certaine longueur d’onde (mode).
Le nombre des longueurs d’onde possibles (des modes) est infini, ce qui rend impossible l’idée d’une équipartition de l’énergie (diluée à l’infini elle serait nulle !). Il faut donc introduire quelque chose qui rompe cette continuité de l’infini : une constante, h. De la sorte, les échanges d’énergie (entre l’oscillateur et le rayonnement) sont des multiples de h, donc des valeurs discrètes, non continues. En un mot, l’énergie s’échange (entre matière : l’oscillateur et lumière : le rayonnement) par quanta, par paquets et non de façon continue.
Ces quanta sont fonction de la fréquence v : h.v.
Soit une basse fréquence (grande longueur d’onde, fréquence basse, vers le rouge par exemple). La valeur du quantum  h.v  est petite. Le rayonnement est facile à émettre, pour un oscillateur. Soit une moyenne fréquence (les autres couleurs dans le visible), la valeur du quantum à émettre augmente et devient moins probable. Soit enfin une haute fréquence ultraviolet et au-delà , la valeur du quantum devient si grande qu’il s’en émet de moins en moins, jusqu’à plus du tout. L’oscillateur ne dispose pas d’assez d’énergie pour émettre de tels quanta. Ainsi : pas de catastrophe ultraviolette !
 
Planck (en 1900), qui ne croit pas encore à l’atome (à la discontinuité dans la matière) vient d’introduire une discontinuité dans les échanges entre lumière et matière (le quantum d’énergie) qui va donner naissance à une nouvelle physique : la mécanique quantique. Ce qui n’est pour lui qu’un artifice mathématique pour éviter la catastrophe ultraviolette, sans réalité physique correspondante va, avec Einstein, devenir le principe d’une révolution dans la physique.

b. L’effet photoélectrique (Einstein)

On remarque que de la lumière projetée sur une plaque métallique lui arrache des électrons. Ce qui est incompatible avec une conception purement ondulatoire de la lumière. On remarque en outre que l’intensité lumineuse n’est pour rien dans ce phénomène (elle ne concerne que le nombre de photons émis, pas l’énergie qu’ils portent). En revanche, la longueur d’onde (donc la fréquence) joue un rôle important. Les basses fréquences sont sans effet, plus la fréquence augmente, plus le nombre d’électrons arrachés est important. Il faut en conclure que la lumière est faite de grains d’énergie (les photons) dont l’énergie augmente avec la fréquence (v) et que c’est donc par paquets d’énergie (quanta) que lumière et matière interagissent.
Remarque : si on augmente l’intensité, le nombre d’électrons arrachés sera plus important, il est vrai, mais l’énergie qui leur est communiquée ne sera en rien augmentée.

L’électron gagne l’énergie perdue par le photon et se trouve ainsi arraché. L’énergie d’un photon est donc liée à la constante de Planck et est fonction de la fréquence :
                            
                    E = h.v (en joules ou, plus fréquemment en électronvolts : eV).

Du coup, la lumière n’est pas simplement une onde, elle a aussi un comportement corpusculaire. Le photon représente le grain d’énergie le plus petit. La lumière est elle-même quantifiée. Non seulement l’émission de lumière est quantifiée (Planck, le corps noir) mais même une fois émise elle le demeure (le photon, grain d'énergie).

Il restera à Bohr à montrer que la quantification n’affecte pas que la lumière. Qu’elle concerne aussi les atomes.

c. Ondes et corpuscules

En physique quantique, depuis De Broglie, un objet est à la fois une onde et un corpuscule. Il serait plus exact de dire : ni une onde ni un corpuscule. Le montre l’expérience des fentes de Young.


 Les franges d’interférence

Une onde lumineuse passant par les deux fentes du dispositif se restructure au moment du passage en deux ondes qui interfèrent et produisent des franges d’interférence sur l’écran qui les reçoit.

Des corpuscules (photons, électrons, etc) passant entre les fentes (un à un) vont donner des impacts sur l’écran de réception mais tels que, au bout d’un certain temps (ci-dessous, de b) à e) ), on retrouve les franges qui étaient dues à l’onde.


 
Il faut admettre que chaque photon passe en même temps par les deux fentes (se comporte comme une onde) avant d’aller s’inscrire, conformément aux interférences qu’il a avec lui-même (comme onde), sur l’écran de réception.

Dans une même équation (la fonction d’onde) le formalisme mathématique de la physique quantique arrive à intégrer ces deux aspects.

Problème L’équation écrit sans doute les deux choses dans une même unité, mais on ne saurait les observer que séparément. Si on choisit de détecter une onde on détectera une onde. Un corpuscule ? On détectera un corpuscule. Les propriétés de l’objet observé dépendent de l’appareillage utilisé pour leur observation. Toute observation correspond à une réduction. On ne perçoit qu’un aspect possible du phénomène à la fois.
Il faut donc admettre qu’un électron, un photon, une particule est un corpuscule non localisé. Il se trouve en plusieurs endroits à la fois (dans une fente et dans l’autre). Son onde définit une probabilité de présence (quand il arrive sur l’écran, sa probabilité de présence en un point dépend de l’interférence : là où les deux ondes s’annulent, sa probabilité de présence est nulle, elle est au maximum lorsqu’elles sont en phase). Et quand la mesure précise intervient, on réduit l’état de la particule à un seul  de ses aspects. La mesure change le vecteur d’état de l’électron.

On pourrait voir en cela l’insuffisance des moyens de mesure, penser qu’un appareillage de meilleure qualité permettrait de lever cet obstacle. C’est croire qu’avant qu’on en détermine la position, la particule occupe une position bien précise. Or ce n’est pas le cas. Elle occupe une multitude de positions que la mesure réduit à une seule.

Ce caractère probabiliste conduira Einstein à penser que la théorie est incomplète, qu’elle n’aperçoit pas des variables locales  cachées (celles qui sont au voisinage de la particule) qui, si elles étaient révélées, permettraient de lever cette indétermination.

d. Le principe « d’incertitude » de Heisenberg

Le terme qui traduit l’allemand est indétermination plus qu’incertitude. Car il n’est pas question ici d’incertitude. Ce n’est pas qu’on ne puisse pas connaître avec précision à la fois la position (x) et l’impulsion (p) d’une particule, au sens où cette particule aurait une position (x) et une impulsion (p) précises antérieurement à toute mesure, c’est que cette position et cette impulsion sont indéterminées.
                                                           
Delta x . Delta p >= h
 
Une fois encore, c’est la mesure qui opère une réduction du paquet d’onde à une seule de ses possibilités.
L’univers microscopique, à la différence de l’univers le la physique classique (newtonienne) est indéterminé.

e. Le principe de superposition : principe fondamental de la mécanique quantique.

(Remarque : on entre ici dans la théorie alors qu’on disait, pour le moment, s’en tenir à l’histoire. C’est que la théorie résultant immédiatement de l’histoire, il n’est pas toujours possible de les dissocier.)

Dire qu’une particule est une onde, c’est simplement dire qu’elle a une propriété fondamentale de non localité. Qu’elle peut simultanément être en plusieurs endroits. En cela consiste le principe de superposition. C’est cela que décrit la fonction d’onde ou vecteur d’état.
Qu’appelle-t-on « état » ? Les électrons, par exemple, ont des propriétés communes (même masse, même charge électrique) mais ils n’ont pas nécessairement la même énergie, la même vitesse, la même position, le même spin). En un mot, ils n’ont pas le même état.
En généralisant le principe de superposition de la mécanique ondulatoire, en faisant comme si les particules étaient des ondes, on rend compte de cet état.

Dans l’expérience des fentes de Young, le seul moyen de savoir par quelle fente le photon ou l’électron passe, c’est de mettre un détecteur sur l’une des fentes. Or, on constate qu’à ce moment là, la particule passe en effet par une fente ou (et non plus et) par l’autre mais qu’elle se loge n’importe où sur l’écran (plus de franges d’interférence). Elle a perdu son caractère ondulatoire, elle est réduite à son caractère corpusculaire.
Ainsi, l’électeur indécis superpose-t-il dans son esprit les votes possibles. Mais devant l’urne qui va mesurer la « valeur » de telle ou telle candidature, l’électeur doit se décider et sa décision ne m’apprend rien sur son état antérieur à son vote, si ce n’est qu’il y avait une probabilité pour qu’il vote comme il l’a fait.
Un ambigramme, de Hofstadter (qui ne fonctionne qu’en anglais), illustre cette superposition caractéristique des objets quantiques.

 
f. L’intrication : deuxième principe fondamental de la mécanique quantique.

Deux atomes (l’un dans un état excité et l’autre non) entrent en collision. Sachant que l’énergie doit être conservée, deux choses semblent pouvoir se produire : soit ils repartent tous les deux avec leur niveau d’énergie initial non changé, soit ils échangent de l’énergie et repartent en sens inverse l’un de l’autre. Et bien, ce n’est pas « soit ». Le système peut être dans une superposition des deux états. C’est la mesure qui fera apparaître soit l’un soit l’autre.
Toutefois, les deux états du système n’en sont pas moins corrélés. Si à la mesure on trouve un des deux atomes à l’état excité, l’autre sera à l’état non excité. Lorsque deux atomes ont une fois interagi, leurs états sont intriqués. Quelle que soit la distance (même en années lumière) qui les sépare désormais, toute intervention sur l’un affecte l’autre. Quelle que soit la distance ? Cela signifie qu’il n’y a pas d’échange d’information entre les deux atomes lors de la mesure (il faudrait du temps pour que cette information s’échange puisque la vitesse de la lumière est limitée). Connaissant l’état de l’un, je connais au même instant l’état de l’autre..

g. L'article EPR (1935) (Einstein, Podolsky, Rosen) et les inégalités de Bell (1964)

g1. On l’a dit, Einstein, quelque révolutionnaire qu’il ait pu être, reste « classique » sur un point : « Dieu ne joue pas aux dés », l’indéterminisme de la mécanique quantique ne peut tenir qu’à l’incomplétude de la théorie. Il doit y avoir des variables cachées qui, si elles étaient prises en compte, lèveraient l’indétermination. Plus précisément, ce qui heurte Einsntein, c'est la non-localité que suppose, par exemple dans le cas de l'intrication,  la théorie quantique "orthodoxe" (école de Copenhague, Bohr). Deux particules intriquées sont dans un seul et même état et non dans deux états individuels, de sorte qu'une mesure effectuée sur la première affecte instantanément la seconde.

D’où l’article écrit en commun par Einstein avec deux autres physiciens.
Soit une source S émettant simultanément 2 photons au centre d’un laboratoire de volume arbitraire (très petit à quasi infini). Des détecteurs placés dans des positions symétriques par rapport à la source reçoivent en même temps l’impact d’un photon. Les deux photons sont dans la même direction mais de sens opposé  (il n’y a pas de superposition d’un ensemble de directions possibles). Il a donc fallu qu’ils échangent de l’information au départ (puisqu’elle n’a pas le temps de se propager d’un photon à l’autre une fois qu’ils sont partis). Mais comme cet échange échappe à l’observateur (variable cachée) on parle d’indétermination. Les deux photons émis par le même atome sont corrélés.
Si on dispose de deux cartes (pique et cœur) et qu’on en remette une à un premier acteur, l’autre au second, la probabilité pour que le premier aie pique est de ½. Mais dès qu’il aura pris connaissance de sa carte, il saura, sans qu’on ait à la découvrir que le second aura cœur. Et ce n’est pas parce que le premier a pris connaissance de sa carte que celle de l’autre est un cœur. Sans provoquer la moindre perturbation, la mesure (la découverte de la 2ème carte) ne laisse place à aucune indétermination. La variable cachée qui introduit ici une probabilité ½ c’est simplement le battage des cartes qui précède l’attribution de celles-ci à chacun des acteurs. Un observateur affûté pourrait lever cet indéterminisme en suivant attentivement ce battage et la distribution. Mieux : la connaissance de la deuxième carte est effective sans qu'aucune mesure ait été pratiquée sur elle. Rien ne l'a contraint à être un coeur. Il faut donc bien qu'elle l'ait toujours été (indépendamment de toute intervention d'un appareil de mesure). Elle est réellement un coeur.
Précisons encore ce qu'on entend exactement par local et non-local. Le cône de lumière, schématise ce que Einstein entend par localité. Deux événements proches dans le temps  ne peuvent agir l’un sur l’autre si l’espace qui les sépare est tel que la lumière n’a pas le temps d’aller de l’un à l’autre pendant cet intervalle de temps.Ainsi, si l'état de la seconde particule subit l'influence de la mesure portant sur la première de façon instantanée, c'est ou bien qu'elles étaient pragrammées toutes les deux dès l'origine pour répondre comme elles font, ou bien une violation de la non-localité inadmissible en relativité.

La réponse de la mécanique quantique à cette objection :  les deux photons intriqués n’ont pas chacun un état. Ils n’ont pas de réalité individuelle. Il y a un état des photons intriqués qui est tel que lors de la mesure appliquée au premier, celui-ci est réduit à un état et l’autre à l’état opposé. Dans l’univers microscopique, le premier acteur emporte une superposition pique-cœur et, au moment où il prend connaissance de sa carte, celle-ci se réduit à être un pique (ou un cœur) de sorte que l’autre est réduite à être un cœur (ou un pique). C’est l’image qui nous a trompés, parce qu’elle est empruntée à l’état macroscopique où la superposition de deux cartes n’existe pas. Où un chat (le fameux chat de Schrödinger) ne peut être à fois mort et vivant. Mais dans l’état microscopique, justement, ce qui vaut pour le macroscopique (le déterminisme) ne fonctionne plus. Une particule peut être et ne pas être, être ici et là, etc.

g2. Bell, en 1964, introduit ces paramètres supplémentaires (variables cachées) et imagine le moyen de prouver leur existence. La chose étant complexe, on se bornera à en décrire l’intention. Au moyen d’une série d’équations, Bell définit une inégalité qu’une théorie à variable cachée locale doit toujours satisfaire. Toutes les théories locales doivent respecter une certaine inégalité (toujours mise en évidence au niveau macroscopique) garantissant un rapport causal déterministe entre les événements.

La réponse de l’expérience : en microphysique, ces inégalités sont toujours violées. Autrement dit : oui bien il a des variables cachées et la théorie est non-locale (de Broglie, Bohm) ou la théorie est locale et il ne peut y avoir de variables cachées.

g3. Il faudra attendre 1982 et l’expérience d’Alain Aspect pour montrer qu’il n’y a pas à supposer de variables cachées. Les deux photons émis simultanément ne sont pas des entités distinctes, ils forment un système dont les propriétés ne sont pas localisées dans l’un ou l’autre photon. Autrement dit alors que pour deux particules indépendantes, l’état du système qu’elles forment peut s’écrire : Etat (1+2) = Etat (1) + Etat (2), lorsque les particules sont intriquées, une telle décomposition n’est pas possible. Le système intriqué est E(1).E(2).

1) D’abord on fait en sorte de faire émettre deux photons par un même atome et on les fait aller dans deux directions opposés sur des détecteurs situés chacun à 6,3 m de la source. 5 ns (nanosecondes) séparent l’émission de chaque photon. On constate que c’est le temps qui sépare la détection des deux photons. Supposons que le détecteur qui capte le premier photon envoie instantanément un signal en direction du deuxième détecteur situé à 12,6 m de lui. Le signal met 42 ns pour parvenir au second détecteur : bien trop tard pour informer la particule de l’état quelle « doit » présenter. Ainsi, l’intrication n’est pas liée à la communication de l’information d’une particule à une autre. Première chose. Il y a un seul et même état pour les deux particules. Quand la réduction  du fait de la mesure a lieu pour l’une il a donc instantanément lieu pour l’autre.

Mais (variable cachée) peut-être ont-il échangé au départ cette information ?

2) Il ne s’agissait plus que de montrer expérimentalement la violation des inégalités de Bell. Ce que fit, de 1980 à 1982, Alain Aspect.

Remarque. C’est ce qui est à la base de la cryptographie quantique. Un message crypté par les méthodes classiques peut être décrypté si on parvient à retrouver le code. Et les correspondants ne seront même pas au courant du fait qu’ils sont devenus transparents. Le cryptage quantique 1) est tel qu’il est infiniment plus complexe à décoder mais surtout 2) que les communicants sont immédiatement informés de ce qu’ils sont espionnés ! En effet, la détection par l’espion est une mesure qui opère donc une réduction. Celle-ci est immédiatement observée par le récepteur du message.

h. Bilan provisoire.

La mécanique quantique est irréductible à la physique classique. Le monde quantique a des propriétés fondamentalement différentes de celles du monde à notre échelle.

C’est d’abord un univers probabiliste où règne l’indétermination. On ne peut rien dire de précis sur l’état d’une particule avant d’avoir effectué une mesure qui modifie cet état, le réduisant à l’une seulement de ses possibilités.

C’est qu’y domine la superposition des états. Une particule occupe une multitude de positions, est dotée d’une multitude de quantités de mouvement, de spins différents. Mieux, elle est à la fois une onde et une particule ou plutôt (puisque superposition) ni l’une ni l’autre.

C’est un monde discontinu. Non seulement la matière est discontinue (faite d’atomes, de protons, de neutrons, de quarks, d’électrons, etc) mais l’énergie elle-même est discontinue, s’échangeant par paquets (les quanta).

C’est un monde où existe l’intrication qui fait que deux particules ayant une fois interagi, elles n’existent plus que dans un seul état de sorte que, quelle que soit la distance qui les sépare, elles restent indissolublement corrélées

On retiendra deux formules :



E = h.v  qui donne l’énergie d’un photon comme le produit de la constante de Planck ( h = 1,625.10-34 j.s) par la fréquence (v)

x . p >= h qui est le principe d’indétermination (plutôt que d’incertitude) de Heisenberg et qui pose que l’incertitude sur la position d’une particule (Dx) augmente avec la précision sur la quantité de mouvement ou impulsion (p) ou inversement.

On retiendra l’existence de cette constante fondamentale qu’est la constante de Planck (h) qui régit tout cet univers et dont le rôle en cosmologie (voir plus loin) est aussi fondamental.



Chapitre 2. La mécanique quantique : 2. Les particules



On a vu comment Planck, pour résoudre le problème du corps noir introduisait avec sa constante une discontinuité dans les échanges énergétiques entre matière et lumière sans admettre (encore, il le fera quelques années plus tard) l’existence d’une discontinuité dans la matière : les atomes.
Il reviendra à Bohr de faire sur la matière ce que Planck a fait sur l’énergie et Einstein sur la lumière : d’y introduire la quantification.
                
a. Les modèles de l’atome de J.J. Thomson à Bohr.

a1. J.J. Thomson
A la fin du XIXème siècle la notion d’atome est loin d’être acceptée. On découvre à la fin du siècle les rayons X. J.J. Thomson en 1898 considère les rayons cathodiques comme « des corpuscules d’électricité négative ». A la même époque on découvre aussi la radioactivité. Il va falloir l’hypothèse atomique pour expliquer ces phénomènes.
Thomson est le premier à faire l’hypothèse de ce que c’est qu’un atome en 1904.


L’atome est une « boule, un gel de charge positive » dans laquelle tournent les « particules de charge négative » sur des orbites stabilisées.
L’existence de ces « particules de charge négative » est montrée par les expériences sur les « rayons cathodiques » déviés par un champ électrique.




a2. Rutherford
Toutefois, un problème est soulevé par le comportement des particules alpha. Projetées sur une feuille d’or, la plus grande partie traverse en ligne droite, d’autres sont plus ou moins déviées, d’autres enfin sont carrément renvoyées vers l'arrière.


 
Cela conduit Rutherford à penser que l’atome est essentiellement constitué de vide (les rayons traversent sans déviation). Avec un obstacle massif de petite dimension : le « centre de force » (les rayons qui le heurtent retournent en arrière) chargé positivement (et responsable, donc, de la déviation des particules alpha positives [elles corresponden,t à un noyau d’hélium 4] qui passent à proximité de ce noyau lui-même positif).
 
D’où un nouveau modèle de l’atome. Où le « centre de force » devient un noyau. Ce noyau contient la presque totalité de la masse de l’atome. Des électrons gravitent autour de lui.
L’inconvénient, c’est que le modèle n’est pas stable. Les électrons en tournant rayonnent, perdent de l’énergie et peu à peu s’effondrent vers le noyau. Pendant un temps, la force centrifuge, due au mouvement circulaire autour du noyau, préserve l’électron de cet effondrement ; mais la diminution de l’énergie due au rayonnement de l’électron fait qu’il est ralenti et que finit par triompher l’attraction.


a3. Bohr
Bohr en 1913 se rend compte que de ce que l’électrodynamique classique est impuissante à résoudre le problème. Les électrons ne peuvent pas occuper n’importe quelle orbite autour du noyau. Il faut faire intervenir la constante de Planck et concevoir chaque orbite comme un niveau défini d’énergie. Ci-dessous, par exemple, les niveaux d’énergie de l’atome de sodium.





Parmi tous ces niveaux d’énergie, il en est un qui est l’état fondamental (n = 1) et en deçà duquel, étant donné que les états sont quantifiés, il n’est pas possible que l’électron descende. Il ne peut donc rejoindre le noyau. L’atome est stable. Cela veut dire encore que, placé sur son niveau d’énergie, l’électron ne rayonne pas. S’il émet un photon (donc s’il rayonne), il change simplement de niveau (descend sur un niveau inférieur). Et s’il est au niveau fondamental, il n’a pas l’énergie pour émettre un photon.

On avait remarqué que les atomes avaient un spectre caractéristique. On pensait (Nicholson, par exemple) que les particules « vibraient » et produisaient par conséquent des fréquences de rayonnement. Mais, pour que le spectre d’un atome soit caractéristique (voire même caractérisé) il fallait admettre une discontinuité dans ces vibrations.
Bohr explique alors que les électrons occupant un niveau d’énergie déterminé, lorsque l’atome est excité, les électrons soient absorbent de l’énergie (un photon) et changent brusquement de niveau (de E1 vers E2, par exemple) soit dépensent de l’énergie et changent aussi de niveau (de E2 vers E1, par exemple). Il se crée alors dans le spectre soit une raie d’absorption soit une raie d’émission. Et comme d’un atome à un autre les niveaux d’énergie sont différents, les raies d’absorption et d’émission sont caractéristiques de chaque atome.. Le spectre des atomes est donc lié aux transitions des niveaux d’énergie.
Grâce à ce spectre des atomes, on peut accéder, à partir de leurs émissions lumineuses, à la composition atomique des étoiles.


La quantification de l’atome est effective.

Plus précisément, pour qu’un atome passe d’un état fondamental (état stable d’énergie la plus basse) à un état excité, il faut qu’un photon dont l’énergie (E = h.v est égale à la différence entre l’état d’énergie (E2) et l’état d’énergie (E1) soit absorbé par l’électron qui peut ainsi sauter à l’état d’énergie (E2). Ou, si l’énergie du photon est égale à (E3 – E1) l’électron peut passer directement à (E3), et ainsi de suite. Inversement, l’électron descendra d’un niveau en libérant un photon dont l’énergie est exactement la différence entre le niveau de départ (excité) et le niveau final (fondamental) ou un niveau excité inférieur.
Ce qui est important, c’est que le photon considéré doit avoir au moins une énergie égale à la différence des niveaux. Faute de quoi il ne se passe rien.
La notion de quantum d’énergie prend ici tout son sens.

Remarque. Lorsque le photon incident dispose d’une énergie supérieure au niveau le plus haut d’énergie de l’atome considéré, l’électron est purement et simplement arraché à l’atome qui devient un ion.

Par ailleurs, il faut savoir qu’un atome « n’aime pas » être excité. Il tend spontanément à retrouver son état fondamental (d’équilibre, en somme). Ainsi, un électron passé à une couche supérieure tend à libérer son énergie en un photon pour revenir sur la couche initiale. Ou, s’il est propulsé sur une couche supérieure, un électron d’une couche immédiatement supérieure libère un photon pour venir prendre sa place.



a4. L’invention du spin

En 1916, Sommerfeld modifie le modèle de l’atome de Bohr en ajoutant deux de degrés de liberté à l’électron : la possibilité d’orbites elliptiques (l = nombre quantique orbital), et la possibilité pour ces orbites de changer de trajectoire en présence d’un champ magnétique (m = nombre quantique magnétique).
 

L’effet Zeeman montre en effet que lorsqu’une source de lumière est soumise à un champ magnétique statique,  les raies spectrales de la source se divisent en un nombre impair de  composantes (effet normal) ou, si le champ magnétique s’intensifie,  un nombre pair (effet anomal), chacune d’elles présentant une certaine polarisation dépendant de l’orientation du champ magnétique par rapport à l’observateur. Ces dédoublements de raies d’émission résultent d’un saut électronique à l’intérieur du nuage électronique.




 

L’électron est donc décrit par trois nombres quantiques en 1916 : n, nombre principal,  l, nombre orbital (secondaire ou azimutal) et m, nombre magnétique.

Les orbitales définissent à présent une probabilité de présence de l’électron dans un volume donné. L’électron n’emprunte plus un chemin précis, plutôt une série de trajectoires possibles. Il est devenu un nuage. Chaque orbitale peut contenir 0, 1 ou 2 électrons. Il existe différents types d’orbitales : un type  s (pour sharp, sphérique), trois types  p  (pour principal, plan nodal), cinq types de  d (pour diffuse, 4 lobes et 2 plans nodal), etc.



 

On voit qu’il ne s’agit plus de décrire les électrons comme des « planètes » ou selon une organisation en couches successives comme c’était encore le cas dans l’atome de Bohr. Chaque orbitale représente seulement un volume de probabilité de présence pour un électron.

Plusieurs orbitales étant possibles pour une même combinaison de n et l, elles se distinguent alors par le nombre quantique magnétique (m ou ml) définissant l’orientation que peut prendre l’orbitale dans un champ magnétique extérieur.
Le nombre d’électrons qui peuvent se placer sur une orbitale est défini par le principe de Pauli. Chaque orbitale ne peut accueillir que 2 électrons (un de spin +1/2, l’autre de spin –1/2).
Ainsi, sur la couche L  (n=2), par exemple :
On voit, dans le tableau ci-dessus, qu’aux trois nombres quantiques définissant l’électron (n, l et m ou ml) s’en ajoute un quatrième : ms ou simplement s, désignant le spin de l’électron.. C’est que le mouvement orbital à lui seul ne rend pas compte de tout. En particulier, l’expérience de Stern-Gerlach, en 1922, qui fait passer des atomes d’argent (dans leur état fondamental) dans un champ magnétique non-uniforme de direction verticale, fait apparaître une division en deux du faisceau (avec rien au centre) au lieu d’une tache continue verticale, alors que l’atome d’argent dans son état fondamental a un moment cinétique nul et un moment magnétique orbital également nul, de sorte que le faisceau devrait être insensible au champ magnétique. Ce qui veut dire que le mouvement orbital ne rend pas compte du phénomène.


La réponse est un quatrième nombre quantique  s, le spin (que Dirac en 1928 intègrera à l’équation de Schrödinger qui décrit la fonction d’onde d’un système). Pour l’atome d’argent, il doit exister deux états possibles de spin : +1/2 et –1/2. Attention ! Qu’on définisse le spin comme le moment cinétique intrinsèque d’une particule ne signifie nullement que celle-ci, telle une toupie, tourne sur elle-même dans un mouvement de rotation. Il ne s’agit pas de mouvement dans l’espace. Cela signifie plutôt que la particule se comporte comme un aimant




Remarque 1. Principe de Pauli. La notion d’orbitale rend compréhensible le fonctionnement du principe de Pauli que le modèle de Bohr ne manifeste pas avec évidence. Le principe de Pauli pose que deux particules ne peuvent être dans le même état quantique. Au niveau d’énergie n=1 on a deux électrons. Mais de spins opposés. Donc dans des états différents. Au niveau n=2, en revanche, on a 8 électrons. Tous sur le même niveau. Tous dans le même état ? Non, parce qu ‘appartenant à des orbitales différentes.

Pour n=1, l=0 et m=0. Les deux électrons (distingués par leur  s) sont sur l’orbitale s

Pour n=2, l=0 ou l=1. Si l=0, m=0 on a deux électrons sur l’orbitale s. Et si l=1 alors m=-1, m=0 et m=1 et on a (puisque à chaque fois 2 spins différents) 6 électrons sur l’orbitale p. (Voir tableau un peu plus haut).
Remarque 2. Remplissage des orbitales 


Chaque case peut contenir jusqu’à deux électrons (de spins opposés). On place d’abord, sur chaque orbitale, un électron par case puis on remplit avec un deuxième. Une seule exception : on remplit  4S après 2P avant de remplir 1d.
Exemple d’un atome d’oxygène (Z = 8)



b. Les particules élémentaires de matière.


Ce sont des fermions. De spin ½.

Un atome est constitué d’un noyau et d’électrons. Son état de plus basse énergie est appelé état fondamental. C’est son état le plus stable. n (nombre quantique principal de l’atome) = 1. Chaque état où n > 1 est un état excité.
Les atomes (voir plus loin la cosmologie) constituent 4% des constituants de l’Univers.

L’électron  est caractérisé par une charge (électrique) négative. Les électrons sont répartis par couches (niveaux d’énergie). La couche la plus basse (où l’énergie de liaison est la plus grande, l’attraction, autrement dit, la plus forte) est la couche K. Elle comporte au plus 2 électrons. Viennent ensuite les couches L (8 électrons), M (18 électrons), etc.
Puisque le niveau énergétique d’une couche est fonction de l’énergie du photon qui, émis ou absorbé, permet le passage d’une couche à une autre, le niveau est un multiple de E = h.v qui définit l’énergie du photon.


Remarques :
1) Le rayonnement consiste en ceci qu’un électron excité émet un photon (pour revenir au niveau antérieur), celui-ci est capté par un autre électron qui se trouve donc excité avant de libérer un autre photon pour revenir à son niveau antérieur. Le photon émis … etc, de proche en proche.
2) La transparence. L’hydrogène, par exemple, est transparent à la lumière visible dont la longueur d’onde varie de 400 à 800 m et dont l’énergie varie donc de 3,0 à 1,5 eV. Comme  il faut une énergie de 10,21 eV pour faire passer un électron de cet atome du niveau n=1 au niveau n=2, le photon (d’énergie insuffisante) ne réagit pas avec l’électron de l’hydrogène et le traverse.
3) La couleur et le spectre. Chaque couleur de la lumière est une fréquence particulière d’un photon (correspond à un niveau d’énergie d’un photon). Il en résulte que chaque atome a son spectre électromagnétique c’est-à-dire  un ensemble de longueurs d’onde qu’il est capable de produire..
Dans le spectre, les raies lumineuses correspondent à une émission de photon, donc à une diminution d’énergie du système. Les raies sombres à l’absorption de photons, donc à l’élévation de l’énergie du système.

 

4) Un atome peut être excité aussi par des collisions avec d’autres particules (que les photons). L’énergie communiquée à l’atome est prélevée sur l’énergie cinétique de la particule qui le choque. L’effet de ces collisions est dû à la température. A basse température, les collisions sont faibles et insuffisantes à produire une excitation. Plus la température augmente plus les collisions sont nombreuses et puissantes.

Le noyau a une charge électrique positive. Il est composé de protons et de neutrons.

Le proton, chargé positivement est composé de trois quarks (u,u,d). [u = up et d = down ]

Le neutron, sans charge électrique est composé de trois quarks (u,d,d)


Les quarks. Ils composent les protons et les neutrons du noyau ainsi que les mésons (quark + antiquark).
Le quark u (up) a une charge électrique (+2/3) et le d (down) une charge électrique (–1/3) de sorte qu’on a pour le proton : 2/3 + 2/3 – 1/3 = 1 et pour le neutron 2/3 – 1/3 –1/3 = 0. Le premier a en effet une charge positive et le second est neutre.
Il existe trois familles de quarks : la première (elle est réelle) est celle des quarks Up et Down, la seconde (qui a existé au début de l’Univers et qui est produite dans les collisionneurs de particules) est celle des quarks Charme et Strange. La troisième (idem) est celle des quarks Top (ou Vérité) et Bottom (ou Beauté).
En outre, chaque quark possède trois couleurs : rouge, bleu et vert (et les anti-quarks, trois anti-couleurs : cyan, magenta, jaune). Naturellement, il ne s’agit pas des couleurs au sens optique du terme. Il s’agit d’une charge. Pour pouvoir être observée, une particule formée de  quarks doit être neutre en couleur (blanche c’est-à-dire composée de trois quarks de couleurs différentes). Ainsi les quarks ne peuvent-ils jamais être directement observés.

Il existe en outre des assemblages dits "exotiques" comme les tétraquarks (assemblage de deux quarks et de deux anti-quarks) voire les pentaquarks (assemblage de quatre quarks et d'un antiquark). On (la collaboration D0) aurait découvert début 2015 un assemblage de quatre quarks (X(5568)) de saveurs différentes (up, down, strange, bottom). Reste à établir s'il s'agit d'un état à 4 quarks ou d'une "molécule" composée de deux paires de quarks.


c. Les particules élémentaires d’énergie : les bosons

Lorsque Newton découvre les lois de la gravitation, il met en jeu des forces  qui agissent à distance. Cela pour lui ne s’explique pas.
Cette action à distance est aujourd’hui rejetée tant par la théorie de la Relativité Générale que par la mécanique quantique.
Dans l’univers microscopique, toute interaction met en jeu une particule qui permet l’échange entre deux particules de matière. Cette particule de liaison est le boson.

Outre l’interaction gravitationnelle qui joue à grande échelle, trois autres interactions agissent au niveau atomique et chacune est portée par un boson. A la différence des fermions, les bosons ont un spin = 1


L’interaction forte maintient dans le noyau les protons qui, de charge positive, tendent à s’écarter les uns des autres. Dans les protons et les neutrons, elles tient ensemble les quarks. Les bosons responsables de cette interaction sont les gluons. Ils sont dotés d’une très grande énergie (convertie en masse selon la relation  E = m.c², cette énergie est responsable de 90% de la masse du proton). Ils n’ont pas de charge électrique (elle les empêcherait de jouer leur rôle) et leur masse est nulle. Comme tels (toute particule de masse nulle se déplace à la vitesse de la lumière), ils définissent une interaction qui devrait avoir une portée infinie. Elle ne dépasse pourtant pas 10-15 m à cause d’un effet de confinement qui concerne les particules élémentaires possédant une charge de couleur.
Cet effet de confinement tient à ce qu’on appelle la liberté asymptotique qui consiste en ce que l’attraction forte a un comportement inverse de l’interaction électromagnétique ou de la gravitation : la force augmente avec la distance. Deux quarks voisins n’interagissent plus. En revanche, plus ils s’éloignent l’un de l’autre plus la force qui les relie augmente (comme deux objets situés aux bouts d’un ressort tendu). C’est ce qui explique le confinement.
Un gluon est associé à une couleur et une anti-couleur. Quand il est échangé entre deux quarks, il échange les couleurs de ces derniers. Un quark rouge qui interagit avec un quark vert devient vert tandis que l’autre devient rouge. Dans un baryon, constitué de 3 quarks, il existe donc six gluons reliant chaque couleur à chacune de ses deux couleurs complémentaires. Dans le nucléon (proton, neutron) les 3 quarks s’échangent en permanence des gluons.
Alors que le photon ne transporte pas de charge électrique lors de l’interaction de deux électrons, interaction dont il est le vecteur, le gluon porte deux charges de couleur (il est bi-coloré) : il est un tenseur dans l’espace des couleurs. Ainsi, les photons ne peuvent jamais interagir entre eux alors que les gluons le peuvent. C’est cette interaction qui est la clé du confinement.


Remarque : l’interaction nucléaire : Ce qui, ensuite, explique la cohésion du noyau (donc des protons et des neutrons ensemble, et non plus seulement des quarks dans les protons et les neutrons), c’est un effet résiduel de cette interaction entre gluons. En effet, les nucléons sont neutres en couleur, on vient de le dire, de sorte qu'ils ne devraient pas être concernés par l’interaction forte. C’est l’interaction nucléaire. Elle n’implique donc pas directement les gluons. Selon Yukawa, en 1935, elle serait due à un échange de mésons (eux-mêmes constitués d’un quark et d’un antiquark).

L’interaction électromagnétique qui (entre autres choses) maintient les électrons en couches autour des noyaux est due à l’intervention d’une deuxième sorte de bosons : les photons (voir plus haut). Ces bosons sont de masse nulle et l’interaction dont ils sont responsables a une portée infinie (qui décroît toutefois avec la distance). Ils n’ont pas de charge électrique.
Le photon est un boson. Comme tel, il n’obéit pas au principe de Pauli auquel sont soumis les fermions (noyau, électrons, etc). Ce principe pose que deux particules ne peuvent pas être au même endroit dans un même état. Les fermions sont individualistes, les bosons grégaires. C’est ce qui rend possible les ondes de matière géante à l’origine du laser, de la supraconductivité et le de la superfluidité (voir Chapitre 15).
L’énergie du photon est liée à sa fréquence : E = h.v.
La difficulté, quand on veut « voir » un photon, c’est que sa détection l’anéantit (il communique son énergie au détecteur et ainsi disparaît). Encore qu'on ait trouvé aujourd'hui le moyen de les détecter sans les anéantir.


L’interaction faible dont les effets les plus connus consistent en la radioactivité bêta (voir plus loin) est médiée par des « bosons intermédiaires » : w+, w-et z0. A la différence des autres bosons, ils ont une masse (ce qui n’a pas été sans poser de problèmes de compréhension et ce qui est à l’origine du postulat aujourd’hui vérifié de l’existence du boson de Higgs). En conséquence la portée de cette interaction est faible. Les deux premiers sont chargés électriquement, le troisième est neutre.

Cette interaction ne met en jeu ni la masse (interaction gravitationnelle) ni la charge (interaction électromagnétique) ni la couleur (interaction forte) mais la saveur (pour les quarks : Up, Down, Strange, Charm, Beauty, Truth). Là, ni attraction ni répulsion, comme dans les trois autres cas, mais une transmutation. Une action transformant la saveur d’un quark en une autre saveur. C’est ainsi que l’interaction faible peut transformer un proton en neutron (et réciproquement) en transformant un quark d en quark u (et réciproquement).

L’interaction faible est donc responsable de la radioactivité bêta-. Certains noyaux sont naturellement dotés d’un surplus d’énergie dont ils s’efforcent de se débarrasser en émettant des particules. Ces radionucléides sont instables. Un noyau qui a trop de neutrons transforme un de ses neutrons en proton. On sait que le neutron est composé de 3 quarks u,d,d et le proton de 3 quarks u,u,d. Le neutron transforme un de ses quarks d en quark u en émettant un électron et un antineutrino électronique. Le médiateur de cette opération est un boson w-. Voyons le bilan : un quark d (de charge électrique –1/3) a donc émis une charge négative (-e) et est devenu un quark u (de charge électrique +2/3). Cette charge a été portée par un boson intermédiaire w- qui se désintègre en un électron et un antineutrino.

 

Z est le numéro atomique qui désigne le nombre de protons du noyau.
A est le nombre de masse et indique le nombre de nucléons.
N, le nombre de neutrons, est donc donné par A – Z.
X est le noyau père et Y le noyau fils.
L’équation indique Z + 1 donc 1 proton de plus pour Y que pour X pour un nombre égal de nucléons A. Du coup, la particule bêta- a une charge négative (-1) : c’est un  électron dont le nombre de masse est A = 0 puisque l’électron n’est pas un nucléon. L’antineutrino n’a pas de charge, évidemment, ni de nombre de masse.
Dans cette désintégration, le nombre de masse (nombre de nucléons) est conservé ainsi que le nombre de charges.
La désintégration du carbone 14 est un exemple de radioactivité bêta moins.

L’interaction faible est encore responsable de la radioactivité bêta+. Cette fois, c’est un noyau trop chargé en proton. Un proton se change donc en neutron par modification d’un quark u en un quark d. Le médiateur est un boson intermédiaire w+ (de charge positive) qui se désintègre en un positon (électron positif) et un neutrino.



Les diagrammes de Feynman rendent compte de ces interactions. Ci-dessous la désintégration bêta-.


 (Un neutron udd se transforme en proton udu en émettant un boson w- qui se désintègre en un électron et un antineutrino électronique : -ve.)


La radioactivité alpha  ne relève pas de l’interaction faible

Mais elle correspond, elle aussi, à des noyaux présentant un excès de nucléons. Des noyaux lourds. En principe avec Z > 60



Le noyau fils a 2 protons de moins que le noyau initial et 4 nucléons de moins de sorte que le nombre de masse est changé.
La particule alpha récupère 4 nucléons : deux protons et 2 neutrons. Elle est chargée positivement (+2e). C’est un noyau d’Hélium 4.
Nombre de masse (et non masse, car celle-ci est plus petite à la sortie, la différence avec le noyau père consistant en l’énergie cinétique emportée par la particule et le recul du noyau) et nombre de charge sont conservés.
L’uranium 238 est un nucléide naturellement présent dans le sol constitué de 92 protons et 136 neutrons. C’est le plus gros noyau observé dans la nature.
C’est l’effet tunnel qui est à l’origine de cette radioactivité. Les 4 nucléons du noyau d’Hélium cessent d’être soumis à l’attraction forte et ne ressentent plus que l’attraction (dans ce cas la répulsion) électrostatique qui fait qu’ils sont expulsés du noyau lorsqu’ils atteignent une vitesse suffisante.
Plus précisément, l’onde qui représente la particule alpha n’est pas strictement localisée et déborde légèrement du noyau. La probabilité d’observer la particule hors du noyau est faible mais elle existe : c’est celle de la désintégration.
C’est grâce au comportement de cette particule que Rutherford découvre l’existence du noyau de l’atome et passe du modèle de l’atome plein (de J.J.Thomson) à l’atome vide.


Remarque : l’effet tunnel.
Il est lié à la fonction d’onde d’une particule c’est-à-dire à la probabilité de présence de cette particule. L’énergie cinétique d’une particule peut être inférieure à l’énergie potentielle de liaison qui l’attache à un système. Dans ce cas, elle ne doit pas, normalement, s’en échapper. Toutefois, la fonction d’onde de cette particule peut s’étendre au-delà de la zone dans laquelle elle est emprisonnée. Autrement dit, il y a une probabilité non nulle pour la trouver en dehors de cette zone. En cela consiste l’effet tunnel. La particule est à la fois d’un côté et de l’autre de la barrière. Elle peut se retrouver tout à fait de l’autre côté. C’est ce qui arrive à la particule alpha dans la radioactivité qui porte son nom.

 Reste le boson de Higgs. Il occupe une place à part. Il est doté d’une masse. Son spin est 0. Il n’est pas chargé électriquement.
Pourquoi les bosons intermédiaires (w+, w-, z) ont-ils une masse et pas le photon ni le gluon ? Il faut concevoir qu’à l’origine (big bang) aucune particule n’a pas de masse. La masse n’est pas une propriété intrinsèque des particules (contrairement à ce qu’on pense « spontanément »). La température extrême de l’Univers était telle que les 4 interactions étaient unifiées (non distinguables). On verra plus loin (cosmologie) comment après une très courte période d’inflation l’Univers s’est refroidi, les interactions se sont différenciées, les atomes sont apparus et un champ de Higgs a occupé tout l’espace. C’est l’interaction des particules avec ce champ qui a conféré à certaines d’entre elles une masse (l’interaction ayant pour effet de ralentir la particule, de créer ainsi de l’inertie donc de la masse (voir plus loin).

Donc, aux particules de matière (fermions)  s’ajoutent des particules vecteur des interactions (deux particules de matière interagissent en s’échangeant une particule d’interaction ), les bosons

La masse du boson de Higgs a été mesurée à 125.09 ± 0.24 GeV.
 

d. Les anti-particules

Chaque particule a son anti-particule. A l’origine (big-bang), il y a autant d’antimatière que de matière. La rencontre des deux conduit à une annihilation qui fait qu’aujourd’hui toute l’anti-matière a disparu. Il y a eu un excédent de matière (voir plus loin) qui est responsable du fait qu’il reste encore quelque chose de matériel dans l’Univers.
Ces anti-particules (positon, antiproton, antineutron, antiquark, antineutrino et le photon qui est sa propre antiparticule) ne sont aujourd’hui produites qu’en laboratoire à partir du vide qui, comme on le verra plus loin est un réservoir inépuisable de particules virtuelles.

On distingue les fermions de Dirac qui sont des particules dont les anti-particules sont différentes d’eux-mêmes et les fermions de Majorana qui sont leur propre anti-particule.
Ces dernières doivent être électriquement neutres (puisque particule et anti-particules sont de signes inverses) et avoir des moments dipolaires nuls (le moment dipolaire correspond à une répartition des charges électriques telles que les positives et les négatives sont regroupées en deux pôles séparés). L’existence de ces fermions aurait été détectée en 2014 à l’Université de Princeton (USA) dans des nano fils et aurait été attestée selon les chercheurs de l’Université de Cambridge (4 avril 2016).


e. Les particules virtuelles

 Elles peuplent le vide quantique mais n’ont pas assez d’énergie pour devenir réelles à moins que de l’énergie ne leur soit communiquée à l’occasion d’une interaction.
Ci-dessous, le tableau de toutes les particules élémentaires connues à ce jour. La dernière ligne concernant le boson de Higgs ne mérite plus son point d’interrogation, celui-ci ayant été mis en évidence au CERN en 2012. Quant au graviton il demeure hypothétique.


Il faut retenir certaines dénominations. Les hadrons, par exemple, sont les particules composées de quarks : de 3 quarks, ce sont des baryons : protons, neutron ; de 2 quarks, ce sont les mésons (pions, etc.). Les leptons ne le sont pas : électrons, neutrinos. 



f. Les neutrinos


L’hypothèse des neutrinos a été faite par Pauli en 1930
Les neutrinos sont des leptons (neutres). De toutes les particules, elles sont les plus nombreuses.

Les neutrinos n’agissent que faiblement avec la matière (sur 10 milliards qui traversent la Terre, un seul interagit avec les atomes de la planète). C’est qu’ils n’ont pas de charge électrique (susceptible de les lier aux noyaux des atomes ou de les faire interagir avec des électrons) de sorte qu’ils se déplacent en ligne droite sans être déviés par les champs électromagnétiques. Leur masse est très faible de sorte qu’ils sont insensibles à l’interaction gravitationnelle. Ils ne réagissent qu’à l’interaction faible dont la portée est extrêmement limitée comme on l’a vu.

On a longtemps pensé qu’ils n’avaient pas de masse puisqu’ils se déplacent quasiment à la vitesse de la lumière. Mais on a observé (Bruno Pontecorvo) qu’ils oscillent. Autrement dit qu’un neutrino de saveur électronique pouvait se changer en neutrino de saveur muonique et ce dernier en neutrino de saveur tauique (voir la classification ci-dessus). Or, cette oscillation ne serait pas possible si les neutrinos n’avaient pas de masse. C’est cette oscillation, découverte il y a peu de temps, qui rend compte du fait qu’on ne détecte qu’un tiers des neutrinos (électroniques) en provenance du soleil.

En 2012 IceCube, un détecteur, installé en Antarctique, formé de 1 km3 de glace, équipé d’un réseau de capteurs optiques, a mis en évidence l’existence de neutrinos de très haute énergie (« Bert » et « Ernie » respectivement 1,07.10^15 eV et 1,24.10^15 eV) mille fois supérieure à celle des neutrinos produits en accélérateurs et près d’un milliard de fois supérieure à celle des neutrinos reçus du soleil. Leur origine est à l’évidence cosmique (supernovae, sursauts gamma).


Deux questions actuellement sont posées relativement à cette particule :

Celle d’abord d’un quatrième neutrino appelé « neutrino stérile » qui n’aurait aucune interférence avec la matière mais qui resterait capable d’oscillation.

Celle ensuite de savoir si les neutrinos sont identiques à leur antiparticule.
Celle ensuite de savoir si les neutrinos sont identiques à leur antiparticule. En un mot (voir plus haut) s’ils sont des particules de Majorana.
Cette question est d’importance puisqu’elle permettrait de conforter la théorie de la supersymétrie liée à la théorie des cordes.
On pourrait peut-être observer cette identité à partir d’une double désintégration bêta - de deux neutrons. Ceux-ci deviendraient deux protons avec émission, à partir de deux w-, de deux électrons et de deux antineutrinos. Si on pouvait observer une telle désintégration sans émission de neutrinos cela voudrait dire que cette émission aurait bien eu lieu, mais que les neutrinos en question se seraient annihilés mutuellement l’un étant l’antiparticule de l’autre. A voir !
Ceci abonderait dans le sens de la supersymétrie (aussi appelée SUSY) qui est une théorie qui suppose qu’il y a non pas 61 mais 122 particules. Elle part d’une interrogation : comment comprendre les relations entre des particules aussi dissemblables que des fermions  et des bosons ? Comment aussi expliquer les corrections de valeur de masse que l’on doit appliquer, selon le modèle standard, à certaines particules pour permettre à la théorie de coïncider avec l’expérience ? L’idée est que à chaque fermion (de spin ½, rappelons-le) correspond un boson (de spin 1). Ces super-particules seraient dotées d’une masse plus grande que leurs partenaires. Il y aurait donc un photino (fermion) associé au photon (boson), un sélectron (boson) associé à l’électron (fermion), un gluion (fermion) associé au gluon (boson), etc.
On n’a toujours pas trouvé de telles particules.


g. De nouvelles particules : la particule x ?


En 2015, au LHC du Cern, deux détecteurs ATLAS et CMS repèrent indépendamment un signal, à la suite d'une collision de hadrons, qui pourrait signer une nouvelle particule d'une masse de 750 GeV, de spin entier, 0 ou 2 (ce serait alors un boson). Cette particule totalement imprévue pas le modèle standard, pourrait, si elle était avérée, remettre en question celui-ci. Mais il ne s'agit peut-être que d'un bruit ou d'une fluctuation statistique. A l'heure qu'il est (mai 2016), la question n'est toujours pas tranchée.