Retour vers la liste des thèmes

La stabilité de la matière

L'introduction par Newton d'une force foncièrement attractive ouvrit le débat sur l'origine de la stabilité de la matière. La réconciliation du macroscopique et du microscopique par la thermodynamique et la rationalisation de la classification des corps chimiques vont conduire à la réinvention des atomes et à leur confirmation expérimentale. Mais la prédiction de leurs propriétés va conduire à une révolution conceptuelle: la physique quantique.
Nous décrirons la vision moderne de l'atome telle que nous l'apporte cette nécessaire modélisation de la Nature. Puis sera évoquer le processus qui permet de reconstituer les différents atomes, comment le modèle permet également de reconstruire les molécules et comment retrouver les propriétés conductrices de la matière.
 Nous décrirons ensuite l'échelle suivante, l'organisation du noyau atomique et les principes qui assurent sa stabilité sans toutefois décrire les modèles de forces envisagées pour l'intérieur des particules du noyau.
Enfin sera récapituler les forces en jeu aux différentes échelles pour assurer l'équilibre des corps.
 

La stabilité de la matière *

1 Questions de principe *

2 Un nouveau monde : l’atome *

3 Comment reconstruire la table de Mendéléev*

4 Des Ondes et des Molécules *

5 Un noyau stable *

6 Echelle de stabilité ou échelles des forces *
 
 

La stabilité de la matière
 
 

1 Questions de principe

La découverte des forces fondamentales et universelles débuta par la gravitation. La loi qui la décrit est dite universelle car elle s’applique à toutes les échelles. Elle concerne aussi bien la chute des corps que l’agencement des systèmes planétaires et c’est l’assimilation de l’orbite de la Lune à une chute perpétuelle qui révéla à Newton l’universalité de la loi d’attraction.

Elle fut initialement conçue comme une force, foncièrement attractive car reliée à la quantité de matière, et ne s’annulant jamais avec la distance.

Ce qui caractérise fondamentalement cette force est que l’attraction d’une masse sphérique est équivalente à l’attraction du point central affecté d’une même masse ; la force est sphérique. La loi de Newton est un cas particulier de cette propriété générale car la force y décroît avec le carré de la distance à la masse attractive. En conséquence, elle est conservative c’est à dire que, pour toute surface centrée sur la source de gravitation, le flux d’énergie demeure constant. Dans le cas général il faudrait rajouter à cette loi un terme proportionnel à la distance et le facteur proportionnel est dit constante cosmologique.

La vision de l’époque classique est celle d’un univers statique, existant de tout temps.

Globalement, toute direction privilégiée dans la répartition de matière ou tout mouvement induirait son effondrement par la gravitation, à moins d’admettre que la constante cosmologique introduite plus haut ne soit pas nulle engendrant une force répulsive qui viendrait compenser l’attraction gravitationnelle. Mais historiquement, Newton ne découvrit pars cette forme générale de la loi sphérique et il devait supposer un univers infini pour admettre que l’univers ne s’effondre pas ou introduire une main divine permanente.

Ce problème fut résolu par l’introduction dans les années vingt d’un univers dynamique, les distances entre les corps variant universellement selon le même taux d’expansion pour un temps donné, le temps étant représenté par un axe dont l’origine est confondue avec un instant de création totale (espace/temps/énergie) : le Big-Bang.

Mais qu’en est-il de la stabilité locale ? La stabilité d’un système formé de planètes attirées par un corps central massif implique l’existence de forces d’équilibres afin de résister à son effondrement; ce sont les forces centrifuges liées à l’inertie des satellites en rotation autour du corps central.

En fait dans un système réaliste à N corps s’influençant l’un l’autre la stabilité du système est liée à la convergence à long terme des perturbations, stabilité qui ne semble assurée que pour les corps les plus massifs, les plus légers, comme peut-être notre Terre, risquant l’expulsion à plus ou moins long terme.

La force d’attraction, dans la théorie de Newton, s’exerce dans un espace vide; le support qui transporte l’effet de la force n’est donc pas explicite. Il s’agit d’une action à distance non expliquée dans ses fondements. Elle repose sur une notion de masse indépendante de son état de mouvement, de sa vitesse ou de sa direction. Elle ne dépend que de la distance entre les corps. Toute modification de la répartition de la masse dans l’espace a un effet immédiat sur la force appliquée sur le corps d’épreuve. Cette instantanéité est une idéalisation.

Aussi s’introduisit cette étrange notion d’éther : un espace parfaitement transparent et qui pourtant retransmet mécaniquement et instantanément tous les mouvements.

La force de gravitation apparaît donc adaptée à la description au premier ordre des mouvements des corps ; elle n’est qu’une approximation.

Elle ne saurait également expliquer l’existence de la matière condensée et stable qui nous environne. La stabilité des corps, qu’ils soient microscopiques ou planétaires, nécessite l’introduction de nouvelles forces qui elles seraient répulsives. Apparaît ainsi la notion de charge négative ou positive.

Historiquement, les choses ne furent pourtant pas si simples car d’autres notions fausses s’introduisirent. Par exemple la fameuse notion de " rien ne se perd, rien ne se crée, tout se transforme " dixit Lavoisier (une notion parfaitement cohérente avec un univers statique existant de toute éternité).

Lorsqu’il considéra le phénomène de la chaleur, il l’associa à un corps simple au même titre que les autres éléments chimiques, les expériences physiques ne faisant qu’en mesurer le transvasement tout en en vérifiant la conservation globale. La chaleur est vue comme un fluide et, selon une version de cette théorie, comme une vibration de ce fluide qui s’immisçant dans tout corps chimique en empêchait l’effondrement sous son action mécanique.

Le XIXème siècle a vu des avancées majeures qui mirent à bas cette notion : ce fut tout d’abord la découverte par Carnot du premier principe (dans un système parfait le travail utile est égal à la quantité de chaleur perdue), suivi par l’introduction par Clausius de la notion d’irréversibilité et d’entropie, la réintroduction de la notion d’atome par cohérence avec les lois de pression (Dalton, Avogadro) et la synthèse chimique (Table de Mendeleïev); la chaleur ne pouvait plus être un fluide universel ; elle fut identifiée à l’énergie cinétique cumulative des corps microscopiques.

On en revenait à la question initiale : qu’est ce qui maintient stable une matière condensée mais formée de corps élémentaires insécables et distincts ?

Le XIXème siècle, de Volta à Marconi, fut aussi celui de la découverte progressive de l’électricité, de ses liens avec le magnétisme et avec la lumière.

Maxwell introduisit la notion de champ (visualisable par la disposition de la limaille de fer autour d’un aimant), c’est-à-dire l’intensité et l’orientation en tout point de l’espace d’un champ de forces engendré par une source de champ. Il aboutit à la conclusion que la lumière est un état d’excitation d’un champ électromagnétique, les vibrations étant transversales par rapport à la direction de propagation. Les vibrations du champ (la lumière) pouvaient se propager dans le vide par auto-induction entre le champ électrique et magnétique

Il est aussi apparu que les collections presque infinies d’atomes (le nombre d’Avogadro, rapport entre une masse macroscopique et une masse atomique, est démesuré) ne trouvaient leurs stabilités qu’au travers des forces de répulsion que les atomes et molécules exerçaient les unes sur les autres au travers de charges de même signe.

Rutherford découvrit la notion de noyaux atomiques en observant que les particules alpha (en fait des noyaux d’hélium ) émises par désintégration naturelle des corps radioactifs étaient dans une proportion d’un dix millième fortement déviés par l’interposition d’une feuille d’or, les autres le traversant en ligne droite ; les noyaux d’hélium étaient repoussés par les noyaux d’or ; à tous les noyaux furent donc affectés une charge positive.

Le modèle simpliste d’atomes se présentait alors comme un système planétaire dont la charge centrale est entourée de charges opposées que l’on identifia aux électrons c’est à dire aux rayons émis par une cathode (pôle négatif d’une pile).

Mais le problème était repoussé d’un cran: comment la charge centrale et les charges périphériques de l’atome faisaient-elles pour ne pas se rapprocher rapidement jusqu’à se percuter ?

En effet l’électron possède une charge électrique et devrait rayonner dans son mouvement de rotation autour du noyau, au contraire d’un satellite qui se meut autour de l’astre central sans perte d’énergie. Le rayonnement devrait engendrer la perte de vitesse de l’électron et sa chute rapide sur le noyau. Or les atomes sont stables.

Comment également expliquer la stabilité de charges positives regroupées dans le noyau et d’autant plus grande que le corps est complexe et donc éloigné dans le tableau de Mendeleïev ?

Et comment expliquer ce spectre de raies qui survenait lorsque l’on étudiait l’émission lumineuse des atomes soumis à une excitation ? La lumière apparaissait émise selon des fréquences déterminées, le spectre continu des rayons cathodiques (les électrons libres et accélérés) laissant place à un spectre discret pour les atomes..
 
 
 
 

2 Un nouveau monde : l’atome

Il fallut alors introduire des notions qualitativement différentes des paradigmes classiques, notions qui se révélèrent déchirantes pour nombre de physiciens pris entre une conception prédictible du monde et l’efficacité descriptive du nouveau modèle.

Selon les nouvelles notions, le processus de mesure attribuait une valeur résultat en opérant une sélection parmi des valeurs potentielles. La mécanique quantique formalise sous le nom d’observables les résultats possibles des mesures sur un objet. Elle n’est pas une description de l’objet en soi.

La mécanique quantique résout le problème de la stabilité de la matière car elle complète la description corpusculaire de la matière par son comportement ondulatoire. La particule nous apparaît comme un objet étendu, comme une onde, et n’est plus absolument localisable.

La mécanique quantique traite donc d’objets fondamentalement indiscernables, car semblables et non absolument localisables, sa statistique est donc qualitativement différente de la statistique probabiliste sur les objets macroscopiques.

Les phénomènes de désordre en physique classique sont associés à des combinaisons élevés d’objet sur des lois déterministes, combinaisons qui engendrent une imprévisibilité traitée par la probabilité. Mais l’interprétation probabiliste de la mécanique quantique est imposée par des phénomènes observables à caractère intrinsèquement aléatoire et où l’indiscernabilité engendre des mélanges d’états.

L’équation de la fonction d’onde de Schrödinger permet de trouver les ondes stationnaires dans un espace, c’est à dire les ondes qui dans un atome s’enroulent sur elles-mêmes en conservant leurs phases ce qui évite qu’elles se détruisent elles-mêmes par interférence.

On ne sait plus associer comme en mécanique classique, une onde à chaque particule mais une fonction d’onde qui représente l’évolution globale des N particules composant le système (typiquement les électrons d’un atome).

L’évolution de cette onde se fait dans un espace de configuration qui associe 3 nouvelles dimensions à chaque particule s’ajoutant au système.

En mécanique quantique les fonctions d’onde des états quantiques sont des opérations de symétrie de l’objet quantique pris globalement. Cette symétrie géométrique globale de l’atome (et donc non localisable) est associée à des harmonies numériques et donc à des multiplicités selon des nombres entiers. Elle permet aussi de sélectionner les solutions existant physiquement parmi les solutions mathématiques des fonctions d’ondes. La géométrie est une forme de connaissance non pas descriptive mais sélective. C’est la forme qui contraint la matière.

Cette invariance géométrique est liée à des invariances de quantités physiques.

Il faut souligner que cette notion d’électron unique décrit par une fonction d’onde ne s’applique d’ailleurs que pour l’hydrogène et que la description pour des atomes plus complexes repose sur une description d’électrons combinés et donc non individualisables.

Un point essentiel est que l’équation de Schrödinger en soi ne permet pas de trouver précisément les états d’énergie pour les atomes à plusieurs électrons. Si cela avait été le cas, les atomes seraient directement déterminables, beaucoup plus stables que dans la réalité ; la matière serait écrasée. C’est la réintroduction des symétries qui permet de retrouver le chemin de la description réelle des atomes.

Il faut donc ajouter un postulat, admis mais non prouvés ; les fonctions d’onde physiquement acceptables doivent donner des résultats opposés si on inverse les variables de position des électrons du système et les variables liées à leurs moments de rotation intrinsèque. Nous reviendrons plus loin sur cette dernière notion.

L’atome d’hydrogène est totalement déterminé par 3 nombres quantiques son énergie (le nombre n), par le moment cinétique orbital (nombre p), et par la projection de ce moment sur la direction du champ magnétique qui sert à tester le moment orbital induit sur l’atome (nombre m).

Encore une fois, ce n’est pas l’atome que nous caractérisons en soi mais ce que nous pouvons en dire lorsque nous le soumettons à une mesure, par exemple à un champ magnétique.

Dans le champ électrique du noyau, l’électron se trouve, du moins pour exprimer une analogie, dans un puits conique de plus en plus étroit.

Le noyau attire l’électron, l’onde associée à l’électron devient stationnaire par réflexion sur les limites dimensionnelles du puits. Lorsque l’électron s’enfonce, l’onde stationnaire se réduit comme un ressort que l’on chercherait à enfoncer. L’état maximal de réduction est l’état stable, le plus bas en énergie de l’atome.

Au contraire de la physique macroscopique où l’état stable se caractérise par l’absence de mouvement, en physique quantique, il existe toujours un mouvement irréductible même à une température de 0 kelvin.

Une autre perspective équivalente est de considérer la dualité onde-particule. Elle fut introduite par l’expérience de Young. Un faisceau de lumière ou de particules vise un écran. On interpose un autre écran avec une ou deux fentes. Dans le cas d’une simple fente un faisceau de lumière produit un faisceau concentrique autour du point d’impact. Dans le cas d’une double fente, des interférences sont produites sur l’écran final, combinaison des sous-faisceaux réémis par les deux fentes produits, et ceci même si on envoie les corpuscules un par un.

La dualité onde-corpuscule nous dit qu’il est totalement vain d’essayer de déterminer par quelle fente le corpuscule est passé. Lorsqu’on essaye de discriminer ces deux chemins, par l’éclairage par un faisceau de photons par exemple, et que l’on atteint le seuil permettant la discrimination il y a suppression de l’interférence ; l’onde redevient particule. En fait, il n’est pas possible de localiser une onde.

Si on détermine la position présente (par quelle fente passe t-on), on a une indétermination totale sur l’état futur de la particule ; elle n’est plus contributrice de l’image future et il y a suppression de l’interférence.

Si on accepte de ne pas savoir, en l’occurrence de ne pas déterminer la position, on sait précisément quelle est la quantité de mouvement et qu’elle contribuera statistiquement à la formation de la frange d’interférence.

La dualité onde-particule implique que les corps microscopiques ne fournissent à l’expérimentateur que des mesures non simultanées de couples de notions macroscopiques : position versus quantité de mouvement. A ce couple on peut associer un couple équivalent ; on ne peut avoir une connaissance totalement précise de l’énergie d’un système et déterminer exactement à quel moment dans le temps la mesure fut obtenue.

La stabilité des atomes devait donc reposer sur une incertitude sur la position des électrons; un électron ne peut pas être confiné dans une zone très réduite vers le noyau sous peine d’augmenter la variation de sa quantité de mouvement ce qui augmente la probabilité de le voir s’éloigner du noyau

Parallèlement, la mesure précise de l’énergie d’un électron nous fait renoncer à préciser sa position dans le temps ; le lieu sur la trajectoire de l’électron est imprécis.

Les états des électrons décrit par la fonction d’onde correspondent aux différents niveaux d’énergie. Un électron peut s’exciter par le couplage entre son propre champ électrique et une excitation d’un champ électrique externe (absorption d’un photon qui est un état de vibration d’un champ électromagnétique).

Parallèlement, un électron en interagissant avec le champ électromagnétique de l’atome peut ré émettre un photon et se désexciter.

Mais ne pourrait t-on pas assimiler l’électron à une onde dont seules les harmoniques seraient stables, un peu comme les vibrations d’une corde de violon ?

Cette notion serait trompeuse car si elle explique intuitivement que l’électron n'est pas localisable (une onde n’a pas de lieu fixe, seule son intensité varie dans l’espace sans limitation d’extension) elle ne s’accorderait pourtant pas ni à la notion d’électron localisable lors d’une projection sur des particules cibles, ni à la notion de combinaison d’électrons qui décrit les atomes plus complexes que l’hydrogène. En outre comment attribuer des propriétés de sources de charge électrique ou d’attribut de nombres quantiques à une onde pure? Une source de champ doit être localisable dans l’espace.

Il convient donc de ne pas remplacer une notion fausse par une autre en évoquant des ondes électroniques car celles-ci ne sont que des répartitions de la probabilité d’apparition de particules ponctuelles, il est vain de parler également d’une matière non ponctuelle.

En fait l’onde de l’électron dans un atome enveloppe le noyau, immergé dans son champ électrique. L’onde possède des modes de vibration et les ondes stables vont former le spectre discret des énergies, en partant du fondamental et en décrivant toutes ses harmoniques, d’énergie de plus en plus faibles jusqu’à l’énergie de liaison nulle caractérisant l’ionisation.

L’électron pourra passer d’un mode à un autre en interagissant avec le champ électrique. Le changement de mode s’accompagne d’un changement d’énergie potentielle électrique, la différence déterminant l’énergie du photon, particule de lumière qui n’est qu’une excitation auto entretenue du champ électromagnétique. Pour simplifier le champ électrique de l’atome, caractérisé localement par l’énergie des électrons, se modifie par ajout ou soustraction d’un objet qui n’est qu ‘une vibration autonome de champ : le photon.

Quel est le niveau fondamental de l’atome? Adoptons une vue simplifiée à base de concept classique. Ce niveau fondamental est caractérisé par le fait que l’accroissement de l’énergie cinétique de l’atome par l’augmentation de la fréquence orbitale finit par excéder le gain d’énergie électrique dû au rapprochement du noyau positif et de l’électron négatif.

L’électron possède alors son énergie la plus négative (l’état le plus lié car il faut apporter un travail, une énergie positive pour délier l’électron et le noyau).

La distance entre l’électron et le noyau se répartie statistiquement autour d’un rayon caractéristique de chaque niveau d’énergie.

L’incertitude sur sa distance effective se double d’une incertitude totale sur l’angle de l’électron par rapport à un axe de référence ; on ne sait pas dans quel sens tourne l’électron, son moment cinétique est donc nul, ce qui éloigne définitivement ce modèle de celui d’un corps planétaire.

En fait, l’électron n’est pas soumis à une énergie cinétique stable mais possède une impulsion moyenne déterminée par la relation d’incertitude qui relie position et impulsion.

Ce qui caractérise de façon précise l’électron, ce sont ses modes de vibration, les valeurs classiques position, impulsion ne fournissant plus qu’une plage de variation statistique.

Mais un électron résidant sur une couche supérieure est instable et pourrait tomber à un niveau inférieur en émettant un photon. Ceci est rendu impossible par le principe d’exclusion de Pauli qui implique que deux particules comme les électrons puissent occuper le même état quantique.

La démonstration de ce principe repose sur ce que l’on nomme parfois la seconde quantification ; non seulement les états des particules sont quantifiés mais les particules qui caractérisent les champs d’interaction répondent-elles aussi à une quantification.

Le remplissage des différents états possibles forme les couches électroniques qui sont stables et les seuls états qu’un électron peut occuper par une transition sont associés à des couches incomplètement remplies.

Un ensemble d’électrons ne peut donc fusionner afin de former une onde électronique macroscopiquement cohérente. Cette propriété est vraie de toutes les particules source de champ (ou particules de matière). Ces ondes ont donc été découvertes tardivement car elles ne se manifestent donc qu’au niveau microscopique.

Au contraire, les particules qui véhiculent les champs peuvent fusionner (tels les photons de lumière) pour former des ondes cohérentes (un faisceau laser dans un cas idéal). Il est ainsi évident que la lumière possède une propriété d’accumulation parce qu’elle est le produit de la combinaison d’ondes qui possèdent les mêmes propriétés et qu’elle est visible car elle porte un champ à portée illimité.

Mais d’où vient cette distinction entre corpuscules fusionnables ou pas ?

L’équation d’onde de Schrödinger permet de déterminer les niveaux d’énergie discontinus des ondes stationnaires associables aux particules de l’atome.

Or pour rendre cohérente cette équation avec celles de la relativité qui accouplent écoulement du temps et déplacement dans l’espace, on aboutit à deux nouveaux types d’équation d’onde.

La première équation décrit les particules qui possèdent un mouvement de rotation intrinsèque, le spin. Ce mouvement intrinsèque produit un champ qui interagit avec le champ produit par le mouvement de la particule. Ainsi l’électron induit un champ magnétique qui interagit avec celui causé par son mouvement dans le champ électrique dont il est la source.

L’autre équation décrit un type de particule sans spin, tel le photon de lumière; particule non soumise à un couplage entre un champ intrinsèque et un champ induit par leur mouvement.

Les particules, dites de matière, soumises à la loi d’exclusion de Pauli possèdent des spins demi-entiers (-3/2,-1/2,1/2, 3/2) : ce sont des fermions car soumis à la statistique de Fermi-Dirac (ils sont distinguables par leurs nombres ou attributs quantiques distincts).

Les particules vectrices des champs d’interaction et pouvant former des ondes cohérentes sont à spins entiers (0,1,2) : ce sont des bosons soumis à la statistique de Bose-Einstein (ils ne sont pas distinguables).

En fait à très basse température, les particules à spins demi-entiers peuvent s’appairer par deux, formant alors des ondes cohérentes de type boson et engendrant des phénomènes de suppression de chocs lors de la propagation (supraconductivité) et de suppression de viscosité (superfluidité).

Une onde classique se traduit par un mouvement de matière et se caractérise par des paramètres d’amplitude, fréquence et phase ainsi que par une vitesse de propagation. L’existence d’une limite d’onde classique est associée au fait que les photons sont des bosons. Il n’existe pas de limite classique analogue pour les électrons qui sont des fermions. Ce ne sont pas des ondes comme on les conçoit habituellement.

La vitesse de propagation ne concerne dans les deux cas que l’aspect particule. Elle est associée à un couplage entre la particule et le vide caractérisé par un facteur scalaire car indépendant de l’orientation : la masse. Ce n’est que l’aspect particule qui se propage à une vitesse inférieure ou égale à c.

Dans les deux cas, bosons ou fermions, l’onde quantique n’est pas locale et n’est donc pas associable à une notion de vitesse de propagation de l’onde : si le résultat d’une mesure sur une particule est aléatoire, le résultat de la mesure projète globalement l’onde dans un état particulier. Si on a deux particules couplées, elles sont soumises à la même fonction d’onde ; l’état de la seconde particule sera modifiée simultanément avec la mesure de la première particule. L’acte de mesure en un lieu a littéralement créé les deux particules couplées mais séparées spatialement.
 
 
 
 

3 Comment reconstruire la table de Mendéléev

Il est impossible de calculer exactement les solutions de l’équation de Schrödinger pour les atomes sauf pour l’hydrogène.

Un modèle approché consiste à traiter chaque électron comme s’il interagissait avec un pseudo noyau formé du noyau effectif et des autres électrons. Mais ces électrons apparemment indépendants ne sont que des modèles appelés quasi-électrons. On peut préciser qu’il s’agit d’un modèle de second niveau ; la vision de l’électron comme une entité autonome, alors qu’il est lié à l’atome, relève elle aussi de l’approximation du modèle quantique qui considère que la fonction d’onde n’existe qu’au niveau de l’atome.

La fonction d’onde totale de l’atome est l’ensemble des n orbitales pour n quasi-électrons. Elle est antisymétrique ce qui implique que les n orbitales sont distinctes mais d’autre part les quasi-électrons doivent être indiscernables ; il n’est donc pas possible que chaque orbitale gouverne son propre quasi-électron : les propriétés des quasi-électrons résultent de la combinaison de l’ensemble des orbitales.

Le schéma orbital de l’atome est un escalier avec des marches baptisées 1s,2s,2p…. caractérisées chacun par une valeur particulière du triplet de nombres quantiques n,l,m.

Les différentes couches décrivent les états discrets de la quantité de mouvement orbital qui se caractérise par des formes différentes du nuage représentant la densité présence de l’électron  (en sphère autour du noyau, en huit, en trèfle,…)

On place les quasi-électrons sur les orbitales. L’antisymétrie de la fonction d’onde se traduit par le fait que seuls 2 quasi-électrons de spins opposés peuvent occuper une orbitale.

L’excitation de l’atome se décrit comme le saut du quasi-électron entre 2 orbitales. Mais dans la réalité physique, l’excitation de l’atome modifie simultanément l’état de tous les électrons de l’atome.

Afin de reconstituer la table des éléments Mendéléev, on remplit les orbitales en appliquant le principe de Pauli (2 quasi-électrons à spin opposé par orbitale) et la règle de Hund : les quasi-électrons doivent occuper le maximum d’orbitales de même énergie.

Les propriétés physiques et chimiques sont des fonctions apparentes des poids atomiques. En fait la classification de Mendéléev liste les atomes dans l’ordre croissant de leurs électrons et regroupe les atomes aux schémas orbitaux semblables, c’est-à-dire possédant pour les colonnes successives 0,1,2,3 … quasi-électrons non appariés sur la couche la plus externe.

Cette classification est le reflet de propriétés de symétrie.

Le Monde est une musique pythagorienne, le Monde est harmonie.
 
 
 
 

4 Des Ondes et des Molécules

Les atomes s’assemblent sous forme de molécules. Seule la mécanique quantique réussit à rendre compte de la structure et des propriétés des molécules.

Il faut s’écarter de l’image simplifiée où les molécules ne sont qu’un assemblage mécanique s’échangeant des particules (les électrons) pour assurer leur liaison.

Le nombre de liaisons que peut former l’atome est sa valence chimique qui s’effectue par une mise en commun d’électrons plus ou moins localisables (ce n’est pas du ping-pong). Ceci permet de reconstruire, au niveau de la molécule, des modèles d’orbitales occupées par des quasi-électrons.

Les fonctions d’onde de ces orbitales représentent les opérations de symétrie de la molécule et sont délocalisées sur toute la molécule.

La stabilité moléculaire est garantie par le couplage de tous les quasi-électrons par paire. L’association génère de la chaleur car la molécule possède un niveau d’énergie plus bas que les atomes séparés.

Les phénomènes prévus et calculables par la mécanique quantique ne reposent sur aucun mécanisme physique interne et explicite. Mathématiquement les orbitales identiques des 2 atomes forment 2 nouvelles orbitales : une de moindre énergie et donc plus stable, l’autre plus excitée. Ce modèle s’apparente à celui de 2 circuits oscillants semblables qui vont former des 2 résonances distinctes.

Dans le cas de molécules multi-atomiques, l valeur moyenne de la charge en tout point fait apparaître autant de double charge électronique qu’il y a de liaisons chimiques, charge engendrée par l’ensemble des orbitales de cette molécule occupées par des quasi-électrons.

La délocalisation de la charge ne permet pas d’affecter explicitement une paire d’électron par liaison.

La localisation des électrons non liés aux atomes dépend du degré d’ordre du milieu.

Dans un milieu parfaitement ordonné, toutes les ondes électroniques ajoutent leurs effets d’où une onde stationnaire étalée et la délocalisation.

Dans un milieu parfaitement désordonné, les ondes se détruisent par interférence sauf en des régions de localisation. Les ondes libres peuvent même changer de nature et devenir des ondes harmoniques dans les puits d’énergie des atomes.

Les regroupements particuliers de la chimie (acide, base, alcool, ester, acide aminé…) correspondent ainsi à des propriétés spécifiques produites par la relocalisation partielle des ondes électroniques.

Dans de nombreux exemples où plusieurs charges électroniques sont impliquées, comme dans les liaisons covalentes, les charges ne sont pas localisables mais réparties (une notion typiquement quantique). C’est notamment le cas de l’eau, justifiant du lien lâche entre le proton des deux atomes d’hydrogène et leurs électrons d’où la propriété d’hydrophilie, d’agrégation des molécules d’eau entre elles, et donc ses remarquables propriétés de solvant. Plus précisément, l’atome d’oxygène est engagé dans deux liaisons avec les deux atomes d’hydrogène et la densité de présence des électrons est plus importante du côté de l’oxygène. Mais il demeure deux orbitales libres de part et d’autre du plan moléculaire du côté opposé aux atomes d’hydrogène. Ces paires libres peuvent engager une liaison avec un atome d’hydrogène partiellement dépouillé de son électron d’une autre molécule d’eau.

Les propriétés de délocalisation justifie aussi la structure du benzène où les six électrons se trouvent au centre d’une couronne d’atomes mais n’existent pas en tant que tels car la charge globale est répartie sur toute l’orbite.

Le principe d’orbitales moléculaires s’étend aux structures cristallines ordonnancées sur des distances macroscopiques.

Vu le nombre considérable d’électrons impliqués (ou de quasi-électrons sur les orbitales), les orbitales sont si denses qu’elles sont regroupées en bandes.

Les états quantiques conduisent aux figures de diffraction des ondes électroniques dans le réseau cristallin. La répartition des bandes suit donc un ordonnancement qui reflète cette propriété macroscopique.

Les bandes sont remplies par les quasi-électrons selon les mêmes règles que pour les molécules et les atomes.

On retrouve les isolants dans le cas où les bandes de valence et de conduction sont très séparées.

Dans le cas des conducteurs les bandes sont dans la même zone et il existe des orbitales supérieures non occupées.

Le moindre champ électrique va assurer l’excitation électronique et la délocalisation des orbitales dans le réseau engendrera un comportement collectif : le courant électrique.

Dans le cas intermédiaire des semi-conducteurs, la conductibilité augmente avec la température et les impuretés, les dopants, modifient fortement la conductibilité car le milieu très ordonné est très perturbable.
 
 
 
 

5 Un noyau stable

En première approche, 2 types de particules constituent le noyau : les protons et neutrons regroupés sous le terme nucléons. Ces deux particules sont également soumises aux lois d’exclusion de Pauli ; aucune particule du noyau ne s’y trouve dans le même état quantique. Il y a donc une notion d’empilage de niveau d’énergie comme pour les électrons même si la notion de couche avec une distance physique moyenne à un centre d’attraction perd son sens dans le noyau qui est plutôt vu comme une région où les particules s’entremêlent.

Ce sont les électrons qui déterminent les propriétés chimiques d’un composant. Le nombre de protons étant égal, il s’avère que les propriétés chimiques ne dépendent pas du nombre de neutrons. On a donc des isotopes, c’est-à-dire un nombre limité de corps possédant le même nombre de protons et un nombre de neutrons variable.

Les forces nucléaires assurent la cohésion des protons et neutrons. Elles surmontent les forces de répulsion entre protons. Elles sont à très courte portée ; comme l’expérience de Rutherfort l’indique, le noyau est très petit.

L’observation de noyau miroir, c’est-à-dire alternant leur nombre de protons et de neutrons comme He3 et H3 permet de conclure que la force forte agit pareillement sur les neutrons et les protons.

Le caractère de force à courte portée agissant seulement entre proches voisins diffère nettement de la répulsion électrique qui se fait sentir dans tout le noyau.

En ce qui concerne la force électrique, la répulsion augmente avec le nombre de protons. Alors qu’un proton est attiré par la force forte par un nombre à peu près constant de voisins, protons ou neutrons, il est repoussé par un nombre croissant de protons.

Les neutrons n’étant pas affectés par la force électrique mais contribuant à l’attraction par la force forte, les noyaux lourds possèdent un surplus de neutrons par rapport aux protons pour les stabiliser. La limite est le phénomène de radioactivité naturelle qui provoque une scission du noyau. La compétition entre l’énergie de surface (l’attraction forte entre nucléons) et la répulsion électrique devrait mener à des noyaux instables autour de 125 protons. En fait imaginer le noyau comme un sac de bille est profondément faux ; les corpuscules étant non localisés, comme des ondes, il y a des transitions, des évasions, qui se produisent avant que le seuil ne soit atteint. En fait tous les noyaux avec environ 90 protons sont déjà instables.

Une autre façon de le voir est de dire que les particules qui ont une énergie cinétique insuffisante pour passer la barrière constituée par l’énergie surfacique empruntent leurs énergies pour un court moment. Cet effet est autorisé par les relations d’Heisenberg, rappelons-nous que l’énergie est imprécise si le moment du temps est précis. La ou le bloc de particules échappées restitue cette énergie à leur environnement mais après leur évasion. La scission radioactive (avec libération de photons à haute énergie) peut donc se produire plus tôt qu’un simple calcul classique ne l’autorise.

En mesurant précisément la masse individuelle des protons et neutrons (ce qui inclut pour le proton la masse de son champ électrique) et la masse de ces particules rassemblée dans un noyau, on observe un déficit de cette masse regroupée, déficit qui s’interprète comme une énergie de liaison (autrement dit de masse des particules vectrices des forces fortes dans le noyau, la force qui apparaît spécifiquement dans le noyau).

Les noyaux légers sont faiblement liés en raison du nombre réduit de voisins. Les noyaux lourds sont moins liés que ceux de masse intermédiaire en raison de la répulsion électrique croissante. Les noyaux légers produit par fusion ou les noyaux lourds produits par fission produisent des noyaux plus fortement liés que leurs pro géniteurs et libèrent donc de l’énergie.

La fission et la fusion deviennent inefficaces dans la région intermédiaire du fer, là où s’arrêtent les processus de fusion stables dans les étoiles les plus massives en fin de vie.

Comment un noyau assure t-il sa stabilité ?

Il s’agit d’un équilibre entre les protons et neutrons. Soumis aux lois d’exclusion de Pauli, dès qu’un niveau d’énergie est rempli, les autres nucléons doivent s’empiler sur des niveaux supérieurs. Il y a deux piles distinctes pour les protons et neutrons.

Il y a toujours tendance dans un système à minimiser son énergie interne pour un niveau d’organisation donné. Lorsque la pile des neutrons est plus haute que celle des protons, le noyau a tendance à perdure un neutron qui se désintègre en proton en produisant un électron compensateur. L’atome gagne donc un cran dans la liste des éléments chimiques.

La loi d’exclusion a comme conséquence que les paires neutron-neutron et proton-proton se repoussent tandis que les couples proton-neutron s’attirent par la force forte d’où un nombre comparable de protons et de neutrons au moins pour les éléments légers où la force de répulsion électrique est peu importante.

Mais dans les noyaux lourds la force élevée de répulsion électrique élève le plus bas niveau d’énergie nécessaire pour la compenser. Pour que les sommets des deux piles soient au même niveau il faut un excès de neutrons par rapport aux protons.

Toute la problématique est l’excès de neutrons pour diluer l’influence de la répulsion électrique et l’équilibre proton-neutron pour bénéficier de leur attraction s’en qu’ils soient deux à deux soumis à la loi d’exclusion.

Trop de neutrons et les noyaux subissent une désintégration de leur neutron, pas assez et ils sont instables. Pour regagner leur stabilité, les protons absorbent les électrons proches, attirés notamment par les noyaux lourds, pour former un neutron supplémentaire en perdant un cran sur la liste des éléments. N’oublions par l’incertitude sur la position des électrons qui autorise cette fusion. Ce processus nécessite de l’énergie qui vient de l’énergie de liaison car le gain compense la diminution de l’énergie de liaison. Il n’est donc pas spontané sinon tous les protons libres formant l’hydrogène des étoiles aurait été convertis en neutrons stériles.

Nous ne chercherons pas ici à décrire la physique à l’œuvre dans le couplage des particules du noyau. Précisons simplement que la force forte est beaucoup plus complexe que la force électrique car elle s’exerce entre nucléons entremêlés sans notion de force centrale et elle dépend non seulement de la distance mais aussi de l’orientation relative de leur spin.

Il est intéressant de constater que la force d’attraction gravitationnelle décrite dans la relativité générale ne dépend, elle aussi, pas seulement de la distance mais aussi de la vitesse tangentielle du corps attracteur.
 
 

6 Echelle de stabilité ou échelles des forces

Du fait des rapports d’intensité entre les forces :

- la force forte n’agit que dans le noyau atomique (dimension du Fermi= 10-15 m) car elle a une portée de 2 Fermi légèrement inférieure à la taille du noyau indiquant qu’elle agit directement entre 2 nucléons proches (neutron ou proton ).

- la force faible agit dans tous les échanges d’identité des particules et sa portée est limitée à 0,01 Fermi (10-17 m)

- la force électrique agit de 10-15 m à 10-8 m (qq centaines d’Angström). Au-delà les orientations des champs s’annulent. L’exception est constituée les phénomènes de plasma à grande échelle (foudre, ionosphère, étoiles, plasma stellaire et intergalactique). Néanmoins l’environnement planétaire est constitué de matière neutre et les électrons des atomes électriques exercent leur effet de répulsion et donc de pression sur toutes les surfaces en contact des corps solides (ou entre molécules pour les corps liquides et gazeux).

Au-delà de 100 000 km, les corps sont tellement massifs que la chaleur dégagée par leur contraction les ionise à nouveau; la force électrique agit directement

- la force de gravitation est cumulative. Les corps à partir de 0,1 m ressentent l’effet global de la gravitation et cet effet croit avec la masse comme l’effet de pression par contact lié aux interactions électriques devient négligeable.

On distingue donc 7 à 8 zones

Au-dessous de 10-17 m , la force faible est prépondérante. Elle n’agit que lors des transmutations de particules lors de désintégration spontanée ou à un rapprochement provoqué par une énergie cinétique élevée des particules sources.

Entre 10-16 et 2*10-15 m , la force forte est prépondérante. Elle assure le confinement des nucléons formant les noyaux atomiques qui possèdent une taille caractéristique de 10-13 m

Entre 10-14 et 10-8 m , l’interaction électromagnétique agit de façon directe mais

entre 10-14 et 10-9 m, le champ électromagnétique permet la constitution d’ondes stationnaires (qui l’ont baptisent électrons dans un atome); l’attraction du noyau est ainsi neutralisée.

Les corps entre 10-8 m et 105 km sont statistiquement neutres et l’interaction électromagnétique y agit de proche en proche par les effets de pression et de tension superficielle.

L’effet de pression augmente en opposition avec l’influence de la gravitation mais ne devient sensible que pour les corps d’au-delà de 0,1m.

La zone entre la frontière de dissipation rapide des structures par perturbation électromagnétique (moins de 10-7 m) et la frontière au-delà de laquelle les pressions compensant le poids sont trop élevées pour des structures volumiques (quelques dizaines de mètres ) est la zone du vivant.

Entre 105 km et 109 km, l’interaction électromagnétique agit dans les plasmas et engendre la pression de radiation par les collisions engendrées.

Là encore les effets électromagnétiques s’opposent à la gravitation mais dans ce cas l’opposition est entre une interaction centripète et un effet de diffusion stochastique.

Entre 109 km et au moins 1024 km (taille de l’Univers observable), seule l’interaction gravitationnelle agit.

Il nous faut enfin noter deux zones particulières.

La première est la zone entre 104 et 105 km pour les corps massifs de l’ordre de la masse du Soleil. C’ est une zone d’équilibre entre la gravitation et la répulsion entre les électrons due à un phénomène d’interférences destructives des ondes électroniques: les électrons occupent des boites de dimension minimale. C’est la zone des naines brunes et blanches dont la matière est dégénérée car sa stabilité est due à la loi d’exclusion de Pauli.

Notons enfin la zone particulière autour de 10 km pour des corps également de l’ordre de la masse du Soleil correspondant au centre implosé d’une Supernovae et soumis, pour la partie centrale de l’astre résultant, à la loi d’exclusion de Pauli pour les neutrons (les électrons rapides ont fusionné avec les protons).

Sources

Les forces de la Nature Paul Davies Champs Flammarion

L’objet quantique Simon Diner Champs Flammarion