Retour vers la liste des thèmes


 

Comprendre le Big Bang

Cet exposé du Big-Bang s'ouvre sur les principes de bases de la relativité, de la physique quantique  et par le lien entre la gravitation et la courbure du couple indissociable espace et temps. L'application du lien entre la quantité de matière et la modification des trajectoires des corps soumis à leur gravitation a pu être étendue à l'univers entier par l'introduction de simplifications  sur l'uniformité de l'univers. Ce modèle conclut sur évolution dynamique de l'univers dont l'origine est le Big-Bang.

Sur  cette base une comparaison très exhaustive est faite entre les prédictions du modèle et les constatations expérimentales, ce qui confirme sa justesse.
L'évolution de l'univers est ensuite retracée dans ses grandes lignes, de la création de la matière à la formation des premiers atomes.
Les problèmes du modèle sont ensuite abordés notamment  l'uniformité trop élevée de l'univers et le problème de la formation des galaxies ce qui introduit le problème de l'énergie et de la masse manquante de l'univers.
Enfin de nouveaux chapitres s'ouvrent sur le problème de la formation des premières étoiles et galaxies, domaines en plein renouveau car enfin accessibles aux simulations et aux observations  et sur lesquels de nouveaux chercheurs se focalisent aujourd'hui.
 

1 Big Bang: les bases *

1.1 Les racines du Big-Bang *

1.2 Les principes en jeu dans le Big-Bang *

1.2.1 Relativité *

1.2.2 Univers quantique *

1.2.3 Gravitation *

1.2.4 Extension de la notion de courbure à l’univers. *

           1.2.5 Une description de l’univers au travers du Big-Bang *

2 Big-Bang et observations *

2.1 Quelles observations possibles? *

2.2 Observations réalisées: les recoupements du Big-Bang *

3 Big-Bang : le récit *

3.1 Comment la physique quantique nous permet de raconter l’Origine *

3.2 Racontons le Big-Bang *

3.3 Les informations du F.D.C. *

4 Les problèmes du modèle *

4.1 La cosmologie c'est le Titanic et l'univers l'iceberg *

4.2 les problèmes généraux *

4.3 La répartition de l'énergie dans l'univers  *
 

5 Premières générations d'étoiles et formation des galaxies *

6 Synthèse: temps et taille de l'univers total et observable *

Annexe A Le  problème de la suppression des singularités *

Annexe B Réflexions sur le modèle relativiste *

Diapositives

1 Big Bang: les bases


1.1 Les racines du Big-Bang

Le postulat à la base de la théorie du Big-Bang est l’existence d’un espace sans défaut où tout les observateurs sont équivalents.

On postule tout d’abord une symétrie spatiale: un même phénomène physique (ex émission d'un photon par un atome) produit les mêmes paramètres observés:

pour tous les couples (observateur/observé) séparés par une même distance sur une ligne de visée (absence de discontinuité: homogénéité)

Conclusion: les paramètres mesurés varient linéairement et ne dépendent que de la distance radiale entre l'observateur et l'observé.

Par exemple, les décalages spectraux sont proportionnels à la distance radiale entre l'observateur et l'observé Décalage spectral = Constante de Hubble x Distance.

En observant l’univers à grande échelle (plus de 300 millions d’A.-L.) on observe effectivement une régularité des structures de l’univers justifiant ces postulats de base où il n’existe que des observateurs équivalents les uns aux autres et sans observateur privilégié: les grandeurs sont des grandeurs relatives et non pas absolues. Ceci est vrai de toutes les mesures. On parle alors d’espace relativiste.

Les équations de la relativité générale relient la courbure des trajectoires à la quantité de matière qui l'environne. En posant le principe cosmologique: l'univers est homogène et isotrope, on peut appliquer ces équations à l'univers considéré dans son rayon de courbure global. Les équations se simplifient et seuls 3 modèles géométriques sont possibles : l'univers euclidien à densité critique, l'univers hyperbolique à densité sous-critique, l'univers sur-critique sphérique.

Ceci correspond aux solutions des équations de Friedmann qui décrivent la dynamique de l'univers et qui implique que le rayon de courbure ne peut rester constant.

On constate expérimentalement un décalage vers le rouge de toutes les galaxies lointaines, décalage qui peut être relié à une échelle de distance constituée par d'autres moyens d'estimation des distances (par exemple à partir de la luminosité intrinsèque des galaxies ou d'amas galactiques, de l'utilisation des supernovae lointaines pour les galaxies pas trop éloignée ou d'étoiles variables pour les galaxies proches).

Ces équations relient la densité d'énergie (somme de la densité d'énergie des particules massives, de l'énergie de rayonnement et d'éventuels autres champs scalaire (le champ du vide) au rayon de courbure, avec ses dérivée première et seconde et ceci à un facteur d'intégration près (la fameuse constante cosmologique).

Comment justifier des deux hypothèses: homogénéité et isotropie ? Les amas et superamas de galaxies sont réparties en filaments mais leur maillage délivre le message d'un univers quasiment identique dans toutes les directions de visée: l'isotropie est bien vérifiée.

Mais comment justifier l'homogénéité, d'autant plus qu'un effet de courbure doit intervenir pour reconstituer la distance en fonction du décalage du spectre vers le rouge?

En fait l'espace est remplit de quasars et ceux-ci sont répartis de façon homogène.

Une autre approche est de considérer l'isotropie de l'espace et d'adopter en plus le point de vue copernicien qui affirme que l'observateur n'a pas une position privilégié; un univers isotrope serait obligatoirement homogène.
 

1.2 Les principes en jeu dans le Big-Bang
 
 

1.2.1 Relativité

La relativité suppose l’équivalence entre tous les repères

Elle repose sur l’invariance de la célérité de la lumière quel que soit le référentiel dans un milieu donné, caractérisé par sa perméabilité électrique et sa permittivité magnétique.

Le cas le plus simple est un espace vide de matière.
 
 

Une première conséquence est que les notions de temps absolus et de temps absolus distincts des observateurs est fausse.

Ainsi deux événements simultanés dans deux repères inertiels (en mouvement libre) ne sont pas simultanés dans un autre repère car la célérité de la lumière porteuse d’information étant invariante, c’est l ’écoulement du temps qui est affecté par la perspective de cet autre repère; un intervalle de temps devient relatif et doit être affecté d’un coefficient de projection pour définir ce même intervalle de temps vu dans un autre repère.

Les notions d’espace et de temps sont couplées; ce ne sont plus des invariants.

Ce qui est invariant est une relation liant la distance et l’intervalle de temps entre 2 événements. C’est cette relation, que l’on nomme la métrique, qui ne change pas d’un observateur à un autre.

Les seuls invariants reposent sur la relativité des observateurs, ce qui suppose un univers homogène et isotrope; c’est le principe cosmologique.

Partant de l’homogénéité de l’espace on en déduit que l’impulsion est invariante.

L’homogénéité du temps implique la conservation de l’énergie

L’isotropie de l’espace implique la conservation du mouvement angulaire.

En fait le principe de la relativité est le principe de moindre action ce qui signifie que tout corps en mouvement libre (libre de toute influence ou soumis à une chute dans un puits de potentiel) tend à changer de position en minimisant le temps écoulé.
 
 

1.2.2 Univers quantique

La théorie quantique de la mesure repose sur l’impossibilité d’obtenir que le produit déplacement et variation d’impulsion s ’abaisse sous la valeur de la constante de Planck (de même la variation de l’énergie dans une variation de temps donné).

Ceci signifie uniquement que l’accroissement de la précision sur la position présente se paie d’une perturbation qui réduit la probabilité de bien prédire la position future (de même la connaissance précise d’un niveau d’énergie se paie d’une imprécision de son niveau futur du fait même de l’énergie communiquée au système (et puisque l’énergie communiquée est elle-même imprécise on se trouve dans une régression infinie).

Les notions de temps, d’espace, d’énergie, d’impulsion sont des notions convergentes mais la réalité ne nous fournit que des probabilités intrinsèques, la certitude n’étant acquise que sur un cycle infini d’expérience.

L’indétermination énergie/temps se concrétise dans le fait qu’une particule vraie est environnée de particules virtuelles. Les plus proches disparaissent le plus vite, elles sont donc d’énergie élevée, les particules les plus légères étant les plus distantes: chaque particule vraie est donc environnée de l’univers de toutes les particules existantes, un univers dont la durée d’existence est inversement proportionnelle à son étendu.

En fait l’état immanent est un vide quantique agité de soubresauts de particules qui n’ont pas le temps de se stabiliser et disparaissent avant la fin de leur période propre, tandis que les particules de matière sont auto générées et correspondent à des modes propres du vide quantique(comme le champ électromagnétique dont la particule, le photon, se génère par sa propre résonance).

Le monde s’écoute sans cesse depuis son premier instant mais il n’entend que ses notes les plus pures et ne peut percevoir la superposition des ondes qui n’exprime que le silence...

Il est à noter que seules les particules réelles sont limitées par la célérité de la lumière. Les particules virtuelles du vide ayant des énergies négatives, le vide peut s’étendre avec une vitesse non limitée. Les effets supraluminiques sont dus à la propagation d’une perturbation d’une caractéristique quantique (par exemple le spin) vers une particule couplée par le milieu " vide ".

Autre point c’est l’interaction des modes propres qui crée le phénomène de décohérence. Ce phénomène explique pourquoi la somme des états microscopique quantique et flou peut donner un état macroscopique déterminé.

L’état quantique des particules est la combinaison de tous les états possibles dans une superposition " flou ". Toute interaction, et le processus de mesure est une des interactions possibles, fait passer cette combinaison de tous les états possibles en un simple mélange statistique des états propres; c’est l’interaction du microscopique qui constitue le macroscopique tangible et où le flou est absent

Mais si le macroscopique n’est pas " flou ", c’est à dire que les paramètres qui le décrivent peuvent être précisés avec une précision apparemment non limitée relativement à la taille de l’objet, une imprécision apparaît néanmoins dès qu’il s’agit de prévoir l’évolution des paramètres. Ceci débouche sur la mécanique chaotique des phénomènes du fait de l’imprécision de toute mesure, à ne pas confondre avec l’indétermination quantique.

Le microscopique flou mais indépendant des conditions initiales aboutit à une certitude statistique.

Le macroscopique répondant à une logique déterministe mais sensible aux conditions initiales aboutit à l’incertitude.

C’est le paradoxe de la physique

Et la question est alors de savoir si l’univers est formé d’entités séparables et soumises aux conditions initiales ou si l’univers est insécable sans notion de conditions initiales: l’univers aurait-il pu être autre ou est-il unique par sa nature propre ?
 
 

1.2.3 Gravitation

La relativité conduit à définir les relations entre les masses de l’univers et la courbure des trajectoires.

Exprimé autrement, Einstein et d’autres physiciens concurrents et concourants ont exprimé les relations qui définissent localement la courbure des trajectoires dues aux masses et donc la relation entre la répartition des masses dans l’univers et les trajectoires naturelles des corps soumis uniquement à l’attraction.

Einstein est parti de l’équivalence constatée expérimentalement entre:

la masse inerte (réceptrice) soumise à une accélération F= Masse Inerte x Accélération et

la masse grave (émettrice) qui exerce une force et donc soumet son environnement à une accélération F= K x M grave x M’grave /(Distance)².

Galilée avait posé l’équivalence: mouvement nul = mouvement droit (mouvement inertiel)

Newton avait posé l’équivalence: pesanteur = gravitation (mouvement gravitationnel)

Einstein pose donc l’équivalence finale: mouvement gravitationnel = mouvement inertiel.

En raison de la stricte égalité entre la masse sensible à l’attraction et la masse inerte, tous les corps tombent avec la même accélération.

Puisque tous les corps tombent ensemble, ils restent immobiles les uns par rapport aux autres. Après le mouvement est comme le repos, l’accélération est comme le repos!

Les corps tombant ensemble dans un champ de gravité se comportent comme s’ils étaient immobiles loin de toute masse.

Le champ de gravité est un intermédiaire qui exprime une symétrie de situation entre l’espace vide de toute masse et un espace rempli de masse

La force de gravité apparaît comme une manifestation de cette symétrie!

Les notions de forces disparaissent au profit de la notion de géométrie de l’espace et des effets de projections des intervalles de temps liés à la vitesse : la géométrie seule guide les corps et toute interaction modifie la géométrie et donc les mouvements.

En fait les corps ne peuvent rester parfaitement immobiles les uns par rapport aux autres, ceci n’est vrai que ponctuellement car les lignes de champ attractif convergent vers le barycentre de la masse.

Einstein en déduit donc l’équivalence entre 2 situations:

un corps dont la masse inerte est soumise à une accélération et un corps dans un champ de pesanteur.

Les trajectoires doivent être décrites par les mêmes équations.

Le " champ " de pesanteur n’apparaît que pour exprimer une symétrie entre un corps libre loin de tout champ et un corps accéléré par les masses.

Un champ est une portion d’espace où à chaque point est associée une valeur de potentiel, les différences de potentielles définissant des lignes de champ où l’énergie s’écoule.

Mais ce champ de gravité a un effet bizarre, en effet il courbe l’espace!

Pourquoi?

Nous observons que les objets inertes tombent à la même vitesse, la lumière sans inertie va donc rester droite vu d’un observateur en mouvement libre mais sera courbée vu de l’observateur extérieur.

En effet, imaginons un observateur immobile dans un espace clos. Sa cage d’expérience est fixée à un plafond. L’expérimentateur émet une lumière qui traverse un hublot. La lumière possède une célérité constante, de ce fait son déplacement est indépendant de l’émetteur et sa propagation est rectiligne, vu de l’émetteur.

Coupons le lien qui le relie au plafond et laissons le tomber dans sa cage.

Maintenant considérons deux observateurs, l’un bloqué au sol et l’autre dans sa cage en chute libre.

Par le principe de relativité, la célérité de la lumière doit être la même dans les deux repères.

L’observateur en mouvement devra toujours constater que la lumière reste droite, mais tous les objets doivent tomber à la même vitesse vu de l’extérieur. La seule façon de concilier la vision de l’observateur émetteur, qui voit la lumière droite, de la vision de l’observateur au sol, qui doit la voir tomber, est d’admettre que la lumière suit une trajectoire courbe vue de l’extérieur: la masse provoquant la chute de l’émetteur provoque la chute de la lumière: l’espace est courbé par la masse.

On notera que le mouvement rectiligne de la lumière sera bien le même entre l’observateur libre dans un espace vide et l’observateur en chute libre, mais que le mouvement sera différent pour un observateur qui n’est pas en chute libre, par exemple un observateur fixé au sol.

Tout champ d’accélération (gravité ou autre) a donc comme effet de courber les trajectoires. Tout objet de mesure (lumière ou masse) suivra, dans son mouvement de chute libre, le trajet optimal le long de la courbure. On parle de géodésique.

Cette géodésique est caractérisée par le principe de moindre action, où la variation de l’action (c’est-à-dire la variation de la quantité de mouvement par sa distance) sera minimisée.

La courbe des trajectoires d’une planète le long de son orbite elliptique est donc vue comme cette capacité du champ de gravitation à créer une courbure dans toute région de l’espace.

La trajectoire elliptique d’un corps en orbite dans un champ de gravitation est une géodésique d’un espace courbe alors que la trajectoire rectiligne n’est une géodésique que dans un espace plat.

Toute accélération a l’effet, vu de l’extérieur, de courber les trajectoires de corps lancés transversalement au corps en chute. L’accélération de la pesanteur, vu du sol, courbe les trajectoires des photons émis perpendiculairement au corps en chute.

La masse grave exprime cette capacité à accélérer lors d’une chute.

La masse inerte qui lui est égale exprime cette capacité d’un corps à rester immobile, sans accélération, et donc dans un espace sans chute, sans courbure: un espace plat.

La masse inerte est la propriété du corps dans un espace vide. La masse grave est la propriété du corps dans un champ d’accélération. Les deux sont égales car tout espace courbé est tangent à un espace plat. Mais l’équivalence n’est que locale; en effet, en relativité, aucune source de champ n’est étendue. Toutes les lignes de champ convergent en un point.

En gravitation quantique au contraire, toute source a une extension mais il n’existe pas de plan tangent car aucune vitesse rigoureusement nulle n’est mesurable continûment. La notion d’équivalence masse inerte et masse grave est donc une approximation à grande échelle. De même la notion de relativité stricte n’est pas applicable car la célérité de la lumière ne peut être mesurée comme constante.

Une vision plus subtile serait de considérer la masse grave comme l’effet de la courbure d’un corps sur la trajectoire des corps qui l’environne et la masse inerte comme l’effet de la courbure d’un corps sur sa propre trajectoire (il y a decorrélation partielle entre le puits de gravitation produit par la masse du corps et sa position du fait de la nature ondulatoire de ce même corps: l’inertie est liée à la nature ondulatoire du corps).
 
 
 
 

1.2.4 Extension de la notion de courbure à l’univers.

Les modèles cosmologiques reposent sur le lien entre le contenu énergétique de l’univers et sa courbure. Ses équations différentielles reposent sur le couplage des dimensions spatiales (on n’a plus seulement 3 variables mais 6 indépendantes) et des variations locales (d’où des équations différentielles). Leur résolution nécessite des simplifications (par exemple la symétrie du principe cosmologie supposant l’homogénéité et l’isotropie de l’univers et donc une stricte équivalence des repères).

La résolution de ces équations aboutit à quatre modèles d’univers courbe:

- le modèle D'Einstein univers de matière statique et fini (1917)

- le modèle de De Sitter univers sans matière (1917)

- le modèle de Friedmann en expansion (1922) : modèle elliptique (sphérique, plat, hyperbolique)

- les modèles de Robertson / Tolman / Walker qui étendent l’univers dynamique de Friedmann à toutes les géométries
 
 

Mais le lien entre les trajectoires d’un mobile et la répartition des masses environnantes n’est pas unique car la géométrie gouvernant la trajectoire dépend du modèle d’univers.

Einstein (et tous les autres depuis) a donc échoué dans la grande ambition d’appliquer le principe de Mach c’est-à-dire d’expliquer l’inertie des corps directement par une force de rappel dans le champ attractif créé globalement par les masses environnantes et de proche en proche par l’ensemble des masses de l’univers.

A noter que la notion de l’inertie due à l’influence sur le corps de son propre puits de gravitation pose un problème proche car le lien entre l’onde et la matière dépend encore de la géométrie globale du vide (de la constante cosmologique), même si elle ne dépend plus de la courbure globale de l’univers (positif, nulle ou négatif).

Néanmoins cette démarche aboutie à un résultat essentiel: l’univers supposé homogène et isotrope ne peut prendre que 3 formes. Ces formes, exprimées par la valeur de la courbure supposée identique en tout point, dépend de la somme des densités d’énergie de matière (ou de masse car E = M inerte x c²), de rayonnement (E =hn (n =fréquence) et de la densité du vide (la fameuse constante cosmologique L ).

L’énergie de rayonnement est elle-même une énergie de transition entre l’énergie virtuelle (ou potentielle) du vide et la valeur de l'énergie correspondant à la masse inertielle de la matière car les couples de particules et d’antiparticules sont créés à partir de photon dont l’énergie dépasse la somme des énergies de masse du couple. Afin d’expliquer que les atomes ne spiralent pas vers des énergies toujours plus négatives (souvenons-nous que le niveau d’énergie potentielle de l’électron de l’hydrogène est de -13,6 ev), Dirac a supposé que les énergies négatives étaient déjà occupées par des électrons potentiels(ceux du vide); lorsqu’un photon frôle un atome, l’électron potentiel qui possède une énergie négative (-mc²) saute à une énergie positive (+mc²) grâce à l’énergie du photon (et son trou dans la mer des électrons potentiels invisibles devient détectable comme une antiparticule: le positron).

En sommant donc les énergies de masse, de rayonnement et l’énergie du vide, on détermine si l’énergie du monde dépasse une valeur critique (il sera sphérique), est juste au seuil (l’univers sera plat comme une feuille ou un tore, qui est une feuille repliée) ou trop léger (hyperbolique comme une selle de cheval).

L’univers est donc caractérisé par un rayon de courbure. Or dans le modèle le plus général ce rayon de courbure varie dans le temps. L’univers est dynamique: il est en dilatation ou en contraction en tout point. Les observations semblent confirmer très fortement que l’univers est en expansion.

Le mathématicien Friedmann est le premier a avoir montré que les équations d’Einstein conduisait à un univers dynamique.

La cosmologie s’insère aujourd’hui dans cette logique et repose sur les modèles de Robertson -Walker.

Dans ces modèles dynamiques, le Big-Bang est le point origine où l'expansion démarre.
 
 

1.2.5 Une description de l’univers au travers du Big-Bang

L’univers est considéré comme un espace où chaque point est au centre, c’est-à-dire qu’à tout moment et en n’importe quel point, toutes les galaxies ont un spectre décalé vers les grandes longueurs d’onde (vers le rouge) car elles s’éloignent toutes de l’observateur, exceptées celles suffisamment proches pour que l’attraction locale inverse le mouvement de récession.

L’espace s’accroissant avec le temps, la lumière envoyée par une galaxie lointaine va se propager dans un espace qui s’accroît avec le temps (quand le temps triple, le rayon est doublé, ceci se déduit de la conservation de la matière et de l’énergie).

La longueur d’onde de la lumière s’accroît donc avec le temps et l’énergie caractéristique de l’onde dans une unité d’espace se réduit: la lumière rougit.

Mais le phénomène n’est que localement proportionnel à la longueur parcourue. En effet les effets de courbure deviennent prépondérants, à une grande distance.

Imaginons que l’univers soit la surface d’un ballon. Entre deux points proches, le ballon semble presque plat; la loi de simple proportionnalité entre la distance et le décalage est respectée. Mais pour deux points éloignés de la sphère, l’effet de courbure est apparent et le décalage ne sera plus proportionnel.

En effet, plus on regarde loin dans l’espace, plus le rayon de courbure de l’univers est important, plus grand sera le décalage (le rougissement) pour une unité d’espace donné. Très près du Big-Bang, le rayon de courbure devient presque infini et le décalage devient très important.

Il faut ici évoquer un point essentiel pour la compréhension de l’univers lointain. On parle fréquemment de décalage Doppler et de galaxies nous fuyant à des vitesses élevées. Cette vision est totalement erronée. Il n’y a nulle part dans la théorie du Big-Bang une explosion projetant les galaxies avec des vitesses proches de la lumière et ralentissant avec le temps au fur et à mesure de leur rapprochement de l’observateur. Il n’y a pas non plus à l’inverse d’accélération des galaxies avec le temps au fur et à mesure de leur déplacement. Les galaxies ne possèdent pas par rapport à nous une énergie cinétique qui tend vers l’infini et il ne faut pas dire qu’une galaxie va à 90 ou 99 % de la vitesse de la lumière.

En fait, le décalage vers le rouge à grande échelle n’est pas un phénomène Doppler exprimant le décalage des fréquences par rapport à nous qui sommes immobiles, décalage dû à la vitesse élevée de la galaxie observée. Il y a effectivement décalage vers le rouge en raison de l’expansion de l’univers et ce décalage est lié à la différence de courbure entre la courbure de l’univers quand le signal est émis et la courbure de l’univers quand le signal est reçu.

En fait le rayon de lumière est courbé en tout point et son trajet reflète la variation progressive de la courbure le long de sa trajectoire (la courbure peut être localement plus importante en passant près d’une concentration de masse et ceci produit les mirages gravitationnels).

Il faut plutôt voir la lumière comme remontant progressivement un puits presque infini de gravitation. Au début de l’univers, sa densité est élevée ce qui courbe fortement l’espace en tout point; la lumière suit un chemin avec une courbure élevée; la lumière va ainsi perdre de l’énergie par unité d’espace au fur et à mesure de la diminution de la courbure. Le puits de gravitation de l’univers va s’ouvrir comme une corolle. L’unité de distance entre deux crêtes de la lumière va augmenter et la lumière possédera moins d’énergie pour une unité d’espace donnée.

Au fur et à mesure de la remontée de la lumière jusqu’à nous l’énergie initiale du spectre de lumière s’affaiblira car l’univers s’ouvre, accroît son rayon, réduit sa courbure relativement à une unité d’espace. La lumière ne perd pas en soi de l’énergie; elle en perd par unité de longueur fixée. Mais elle nous apparaît comme si elle avait épuisé son énergie à remonter le puits de gravitation global de l’univers.

Ceci est une vision globale indépendante des effets de l’attraction réciproque des masses de l’univers. Cette attraction a en effet comme rôle de réduire l’expansion de l’univers. Les distances intrinsèques entre deux corps augmentent nous le verrons par un effet d’expansion du vide entre les particules réelles à la recherche du minimum d’énergie. Mais l’attraction diminue le niveau d’énergie entre les particules, ce qui réduit en retour le rythme de l’expansion.

Suivant la densité de matière et d’énergie, suivant l’énergie globale de gravitation dans l’univers, le rythme d’expansion peut ralentir. Il peut tendre asymptotiquement vers zéro. Si la masse (ou l’énergie) de l’univers est suffisamment importante, elle pourrait même s’inverser et l’expansion se transformer en réduction, la taille de l’univers se réduisant jusqu’à atteindre à nouveau la taille où tout a commencé; la taille où l’espace est si petit que la particule vectrice de la gravitation ne peut se propager et où l’effet d’étalement du vide peut l’emporter à nouveau pour inverser le cycle.
 
 
 
 
 

2 Big-Bang et observations


2.1 Quelles observations possibles?

a) un univers uniforme à grande échelle (et des regroupements à " petite échelle " dus à l’attraction gravitationnelle)

b) une lumière qui s'étire avec la distance car sa longueur d’onde s’allonge avec l’espace (décalage vers le rouge)

c) un univers avec une origine dans le temps et un rayon initial quasiment nul (âge borné de toutes les étoiles)

d) l’horizon cosmique: une observation d’un espace limité par le " moment " de création des étoiles et le temps de propagation de leur lumière jusqu’à l’observateur: d’où un ciel non couvert d’une infinité d’étoiles et la possibilité d’une nuit noire...

e) un univers initialement chaud comme un cœur d'étoile (synthèse des atomes)

f) un plasma qui se refroidissant émet une lumière isotrope lors de la recombinaison noyaux -électrons formant les atomes (fond diffus cosmologique)

g) une évolution des structures galactiques depuis l’origine

Et d’autres observations déduites des précédentes et plus subtiles

h) une remontée de la température du fond diffus cosmologique pour les objets lointains

i) le phénomène de recombinaison engendré par les premières générations d’étoiles qui ionisent les atomes de leur environnement

j) une estimation du nombre de familles de particules élémentaires dont dépend la densité de l’univers et donc la proportion d’éléments légers constitués par fusion lors de la nucléosynthèse. La proportion des types des premiers atomes (ex He4) doit correspondre aux nombres de familles de particules observées dans les grands accélérateurs.

k) des fluctuations de densité du fond diffus cosmologique à l’origine des grandes structures - l) l’observation d’une masse de matière ordinaire compatible de la production des premiers atomes par la nucléosynthèse

m) une production de rayons cosmiques liée à un âge de première formation des couples d’étoiles à neutrons

n) une dissymétrie du comportement des particules et de leurs antiparticules qui justifient un taux de production différente et un reliquat de matière après annihilation de la quasi-totalité des paires formées

o) observation dans les accélérateurs d’un état d’unification en accord avec les modèles de création de particules dans l’univers primordial
 
 

Et d’autres encore pour le futur:

p) observation d’une phase de création de matière antimatière à partir des particules vectrices d’interaction

q) observation d’une phase du Fonds Diffus des neutrinos nés du découplage entre la force électromagnétique et la force d’interaction faible (responsable des transformations entre leptons lors de leurs collisions)

s) Observation d’un fond diffus cosmologique à 1K constitué des ondes gravitationnelles émises lors du découplage de la gravitation des autres interactions (dès 10-43 sec !): l’onde du début des temps...

2.2 Observations réalisées: les recoupements du Big-Bang

a) 1960 - 1980 Découvertes des grandes structures galactiques: amas et superamas confirmant l’uniformité à grande échelle (pour tout volume plus grand que 10-5 du volume de l’univers observable)

b) 1925: décalage vers le rouge de la lumière des galaxies proportionnel à leur distance (effet Doppler d'allongement de la lumière quand la vitesse relative de l'objet s’accroît): le décalage est proportionnel (constante de Hubble identique en tout point de l'espace)

c) 1980-96: datation des plus vieilles étoiles observables: 17 Milliards d'années (en baisse récente pour atteindre 14 à 15...)

Les âges se recoupent: les plus vieilles étoiles situées dans les amas globulaires ne sont donc plus créditées que de 14 à 15 milliards d’années, une durée à peu près compatible avec le temps écoulé depuis le Big-Bang (Résultat du satellite d’astrométrie Hipparcos : Constante Hubble = 65 km/s par Mégaparsec ou 3,24 millions d’A.-L).

L’âge des étoiles serait encore inférieur par l’introduction d’une valeur non nulle de constante cosmologique qui rendrait les mesures compatibles des modèles. Ce point demeure délicat en raison de l’incompatibilité totale entre la valeur nécessaire pour ce recoupement et la valeur de cette constante déduite des modèles de physique théorique (et liée à l’énergie statistique minimale de tout espace vide de particules détectables)

d) 1930: résolution du paradoxe d'Olbers / De Chéseaux: la nuit est noire car la lumière des plus vieilles étoiles ne nous ait pas encore parvenu.

e) 1948: Gamow explique la synthèse des noyaux atomes légers: Hydrogène lourd, Hélium, Lithium, Béryllium par le plasma brûlant du début de l'univers.

A partir de 1990, la mesure des densités des corps légers (deutérium, hélium, lithium...) dans l'univers proche fournit une densité de l'univers qui recoupe la densité locale de l'univers:

9 parties de matière noire pour 1 partie de visible (gaz, étoiles).

Pour chaque élément léger, on remonte à la densité nécessaire, dans une plage d’erreurs. Les dernières mesures ne se recoupent plus autour d’un intervalle unique de densité mais les observations continuent et vont gagner en précision, d’où la résolution ou la confirmation d’un vrai problème...

f) 1965: Observation par Penzias et Wilson d'un rayonnement froid et isotrope: le plasma refroidi a laissé diffuser une lumière isotrope dès que les atomes se sont formés autour des noyaux

g) 1963: Découverte des quasars lointains, détermination d’une proportion croissante de galaxies non structurées en remontant le décalage vers le rouge (et donc le temps).

Les galaxies régressent quand le décalage s’accroît

Aujourd'hui Spirales=45% Elliptiques=50% Irrégulières=5%

Pour les galaxies dont le décalage spectral est supérieur à 2 (Z>1) Spirales =35%, Elliptiques =15%, Irrégulières =5%

On observe également de grandes galaxies bleues lointaines (subissant une flambée de jeunes étoiles)

h) 1990: Le fond diffus cosmologique isotrope (rayonnement froid à 3 Kelvins) était effectivement plus chaud dans la banlieue des galaxies rouges à fort décalage (et donc lointaines)

i) 1997: Observation de phases de l’univers correspondant à 10 ou 20% de l’âge de l’univers de la ré ionisation autour des premières étoiles des gaz H+ et He.

j) 1995: Confirmation dans les accélérateurs que le nombre de familles de leptons gouvernant le nombre de neutrinos (et d’électrons) est limité à 3 et le nombre de hadrons (quarks) à 6 en accord avec la masse nécessaire pour expliquer le taux d’Hélium

k) 1990: Fluctuation du fond diffus cosmologique observé mais ces fluctuations sont environ 300 fois trop faibles pour expliquer les grandes structures galactiques. Il faut donc faire intervenir des particules massives. Mais ces particules sont apparemment réparties uniformément dans l’univers; il existe bien une masse manquante autour des galaxies et des amas correspondant à une matière classique dont la proportion recoupe la nucléosynthèse mais elle est aussi insuffisante pour expliquer ce facteur 300.

Cette matière dite " non baryonique " n’est pas sensible aux photons. Au contraire de la matière baryonique dont les condensations en phase plasma (avant le F.D.C.) ont été empêchées par la diffusion des photons de lumière, ces particules ont pu se condenser bien avant le découplage matière lumière et constituer la source de condensations des galaxies.

l) 1933- 1998: la proportion de matière déduite des mouvements des halos globulaires d’une galaxie permet de déduire qu’un halo de matière ne diffusant pas de lumière et représentant de 5 à 10 fois la masse des galaxies entoure celles-ci d’un halo sphérique.

De même un calcul fondé sur un équilibre entre les vitesses individuelles des galaxies et leur énergie d’interactions gravitationnelles, équilibre nécessaire pour justifier l’absence de dispersion des amas et de leur diffusion rapide permet de déduire là aussi une matière noire égale à 5 à 10 fois la masse visible (étoiles plus gaz émettant ou absorbant).

La densité de matière détectée correspond à la masse nécessaire pour expliquer les proportions d’éléments légers produits lors de la nucléosynthèse. Mais cette masse n’équivaudrait qu’à 20% de la masse nécessaire pour obtenir un univers plat avec une géométrie euclidienne. Cet univers plat est pourtant nécessaire pour justifier de l’uniformité à grande échelle du fond diffus cosmologique de photons; il manque donc encore 80% de l’énergie sous forme de particules qui ne participant pas au fond diffus de photons auraient néanmoins contribué à la formation et à l’équilibre des galaxies.

m) 1995: la proportion de rayons cosmiques influe la proportion observée aujourd’hui des atomes formés à la suite de la nucléosynthèse, cette proportion est liée au temps d’établissements des couples d’étoiles à neutrons générant les rayons cosmiques et reste compatible des observations. Mais cet effet est négligeable et se situe dans la boîte d’erreur sur la mesure des proportions des éléments légers.

n) 1957: des modèles dits de rupture de symétrie justifiant que certains types de particules (exemples les mésons k intervenant dans la physique des noyaux atomiques) se comportent de façon dissymétrique de leur antiparticule: il ne suffit pas de renverser leur trajectoire dans un miroir pour obtenir le même taux de production: c’est la chiralité de la matière.

Ainsi la désintégration de particules (encore hypothétiques) dits bosons d’interaction X en quarks et leptons et de leur antibosons /X en antiquarks et antileptons ne s’étant pas réalisée au même rythme, la matière l’a emporté sur l’antimatière (dans une proportion d’un milliardième...) lorsque l’énergie ambiante est descendue suffisamment bas pour arrêter la création de couples bosons X et /X. Les quarks continuant à se ré annihiler avec les antiquarks, il est resté un peu plus de matière que d’antimatière (0,3x10-9 pour les quarks et 10-9 pour les leptons (électrons...), pour que le reliquat forme toute la matière observée dans

et autour des galaxies (y compris les 98% de masse manquante...).
 
 

Et pour le futur

o) dès 1983: détection de l’ensemble des bosons d’interactions. Ce groupe de particules vectrice de force avait initialement été prévu par une théorie électrofaible, déduite de l’hypothèse du découplage primordial dans un état de haute énergie entre la force faible et l’électromagnétisme

Mais pour le moment les déductions (notamment la désintégration spontanée des neutrons ) liées au modèle d’interaction forte et découlant de l’équivalence fondamentale entre les particules des noyaux atomiques(hadrons) et les particules de matière responsable des couplages (leptons) n’ont pas donné lieu à des résultats positifs

p) 2001: une mesure des événements de haute énergie (particules plus énergétiques que les " rayons " cosmiques et dont les sous-produits d’une collision traversent notre atmosphère). Ces énergies doivent être compatibles des modèles de désintégration des " bosons X " à l’origine de la création des couples matière antimatière.

q) 2050: l’observation d’un fond diffus cosmologique de neutrinos à 2K : particules semblables à la lumière et n’interagissant que très peu avec la matière et donc diffusées avant le FDC de photons (c’est à dire quelques 10-4s après le début du Big-Bang au lieu de 700 000 ans pour le Fond diffus de lumière rayonné à 3000K et aujourd’hui à 3K). Il s’agit donc de détecter la dernière surface de diffusion des neutrinos produits environ 10 secondes après le Big-Bang (je conseille une bonne surface collectrice...)

r) 2015: couples de satellites Virgo: détection du Bang du début des temps (oscillations d’ondes gravitationnelles par différence de chemins optique d’un atome sur 3 millions de kilomètres La précision directe (10-20) peut être fortement accrue par l’intégration dans le temps et l’application d’une statistique sur les mesures.
 
 

3 Big-Bang : le récit
 
 

3.1 Comment la physique quantique nous permet de raconter l’Origine

En remontant le temps, en diminuant le facteur d’échelle caractéristique des dimensions de l’univers, on remonte également l’échelle de la densité et des températures.

Les expériences de collision effectuées dans les accélérateurs permettent de simuler les événements remontant presque à l’origine de l’univers.

Avec l’accélérateur du CERN, des énergies de collision de l’ordre de la centaine de milliards de fois l’énergie de liaison des électrons dans l’atome (1 Tev) permettent de remonter à des températures de 1016 Kelvins (Energie =kT) et un temps après l’origine d’un dixième de milliardième de secondes (cela suffit à la lumière pour parcourir 3 cm ou 300 millions de diamètres atomiques).

Les réactions de conservation de la nature impliquent que le nombre baryonique (différence entre le nombre de protons/neutron et d’antiprotons, d’antineutrons), le nombre leptonique (différence entre le nombre d’électrons / neutrinos et d’antiélectrons / d’antineutrinos), et la charge électrique sont constants si l’on considère un volume donné tout du long de son expansion.

.

La détermination actuelle de ces nombres permet de reconstituer leur densité par unité de volume au début des temps et d’établir les proportions des constituants par types de particules en établissant l’équivalent de réactions " chimiques " élémentaires.

Ceci permet de déterminer les phases et les transitions marquants l’Origine de l’univers.

Grâce aux théories dites de Grande Unification qui tentent d'unifier les forces fortes nucléaires, responsables de la stabilité " des noyaux atomiques, les forces faibles, responsables de l’annihilation / création des leptons, et de la force électromagnétique, nous réduisons le nombre d'hypothèses nécessaire pour expliquer l’origine de nombres baryonique et leptonique non nul c’est-à-dire l’asymétrie matière/antimatière.

Ceci permet d’envisager des réactions de transformations réciproques baryon/leptons et de violer le principe selon lequel une particule chargée tournant dans un sens est la symétrique de son antiparticule: les antiparticules n’ayant pas la même chiralité ne se désintègrent pas au même rythme que les particules, d’où un petit excès de matière qui subsistera après la désintégration réciproque du début des temps.
 
 

3.2 Racontons le Big-Bang

Au tout départ, une fluctuation quantique de l’énergie potentielle du vide aussi petite que le permettent les relations d’indétermination d’Heisenberg sur l’énergie du système par le temps de mesure.

Dès 10-43 s, la gravitation se découple produisant une expansion accélérée et donc des ondes de gravitation. Ces ondes formeraient un spectre indépendant de la fréquence d’une énergie aujourd’hui de 0,9K très difficilement détectable (mais un projet européen est en cours à l’horizon 2015).

Ensuite, vers 10-35 s, une période inflationniste due à une instabilité d’un champ scalaire (c’est à dire avec une valeur en tout point ) mais sans orientation. Cette instabilité accroît la dimension de l’univers sans diminuer la densité d’énergie du vide.

La notion d’inflation découle de l’observation de l’uniformité même du rayonnement dans toutes les directions de l’espace. En effet des zones séparées et même opposées ne peuvent émettre un rayonnement aussi semblable. On calcule aisément qu’une telle uniformité ne peut dépasser quelques degrés carrés.

Le paradigme aujourd’hui envisagé est le modèle de l’inflation, qui, avant même la formation de la matière, donc avant 10-34 secondes a provoqué une extension exponentielle de l’univers étendant à toutes les régions l’uniformité de la bulle quantique initiale.

L’univers de la taille d’une fluctuation quantique de 10-33 m s’est tout d’abord étendu en demeurant uniforme et à partir d’une taille de 10-26 m atteint une taille de 10 mètres dans un laps de temps de 10-35 s. La matière se forme et acquiert une masse dans le champ de " Higgs ": l’inflation s’arrête.

La fin de cette inflation transforme l’énergie potentielle en particules.

Les particules quarks et anti-quarks ainsi que leptons et anti-leptons sont créées.

Les particules possèdent une énergie d’agitation suffisamment élevée pour que des particules d’interaction (nommé bosons X) permettent des transformations réciproques quarks leptons.

L’énergie d’interaction gravitationnelle possède un potentiel négatif du fait de sa diminution avec sa distance. Or cette énergie gravitationnelle compense très exactement l’énergie qui constitue la matière. Le résultat est toujours une valeur algébrique de l'énergie égale à zéro!

La densité d’énergie du vide qui se transforme en particules compense l’énergie gravitationnelle.

La matière est créée à partir du vide qu’il ne faut pas confondre avec le néant car il est riche de toutes les particules virtuelles, virtuelles car d’énergie négative.

L’univers poursuit une expansion ralentie car dépendant de l’effet attractif de la gravitation due à sa masse et de son rayonnement, l’énergie potentielle continuant à jouer un effet répulsif.

Le temps est de 10-34 s.

La densité de masse et de rayonnement diminuant, les bosons d’interaction quark/leptons se désintègrent mais l’énergie est insuffisante pour en recréer.

Les quarks et les leptons n’interagissent plus. La force forte nucléaire est découplée. L’univers est alors un plasma de quarks et leptons. Mais la dissymétrie dans les désintégrations de bosons et d’antibosons engendre une dissymétrie matière antimatière.
 
 

A 10-12 s, la force électromagnétique et la force nucléaire faible (responsable des interactions entre leptons) se découplent. La force est dite faible car la désintégration est lente du fait de la masse faible du boson d’interaction faible par rapport aux masses élevées des bosons d’interaction forte qui agissent sur une distance plus courte.

A 10-10 s, les quarks peuvent s’assembler en nucléons et en mésons, futurs germes des noyaux atomiques. La famille massive à base de quarks est la famille des baryons (à l’opposé des leptons peu massifs).

Mais le confinement en nucléons du plasma de quarks est une transition de phase qui dans les modèles de la force forte a probablement engendré un dégagement de photons très important provoquant des inhomogénéités qui impactent la nucléosynthèse des éléments légers.

A 10-5 s, les particules et antiparticules continuant à se désintégrer, il ne reste en moyenne qu'un seul nucléon et aucun antinucléon pour 3 milliards de photons. Un déséquilibre de moins d’un milliardième en faveur de la matière...

Les électrons et positrons subsistent.

Dès 10-4 s, les neutrinos se découplent des la matière en produisant le Fonds Diffus Cosmologique de neutrinos (aujourd’hui à 2K et presque impossible à détecter du fait du couplage très faible des neutrinos avec la matière).

Les électrons et les positrons s’annihilent laissant un électron pour zéro positron et un milliard de photons.

La masse plus importante du neutron rend la désintégration neutron positron en un proton plus probable que la formation du neutron à partir du choc proton électron.

Dès 10-2 s, ce déséquilibre engendre un surplus de protons: le temps du neutron libre est compté.

A partir de la troisième minute, la température est suffisamment basse (1 milliard de degrés) pour que l’énergie de couplage fort entre les neutrons et les protons soit supérieure à l’énergie des photons qui ne peuvent plus briser les noyaux ainsi formés.

La durée de vie moyenne d’un neutron libre n’étant que d’un quart d’heure, la synthèse cosmologique s’étale sur la première heure. Il faut souligner que cette stabilité du neutron dans son noyau permet à la matière de persister...

La nucléosynthèse primordiale engendre l’apparition de Deutérium (coalescence d’un neutron à un proton) puis d’Hélium 4 en grande quantité par ajout de protons ou de neutron au deutérium, les sous-produits se recombinant entre eux.

Cette abondance de l’Hélium4 détermine que le nombre de types de neutrino est égal à 3 ce qui est observé par ailleurs et reste cohérent avec les modèles actuels.

Une partie de la soupe protons/neutron se combine également pour former du Béryllium, les autres éléments ne sont pratiquement pas synthétisés car les différences de niveau d’énergie sont importantes et l’univers se refroidit rapidement.
 
 

Dès la première heure, l’équilibre numérique photons - nucléons par absorption et émission commence à se rompre. L’énergie thermique des nucléons se réduit progressivement.

A partir du premier millier d’années, la rupture de l’équilibre thermique est sensible au niveau macroscopique et se poursuivra progressivement jusqu’à la phase finale de découplage rayonnement matière; la matière s’assemblant alors en atomes, laissant les photons du rayonnement se propager librement.

Cette période de 300 000 à 700 000 ans voit l’agglomération progressive de la matière autour des inhomogénéités primordiales.

Mais dès que les protons et neutrons tendent à s’assembler la pression de radiation augmente et stoppe le processus. Cette alternance de contraction sous l’effet de gravitation et de dilatation par diffusion produit des ondes sonores qui ralentissent globalement la condensation.

Les densités de masses sous la taille des amas globulaires (au-dessous d’une masse de 100 000 soleils) se dissipent complètement.

La matière (essentiellement noyaux, protons libres et électrons) reste donc en équilibre avec le rayonnement, leur densité  restant proche. L’expansion est devenue suffisamment lente pour que toutes particules soient absorbées et ré émises ou diffusés un grand nombre de fois ce qui engendre cet équilibre thermique.

Au terme de 300 000 à 700 000 ans (selon les modèles), le refroidissement est suffisant pour que les photons n’expulsent pas immédiatement les électrons orbitant autour des noyaux; les premiers atomes stables se forment. C’est la recombinaison. L’énergie de liaison de l’hydrogène étant de 13,6 EV, ceci conduit à 3400 K.

Les photons jusqu’alors constamment absorbés puis ré émis essentiellement par les électrons peuvent poursuivre leur chemin en ligne droite.

Le fonds diffus cosmologique est émis.

Ce spectre thermique exprime l’équilibre entre le rayonnement et la matière juste au moment du découplage matière / rayonnement. Il correspond à un corps parfaitement absorbant (il n’y a pas " d’extérieur ", l’émission étant réalisée en tout point de l’univers). Le spectre d’émission ne dépend donc que de la température.

Les photons émis et caractéristiques d’une température de 3000K ont vu leur longueur d’onde s’accroître avec l’expansion intrinsèque de l’univers. L’univers s’étant étendu d’un facteur 1000, la température du F.D.C. n’est plus aujourd’hui que de 2,73K.

3.3 Les informations du F.D.C.

Le spectre thermique est parfaitement caractéristique d’une température de recombinaison d’atomes d’hydrogène*. L’absence de glissement en température indique que dans son voyage jusqu’à nous le flux de photons n’a pas pu être absorbé et ré émis par les électrons libres de nuages de gaz d’hydrogène " chaud " (plasma autour de 106 K).

Par contre, le mouvement de notre Galaxie produit un dipôle par effet Doppler c’est à dire un point chaud par le décalage du spectre dans le sens de déplacement et un point froid à l’opposé. La vitesse élevée de 600 km/s est due à l’attraction de notre amas par le Grand Mur réunion de milliers de galaxies, constituées en un immense réseau. Sa distance par rapport à nous n’est que d’une centaine de millions d’années lumière.

Les " rides du temps ", les premières fluctuations dues aux germes dont la croissance avant l’émission du spectre thermique ont été contrariées par la diffusion des photons, ont pu être détectées dans le F.D.C. mais celle-ci sont trop faibles pour expliquer la formation des structures galactiques dans le " bref " milliard d’années séparant le F.D.C. des plus lointaines galaxies.

La très basse valeur de fluctuation (de l’ordre d’un ou 2 dix millième de kelvins) nécessite pour expliquer la formation rapide de galaxies de faire intervenir une forme de matière soumise à l’attraction mais non sensible à la lumière. Cette matière noire pourrait se condenser bien plus tôt que la matière visible peut-être dès le premier millier d’années.

Au-dessus de quelques degrés d’ouverture, les variations du F.D.C. détectées sont dues aux effets de courbure de l’univers, il faut donc une meilleure résolution pour détecter les germes de galaxies. La mesure du rayonnement à de faibles longueurs d’onde (donc très loin du pic qui représente la température vers 300 000 ans) donne également des informations sur le début de la phase de découplage.

* Une analyse plus fine du F.D.C. devrait faire apparaître en superposition la recombinaison de l’hélium, du deutérium et du béryllium à des températures différentes.

Nous avons aussi évoqué que l’uniformité du F.D.C. indique une période d’inflation initiale.

4 problèmes sont soulevés:

- l’uniformité du F.D.C.

- le problème de la densité critique

- les caractéristiques des germes galactiques

- l’absence de monopoles magnétiques

Le F.D.C. est engendré 300 000 ans après le Big-Bang d’après les modèles d’évolutions thermiques du Big-Bang.

D’autre part la détermination de la constante de Hubble et de l’âge des étoiles indique un univers visible de l’ordre de 15 milliards d’années.

Le modèle d’évolution physique de l’ère de matière (l’ère des galaxies et des étoiles) qui repose sur le découplage de la matière masse/rayonnement et permettent de poser la conservation de l’énergie des particules massives. Cette simple règle de conservation de l'énergie implique indique que le volume de l’univers varie comme le carré du temps écoulé. Ceci signifie que l’univers au temps du F.D.C. avait de l’ordre de 10 millions d’années-lumière de rayon.

Or aucune particule de matière ne se propageant plus vite que la lumière (dans les modèles classiques actuels), l’uniformité du F.D.C. implique qu’un processus a homogénéisé l’univers dans une phase où la matière n’existait pas mais où les caractéristiques de courbure de l’espace-temps existait déjà.

Ainsi le modèle proposé suppose une extension d’une bulle d’énergie potentielle a une " vitesse "  croissant exponentiellement. Dans cet univers vide de matière, il n’y a pas violation directe de la vitesse limite de propagation de l’information. Ce n'est pas une vrai vitesse; l'univers a surgi avec ce taux de croissance évolutif et rien ne s'est propagé à l'intérieur de cette bulle

L’univers ainsi homogénéisé continue de s’étendre et l’univers actuellement visible ne constitue qu’une faible partie de l’univers visible.

Second problème dit problème de la platitude.

Dans les modèles physiques, toute déviation de la densité de l’univers par rapport à la densité critique correspondant à un univers euclidien (plat dans sa version la plus simple) ne peut que diverger avec le temps.

Si 10-36 s après le Big-Bang, l’univers avait été différent, ne fût ce que de 10-53 pour 1, de la densité critique, l’univers se serait immédiatement recontracté ou totalement dilué suivant le signe de l’écart. Seule façon de résoudre le paradoxe l’inflation qui, en augmentant fortement la dimension de l’univers aplanit la courbure de l’univers et rend l’univers euclidien. La densité correspondante est dite densité critique car elle est la frontière entre un univers temporellement fermé sur lui-même (avec une expansion suivie d’une contraction) et un univers à expansion infini. Dans le premier cas, le temps est créé et disparaît. Dans le second cas, l’écoulement des événements se poursuit tant qu’il existe des transitions d’énergie dans une matière se refroidissant.

Cette densité critique est en apparente contradiction avec les mesures convergentes basées sur les effets gravitationnels et sur l’abondance des éléments légers: il manquerait au moins 80% de la masse nécessaire pour que l’univers soit plat; il serait donc hyperbolique.

Mais la valeur fatidique ne semble après tout pas si éloignée...

Les fluctuations de l’ordre de 1 pour 10 000 nécessaires pour la création des germes gravitationnels des galaxies nécessitent que l’échelle relative de ces fluctuations soit indépendante de leur taille. L’inflation permet de générer de telles fluctuations fractales.

En outre l’inflation aurait l’avantage de diluer les particules dites monopoles magnétiques en principe générées lors du découplage de la force forte et donc l’abondance aurait été dans le cas contraire proche de celles des métaux terrestres. Ceci est contredit par le fait mais la preuve inverse de l’absence totale de monopoles est très difficile à établir.

Donc ou bien les modèles sont faux ou bien la dilution de l’inflation explique qu’il demeure introuvable, malgré les recherches des candidats au prix Nobel...
 

    4 Les problèmes du modèle

   4.1 La cosmologie c'est le Titanic et l'univers l'iceberg

La densité de l'univers basée sur une entropie constante implique un univers plat d'où :

75 parties de matière noire attractive ne formant pas d'atomes

24 parties de matière noire formant des atomes

1 partie de matière visible (0,9 pour les étoiles 0,1 pour le gaz, et les planètes pour ce qu’il reste…)

Cette densité recoupe les besoins de masses attractives pour former les premières galaxies en moins de 1 milliard d'années.

4.2 les problèmes généraux

Le fond diffus cosmologique est un rayonnement en équilibre thermodynamique parfait (pas d'échange de chaleur): les fluctuations, germes des galaxies, sont insuffisantes d'un facteur cent à mille.

Solution: matière noire en grande quantité accélérant l'accrétion.

Cette matière noire est mesurée :

- dans notre Galaxie, à partir des vitesses de rotation des gaz neutres d’hydrogène et des amas globulaires et en appliquant les lois de Képler on en déduit un défaut de luminosité de la Galaxie d’un facteur 5. Ce facteur réapparaît pour les autres galaxies spirales et atteint 10 pour les elliptiques. Cette matière invisible formerait un halo sphérique pour stabiliser les amas globulaires.

- dans les couples spirales binaires, le rapport est de 6 et indique que cette matière noire s’étend jusqu’au moins 300 000 A.-L. mais pour expliquer que des spirales serrées ne tombent pas l’une vers l’autre, il faut supposer que l’essentiel de la matière invisible est proche des galaxies ou supposer une répartition irrégulière.

- dans les amas denses de galaxies (environ 10% des galaxies), le rapport de matière invisible s’élève d’un facteur 2 par rapport au rapport des groupes diffus de galaxie (notre Galaxie est justement dans un de ces groupes, il est dit groupe local...). Ce rapport tient compte du plus grand nombre d’étoiles anciennes dans les amas.

- dans les superamas de galaxies (seul notre SuperAmas local a bien été mesuré), le rapport n’est pas plus élevé que dans les simples amas.

La matière invisible semble donc être présente dans l’environnement proche des galaxies et dans une quantité égale dans l’espace intergalactique des amas.

Les estimations de quantité des corps simples (hélium, lithium..) ne se recoupent plus tout à fait sur une densité unique de l'univers : biais dans les observations ?

Paradoxe de la courbure: en imaginant un univers s’étendant depuis l’origine jusqu’à l’époque actuelle de façon continue, il faudrait un univers remarquablement plat pour expliquer le fond diffus cosmologique.

Paradoxe de l'isotropie: le fond diffus cosmologique est très isotrope or l'horizon pour les observateurs est formé par un cône. tous les cônes ne se recoupent pas: comment expliquer la parfaite homogénéité initiale ?

Particules monopoles magnétiques prédites par théorie: absents de l'observation

1 explication: inflation initiale née de la rupture des forces nucléaire et électrofaible qui aurait augmenté considérablement le volume de l’univers pendant un court laps de temps. Cela aurait accru la platitude de l’espace visible, homogénéisé l'univers, dilué considérablement la densité de monopoles.

Ce mécanisme créateur d’agitation thermique et donc d’entropie permettrait de partir d’un univers avec une entropie très faible pour arriver dans un univers à entropie élevée.

L’univers observé possède cette entropie élevée inexpliquée sans ce mécanisme.
 
 

4.3 La répartition de l'énergie dans l'univers

Quel est la densité de l'univers?

Elle serait critique par l'application du processus d'inflation primordiale qui nous indique que les forces unifiées de la nature se sont découplées en générant pendant un courte fraction de temps une croissance constante du rapport entre la courbure et sa dérivée première, autrement dit une croissance exponentielle du rayon de courbure. Ceci permet de résoudre le paradoxe de l'homogénéité qui affirme qu'en considérant 2 directions opposées dans l'espace, elle apparaissent homogènes alors qu'elles n'ont pas eu par définition le temps de s'homogénéiser , ceci signifie qu'elles se sont homogénéisées avant le processus d'inflation et c'est le processus d'inflation qui les a séparés dans l'espace.

Une autre contrainte qui impose que l'univers ait une densité critique car elle apparaît, du moins dans sa partie visible, tellement proche de la criticité (au plus à un facteur 10 près) qu'en remontant les équations jusqu'à la limite de description des équations (la plus petite incertitude de temps est 10-44 s) , l'univers serait homogène à 10-61 près. La physique de l'inflation tend à dire qu'un univers peut-être inhomogène vers 10-44 s serait passé par le processus d'inflation entre 10-38 et 10-34 s.

Rappelons que la densité est la somme algébrique des densités d'énergie des particules massives, de l'énergie de rayonnement et d'éventuels autres champs scalaire et qu'un terme dit constante cosmologique peut s'y soustraire. Un cas particulier peut être le champ scalaire associé du vide qui pourrait s'ajouter (ou être confondu) avec la constante cosmologique. Les densités de particules massives et de rayonnement jouent comme une masse attractive: la rayon de courbure est moins grand pour un temps d'expansion donné et la densité du vide ainsi que la constant cosmologique auraient un effet répulsif.

On notera tout d'abord que la densité d'énergie du rayonnement déduite du fonds diffus cosmologique à 2,73 K n'est que le millième de l'énergie critique elle est donc négligeable dans notre ère de matière.

Quelle est la part de ces différents facteurs dans le cadre d'une somme donnant une densité critique et un univers euclidien ?

3 méthodes générales sont exploitées pour discriminer énergie du vide et énergie massive:

L'étude du fonds diffus cosmologique (expérience Boomerang) confirme que la densité critique est bien de 1 et l'extraction du signal a permis de trouver des termes polaires précisant l'extension spatiale et l'intensité de ces fluctuations. Ces fluctuations sont extrêmement faibles, elles sont dues aux fluctuations liées aux germes de concentration de la matière visible au moment du découplage (qui se situerait autour de 1% de la densité critique).et elles sont amplifiées par un phénomène de lentilles gravitationnelles autour de la matière noire qui se situerait entre 20 et 30% de la densité critique. Ces germes ne peuvent pas avoir en masse plus que celle d'un super amas galactiques (lié au temps de croissance) et pas moins que la masse d'un amas stellaire car les sur-densités plus petites se seraient dissipées par le phénomène d'oscillation qui dissiperait le germe.

L'autre méthode est l'application directe du principe de lentilles gravitationnelles qui en procédant à la corrélation point à point de toute les déviations d'ellipticités des galaxies en fond de plan dus à leur passage par des concentrations de masses sur le chemin de visée permettant de remonter à la structure spatiale de la matière noire et à sa densité. La part de la matière noire est confirmée; elle serait de 20 à 30%.

La troisième méthode met en œuvre les modèles de supernovae de type I (produit par l'effondrement d'une naine blanche dans un couple d'étoiles serrées). Ce sont des chandelles galactiques car l'implosion de la naine blanche se produit sur un seuil de masse bien précis (~1,4 masse solaire) et elles émettent toutes la même quantité de l'énergie spectrale.

A partir de la magnitude apparente, on peut déterminer la distance réelle en intégrant la courbure qui modifie la concavité des images. On a à nouveau une nouvelle zone compatible pour une partie d'un univers de densité critique mais dont la quantité de matière serait de 20 à 30%.

Or la variation du rayon de courbure de l'univers son facteur d'expansion est la constante de Hubble (qui n'est constante que dans un espace homogène et isotropie mais varie dans le temps avec le contenu et la géométrie de l'univers). Avec une constante de Hubble qui varie de 55 à 75 km/s on tourne autour d'une densité critique de 5 à 10 10-30 g/cm3

Mais d'autre part la quantité de matière déduite des mesures concordantes de l'hélium 3 , l'hélium 4 , le deutérium et le lithium-7 implique une densité qui converti dans la densité actuelle est de 3,5 à 4 10-31 g/cm3 donc seulement de 3 à 10% de la densité critique.

Se pose alors la question de l'écart entre la masse déduite de la quantité de lumière et de la masse des amas galactiques déduite de l'application du théorème du Viriel qui relie l'énergie cinétique et l'énergie gravitationnelle et qui justifie que les galaxies restent liées dans l'amas. Le rapport est de l'ordre de 300 signifiant que la masse lumineuse est extrêmement faible. Si la part de la matière noire est de 30% cela ferait tout au plus 0,1 % pour la matière lumineuse.

La seule façon de concilier les résultats est de dire que la grande partie de la matière baryonique initiale est devenue invisible (par exemple lors de la formation de trous noirs) pour passer de 3% à 0,1 %.

Mais dans ce cas pourquoi n'y a t-il pas plus de trous noirs massifs dans le disque (qui devrait en contenir en proportion de son volume) ?

Et il reste la question de savoir de quoi est constituer les autres 70% de densité critique. Il pourrait s'agir de la densité du vide. Il est alors intéressant de noter qu'en partant des relations d'Heisenberg, qui expriment l'indétermination de l'énergie et donc l'équivalent d'une énergie moyenne du vide (centrée sur zéro mais avec une variance non nulle), on peut bâtir une entropie dans un volume d'espace donnée , entropie qui dépend de la résolution . A partir du travail associé à cette entropie (travail nécessaire pour résoudre l'échelle examinée) on obtient une densité d'énergie. Cette densité d'énergie est très exactement la densité imposée par la physique quantique des champs par la superposition des champs associées à chaque force de la nature en tenant compte du nombre et de la symétrie porteuse de charge.

Et en réinjectant cette valeur dans les équations de la dynamique de Friedmann on reconstitue l'enchaînement de valeurs des paramètres cosmologiques pour les différentes ère de l'univers (ère de l'inflation, ère de rayonnement , ère de matière). On retrouve, pour une constante de Hubble actuelle de 60 km/s /Megaparsecs , et une densité de matière noire de 30%, un univers d'un peu plus de 13 milliards d'années en accélération depuis 9 milliards d'années pour un rayon de courbure actuel d'environ 28 milliards d'années -lumière.
 
 
 
 
 

5 Premières générations d'étoiles et formation des galaxies


Les grumeaux de matière noire ont pu être se former plus tôt que les grumeaux de matière baryonique car ils n'ont pas subi la diffusion des photons lors de l'ère du rayonnement (avant la création du fonds diffus cosmologique).

La masse de matière noire est au moins 7 à 10 fois plus importante que la matière baryonique déduite de la proportion d'éléments légers produits par la nucléosynthèse primordiale et environ 300 fois plus importante que la quantité déduite de la matière lumineuse (déduite des lentilles gravitationnelles ou de la méthode du Viriel appliqué sur les amas galactiques).

Ces grumeaux ont pu attirer vers eux de la matière classique et notamment des molécules d'hydrogène qui en se percutant ont formé des molécules diatomiques capables de perdre de l'énergie par rayonnement. Pour que se phénomène se produise il faut une catalyse à partir des électrons qui ne sont pas associés aux nucléons lors du découplage entre la matière et le rayonnement. Au moment de la création du fond diffus cosmologique, le découplage n'a pas été total.

Le gaz moins chaud peut commencer le processus d'accrétion. Les zones de matière froide plus ou moins sphériques vont conserver leurs formes car la matière froide ne perd pas d'énergie par rayonnement.

Au contraire la matière baryonique va s'effondrer au centre en un halo sphérique dans un premier temps puis en disque.

Au centre des nœuds de matière, les grumeaux se forment donc des nuages plus froids.

Au sein de ces nuages , des zones plus denses et donc plus chaudes que leur environnement froid vont permettre un effondrement plus rapide mais c'est au sein de ces zones denses que l'on va trouver les nuages proto- stellaires plus froids de l'ordre de l'année-lumière. On a donc une succession d'échelles alternant des inhomogénéités plus denses et plus chaudes qui incluent des inhomogénéités plus froides qui peuvent accroître encore la densité.

Des étoiles se forment au centre des nuages. Ces étoiles sont massives car il faut une masse élevée pour démarrer le processeur de fusion de l'hydrogène en l'absence quasi totale de catalyseur (notamment le carbone). Mais ces étoiles presque exclusivement constituées d'hydrogène et d'hélium purs ne peuvent pas perdre beaucoup de masse par le processus de vent solaire. Leur masse devait être de l'ordre de 100 à 300 masses solaires tout au plus.

L' explosion de la première génération d'étoiles en supernovae en 1 à 6 millions d'années va éjecter les produits de leur nucléosynthèse qui permet à la seconde génération d'étoiles de se former.

La première génération a ionisé son milieu par émission d'UV. Ceci accélère la formation de molécules diatomiques provoquant la formation en flambée d'étoiles encore plus massives car leur contamination partielle par des métaux (carbone,…) augmentent les phénomènes de convection et les étoiles produisant un vent stellaire important sont plus stables.

Leur taille pourrait peut-être atteindre jusqu'à 1000 masses solaires selon certains modèles.

La réunion des bulles de plasma ionisé permet l'ionisation du gaz inter galactique. Il suffit qu'un millième de la masse baryonique se transforme en étoiles massives pour ioniser tout l'univers.

La fin de vie de cette génération d'étoiles est encore plus rapide mais toutes celles de plus de 250 masses solaires implosent en trou noir massif.

Ces trous noirs massifs fusionnent pour former le cœur des proto galaxies et l'effondrement du gaz chaud émet des jets radiaux et un très forte émission en X : ce sont les premiers quasars.

L'ionisation de l'univers permet la formation d'une multitude de grumeaux plus petits de matière: les amas stellaires forment les étoiles dites de génération II.

Les halos galactiques sont formés de ces amas répartis à l'extérieur du disque et répartis de façon à peu près isotrope. Des disques proto-galactiques vont se former par formation d'ondes de densité planes. Les étoiles de génération I vont donc se former à partir des résidus (métaux…) des étoiles de génération II en fin de vie et des nuages de gaz du disque; la proportion plus élevée de catalyseurs leur permettra d'être en général moins massives.
 
 
 
 

6 Synthèse: temps et taille de l'univers total et observable
 
Temps cosmique Dimension Univers Taille au moment de l‘émission du FDC de la partie univers aujourd’hui visible Dimension de l’univers visible Loi de variation du rayon de courbure 
10+162 ans 10+171 m   10+171 m  
10 milliards d’années =

3x 10+17 s (aujourd’hui)

2 10+42 m   30 milliards d’A.-L.= 310+26 m temps2/3
175 000 ans = 5 10+12 s 510+59 6,510+22 m = 6,5 millions d’A.-L.   temps2/3
2,5 10-33 s 1,1510+37 m 1,5 mètre   temps1/2
10-36 s 1,6 10-31 m      
5,4 10-44 s 1,6 10-35 m     Exp(temps/ 2.510-33)

L’horizon cosmologique est la portion de l’univers que nous pouvons percevoir, cet horizon s’accroît linéairement le temps d’une distance 3ct où c est la célérité

L'univers visible peut être traité à tout moment comme un trou noir en expansion:

la vitesse apparente des galaxies les plus lointaines à la lisière du FDC s'approche de 2c avec un rayon qui croit à la célérité 3c.

Le fond diffus est de plus en plus ancien ; de nouvelles galaxies apparaissent, produites par condensation de la partie nouvelle visible du FDC.

Le FDC diminue d'intensité et tend vers zéro Kelvin lorsque tous les fronts d'onde venant de tous les points de l'univers total auront dépassé l'observateur.

Mais l’univers total fruit de l’inflation initiale est bien plus grand que l’univers visible le rayon de l’univers dans l’ère de matière varie en temps2/3 où 2 indique que l’énergie d’une particule varie au carré d’une vitesse et 3 les dimensions de l’espace

Avant la création du FDC l’univers de rayonnement variait en temps1/3, la valeur 1 exprimant que l’énergie du rayonnement est proportionnelle à la longueur d’onde

L’univers a aujourd’hui 15 milliards d’années

En première approximation c’est à dire en négligeant l’ère du rayonnement (les premiers 175 000 ans) nous pouvons percevoir des événements sur une distance de 30 milliards d’années lumière

Or le FDC est homogène et le rayon de l'univers ayant émis le FDC aujourd’hui détectable (c’est-à-dire la partie aujourd’hui visible de l’univers) ne faisait que 6,5 millions d’années lumière à t=175 000 ans (variation en Temps1/2) et seulement 1,6 mètres à t=2,5 10-33 s (à la fin de l’ère de l’inflation primordiale)

Le FDC que nous mesurons est très homogène (variation de seulement quelques millième de Kelvins). Ce qui veut dire qu’à 175 000 ans après le Big-Bang était aussi très homogène

Pour rendre homogène une zone de plus de 6,5 millions d’années lumière dès T=175 000 ans, on fait intervenir une inflation primordiale entre 10-35 s et 10-34 s qui aurait augmenté exponentiellement avec le temps la taille de l’univers d’un facteur 10+50!! (résultat du calcul sur l’énergie du vide qui a dû se déployer lors du découplage force nucléaire / gravitation sur un espace bien plus grand avant de retomber à un niveau suffisant pour se concrétiser en univers de matière.

En fait l’univers se découple en 2 phases

- la phase actuelle où le FDC n’est pas entièrement visible: le cône de vision s’élargit plus vite que l’expansion du rayon

- la phase où tout le FDC est visible et où des répliques de l’univers pourraient apparaître.

Mais la seconde phase débutant dans 10+171 ans, l’univers à cette époque n’émettra pratiquement plus de lumière...
 

Annexe A Le problème de la suppression des singularités

Les modèles liés à la Relativité Générale induisent une singularité lorsque l’univers avait un rayon nul (terme infini de courbure).

Or les modèles basés sur le couplage de la mécanique quantique et de la relativité lèvent cette notion de singularité. L’univers n’aurait pas à l’origine de caractéristiques particulières: la condition aux limites est qu’il n’y a pas de bord (selon la formule de Hawking).

Ceci repose sur une description de l’univers dans un espace euclidien à 4 dimensions avec 3 coordonnées spatiales et une coordonnée supplémentaire (appelée temps imaginaire).

La difficulté est que l’univers n’a pas de singularité initiale selon le temps imaginaire mais qu’aujourd’hui notre description de la physique selon un temps réel conduit à des singularités (les trous noirs).

Ceci impliquerait que l’univers soit né sous la forme d’un espace à 4 dimensions spatiales (ce qui est vérifié car la gravitation est un mouvement de l’espace à 3 dimensions vers une quatrième dimension sous-jacente). Le découplage aurait donc généré une transformation des coordonnées en créant une coordonnée (le temps dit réel), temps le long duquel les systèmes, du fait de l’aléatoire des interactions, évoluent vers les états les plus probables car les plus nombreux: à l’échelle de l’univers qui ne peut évacuer de l’énergie dégradée sous forme de chaleur, on passe de l’ordre vers le désordre, et, à l’échelle locale, on passe du désordre à l’ordre, du fait de la possibilité de gagner de l’information en évacuant de la chaleur.

Le problème du temps: la flèche psychologique varie dans le même sens que la flèche thermodynamique car nous avons besoin d’évacuer de la chaleur pour stocker de l’information (le rendement est ridicule) mais pourquoi le temps d’évolution cosmique (l’expansion) est-il dans le même sens que la flèche thermodynamique?

Ce fait est dû que la période d’inflation induit un univers ayant une densité dite critique et donc une phase d’expansion quasi infinie (suivant une loi logarithmique).

Si jamais il se recontractait (car sa densité était juste au-dessus de la valeur limite du fait de l’indétermination quantique), il ne pourrait le faire qu’après avoir atteint un stade où toute matière se sera par la statistique transformée en trous noirs avant de diffuser en particules atomiques ; à ce moment là, l’univers étant dans un désordre total, il ne pourra plus avoir d’accroissement significatif d’ordre: toute notion de vie reposant sur une flèche thermodynamique forte semble donc inconciliable d’une phase de contraction; l’univers observé est donc en expansion général et son désordre s’accroît. C’est un principe anthropique dit faible.

Nous atteignons le stade où la physique intègre non seulement les lois d’évolution mais aussi les conditions initiales : l’univers est autosuffisant.

Mais une telle description ne suffit pas une vision totale et complète. En effet:

- il manque une théorie totale et unifiée des interactions et de la matière qui réunit les théories partielles

- nous ne comprenons pas l’origine des constantes fondamentales: G, h, k ou c.

- l’univers n’est pas entièrement descriptible du fait de l’indétermination quantique (constante de Planck), du fait du problème de la précision de toutes conditions initiales (les lois déterministes induisent un résultat stochastique à long terme)

- les liens décrits dans les équations entre les variables sont auto référendaires : Elles ne sont donc pas résolvables d’une façon générale et doivent être approximées selon des algorithmes de convergences :la précision disparaît et les valeurs ne sont reconstituées que de point en point sans savoir si pour une précision supérieure à la précision obtenue, il y a continuité ou discontinuité, sans savoir quelle est la forme de la courbe dans l’intervalle non encore résolu.
 
 

Annexe B Réflexions sur le modèle relativiste

Pour que la vitesse d'un objet dépende de la distance à l'observateur, il faut:

que ce qui sépare l'objet de l'observateur s'étire linéairement et donc que le vide possède une propriété intrinsèque permettant cette expansion semblable en tout point

Les modèles basés sur la relativité et la propagation de la lumière à une vitesse finie doivent être compatibles:

- d'une même vitesse finie pour tout observateur

- d'un principe d'équivalence entre une attraction et une poussée en sens contraire

Le premier principe impose un écoulement du temps qui dépend de la vitesse de l'observé par rapport à l'observateur

Le second principe équivaut à l'équivalence masse attractive et masse inerte: tout les corps tombent à la même vitesse dans la direction du centre d'attraction: même la lumière!.

L'univers est courbé par les masses: l'attraction n'est qu'un effet de la symétrie relativiste

Les 2 sont vérifiés expérimentalement mais il reste à expliquer:

pourquoi la relativité est vérifiée en tout point (principe statistique vrai à grande échelle?)

Pourquoi cette vitesse finie et pas une autre?

Une piste: dans le vide, l’énergie déployée par la lumière sur sa longueur d'onde est constante (E lambda = hc) car la lumière est une ondulation du milieu de propagation.

Autre vision delta de l’impulsion = h /(delta de la position) ; l’impulsion est définit par la longueur d’onde de la vibration du vide (l’onde électromagnétique est une vibration du vide).

La présence d’un vide aux propriétés uniformes expliquerait que le principe de relativité est partout vérifié.

La célérité de la lumière aurait comme racine les propriétés particulières du vide, une certaine capacité de générer des particules virtuelles, capacité liée elle-même à la constante de Planck. Ce vide assure ainsi l’auto propagation de la lumière vue comme une fluctuation sans amortissement.

Une remarque finale: d’après la relativité il n’y a que des temps locaux c’est à dire une infinité de temps propres; d’après la physique quantique il n’y a que des événements en transitions: les 2 temps en définitive se diluent; le premier temps n’a de validité que locale; l’autre réduisant son existence à l’acte d’interaction.

Conclusion: notre compréhension est encore éclatée en modèles incompatibles. Il reste du pain sur la planche et nous n’en sommes qu’au début.