Constantes fondamentales ou
l’irréductible discours du Tout et de ses parties.
a) Paramètres et constantes
dimensionnées
Constantes fondamentales
invariantes
b.2) Notion d’horizon associée à
c .
b.3) lien causalité-
célérité de l’information et thermodynamique
b.5) Notion d’horizon associé à G.
b.6) Catégories d’horizon associées
à G et c
b.8) Notion d’horizon associé à h.
b.10) Notion d’horizon associée à k
c) question sur le nombre de
constantes fondamentales
e)
Equivalence des perspectives cinématique et dynamique
f) Origine de la dilatation du
temps
L’existence de constantes est reliée à des invariances de la nature, c’est-à-dire à des éléments non modifiables. Ces constantes expriment l’impossibilité par une expérience ou une mise en situation d’extraire une information sur un état absolu de mouvement, d’établir une frontière inamovible entre matière actualisée et vide potentiel , de modifier le rythme d’information extractible, de pouvoir acquérir une information sur la structure statique de la matière en conservant une information sur le mouvement dynamique de la sonde, d’acquérir une résolution sur un paramètre dynamique, lié à une transformation, simultanément et indépendamment de la résolution sur un paramètre statique, une position, une structure.
En résumé les constantes décrivent l’impossibilité structurelle qu’un observateur interne obtienne une information globale, externe, en faisant interagir localement ses parties. La précision de la photographie statique locale en terme de résolution, de structure ou de position, de matérialisation est couplée à la précision du film de l’évolution lié au potentiel d’interaction de ce local avec le global. Le local et le global ne peuvent s’appréhender simultanément car ils sont irréductibles l’un à l’autre mais leur évolution ne peut être pensée distinctement.
Sur la base des constantes c , la célérité de la lumière dans le vide invariante par changement de repère et G, la constante universelle de la gravitation Albert projeta sur les quantités mesurables le principe de relativité et l’impossibilité d’une distinction du mouvement géodésique du mouvement inertiel . Aucune mesure ne peut prend de valeur absolue sauf l’invariance des constantes. Albert pose alors le global comme une extension du local, irrésolution totale du local expérimentable et du global conceptuel.
Sur la base de la constante h , l’action minimale produit de l’impulsion et du déplacement, Albert s’autorisa à induire que toute propagation de l’information électromagnétique sous forme ondulatoire non ré solvable peut aussi se concrétiser, s’actualiser sous forme de particules sources, ce que Louis constitua en une association de deux notions onde et particules.
Werner énonça alors l’irréductibilité du local et du global, du connu et de son devenir mais en définissant l’impossibilité de penser un local absolu, résolvant totalement le local expérimentable et actualisable dans un global potentiel.
La physique quantique introduit un couplage explicite entre les grandeurs statiques de position et les grandeurs dynamique, entre les grandeurs qui relèvent du local et les grandeurs qui relève du devenir, c’est-à-dire de l’interaction du local avec le global.
Lorsqu’une expérience détermine une structure spatiale, figeant en cela des frontières séparant des espaces locaux, l’expérience rompt le lien local/global et les conséquences de l’expérience ne reflètent plus qu’une structure locale (par exemple dans l’expérience de Young la détermination entre 2 trajectoires positionne la seule trajectoire actualisée. En ségrégant le local, on rompt le lien local /global ; on n’observe plus qu’une dispersion à partir de la source de réémission devenu unique et non plus la figure de diffraction, image de la structure globale. De même dans l’expérience visant à tester la non - localité, le positionnement d’une grandeur quantique détermine, en dehors de toute possibilité de propagation, la valeur couplée d’une particule corrélée. Donc dans le cas de particules couplées, le local ne se résout pas à la notion de localité spatiale car la granularité est celles de système couplé et non de leur position.
La réduction d’échelle dans le
processus de localisation ne correspond
à une réduction spatiale que tant que l’on décrit des particules non
corrélées mais l’échelle s’arrête au système de particules corrélées dans le
cas d’une émission simultanée d’une source commune (expérience D’Aspect) et la
réduction d’échelle conduit irréversiblement à basculer l’expérience initiale
en une seconde expérience avec une
nouvelle source unique associable à une cellule unique de l’échelle examinée,
dans le cas de particules non corrélées dans leur émission (expérience de
Young).
En réunissant c et h, Paul décrivit le couplage symétrique de l’actualisable et de son évolution, définissant le monde réel dans le temps réel comme potentiellement scindable en deux actualisations, particules et antiparticules, ou inversement comme une seule actualisation de particules dans deux écoulement symétrique du temps avec la question ouverte du lien entre cette brisure effective de symétrie entre particules et anti-particules et la brisure entre un temps symétrisable et les notions entropiques d’évolution et d’involution.
Notre but sera de souligner que le couplage ou la distinction entre le
localisable et le globalisable relève de mêmes principes assurant une remise en
perspective des deux notions.
On distingue :
- les constantes fondamentales dimensionnées et invariantes en tout
point en tout lieu et donc invariantes par changement de repère. Ces constantes
sont déduites de l’expérience mais
elles apparaissent comme des conditions initiales sur lesquelles s’appliquent
les lois et qui pourraient être des valeurs contingentes donc non déductibles
des lois elles-mêmes.
- les paramètres d’un modèle eux -aussi déduites de l’expérience. Leurs
valeurs sont les multiples sans dimension d’une unité dimensionnée elle-même
combinaison de constantes fondamentales invariantes et dont on espère que les
lois du modèle final décrivant l’ensemble des interactions permettra de
calculer les valeurs.
On peut donc exprimer tous les paramètres sans dimensions à partir des 3 constantes dimensionnées c, h et G qui sont des combinaisons de masse, temps, longueur, la masse étant elle-même l’expression de la déformation du couple espace-temps.
Une théorie de la Nature doit permettre de déterminer sans autre facteur libre les combinaisons des constantes qui aboutiraient à ces paramètres.
Par contre les constantes universelles sont dimensionnées et leurs valeurs s’expriment à partir d’étalons qui n’ont en soi rien de fondamental (au point que la définition du mètre est donnée par la célérité c et la mesure de la seconde).
L’expression de leur dimensionnalité est essentielle.
Elles sont fondamentales car on ne peut pas combiner sans elles les dimensions de la Nature pour exprimer leur couplage dynamique.
Mais ces constantes sont couplées car modifier l’une sans modifier l’autre change la physique . Par exemple la constante de structure fine alpha=e²/(2Ehc) ,e étant la charge élémentaire de l électron et E la permittivité du vide , et c² doivent demeurer proportionnellement invariantes la physique atomique demeure invariante c’est-à-dire que le rapport énergie de liaison des électrons sur énergie de masse demeure invariant :
me e²/(2Ehc) / mec² =constante ou e²/(Ehc3) = constante
De même les rapports MG/c² (invariance de la courbure relativiste) et h/(Mc) (invariance de l’échelle de Compton) doit demeurer invariant. Nous verrons dans le chapitre suivant que le nombre élevé de paramètres libres induit un nombre élevé de rapport de paramètres qui s’ils étaient modifiés changeraient la physique de notre univers.
Les constantes universelles permettront de construire les unités fondamentales, les étalons valables partout et en tout temps, ces étalons permettant en retour de quantifier les paramètres libres (page 18)
Le modèle standard décrit les constituants de la matière et les forces
les relient, en dehors de la gravité qui ne peut être décrite par une
quantification.
Dans ce modèle 25 paramètres ne sont pas contraints par la théorie mais
par l’expérience ; par abus de langage ils sont dits libres.
Les paramètres de masses des
particules :
- 6 masses pour les 3 couples de quarks
- 3 masses pour les leptons
- 2 masses pour les bosons W et Z de l’interaction faible
- 1 masse pour un boson de Higgs (non encore observée mais nécessaire
pour la brisure électromagnétique, interaction faible)
- éventuellement 3 masses pour les neutrinos
et les constantes de couplage des interactions
- 1 constante de couplage électromagnétique
- 1 constante de couplage de la force forte
- 4 constantes de couplages libres entre les quarks et le boson W de
l’interaction faible
- éventuellement 4 constantes de couplage libres entre les neutrinos et
le boson de Higgs.
Question peut on rajouter l’angle de couplage qui exprime l’unification des forces électromagnétique et faible.
Mais il ne s’agit que du modèle standard
Le modèle super symétrique qui imbrique les bosons vecteurs de forces
et les fermions constituants de la matière comme 2 familles issues d’une
brisure de symétrie comporte au minimum 124 paramètres libres.
Et il n’est pas certain que ces modèles résolvent les problèmes liées à
la constitution de l’énergie noire nécessaires pour envisager un univers dont
l’accroissement du rayon de courbure irait s’accélérant et de la matière noire
nécessaire pour justifier la vitesse constante des étoiles à grande distance
autour du centre galactiques, de la stabilité des spirales et des amas
galactiques.
Toutes les grandeurs peuvent être ramenées à des combinaisons de variation suivant 3 dimensions : une
masse, une longueur, une durée.
Or il existe trois constantes fondamentales invariantes en tout point
d’espace et de temps qui sont des combinaisons naturelles de ces trois
dimensions et qui représentent chacune dans un domaine de la physique
l’expression de l’imbrication de ces trois dimensions.
Elles apparaissent comme étant égales à 3 :
- c la célérité de
l’information qui couple longueur et durée (unité m/s)
- G la constante de gravitation qui
couple courbure du terme spatial, courbure du terme temporel et
variation d’énergie (unité (m/s)² *m/kg)
- h le quantum d’action qui
couple variation d’énergie et
durée (unité kg m *m/s) ou symétriquement variation d’impulsion et longueur,
variation de phase et nombre de porteur propageant l’information.
Les deux premières constantes interviennent dans la métrique
spatio-temporelle qui détermine les trajectoires des corps hors de toute
interaction entre corps. Il est à rappeler que selon la vision de la relativité
générale il n’y a pas interaction directe entre corps mais déformation de la
métrique par la présence d’un corps et c’est la déformation à grande échelle de
cette métrique qui infléchit la trajectoire des autres corps.
La troisième constante intervient dans la limite de précision sur les
paramètres macroscopiques exprimant des mesures dans cette métrique.
La combinaison de ces trois constantes permet de calculer trois unités
élémentaires de masse, de longueurs et de temps par rapport auquel s’expriment
les paramètres libres des théories quantiques.
Les valeurs de c,h, et G dépendent d’unités arbitraires par contre
,pour c,h,G donnés, les autres paramètres ont des dimensions qui sont des
combinaisons de c,h,G et dont la valeur donne l’amplitude relative des
phénomènes physiques.
Ce sont les paramètres de notre univers et on peut espérer les calculer
à partir d’une théorie unificatrice.
Par exemple en théorie des cordes on montre que les grandeurs sans
dimensions résultent de processus dynamiques.
Le principe de combinaisons de c, h, G pour fournir une grandeur d’une
dimension quelconque s’exprime par :
[m/s]a[kgm²/s]b[m3/kgs²]c =mpsqkgr
a +2b+3c =p
-a -b
-2c =q
b
-c = r
Son déterminant -2 <>0; il existe toujours une solution
Exemple : quelle est la combinaison fournissant une densité [kg/m3]
P=-3 q=0 r=1 il vient a=5 b=-1 et c=-2
En effet [m/s]+5[kgm²/s]-1[m3/kgs²]-2 =m-3s0kg1
Une Question ouverte: y a t-il une différence de nature entre les
grandeurs dimensions résultant de coefficient entiers sur les constantes
fondamentales et les grandeurs dont les dimension résultent de coefficients
rationnels non entiers ?
Il est possible de définir une échelle de temps, espace et masse à
partir de ces constantes mais
paradoxalement il s’agit du point de divergence total entre les lois qui
les utilisent.
Ces grandeurs correspondent en effet à l’échelle où la longueur d’onde
correspondant à une masse statique est égale à un rayon de trou noir de même
masse. Autrement dit, en deçà il n’existe pas de métrique pouvant décrire les
phénomènes quantiques. La physique quantique ne peut exprimer de grandeur
inférieur à une longueur d’onde mais la relativité indiquerait que le corps
s’effondre irréversiblement et donc à des longueurs inférieures. C’est donc à
cette échelle qu’il y a divergence absolue de résultats entre le deux
approches. Un couplage partiel réalisé par S.Hawkins entre les deux théories
conduit à la prédiction de la destruction du trou noir de cette échelle par
émission thermique à la température de Planck.
Puisque ces valeurs correspondent à la granularité minimale admissible
par le principe d’Heisenberg, il s’agit
donc non pas de valeur mais d’incertitude sur les valeurs.
Cette échelle est :
- l’incertitude du rayon de courbure de Planck= (G h/c3)1/2=
4,04 10-35 m
équivalente à une incertitude du temps de Planck=(G h/c5)1/2=
1,35 10-43 s
et l’incertitude de la densité de Planck = (c5/hG²)1/2=
8,20 1095 kg/m3
Le couplage du rayon de courbure et de la densité conduit aux notions dérivées :
- l’incertitude de la masse de Planck =(h c/G)1/2=5,45 10-8
kg
- l’incertitude de l’impulsion de Planck =(h c3/G)1/2=
16,35 100 kg m/s
- l’incertitude de la température équivalente de Planck T= M planck
c² /k ~ 10 32K
Inversement
c= ΔL planck/ΔT
planck =299792458 m/s
G = ΔL
planck / ΔM planck (ΔL planck/ΔT
planck )² =6,6742 10-11
m3 /(kg s²)
h = ΔL planck ΔM planck
(ΔL planck/ΔT planck
) =6,6260693 10-34 Js
Avec 1 Joule = Energie permettant d’accélérer un corps de 1 kg de 1m/s²
et déployée sur 1 m.
En fait il apparaît plus naturel de faire intervenir les facteurs de
couplages liées aux grandeurs plus proches des équations fondamentales. Ces
constantes expriment des horizons en ce sens qu’ils expriment des phénomènes
limites (asymptote de la distorsion relativiste cinématique et dynamique (trou
noir), comportement ondulatoire de la probabilité de présence des
particules) ;
Considérons la métrique cinématique ds² = -dr² + c²dt² . Le facteur
invariant de couplage est Hc
cinématique= c² [m²/s²]
Considérons la métrique statique de Schwarzchild en présence d’une masse : ds² = -dr²/(1-2m/r) + (1-2m/r)c²dt² avec m =GM/c²
Le facteur invariant de couplage
est Hg courbure = G/c² [m/kg]
Considérons la relation d’incertitude ΔE Δt >=h appliqué aux particules au repos ΔE=h/ Δt ou ΔM= h/ cΔt .
Posons Hq quantique = h/c [kgm] ce qui permet d’exprimer l’échelle de Compton
La longueur d´onde Compton Lambda compton = h/(mc) = H quantique
/m
Il vient le carré quadratique scalaire :
(ΔR courbure Planck) ² = G h/c3=H
quantique H courbure = (4,05 10-35 m)2
(ΔTemps Planck )² = G h/c5=H quantique H
courbure / H cinématique = (1,35 10-43 s)2
(ΔDensité Planck)
= c5/(hG²)= 1/ (H quantique
H² courbure) = 8,20 1095 kg/m3
(ΔMasse Planck)²
= h c/G= H quantique / H
courbure = (5,45 10-8 kg)2
(ΔP Impulsion Planck) ² = H quantique H cinématique /H
courbure = (16,35 100 kg m/s)2
La combinaison de Hc, Hq, Hg pour fournir une grandeur d’une dimension
quelconque s’exprime par :
[m²/s²]a[kgm]b[m/kg]c =mpsqkgr
+2a +b+c =p
-2a =q
b -c = r
de déterminant -4 <>0; il existe toujours une solution
Exemple : quelle est la combinaison fournissant une densité [kg/m3]
P=-3 q=0 r=1 il vient a=0 b=-1 et c=-2
En effet [m/s]0[kgm]-1[m/kg]-2 =m-3s0kg1
La densité à l’échelle de Planck ρ²Planck =
1/(Hq*Hg²) = 8,2 1095 kg/m3
Nous avons vu que Hc = c², Hq= h/c, Hg= G/c² sont des constantes naturelles car produites
par les équations fondamentales relativistes et quantiques , les constantes
h,c,G pouvant être considérées comme des grandeurs dérivées.
Hc , Hq, Hg sont bien des constantes opérationnelles car toute grandeur physique peut être retrouvée par une combinaison de ces nouvelles unités.
Réciproquement, le choix de ces constantes fondamentales ne peut pas
être quelconque car tout triplet triplet de constantes (A,B,C) dont la combinaison
de dimensions n’est pas indépendante ne
permet pas de retrouver toute grandeur physique à partir de ces constantes. Par
exemple [A] =mskg [B] =ms/kg et [C] =kg2 ne sont pas indépendantes
car [C] =[A]/ [B]
La recherche [ms/kg]a[ms/ kg]b[kg²]c=mpsqkgr
+a +b =p
+a+b
=q
+2c = r
de déterminant nul; il n’existe alors aucune solution pour retrouver une grandeur à partir de ces
constantes couplées.
Les constantes fondamentales permettent de constituer des valeurs seuils dont des variables macroscopiques peuvent se rapprocher asymptotiquement. Une propriété essentielle d’une vraie constante fondamentale est de caractériser l’apparition d’une nouvelle classe de phénomènes lorsque les grandeurs tendent vers ces valeurs seuils.
L’infini n’est pas physique. Pour ne pas permettre de tendre vers l’infini par une infinité potentielle de changement de repère, il faut une vitesse finie vers laquelle on converge asymptotiquement.
Cette vitesse finie doit être invariante dans le temps et universelle dans l’espace pour ne pas être surpassée par un changement de repère.
La propagation du champ électromagnétique est assurée dans le modèle du photon par la propagation d’une particule entre deux particules de matière émettrice et réceptrice, couplées à un champ électromagnétique.
Une particule émettrice émet de la lumière mais celle-ci n’est détectée que lors de la transition de la particule réceptrice. Afin de mesurer une vitesse il faut travailler dan un repère synchronisé entre l’émetteur et le récepteur (par exemple le référentiel est le même et la lumière est renvoyée vers l’émetteur par un miroir réfléchissant).
Or la célérité de la propagation du champ électromagnétique a été constatée invariante par rapport à tout mouvement du référentiel (expérience Michelson - Morlay).
Les physiciens ont donc conclu que la célérité de la lumière correspond à cette vitesse finie invariante vers laquelle toute vitesse ne peut tendre qu’asymptotiquement.
L’invariance de c ne permet
pas de déterminer quelle est la vitesse d’un véhicule non soumis à la gravité.
Tout phénomène basé sur la propagation électromagnétique sera identique quelle
que soit la vitesse du laboratoire. Le
mouvement soumis à la seule inertie est comme l’absence de mouvement.
La valeur seuil est la
constante elle-même Vseuil = c.
Lorsque la vitesse tend vers la célérité de l’information c, les effets de couplage espace- temps induisent une distorsion réciproque des étalons extérieurs ; vu du repère en déplacement, ce sont les distances externes en avant du mobile qui se réduisent d’où également une distorsion des fréquences reçues fonction de l’angle à la direction et au sens du mouvement et une réduction de la longueur donc de la durée interne du parcours.
Vu du repère externe c’est la longueur mesurée du mobile qui se réduit. Ceci implique, pour conserver invariant la célérité de l’information électromagnétique, un allongement du temps de réception par l’observateur externe de la transition entre 2 évènements se produisant dans le vaisseau.
ΔT information ou impropre = ΔT local ou propre / (1 –v²/c²) 1/2
Question que se produit-il pour un évènement interne suivi par un évènement externe ? Y a-t-il solution de continuité ?
.
V tend vers c est caractérisé par
L’état de rotation intrinsèque des particules (spin) tend vers une direction fixe, la variation inertielle (rapport de l’accélération à l’impulsion) tend vers 0
Le couplage des échelles de temps et de distance devient mesurable : t’= (t-vx/c²)/(1-v²/c²)1/2.
L’existence de c fonde la distinction temporelle entre cause et effet, fait dépendre la simultanéité entre deux évènements du mouvement de l’observateur et implique qu’une durée mesurée localement ne peut être proprement mesuré en un autre référentiel car il y a toujours un facteur de dilatation.
La célérité invariante de l’information implique que la combinaison longueur/ durée ou métrique r²-(cdt)² maintient invariante la célérité, indépendamment du mouvement de l’observateur, si ce mouvement conserve l’impulsion constante donc dans le cas d’un espace homogène sans source externe de mouvement.
C’est la possibilité même d’une métrique applicable à tout l’espace qui nécessite l’invariance du facteur de couplage espace –temps.
La célérité finie de la propagation des vecteurs de champ introduit une distinction temporelle entre cause et effet.
Or statistiquement il y a perte d’information par un effet de dispersion stochastique entre une cause et ses effets. Par exemple si l’effet dont les ondes qui se forment dans une mare de forme complexe, il n’est pas possible de reconstituer exactement l’impulsion et la position du caillou qui les a engendré. L’enchaînement causal est un enchaînement d’évènements qui dégrade l’information. Cette information est représentée par l’entropie qui dénombre le nombre de complexions microscopiques équivalente à un état macroscopique (caractérisée par l’énergie thermique et un volume occupé). La perte d’information conduit à un accroissement de l’entropie. La loi de l’accroissement de l’entropie dans le temps décrit ce lien dual et temporel entre la cause et ses effets.
Les porteurs de charge induit un champ et induit l’émission de vecteurs de champ qui se propage à célérité finie dont les lignes de champs ont comme source et destination les porteurs de charge.
Que se passerait-il si l’information était acquise plus vite que la propagation des vecteurs du champ ?
Un évènement serait perçu comme déjà survenu alors l’arrivée des vecteurs de champs . Il serait ainsi possible de déterminer l’effet tout en disposant de la cause ; il n’y aurait plus dégradation de l’information. On pourrait même reconstituer un état initial à partir des états antérieurs ; il serait possible de renverser la seconde loi de la thermodynamique.
La reconstitution du passé est liée à la question de disposer d’une célérité de l’information supérieure à la constante c. Ceci est très probablement impossible car la constante c semble être structurelle. Mais est elle structurelle à un état particulier de l’univers (et donc au moins localement modifiable) ou à la notion même d’état de l’univers ? La valeur de c est-il une valeur contingente ou un attracteur étrange ? La déification de l’entreprise humaine dépend de la réponse à cette question.
La constante G intervient dans le rapport entre l’accélération induite et les masses. Les masses induisent une courbure de l’espace-temps qui dans le même temps induit une accélération du corps mais la masse inertielle subissant l’accélération étant postulée égale à la masse sensible à cette courbure, les corps tombent en chutent libre c’est-à-dire que localement (en supposant que tous les points sont à peu près à la même distance du centre de masse) cette accélération par rapport à un repère fixe externe n’induit aucun effet mesurable interne au corps. A noter que la courbure n’est rien d’autre que le fait qu’un corps est soumis à une déformation apparente due aux effets de marées entre deux positions angulaires autour d’un centre de masse.
Et c’est bien l’invariance d G en tout point d’espace –et de temps qui fait que tous les corps subissent le même rapport entre la poussée et l’accélération et donc que par rapport à un centre de masse donnée, en étant lâchés à même distance, ils tombent tous à la même vitesse.
L’invariance de G ne permet
pas de déterminer si on est en mouvement ou pas car on peut remplacer toute
accélération par un champ gravitationnel local (on peut être posé sur une
planète ou être ne train de décélérer, on ne sait pas faire la distinction par
les seules informations internes au vaisseau). Puisque l’on ne sait plus où
l’on est, et qu’une accélération due à une cause externe peut être compensée ou
remplacée par une accélération due à une cause interne, le vide ou la matière sont localement équivalents !
Puisque la gravité n’induit
que des accélérations, tout phénomène basé sur la gravité ne permettra pas de
dire si on n’a accélération ou pas et sera identique. En outre puisqu’il n’est
pas possible de connaître la vitesse du laboratoire par l’invariance de c, le mouvement est comme l’absence de mouvement.
Au lieu de considérer un mobile dans un espace vide, considérons maintenant un mobile qui glisse suivant la géodésique formée par la présence d’une masse.
Lorsque la distance r qui le sépare du centre de masse décroît vers 2GM/c², l’horizon statique, les effets de couplage espace- temps induisent une distorsion des étalons. Vu du repère en déplacement, on observe une distorsion des fréquences reçues, fonction non plus de l’angle entre le chemin optique et la vitesse comme dans la description de la relativité restreinte mais de la distance au centre de masse. Les intervalles de temps entre les informations font apparaître une réduction des distances externes et donc de la longueur du parcours. Cette réduction est un effet de courbure lié à la masse centrale.. Le mobile glissera de plus en plus vite vers le centre de masse ; l’accélération est liée à la différence entre la courbure plate d’un univers qui laisserait inchangé les vitesses et la courbure effective liée à la présence d’une masse et qui induit une réduction continue de tout étalon à parcourir ; un plus grand nombre d’étalons est parcouru dans un intervalle de temps donné, d’où l’accélération.
Vu du repère externe c’est la longueur mesurée du mobile qui se réduit induisant, pour conserver invariant la célérité de l’information électromagnétique, un allongement du temps entre 2 évènements se produisant dans le vaisseau. Dans le cas d’un observateur externe, l’approche extrême d’un trou noir n’est qu’un phénomène asymptotique car il ne recevra jamais l’information de l’arrivée à une distance baptisée horizon des évènements.
Pour un corps suivant une trajectoire purement radiale dans espace statique de Schwarzchild ds² = -dr²/(1-2m/r) + (1-2m/r)c²dt²
d’où un facteur de couplage de dt/dr= +/-c(1-2m/r)= +/-c(1-2GM/rc²).
Le couplage s’exprime donc en fonction de v/c (1-2GM/rc²) :
Cas relativité restreinte : si v s’approche de c on a une distorsion forte de l’espace – temps par effet cinématique
Cas relativité générale : si
r tend vers 2GM /c² (tout étant toujours à l’extérieur de la masse) on est en
présence d’un trou noir et il y a une
distorsion forte de l’espace – temps par effet dynamique. La valeur seuil
est donnée par rseuil = M(2G/c²).
La vitesse en relativité est le paramètre de la déformation cinématique de l’espace –temps.
Et c’est la constante c seule qui donne l’échelle (v/c est le couplage)
La masse en relativité est le paramètre de la déformation non cinématique de l’espace –temps.
Et c’est le couplage des constantes G et c qui donne l’échelle (1-2GM/rc² est le couplage).
La relativité générale prend en compte les constantes G et c, si on fait tendre G tend vers 0 on retrouve la relativité restreinte comme cas limite et si on fait tendre c vers l’infini (et parallèlement ne plus considérer le couplage temps et espace pour ne pas faire intervenir un terme infini dans la métrique) on retrouve la physique newtonienne.
Les horizons sont par définition inatteignables.
Mais sont-ils tous approchables ?
La limite de l’espace-temps (l’horizon) correspond à l’émission d’une information par un moment de l’univers où son rayon de courbure était égal à l’incertitude spatiale quantique (le rayon de Planck) ; chaque portion de l’horizon est l’horizon d’un trou noir. Or cette échelle correspond aussi à la destruction du trou noir par émission thermique à la température de Planck. On interprète couramment que la conversion thermique de l’univers en un univers radiatif dense a rendu cet horizon totalement opaque (seul est aujourd’hui détectée le fonds diffus cosmologique lié à la recombinaison des électrons et des noyaux et à la diffusion rectiligne des photons plus proche d’environ 300 000 années-lumière).
Cet horizon est l’horizon de l’information. Il se trouve sur chaque portion de la surface de la bulle spécifique à chaque observateur, qui est son horizon unique d’information et qui a comme profondeur au premier ordre 2cT dans un univers de densité critique, T étant le temps de retour en arrière jusqu’au Big-Bang.
C’est un horizon localisé spatialement et temporellement mais inapprochable car il correspond à un moment initial de l’univers et l’expansion de l’univers en tout point s’éloigne de nous à la célérité 2c dans le cas simpliste d’un univers plat dont la densité uniforme conduit à un ralentissement jusqu’à une annulation asymptotique de l’expansion de l’univers (il s’agit d’un horizon et non d’un corps physique).
Il existe d’autres horizons approchables :
- les horizons non localisés cinétique donné par la limitation de la célérité de la lumière.
- les horizons localisables dynamiques ou gravitationnel donné par la rayon d’un corps de rayon R=2GM/c² qui délimite une surface (sphérique pour un trou noir de Schwarzschild, cylindrique pour un trou noir de Kerr) où il faut une énergie infinie pour remonter du puits gravitationnel : c’est la limite d’où aucune information ne peut provenir ; une surface d’arrêt d’espace-temps. Ces horizons localisées sont donc inatteignables vu de l’extérieur mais un mobile qui suit la géodésique du puits de gravitation le franchirait dans son espace-local.
Pire même la singularité qui est le centre de masse où s’effondre le trou noir serait atteignable dans le temps local au mobile. Cette singularité est de type Big-Bang mais un peu différente ; la singularité du Big-Bang s’est s’autodétruit. Celle du trou noir subissant un effondrement s’autodétruit en se recréant sans cesse.
La physique n’adresse plus des objets en soi. Il n’y a plus d’objet en soi mais des évènements c’est-à-dire des correspondances, des rencontres d’objets avec des positions dans l’espace et dans le temps vis-à-vis d’un référentiel.
Le phénomène est la réalité en situation.
La théorie de la relativité décrit comment se transforment les paramètres mesurées (longueur, temps, masse) en fonction de l’état de mouvement et des sources de champ gravitationnel. On ne peut mettre en correspondance que localement un référentiel en accélération (unidirectionnel) et un champ de gravitation (radial et variant selon les deux dimensions angulaires du référentiel sphérique).
La théorie qui intègre les deux constantes fondamentales G et c induit un horizon spatial à notre connaissance. La notion de temps est purement local ; le maintenant ne peut pas être défini partout.
L’approche quantique de la physique va au-delà. Elle nous indique qu’il n’y a pas de sens à inférer une réalité à des notions de trajectoires. L’unique réalité perceptible est celle de l’interaction entre l’objet et le détecteur.
La théorie qui intègre les constantes fondamentales h et c induit un horizon temporel à notre connaissance. L’évènement est purement local car limité dans le temps à la période et dans l’espace à la longueur d’onde de la particule sonde, il s’agit d’un boson d’interaction typiquement un photon. D’après l’approche quantique, l’ici ne peut pas être défini toujours.
A l’échelle classique les grandeurs macroscopiques peuvent être combinées algébriquement (norme de la quantité de mouvement, intervalle de temps, intervalle d’espace, niveau d’énergie).
Les interactions induisent un feedback d’où non linéarité (petite cause, grand effet), tendance à l’état saturé /bloqué lorsque la dynamique est contrainte ou à la dispersion chaotique lorsque la dynamique est libre : les puits de stabilité sont nommés attracteurs étranges mais on a des comportements imprédictibles à l’approche de seuil critique.
Quand la résolution tend vers la longueur d’onde de Compton Lambda Compton = h/mc, les effets ondulatoires prennent le pas sur l’aspect corpusculaire et on doit tenir compte de la délocalisation des particules et de l’incertitude sur la quantité de mouvement. La valeur seuil est donnée pour des impulsions faibles par Lambda seuil = Lambda Compton=h/(mc).
Plus généralement on utilisera
dans le cas relativiste la formule Lambda seuil = Lambda
DeBroglie =h/p (qui constitue une valeur limite indépassable du fait de
l’incertitude quantique delta p * delta x >=h)
L’état final résulte de la sommation de tous les chemins quantiques, sommation pondérée suivant leur probabilité (chemin de Feynmann). Cette propagation est régit par la fonction d’onde. La probabilité de l’état final est toujours donnée par la norme de la fonction d’onde.
La précision de toutes les grandeurs masse, temps, distance subissent une limitation liée au couplage minimal (l’action) entre la particule de matière mesuré et les particules vectorisant le champ dont la résolution est fonction de la longueur d’onde et de l’énergie qu’elle transmette lors de la mesure, énergie inverse de cette même longueur d’onde.
La dispersion du résultat de
l’interaction s’accroît donc inversement de l’échelle de résolution du vecteur
d’interaction. Le couplage minimal qui donne la dispersion minimal des mesures
est le quantum d’action h= ΔE Δt . C’est le couplage minimal entre
le sujet (le mesureur) et l’objet de la mesure.
Tout couple de chemin dont la différence nécessite au moins un quantum d’action sont indiscernables et nécessite l’addition de leur amplitude de probabilité, qui exprime non seulement leur module mais aussi leur déphasage. Une amplitude de probabilité est donc modélisée par un nombre complexe. C’est cette adition des amplitudes complexes qui détermine l’amplitude de probabilité du point d’impact de la particule avec le détecteur.
Ainsi pour déterminer l’effet de la lumière passant entre deux trous, la sommation conduit à des termes d’interférence.
Mais si on éclaire la particule pour déterminer dans quel trou elle passe, les chemins deviennent discernables ; il faut sommer uniquement les probabilités (seulement les normes des amplitudes). Puisqu’il n’existe plus de terme de déphasage, l’addition d’amplitude réel caractérise l’absence d’interférence.
La figure d’interférence possède une fonction de type I1 +I2 avec I1 = Aej omega t et I2= Aej omega t + d avec avec omega la pulsation et d l’écartement entre les deux sources secondaires de réémission.
Le nombre d’impact nécessaire pour reconstituer la figure d’interférence est donnée par le ratio écartement d entre cellules / longueur d’onde Lambda= 2 pi c/omega
Les éléments de la nature sont
reçus sous forme de particules mais leur probabilité de distribution est
décrite par une onde.
L’existence de h induit
l’impossibilité de définir (et non pas de déterminer) la notion de particule en
terme d’élément propageant une information corrélée:
- si l’expérience conduit à
une information corrélée (figure d’interférence résultant de la propagation
d’une onde) il n’est pas possible de décomposer les éléments de l’onde en terme
de particules apportant une fraction de l’information. Une information corrélée
n’est pas décomposable. Et seule l’onde de probabilité sommable sur l’ensemble
des trajectoires possibles à un sens.
- si l’expérience conduit à
une information non corrélée (chocs individualisés et stochastiques de
particules), alors les éléments sont sécables en particules mais l’information
de phasage et de corrélation avec les autres porteurs d’information est
annulée.
L’information
du positionnement spatial d’un vecteur d’information fait perdre l’information globale produite par la structure de la
matière entre émission et réception.
Aucune composition de matière
n’est décomposable spatialement.
Toutes les grandeurs macroscopiques sont exprimables comme des multiples sans dimensions d’une norme unité dimensionnée : masse de Planck, temps de Planck, rayon de Planck fonction de h ,c et G. L’échelle de Planck est la limite où l’incertitude sur la mesure est égale à l’amplitude de la grandeur mesurée.
L’incertitude de toute mesure des grandeurs macroscopiques induit une variance minimale des grandeurs non nulle même en l’absence de toutes source de champs. Il est donc impossible de définir le vide absolu.
Ce vide se décrit comme un état combinaison de porteur de charge asymptotique (et donc non individualisable) mais qui interagissent et influencent collectivement les particules de matière La durée et longueur de propagation de ces porteurs virtuels est fournie par l’incertitude de la mesure.
L’énergie des porteurs est fonction de l’échelle de résolution du vecteur (typiquement la longueur d’onde du photon) utilisé pour la mesure.
L’interaction entre porteur virtuel tend à réduire son énergie potentielle ce qui induit des mouvements intrinsèques, une polarisation du vide et des grandeurs intrinsèque de permittivité et perméabilité du vide reliée par l’équation 1/ε0μ0 = c²
Les brisures de symétrie d’états internes induisent l’apparition de champs de forces (la symétrie réapparaît par le couplage matière et champ de force) Les constantes de couplages varient selon un facteur d’échelle avec l’échelle de brisure de symétrie.
Seuls les nombres quantiques demeurent des invariants (spin, isospin, couleur, charme, étrangeté) et expriment des lois de conservation lors des interactions entre particules.
Quand la distance tend vers le rayon de gradient maximum : surface d’une sphère isotrope de rayon R si R> 2GM/c² ou Surface horizon si R = 2GM/c² on a un effet de courbure croissant des géodésiques ; la relation linéaire entre les intervalles de temps et d’espace dépend de la courbure. Cette courbure étant induite par l’influence décroissante de la densité d’énergie/impulsion de l’échelle locale jusqu’à l’échelle de l’horizon temporel.
La probabilité des chemins de propagation ne fait donc plus intervenir le simple déphasage algébrique comme dans les chemins de Feymann mais dépend de la courbure et donc de l’éloignement aux sources de champ)
L’estimation du degré de liberté des paramètres macroscopiques d’un nombre quelconque de constituants d’un système a conduit à représenter un système à un instant donné par un point et le cheminement temporel de ses paramètres (impulsion, position) par une enveloppe dans un espace abstrait dit des phases. Pour un systèmes de N particules, et 3 axes pour chacune de ces particules le nombre de dimension de cet espace est donné par 3*N positions +3*N vitesses = 6*N dimensions.
Le volume, dans l’espace des phases à 6*N variables, occupé par le système à un instant donné n’est déterminable que statistiquement du fait du grand nombre de particules.
La trajectoire d’un système minimise l’intégrale de l’action c’est-à-dire l’intégrale sur le chemin du produit de deux différentiels d’énergie et du temps.
Un très grand nombre de systèmes d’états microscopiques, dits complexions, distincts vont posséder un total d’énergie thermique équivalent et des température ou pression équivalente car ce sont des moyennes quadratiques d’énergie cinétique. Ce nombre Omega max de complexions fournit l’entropie S= k Ln Omega max avec k= 1,38 10-23 Joule / Kelvin. S est un nombre qui exprime le nombre d’information perdue quand on décrit un système de N particules microscopiques par un seul paramètre, l’énergie thermique totale.
L’entropie informationnelle est donnée par S= -Lambda *
Somme i=1,n prob.i ln (prob.i) or tous les
états microscopique à l’équilibre (donc avec le maximum de configuration Omega
max) sont équiprobables prob.i = 1/ Ω max
d’où S informationnelle = Lambda/ Omega max Ln(Omega max)
Pour la relier à l’entropie thermodynamique on pose S entropie thermodynamique = k Ln(Omega max).
Pour sélectionner les molécules d’une masse de gaz suivant leur vitesse, il faut exercer une action dont la valeur minimal est h mais les molécules sont perturbées par l’énergie acquise et la quantité d’information minimale acquise (ou quantum d’information) k*Ln2 est compensée par l’augmentation d’entropie équivalente. Le coût du gain d’information est donc l’action minimale h qui apparaît implicitement. La seconde loi thermodynamique qui exprime une perte progressive d’information implique l’existence de ce coût minimal.
La prise en compte des conditions d’observations d’un système élémentaire implique le quantum d’action minimal. Mais ces conditions d’observation pour un système complexe ne peuvent être déterminées que statistiquement. Un système quantique complexe nécessite l’introduction implicite d’une constante k reliant la multiplicité microscopique à la connaissance macroscopique du système.
Le quantum du coût (rapport du coût minimum en quantum d’action par le quantum minimum d’information) serait donnée par la constante Hinformation = h/k = 4,80 10-11 Kelvin seconde.
Toute connaissance a un coût, nécessite un couplage. On ne peut donc prédire absolument précisément un état futur à partir d’un état présent. h et k indiquent l’incompatibilité d’ici et toujours et implique donc un horizon temporel.
Les trois fonctions de c :
- Célérité de l’onde électromagnétique (ou Vitesse de la lumière, c’est-à-dire du vecteur non massif de l’énergie produite par une transition électromagnétique)
- Célérité de l’information du mouvement des sources de gravitation (équivalent relativiste à déformations spatio-temporelles)
c est une constante dans le vide (milieu extérieur à toute masse).
- vitesse limite de tout déplacement, invariante par changement de repère
c est relié au propriété électromagnétique par c²= 1/ (EM).
Avec E perméabilité électrique et M permittivité magnétique.
En particulier c² vide= 1/(E0M0).
Peut –on considérer E0 ou M0 comme deux constantes fondamentales , c constituant un invariant secondaire ?
Avec e= charge élémentaire basse énergie F = e² / (4 pi E0) r²
On peut absorber E0 dans la définition de la charge élémentaire.
Mais Force magnétique = 4pi M 0 dl ^ r /r² . La force magnétique est induite par la propagation de l’onde électromagnétique mais il n’y a pas d’équivalent de charge magnétique pour absorber la définition de la permittivité magnétique.
Se pose donc la question du
statut fondamental de μ0.
h unité de spin et de mouvement cinétique
La rapport h/Action → 0 : comportement classique corpusculaire et non ondulatoire
h/ Action >> 0 : comportement quantique : l’intégrale de chemins exprime le comportement ondulatoire
h est une valeur qui exprime la transition classique/ quantique
G n’intervient au niveau quantique qu’à l’échelle de planck. L’échelle est donnée par E=hc/ lambda d’où lambda = h/mc. Le trou noir n’est pas localisable plus précisément que son horizon.
Si l’univers possède D dimensions spatiales
[Gd]= L D-1 M-1 T-2 alors que [h] = Js et [c] = m/s ne dépendent pas du nombre de dimensions
Gd/G = L D-1 / L 2 = L D-3 = V D/3-1
Que se passe t-il lorsque l’on fait tendre les constantes vers des valeurs limites ?
Une variation d’une constante nécessite la variation des autres constantes pour laisser la physique inchangée. Mais il est intéressant d’examiner l’impact des cas extrêmes sur les valeurs de ces constantes.
Quelle est la sensibilité de la physique cinématique à la variation de c ?
Si c tendait vers l’infini l’espace serait découplé du temps pour ne pas faire intervenir un terme infini dans la métrique, espace et temps seraient découplés du contenu en énergie
Il est souvent affirmer que ce cas revient à retrouver la physique newtonienne (ceci est vrai pour le ration vitesse/célérité v/c tendait vers 0) mais une valeur c infinie en soi induirait une énergie propre infinie de tout corps et une impossibilité du mouvement. Paradoxalement si le monde est statique, le temps est universel c’est-à-dire indépendant de l’espace. L’univers est une photographie unique.
Si c tendait vers 0 ceci induirait une énergie propre nulle. Mais il n’y aurait aucune propagation. Tout point de l’espace serait découplé. L’espace serait purement composé de cellules découplées. L’univers est un kaléidoscope.
Si G/c² tendait vers 0: l’espace –temps est découplé de son contenu en énergie. on retrouve la relativité restreinte comme cas limite Univers plat minkowskien
Si G/c² tendait vers l’infini : ds² ~dr²/(1-2m/r)+c²dt²(1-2m/r) ~ -2c²dt²(1-2MG/rc²) univers très inhomogène : toute matière formerait des trous noirs qui s’excluent de l’espace –temps.
Si h/c tendait vers 0, il n’y aurait plus de comportement fréquentiel et discret : le spectre devient continu : il n’y a plus de dispersion de la probabilité de détection : la matière est localisée sans comportement ondulatoire. Notion de particule classique.
Si h/c tendait vers l’infini matière totalement stable car le seuil d’émission de porteur est trop élevé. Il faudrait une longueur d’onde qui tendrait vers 0 pour ségréger les positions des particules : comportement totalement ondulatoire.
Relation d’Heisenberg
Δx Δp >=h Δx mv>=h Δx >=h/mv
D’où Δx limite =h/mc
Δl =Δx/beta = h/( beta * mc) = h/plimite avec beta le facteur de dilatation relativiste due a la perspective de lobservateur par rapport au mobile
L’implication est que tout objet ne peut être localisé plus précisément que le rayon de l’horizon du trou noir de même énergie.
k est un facteur de conversion qui relie l’entropie au nombre de configuration d’un système. Il peut être absorbé dans la définition de l’entropie.
Question peut-on relier la valeur du quantum d’information à c la vitesse de sa propagation ?
Emin = mc² or lambda =hc/E d’où lambda min = hc/mc²
Or la relativité indique que R min =2GM/c² d’où lambda min = hc/mc² =2GM²/c²
Il vient 2GM²=hc il vient M =(hc/2G)1/2
M planck donne la résolution spatiale (=horizon)
Proposition : rendre équivalente l’incertitude sur la position (ou résolution) à un horizon.
Mais celui-ci ne reposerait pas sur la vitesse de libération gravitationnelle (cas du trou noir) mais sur la capacité d’extraction d’information (en deçà de l’horizon ou résolution) il n’y a plus d’information extractible.
Entropie S= k ln W avec W=surface/surface planck
S= k ln (x/R planck)
X= Rplanck exp (S/2k)
Valeur convergente de e
La valeur de couplage varie jusqu’à l’échelle d’unification
On a F = e² / (4 pi E0) r² x u
D’où e²/(4pi E0) = Jpl Mpl
E0 =e²/(4 pi Jpl Mpl) =e²/4pi (hc5/G)1/2(hg/c3)1/2
E0 = e²/(4pi(h/2 π)c)= e²/(2hc) A² (1,6 10-19)²/(2 6,6 10-34 3 10 8)
= (A/2)² 10-12 =8,85 10-12
d’où A = 2 (8,85)1/2 ~6
d’où e convergent ~6 * e basse énergie
L’impulsion est communiquée à un mobile afin que la somme de l’impulsion éjectée et de l’impulsion communiqué au mobile demeure nulle. Un mobile accélérant injecte dans l’espace une impulsion et perçoit les rayonnements reçus de l’arrière comme le produit d’un glissement dans l’infrarouge. Le mobile injecte la même norme d’impulsion vers l’avant. Les rayonnements qu’il reçoit de l’avant glissent vers l’ultraviolet. L’énergie se répartit dans tout le mobile et l’énergie cinétique de chaque élément du mobile est source de la distorsion.
Il s’agit de l’effet Doppler-Fizeau mais au contraire ducas classique où le glissement est linéaire avec la vitesse radiale dt’/dt= 1+ Vradial/c , la forme relativiste dt’/dt= (1+ Vradial/c )/(1-v²/c²)1/2 est divergente qunad v tend vers c et dépend du module et non plus de la seule composante radiale.
Au décalage linéaire de la physique classique s’ajoute un phénomène lié à l’équivalent d’une courbure spatiale d’origine impulsionnelle.
Considérons symétriquement un objet statique qui tombe vers un corps massif caractérisé par une surface de potentiel. Cette surface prend la forme dans le cas extrême d’un horizon surfacique asymptotique frontière du trou noir. Le rayonnement émis par un corps en chute libre vers un corps massif est vu glissant vers l ‘infrarouge du point de vue d’un référentiel en déplacement galiléen par rapport externe à la masse source.
Dans le cas d’un mobile, on peut parler d’un champ cinématique de distorsion de l’information équivalent à une source de courbure gravitationnel.
Les informations reçues par un mobile sont, dans son référentiel, interprétables comme résultant de la formation d’une masse linéique dans son sillage. En effet l’impulsion injectée produit l’équivalent d’une source de courbure, l’équivalent d’un puits dû à une densité d’énergie linéique. Le rapport entre la courbure derrière le mobile et l’espace plat tel qu’il est perçu dans le mobile induit une réduction de l’énergie de rayonnement reçu.
Inversement, le mobile induit l’équivalent d’un puits par rapport à l’espace vide en avant du vaisseau et les rayonnements arrivent sur un mobile où la longueur d’onde reçue se réduit par rapport à la longueur d’onde de propagation dans l’espace vide; les rayonnements sont perçus glissant vers l’ultraviolet.
Les longueurs d’onde des rayonnements λ et les longueurs d’espace dont elles sont l’étalon de mesure se contractent dans le sens du déplacement et s’allonge dans le sens opposé.
Les intervalles de l’espace par rapport à la distance à franchir se contractent vers zéro et, symétriquement, les intervalles de l’espace franchi apparaissent rejetés à l’infini.
Dans le domaine cinématique, on a donc élongation et contraction linéaire de l’espace environnant du fait du champ de distorsion de source locale.
C’est le maintien de constante de la célérité de la lumière qui fait que consécutivement on a un accroissement de l’énergie E = hc/ lambda d’impact des porteurs du rayonnement reçues de l’avant (glissement vers le bleu) et une réduction de l’énergie E d’impact des porteurs du rayonnement reçues de l’arrière (glissement vers le rouge).
Toute propagation selon une direction se lit selon les 2 sens et induit des effets antisymétriques.
Espace poupe (injection impulsion Pnégative/navire) Navire
=
puits par rapport à espace mobile (plat) Espace fixe donc plat :glissement vers le
rouge
Navire (injection impulsion Ppositive/espace de propagation) Espace proue de propagation
=
puits par rapport à espace plat externe
= espace vide plat
glissement
vers le bleu
Dans le cas d’une source locale la formation de la distorsion est due à une forme impulsionnelle de l’énergie.
L’espace vide de Minkowski est donc un lieu avec une métrique et donc déjà un espace doté d’une forme de courbure non pas de déviation spatiale mais de glissement fréquentiel lié à la cinématique des mobiles et donc doté d’une forme canonique de gravitation.
Dans le cas d’une source externe l’énergie est la somme d’une forme statique de l’énergie sous forme de masse et de l’impulsion relative du corps source par rapport au référentiel..
Pour un objet chutant dans un puits de gravitation, le mouvement est radial et l’accélération est due à la courbure s’accroissant le long de la ligne géodésique du mouvement de chute libre, sans contrainte.
La courbure spatiale maximale est atteinte lorsque le mobile atteint la surface d’un corps symétrique homogène.
Tous les rayonnements subissent en remontant d’un allongement relatif de la longueur d’onde et les récepteurs les perçoivent glisser vers le rouge.
L’invariance de la célérité de la lumière induit un allongement de la période. T = lambda/c
Le temps apparent du corps chutant librement est transmis par le rayonnement qu’il émet.
Dans le cas extrême d’un trou noir, le maximum de courbure est sur un horizon qui n’est jamais atteint ( temporellement rejeté à l’infini), ce qui veut dire qu’il est impossible de mesurer notre distance par rapport à l’horizon du trou noir. Pourtant la distorsion des rayons lumineux permettrait de voir les objets directement derrière le trou noir ; la distance au trou noir n’est bien sur pas modifiée mais elle n’est pas directement mesurable car les étalons se contractent radialement tendent vers une dimension nulle à l’horizon.
Dans le cas du trou noir on a pour une chute radiale d’un photon (géodésique ds=0)
Dr/dt= c(1-2GM/rc²) qui tend vers 0 non pas parce que la vitesse de la particule se réduit mais pare que terme dt tend vers l’infini ; toute période du rayonnement qui transmet l’information « top l’horloge du mobile » tend vers l’infini .
Fondamentalement l’origine de ce fait remonte à la distinction entre d’une part les composants de la matière du mobile, composants fermioniques donc avec une extension spatiale qui ne porte pas d’information en soi mais dont le positionnement est mesurable dans un référentiel et d’autre part les composants des vecteurs d’information (ou de couplage ou de force ce qui sont des notions équivalentes) , composants bosoniques qui, pouvant se regrouper spatialement, peuvent former une onde. Et s’il y a une onde il y a information de type longueur d’onde qui peut subir l’effet des différences de courbure.
A noter que cette onde pouvant d’ailleurs se répartir dans le temps avec un flux quelconque de réception de porteurs (on peut recevoir les photons un par un, la cohérence de l’onde se maintient qui forme des figures d’interférence spatiale (même si elles sont dé corrélées dans le temps classique) Mais si on perturbe sa structure afin de déterminer l’extension spatiale de porteurs, l’onde cohérente est remplacée par une onde incohérente avec des particules dé corrélées qui ne forment plus de figures d’interférence). Voir l’expérience des fentes de Young.
En résumé, la matière porteuse de charge a une extension spatiale mais pour informer sur son état, elle émet des particules.
Si ces particules sont vectrices de force (exemple photons) elles n’ont pas d’extension spatiale mais pouvant se regrouper elles forment une onde cohérente dont la propagation de la phase a une extension et subit les différences de courbures lors de sa propagation.
Si ces particules ne sont pas vectrices de force mais porteuses de charge (exemple électrons) elles n’ont pas d’extension spatiale elles ne peuvent pas se regrouper, former une onde cohérente. Elles ne subissent donc pas les différences de courbures lors de leur propagation
Inversement le spin qui distingue fermions et bosons aurait donc une origine géométrique liées aux couplages entre la géométrie locale du porteur (exclusion ou agrégation) et la géométrie globale (courbure) de l’espace de propagation.
Quelle est la cause de la courbure ?
En fait les étalons semblent plonger dans un axe perpendiculaire.
On peut considérer qu’en chaque point de l’espace il existe un axe perpendiculaire qui exprime cette distorsion dont la cause est interne (cinématique) ou externe (effet dynamique d’une masse).
Un mobile en accélération nulle se meut comme perpendiculairement à cet axe de distorsion.
Si l’espace paraît distordu c’est que le mobile est plongé dans un dimension orthogonale à l’espace.
Une vitesse constante est comme une mise en orbite autour d’une dimension interne et un changement de vitesse induit un déplacement dans cette dimension interne. L’inertie se mesure à l’échange d’énergie nécessaire pour un déplacement suivant cet axe.
La mesure d’une durée séparant deux évènements repose sur l’ invariance de c. Typiquement une onde plane incidente est renvoyée par un miroir et la mesure par interférométrie du déphasage entre les ondes incidente et réfléchie permet d’en déduire la durée de propagation propre c’est-à-dire lié au référentiel local par application de cette célérité invariante, en retirant le temps séparant l’enregistrement du déphasage par l’appareillage du temps de sa restitution à l’observateur.
Le schéma suivant suppose que le miroir est parallèle à l’axe vitesse du mobile.
Δt impropre mesuré dan le
référentiel externe
Δt propre mesuré dans le référentiel local
Δt impropre = 2 (l² +(v Δt impropre /2)²)1/2 /c d’où Δt impropre ²= (c²/4-v²/4)l²
Δt impropre =(2l/c)
/(1-v²/c²) 1/2 = Δt propre /(1-v²/c²) ½
Limpropre= v Δt +2l (1-v²/c²)1/2 d’où Δt impropre = (v Δt +2l (1-v²/c²)1/2) /c
Δt impropre =
2l/c ((1+v/c)/(1-v/c))1/2 = Δt propre * ((1+v/c)/(1-v/c))1/2
La synchronisation des horloges par le passage du mobile au lieu de l’observateur permet une origine des temps commune.
La vitesse du déplacement du mobile et du miroir qui lui est fixé permet de déduire la distance où le faisceau réfléchi est reçu par l’interféromètre vu de l’observateur externe. L’événement mesure par l’interféromètre est transmis à l’extérieur d’où une durée impropre déduite par application de cette célérité invariante toujours en retirant le temps séparant l’enregistrement du déphasage par l’appareillage du début de la ré émission de l’information à l’observateur externe.
On notera que l’information s’avère dispersée du fait de l’effet cône de lumière qui réduit le flux apparent reçu par l’observateur par rapport à un objet s’éloignant.
On déduit donc un effet de dilatation apparent des durée séparant les évènements émission de l’événement mesure du déphasage égal à beta=(1-v²/c²)-1/2
Il s’avère d’autre part que depuis l’expérience classique des muons et les mesures successives des temps de désintégration dans les accélérateurs indiquent que les durées de vie impropre des particules sont bien soumises au facteur de dilatation beta
Maintenant examinons l’expérience où le miroir est perpendiculaire à l’axe de déplacement du mobile.
Dans ce cas le facteur de dilatation s’avère être celui du décalage doppler relativiste
((1+v/c)/ (1-v/c))-1/2.
Question : cette seconde expérience induisant un facteur doppler n’est elle pas tout aussi pertinente par rapport à une mesure du temps et pourquoi n’est ce pas ce facteur qui intervient dans la durée de vie?
Le facteur beta implique t-il que la probabilité de détection de la particule se modélise dans tout repère galiléen comme une onde plane transversale dont la fréquence équivalente de cette onde est donnée par la formule de DeBroglie f= pc/h. Cette onde est conservative au sens où l’énergie est entièrement propagée par l’onde mais la structure quantique impose que l’interaction de l’onde avec le détecteur se fasse localement et donc l’onde est matérialisée, actualisée en quanta suivant une probabilité qui reflète la structure de la matière entre l’émetteur et le détecteur. (voir expérience de Young).
Puisque l’onde est conservative il n’y a pas émission de particules actualisée (pas d’effet synchrotron dans une propagation galiléenne) et la fréquence équivalente de battement de l’onde reflète seulement une vitesse de phase. La fréquence de pulsion de cette onde équivalente marque néanmoins l’échelle de temps caractéristique de la particule.
On pourrait modéliser le battement de cette onde transversale par l’équivalent de la propagation de particules virtuelles. On revient ainsi au premier schéma où l’onde actualisée, se concrétisant par une agrégation cohérente de photons pour former collectivement une phase dont le déphasage de propagation peut se mesurer).
Ceci expliquerait que le temps de vie moyen de la particule soit modélisable uniquement par le premier schéma, le second schéma reflétant une propagation d’une onde longitudinale et donc non compatible de la propagation longitudinale des particules.