L’univers est t-il déterministe ou contingent ?

 

L’univers est –il prédictible, le l’est-il pas, l’est-il à une certaine échelle, pour un certain temps ?

Cette question peut-elle même être résolue dans un cadre scientifique, c’est-à-dire de prédictibilité réelle ?

Précisons ces deux notions. Le terme déterministe s’applique à un modèle prédisant l’évolution d’un système avec une précision ajustable par principe par le travail du modélisateur. Le terme contingent s’applique à un modèle où l’évolution serait le produit d’évènements inconnaissables du modélisateur qui ne serait plus maître de la précision.

 

En tentant de trancher entre ces deux visions, nous allons nous heurter à plusieurs asymptotes, c’est-à-dire à des contraintes qui se renforcent jusqu’à ce que toute amélioration dans la prédiction demande des mesures démesurément plus complexes.

Pour être clair remplaçons le terme asymptote par celui de murs et énonçons ceux que nous allons décrire successivement :

-          les murs de la complexité

-          les murs de la précision.

-          les murs de la contingence

-          les murs entre structures émergentes.

Mais tout d’abord demandons nous ce qu’il nous faut connaître pour prédire.

 

Connaissances nécessaires à la prédiction

 

Considérons tout d’abord l’approche thermodynamique qui à partir des règles statistiques appliquées à des amas considérables d’atomes font émerger une orientation statistique à toute évolution d’un objet macroscopique et constituent des lois mécaniques déterministes, c'est-à-dire permettant une prédiction sur des valeurs de variables caractérisant son état (température, densité, pression, viscosité…) et sa dynamique (position, impulsion, accélération).

 

Supposons donc que l’univers à une échelle macroscopique soit descriptible par une application directe de ces lois déterministes. Cette application nécessite de partir d’un état initial qui est celui à partir duquel est appliqué la loi d’évolution.

L’état initial est déterminé par la connaissance des paramètres de chaque objet ou cellule unitaire interagissant avec l’objet mesuré. Sont à considérer les objets  à l’intérieur d’une sphère d’influence. Bien que cette sphère se déploie dans les trois dimensions, nous adopterons le terme courant d’horizon des évènements.

Quel est le travail du physicien ? De déterminer un système qu’il isolera de l’extérieur en considérant que tout le reste est négligeable.

Et donc c’est à l’intérieur de cet horizon qu’il filtrera ou pas  les objets suivant des paramètres intervenant dans l’interaction avec la cible afin de constituer un système dit isolé.

 

Qu’est ce qui définit cet horizon ?

 

En simplifiant à l’extrême, tout objet dans l’univers est soumis à la superposition d’influence qui se propagent jusqu’à lui. La simplification irréaliste est que ces interactions agissent directement de la source à l’objet. Ce n’est bien évidemment pas le cas dans le monde réel fait d’amortissement, de diffusion, d’absorbation et de réfraction et  de réémission, ou autre  frottement. Mais plaçons nous dans ce monde idéal où les phénomènes sont décrits par les mêmes lois quel que soit la position de l’objet et en supposant que cet univers est équivalent dans toutes les directions. On parle d’homogénéité et d’isotropie.

Il faut alors considérer non seulement les objets interagissant mais le moment où l’interaction émet son vecteur jusqu’à l’objet cible. Ainsi il faudrait prendre en compte tous les événements « émission d’une interaction »  avec des coordonnées de temps et d’espace définit respectivement par R, la distance radiale à l’objet, et –R/c, le temps dit de regard en arrière  par rapport au temps 0 de l’influence sur l’objet avec la constante c,  la célérité de l’interaction dans un milieu de propagation, supposé unique.

Bien sur ce modèle a un défaut majeur ; il n’est pas possible de connaître les états des corps en interaction dans l’horizon car cela impliquerait pour le modélisateur d’acquérir les états des corps interagissant avec la cible au fur et à mesure de sa propagation de suivre la propagation de ces interactions. Les influences dépendent de la distance : même en supposant la cible statique il faut disposer d’un temps égal à deux fois  la célérité de la lumière pour faire cette acquisition ; si l’interaction est elle même directement de nature électromagnétique ou gravitationnelle  ce temps n’est pas disponible . En outre il peut y avoir une multitude de corps interagissant dans le volume autour de la cible et le modélisateur ne peut acquérir ces informations simultanément dans toutes les directions.

Donc que se passe t-il en fait ?

Pour que la prédiction soit juste il faut en fait que les valeurs des paramètres soient connues et demeurent inchangées entre le temps de la mesure et le moment où leur interaction avec l’objet est prise en compte, ou au moins d’un ordre de grandeur inférieur à la précision demandée. Donc on échantillonne  avant la mesure et on suppose que les valeurs mesurées vont nous permettre d’extrapoler la valeur que l’interaction va prendre au moment où elle va être prise ne compte. Un exemple, les position et  vitesse d’un astéroïde sont mesurées à plusieurs moments et sa trajectoire est estimée dans une certaine précision et donc de niveau de confiance entre ces différents échantillons. Il est supposé dans le cadre de l’incertitude admissible par le niveau de confiance que le vecteur vitesse ne soit pas trop modifié en intensité et en orientation par d’autres perturbations pour pouvoir prédire tout au long de sa trajectoire si l’interaction avec la Terre va rester de type gravitationnelle ou se transformer en interaction électromagnétique par un choc…

Un second exemple. Un cyclone va-t-il passer au dessus d’une ville ?

La vitesse et la dépression d’un cyclone sont estimées, l’incertitude sur sa trajectoire va être beaucoup plus grande car le cyclone se déplace dans un milieu avec lequel il interagit et selon des lois beaucoup plus complexe et des paramètres beaucoup plus fluctuant que dans la gravitation qui est une discipline élémentaire bénéficiant de lois simples avec des paramètres stables. Il faudra donc échantillonner avec une fréquence plus élevée et surtout peu de temps avant l’interaction qui nous concerne.

 

Faisons une courte parenthèse sur ce qui est appelé interaction en physique moderne.

Les porteurs d’interaction sont couplés à un champ dans lequel ils sont plongés et ce couplage induit une propagation d’un signal  dans toutes les directions. Ce signal est propagé de proche en proche par un champ à la  célérité c de l’interaction.

Ce modèle considère que l’influence sur un objet non seulement à besoin de se propager mais que toute nouvelle influence nécessite un renouvellement de l’émission et que l’influence immédiate est limitée au moment de la réception. Sitôt absorber l’interaction peut modifier l’état interne mais l’influence extérieure ne se poursuit pas en durée si une nouvelle interaction n’est pas reçue. Pour prendre un exemple trivial et en utilisant le modèle moderne de l’interaction, une poussée n’est pas vu comme un phénomène continu mais comme une suite d’interaction électromagnétique entre porteurs de charge électrique, interaction qui se renouvelle constamment par l’émission de vecteur de force appelé photon.

 

Quel est donc le rayon de l’horizon que nous devons prendre en compte pour déterminer l’évolution d’une cible ?

Déterminer la variation de l’état d’un objet nécessiterait dans ce monde idéal de connaître l’état des objets ou des cellules individualisables dans l’ensemble de l’horizon cosmique la valeur du rayon pouvant s’étendre jusqu’à la distance qu’aurait parcouru une interaction depuis le big-bang jusqu’à la cible. Au-delà rien n’a encore été détecté car le signal ne nous est par encore parvenu. La valeur de cet horizon dépend directement du taux d’expansion, très variable selon les modèles du rayon de courbure depuis le big-bang jusqu’à aujourd’hui. Cette variation détermine en effet la longueur du trajet des porteurs de charge selon des lignes sans interaction secondaire nommée géodésiques.

Dans le cas de l’interaction gravitationnelle à grande échelle, ce principe  impliquerait que devraient   être pris en compte tous les objets à l’intérieur de l’horizon cosmique.

 

 

Heureusement, le rayon de cet horizon est le plus souvent limité car l’environnement immédiat peut avoir une influence écrasante sur l’environnement lointain.

Rappelons que le physicien  détermine un système qu’il isolera de l’extérieur en considérant que tout le reste est négligeable.

 

Nous l’avons vu à travers nos exemples percutant astéroïde et cyclone où en fait n’est même pas considérée une collection d’objet dans un  horizon mais seulement un objet. Le corps interagissant et sa cible sont considérés comme un système isolé de l’extérieur qui est négligé.

Dans d’autres cas il faut effectivement prendre en compte une échelle de distance où une interaction est prépondérante, filtrer à l’intérieur de cette zone suivant l’importance des corps et négliger tout le reste à l’extérieur.

 

Ainsi de l’influence du profil de gravité terrestre sur les corps à sa surface,  indépendamment de toute influence planétaire. Sera prise en compte, en première approximation toute la masse terrestre par rapport à la cible à sa surface, que l’on peut ramener par symétrie sphérique à un centre de masse au centre de la charge chargée de tout la masse terrestre et qui détermine le poids s’exerçant sur le sujet. Tout le reste sera négligé.

Dans un second temps pour être plus précis on intégrera les influences lunaire et solaire (par exemple pour justifier des marées) mais tout les autres corps beaucoup plus distants que la Lune et d’une masse très inférieure à celle du Soleil seront négligés. Ce déséquilibre d’influence est juste lié au rapport d’échelle entre le rayon terrestre et les distances interplanétaires pondérées par les masses relatives.

Inversement des corps autogravitant comme les galaxies subissent une influence de nombreux amas galactiques beaucoup plus distants mais situés seulement à quelques milliers de diamètres galactiques. A l’échelle d’un million de diamètres galactiques la répartition des masses  devient uniforme. Elle ne contribue pas aux trajectoires particulières des galaxies mais au taux d’expansion du rayon de courbure global de l’univers visible. Les galaxies étant en première approximation en mouvement libre dans un champ de gravitation considéré comme uniforme et isotrope à grande échelle, les trajectoires des galaxies sont  sur des  géodésiques universelles  et la répartition des masses à grande échelle n’induit pas de modification de trajectoires par rapport à ces géodésiques. 

Dans une synthèse simplificatrice, le rayon utile dépend du type d’interaction et de l’intensité relative des contributions, la précision utile déterminant le seuil en deçà duquel les contributions sont négligées.

 

 

 

Quels paramètres sont ils utiles de connaître pour les objets considérés dans ce système

Tout dépend là encore du type d’interaction considérée.

-         pour  la gravitation décrite par le modèle de la relativité générale, il est nécessaire de  connaître la position, l’impulsion et sa variation, l’énergie, de tout les corps, dans la bulle considérée

-         dans l’interaction électromagnétique directe, la vitesse, la charge, le spin vont intervenir dans le cas d’objet individualisables

-         dans des interactions d’origine électromagnétique à l’échelle chimique, aux notions de charge peuvent s’ajouter des notions de concentrations, de polarité, d’aimantation.

-         dans le cas de phénomènes macroscopiques comme les ondes de pression ou des frottements indirectement liés aux interactions des charges, des propriétés exprimant des valeurs moyennes (température, pression, viscosité) vont intervenir.

 

 

Ces prémices étant posés, adressons les murs du  premier type, ceux de la complexité.

 


Les murs de la complexité

 

Pouvoir prédire nécessite donc de connaître précisément l’environnement mais indépendamment de la seule considération de la précision quantitative, est ce toujours envisageable ?

Dans un cas trivial d’un univers sans matière il suffirait de considérer l’influence de tout le rayonnement de fonds cosmologique sur l’observateur depuis le big-bang.

Il faut ensuite pour être concret s’ajuster suivant les échelles et les temps considérées.

Considérons, ce qui est une approche grossière, que les interactions entre galaxies ne modifient pas leurs structures internes, les galaxies  sont traitées comme des points chargés d’une masse,  toutes les galaxies et amas les réunissant pourraient être décrites comme la superposition des  interactions gravitationnelles à grande échelle. Dans cette approche leur état serait déterminé par la mesure à des temps de regard en arrière correspondant à la distance divisée par la célérité de la lumière, de toutes les positions des autres galaxies et amas. Il serait alors possible de prédire l’évolution des positions des galaxies et de leurs structures en amas. On est rapidement confronté à un premier mur qui est celui de la multiplicité des points en interaction. Si l’influence gravitationnelle varie en carré de la distance, le nombre de corps varie au cube ce qui nécessite de prendre en compte l’ensemble des objets dans l’horizon cosmique, leur état étant mesuré à des temps de regard en arrière dépendant de leur distance en années-lumière  au moment de la mesure par l’observateur.

A l’échelle des corps stellaires et jusqu’à l’échelle disons cellulaire ne considérer que les influences gravitationnels ne suffit pas car les interactions électromagnétiques d’une complexité croissante modifient l’histoire de tout corps et il faudrait réaliser une quasi infinité de photographie à des temps de regard en arrière variable pour tenir compte de leurs influence. Ainsi le destin d’une étoile dépend non seulement de sa position au sein du nuage moléculaire mais aussi de sa masse propre, de la composition et de la répartition en terme de métallicité de ce nuage, fruit lui-même de l’évolution stellaire dans sa galaxie, éventuellement de compagnons stellaires serrés avec lesquels des échanges de matières peuvent avoir lieu. L’histoire en terme d’évolution interne du corps est d’autant plus complexe que la masse est importante, faisant intervenir non seulement des rayonnements mais aussi des phénomènes de transports internes de matière par convection, des phases d’instabilité en fin de vie, voire de phase cataclysmique hautement sensible à des asymétries et à la masse ferreuse du noyau, masse produite par l’ensemble de l’histoire du corps stellaire.

A l’échelle du vivant la multiplicité, la richesse la diversité des écosystèmes, l’interaction avec le biotope, l’influence des climats rend quasiment impossible de développer des modèles prédictifs même si les lois de la biomécanique et de la bio- thermique avec les développements des formes sont probablement universels il n’existe pas beaucoup de façon de marcher, courir, voler, nager, évacuer la chaleur) et même si les développements convergeant comme le vol sont légion mêmes dans des branches animales distinctes. En fait plus l’évolution est poussée, plus il y a eu de pression sélective et donc de risques de disparition d’espèces animales, plus est incertain notamment de déterminer celles  qui accèderont au statut d’espèces dominantes, voire développeront une forme d’organisation sociale évoluée.

 

 


 

Les murs de la précision

 

Dans beaucoup de  système, quelquefois extrêmement simples,  interviennent des effets de feedback, de rétroactions, de stimuli en phase avec les fréquences naturelles d’oscillation d’un système  ou même un simple bruitage comme dans le cas de la perturbation de 2 masses par un troisième même de faible masse. Or tous ces systèmes induisent  des comportements en sorties non proportionnelles aux entrées.

Ces systèmes  nécessitent un niveau de précision dans la mesure initiale qui croît exponentiellement pour une durée de prédiction croissant linéairement, d’où une imprécision de la prédiction rapidement divergente. Même dans les systèmes où existent des zones de comportement plus stables appelés attracteurs, les choix de bifurcation sont si aléatoires que seules des estimations statistiques de leurs évolutions peuvent au mieux être appliqués.

 

Adressons un aspect particulier de cette question.

Y a-t-il une relation entre l’incertitude liée à la sensibilité aux conditions initiales et l’incertitude quantique ?

Sur le fond non car leurs origines sont fondamentalement distinctes, pourtant ce mur de la précision sur les conditions initiales peut rejoindre le problème du couplage entre les niveaux de description microscopique et macroscopique, ceci en fonction de l’échelle et de la profondeur temporelle de la prédiction.

 

L’incertitude fondamentale est le produit de l’existence du  quantum de Planck qui engendre une incertitude sur tous les paramètres macroscopiques. Le déterminisme n’apparaît qu’au niveau de la statistique, des probabilités comportementales. Ces systèmes sont sans mémoire, ne dépendent pas de conditions initiales, non lié à un comportement thermodynamique leur équation  font intervenir une symétrie passé / avenir.

 

L’incertitude que l’on pourrait appeler induite est le produit de la sensibilité des systèmes aux conditions initiales, les non linéarités de ces systèmes complexes reliées aux limitations du domaine d’évolution et aux rétroactions engendrent des phénomènes de bifurcations dont les choix dépendent si étroitement de valeurs initiales que la moindre variation engendre des résultats divergents.

Le niveau de précision dans la prévision corrélée à la portée temporelle de cette prévision imposent un niveau de précision des conditions initiales.

Lorsque le niveau de précision requis rejoint les limites de précision induites par la physique quantique, ces deux causes d’incertitude se rejoignent ; l’imprévision de fait est imposée par les limites quantiques.

Par exemple mesurer une position d’un corps macroscopique à mieux qu’un atome près n’a plus de sens car cela supposerait que soit appliqué un sondage à un niveau d’énergie qui excite l’atome et modifie ses caractéristiques spatiales.

 

Y a-t-il un lien entre cette sensibilité aux conditions initiales et la notion d’évolution irréversible  ?

Nous avons évoqué plus haut la dégradation de l’information lors des processus d’interactions, cette dégradation étant quantifiée par l’augmentation d’une grandeur nommée entropie.

Il y a irréversibilité des évolutions. En fait dès que trois corpuscules sont en interaction, le niveau de précision nécessaire sur un état initial pour décrire leur évolution commune et donc le niveau d’information nécessaire est démesuré par rapport à l’information acquise par l’observation.

On peut ainsi mesurer la profondeur de l’irréversibilité par le ratio entre l’information de préparation à la prédiction et l’information extractible lors de l’évolution. Si ce rapport est élevé on ne pourra pas déduire une information suffisante, et reconstituer l’état initial, à partir de l’information extraite en observant l’évolution de l’objet (indépendamment de tout autre environnement). Cette irréversibilité crée une rupture entre le présent et le passé qui l’a généré et qui ne peut être reconstitué.

 

Quelles sont les conséquences de cette imprécision ?

En fait il s’agit de l’échec de la vision idéaliste de Laplace.

Celui-ci au vu des équations mécaniques connues au début du XIXème siècle avait cru pouvoir affirmer qu’une connaissance parfaite de l’état présent de l’univers permettait de prédire son évolution

De proche en proche, en partant du plus local et de la moindre portée temporelle, ce modèle supposerait de pouvoir idéalement étendre le prédictif à des échelles de temps et d’espace plus élevées jusqu’à envisager au moins en principe, une vision globale et prédictive de l’univers.

 

Mais l’irréversibilité, liée à la sensibilité aux conditions initiales, empêche non seulement de reconstituer le passé comme évoqué à l’instant mais aussi de prévoir l’avenir car la prévision devient rapidement au mieux statistique et cette statistique dérive rapidement, vers l’incertitude proche de 100%. Pour donner un exemple celui des orbites planétaires le terme rapide s’applique à l’échelle de la centaine de million de cycles.

 

Ce problème de la reconstitution du passé et de la prédiction de l’avenir n’est pas lui–même symétrique. Reconstituer le passé c’est à partir de la connaissance de l’évolution d’un objet c’est essayer de trouver une voie économique pour connaître son environnement qui l’a influé.

Pouvons nous   avec un modèle déterministe remonter en arrière et à partir de la mesure de l’évolution d’un corps sur une période donnée reconstituer la cause de l’évolution et les états des objets dans son environnement ?

Prenons un premier exemple.

Pouvons nous par les modifications de la trajectoire d’un faisceau de lumière pouvoir reconstituer les positions et masses des corps qui ont influencé sa trajectoire ?

Même en mettant un voile pudique sur l’impossibilité expérimentale d’atteindre  un niveau de précision requis, nous ne saurions faire la distinction entre des corps lointains et massifs et des corps proches et légers.

Prenons un autre exemple, cette fois-ci dans notre environnement.

Pouvons nous à partir de l’évolution d’une cellule convective de l’atmosphère pouvoir reconstituer l’état des cellules qui constituent son environnement ?

En fait de nombreuses combinaisons entre la pression, la température, les masses de gaz engagés par des phénomènes convectifs et de nombreux autres paramètres aboutissent par de multiples enchaînements temporels au même état instantané de la cellule examinée. Ces plages de variation sur les multiples dimensions des paramètres en jeu rendrent illusoire de reconstituer l’état de l’environnement à partir de l’évolution d’une seule cellule.

 

Il y a une multiplicité de causes ayant les mêmes effets. L’information se dégrade, le niveau d’ordre se réduit et l’entropie augmente.

Pour pouvoir reconstituer le passé, c’est-à-dire l’état passé de l’objet et donc également de son environnement qui l’influence, on aurait besoin de plus d’information que l’on en dispose en examinant juste ses effets au présent.

Il n’y a pas assez de contraintes, d’équations pour déterminer  de façon univoque, et même loin de là, toutes les valeurs des paramètres de l’environnement.

Pire même les traces peuvent être effacées, du fait de causes aux effets équivalents. En mathématique des ensembles on parle de surjectivité. Dit autrement nous savons qu’il y a trop de chemins différents pour arriver au même croissement pour pouvoir repartir vers le point de départ. C’est cela l’irréversibilité : devoir repartir en avant.

Nous ne pouvons pas faire l’économie de connaître précisément les caractéristiques d’un environnement par des mesures directes  afin de pouvoir déduire les effets ou en constatant les effets de reconstituer les causes.

 

Connaître son avenir est bien différent ;  car cette surjectivité cette multiplicité de chemins aboutissant aux même points  continue à s’appliquer vers l’avant tout en affirmant que des points très proches mènent à des résultats très différents. En supposant connu l’objet et son environnement dans son horizon qui peut l’influencer, prédire l’avenir c’est être confronté au niveau démesuré de précision de la mesure des conditions initiales.

 

Point essentiel : cette dispersion n’est absolument pas compensée par la concentration des chemins aux effets équivalents du fait de la multiplicité des objets en interactions.

 

En soi les lois déterministes ne parlent aucunement d’une multiplicité de chemins possibles dont certains ont pu s’effacer comme pour le passé, simplement de notre capacité à la connaître ; si notre présent n’est pas précisément mesuré (l’objet et l’horizon des évènements qui peuvent intervenir) le futur sera brouillé.

En outre toute extension de la durée de  prédiction nécessite, afin de prendre en compte des effets de plus en plus fins, d’étendre la collection d’objet à intégrer dans le système en interaction  (en réduisant le seuil de filtre ou en étendant à d’autres objets plus lointain donc en étendant l’horizon des évènements). Par exemple si la précision du signal utile était suffisante pour déterminer son évolution dans un certain laps de temps, en désirant prédire ses variations dans un plus long lapse de temps, on va ainsi déterminer un plus grand nombre de sources de bruit (de perturbation du signal utile) afin de les éliminer.

Seuls dans des cas simples il est possible de conserver le  même système  sans l’étendre, sans prendre en compte un horizon élargi collection car on peut  appliquer une règle statistique qui suppose qu’un horizon conservant les mêmes propriétés en l’étendant.

Ainsi de l’étude du fonds diffus cosmologique ; pratiquement tous les modèles supposent que son extension spatiale croissante ne va pas changer son profil spectral et donc que notre portion d’univers visible est représentatif du reste de l’univers. En fait tout autre théorie serait invérifiable  ne pouvant s’appuyer sur des observations ; les  signaux futurs sont  par définition inatteignables car en route pour un voyage au long cours…

 

Pour nous résumer, reconstituer ou redire le passé c’est tenter de reconstituer l’état antérieur d’un système isolé, et reconstituer également l’horizon des évènements s’il s’agit d’un système ouvert (y compris l’objet lui-même dont le passé fait partie de l’horizon). Or plusieurs états peuvent s’effondrer semblablement sur l’objet.

Prédire l’avenir, à partir de l’objet s’il s’agit d’un système isolé et de la connaissance que nous avons de son horizon des évènements futurs s’il s’agit d’un système ouvert,  c’est tenter de déterminer la forme que va prendre l’état futur (et de l’interaction entre l’horizon des évènements généré par l’état présent de l’objet et l’horizon des évènements potentiellement influant (j’éblouis de mon phare la voiture qui va me percuter).

Potentiellement il y a une infinité de chemins locaux. Par contre à un certain niveau d’échelle nous savons que l’entropie gagnant, le vivant va manquer de ressources à dégrader, les galaxies sont de moins en moins productives en systèmes stellaires, et les amas galactiques se dispersent irrémédiablement dans un univers de plus en plus froid.

 

 

Dommage car cette logique mécanique nous aurait permis d’en déduire l’état de l’univers à tout moment, notamment en partant des conditions initiales de l’univers primitif, conditions apparemment hautement simplifiées à grande échelle par rapport à la complexité actuelle de l’organisation des masses. Malheureusement on ne peut jamais obtenir plus que ce que l’on a mis toujours parce que l’information se dégrade.

Il est évident que l’application d’hypothèses simplificatrices sur l’univers primitif ne peut mener qu’à une modélisation d’un univers éventuellement se structurant mais qui ne peut être comparé à l’univers réel que par similarité de structures à une échelle élevée.

A noter néanmoins que la problème de la structuration en étoiles, quasars et systèmes  galactiques est très mal  résolu et de plus en plus complexe à résoudre car de plus en plus contraint voire contradictoire avec les avancées des modèles, les mesures du fonds diffus cosmologique et les observations à décalage cosmologique élevé.

Aller plus loin dans la précision de la prédiction nécessite des hypothèses plus pointues que ce que les lois de la diffusion et de l’amortissement ne nous permettent de reconstituer à partir du fonds diffus cosmologiques (à un certain niveau de précision les processus de diffusion ont nivelées les informations ; les traces ont été effacées) mais des percées à partir de l’étude des transitions de spin de l’hydrogène dans les nuages  primitifs pourront nous apprendre plus sur la structuration stellaire.

 

Nous pouvons également ajouter aujourd’hui  que ce programme idéaliste de Laplace est aussi bornée vers le bas car la connaissance est bornée spatialement et temporellement par les règles d’indéterminisme quantique. Ceci s’applique dès l’échelon local et de nombreux objets à commencer par  tous les processus nucléaires stellaires et tous les processus  chimiques du vivant sont structurés par les lois de la mécanique quantique.

Ceci serait encore plus vrai au stade initial de l’univers jusqu’à la nucléosynthèse primordiale  où la seule organisation était celle de la concentration des différents types de particules, ce que seule la mécanique quantique peut décrire. Ce qui n’empêche pas le modèle quantique actuel ne trouver lui même ses limites en ne pouvant décrire efficacement (c’est-à-dire sans hypothèses ad hoc) des temps antérieurs à la fin de la génération des baryons et leptons  à partir de flux de photons de haute énergie. En effet  l’état de l’univers dépend alors directement de l’origine de dissymétries matière–antimatière, problèmes probablement relevant de l’échelle quantique et encore non résolus.

 


Le  mur de la contingence

 

Ce mur est lié à des objets influant l’observateur mais qui ne se sont pas influencés entre eux dans le passé.

En effet tout observateur est le point focal de toutes les lignes de propagation venant de l’horizon. Chaque objet dans son horizon a un comportement macroscopique soumis à des lois déterministes mais dont nous avons vu qu’au-delà d’une durée de prévision le niveau de précision rejoint les limites de précision autorisées par la physique quantique. On peut néanmoins dire que les effets qui induisent dans un horizon donné la position et l’état d’un élément sont le produit de lois déterministes mais que dire de la conjonction de série temporelle d’évènement non corrélés et dont la rencontre est contingente ?

Il s’agit justement de la collision au niveau de l’observateur de l’influence des objets situés à l’intérieur de son horizon.

Chaque objet sur l’horizon, qui est lui même le produit de son évolution dans son horizon et même s’il est posé en principe le produit de lois déterministes, induit une influence non prédictible et c’est la réunion fortuite de ces influences au niveau de l’observateur, cette absence de corrélation entre les lignes d’univers  qui produit cette contingence fondamentale et cette incertitude sur l’évolution de l’observateur.

La simple rencontre d’évènements hautement improbable dans les existences humaines mais dont l’avènement détermine profondément des destins est une excellente illustration de ce mur dans la prédiction.

Si l’on reste dans le domaine de la cosmologie, on peut néanmoins dire aujourd’hui que l’influence de notre horizon est plus que négligeable ; le fond diffus cosmologique micro-onde isotrope ou même la présence de structures galactiques à grande échelle a évidemment une influence  totalement négligeable sur le comportement des objets par rapport à tout autre cause du moment dans un environnement dense tel que celui des observateurs conscients.

 

Il n’en a probablement pas été de même au début de la phase d’expansion quand le fond diffus était beaucoup plus dense et le niveau d’organisation de la matière moins élevé et on peut s’interroger sur la portée de ce facteur dans la génération des fluctuations à grande échelle, germe des futurs noyaux de condensation stellaires.

 


 

Les  murs de l’émergence

Ces murs sont  liés aux découplages entre les échelles et à la distinction entre les types d’interaction intervenant à chaque niveau de description.

L’évolution statistique conduit au nivellement de conditions initiales lorsqu’une multitude de chemins conduit au même état probable.

Si l’univers prit dans son ensemble conduit à un même état probable tous les états intermédiaires y compris l’état initial de l’univers n’ont pas à être pris en compte pour déterminer l’état final de l’univers et l’enchaînement temporel des cellules particulières n’interviendra pas dans la description de l’état global, portion de l’univers borné par  l’horizon cosmique.

Néanmoins ce qui caractérise l’univers est la multiplicité des cellules locales où l’ordre, c’est-à-dire la réduction locale de l’entropie, surmonte au moins temporairement l’accroissement global de la diminution de l’organisation.

Il apparaît que le descriptif de l’univers doive donc s’enrichir d’autant de chemins possibles de dégradation (ou de gain plus localisé d’ordre) qu’il y a de cellules distinctes où l’ordre se maintient ou s’accroît.

Une description juste de l’univers doit donc tenir compte des chemins possibles des échelles d’ordre et d’interaction de complexité croissante : amas galactiques / systèmes stellaires galactiques / étoiles/ planètes/ biotopes/ cellule / physiologie multicellulaire / civilisations / structure neuronales.

Or ces états d’ordre locaux, justement parce que les cellules sont séparées ne sont pas réductibles l’une à l’autre. Il n’est donc pas possible d’appliquer une série unique de lois à partir d’un état initial global de l’univers pour en déduire à tout moment tous les états, même dans une démarche statistique ; la description de l’univers impose une photographie zoomée sur chaque cellule localisée de l’univers à une fréquence d’autant plus élevée que le degré de complexité et donc d’évolution de l’organisation est élevé pour rendre compte de l’état local des différentes cellules distinctes de l’univers.

Les lois globales ne peuvent être appliquées sans faire intervenir des descriptions dont l’échelle est relative à l’échelle d’organisation, description  qui impose l’application de l’état observé comme nouvelles conditions initiales à portée locale.

 

Il  faudrait donc remplacer  l’état initial unique, sur lequel s’applique les règles ou lois d’évolution valable à toutes les échelles  par la description des états d’objets en interaction avec l’objet mesuré, états uniquement observables et non déductibles des lois, états  constituant autant de multiples conditions initiales.

 


Conclusion

 

Ce trop rapide portrait du problème de la limitation de la prédiction en physique pourrait nous faire conclure à la hâte en faveur d’un univers imprédictible. La  dégradation irréversible de l’information à l’échelon global n’est que modestement compensé par des accroissements de complexité des systèmes vivants,  consommateur de ressources et qui les dégradent  donc sous forme de chaleur, mixage et autres polluants. Et cette dégradation signifie l’impossibilité de reconstituer rigoureusement le passé. D’autre part la quasi infinité des systèmes en interaction signifie pour des systèmes du moins à l’échelle du vivant une impossibilité de fait de prédire l’avenir, même pour des systèmes élémentaires.

 

En fait si l’on  cherche à étendre la portée temporelle de la prédiction, il s’agit d’acquérir une bien meilleure connaissance de l’état  présent vu comme une condition initiale et fort de notre connaissances précise de contraindre le système en réduisant ses chemins d’évolution, tout en cherchant à améliorer la robustesse du système face à des perturbations contingentes.

En tout cas il semble peu approprié d’étendre la portée de cette réflexion à l’échelle humaine car  même cette réduction des possibles nécessite un niveau de maîtrise de connaissances qui semble contradictoires avec des acteurs libres, du moins  conscients des conséquences de leur acte. La prédiction de l’avenir a comme corollaire de connaître au mieux et de supprimer des degrés de liberté (et donc de flexibilité aux perturbations ce qui peut déstructurer ou même détruire le système).

Par contre la prédiction de l’avenir à une échelle stellaire et au-delà, toujours à une certaine précision près, est de moins en moins complexe avec l’accroissement de l’échelle du fait de l’évolution irréversible et orientée vers la diminution de toute organisation.

Bref la contingence couvre une très large échelle du plus élémentaires jusqu’à l’évolution des systèmes stellaires, rien n’étant durablement isolable des perturbations externes (sauf sur le papier des modèles calculables et donc simplificateurs) et ainsi nos vies sont contingentes mais probablement pas l’univers.