Utilisateur:JLC64/Brouillon2

Une page de Wikipédia, l'encyclopédie libre.

Introduction[modifier | modifier le code]

En astrophysique, un trou noir est un objet céleste à la fois massif et invisible, et dont aucune matière ne peut s'échapper. Et pendant un siècle, on n'a connu que l'interprétation des trous noirs selon la relativité générale.. Toutefois, on n'avait aussi que des interprétations extrêmement anciennes sur la matière dense, car remontant aux années 1930, mais en 2021, celles-ci viennent d'être invalidées par la science des matériaux[1][2][3].

Sur terre, en effet, la matière condensée des solides ordinaires est déjà bien assez dense pour juger du problème quantique soulevé par la densité des atomes, et contrairement à toutes les théories invérifiables sur une supposée matière dégénérée

D'où aujourd'hui la possibilité d'une autre explication pour les trous noirs.

Genèse d'une explication alternative à la relativité générale[modifier | modifier le code]

Dans l'histoire générale du trou noir, l'idée était cependant bien antérieure à la relativité générale, et dès le XVIIIe siècle, on avait déjà imaginé qu'aucune matière ne pourrait s'échapper de l'attraction d'un astre suffisamment dense. Mais à l'époque, on n'avait pas trouvé d'exemple. De même à la suite de Newton, il avait aussi été imaginé que la lumière pourrait avoir une masse, et dans ce cas, on en avait aussi conclu que la lumière elle aussi ne pourrait pas s'éloigner d'un tel astre. Mais la théorie ondulatoire de Huygens avait tué la théorie corpusculaire de Newton, et cette seconde idée avait été elle-aussi abandonnée.

Mais depuis 2021, on peut à nouveau expliquer le phénomène de trou noir à partir de la seule physique usuelle, c’est-à-dire dans le cadre de la physique commune limitée à la relativité restreinte, et sans avoir recours à la relativité générale[1] . En effet, la vision traditionnelle de l'astrophysique sur la matière céleste dense se résume à une presque séculaire matière dégénérée, assortie d'une très mystérieuse et surtout très théorique pression de dégénérescence. Toutefois, cette hypothèse des années 1930 n'a jamais été ni expérimentalement vérifiée, ni même mise à jour. Et sur des densités bien connues sur terre, son principe de base de la "claustrophobie des particules"[4] est même contredit depuis des lustres par à la fois la chimie quantique de Linus Pauling, la statistique quantique de Enrico Fermi et toute la physique de la matière condensée, car dès avant 1930, les développements de la mécanique quantique avaient déjà imaginé une tout autre manière de répondre à l'apparent dilemme du rapprochement des atomes et du principe d'exclusion de Pauli de 1925 [1].

Or précisément, les derniers développements de la science des matériaux permettent aujourd'hui de montrer que dans les étoiles en fin de vie de plus en plus denses, toute matière céleste fortement comprimée par la gravité bascule d'abord de son état de plasma vers un état métallique[1]. Et tout comme dans la liaison métallique de nos métaux ordinaires, cet état bien plus dense associe dorénavant un empilement de particules massiques chargées positivement à un fluide d'électrons délocalisés, dit aussi électrons libres ou gaz de Fermi. Et sous des compressions croissantes, l'empilement devient de plus en plus dense, et les particules s'adaptent alors pour être de plus en plus petites[1]. Dès lors, son stade de compaction ultime est une forme d'hydrogène métallique baptisée protonium, car constituée d'un empilement compact de protons baignant dans un continuum d'électrons délocalisés. Et à cette densité théorique inédite de 5 1014, et désormais constante, les astres massifs deviennent si petits que la luminosité d'une aussi petite surface émettrice devient indécelable de loin. Et en sens inverse, leur gravité de surface peut effectivement devenir tellement énorme que la matière ne peut plus s'en échapper, car la vitesse de libération devient inaccessible. D'ailleurs, la matière ne peut même plus en décoller, car toute vitesse orbitale en orbite rasante devient elle aussi inaccessible. Et donc trois siècles plus tard, la physique usuelle permet elle-aussi d'expliquer le phénomène de trou noir, et il n'y a pas besoin pour cela d'avoir recours à la relativité générale [1].

Propriétés[modifier | modifier le code]

Seuil de masse[modifier | modifier le code]

Dans un astre de masse M et de rayon R, la densité varie en M/R3, la gravité de surface en M/R2 et les deux vitesses en . À cette densité jamais imaginée de 5 1014, il existe ainsi un seuil de masse pour engendrer un effet de trou noir, et dans un très élémentaire calcul ab initio associant juste la masse et la taille du proton, la cristallographie de l'empilement compact, la mécanique céleste et la vitesse de la lumière, ce seuil se situe vers 2,5 masses solaires (M) , et pour seulement 11 km de rayon, à comparer aux 700 000 km du Soleil. Or ce seuil de masse calculé correspond étonnamment bien à la limite expérimentale actuelle de 2,7 M pour le plus léger trou noir observé (1A 0620-00) [1].

Et à l'inverse selon la relativité générale, il n'existe aucun seuil de masse pour cet effet de trou noir, et des exemples de toute masse ont été calculés par le célèbre Stephen Hawking. Et de la même manière, de petits trous noirs primordiaux ont été prédits en tant que "fossiles" du Big Bang. Or pour ces petites masses entre une planète et 10 μg, et dans le même calcul, les densités correspondantes dépassent l'entendement[1]. Mais dès lors qu'il n'y a plus aucune possibilité de vérification expérimentale, l'imagination des mathématiciens est sans limite, alors qu'à ce jour, la plus forte densité avérée s'arrête au 1022 de la densité d'un noyau atomique. Or en l'occurrence, il ne faut sans doute pas confondre l'effondrement gravitationnel d'une étoile en fin de vie, tel que calculé par exemple dans la masse de Chandrasekhar, et un très hypothétique collapse gravitationnel de particules sans dimensions, tel que postulé dans la gravité quantique. En tout cas, et malgré tous les efforts d'observation et détection des trous noirs, aucun de ces minitrous noirs théoriques n'a "encore" été observé, et mais on pourrait tout aussi bien dire, n'a "jamais" été observé. En d'autres termes, y a-t-il encore un espoir d'en observer, ou depuis le temps que l'on en rêve, est-ce vraiment sans espoir ?

Or en présence de deux explications aussi différentes d'un même phénomène, il n'est pas surprenant qu'elles aient aussi des conséquences extrêmement différentes, et d'autres permettront sans doute un jour de trancher formellement. Mais à défaut, il reste aussi un faisceau de présomptions, et cette comparaison avec le niveau actuel du seuil de masse expérimental en fait partie.

Enveloppe de vide absolu[modifier | modifier le code]

Au-dessus de ce seuil de masse de 2,5 M , aucune matière ne peut donc se maintenir à basse altitude. Dès lors, l'environnement immédiat de cet astre en protonium est une sphère de vide absolu, ce qui valide ainsi le calcul d'une orbite rasante dans le vide. Et cette enveloppe de vide s'étend ainsi jusqu'à une distance permettant à nouveau une vitesse orbitale, c'est à dire le rayon de la plus petite orbite circulaire stable, soit le rayon de Schwarzschild de la relativité générale.

Et à l'inverse en dessous de ce seuil de masse, et a fortiori avec des densités inférieures à celle du protonium, tous les astres sont plus gros que le rayon de Schwarzschild correspondant à leur masse. Et donc ils peuvent être encore suffisamment petits pour rester invisibles de loin. Par contre, de la matière peut alors se maintenir à basse altitude, ou s'en échapper, et il ne peuvent donc plus être des trous noirs.

Par rapport à la relativité générale, la nouveauté majeure est ainsi qu'au centre de ce qui n'est plus du tout un horizon des évènements "retenant la lumière", un trou noir a maintenant un astre central. Sa densité est certes très élevée, car c'est le maximum permis en physique usuelle, mais elle reste néanmoins finie, et donc plus besoin de gravité quantique. Et entre les deux, il règne un vide absolu[1].

Or d'après la liste des trous noirs les plus massifs, la masse du plus gros trou noir jamais observé atteint déjà 66 109 M , et le diamètre de son enveloppe de vide est alors de 40 années-lumière. Ainsi vis à vis de tout ce qui peut croiser la route de cette immense sphère de vide, tout trou noir supermassif se comporte alors comme un gigantesque aspirateur cosmique (vacuum cleaner en anglais). Dans leurs pérégrinations, de tels "ogres spatiaux" ne peuvent donc que grossir indéfiniment, et en faisant alors de plus en plus de vide autour d'eux. Ainsi avec ses 20 109 M , le 9eme de la liste augmenterait en ce moment de 60 M par an. En revanche, ce flux annuel ne vient sans doute pas que de collisions, et il peut ainsi se répartir entre une capture directe d'astres compacts par leur immense section de capture, ou une aspiration de plasmas stellaires moins denses, ou encore une capture progressive par attraction gravitaire lors de la traversée d'un nuage de gaz encore plus grand.

Et juste au-delà de cette enveloppe de vide, la matière en cours de captage s'accumule d'abord dans une sphère d'accrétion. Et en se rapprochant de l'astre central, elle est alors accélérée jusqu'à des vitesses de plasma, de sorte qu'elle devient progressivement lumineuse, et elle peut ainsi être observée. Certaines sont encore transparentes, comme autour du trou noir supermassif M87* , et d'autres ont même l'apparence extérieure d'une étoile, comme les quasars et les blazars .

Mais très curieusement dans la tradition de la relativité générale, on ne parle jamais que de disque d'accrétion, y compris dans la publication de 2019 sur la toute première image de l'objet M87*, et cosignée par 287 auteurs de 143 laboratoires internationaux[5]. Et à l'image des anneaux de Saturne, les vues d'artiste représentent toujours une spirale convergente plane, et celle-ci est toujours accompagnée par un jet axial qui serait dû à un supposé champ magnétique induit par cette spirale ionisée.

Les enseignements de la photographie de l'objet M87*[1][3][2]

Or à travers les fausses couleurs de la photographie de M87*, l'effet Doppler dans le plasma montre pourtant très clairement qu'il s'agit là d'une sphère, et non pas d'un disque. En outre, la symétrie axiale permet d'identifier avec précision l'axe de la rotation, et l'antisymétrie axiale permet même de préciser le sens de la rotation[1].

Or apparemment, aucun membre du sérail n'a jamais remarqué le fossé qui sépare leur discours théorique de la réalité expérimentale, car ce n'est pas seulement une question de jargon communautaire.

Magnétisme[modifier | modifier le code]

Délocalisés ou pas, les électrons ont une masse, même si celle-ci est très faible. Dès lors, ils ont aussi une inertie, laquelle est utilisée en spectroscopie de masse pour mesurer leur rapport masse sur charge. Mais dans toute autre expérience, ces forces d'inertie sont toujours négligeables devant les forces électriques ou les forces électromagnétiques.

Schéma de la transformation d'un courant superficiel i0 en un courant circulaire iω[3]

Néanmoins dans toute grosse boule métallique tournante de dimensions astronomiques, à tous les sens du terme, une force axifuge s'exerce sur les électrons libres, et ses variations entre les pôles et l'équateur engendrent ainsi des courants superficiels en sens inverse du flux des électrons. Toutefois, la rotation de l'astre est beaucoup plus rapide que ces courants, et elle les transforme alors en courants circulaires, de sorte que l'astre devient ainsi un gigantesque solénoïde. Dès lors, tous les astres dotés d'un noyau métallique produisent un champ magnétique, mais avec les hétérogénéités des courants superficiels, son axe est plus ou moins aligné sur l'axe de rotation . C'est ainsi le cas de la Terre et du noyau terrestre en fer[3], ou encore des planètes géantes gazeuses avec leur noyau d'hydrogène métallique. Et c'est aussi le cas pour l'état métallique de toutes les étoiles denses en fin de vie, comme les naines blanches[1], et donc également pour le protonium des trous noirs [3]

Et lorsque ces trous noirs sont entourés par une sphère d'accrétion lumineuse, et non pas par un disque, l'axe de ce champ magnétique déforme alors ces gaz chauds ionisés. Malgré la complexité de l'environnement, cela apparait ainsi sur une photographie de blazar, comme un objet BL Lacertae.

Photographie du blazar BL Lacertae 0323+022*

Et sur la précédente photographie de M87*, on voit cette fois très clairement en face des flèches jaunes que cet axe magnétique est très différent de l'axe de rotation de la matière lumineuse. Et comme celle-ci a une symétrie de révolution, ce champ magnétique ne peut donc pas être induit par la rotation de la matière visible ionisée, mais uniquement par la rotation indépendante d'un astre central métallique[3]. Du reste, la densité de charge de ce plasma lointain est insignifiante par rapport à la densité électronique du protonium de l'astre central, et dans la force magnétomotrice d'un solénoïde, le nombre d'ampères-tours ne dépend pas du diamètre de l'enroulement.

Très concrètement, ce champ magnétique obligatoire d'un astre central métallique est donc également à verser au dossier du faisceau de présomptions.

Conséquences[modifier | modifier le code]

Instabilité potentielle des trous noirs trop massifs[modifier | modifier le code]

Dans ce qui précède, l'incompressibilité du protonium n'est en réalité qu'un effet au premier ordre dans le modèle de sphères dures de la cristallographie. Dans le protonium, en effet, la répulsion entre protons connait un saut d'intensité considérable entre, d'une part, la précédente répulsion coulombienne à "grande distance" dans l'hydrogène métallique ordinaire, et d'autre part dans un empilement désormais compact, la très rapide croissance de la force nucléaire à très courte distance, à l'image du potentiel de Rydberg entre nucléons. Mais tout comme un plasma chaud présente un seuil de température où les chocs entre protons finissent déclencher la fusion nucléaire, et donc thermonucléaire, il y a forcément un seuil de compression où le rapprochement statique entre protons finira lui-aussi par faire la même chose, et donc une fusion "baronucléaire". Or à force de voir la masse d'un trou noir augmenter indéfiniment, l'espacement entre les protons du cœur continuera quand même à diminuer très lentement. Dès lors, un trou noir devenu trop massif peut finir par devenir instable, avec ainsi une énorme explosion nucléaire de tout son centre, et donc par analogie avec le Big Bang, un vrai Big Boom[1]. Et en physique usuelle, rien n'interdit une telle explosion, et la compression de la matière fusible est justement le processus d'amorçage de toute bombe H, ou de sa simulation expérimentale dans le laser Megajoule.

Big Bang ou Big Boom[modifier | modifier le code]

Par hypothèse, et pour un trou noir originel de la masse estimée de notre Univers, la taille de son enveloppe de vide serait également proche de la taille estimée de l'Univers[1]. Et à l'inverse, la taille de son astre central dense resterait plus petite que le système solaire[2]. C'est donc très loin d'être un point, mais à cette échelle, ce n'est pas bien gros non plus. Or lors d'une explosion nucléaire de son centre, le reste des protons et des électrons serait alors éjecté à très grande vitesse, et avec forcément une isotropie imparfaite. Dès lors, l'état consécutif à un Big Boom originel serait très proche de celui décrit une seconde après le Big Bang dans le modèle standard de la cosmologie. Et le centre de gravité de l'astre explosé peut lui-aussi rendre compte d'une origine ponctuelle de toutes les trajectoires.

Et donc très paradoxalement, et en reprenant juste le modèle standard à partir de la première seconde, la physique usuelle peut elle-aussi rendre compte de l'expansion de l'Univers jusqu'à aujourd'hui, mais tout bêtement dans notre espace habituel à trois dimensions[2]. Or entre un néant originel immédiatement suivi d'une densité infinie, puis une inflation cosmique à une vitesse supérieure à celle de la lumière, cette première seconde est vraiment le maillon faible de ce modèle, et pour ne pas s'en apercevoir, il n'y a vraiment que des mathématiciens accrochés à un postulat devenu axiome.

Mais à  une seconde près, le fond diffus cosmologique reste bien dû à une explosion initiale, mais ce n'est plus tout à fait la même, et le domaine de validité des équations d'Einstein s'arrête ainsi aux densités permises par la physique expérimentale.

Quid de la réalité physique de l'espace-temps[modifier | modifier le code]

Jusqu'à présent, et tout comme pour l'effet de trou noir, la relativité générale était la seule hypothèse permettant d'expliquer toutes les observations expérimentales sur l'expansion continue de l'Univers, et dans les deux cas, cette absence d'alternative en faisait même un soutien expérimental indirect à une existence physique de l'espace-temps des équations. Mais en retour, de nombreuses difficultés de la cosmologie actuelle sont dues elles-aussi à ce cadre imposé de la relativité générale.

Or devant la combinaison nouvelle entre ces difficultés durables et cette apparition soudaine d'explications alternatives, on peut alors s'interroger légitimement sur la signification et le domaine de validité des fameuses équations d'Einstein, et donc sur le sens à donner à la relativité générale. En d'autres termes, l'espace-temps est-il un simple concept mathématique, ou a-t-il vraiment une réalité physique, et surtout, d'où tout cela vient‑il ?

L'espace-temps en deux temps[modifier | modifier le code]

La publication de 1915[modifier | modifier le code]

Dans cet article séminal, l'espace-temps n'était encore qu'un concept purement mathématique dans un outil de calcul particulièrement compliqué, et donc très impressionnant, mais uniquement destiné à quantifier une gravitation présumée dynamique, c’est-à-dire avec une vitesse de propagation finie. Et expérimentalement, ces calculs ont été immédiatement validés sur l'orbite atypique de Mercure, puis bien plus tard par la détection des ondes gravitationnelles. Mais dans les deux cas, et conformément à la publication de 1915, il s'agit là d'une interaction entre des masses.

La publication de 1917[modifier | modifier le code]

Dans ce second article de Janvier 1917, et d'après la liste des publications scientifiques d'Albert Einstein, l'hypothèse d'une réalité physique de cet espace-temps a ensuite été avancée, et avec cette fois une possibilité de confirmation expérimentale à travers la prédiction de lentilles gravitationnelles. Et à peine 16 mois plus tard en Mai 1919, cette prédiction quantifiée a été officiellement "validée" par le Britannique Eddington lors d'une éclipse solaire, c'est à dire six mois seulement après l'Armistice de 1918, et par un militant de la réconciliation avec les savants allemands. Et depuis, et même si l'observation a été maintes fois confirmée, les photographies historiques de cette éclipse solaire du 29 Mai 1919 constituent de facto l'unique support expérimental direct à une existence physique de l'espace-temps.

Or on va voir que dans son 'Vive Einstein" enthousiaste, le tout aussi jeune Eddington avait largement abusé de ses propos. En outre, son enthousiasme quelque peu intéressé était également très loin de faire l'unanimité en Grande Bretagne. Ainsi le déjà Sir Joseph Larmor était alors un physicien chevronné, et mondialement réputé, et lui ne croyait pas du tout à l'existence d'un espace-temps. En effet, disait-il, et à l'image de la vitesse immuable de la lumière en 1905, son bon sens éprouvait le besoin que le temps soit lui aussi immuable.

Mais d'après l'histoire de la relativité générale, elle et ses lentilles n'intéressaient pas grand monde à cette époque, et des décennies plus tard, tout cela avait été hélas oublié, ou réarrangé. Et comme souvent," l'histoire est écrite par les vainqueurs ", mais avec le recul, le roman national résiste rarement à un examen plus attentif.

La saga des lentilles gravitationnelles[modifier | modifier le code]

L'éclipse solaire de1919[modifier | modifier le code]

Entre 1905 et 1915, la nouvelle relativité restreinte de 1905 remettait ainsi en question la biséculaire Mécanique Newtonienne, et surtout son hypothèse d'une propagation instantanée de l'interaction gravitaire, c'est à dire à une vitesse infinie incompatible avec une vitesse de la lumière indépassable. D'où une réflexion collective intense sur divers degrés de supposés principes d'équivalence entre inertie, gravitation et énergie. Or dans sa tout aussi vieille théorie corpusculaire de la lumière, et en postulant un "impetus" à ces corpuscules, c'est à dire une quantité de mouvement, Newton avait de fait attribué une masse à ce qui n'était pas encore un photon sans masse. Ainsi dans sa seconde publication de 1917, peut-être sous l'influence de ces discussions récentes, ou faute d'autres points de repère, Einstein avait alors pris cette théorie dépassée de Newton comme base de comparaison. Et il avait ainsi montré que par la malice des calculs, la déviation prédite par sa nouvelle relativité générale était exactement le double de celle de Newton, même si les deux restaient très faibles, car de l'ordre de la seconde d'arc. Or avec ces premières mesures imparfaites, Eddington avait simplement montré que la prédiction d'Einstein était juste plus proche que l'autre. Et donc le bon accord quantitatif revendiqué à grand bruit était pour beaucoup du wishful thinking, ou pensée désidérative, et d'ailleurs, même Stephen Hawking l'avait reconnu en 1988 (voir Tests expérimentaux de la relativité générale). Mais quelles que soient les meilleures précisions ultérieures, et comme la théorie Newtonienne n'a plus cours, l'existence d'un espace-temps est de facto la seule explication jamais proposée pour ces déviations de rayons lumineux au voisinage d'une étoile.

Mais comme tout le monde était alors aveuglé par cette "prédiction théorique", personne n'a jamais songé à montrer que c'était là la seule explication possible, et dans l'euphorie générale, personne n'a osé objecter qu'une déviation de la lumière qui n'avait jamais été recherchée auparavant pouvait tout aussi bien être due à un phénomène optique encore inconnu, et d'ailleurs toujours absent de la liste des phénomène optiques. Or concomitance ne signifie pas causalité, et une absence de preuve n'est pas non plus une preuve d'absence, de sorte que personne ne peut réellement affirmer que la réalité physique de l'espace-temps ait jamais été expérimentalement confirmée (Cf. "le chagrin fait pleurer, les oignons aussi"[6]).

Or il en en subsiste aujourd'hui deux postulats subliminaux, à savoir :

  • tout ce qui est invisible ne peut être qu'un trou noir, puisque dans le principe de la relativité générale, le mécanisme de la rétention est le même pour la matière et pour la lumière. Or juste avant le nouveau seuil de masse, les étoiles en fin de vie sont déjà très denses, et elles sont déjà bien trop petites pour être visibles de loin.
  • toute déviation de rayon lumineux ne peut être due qu'à une lentille gravitationnelle, puisque l'on n'a jamais recherché d'autres explications, ne serait-ce que pour les éliminer. Et donc "axiomatiquement", on utilise aujourd'hui les déviations pour détecter ou estimer des masses.

Mais comme déjà dit, relativité et lentilles n'intéressaient personne à l'époque, et c'est ainsi pour tout autre chose qu'Albert Einstein avait reçu le Prix Nobel de Physique en 1921.

La renaissance des lentilles[modifier | modifier le code]

En 1937, l'astronome Fritz Zwicky avait tout naturellement étendu ce concept de lentille gravitationnelle à des galaxies tout entières. Mais comme souvent, il a encore fallu attendre 40 ans pour que cela soit cela observé sous la forme de lentilles gravitationnelles fortes, car les effets observés autour de ces objets colossaux sont forcément bien plus forts. Par contre, avec des objets globaux comme les galaxies, quasars, blazars et autres nuages interstellaires compliqués, leur structure est éminemment composite, de sorte que l'origine réelle de l'effet y est impossible à prouver. En revanche, et autour d'objets individuels simples, les lentilles gravitationnelles faibles sont beaucoup plus difficiles à observer, et on oublie ainsi souvent de rappeler qu'elles n'ont été observées qu'autour des seules étoiles visibles, mais jamais autour des trous noirs invisibles pourtant beaucoup plus massifs.

Quant aux supposées microlentilles gravitationnelles sans déviation détectable, une simple variation de luminosité pendant un transit peut aussi avoir une multitude d'autres causes potentielles. Mais dans la même certitude apprise sur les bancs de l'école, et dans une publication de 2021, l'Université de Berkeley a officiellement identifié 1200 candidats pour traquer la matière noire au cœur des galaxies les plus lointaines.

En revanche, la masse est tellement au cœur de la relativité générale que personne ne s'est jamais interrogé pour savoir si cette déviation de la lumière est bien due à la masse.

Différence entre une étoile et un trou noir[modifier | modifier le code]

Une différence hors de portée de la relativité générale[modifier | modifier le code]

Hormis la charge électrique et le moment cinétique, la relativité générale ne connait en effet que la masse, et pour les trous noirs, elle l'a même mathématiquement démontré avec le théorème de calvitie. En conséquence, elle ne connait ni la densité ni la gravité de surface, alors que ce sont là les fondements de la nouvelle explication des trous noirs en physique usuelle.

Effacement du rôle de la masse[modifier | modifier le code]

Pour comparer avec les petits trous noirs stellaires ou les sensiblement plus gros trous noirs intermédiaires, et d'après la liste des étoiles les plus massives, la masse maximale observée à ce jour pour une étoile est de 315 M . Dès lors entre 2,5 et 315 M , ce qui différencie un trou noir d'une étoile visible est uniquement la température, la densité et la taille, et donc la gravité de surface. Or contrairement aux trous noirs, et à l'image des atmosphères planétaires, rien n'interdit à certaines étoiles d'avoir une atmosphère d'hydrogène qui soit à la fois plus ou moins froide, dense, épaisse et invisible. Pour autant, ce concept d'atmosphère froide invisible est certes classique en planétologie , mais il n'est en fait jamais considéré pour toutes les atmosphères stellaires. Néanmoins dans une telle atmosphère dense, la présence à la fois de gradients de densité et de gradients de température se traduiraient automatiquement par des gradients d'indice de réfraction. Et comme sur Terre, la présence de gradients d'indice tout au long de très longs trajets optiques ne peut qu'engendrer des phénomènes de mirages, et donc en l'occurrence, des mirages stellaires [2]. Or quoi de plus simple qu'un phénomène optique pour expliquer la déviation de rayons lumineux.

Un rôle de plus pour la gravité de surface[modifier | modifier le code]

Par référence à notre système solaire familier, le maintien de toute atmosphère résulte de la concurrence entre la gravité de surface et l'érosion du vent solaire. Et entre la Lune et Mars, le seuil de gravité nécessaire au maintien d'une atmosphère froide se situe ainsi entre 0,2 et 0,3 g.

Par ailleurs, la gravité de surface des étoiles varie sur une plage allant de 0,01 à 30 g[7], de sorte que la moitié de cette plage pourrait correspondre à une atmosphère complètement insoupçonnée, car froide et transparente. Et avec 28 g et son rayon R de 700 000 km, le Soleil se trouve être l'une des étoiles pour lesquelles un mirage stellaire est des plus probables. En effet, le seuil de gravité n'est atteint qu'à la distance de 10 R, et entre 1 R et 5 R, la gravité locale dépasse la gravité de surface sur la Terre. Et en 1919, tous les rayons déviés étaient passés entre 2 et 5 R

Or les spécialistes des atmosphères planétaires ne se sont sans doute jamais penchés sur le cas du Soleil, et les divers spécialistes du Soleil n'ont sans doute jamais rien lu professionnellement sur le contenu de cette rubrique Wikipedia. Dès lors, chaque spécialité a qualifié ses propres observations d'atmosphère solaire, alors que ce n'en sont au plus que l'une des strates.

En effet, l'atmosphère de loin la mieux connue est l'atmosphère terrestre, et ses diverses strates aux régimes thermiques si différents. Or depuis l'allumage de l'étoile, et par définition, l'atmosphère solaire est une transition continue entre l'extrême dilution et les quelque K du nuage de gaz originel et la très grande densité et les millions de K du plasma chaud au centre. Et donc la même stratification opère forcément autour du Soleil, et elle passe nécessairement par une atmosphère gazeuse plus ou moins refroidie d'hydrogène moléculaire.

Domaine de stabilité potentielle pour une atmosphère dense froide autour du Soleil

Reconstitution des diverses strates de l'atmosphère solaire[modifier | modifier le code]

1re strate : la photosphère[modifier | modifier le code]

Avec ~ 6 000 K, la photosphère est la surface visible du Soleil, et cette couche de gaz très chaud est à l'origine de la plupart des raies spectrales du rayonnement solaire, dites raies de Fraunhofer. Ces raies d'adsorption comporte les 4 raies caractéristiques de l'atome d'hydrogène, mais aussi celles d'éléments beaucoup plus lourds allant jusqu'au fer. Ceci montre ainsi à la fois qu'il y a encore du carburant hydrogène, mais aussi que toutes les phases successives de la fusion nucléaire ont déjà commencé au cœur du soleil.

Spectre d'émission de l'hydrogène et couleur de la lampe à hydrogène

2e strate : la chromosphère[modifier | modifier le code]

Avec ~ 4 000 K et ~ 2000 km, la chromosphère est une très mince couche de gaz déjà refroidie. Sa couleur rose caractéristique est celles des lampes à hydrogène, et elle est due à la superposition du rouge et du bleu des deux raies d'émission principales de l'atome d'hydrogène. Ces raies d'émission visibles en coronographie restent ainsi compatibles avec la dominance des raies d'absorption dans le rayonnement global, et avec des strates extérieures d'hydrogène froid.

3e strate : la couronne lumineuse[modifier | modifier le code]

La couronne solaire s'étend officiellement sur plusieurs millions de km autour du Soleil, mais la partie lumineuse sur seulement 700 000 km, soit un rayon solaire. Et après une inversion inexpliquée du gradient de température, on rapporte aussi un maximum de température de 2 à 5 millions de K selon les rubriques Wikipedia, mais tout aussi inexpliqué.

Dans ces trois strates, les densités de particules rapportées sont extrêmement faibles, avec ainsi dans la couronne lumineuse, un milliardième de celle régnant à la surface terrestre. Par contre, ce ne sont sans doute là que des particules chaudes, car les physiciens des plasmas n'envisagent jamais de coexistence avec un milieu froid. Or c'est pourtant déjà le cas dans les lampes à décharge à haute pression, alors que la présence de ce gaz froid n'apparait pas dans le rayonnement de la lampe. D'où comme dans toute communauté fermée de spécialistes par trop spécialisés, un évident panurgisme induit par la consanguinité des acteurs.

4e strate : le chainon manquant d'une atmosphère d'hydrogène dense et invisible.[modifier | modifier le code]

En effet, l'hydrogène est un gaz très bon conducteur de la chaleur (7 fois plus que l'air), et ce n'est pas un gaz à effet de serre, car comme tous les gaz diatomiques, il absorbe très peu le rayonnement infra-rouge. Dès lors, cette dernière strate se trouve être très peu chauffée par l'intérieur et très bien refroidie par l'extérieur. Et comme la gravité y varie entre 1 et 7 g entre 5 R et 1 R, sa pression pourrait y atteindre de un à plusieurs bars. Or il ne peut pas y avoir de discontinuité dans un gaz, et ce même gaz invisible est forcément déjà présent dans les 2e et 3e  strates.

En particulier, cette comparaison brute entre deux densités de particules n'a strictement aucun sens en thermodynamique. Ainsi pour des particules diluées assimilables à un gaz parfait relevant de la loi de Boyle-Mariotte (N/V =P/RT), cette densité à chaud correspond en réalité à une pression de 0,1 millibar, soit tout juste le vide primaire des laboratoires. De même, une pression partielle de 0,1 mbar de gaz chaud n'empêche pas la présence parallèle d'une pression totale très supérieure d'un gaz froid. Simplement, un tel mélange n'est pas stable, car le gaz chaud se refroidira très vite et le gaz froid se réchauffera à l'avenant. Et donc un tel état stationnaire implique juste le renouvellement permanent du gaz chaud à partir du Soleil, ainsi que l'évacuation permanente de sa chaleur vers l'espace.

Or qui dit conduction thermique dit aussi gradient de température. Ainsi, cela pourrait déjà expliquer une perte moyenne de 2000 K dans la chromosphère, même si avec l'inversion, cela ne fait guère que ~ 0.5 K/km. En apparence, ceci pourrait sembler très peu en regard des 6,4 K/km de notre troposphère familière sur Terre, mais compte tenu de la conduction thermique accrue, la densité de flux thermique ne serait pas si différente.

Par ailleurs, et par définition, le vent solaire qui s'échappe a traversé cette atmosphère d'hydrogène sans y être absorbé. Mais non moins par définition, une partie des particules émises par le Soleil y a été entièrement absorbée. Dès lors, l'échauffement provoqué par un début de freinage pourrait expliquer tout à la fois la couleur rose de la chromosphère, un gradient de température anormalement faible, puis une inversion de son sens de variation.

Enfin dans le pouvoir d'arrêt des rayonnements ionisants, l'intensité du freinage augmente toujours avec le ralentissement, jusqu'à l'arrêt final. Et donc à l'image d'une chambre à bulles, le freinage de ces particules échauffe de plus en plus les molécules d'hydrogène se trouvant sur leur trajectoire. D'où d'abord l'inversion de température, puis le pic à quelques millions de K, puis la disparition progressive de toute luminosité. Et donc la densité mentionnée pour la couronne est juste une densité de particules du vent solaire, et non pas une densité de l'atmosphère. Et d'ailleurs sur la photo de la couronne lumineuse, on observe un très net maximum de luminosité à mie-épaisseur. Et donc en présence d'un inévitable spectre d'énergie dans les particules émises par le soleil, ceci serait ainsi la signature soit d'un pic d'échauffement dans la zone des ralentissements les plus intenses, soit la traduction directe d'une distribution d'énergie en une distribution de distances d'arrêt. Et dans toutes les photos de profil, la couronne solaire présente justement une texture de fourrure, et dont les poils radiaux seraient autant de traces de freinage des faisceaux de particules stoppées.

Lentille gravitationnelle ou mirage stellaire[modifier | modifier le code]

Au total, la vraie atmosphère solaire de la figure est constituée d'une seule phase d'hydrogène gazeux allant de 5000 K à quelques K en température, et de 1 à 10 R en extension. De 1 à 2 R, les phénomènes lumineux sont dus à l'absorption de rayonnements ionisants, et entre 2 et 5 R en 1919, l'épaisseur et la densité du gaz traversé ne pouvait qu'engendrer des phénomènes de mirages.

Or entre lentille gravitationnelle et mirage stellaire, les variations radiales de la déviation des rayons lumineux sont nécessairement différentes, mais en dessous de deux secondes d'arc, est-ce mesurable, voire vérifiable rétroactivement ?

Et pour mémoire, galaxies, quasars, blazars et nuages interstellaires complexes contiennent également d'énormes épaisseurs de gaz à traverser, et elles-aussi particulièrement hétérogènes. Et donc l'alternative d'un mirage stellaire n'est pas réservée aux seules étoiles.

En particulier, l'apparence d'une ombre centrale dans l'image de M87* peut également s'expliquer par un effet de lentille optique à travers l'inévitable partie transparente invisible de toute sphère d'accrétion[2]. Et là, on parle de gradients de densité sur des épaisseurs de gaz en centaines de milliards de km, alors qu'avec un diamètre de seulement 38 000 km, son astre central ne peut clairement pas faire d'ombre, et pas plus le vide absolu qui l'entoure sur une épaisseur de 20 milliards de km.

Possibilités de validation[modifier | modifier le code]

Tout d'abord, on peut noter que dans cette possibilité nouvelle de deux explications alternatives, chacune est exclusive de l'autre. Dès lors, la validation ou l'invalidation de l'explication des trous noirs selon la physique usuelle invalidera ou validera symétriquement leur précédente explication selon la relativité générale. Et donc l'enjeu n'est pas mince.[1][2][3]

Validation par l'observation[modifier | modifier le code]

La détection de l'atmosphère des exoplanètes utilise la spectroscopie d'adsorption du rayonnement de l'arrière-plan lors d'un transit, et la même méthode peut donc être utilisée pour le Soleil et les étoiles candidates. Or jusqu'à présent, personne ne s'était jamais posé la question, et donc personne ne l'a sans doute jamais fait.

Dans la classification des étoiles par type spectral, le rayonnement des étoiles oranges et rouges est cependant le seul à ne pas déjà comporter des raies d'absorption de l'hydrogène, et il peut alors être utilisé pour tester la présence d'une atmosphère transparente d'hydrogène autour du Soleil, ou de toute autre étoile naine jaune. Et dans les deux cas, l'exceptionnelle luminosité des géantes rouges en fait l'arrière-plan idéal.

Validation par la modélisation[modifier | modifier le code]

En optique, l'indice de réfraction n d'un milieu transparent est le résultat de l'interaction de l'onde électromagnétique avec la quantité cumulée d'électrons rencontrée dans la matière traversée, et c'est ainsi le rapport entre la vitesse de la lumière c dans le vide et sa vitesse v dans le milieu transparent, soit n = c/v et n > 1. En laboratoire, n dépend ainsi très directement de la densité du milieu et de la configuration électronique des entités rencontrées. Et donc même à pression atmosphérique, le n-1 des gaz est très faible, ~ 3 10-4 pour l'air, et encore 8 fois moins pour l'hydrogène. Or dans un contexte spatial, la densité peut encore diminuer, mais les épaisseurs traversées augmentent considérablement, de sorte qu'il existe nécessairement une relation densité-épaisseur séparant du quasi vide et un milieu optiquement actif.

Et aujourd'hui les progrès de la photonique permettraient certainement de modéliser l'indice de réfraction d'une atmosphère d'hydrogène à différentes P et T, et même de déterminer ce seuil d'activité optique. De même, la modélisation des lentilles à gradient d'indice peut facilement être étendue à la quantification de la capacité de déviation d'un mirage stellaire. Et donc la chainage des deux permettrait de quantifier différents scénarios de profils P et T, à l'image des formules de nivellement barométrique sur terre[2].

Enjeu[modifier | modifier le code]

Si une atmosphère solaire invisible arrive à être positivement identifiée, ou une première atmosphère stellaire, alors le concept de lentille gravitationnelle cessera immédiatement d'être expérimentalement validé faute de mieux par les éclipses solaires. Et si la capacité de déviation d'un mirage stellaire est positivement établie, alors il deviendra même expérimentalement contredit par l'absence de déviation autour des trous noirs simples.

Dès lors, la relativité générale redeviendrait ce qu'elle était en 1915, à savoir la quantification d'une gravitation à vitesse de propagation finie, mais c'est surement beaucoup moins exaltant que la relativité générale généralisée de la publication de 1917. En particulier, adieu espace-temps physique, Big Bang, multivers, constante cosmologique, problème de la platitude, densité critique, etc, etc

Mais à l'inverse, cela absoudrait aussitôt tous ceux qui n'ont jamais pu trouver une gravité quantique qui n'existait pas, ou encore un univers chiffonné qui n'existait pas plus.

Et cela ouvrira également d'immenses champs de recherche vierges pour reprendre à zéro toutes les précédentes difficultés de la cosmologie selon la relativité générale, et à commencer par les deux mystères récurrents de la matière noire et de la masse manquante. . En particulier, la cinétique de l'expansion ne concerne que des masses, et le mouvement de ces masses reste donc régi par un espace-temps mathématique. Et avec une telle multitude d'énormes masses dispersées, celui-ci ne serait plus "chiffonné", mais complètement "cabossé" de partout. Et donc la disparition des lentilles gravitationnelles et du Big Bang changerait certes les outils, mais pas le problème

Or en attendant une validation plus formelle, cette nouvelle explication des trous noirs selon la simple physique usuelle ne souffre à ce jour d'aucune contradiction expérimentale[1][2][3], et sur plusieurs points jusque-là pudiquement occultés, elle a même une capacité explicative bien supérieure à celle en vigueur jusque-à. Et dans l'habituelle approche holiste des systèmes complexes, elle est même la seule à pouvoir tout expliquer d'un coup.

Et donc wait and see ...

  1. a b c d e f g h i j k l m n o et p (en) J. L Crolet, B. Kermani et J. L. Benoit-Guyod, « Application of materials science to celestial matter, I : End-of-life stars and black holes », Exploratory Materials Science Research, vol. 2, no 2,‎ , p. 77-107 (DOI 10.47204/EMSR.2.2.2021.077-107)
  2. a b c d e f g h et i (en) J. L Crolet, B. Kermani et J. L. Benoit-Guyod, « Application of materials science to celestial matter, II : Gravitational lensing, event horizon and Big Bang », Exploratory Materials Science Research, vol. 2, no 2,‎ , p. 108-130 (DOI 10.47204/EMSR.2.2.2021.108-130)
  3. a b c d e f g et h (en) J. L Crolet, B. Kermani et J. L. Benoit-Guyod, « Application of materials science to celestial matter, III : Geomagnetism, astromagnetism and Earth's internal heat source », Exploratory Materials Science Research, vol. 2, no 2,‎ , p. 131-156 (DOI 10.47204/EMSR.2.2.2021.131-156)
  4. (en) Kip Thorne, Black Holes and Time Warps: Einstein's Outrageous Legacy, W.W. Norton, , 619 p. (ISBN 978-0-393-31276-8), « Chap. 4 - The Mystery of the White Dwarfs »
  5. (en) EHT Collaboration, « First M87 Event Horizon Telescope Results. I. The Shadow of the Supermassive Black Hole », The Astrophysical Journal Letters, vol. 875, no L1,‎ (DOI 10.3847/2041-8213/ab0ec7)
  6. Steven Pinker, Comment fonctionne l'esprit, Paris, Odile Jacob, , 680 p. (ISBN 978-2-7381-8359-0), p. 87 , La computation naturelle
  7. Erreur de référence : Balise <ref> incorrecte : aucun texte n’a été fourni pour les références nommées :3