Une discution sur la génèse du monde, évidement incomplète, ou comment trouver un cheminement conceptuel simple passant par des étapes intermédiaires et aboutissant aux équations du monde en vogue actuellement. Un parallèle entre la didactique et le mythe, sur l'intelligibilité du monde en procédant à des analogies que seuls portent les rêves capables de mettre à égalité tous les égos et de transcender toutes les frontières. Un ordonnancement de nos connaissances en un fil conducteur, en une chaine causale où chaque principe découle de source. Une reformulation des fondements de la physique à la lumière des connaissances d'aujourd'hui dans un esprit ouvert qui se veut démocratique.
On y discute des mathématiques, de leurs rôles dans la conception du monde intelligible et de la forme des équations physiques qui doivent être homogènes, comprenant plusieurs espèces ou dimensions, conceptualisant des espaces. On propose différentes conceptions du temps. On présente ce qu'est un signal périodique et sa décomposition en sommes de ses harmoniques, que l'on promeut comme principe de la constance et de l'état d'équilibre. Puis on traite des ondes, de l'échange d'information et de la quantification, pour aboutir aux ondes éléctromagnétiques et aux photons dans le vide, qui, tel le Lapin blanc, nous ouvre un chemin tout tracé aux pays des merveilles, pour y découvrir la relativité générale, les forces électriques, la mécanique, les invariants, les équations de Maxwell-Lorentz, à une, deux, trois, puis quatre dimensions, la relativité restreinte, la notion de repère et les symétries de l'univers, et la mécanique quantique, le tout en une présentation didactique se voulant être capable de se dispenser de connaissance préalable, ordonnançant les concepts en une génèse sans rupture ni à-coups en exposant à chaque étape les principes du paradigme.
Les structures mathématiques on l'air d'exister indépendament du monde, comme si elles pré-existaient, et donnaient alors au monde une contrainte à la fois innée et immanente, car elles semblent bien propre à la nature du monde. Et ce sont les structures mathématiques de corps et d'espace qui vont jouer un rôle prédéterminant dans cette première phase de la génèse que nous explorons par notre intuition.
Mais la nature du monde est assurément plus complexe puisqu'elle doit ce justifier par elle-même dans un processus que nous tentons d'éclairer. Il n'en reste pas moins que les outils mathématiques connus vont nous permettre d'approcher cette complexité. Et on commence par le groupe libre monogène, constituant les entiers relatifs `ZZ`, une construction itérative à partir d'une unité, et qui s'étend en le corps des rationnels `QQ`, puis en le corps des réels `RR`, puis en le corps des complexes `CC`, puis en le corps non-commutatif des quaternions `bbbH`.
Le signal est ce qui porte l'information, tel un message, et l'idée de constance ou d'état d'équilibre se traduit par la répétition du même message indéfiniment. Ce qui nous amène tout naturellement à concevoir comme première étape d'intelligibilité du monde, le concept de signal périodique qui s'écoule à travers le temps.
Cela désigne deux espèces ou dimensions, l'espèce désignant le temps qui est noté `sfT`, et l'espèce désignant la valeur du signal qui est un potentiel et qui est noté `sfP`. Et pour chacune de ces espèces, il convient de définir une unité, ce que fait le système international d'unité, en définissant la seconde notée `"s"` pour le temps, et le volt noté `"V"` pour le potentiel. Ces unités, tels des objets mathématiques, se comportent alors comme des éléments générateurs de structures mathématiques, formant une sorte de squelette révèlant l'intelligibilité du monde physique.
On représente le temps par l'axe `"s"RR`. Une valeur de temps `t` est le produit de l'unité `"s"` par un nombre réel sans unité. On représente le potentiel par l'axe `"V"RR`. Une valeur de signal à un instant `t` est le produit de l'unité `"V"` par un nombre réel sans unité. Le signal évolue en fonction du temps. Il est représenté par une variable d'état fonction de `t` exprimé en seconde, que l'on note `U(t)` et qui est exprimé en volt.
Si on s'est fixé un système d'unité cohérent et que les équations sont bien homogènes, il est alors possible de faire abstraction des unités, puisqu'il est possible de les retrouver, ce qui se fait dans la pratique. Mais dans notre phase de recherche, il est plus judicieux de les introduire de façon formelle comme des éléments mathématiques susceptibles de construire toutes sortes de structure mathématique.
Le choix de `RR` est arbitraire. On a choisit la structure monogène la plus libre, la plus simple et la plus complète par simplicité abstractive dans le but de pouvoir circonscrire la réalité par une structure mathématique plus vaste qu'elle. Et les premières variantes qui seront envisagées remettrons en cause le caractère infini inné de ces structures quelque peu incompatible avec le concept de génèse. Puis la relativité générale perfectionnera ces structures initialement rigides en les déformant.
Un signal périodique quelconque `U(t)` se décompose en la somme infinie de ses harmoniques entiers `0, 1, 2, 3, 4,...` appelée somme des harmoniques ou série de Fourier du célèbre mathématicien français Joseph Fourier (Auxerre 1768 - Paris 1830) :
`U(t) = a_0 + a_1sin(α_1 "+" omega t) + a_2sin(α_2 "+" 2omega t) + ... + a_nsin(α_n "+" n omega t) + ...`
Un signal est périodique s'il possède une période `T` c'est à dire s'il se répète à l'identique après chaque intervalle de temps `T`. Quelque soit le temps `t` nous avons :
`U(t"+"T)=U(t)`
Un tel signal se décompose en la somme de ses harmoniques.
Chaque harmonique est un signal sinusoïdal caractérisé par une amplitude `a` exprimée en unité de signal, une phase `α` exprimée en radian, et un numéro `n` de l'harmonique déterminant sa fréquence `n"/"T` et donc sa vitesse angulaire `n omega`, ce qui s'écrit par une fonction du temps `t` comme suit :
`asin(α "+" n omegat)`
Chaque harmonique ou composante est ainsi une sinusoïde déterminée par deux nombres que sont son amplitude `a` et sa phase initiale `alpha` que l'on regroupe en un nombre complexe appelé pôle et noté de façon polaire `[a,alpha]`.
La décomposition d'un signal périodique `U(t)` de période `T` en la somme de ses harmoniques s'écrit comme suit :
`U(t) = a_0 + sum_(n=1)^(oo) a_n sin(α_n"+" n omega t)`
`omega=(2pi)/T`
`t` : Temps.
`U(t)` : Valeur du signal `U` à l'instant `t`.
`T` : Période du signal `U`. Quelqe soit `t`, nous avons : `U(t"+"T)"="U(t)`.
`1"/"T` : Fréquence de l'harmonique fondamental.
`omega` : Vitesse angulaire de l'harmonique fondamental exprimée en radian par unité de temps.
`n` : Numéro de l'harmonique.`a_0` : Composante continue.
`a_1sin(α_1 "+" omegat)` : Harmonique `1`, harmonique fondamental de vitesse angulaire `omega`.
`a_2 sin(α_2"+" 2omega t)` : Harmonique `2` de vitesse angulaire `2omega`.
`a_n sin(α_n"+" n omega t)` : Harmonique `n` de vitesse angulaire `n omega`.
`a_1` : Amplitude du premier harmonique.
`α_1` : Phase du premier harmonique exprimée en radian.
`a_n` : Amplitude du `n`-ième harmonique.
`α_n` : Phase du `n`-ième harmonique exprimée en radian.
`[a_n, alpha_n]` : Pôle du `n`-ième harmonique.
Dans la nature, le signal électromagnétique se manifeste sous forme de photon et pour chaque fréquence `nu` le photon possède une énergie `hnu`. Ainsi, si l'on se restreint à un intervalle de fréquence correspondant à notre échelle de temps et à notre champ de vision, il ne peut y avoir qu'un nombre fini de photons et donc qu'un nombre fini de sinusoïdes.
C'est en constatant que la somme de deux signaux sinusoïdaux de même fréquence produit un signal sinusoïdal de même fréquence, et que toute décomposition d'un signal périodique de période `T` en une somme finie de signaux sinusoïdaux ne comprend nécessairement que des signaux sinusoïdaux dont la période est une division entière de `T`, c'est à dire dont la fréquence est un multiple de `1"/"T`, que l'on démontre la forme de cette décomposition, en somme des `N` premiers harmoniques, pour tous tels signaux de période `T` ne possédant pas de composante de fréquence supérieure à `N"/"T`.
Cette nouvelle espèce qu'est la valeur du signal, appelé aussi champ, ou potentiel, n'est pas à proprement parler une dimension, ou en tout cas, pas encore. Elle possède un état d'équilibre à zéro, qui représente une sorte d'énergie nulle avant même de concevoir ce qu'est l'énergie. C'est pourquoi, on ne considère pour l'instant que des signaux centrée autour de zéro, c'est à dire avec `a_0=0`. Ainsi, au premier jour il n'y a pas de composante de champ continue.
La génèse ne s'accomode pas avec l'infini qui reste toujours qualifié d'inné ou de potentiel donc d'inachevé. Or, chaque étape de la génèse doit constituer un tout cohérent liant l'infiniment petit à l'infiniment grand. Un moyen de contourner cette difficulter est de relier les deux bouts du temps..., de considérer un temps cyclique, qui tourne en rond, répétant indéfiniment tout ce qui se déroule en un cycle monde.
Dans une telle hypothèse, un principe de justice immanente doit permuter les âmes pour que ce ne soit pas toujours les mêmes âmes qui vivent les bonheurs et les malheurs des destinées figées dans le temps. Puis on ne peut concevoir quelque chose qui soit indéfiniement répétitif, ce serait un non-sens qui supprimerait la justification de l'existant.
Et à chaque cycle de temps, le cycle s'agrandit, et les destinées changent. Le signal `U(t)` devient fonction d'un second paramètre temporelle qui est le nombre de cycles `U(n,t)`. Et la même problématique se repose avec ce second paramètre. À part que les lois du monde que nous recherchons ne s'appliquent que localement dans un cycle, pouvant lier l'infiniment grand représantant le cycle, à l'infiniement petit représentant la plus petite information circulant dans l'univers tout en restant dans un même cycle.
Quelque soit l'option choisie, en dehors de l'infiniment petit et de l'infiniment grand apparait un domaine dit classique où les lois de Galilée et de Newton sont observées, et qui mettent en exergue un principe d'égalité des subjectivités, et donc un principe de relativité des observateurs et des repères. Et il se décline, même à ce stade où il n'y a que le temps comme espace. L'instant `t"="0"s"` n'a rien de particulier. L'instant `t"="0"s"` est l'instant zéro pour un observateur. Et cet observateur constitue ce que l'on appelle un repère.
Pour la dimension du potentiel, il n'en est pas ainsi car le potentiel zéro joue un rôle particulier, une sorte de barycentre.
Le théorème de l'échantillonnage est découvert en 1927 par Harry Nyquist (1889 Suède - 1976 Texas), ingénieur suédois, et est démontrée mathématiquement en 1949 par Claude Shannon (1916 Petoskey, Michigan - 2001 Medford, Massachusetts), ingénieur et mathématicien américain.
Un signal ne contenant pas de fréquence supérieure à `f` peut être échantillonné à la fréquence `2f` sans qu'il n'y ait aucune perte d'information.
La plus petite fréquence `f` telle que toutes les composantes du signal de fréquence supérieure ou égale sont nulles, s'appelle la fréquence de Nyquist. L'échantillonnage peut se faire à une fréquence `2f` sans qu'il n'y ait aucune perte d'information. Le signal est échantillonné avec un pas de temps `dt = 1"/"(2f)` qui peut alors constituer un quanta de temps. Le signal est échantillonnée en `K` valeurs de temps :
`0,1/(2f),2/(2f),3/(2f),...,(K-1)/(2f)`
Donc le signal avec sa composante continue, est déterminé par `K` paramètres réels que sont la valeur du signal à ces différents instants. Et le signal dure `T=K"/"(2f)` car chaque échantillon est pris au centre d'un intervalle de temps de `1"/"(2f)`.
Tous se passe comme si le signal commençait à l'instant `-1/2"·"1/(2f)` et se terminait à l'instant `K/(2f)-1/2"·"1/(2f)`.
Celui-ci peut être analysé en le répétant et en le transformant ainsi en signal périodique de période `T`. Mais il faut noter que cette coupure du signale au bout de l'instant `T` ainsi que la répétition va modifier les valeurs du signal principalement sur les bords, et correspondra à une quantification de la fréquence sur un pas de fréquence de `1"/"T`.
Dans le cas où le signal est transmis en modulant une fréquence porteuse (cas de la radio), la démodulation qui consiste à enlever la fréquence porteuse, restituera le signal intégrallement à condition que la fréquence maximale du signal ne dépasse pas la moitié de celle de la porteuse.
Dans le cas général et d'un point de vue mathématique, les échantillons n'ont pas besoin d'être régulièrement espacés et l'absence de basse fréquence réduit encore le nombre d'échantillons nécessaires :
L’échantillonnage d'un signal exige un nombre d'échantillons par unité de temps supérieur au double de l'écart entre les fréquences minimale et maximale qu'il contient.
Lorsque le signal est périodique, de période `T`, on obtient une seconde description du signal sans perte d'information qui est donnée par son spectre nativement échantillonné avec un pas de fréquence `dnu = 1"/"T` constituant un quanta de fréquence. Le signal se décompose en la sommes de ses harmoniques. Les fréquence sont des multiples de la fréquence de l'harmonique fondamentale qui est égale à l'inverse de la période `1"/"T`, et qui est la fréquence la plus basse présente dans le signal.
Chaque harmonique possède une fréquence qui est un multiple entier de la fréquence fondamentale `1"/"T`, jusqu'à une valeur `f` égale à la fréquence de Nyquist qui est la première composante de fréquence à partir de la quelle toutes les composantes de fréquence supérieure ou égale sont nulles.
Dans notre approche fondamentale, nous considérons la borne de fréquence juste inférieur à la fréquence de Nyquist, qu'est la fréquence la plus élevée des photons en présence, et que nous appelons `f_"max"=f-df`, où `df` désigne une valeur infiniment petite. Donc, dans les faits, c'est la même fréquence, à part qu'il faut ajouter aux `K` paramètres réels constituant l'échantillonnage du signal, de nouveaux paramètres pour déterminer la sinusoïde de fréquence `f` en question. Il faut connaitre l'amplitude ou la phase initiale de cette composante, car si on fixe l'un, l'échantillonnage du signal permet de déterminer l'autre. Ainsi, le signal avec sa composante continue, est déterminé par `K"+"1` paramètres réels que sont la valeur du signal sur les `K` échantillons auxquels on joute un paramètre, l'amplitude où la phase initiale de la sinusoïde de fréquence `f`.
Puis on passe de l'échantillonnage du signal à l'échantillonnage du spectre du signal. Le spectre du signal est échantillonnée nativement en `N` composantes de fréquence, chacune comprenant une amplitude et une phase initiale, et on enlève la composante continue :
`1/T,2/T, 3/T,..., N/T` avec `N/T=f`
Donc le spectre du signal est déterminé par `2N` paramètres réels. Et il faut ajouter un paramètre réel supplémentaire pour déterminer la composante continue. Ainsi le signal avec sa composante continue, est déterminée par `2N"+"1` paramètres réels que sont l'amplitude et la phase initiale des `N` composantes de fréquence auxquels on ajoute le paramètre déterminant la composante continue.
Comme `T=K"/"(2f)` on a `2N=K`. On en conclut que le signal est déterminé par le même nombre de paramètres réels dans l'échantillonnage en volume que dans l'échantillonnage en fréquence.
On verra dans la partie suivante que le spectre d'un signal réel périodique possède une symétrie : Quelque soit l'entier `n` compis entre `1` et `N-1`, les composantes de période `n"/"T` et `(N-n)"/"T` c'est à dire les composantes de fréquence `(n"/"N) f` et `((N-n)"/"N) f` ont même amplitude et ont une phase opposée :
`AA n in {1 ".." N-1},`
`a_("("N-n")")=a_n`
`alpha_("("N-n")") = -alpha_n`
Les signaux réels périodiques n'ont donc besoin que de la moitier de l'ensemble des paramètres réels décrit précédement pour être déterminées.
Qu'est-ce qu'un invariant ? Dans un monde d'apparence cahotique, l'invariant est ce qui perdure à travers le temps. C'est dans l'ordre de simplicité : la constante, puis ce qui réapparait périodiquement, puis de ce qui réapparait selon une loi invariante, et c'est alors la loi qui est constante. La recherche des invariants est à la base de la psychogénèse et des sciences en générale.
Imaginons qu'un signal non-périodique contienne une composante de fréquence `f` inconnue. On écoute le signal pendant un temps `T` et on essaye de découvrir `f` à partir de cet extrait. On a donc coupé le signal et perdu de l'information. Si le signal dure qu'un temps `T`, alors il n'est pas périodique.
Il existe plusieurs façons empirique de le rendre périodique. La première façon la plus simple consiste à répéter le signal. La seconde façon consiste à répéter l'opposé du signal. La troisième façon consiste à répéter le signal en inversant le sens du temps, et la quatrième façon consiste à répéter l'opposé du signal en inversant le sens du temps. Ces constructions s'apparentent à des effets de miroirs. Le signal résultant doit être analytique. L'équation d'un choc n'est pas analytique, pour le rendre analytique, on détaille le choc en une interaction progressive et analytique. Ici on fait la même chose en enlevant les fréquences trops élevée par échantillonnage, un échantillonnage qui ne doit donc pas être trops proches des bords.
L'harmonique correspondant à la fréquence `f` inconnue aura comme fréquence le multiple entier de `1"/"T` le plus proche de `f`.
Plus la durée `T` de la mesure est grande, plus la fréquence mesurée de la composante recherchée sera précise. Et on constate une incertitude sur la fréquence détectée, qui est due au faite que l'on a tronqué le signal au bout d'un temps `T`, qui est égale au pas de fréquence `1"/"T`
`f = n/T ± 1/(2T)`
On représente cette incertitude par le pas différentiel `df=1/T`. Ce n'est pas une différentielle au sens mathématique mais une indetermination qui découle d'une quantification des fréquences.
La génèse ne s'accomode pas avec l'hypothèse d'une quantité d'information infinie. Celle-ci doit être finie. Sinon tout est dans tout, et le monde sans frontière est un chaos indescriptible.
Le théorème de l'échantillonnage va dans ce sens mais il n'est pas suffisant pour pouvoir quantifier l'information. Car la valeur du signal est un nombre réel multiplié par l'unité de signal, et un nombre réel transporte une quantité d'information infini. Dans la pratique, pour mesurer ce nombre réel avec une précision d'autant plus grande, on est contraint de démultiplier le système autant de fois, de procéder à des expériences en parallèles identiques en un nombre d'autant plus grand.
Il doit exister un principe d'incertitude. Celui-ci apparait lorsque l'on définiera l'énergie `E` associé au signal. Et il correspond alors au principe d'incertitude d'Heisenberg noté statistiquement par les écarts types `sigma_t sigma_E=ℏ`, et noté fondamentalement par les pas différentielles `dt dE=ℏ`. Ce principe d'incertitude affirme que la précision de la mesure de `t` est inversement proportionnelle à la précision de la mesure de l'énergie. Ainsi, plus on connait précisément `t` et moins on a de précision sur l'énergie, et réciproquement plus on connait précisément l'énergie, et moins on a de précision sur la date de la mesure. Et, ce facteur de proportionnalité est `ℏ`. Ce principe va rendre fini le nombre d'états possibles du signal et ainsi rendre finie sa quantité d'information.
La constante de Plank `ℏ` a pour dimension une action, c'est le produit d'une énergie et d'un temps. On l'exprime en joule seconde :
`ℏ=1,054 571 818 "×"10^(−34) "J·s"`
Le signal est dit analytique, s'il possède d'abord à chaque instant `t` une valeur `f(t)`, sa dérivée `f’(t)`, sa dérivée seconde `f’’(t)`, sa dérivée `n`-ième `f^("("n")")(t)`, etc.. On déclare le neurone `f"←"(t)`, qui signifie que `f` est une variable d'état qui dépend de `t`, et qu'elle possède `t` comme argument par défaut : `f = f(t)`. On fait de même pour les dérivées successives :
`f’"←"(t)`
`f’’"←"(t)`
`f’’’ "←"(t)`
...
`f^("("n")")"←"(t)`
Le signal est dit analytique, si de plus, le développement de Taylor en tout instant `t` permet, à partir de la suite des dérivées, de calculer le signal dans un voisinage de `t` ce qui s'écrit comme suit :
`f(t"+" deltat) = f+f’deltat+f’’(deltat^2)/2+f’’’(deltat^3)/(3!)+ ... + f^("("n")") delta^n/(n!) + o(deltat^n)`
`f(t"+"deltat) = sum_(n=0)^n (f^("("n")"))/(n!) + o(deltat^n)`
Avec comme convention d'écriture, ce qui découle des neurones :
`f"="f(t)`
`f’"="f’(t)`
...
`f^((n))"="f^("("n")") (t)`
Puis avec la convention suivante :
`0! "=" 1`
`f^("("0")") "=" f`
Et pour la somme..., vous aurez remarqué l'utilisation d'une variable d'indice de même nom `n` qui masque la borne `n` dans la partie itérée. Le dernier terme étant confondu avec le terme itératif. On choisit cette notation économe en nombre de variables pour ne pas diluer le sens intuitif de la formule dans des détails superfétatoires, les règles de masquages étant ici suffisantes pour résoudre de façon formelle les ambiguités apparentes.
Puis, notez la signification de l'élément `deltat` qui, ici, ne contitue pas une différentielle mais une variation réelle bornée de façon arbitrairement petite, ce qui entraine cette inégalté d'ordre `|dt| "≺" |deltat|`. Cela dénote une localité non-différentielle relatant le fait que la fonction est définie par morceau, avec des morceaux pouvant être arbtrairement petit mais non-différentiels.
Pour des raisons relevant d'hypothèses physiques et du constat que la nature tranche toute situation, le signal s'avèrera indéfiniment dérivable et sa série de Taylor convergente sur un voisinage en tout instant `t`. Ce que l'on résume en disant que le signal est analytique.
Le logiciel de calcul formel MuPAD que l'on peut trouver assez facilement en version 4.0.2 sur quelques sites pirates a été développé par l'université de Paderborn puis par d'autres universités et a été rendu abusivement propriétaire, vieux maintenant de plus de 20 ans. Il constitue une aide mathématique bien pratique et suffisante pour notre exposé. L'instruction suivante `sf"series"(f(t"+"dt),dt)` retourne le développement de Taylor :
`f(t) + dt"·"f’(t) + (dt^2"·"f’’(t))/2 + (dt^3"·"f’’’(t))/6 + (dt^4"·"f’’’’(t))/24 + (dt^5"·"f’’’’’(t))/120 + O(dt^6)`
Nous verrons dans la partie 3 comment se définit un signal analytique par un système d'équations différentielles dans lequel on ne s'intéresse qu'aux solutions analytiques, c'est à dire indéfiniment dérivable et développable en série de Taylor.
Pour des raisons propres aux fonctions harmoniques, ces systèmes d'équations n'utiliseront le plus souvent que les deux premiers ordres, les dérivées et les dérivées secondes, tel que par exemple l'équation décrivant la propagation d'onde. Cette continuité, cette dérivabilité première et seconde, s'explique par la nature analytique des modèles physiques. Par exemple, la position d'un astre, en l'état de nos connaissances physiques, évolue continûment et de façon linéaire selon une vitesse. La vitesse évolue continûment et de façon linéaire selon une accélération. Et l'accélération correspond à un champ d'accélération qui évolue continûment et de façon analytique selon la position des astres. Ainsi, la boucle est bouclée, et le système d'équation modélisant la position des astres est analytique.
On utilise une deuxième notation pour exprimer les dérivées première et seconde d'un signal `U` en utilisant des points comme chapeau. Avant d'utiliser une variable d'état telle que `U` avec son système de coordonnés par défaut `U(t)`, on rappel celle-ci à l'aide du neurone correspondant :
`U"←"(t)`
`dotU=U’= (dU)/(dt)`
`ddotU=U’’=(d^2U)/(dt^2)`
Le système d'équation comprend deux parties : le système d'équations locales et les conditions aux limites. Les équations locales vont décrire le comportement localement. Les conditions aux limites vont souvent décrire les conditions initiales du modèle.
Les fonctions analytiques se prolongent analytiquement c'est à dire par morceau à l'aide du développement de Tayor. Ainsi, si une fonction analytique est égale à une autre fonction analytique en tout point d'un segment, alors elles sont égales en tout point du domaine obtenu en prolongeant le segment.
Il existe plusieurs espèces ou dimensions comme par exemples ; le temps, la distance, la charge électrique, la masse, etc. Et pour chaque espèce indépendante on choisie une unité ; la seconde, le mètre, le coulomb, le kilogramme, etc. L'ensemble de ces choix s'appellent un système d'unité. Le choix du système d'unité est arbitraire, et ne change pas les lois physiques. Un des principes métaphysiques est que chaque équation qui se veut décrire une loi, doit être homogène en terme d'espèce, afin que la loi ne change pas de sens lorsque l'on change de système d'unité.
Le signal possède une unité selon sa nature. On peut le définir de la manière la plus générale en lui donnant autant que possible une nouvelle dimension, une espèce indépendante.
Mais il se trouve que la nature nous offre un exemple fondamental de signaux que sont les signaux électromagnétiques (les ondes radios, la lumière,...). C'est pourquoi pour concrétiser notre étude tout en étudiant les lois physiques on choisit comme espèce de signal, le potentiel électrique. Et on choisit comme unité de signal, celle préconisée par le système international d'unité qu'est le volt (noté `"V"`). Ainsi, la valeur du signal, qui est un potentiel électrique, est exprimée en volt. Ainsi, les amplitudes du signal sont exprimées en volt.
Les phases sont exprimées en radian (noté `"rad"`). Mais le radian n'est pas une unité, comme on le verra plus loin. Il indique seulement que la valeur sans unité désigne un angle. L'unité d'angle n'est qu'un facteur de proportionnalité, c'est à dire un réel, et le radian corrrespond au facteur de proportionnalité `1`.
L'unité de temps est la seconde (notée `"s"`). La fréquence est exprimée en tour par seconde c'est à dire en Hertz (noté `"Hz"`). Tandis que la vitesse angulaire est exprimée en radian par seconde (noté `"rad/s"`), sachant qu'un tour égale `2pi` radian, et que l'on passe de la fréquence à la vitesse angulaire en la multipliant par `2pi`, et que inversement on passe de la vitesse angulaire à la fréquence en la divisant par `2pi`.
Pour chaque espèces indépendantes, le choix d'une unité est sans conséquence. Par contre, si on admet l'éventualité d'une relativité d'échelle, il convient de définir une échelle, c'est à dire qu'il convient pour chaque espèces indépendantes de préciser dans quelle échelle, ou ordre de grandeur, nous nous plaçons.
Ainsi nous devons préciser dans quel échelle de temps on se situe, ou à quelle vitesse subjective le temps s'écoule, et qui est un facteur multiplicatif, définissant une unité de temps correspondant à notre échelle. De même, il doit exister un paramètre fondamentale précisant dans quelle échelle de mesure du signal nous nous plaçons, et qui est un facteur multiplicatif, définissant une unité de potentiel électrique, et désignant une variation de potentiel par unité de temps à la quelle on s'attend.
Le choix de l'échelle est important car dans de nombreuse théories cosmologiques, les lois diffèrent selon l'échelle. Elles ne sont pas les mêmes dans l'infiniment petit, dans une échelle classique, ou dans l'infiniment grand. Les lois dépendent de l'échelle où se situe l'observateur.
En procédant ainsi on munie l'observateur d'une subjectivité plus complète, On complète le concept de repère qui comprend maintenant une échelle. Le concept de repère se doit d'intégrer, comme on le verra plus-tard, toutes les symétries de l'univers.
Le signal se décompose en signaux sinusoïdaux. Le signal sinusoïdal fait partie des signaux les plus simples. C'est pourquoi on le retrouve dans la nature sous une forme fondamentale et élémentaire qu'est l'onde électromagnétique et le photon. Mais ceux-ci se définissent en 4 dimensions, les 3 dimensions spaciales auxquelles on ajoute une dimension de temps qui s'avèrera liée aux 3 autres.
Il est inutile d'inventer l'eau chaude, surtout lorsque la nature nous montre de tels fondamentaux, tel ce Lapin blanc, le photon, qu'il suffit de suivre pour ordonner notre construction en une oeuvre révélatrice.
L'onde électromagnétique dans le vide se déplace toujours à la vitesse de la lumière et cela dans tout référentiel non-accéléré. Elle obéït aux équations de Maxwell, et met en oeuvre la relativité restreinte.
Néanmoins, d'un point de vue pédagogique, il apparait nécessaire de concevoir cette théorie d'abord dans un univers ne comprenant qu'une seule dimension qui est celle du temps `t`, puis comprenant deux dimensions `x` et `t`, puis trois `x,y,t`, puis quatre `x,y,z,t`, afin d'obtenir une présentation didactique ordonnée où la seule lecture, exerçant l'esprit à percevoir les différents concepts qui s'épanouissent lors de l'apparition de chacune de ces dimensions, permet au lecteur candide de s'affranchire sans effort des prérequis à chaque étape. Et tout cela en une seule lecture.... En ce sens, cet exposé est révolutionnaire car il contribue à libérer la pensée et s'adresse au plus grand nombre.
Le radian ne constitue pas une unité physique comme les autres. La définition de l'angle dans le plan est liée à la structure des nombres complexes par la célèbre formule d'Euler qui relie les 9 symboles : `0,1,i,pi,e,"=","+","*","^"`
`e^(ipi)+1=0`
Le nombre `pi` dans cette formule mathématique signifie `pi` radian. De tel sorte que le radian n'est pas une unité. C'est une unité qui désigne l'absence d'unité. `"rad"=1`. Elle indique néanmoins que la valeur sans unité désigne un angle.
Si nous voulons utiliser comme unité d'angle, le tour, noté `sigma` alors la formule d'Euler devient :
`e^(ipi)=-1`
`e^(i sigma/2)=-1`
Et on en déduit que le tour, noté `sigma`, n'est pas une unité mais juste un facteur de proportionnalité qui vaut exactement `sigma=2pi`.
Le radian n'est pas une nouvelle unité mais un facteur de proportion égale à `1`. On aurait pu choisir comme unité d'angle, le tour qui vaut `2pi`, ou une subdivision entière du tour, le degré, qui vaut `2pi"/"360`, ou encore on le verra plus tard, le double-tour qui vaut `4pi`.
Si on n'introduit pas de tel facteur de proportionnalité, le développement des fonctions sinus et cosinus reste simple et font disparaître `pi`, ce qui confirme que c'est le choix le plus simple, comme on peut le voir dans les développements limités suivants :
`sin(x)=x+O(x^3)`
`cos(x)=x-(x^2)/2+O(x^3)`
`sin(b+x)= sin(b)+x cos(b) - x^2 (sin(b))/2+O(x^3)`
`cos(b+x)= cos(b)-x sin(b) -x^2 (cos(b))/2+O(x^3)`
L'instruction MuPAD suivante `sf"series"(sin(b"+"x),x)` retourne le développement de Taylor de `sin(b"+"x)` en `x` suivant :
`sin(b)+xcos(b) - (x^2sin(b))/2 - (x^3cos(b))/6+(x^4sin(b))/24+(x^5cos(b))/120+O(x^6)`
Voici une règle mémotechnique pour passer du sinus au cosinus : Le cosinus est un sinus dans lequel la phase est avancée d'un quart de tour, c'est à dire de `+pi"/"2` radian :
`cos(x) = sin(x"+" pi"/"2)`
Les valeurs du sinus et du cosinus sont sans unité, c'est pourquoi souvent le facteur qui accompagne le sinus et le cosinus possède une unité, telle l'amplitude du signal qui est exprimée en volt.
Le cercle se définit dans le plan comme étant la figure convexe qui optimise le rapport entre la surface délimitée et la circonférence, et on exprime ce rapport en fonction de l'une ou de l'autre. La circonférence `L` du cercle est égale au rayon `R` multiplié par `2pi`. L'aire `S` du cercle est égale au carré du rayon multiplié par `pi`.
`L=2pi R`
`S=pi R^2`
`S/L = R/2 = L/(4pi)= sqrt(S/(4pi))`
Un principe similaire devrait s'appliquer pour définir un signal sinusoïdal.
Le signal en tant qu'objet cinétique, possède un paramètre supplémentaire qui est sa vitesse angulaire `omega`, ou sa fréquence `omega"/"(2pi)`, ou sa période `2pi"/"omega `.
Un signal sinusoïdale de fréquence donnée correspond dans un plan à la projection sur un axe centrale d'un signal plus simple mais vectoriel de dimension `2`, appelé spino, qui correspond à un vecteur centrale tournant à la même fréquence. On redécouvre là, les recherches des astronomes de l'antiquité qui décrivaient le mouvement des astres par de savants emboitements de mouvements circulaires. Le cercle peut paraître naïf, mais il est la raison cachée de la sinusoïde prétencieuse dont l'apparente sophistication ne résulte que de l'occultation de ses fondements circulaires. Ce signal vectoriel de dimension `2` qui tourne en rond, appelé spino, est plus simple que la sinusoïde, et s'exprime dans une structure mathématique fondamentale qu'est le corps des nombres complexes, formant un espace vectoriel de dimension `2`, appelé plan, et qui a comme base `(1,i)`.
Le plus grand corps commutatif de dimension finie est celui des nombres complexes `CC`.
Il est engendré par un groupe d'unités à `4` éléments `{"±"1, "±"i}`, avec comme règle `i^2"="-1`.
Il constitue un `RR`-espace vectoriel de dimension `2` appelé plan. Un nombre complexe `z` est un vecteur dans ce plan vectoriel de base `(1,i)`. L'axe des réels `RR` s'appelle l'axe des abscisses représenté horizontalement de gauche à droite, et l'axe des imaginaires `iRR` s'appelle l'axe des ordonnées représenté verticalement de bas en haut. Le symétrique de `z` selon l'axe des abscisses s'appelle le conjugué de `z` et se note `barz`. Le symétrique de `z` selon l'axe des ordonnées s'appelle l'opposé conjugué de `z` et se note `-barz`. Ce plan vectoriel s'identifie au corps des complexes `CC`. Ainsi quelque soit un complexe `z` nous avons toujours :
`z+barz in RR`
`z-barz in iRR`
`|z| = sqrt(zbarz) in RR^"+"`
Un nombre complexe `z` de partie réel `x` et de partie imaginaire `y` se note `z=x"+"iy`. Ce sont ses coordonnées cartésiennes, les coordonnées du vecteur `z` :
`z=sf"Re"(z) +isf"Im"(z) =x+iy`
`x= sf"Re"(z) = (z+barz)/2`
`iy= isf"Im"(z) = (z-barz)/2`
`barz = x-iy` `bar(u+v)=baru+barv`
Un nombre complexe `z` de norme `a ` et d'argument `alpha` se note `z = a e^(i alpha)` et se note aussi `z = [a,alpha]`. Ce sont ses coordonnées polaires. L'argument de `z` noté `sf"arg"(z)=alpha` représente l'angle entre le demi-axe `]0,oo[` et le vecteur `z`. La norme de `z` noté `|z|=a` représente la taille du vecteur `z`.
`z=[|z|,sf"arg"(z)]=[a,alpha] = a e^(i alpha) = a cos(alpha) + i a sin(alpha)`
`a = |z| = sqrt(x^2+y^2)`
`alpha = sf"arg"(z) = 2 arctan(y/(x+|z|))`
`x = |z| cos(sf"arg"(z)) = a cos(alpha)`
`y = |z| sin(sf"arg"(z)) = a sin(alpha)`
`bar(z) = [a,-alpha] = a e^(- i alpha)` `bar(uv)=baru barv`
Et nous avons la règle de produit suivante :
`[a,A][b,B] = [ab,A+B]`
` ae^(iA)be^(iB)= ab e^(i(A+B))`
Et nous avons :
`[1,0] = 1`
`[1,pi"/"2] = i`
`[1,pi] = "-"1`
`[1,2pi"/"3] = "-"i`
`[1,2pi] = 1``[a, alpha "+" 2pi] = [a,alpha]`
`[1,"-"pi"/"2] = "-"i`
`bar i = "-"i=[1,"-"pi"/"2]`
`1"/"i = "-"i`
Pour faire tourner un complex `z` d'un quart de tour, on le multiplie par `i`. Et pour le faire tourner dans l'autre sens d'un quart de tour, on le multiplie par `-i`.
Multiplier un complexe `z` par `e^(ialpha)` revient à augmenter son argument d'`alpha`, autrement dit, cela revient à faire tourner ce vecteur `z` d'un angle `alpha` dans le sens trigonométrique.
On a choisi ce nom "spino", reprenant le terme physique de "spin" qui représente le moment cinétique d'une particule élémentaire, pour désigner un vecteur central tournant avec une vitesse angulaire constante. C'est un object cinétique parmi les plus simples.
Le spino est un signal complexe de norme constante et dont l'argument croit à une vitesse constante `omega`. C'est un vecteur qui tourne dans le plan à une fréquence `omega"/"2pi`. Avec cette description, le spino constitue un objet géométrique cinétique plus simple que la sinusoïde mais de valeur complexe. Et il y a deux sortes de spino dans le plan : les spinos positif qui tournent dans le sens trigonométrique, et les spinos négatif qui tournent dans le sens inverse c'est à dire qui tournent dans le sens des aiguilles d'une montre. C'est le signe de la vitesse angulaire `omega` ou de la fréquence `omega"/"2pi` qui déterminera cela.
Noter que le sens trigonométrique n'est qu'une convention, et qu'il peut être inversé, tout se passant alors comme si nous étions dans le corps des complexes conjugués.
De même que pour les signaux sinusoïdaux, le spino est centré au tour de zéro. Car les deux dimensions représentées par la valeur du signal complexe ne constituent pas à proprement parler de nouvelles dimensions, ou en tout cas pas encore. Car tous les points de ce proto-espace ne sont pas similaire. Le spino possède un état d'équilibre en la constante zéro qui est le vecteur nul du plan, et qui représente une sorte d'énergie nulle avant même la conception de l'énergie. Le signal complexe est centrée en zéro, autrement dit, il n'y a pas de composante continue. Ainsi, au premier jour il n'y a pas de composante de champ continue.
Un spino `z"←"(t)` est caractérisé par une vitesse angulaire non nulle `omega` dont le signe indique le sens de rotation, et par sa valeur initiale `z(0)` qui est le vecteur initial du spino, et qui est appelé pôle. On présente le pôle par ses coordonnées polaires d'amplitude `a` et de phase `α`.
`z(t) = a e^(i (alpha + omegat))`
`a` : Amplitude. `a in RR^"+∗"`
`alpha` : Phase initiale. `alpha in RR"/"2piRR`
`omega` : Vitesse angulaire. `omega in RR^"∗"`
L'amplitude et la phase initiale sont regroupées en un nombre complexe `rho` appelé pôle, qui est égale au vecteur initial du spino, et que l'on note de façon polaire :
`z(0) = rho=[a,α]=ae^(ialpha)`
`z(0)` : Vecteur initial du spino
`rho` : Pôle du spino
Avant d'utiliser une variable d'état telle que `z` avec son système de coordonnés par défaut `z(t)`, on rappel celui-ci à l'aide du neurone correspondant :
`z"←"(t)`
`z = a e^(i (alpha + omegat))`
`z = a e^(ialpha) e^(iomegat)`
`z = rho e^(iomegat)`
`z = [a,α"+"omega t]`
`z = a[1, α][1, omega t]`
`z = rho[1, omega t]`
Ainsi, on présente le spino en regroupant les paramètres d'amplitude et de phase initiale en un paramètre complexe `rho` appelé pôle qui est simplement la valeur initiale du spino. Ce vecteur initiale du spino intervient dans le calcul du signal comme un facteur complexe :
`z(t) = rho e^(iomegat)`
`rho =a e^(ialpha)`
`omega` : Vitesse angulaire. `omega in RR^"∗"`
`rho` : Pôle. `rho in CC^"∗"`
`a` : Amplitude. `a in RR^"+∗"`
`alpha` : Phase initiale. `alpha in [0,2pi[`
Ainsi la sommation de spinos de même fréquence s'obtient simplement en sommant leur pôle :
`rho_1 e^(iomegat) + rho_2 e^(iomegat) + rho_3 e^(iomegat) = (rho_1"+"rho_2"+"rho_3)e^(iomegat)`
À chaque signaux sinusoïdaux `a sin( alpha"+"omega t)` est associé un signal complexe plus simple et plus complet à la fois, appelé spino positif `a e^(i (alpha + omegat))` dont la projection sur l'axe des ordonnées donne le signal sinusoïdal en question. Considérons un signal sinusoïdal `U` avec son spino associé `z` :
`U,z ← (t)`
`U = a sin( alpha"+"omega t)`
`z = a e^(i (alpha + omegat))`
`z = acos( alpha"+"omega t) + i a sin( alpha"+"omega t)`
`sf"Im"(z) = a sin( alpha"+"omega t)`
`sf"Im"(z) =U`
La somme de deux spinos de même fréquence produit un spino de même fréquence dont le vecteur initiale est égale à la somme des vecteur initiaux des deux spinos. Et cette opération peut être faite à l'aide d'un dessin, d'une règle et d'un rapporteur d'angle.
La somme de deux sinusoïdes de même fréquence produit une sinusoïde de même fréquence dont le pôle est la somme des pôles des deux sinusoïdes :
`a sin( alpha"+"omega t) + b sin( beta "+"omega t) = r sin( varphi "+"omega t)`
`[a,alpha]+[b,beta] = [r,varphi]`
Et cette opération peut être faite à l'aide d'un dessin, d'une règle et d'un rapporteur d'angle. Il est aussi possible de calculer les cordonnées cartésiennes `(x,y)` des pôles, et de les sommer :
`acos(alpha)+iasin(alpha) + bcos(beta)+ibsin(beta)=r cos(varphi)+irsin(varphi) =x+iy`
`acos(alpha) + bcos(beta)=r cos(varphi) =x`
`asin(alpha) +bsin(beta) = r sin(varphi) = y`
Puis de calculer les coordonnées polaires `[r,varphi]` du pôle résultant :
`x+iy = r e^varphi`
`r = |x+iy| = sqrt(x^2+y^2)`
`varphi = sf"arg"(x+iy) = 2 arctan(y/(x+r))`
Pour chaque fréquence `omega`, le signal sinusoïdal est déterminé par son pôle qui est un nombre complexe, qui est le vecteur intitiale du spino associé, de coordonnée polaire `[a,alpha]`, spécifiant l'amplitude `a` et la phase initiale `alpha`. Le regroupement en pôle de ces deux paramètres `a` et `alpha` s'avère trés pratique, car si on ajoute deux signaux sinusoïdaux de même fréquence et de pôle respectif `z_1, z_2`, on obtient un signal sinusoïdal de même fréquence et de pôle obtenu en sommant les deux nombres complexes `z_1"+"z_2`.
Le signal sinusoïdal fait partie des signaux les plus simples. C'est pourquoi on le retrouve dans la nature sous une forme fondamentale qu'est l'onde électromagnétique.
Lorsque la nature nous montre des fondamentaux, inutile d'aller chercher ailleurs, il suffit de suivre ces révèlations. L'onde électromagnétique dans le vide se déplace toujours à la vitesse de la lumière `c` et cela dans tout référentiel non-accéléré. Elle obéït aux équations de Maxwell, et met en oeuvre la relativité restreinte. Puis l'onde électromagnétique est quantifié en photons, et met en oeuvre la relativité générale.
Mais au stade où nous sommes, il n'y a pas encore d'espace ni d'énergie. Les équations de Maxwell sont réduites à néant. Seul reste une vague analogie qu'est l'équation différentiel d'une onde sinusoïdale de fréquence arbitraire.
L'embryons des équations de Maxwell-Lorentz apparaitra en définissant l'énergie de la façon la moins arbitraire possible. Et dès que l'énergie sera définie, la masse se définira selon la formule d'Einstein `E= mc^2`, ouvrant le chemin de la relativité générale.
Le signal sinusoïdale se retrouve en physique quantique comme constituant la plus simple des particules élémentaires qu'est le photon. On constate que le signal électromagnétique de fréquence `nu` transporte une quantité d'énergie qui est quantifiée, et qui est cinétique. Chaque quanta d'énergie correspond à un photon de fréquence `nu` et d'énergie `E` :
`E=hnu`
Où `h` est la constante de Planck.
`h = 6,626 070 15 ×10^(−34) "J·s"`
Le photon est une vibration électromagnétique de fréquence `nu` et d'énergie `hnu`. Ainsi, il n'existe pas de moyen de transmission d'un signal électromagnétique de fréquence `nu` ayant une énergie plus faible que `hnu`. Et cette énergie est proportionnelle à la fréquence.
La masse du photon s'obtient en divisant l'énergie par la vitesse de la lumière au carré, selon la formule d'Einstein `E=mc^2`. Le photon étant toujours à la vitesse `c` dans tout référentiel non-accéléré, il ne possède pas de masse au repos.
`m=E/c^2=(hnu)/c^2`
On constate que les données de temps `t` et d'énergie `E` d'un photon ont une précision limitée interdépendante. Si on connait précisement `E` alors on ne peut pas connaitre précisement `t` et réciproquement si on connait précisement `t` alors on ne peut pas connaitre précisément `E`. Mais la mécanique quantique ne s'en tient pas au constat de cette seule limite des mesures, elle l'instaure comme un principe de réalité. C'est le principe d'incertitude d'Heisenberg. Etant donné un photon. Ce photon possède deux variables d'états que sont son énergie `E` et le temps `t`, qui est en faite le temps impropre du photon, le temps de l'observateur qui prend la mesure de `E`. L'imprécision sur la date c'est à dire sur la mesure du temps, noté par l'écarts types `sigma_t`, dépend de l'imprécision sur la mesure de l'énegie, noté par l'écart type `sigma_E`, selon la formule de dépendance constatée :
`sigma_t sigma_E=ℏ`
Où `ℏ=h"/"(2pi)`. Autement dit, si on connait `t` deux fois plus précisement alors on connait `E` deux fois moins précisement, et réciproquement si on connait `E` deux fois plus précisement alors on connait `t` deux fois moins précisement.
Une des façons la plus simple d'aborder l'écoulement du temps en présence de force gravitationnelle, est de suivre le Lapin blanc qu'est le photon d'énergie `E=hv` et de masse `m=hnu"/"c^2`.
Tout d'abord on admet que les forces gravitationnelles dérive d'un potentiel, et donc, que le travail des forces gravitationnelles s'exerçant sur une particule ne dépend pas du chemin parcouru par la particule mais juste du potentiel de gravité du point de départ et du potentiel de gravité du point d'arrivé.
Considérons un photon d'énergie `E_1` et de masse `m_1` placé dans un lieu de potentiel de gravité `P_1` et arrivant sur un lieu de potentiel de gravité `P_2`. Le tavail de la force de gravité sur le photon va modifier son énergie et celui-ci aura une énergie `E_2` et une mase `m_2`.
La force de gravité qui s'exerce sur le photon produit un travail égale à `-(m_2P_2-m_1P_1)` qui s'ajoute à l'énergie cinétique du photon.
`E_2 = E_1- (m_2P_2-m_1P_1)`
`hnu_2-hnu_1= - (hnu_2)/c^2P_2 + (hnu_1)/c^2P_1`
`nu_2(1+P_2/c^2) = nu_1(1+P_1/c^2)`
La mesure du temps la plus précise qui est faite actuellement par les horloges atomiques consiste grosso-modo à compter les périodes d'une raie d'émission. Les atomes dans un processus laser émettent continûment des photons tous en phase et de fréquence `nu_1` d'une précision extrême qui donne ainsi une mesure fiable de l'écoulement du temps. Une fréquence deux fois plus rapide dénote un écoulement du temps deux fois plus rapide.
Un observateur se trouvant dans un lieu de potentiel de gravité moins élevé percevra ces photons émis, décalés dans le rouge, car le photon, pour parvenir à l'observateur, va perdre de l'énergie. Et réciproquement, un observateur se trouvant dans un lieu de potentiel de gravité plus élevé percevra ces photons émis, décalés dans le bleu, car le photon, pour parvenir à l'observateur, va emmagasiner de l'énergie.
Cela entraine que le temps s'écoule plus lentement dans les lieux où le potentiel de gravité est fort. Notez que ce rapport est valable quelque soit la fréquence du photon initiale `nu_1` :
`r = nu_2/nu_1 = (1+P_1/c^2)/(1+P_2/c^2)`
Ainsi le rapport `r = nu_2"/"nu_1` indique combien de fois plus vite s'écoule le temps à l'endroit où le potentiel de gravité est `P_2` par rapport à l'endroit où le potentiel de gravité est `P_1`.
Des expériences ont été faites. Des chercheurs japonais ont constatés que l'horloge atomique placée en haut d'une tour de `450` mètres prenait de l'avance, de `4` nanosecondes par jour par rapport à l'horloge atomique placé au sol. Vérifions si notre modèle est valable pour expliquer ce phénomène : Il nous faut connaitre la vitesse de la lumière, `c`, la masse de la terre `M`, le rayon de la terre `R`, la constante universelle de gravité `G`. Nous pouvons alors calculer le potentiel de gravité au sol `P_1`, le potentiel de gravité à `450` mètres, `P_2`, et le rapport d'écoulement du temps `r` :
`M = 5,972"×"10^24 "Kg"`
`R = 6371 000 "m"`
`G = 6.674"×"10^-11 "N·m"^2"/Kg"^2`
`c = 299792458 "m/s"``P_1=(GM)/R = 62560238 "N·m/Kg"`
`P_2 = (GM) / (R + 450 "m") =62555820 "N·m/Kg"`
`r = (1+P_1/c^2)/(1+P_2/c^2) = 1.000000000000049`
Le calcul nécessite au moins une précision de 16 chiffres. L'instruction MuPAD `sf"DIGITS":=16` fixe le nombre de chiffres voulu utilisé pour les calculs.
Le rapport d'écoulement du temps multiplié par une jounée c'est à dire par `24"·"60"·"60` secondes puis dans lequel on soustrait la journée, va nous donner le nombre de secondes d'avance par jour de l'horloge se situant au point `P_2` :
`a= (r -1)"·"24"·"60"·"60 "s" = 0.0000000042 "s" = 4"×"10^-9 "s"`
Soit environ `4` nanosecondes d'avance chaque jour. Mais pour valider ce calcul, il faut faire un calcul d'erreur. Il faut vérifier que si l'on change les valeurs `M,R,G` respectivement de `±dM,±dR,±dG`, le résultat reste identique.
`dM =10^21 "Kg"`
`dR= 1000 "m"`
`dG =10^8 "N·m"^2"/Kg"^2`
`dc=0`
L'incertitude sur la vitesse de la lumière est nulle car dans le système d'unité international, les erreurs sont reportées sur les autres unitées.
La validation du calcul s'obtient en refaisant `3` fois le calcul avec des données modifiées `M"±"dM, R"±"dR, G"±"dG`. Et on trouve une précision allant juqu'au 11-ième chiffres après la virgule : `a=0.00000000424`.
Il suffit encore de suivre le Lapin blanc qu'est le photon pour révéler les fondements de la relativité restreinte. C'est à partir du constat érigé en postulat affirmant que la vitesse de la lumière est la même dans tout référentiel en translation uniforme, que l'on déduit des règles de changement de référentiel que sont, pour la solution la plus simple, les transformations de Lorentz.
Jusqu'alors la physique newtonienne ne considérait qu'un seul temps idendique en tout point de l'espace, et s'écoulant donc nécessairement à la même vitesse. Les référentiels étaient galiléens, c'est à dire qu'un changement de référentiel en translation uniforme se traduisait par une simple translation uniforme opposée des coordonnées d'espace.
Le postulat de la constance de la vitesse de la lumière va remettre en cause cela. Il nous oblige à concevoir des règles de calcul non-galiléennes de changement de référentiel, qui intègre cette étonnante propriété qu'est la constance de la vitesse de la lumière. Et naturellement ces règles de calcul doivent tendrent au cas galiléen lorsque la vitesse de translation est faibles vis-à-vis de la vitesse de la lumière.
Le photon joue un rôle fondamental, quasiment axiomatique, dans la structure de l'espace-temps. Il est lié à cet espace-temps d'une façon telle que sont comportement se résume au seul comportement de cet espace-temps. On peut dire qu'il concrétise à lui-seul l'essentiel des propriétés de l'espace-temps. Il se déplace dans le vide à la vitesse `c`, la seule vitesse qui soit absolue, et il ne veillit pas. Pour le photon, il est absorbé au même instant qu'il est émis, même si pour d'autres observateurs il a traversé des espaces gigantesques.
Faisons donc la même hypothèse simple que nous avons faite au chapitre précédent sur la relativité générale. A savoir que le photon ne révèle qu'un rapport d'écoulement du temps entre l'émetteur et le récepteur.
On introduit la notion de corpuscule ponctuel, appelé particule. Le rapport d'écoulement du temps entre une particule `"A"` fixe et une particule `"B"` en mouvement, correspondra au rapport de fréquence entre un photon perçu par `"A"` qui a été émis par `"B"` avec une fréquence d'émission quelconque, et un photon perçu par `"A"` qui a été émis par une autre particule fixe mais avec la même fréquence d'émission. Et ce principe pourra s'appliquer à des particules en mouvement quelconque.
En procédant ainsi, intégrant l'effet Doppler-Fizeau qui n'est le résultat que du retard de la lumière se propageant, un effet du premier ordre, dans la définition du rapport d'écoulement du temps, on se place d'emblé dans le cas d'une interaction électromagnétique retardée. L'écoulement du temps d'une particule en mouvement dépend alors de la position de l'observateur dans le laboratoire s'il est devant ou derrière la particule en mouvement. Le temps de la particule est retardé selon la position plus ou moins éloignée de l'observateur. Ce retard causant l'effet Doppler-Fizeau se définit simplement en calculant les trajectoires de la lumière dans le référentiel du laboratoire.
Puis, on identifie le référentiel à une particule. De tel sorte que le positionnement d'une particule `"A"` dans un référentiel `"B"` devient quelque chose de symétrique. Et, on définira symétriquement la position du référentiel `"B"` dans le référentiel de la particule `"A"`.
Considérons une vitesse de la lumière infini. L'effet Doppler-Fizeau ne se produit plus. Aucun retard de champ ne se produit. Le temps s'écoule à la même vitesse partout. le temps `t` dans un référentiel est commun à tous les points de l'espace, mais il peut être décalé pour toute autre particule ou référentiel comme on retarderait ou on avancerait une horloge arbitrairement. L'introduction de la coordonnée temporelle tout en restant dans le cadre galiléen va nous révéler quelques symétries inédites, mais l'essentiel de l'effort se tiendra dans l'établissement d'un système de notation physique pertinant.
Rien n'est absolu sauf la vitesse `c`. Aussi, toute mesure est relative à un référentiel. Et l'on pose comme référentiel par défaut, `"Ω"` , le référentiel du laboratoire. Autrement dit, si une mesure est faite sans préciser dans quel référentiel elle est faite, alors elle est faite dans le référentiel `"Ω"`.
On fixe sur la particule une horloge qui indique l'heure propre de la particule. Autrement dit, cette horloge révèle l'âge de la particule. C'est le temps propre de la particule. Et l'âge zéro peut correspondre à la naissance de la particule. On note le temps propre d'une particule `"A"` par la lettre `t` indicé par le nom de la particule `"A"`. Et la lettre `t` sans indice indique le temps propre de `"Ω"` le référentiel par défaut, celui du laboratoire. Dans le cas d'un référentiel, l'horloge est simplement fixé au point origine du référentiel. Et en effet, rien n'empêche que l'on avance ou que l'on retarde cette horloge, n'opérant ainsi qu'une translation dans les coordonnées du temps.
On note le temps propre dans un référentiel `"A"` par la variable `t_"A"`. Et donc on peut noter le temps propre du laboratoire simplement par la variable `t`.
Considérons une particule `"A"` en mouvement quelconque. Sa position spaciale à l'instant `t` se note `vec A(t)`. Pour éviter d'avoir à rappeler l'argument `t`, on définit le neurone suivant qui précise le système de coordonnées par défaut `(t)` et la forme des parenthèses d'appel `"( )"` :
`vecA"←"(t)`
C'est la notation du physicien qui reprend le nom de la fonction `vecA(".")` pour définir une variable d'état `vecA` qui récupére le résultat de la fonction appliqué à `t`. Après cette déclaration formelle, `vecA` peut toujours être remplacé par `vecA(t)`. Le système comprend deux variables d'état `t, vec A`, une fonction `vecA(".")` et une équation : `vecA "=" vecA(t)`
Puis on définit le quadrivecteur position `bbA` en ajoutant une nouvel composante qu'est le temps `t`. Délors la position de `"A"` est donné par le quadrivecteur `bbA` :
Quadrivecteur position
`bbA = [(t),(vec A)]``"A"` : Particule.
`t` : Temps.
`bbA` : Quadrivecteur position de la particule `"A"`.
`vecA` : Position spaciale de la particule `"A"` à l'instant `t`.
Remarquez comment la même lettre est utilisé 3 fois. En mode texte elle désigne la particule `"A"`. En mode gras elle désigne le quadrivecteur position `bbA`, et en mode normal et avec une flèche elle désigne la composante spatiale `vecA` qui dans l'espace tridimensionnel possède 3 composantes. Ainsi la variable `bbA` comprend 4 composantes d'où son nom de quadrivecteur.
Considérons un second référentiel `"B"` en mouvement quelconque. Le système est déterminé par `t` grace aux deux neurones :
`vecA"←"(t)`
`vecB"←"(t)`
La particule `"A"` est définie par son quadrivecteur position :
`bbA = [(t),(vec A)]`
La particule `"A"` est aussi définie par son quadrivecteur position dans le référentiel `"B"` qui se note comme suit :
`bbA_"B" = [(t_"B"),(vec A_"B")]`
`t_B` est le temps propre du référentiel `B`, c'est le temps afficher par l'horloge du référentiel `B` et plus exactement qui est vue par le laboratoire. Il existe donc un lien fonctionnel qui à chaque instant `t` du laboratoire associe un temps `t_B` tel qu'il est perçu par le laboratoire regardant l'horloge du référentiel `B`. Cela constitue le neurone suivant :
`t_B"←"(t)`
La variable d'état `t_B` est donc liée à `t` par la fonction `t_B(".")` et l'équation `t_B"="t_B(t)`. Dans le cas galiléen le temps propre d'un référentiel ne peut être que retardé ou avancé d'une constante. Cette constante est donc égale à `t_B(0)`, le temps propre de `"B"` à l'instant `t"="0` du laboratoire.
`vec A_"B"` est la position spaciale de `A` dans le référentiel `B` à l'instant `t_B` du référentiel `B`
---- 16 avril 2023 ----
La transformation de coordonnée consiste à calculer `bbA_B` à partir de `bbA` et de `bbB`. Dans le cas galiléen nous avons :
`t_B = t + t_B(0)`
`vec A_B = vec A - vec B`