Précédent
Suivant


Du signal à l'équation du monde (3)
 
Calcul différentiel
 


1. Introduction

Les ondes constituent un phénomène auto-entretenu parmi les plus simples à modéliser, et elles constituent la base de l'électromagnétisme. Nous allons explorer ce phénomène en commençant par l'étudier dans un univers unidimensionnel ne possédant qu'un axe du temps. Et on commencera par étudier le signal sinusoïdal.

Puis nous reprendrons notre discussion sur la génèse et sur la nature du signal. Si on conçoit au départ le signal le plus simple, un signal sinusoïdal, celui d'un photon, comment faire naître les équations de Maxwell-Lorentz en partant de ce seul signal ?

La physique moderne s'appuie sur le calcul différentiel pour définir des modèles qui sont des systèmes d'équations différentielles partielles. La nature donne toujours une solution et le modèle peut toujours être choisie comme étant analytique. Aussi, nous n'étudirons le calcul différentiel que pour des fonctions analytiques, des fonctions qui en tout point de leur domaine de définition se développent en série entière convergente sur un voisinage.

Néanmoins, le langage de ces équations peut paraître quelque peu hermétique pour les non-initiés. Et ce n'est pas par la construction de démonstration rigoureuse que l'on fait découvrir la puissance intuitive de ce langage.

Les mathématiques peuvent-être abordées comme la physique. Ce sont toutes deux des sciences hypothético-déductives, et il n'est pas nécessaire d'obtenir la preuve formelle d'une théorie pour l'utiliser si on a la conviction que celle-ci est valide. Ce n'est alors ni plus ni moins qu'une hypothèse. La preuve rigide est ainsi remplacée par l'hypothèse. Et des modèles possédant un formalisme incomplet parceque suceptible de se décliner en plusieurs modèles différents, peuvent jouer ce rôle d'hypothèse. L'expérimentation joue alors le rôle d'élément de preuve, des preuvent incomplètes certes mais qui peuvent, comme en physique, récuser ou conforter le modèle et l'hypothèse ou même les façonner.

On décrira le calcul différentiel des fonctions analytiques sous forme d'hypothèses théoriques et d'un langage prometteur, que l'on confortera par l'expérimentation, ce qui rend la présentation au néophyte beaucoup plus facile. On utilisera les hyperréels et d'autre extensions de structures pour substituer les démonstrations d'analyse par des démonstration d'algèbre. Mais, aborder ce sujet ainsi sous un autre point de vue paradigmatique consiste à refonder l'Analyse, son objet et son but. Voir Analyse et espace métrique

2. Le déterminisme

Tout effet a une cause, et la cause qui constitue également un effet, posséde à son tour une cause, et ainsi de suite. La cause d'une cause est une cause comme les autres, qui possèdent à son tour une cause. La première de toutes les causes qui n'a pas de cause, ou qui est sa popre cause - et qui explique l'existence du monde - n'est pas de ce monde. Elle existe dans un monde tout autre, pas un monde parallèle ou une vague copie du nôtre, non, un monde où il n'y a pas de temps et qu'il ne faudrait pas appeler monde car tellement différent... et où l'entendement est différent et inconnu, où tout est possible. Cela dit, c'est un raccourci théologique facile qui répond à la question existentiel du monde sans vraiment y répondre, à l'image des doctrines religieuses sur la génèse.

En d'autre terme, dans notre monde, le physicien s'attache à révéler le déterminisme des lois du monde, qui constitue son intelligibilité. Et tout ce qui échappe à ce déterminisme est déterminé par des variables extérieures inconnues. Le hasard est donc la manifestation d'intrusion de causes inconnues, et n'existe donc pas en soi. Cette idée et exprimée par Einstein dans l'adage "Dieu ne joue pas aux dès". Restreindre cet idée consiste alors à s'interdire de chercher davantage.... L'obscurantisme est alors de quel coté d'après-vous ?.

Ainsi, les choses étant déterminées, ce qui constitue l'essence de l'intelligibilité du monde, on pourrait pensé que cela n'existe pas, comme tout ce qui est répétition immuable. Mais si !.... Car cela n'a jamais était calculé, jamais était réalisé avant. C'est d'ailleurs cette effectivité première du calcul qui constitue une des composante paradigmatique du temps.

3. La symétrie du temps

Aussi surprenant que cela puisse paraître, la notion de flèche du temps qui distingue le passé du futur est une notion purement macroscopique. Car à l'échelle microscopique les lois régissant les interactions entre particules respectent une symétrie parfaite selon le sens du temps. C'est à dire que si l'on inverse le sens du temps, en remplaçant dans les équations `t` par `"-"t` et donc `dt` par `"-"dt`, on obtient les mêmes équations, les mêmes lois.

Si on regarde un film à l'envers en remontant le temps, on voit une scène se dérouler dans le sens inverse du temps comme par magie. Une telle scène peut se réaliser, car d'un point de vue microscopique les lois sont respectés, et pourtant cela nous parrait impossible. C'est parceque nous sommes dans une chaine causale dominante définissant cette notion macroscopique qu'est la flêche du temps, une flêche du temps qui n'est qu'apparence et illusion. Rien ne nous interdit d'imaginer l'existence de chaines causales inversées.

Tout étant déterminé, la connaisance de l'univers à un instant donnée détermine aussi bien l'univers future que l'univers passé. La notion de flêche du temps est liée au second principe de la thermodynamique, à la notion de désordre ou d'entropie toujours croissante. Et si on constate une voilation de cette loi, rien ne pourra distinguer cette violation avec l'introduction d'une chaine causale inverse, elle-même soumise à cette loi inverse.

4. Langage formel, intuition et liberté

"Tout est langage."
"Le choix du langage adapté au problème constitue la moitier de sa résolution
."

L'art en la matière consiste à inventer un langage formel adapté au problème, désignant une construction efficiente. Et ce langage deviendra un vecteur incontournable de transmission du savoir. L'enjeux devient alors colossal. Et le principal frein au développement de ce type de recherche reste causé par les nombreux préjugés, dont pour la plus part, nous n'avons pas conscience, qui sont ancrés en nous plus ou moins profondément. Ils agissent comme des oeillères, et nous pouvons difficilement nous en débarrasser dans la vie quotidienne. Ceux qui s'en sont défait ont ainsi acquit un avantage certain pour avancer dans ces études savantes.

Il y a de nombreuses façons de décrire un système déterministe. La notation est importante car elle transporte une intuition, tout un ensemble de non-dits, de mécanismes de reconnaissance, et de règles simples de déduction. Qu'est-ce qui rend si difficile le dévoilement des différents conceptes et nous arrête dans notre élan créateur ?. C'est le conformisme et l'absence d'intuition. L'intuition joue un rôle moteur, essentiel dans la génèse des concepts. Il y a donc tout un travail préliminaire pour appréhender un espace, sans préjugé, et pour l'étoffer de sens, d'analogies..., d'une gnose, seul moyen de transmettre cette intuition (aux autres ou à soi-même). Mais qu'est-ce qui différencie l'intuition du préjugé ? C'est le jour et la nuit, l'animé et l'inerte. L'intuition crée. L'intuition est naissance, source de développements potentiels, tout en parcourant quelques grands schémas paradigmatiques, sortes de guide spirituel mais davantage comme un rêve aux mutiples formes mouvantes qui se métamorphose au fur et à mesure qu'il se construit. Le préjugé est au contraire formel, et n'ouvre pas à discution. Il clos la question. Mais de la même façon que la mort est nécessaire à la vie, le préjugé est nécessaire à l'intuition, sans quoi nous partirions dans toutes les directions à la fois et rien ne pourrait être fonder ni construit. Il faut seulement avoir les bons préjugés au bon moment pour enterrer ce qui doit l'être et les bonnes intuitions pour découvrir les voies qui nous intéressent.

Du langage mathématique, un principe paradigmatique fondamental affirme que l'élément peut désigner toute chose, et donc qu'il est toujours possible de reconsidérer comme étant égaux deux éléments initialement distinct. On appelle cela le principe de fusion. Cette étonnante faculté de l'esprit traduit le fait que l'élément puisse désigner toute chose et permet de se libérer des conformismes redoutables liés à la langue. Certes, l'asservissement décrié sur le langage est généralement celui de la censure ou de la réduction, rendant égale l'un et son contraire, rendant l'expression des idées impossibles. Mais son inverse est également un asservissement redoutable, l'illusion que deux choses de noms différents serait intrinsèquement différentes puisque désignées différemment. Le principe de création permet d'agrandire la langue, le principe de fusion permet de réduire la langue, tout deux nous libèrent des emprises de la langue.

5. Notation du physicien

Un premier critère de localité est à prendre en considération qui permet de définir ce que sont les grandeurs classiques. Il n'y a pas que les vitesses s'approchant de la vitesse de la lumière qui peuvent être qualifiées de non-classique, les simples grandeurs aussi. Le cosmos en son entier ou à traver un cycle-monde ne peut pas être considéré comme un système classique, car trop grand, car il possède alors une qualité d'absolu, ce que ne doit pas avoir un système classique. De même, dans l'infiniement petit où la quantification de l'information va jouer un rôle majeur, une localité trop petite sort également du cadre classique. Une distinction devra donc être faite entre les notions de système quantique, de système classique et de système cosmologique. Et nous verrons en quoi ces notions peuvent être reliées entre-elles par un principe de relativité d'échelle.

Un système est caractérisé par des variables d'état, qui décrivent l'état du système. Le modèle est mathématique et ne fait qu'approcher la réalité. Donc il n'est pas judicieux de se tenir à un seul type de modèle sous peine de ne pas pouvoir évoluer et s'approcher davantage de la réalité. C'est pourquoi il peut-être judicieux d'utiliser un type de modèle inachevé, suceptibles de se compléter en de multiples modèles différents, et ainsi avoir un champ d'exploration beaucoup plus large. Le modèle est rendu inachevé en ne retenant dans sa définition que quelques propriétés jugées fondamentales.

Le modèle comprends des variables d'état qui peuvent être dépendantes analytiquement entre elles et qui définissent l'état du modèle. Une variable d'état dépend explicitement d'autres variables, si elle est le résultat d'une série entière de ces variables, convergente sur un voisinage, et qui s'appellera la série de Taylor. C'est la dépendance explicite qui se traduit par un neurone.

Une variable d'état dépend implicitement d'autres variables, si elle et les autres sont utilisées dans une série entière (non dégénérée) convergente sur un voisinnage pour calculer une variables d'état que l'on contraint à valoir zéro. C'est la dépendance implicite, qui se traduit par une égalité à zéro d'une variable d'état.

Notez qu'un domaine de définition de fonction analytique est par principe un ensemble ouvert. Autrement dit, pour tout point du domaine de définition il existe un rayon non-nul tel que la boule de ce rayon, centré sur le point en question, soit inclus dans le domaine de définition.

5.1) Dépendance explicite

Les dépendances explicites se notent sous forme de neurone. Considérons par exemple les variables d'état `u,v,t,x`, et considérons le neurone suivant  :

`u,v"←"(t,x)`

Ce neurone signifie que la variable `u` est totalement déterminée par `t` et `x`, comme étant le résultat de la fonction `u(".,.")` portant le même nom et avec les mêmes parenthèses d'appel précisée dans le neurone, appliquée aux argument `(t,x)` qui sont précisés dans le neurone et qui constitue un système de coordonnées par défaut. Et de même pour `v`. On dira que `u` et `v` sont des variables de sortie ou des têtes de neurones. Et que les variables, `t` et `x`, sont des variables d'entrée.

Ainsi la variable d'état u s'apparente à une fonctions réel `u(".,.")` à deux arguments réels. Le résultat de la fonction est une variable qui porte le même nom que la fonction en enlevant la forme d'appel, c'est le principe de la notation du physicien. Le neurone qui précise cela, précise davantage. Il précise l'argument par défaut, faisant que dans les formules, là où l'on attend un élément du type de la variable `u`, c'est à dire ici un réel, l'expression `u` désignera `u(t,x)`. Et de même pour `v`. Autrement dit :

`u = u(t,x)`

`v = v(t,x)`

On utilisera souvent ainsi l'inférence de type pour économiser des déclarations superflus dans l'ébauche d'un formalisme toujours en construction. Car rappelez-vous : "Le choix du langage adapté au problème constitue la moitier de sa résolution".

Comme il peut y avoir de nombreuses formes d'appel distincts qui peuvent alourdire inutilement le langage des équations, on autorise la forme d'appel avec label :

`u = u(t"="t,x"="x)`

Dans cet appel, l'ordre des arguments n'a pas d'importance puisqu'ils sont nommés, les arguments sont des égalités où le premier membre est un nom de variable et le second membre une expression.

Remarquez que l'expression d'un calcul quelconque correspond à une variable d'état anonyme ou plutôt dont le nom correspond à l'expression de son calcul.

5.2) Dépendances implicites

Les dépendances implicites se notent sous forme d'égalité à zéro d'une variable d'état. Considérons par exemple les variables d'état `u,v,w`, et considérons le neurone suivant définisant la variable d'état `F` :

`F"←"(u,v,w)`

Considérons l'égalité suivante :

`F=0`

Cet égalité traduit une dépendance implicite entre les trois variables déterminant `F` que sont `u,v,w`. Dans un tel cas de figure, si la fonction `F(.,.,.)` n'est pas dégénérée, l'évolution de chacune des variables à partir d'un point `(u_0,v_0,w_0)` vérifiant `F(u_0,v_0,w_0)"="0` est déterminées par toutes les autres. On peut donc remplacer la dépendance implicite par une des trois fonctions implicites :

`u_("["u_0,v_0,w_0"]")"←"(v,w)`
`v_("["u_0,v_0,w_0"]")"←"(u,w)`
`w_("["u_0,v_0,w_0"]")"←"(u,v)`

Et on peut alors choisir quelle est la variable de sortie et quelle sont les variables d'entrées.

5.3) Un exemple

Reprenons notre système caractérisé par quatres variables d'état réels `u,v,t,x`, et le neurone `u,v"←"(t,x)`. Considérons que la variable `t` indique le temps, et que la variable `x` indique une position sur une droite. La variable `x` étant une variable d'entrée indépendante du temps, elle constitue ce que l'on appelle un indice. À un instant `t`, le système est décrit par les valeurs de `u` et de `v` pour chaque valeur de `x` sur la droite.

La génèse s'accomode mal avec l'infini. Aussi nous prendrons un exemple plus simple où `x` se situe sur un cercle, `x "∈" [0,2pi["⟲"`. Et on a pris le radian comme unité puisque cette unité est canonique pour le cercle. On a jouté le symbole `"⟲"` pour indiquer que l'on referme l'intervalle en reliant la fin au début sans rien modifier d'autre. C'est le même intervalle mais muni d'une structure comprenant une métrique particulière appelé variété différentielle et que nous appellerons variété algébrique en la redéfinissant algébriquement (voir partie 7).

A chaque instant `t`, l'état du système est décrit par l'ensemble de triplets suivant, qui correspond au graphe de deux courbes selon `x`, qui, nous le verrons plus tard seront nécessairement analytique, et le symbole "⟲" est important car cela perfectionne la propriété analytique des courbes en question : elles doivent être analytiques au voisinnage de `x"="0` qui coïncide au voisinage de `x"="2pi`. L'état du système est donc décrit par cet ensemble :

`{(u(t,x),v(t,x),x) "/" x"∈" [0,2pi["⟲"}`

6. De la nature analytique

La Nature tranche toujours toutes les situations en proposant une solution naturelle puisque supposée déterminée..., et cela s'opère sans mettre en oeuvre une quantité d'information infinie comme le montre l'expérimentation en physique quantique. Or notre modèle utilise les nombres réels, une structure mathématique dépassant la réalité. Un nombre réel transporte une quantité d'information infinie, ce que ne contient pas un état réel. Pour remédier à cet obstacle théorique, on commence par se restreindre aux seuls fonctions analytiques, en invoquant toujours l'intelligibilité supposée du monde et sa capacité de pouvoir dévoiler le détaille de toute ses évolutions, en les regardant de suffisamment prés, faisant que chaque transformations physiques mises en oeuvre se fait finalement toujours de manière harmonieuse et sans à-coup à quelque niveau de dérivée que ce soit. Les fonctions explicites ou implicites sont des fonctions analytiques c'est à dire indéfiniment dérivables et développables en tout point du domaine de définition en série de Taylor convergente sur un voisinnage. C'est l'hypothèse que nous sommes naturellement amené à faire.

Délors les variables de sortie sont des fonctions analytiques c'est à dire indéfiniment dérivables et développables en tout point du domaine de défintion en série de Taylor convergente sur un voisinnage. Dans le cas d'une seule variable d'entrée, `f"←"(t)`, cela se traduit ainsi : Quelque soit `t` dans le domaine de définition de `f`, il existe un rayon `r>0` de convergence tel que pour tout `h in ]t"-"r,t"+"r[` nous ayons :

`f(t"+"h) = f+f’h+(f’’)/2 h^2+(f’’’)/(3!)h^3+ ... + f^("("n")")/(n!)h^n + ...`

Ce qui s'écrit formellement :

`f(t"+"h) = sum_(n=0)^oo (f^("("n")"))/(n!) h^n`

Avec les conventions d'écriture suivante : La variable `f` possède à chaque instant `t` une valeur `f(t)` que l'on note simplement `f` puisque qu'elle possède `t` comme argument par défaut. De même pour les dérivées. Les variables dérivées successives `f’, f’’, f’’’,...` sont dépendantes de `t` comme l'est `f`. Puis nous avons les conventions `0! "=" 1` et `f^("("0")") "=" f`. Et pour la somme..., vous aurez remarqué l'utilisation d'une variable d'indice de même nom `n` qui masque la borne `n` dans la partie itérée. Le dernier terme étant confondu avec le terme itératif. On choisit cette notation économe en nombre de variables pour ne pas diluer le sens intuitif de la formule dans des détails superfétatoires, les règles de masquages étant ici suffisantes pour résoudre de façon formelle les ambiguités apparentes.

Puis la variable dérivée `f'` est définie formellement comme suit :

`f’"←"(t)`

`f’ = lim_(h->0) (f(t"+"h)-f)/h`

La démonstration du développement de Taylor se fait habituellement par une démonstration d'analyse. On se propose de le faire par une démonstration d'algèbre. Pour cela, il faudra développer un environnement théorique algébrique un peu plus poussé utilisant les hyperréels, remplaçant l'arbitrairement petit par un infiniment petit, remplaçant les équations de voisinages par des équations locales.

Toute variable dépendante et le résultat d'une fonction analytique explicite ou implicite, et doit donc être indéfiniment dérivables et développables en tout point du domaine de définition en série de Taylor convergente sur un voisinnage. Il en est de même pour les variables d'entrées. Les variables d'entrée étant arbitraires, leur dépendance arbitraire devront être également analytique. Dans la pratique la variable d'entrée dépendra souvent d'une variable représentant le temps, et sera souvent de dérivée constante et donc ses dérivées suivantes seront souvent posées nulles.

7. Notation ensembliste

Etant donné un ensemble muni d'une addition et d'une multiplication, formant ainsi une structure. Et étant donnés quelques uns de ses éléments `x,y` et quelques une de ses parties `A,B`.

On adopte la notation ensembliste. Les calculs peuvent combiner des éléments et des ensembles. Et ils s'interprètent en appliquant le quantificateur existentiel à chaque ensemble :

`x"+"A`
  `=`  
  `{x"+"y "/"EEy "∈" A}`
`A"+"B`
`=`
  `{x"+"y "/" EEx "∈" A, EEy "∈" B}`
`xA`
`=`
  `{xy "/" EEy "∈" A}`
`AB`
`=`
  `{xy "/" EEx "∈" A, EEy "∈" B}`
 

De même on donne un sense à l'égalité entre un élément et un ensemble qui est le suivant :

`x"="A`
    `<=>`    
  `EEy "∈" A, x"="y `
    `<=>`    
`x "∈" A`
`x"="y"+"A`
`<=>`
  `EEz "∈" A, x"="y"+"z`
`<=>`
`(x-y) "∈" A`

Lorsque `x"="y"+"A` on dit que `x` égale `y` à `A` près.

Si la structure est de plus, munie d'une relation d'ordre stricte `"<"` ou non-stritce `"⩽"`, on adopte la notation ensembliste faisant que quelque soit un élément `x` de la structure et des parties `A,B` de la structure, la relation entre un élément et un ensemble, ou entre un ensemble et un élément, ou entre deux ensembles, s'interprètent en appliquant le quantificateur universelle à chaque ensemble :

`x<A` `<=>`   `AAy "∈" A, x<y`
`A<x` `<=>`   `AAy "∈" A, y<x`
`A<B` `<=>`   `AAx"∈" A, AAy"∈" B, x<b`

8. Ordre différentiel

Le calcul différentiel s'intéresse aux petites variations pour établir les lois qui s'opèrent exclusivement localement dans un modèle. Mais une petite variation multipliée par un nombre entier peut toujours devenir une grande variation qui n'est alors plus locale. Pour s'affranchire de cela, il faut rompre avec cet axiome d'archimède, et inventer des nombres infiniments petits, ou dits infinitésimaux, qui sont plus petits que tous les réels strictement positifs, ainsi, multipliés par n'importe quel entier naturel, ils restent toujours infinitésimaux. On passe ainsi de l'infini potentiel que représente le nombre arbitrairement petit, à l'infini acté que représente le nombre infinitésimal `epsilon`.

Ce passage à l'infini acté correspond à une extension élémentaire de corps ordonnée, c'est à dire correspond à l'ajout dans `RR` d'un nouvel élément `omega` plus grand que tous les réels, pour produire encore une structure de corps ordonnée. Une telle extension n'est pas toujours possible. Elle peut aboutire à une incohérence ou à une réduction drastique de la structure résultat. Mais tel n'est pas le cas ici, cela aboutit à une structure des hyperréels, un corps totalement ordonné non-archimédien contenant les réels.

On suppose donc l'existence cohérente de cette structure de corps des hyperréels totalement ordonnée contenant `RR`, engendrée par `RRuu{omega}``RR<omega`.

Cela va nous permettre d'enrichir le concept de suite convergente et de manipuler ces suites comme on manipulerait des nombres hyperréels.

"Dans le monde analytique, toute limite se calcule par un développement de Taylor."

Les nombres infinitésimaux sont des hyperréels. Ce sont des nombres infiniment petit vis-à-vis de `1`, et qui apparaissent par le choix d'un étalon de l'infiniment petit noté `epsilon`, marquant le passage de l'infini potentiel à l'infini acté. Cette première génération de nombres infinitésimaux constituent des infiniments petits du premier ordre, c'est à dire de l'ordre de `epsilon`, dont l'ensemble se note `O(epsilon)`. Si on multiplie deux tels éléments, on obtient alors un élément du second ordre, de l'ordre de `epsilon^2` qui est un infiniment petit vis-à-vis de `epsilon`, et dont l'ensemble se note `O(epsilon^2)`. Et ainsi de suite... L'ensemble des nombres réels `RR` fait partie de l'ensemble des hyperréels de l'ordre de `1` qui se note `O(1)` et constitue une strate archimédienne notée `RR`.

Il apparait symétriquement un étalon de l'infiniment grand `omega =1"/"epsilon`. C'est ainsi que l'on perçoit une partie des hyperréels par le biais d'une suite croissante d'ordres différentiels :

` ... O(epsilon^3) ⊂ O(epsilon^2) ⊂ O(epsilon) ⊂ O(1) ⊂ O(omega) ⊂ O(omega^2) ⊂ O(omega^3) ...`

Les ordres différentiels s'emboitent comme des poupées russes mais ne se mélangent pas : les sommes finies ou convergentes d'éléments d'un ordre produisent un élément du même ordre. Et le produit de deux éléments est dans l'ordre résultant du produit des deux ordres.

Les hyperreéls constituent une extension du corps des réels totalement ordonnés mais non-archimédien. Il est à noter qu'il existe une version dénombrable satisfaisant aux seuls propriétés du premier ordre de la structure. Car c'est une propriété de la logique du premier ordre que de toujours posséder au moins un modèle dénombrable.

Puis les hyperreéls que nous utiliserons seront toujours stratifiés c'est-à-dire appartiendront toujours à :

`"...+"omega^3RR"+"omega^2RR"+"omegaRR"+"RR"+"epsilonRR"+"epsilon^2RR"+"epsilon^3RR"+..."` 

Le monde des fonctions analytiques est celui des séries entières convergentes sur un voisinnages. Pour toutes fonctions analytiques, et pour tout point de son domaine de défintion, la fontion se décompose en série entière convergentes sur un voisinage de ce point. Et cette série entière s'appelle la série de Taylor. Prenons par exemple une fonction analytique `f` à une variable :

`f"←"(x)`

`f=a_0+a_1x+a_2x^2+a_3x^3+...`

`f=sum_n a_nx^n`

L'extention du corps de réel par l'ajout d'un inifiniment petit `epsilon` va permettre de calculer `f(x"+"epsilon)` en une valeur hyperréelle stratifiée c'est à dire appartenant à `RR"+"epsilonRR"+"epsilon^2RR"+"epsilon^3RR"+..."` que l'on peut par la suite tronquer à l'ordre que l'on veut.

9. Opérateur de différentialisation `d` (introduction)

On considère une évolution infinitésimale du système. Le système étant analytique, chaque variable d'état du système va subire une variation infinitésimale.

L'élément différentiel `dx` désigne une variation infinitésimale de `x`. Autrement dit, la variable `x` contient un réel appartenant à `RR`, tandis que la variable `dx` contient un infinitésimal du premier ordre c'est-à-dire appartenant à `epsilonRR`. Et cette troncature supprimant de `dx` les valeurs d'ordre inférieurs à `epsilon` ne constitue qu'une convention comme l'est la définition d'`epsilon`. Si de plus `x` est une variable d'état libre alors `dx` forme une variable d'état infinitésimale du premier ordre également libre.

La différentialisation `d` a une priorité syntaxique posée plus élevée que les opérations `"+ - * / ^ ’ "`, faisant que `du^2` est égale à `du"·"du` et non à `d(u^2)`, et appliqué plusieurs fois de suite, elle se compose en une puissance `d(d(du))= d^3u`. Ainsi `d^3` est l'opérateur qui différentialise trois fois de suite.

`du"·"du=du^2`

`d(d(du))= d^3u`

Par contre, l'appel de fonction est prioritaire :

`df(x) = d(f(x))`

On généralise la question en prenant une variable d'état `K` d'un ordre différentiel `n` quelconque mais appartenant à un domaine archimédien, c'est à dire appartenant à la strate `epsilon^nRR`, ainsi toujours tronquées à l'ordre différentiel de son domaine c'est à dire en négligeant les ordres inférieurs à celui d'`epsilon^n`. Cela reste toujours rigoureux car les ordres inférieurs, même multipliés par un entier arbitrairement grand, ne dépasserons jamais le plus petit des hypéreels d'ordre au dessus. C'est cette propriété du corps des hyperréels d'être non-archimédien qui permet ce troncage rigoureux, et qui devrait être suffisante pour permettre de remplacer un grand nombre de démonstration analytique par des démonstrations algébriques.

L'opérateur de différentialisation `d` appliqué à la variable d'état libre `K` d'ordre différentiel `O(epsilon^n)` engendre une nouvelle variable différentiel `dK` d'ordre différentiel `epsilonO(K)` juste en dessous de l'ordre différentiel `O(K)`.

`AAK"∈" O(epsilon^n), dK"∈" O(epsilon^(n"+"1))`

Et comme les variables d'état considérés ont des domaines archimédiens :

`AAK"∈" epsilon^nRR, dK"∈" epsilon^(n"+"1)RR`

Mais, sauf à quelques rares exceptions où cela est mentionné explicitement, on n'utilisera pas de variable nommée autre que réel, faisant qu'une expression différentielle du `n`-ième ordre apparaitra toujours avec `n` opérateurs de différentialisation. Par exemple la valeur `dxdydzd^2t` sera du `5`ième ordre c'est à dire appartiendra à `epsilon^5RR`.

Il n'est pas forcement opportun de vouloir définir complètement cet élément différentielle `du`, car déjà la signification de la valeur réel `u` dépasse la réalité physique qui ne contient pas cet infini informationnel des nombres réels. Il s'agit d'un modèle qu'on applique pour simuler le monde. Et on ne fait, qu'approcher la réalité. Néanmoins il existe des propriétés portées par l'opérateur de différentialisation, noté par le préfixe `d`, qui peuvent s'appliquer à d'autres structures mathématiques pouvant prétendrent refléter davantage la réalité. C'est pourquoi, on s'en tient à le définir dans un cadre plus général mais incomplet, qui est une induction faite en ne gardant que quelques propriétés jugées fondamentales.

10. La différentialisation `d`

Considérons une variable d'état `f` dépendant totalement d'une variable d'état `x` ce qui se note par le neurone `f"←"(x)`. La fonction évoquée `f(".")` est analytique. En chaque point `x` de son domaine de définition, la fonction se développe en une série de Taylor autour de `x` convergente sur un voisinage. C'est l'équation au voisinage de `x` à laquelle obéit toute variable `f` dépendante totalement de `x` :

  `f"←"(x)`

  `h` de norme arbitrairement petite.

  `f(x"+"h)=f+f’h+(f’’)/2h^2 +(f’’’)/(3!)h^3+...`  

  `f(x"+"h)=sum_n f^("("n")") h^n`

L'extension du corps des réels s'obtient par l'ajout de l'infiniment petit `epsilon`. La variable `dx` appartient par définition à `epsilonRR` et il en est de même pour la variable `df`. Cette extension du corps des réels va permettre de définir formellement `f(x"+"dx)` en une valeur hyperréelle appartenant à `RR"+"dxRR"+"dx^2RR"+"dx^3RR"+..."`. Par définition, nous avons :

  `dx "∈" epsilonRR`
  `df "∈" epsilonRR`
  `f(x"+"dx)"∈"RR"+"dxRR"+"dx^2RR"+"dx^3RR"+..."`  

La définition algébrique de l'opérateur `d` appliqué à la variable d'état `f` est alors la suivante : 

  `f←(x)`

  `df = f(x"+"dx) - f + O(dx^2)`

Le terme `+O(dx^2)` signifie que l'on néglige les composantes en `dx^2` ainsi que les suivantes, afin que  `df "∈" epsilonRR`. Cela reste rigoureux car ce sont des ordres différentiels plus petits. Et cela correspond à la définition analytique classique du passage à la limite dans `RR`  :

`f’=lim_(h->0)(f(x+h)-f)/h`

L'expression `f(x"+"dx)` constitue un nouveau type de variable d'état, une variable d'état dont la valeur est un hyperréel appartenant à `RR"+"dxRR"+"dx^2RR"+"dx^3RR"+..."`. En calculant `f(x"+"dx)`, on obtient l'équation locale en `x` à laquelle obéit toute variable d'état dépendante totalement de `x` :

  `f←(x)`

  `f(x"+"dx) = f+f’dx+(f’’)/2dx^2+(f’’’)/(3!)dx^3+...`

  `f(x"+"dx) = sum_(n in NN)f^("("n")")/(n!) dx^n`

Avec comme convention d'écriture, ce qui découle des neurones : `f"="f(x)` et `f’"="f’(x)` ..., et `f^((n))"="f^("("n")") (x)`. Puis avec la convention suivante `0! "=" 1` et `f^("("0")") "=" f`. Et pour la somme, l'utilisation d'une variable d'indice de même nom `n` masquant la borne `n` dans la partie itérée. L'équation locale traduit l'équation au voisinage en remplaçant l'arbitrairement petit `h` par l'infiniment petit `dx`.

Les dérivées s'obtiennent comme suit :

`f’ = (df)/dx = (f(x"+"dx)-f)/dx + O(dx)`

`f’’ = (d^2f)/dx^2 = (f’(x"+"dx)-f)/dx + O(dx)`

`f’’’ = (d^3f)/dx^3=(f’’(x"+"dx)-f)/dx + O(dx)`

`f^("("n")") =(d^(n)f)/dx^(n)= (f^("("n"-"1")")(x"+"dx)-f^("("n"-"1")"))/dx + O(dx)`

Ainsi, l'équation locale peut s'écrire :

  `f←(x)`

  `f(x"+"dx) = f+df+(d^2f)/2+(d^3f)/(3!) +...`  

  `f(x"+"dx) = sum_n (d^n f)/(n!)`

 

11. La différentialisation partielle

Considérons une variable d'état `f` qui dépend totalement des variables `x` et `y`. On le précise en déclarant le neurone `f"←"(x,y)`. La fonction ainsi évoquée `f(".,.")` est analytique, et donc se développe en série entière à deux variables, et est convergente sur un voisinage de `(x,y)`. C'est l'équation au voisinage de `(x,y)` à laquelle obéit toute variable d'état `f` totalement dépendante de `x` et `y` :

  `f"←"(x,y)`

  `h,k` de norme arbitrairement petite.

  `f(x"+"h,y"+"k)=sum_(n,m) a_(n,m) h^n k^m`

Cette équation au voisinage est remplacée par l'équation locale suivante :

  `f"←"(x,y)`

  `f(x"+"dx,y"+"dy)=sum_(n,m) a_(n,m) dx^n dy^m`

Les constantes `a_(n,m)` sont les coefficients de la série entière qui correspondra au développement de `f` autour du point `(x,y)` en la série de Taylor-Young.

La définition de l'opérateur `d` appliqué à la variable d'état `f` est la suivante : 

`df = f(x"+"dx,y"+"dy)-f + O(epsilon^2)`

Comme la fonction possède plusieurs variables, la différentialisation de la fonction `f"(x"=.",y"=.")"` peut être partielle selon son premier argument `x`, ou partielle selon son second argument `y`, ou totale `d`, définissant ainsi trois opérateurs de différentialisation `del_x, del_y, d` dont les définitions sont :

`del_xf= f(x"+"dx,y)-f + O(epsilon^2)`
`del_yf= f(x,y"+"dy)-f + O(epsilon^2)`
`df= f(x"+"dx,y"+"dy)-f + O(epsilon^2)`

Les opérateurs de différentialisation ne différentialisent que dans un ordre de grandeur. Ainsi :

`dx "∈" epsilonRR`
`dy"∈" epsilonRR`
`df "∈" epsilonRR`
`del_x f "∈" epsilonRR`
`del_y f "∈" epsilonRR`
`f(x"+"dx, y"+"dy)"∈"RR"+"dxRR"+"dx^2RR"+"dx^3RR"+..."`  

Développons les calculs de `df` de `del_1f` et de `del_2f` à partir de la série de Taylor-Young en ne gardant qu'une somme de termes d'ordre supérieurs ou égals à `O(epsilon)` :

`del_xf= f(x"+"dx,y)-f(x,y)+ O(epsilon^2)`
`del_xf= a_(0,0)+a_(1,0)dx - a_(0,0)`
`del_xf= a_(1,0)dx`

`del_yf= a_(0,1)dy+ O(epsilon^2)`
`del_yf= a_(0,0)+a_(0,1)dy - a_(0,0)`
`del_yf= a_(0,1)dy`

`df= f(x"+"dx,y"+"dy)-f+ O(epsilon^2)`
`df= a_(0,0)+a_(1,0)dx+a_(0.1)dy - a_(0,0)`
`df= a_(1,0)dx+a_(0.1)dy`

On remarque la propriété suivante :

`df= del_xf + del_yf`

Et cette propriété s'applique pour les fonctions à trois arguments et plus :

`f←(x,y,z)`

`df = del_xf(x,y,z) + del_yf(x,y,z) + del_zf(x,y,z)`

La différentialisation partielle ne peut se définir que par rapport à une différentialisation totale, d'où la nécessité de choisir le lien de dépendance totale `f"←"x,y,z` sans quoi la définition est incohérente. C'est pourquoi on rappel toujours le liens de dépendance totale utilisé pour les définir :

`df=del_xf+del_yf+del_zf` avec `f"←"x,y,z`

On trouve dans la littérature également des différentielles partielles mentionnant en indice après un symbole "|" les autres variables de la différentielle totale posées comme étant constantes :

`df=del_(x|y,z)f+del_(y|x,z)f+del_(z|x,y)f`

12. Les fonctions exponentielles

Les réels se construisent à partir de l'unité `1` et de la somme `+` définie comme opération associative commutative libre, ce qui engendre le semi-groupe `NN^"∗"`, auquel on ajoute le passage à l'opposé représenté par la fonction unaire `x|->-x` ce qui engendre l'anneau `ZZ`, auquel on ajoute le passage à l'inverse représenté par la fonction `x|->1"/"x` où le produit reste associatif, commutatif et distributif par rapport à l'addition, ce qui engendre le corps `QQ`, qui est ordonné et que l'on complète selon cette métrique en le corps ordonné complet `RR`.

La complétion de `QQ` en `RR` passe de l'infini dénombrable à l'infini continu. La génèse est incompatible avec l'infini, et donc d'autant plus avec l'infini continu. Cet infini continu est une construction abstraite, un artifice mathématique. Il est pondéré par la restriction analytique, une restriction qui consiste à n'utiliser que des fonctions analytiques, c'est à dire continues, indéfiniment dérivables et égales par morceaux à des développement de Taylor convergents.

La définition de la multiplication dans `ZZ` puis le passage de `ZZ` à `QQ`, c'est ainsi que l'addition engendre la multiplication. Il est alors opportun de s'interesser aux fonctions exponentielles, c'est à dire aux fonctions `f` dans `RR` satisfant la propriété suivante :

`AA(x,y) "∈" RR^2, f(x"+"y)=f(x)f(y)`

Une telle fonction `f` établit un isomorphisme entre deux structures de corps. Le corps des réels, `(RR,"+","∗",0,1)`, muni de son addition, `"+"`, de sa multiplication, `"∗"`, de son zéro, `0`, et de son un, `1`. Et le corps multiplicatif des réels strictements positifs `(RR_"+"^"∗","∗","∙",1,b)` de base `b`, muni de son addition `"∗"`, de sa multiplication `"∙"`, de son zéro, `1`, et de son un, `b`, qui constitue la base de l'exponentielle `b"="f(1)` :

`f : (RR,"+", 0, "∗", 1) -> (RR^"∗+","∗", 1, "∙",b)`

`AA(x,y) "∈" RR^2, EE(u,v) "∈" RR^"∗+2",`

`0|->1`
`1|->b`
`x|->u`
`y|->v`
`x"+"y|->u"∗"v`
`x"∗"y|->u"∙"v`

`f(0)=1`
`f(1)=b`
`f(x)=b^x`
`u"∙"v = u^(f^("-"1)(v))`

Cela se démontre comme suit : L'isomorphsisme entraine une succession d'évidences.

`1=f(0)=f(x-x)=f(x +(-x))=f(x)f(-x)`

`f(-x)=1/f(x)`

`f(x-y)=f(x)/f(y)`

La fonction `f` est continue par principe. En effet, on s'aventure dans le monde du continu en se restreingnant aux seuls fonctions analytiques.

`AAn "∈" NN`, `AAq "∈" NN^"∗+"`,

`f(n"∗"x)=f(x)^n`

`f(x)=f(n"∗"(x"/"n))=f(x"/"n)^n`

`f(x"/"n)=f(x)^(1"/"n)`

`f((n"/"q)"∗"x)=f(x)^(n"/"q)`

et comme `f` est continue, `f(x"∗"y)=f(y)^x=f(y"∗"x) =f(x)^y`, et donc :

`f(x)=f(x"∗"1)=f(1)^x=b^x`

`u"∙"v = f(x"∗"y)=f(x)^y=u^(f^("-"1)(v))= f(y"∗"x)=f(y)^x=v^(f^("-"1)(u))`

C'est ainsi que l'on définit l'élévation à la puissance :

`f(x)=b^x`

13. L'exponentielle

Lucas Willems part de l'hypothèse d'une fonction `sf"exp"` analytique, égale à sa dérivé, et envoyant `0` sur `1`  :

`sf"exp"(x) = a_0+a_1x+a_2x^2+a_3x^3+a4x^4+...`

`sf"exp"’=sf"exp"`

`sf"exp"(0) = 1`

Il en déduit :

`sf"exp"(0) = a_0`  donc  `a_0=1`

`sf"exp"(x) = a_0+a_1x+a_2x^2+a_3x^3+a_4x^4 +...`

`sf"exp"’(x) = a_1+2a_2x+3a_3x^2+4a_4x^3 +5a_5x^5+...`

`a_0=a_1`
`a_1=2a_2`
`a_2=3a_3`
`a_3=4a_4`
...
`a_(n"-"1)=na_n`

Et donc :

`AAn "∈" NN"*",  a_n=(a_(n"-"1))/n`

`a_n = (a_(n"-"1))/n = (a_(n"-"2))/((n"-"1)n) = (a_(n"-"3))/((n"-"2)(n"-"1)n) = (a_0)/(1*2*3...(n"-"2)(n"-"1)n)`

`a_n = 1/(n!)`

 

 

---- 23 avril 2023 ----

 

 



 

Dominique Mabboux-Stromberg

 

Précédent
Suivant