Dans une vidéo que j’ai regardée
dernièrement, un électronicien expliquait quelques fondements mathématiques.
J'ai été surprise de voir comment ce monsieur pouvait expliquer, de fait, très clairement, certains des principes les plus importants de la physique.
On sait qu'en science, il n'y a pas plus beau mariage que celui qui lie la physique et les mathématiques. Il y a une raison simple à cela. Les lois de la nature seraient écrites en langage mathématique. Quoi de mieux, dans ce cas, pour expliquer les phénomènes de la nature, que de recourir aux mathématiques. Mais ce n'est pas tout. Si les lois de la nature sont écrites en langage mathématique, si les lois de la physiques sont pertinentes, en ce qu'elles décrivent effectivement les phénomènes qui nous entourent, alors il est possible que les maths, dans ce qu'elles ont de plus profond, nous apprennent des choses sur nous-mêmes. Elles peuvent inspirer une réflexion philosophique.
C'est ce que je me propose d'ébaucher dans cet article.
A partir de quelques concepts mathématiques, je voudrais montrer comment on peut, moyennant quelque effort d'abstraction, essayer de penser les choses en profondeur.
Je vais pour ce faire, m'inspirer d'un instrument incontournable, fondamental dans les mathématiques qui sont utilisées en physique, qu'on appelle les fonctions trigonométriques.
Dans la vidéo (dont vous trouverez le lien au bas de l'article), notre homme raconte que les fonctions trigonométriques
Sinus et Cosinus interviennent ultra fréquemment dans le calcul de dérivées
partielles.
En physique, les dérivées partielles sont utilisées pour décrire les mouvements de fluides, ondes, gaz, etc... Ces fonctions trigonométriques sont très pratiques car leurs dérivées sont redondantes et
récursives :
Exemple :
Dérivée de la
fonction Cos -> -sin
Dérivée de la dérivée de la fonction
Cos -> cos
Dérivée de la dérivée de la dérivée
de la fonction Cos -> sin
On observe une jolie récursivité.
La fonction exponentielle
présente un phénomène semblable :
Dérivée de ex -> ex -> ex
La dérivée est identique à la fonction.
Il semblerait que les lois
physiques que nous avons consciencieusement établies soient, en grande partie, régies par des équations Cos, Sin et
Exponentielle.
Qu’est –ce que Cos et
qu’est-ce que Sin :
Sinus : à l’origine, c’est une
longueur. Dans un triangle rectangle, prenons un des deux angles qui n’est pas
droit, nommons-le « Alpha ». Le sinus de cet angle correspond au
rapport entre la longueur du côté opposé à alpha sur la longueur du côté adjacent le plus long (hypoténuse).
Le Cosinus de cet angle
« Alpha » correspond au rapport entre la longueur du côté adjacent
sur la longueur de l’hypoténuse.
Sin et Cos peuvent aussi se
calculer non plus dans un triangle rectangle mais dans un cercle de rayon
unité. Comme ce qui se passe dans cette démonstration est très intéressant, il
faut regarder :
On prend un système de coordonnées
cartésien (c’est très simple : un repère avec un axe horizontal qui
représente les abscisses et un axe vertical qui représente les ordonnées). On
note 0 l’intersection des deux axes. On trace un cercle de rayon 0 ; x=1,
on a notre cercle de rayon unité.
Traçons une droite qui coupe notre
cercle en un point p, et qui passe par le centre du cercle (qui est aussi
l’origine du repère), avec p ayant pour abscisses x un nombre n comprit entre 0
et 1. (Le point p se trouve dans le quart « positif » du
repère cartésien).
La droite passant par 0 et par p
crée un angle avec l’axe des abscisses. Notons cet angle « oméga ».
On projette le point p sur l’axe
des abscisses en p’ : on obtient une longueur 0p’ qui correspond à la
valeur du cosinus d’oméga.
Pour obtenir le sinus
d’oméga : on projette le point p sur l’axe des ordonnées en p’’, le sinus
est alors égal à la longueur du segment
0p’’.
Ce qui est intéressant dans cette
démonstration dans le cercle unité c’est que pour définir le Sinus, on
« sort » du triangle qui contient oméga. On projette le point p
« ailleurs » (sur l’axe des ordonnées) qui permet de former un
triangle qu’on pourrait qualifier de complémentaire, et ces deux triangles
forment un quadrilatère (0p’pp’’). On a deux triangles rectangles. Par
construction symétrique, on peut poser l’angle oméga’ et on constate que la
longueur 0p’’ correspond au sinus d’oméga' si on se fie à la première démonstration
faite dans un triangle rectangle. On retombe sur nos pattes. Cela dit,
d’instinct, on sent que la démonstration dans le cercle unité est plus porteuse
de signification, plus exploitable, que la démonstration dans un triangle
rectangle.
C’est important. Le fait de sortir
du cadre, de prendre un cadre plus grand permet de comprendre plus de choses
mais pas seulement. Cela permet très souvent de simplifier les choses.
Nous avons vu d’où venaient et ce
qu’étaient nos Sin et Cos, voyons d’où vient la fonction exponentielle.
C’est une fonction très étrange
qui pour tout x associe un y tel que y=
ex.
On voit dans la construction
géométrique suivante qu’elle a quelques propriétés intéressantes :
en y = 1 , x vaut 0,
en y=0, x vaut e, soit environ
2.178…
Elle transforme une somme en
produit
Elle est sa propre dérivée
Etc, elle a encore bien d’autres
propriétés.
Voici maintenant les
représentations graphiques des fonctions Sin x et Cos x :
A priori, on se dit que les fonctions Sin et Cos n'ont rien à voir avec la fonction exponentielle.
Dans le graphe ci-dessus, les valeurs sur l’axe des x sont
exprimées en radians (degrés exprimées en fonction de pi) pour la simple raison
qu’on travaille avec les sin et cos tels qu’on les a vu dans le cercle unité,
et qui dit cercle, dit pi. (Rappel : pi est le rapport de la circonférence
d’un cercle à son diamètre).
A priori, on se dit que les fonctions Sin et Cos n'ont rien à voir avec la fonction exponentielle. Et pourtant.On va voir qu'elles peuvent être réunies.
C’est important d’avoir ces
représentations en tête, de voir par exemple la différence d’évolution de la
courbe sinusoïdale par rapport à la courbe qui représente la fonction cos, quand
x vaut pi/2, pi, 2pi. On sent qu’il
existe une forme de complémentarité entre les deux courbes.
Un très grand nombre de phénomènes
physiques qui nous entourent sont étudiés sous forme de signal. En effet, de
nombreux phénomènes présentent une périodicité, une fréquence de répétitions.
Si une flûte émet un la, par
exemple. Mon oreille perçoit ce son comme s’il était lisse, parfaitement
continu, sans fluctuations de hauteurs. Si je branche un capteur pour connaitre
la fréquence de cette note, si cette fréquence est représentée sur le petit
écran d’un oscilloscope, je vois apparaître une courbe sinusoïdale. Plus le son
est lisse à mon oreille, plus il est régulier dans sa période, plus la courbe
sinusoïdale est régulière sur l’écran.
On appelle ce genre de signal un
signal périodique.
Fréquence et période sont des
rapports entre durée et amplitude du signal :
On utilise les fonctions sin et cos
pour étudier les phénomènes périodiques. ( Les phénomènes non périodiques sont dits
avoir une fréquence nulle et une période qui s’étend vers l’infini).
Bref.
Une grande partie des phénomènes de la nature émet un signal, en fait. Ainsi, l'étude du signal, en général, représente-t-il une grande partie de la physique.
Si je m’intéresse à ces
considérations de base en mathématique, les fonctions trigonométriques, c’est qu’elles sont fondamentales.
Elles interviennent partout dans les mathématiques qu’utilise la physique pour
décrire les phénomènes de la nature. Cela veut dire que ces notions de sinus,
de rapport de proportions autour des angles dans un cercle correspondent à une
vérité ontologique vraiment très forte. La nature s’exprime en angles,
pourrait-on dire, bien que ces derniers aient été portés à des niveaux de
généralisation extrêmement abstraits, qui n’ont presque plus rien de
géométrique (de trigonométrique, en l’occurrence).
C’est sur le processus de
généralisation en mathématique que je souhaiterais maintenant m’appesantir un
peu.
Rien de tel qu’un exemple pour
introduire le sujet. Je le tire de la petite vidéo dont je parlais au tout
début de cet article.
Sans avoir besoin d’entrer dans les
détails, notre homme étudie les fonctions Cos x, Sin x et ex à
partir des séries de Taylor et voici ce qu’il obtient. Il n’y a pas à
comprendre, juste à regarder :
(Figure 5)
Au signe près, on voit que la
fonction (Sin x + Cos x) ressemble beaucoup à la fonction ex.
Il est en fait possible de
fusionner toutes ces fonctions en une seule, ce qu’on va voir dans un instant,
après un petit détour essentiel par le concept d’orthogonalité.
On définit généralement
l’orthogonalité de façon géométrique, en disant par exemple que le repère
cartésien ( avec les x en abscisses et les y en ordonnées) est orthogonal car
les deux axes se croisent en formant un angle droit. On dira aussi que
l’orthogonalité est à l’espace ce que la perpendicularité est au plan, une
sorte de projection de la perpendicularité dans l’espace à trois dimensions
(qui fait que deux droites peuvent être orthogonales sans être sécantes). Cette
définition ne rend pas complètement compte de ce qu’est le principe d’orthogonalité.
En effet, l’orthogonalité, d’un
point de vue plus fondamental, décrit l’indépendance qui existe entre 2 choses.
Par exemple, si on reprend notre repère cartésien, on dira que les abscisses et
les ordonnées sont orthogonales, parce qu’elles sont perpendiculaires, certes ,
mais aussi parce qu’ il est impossible d’exprimer une abscisse au moyen d’une
combinaison de y, et réciproquement. Tout point du repère s’exprime Et avec x Et avec y.
C’est aussi cela l’orthogonalité.
Abscisse et Ordonnée sont orthogonales parce qu’on ne peut pas remplacer y par
des x. Le rôle d’une fonction mathématique est précisément de montrer
l’interaction qui existe entre deux notions orthogonales. Une fonction montre
comment une notion réagit en fonction de l’autre, les variations de y par rapport aux
variations de x, donc il y a un lien entre x et y mais fondamentalement, on ne
peut pas supprimer l’un ou le transformer en combinaison de l’autre. La nuance
est très subtile mais elle est capitale. En gros, on peut dire qu’il n’y a
pas d’interaction sans orthogonalité et d’un point de vue philosophique, on
touche le vertige en disant cela.
Mais n’allons pas trop vite.
Ce qui est intéressant c’est que
les fonctions Sin x et Cos x sont orthogonales entre elles. Comme pour x et y
dans notre repère précédent, il existe des fonctions qui les lient, mais
fondamentalement, un sinus est un sinus et non pas un cosinus. Ils ne sont pas
interchangeables. Si un sinus n’était pas fondamentalement différent d’un
cosinus, on aurait un élément inutile sur les deux, un se répéterait et ne
servirait donc à rien. Ce n’est pas encore trop compliqué à comprendre.
Reprenons nos deux fonctions
de tout à l’heure : sin x +cos x d’une part et ex
d’autre part.
On a vu grâce aux séries de Taylor qu’elles se
ressemblaient beaucoup. Intuitivement, on se dit qu’il doit y avoir un moyen de
les réunir. Et c’est le cas. Pour ce faire, il faut les
« travailler » sur un autre plan, à savoir le plan complexe. Ce plan,
sans trop entrer dans les détails, n’est pas très compliqué. Il demande de
passer à un niveau d’abstraction un peu plus élaboré.
Plutôt que de prendre pour x des
valeurs réelles ( qui sont toutes représentables sur un seul axe allant de
moins l’infini à plus l’infini et sur lequel on place tous les nombres qu’on
peut connaitre, les entiers , les fractions, les irrationnels (pi, e, etc), les
nombres négatifs…), on va inventer quelque chose.
On sait que les nombres réels
peuvent être soumis à diverses opérations comme l’addition, la multiplication,
la division, etc. On sait qu’un nombre positif ou négatif, multiplié par
lui-même, donne toujours un résultat positif. 2 au carré donne 4 ; (-2) au
carré donne 4 aussi.
Et si on imaginait un nombre qui,
élevé au carré, donnerait un résultat négatif ? par exemple un nombre i,
élevé au carré, qui serait égal à (-1) ?
C’est ce qu’on a fait. Alors, en
réalité, on n’a pas inventé cela pour faire joli. Non. Ce nombre i s’est en
quelque sorte imposé de lui-même à une époque, comme solution d’équations polynomiales. Comment résoudre par
exemple : x2 = -1 ?
C’est dans ce cadre là qu’ont été
inventés les nombres imaginaires. Le nombre imaginaire i ne se trouve pas sur
l’axe des réels mais sur un axe perpendiculaire à ce dernier. Sur cet axe, on
trouve aussi des nombres tels que 5i, 3i, etc . Un nombre complexe est un
nombre qui a une partie réelle et une partie imaginaire. Il prend la forme ai +
b avec ai : partie imaginaire ; b : partie réelle, et le nombre
complexe peut être représenté dans le plan complexe que créent nos deux axes,
comme suit :
On a trois nombres complexes
représentés dans le plan : 3 +2i ; -3+4i ; -4-3i. Ce sont des
nombres à deux dimensions : réelle et imaginaire. Ils ont l’air
sophistiqués et donc compliqués, mais ce n’est qu’une apparence. En fait, ils
permettent de simplifier certains calculs. Regardez.
Si on introduit i, le nombre
imaginaire, dans nos fonctions Cos, Sin
et exp, de tout à l’heure, voilà ce qui se passe, toujours avec nos séries de
Taylor :
Les fonctions eix et
(cos x + isin x ) correspondent quand on introduit i !
Voici la représentation graphique
de eix :
C’est un cercle ! (fait à main levé sur le papier donc pas très centré...) Mais voilà qui
est intéressant : nous avons une belle illustration de la récursivité, déjà très
présente dans nos fonctions prises séparément (rappelez-vous les dérivées de Sin et Cos qui "retombent" sur elles-mêmes et la dérivée de la fonction exponentielle égale à elle-même), mais aussi dans la définition même du Sinus
(rappelez-vous le cercle que l’on a construit au tout début pour calculer le sinus de l’angle oméga).
Cercle, récursivité, fréquence forment un jeu de miroir assez exceptionnel quand on y pense. Et ces réflexions récursives sont "simplifiées", ( voire visibles!) grâce à l’ajout d’une
dimension supplémentaire (le plan complexe), elle-même lié à une orthogonalité
fondamentale sans laquelle il n’y a plus de dimension possible...
Orthogonalité entre réel et imaginaire, entre positif et négatif, entre vertical et horizontal...
Prenons une petite respiration pour
nous remettre de ces émotions.
Un verre d’eau, si vous voulez.
Et poursuivons.
Cette formule ci-dessus ( eix = cos x + i sin x) est très
importante. Elle est à l’origine de la fonction d’onde qui rend compte de la
propagation des ondes. Elle est à l’origine des équations
de Maxwell qui décrivent la force électromagnétique, force sur laquelle on va s’appesantir
un instant.Cette équation est aussi un peu partout en physique quantique.
La force électromagnétique …
Rappelons-nous que cette force est comprise comme un couplage entre électricité
et champ magnétique, ainsi que les travaux de Faraday, Maxwell et d'autres physiciens du 19ème siècle l'ont montré. Or il s’avère que le courant électrique et le champ
magnétique sont orthogonaux. Ils sont fondamentalement "différents".
Par exemple, une charge électrique
est « monopole », soit positive, soit négative. Les charges positives s'attirent et les négatives se repoussent, mais une charge électrique n'a qu'un seul pôle. Par contre, le magnétisme se caractérise par une
dipolarité (un aimant possède deux pôles absolument inséparables). Peut-on voir
un lien entre polarisation ( monopolarité, dipolarité, interactions électromagnétiques
) et orthogonalité ?
L'orthogonalité se décline à plusieurs niveaux et toujours rend-elle compte d'une interaction. Y a-t-il orthogonalité entre les deux pôles d'un aimant ? Entre deux aimants ? Entre une charge électrique et un pôle magnétique ? Entre un courant E et un champ B ? (On a dit oui à la dernière question si vous suivez bien.)
Les équations de Maxwell réunissent
électricité et magnétisme en un même corps mathématique très joliment
symétrique. Encore une fois, orthogonalité et interaction semblent faire bon
ménage pour peu qu’on arrive à sortir du cadre et « généraliser ».
En
mathématiques, généraliser veut dire faire un saut dans l’abstraction. Pour le
célèbre mathématicien Henri Poincaré,
les mathématiques consistent à généraliser, c'est-à-dire à donner le même nom à
des choses différentes. Grothendieck était aussi un maître de la généralisation,
subtilement appelée « catégorification » : avec lui, "la fonction
devient faisceaux, le nombre devient espace, la forme devient variété". On élève les concepts à un degré
supérieur de généralisation. Et on arrive ainsi à voir des choses.
Beaucoup de choses. (Voir Edward Frenkel, Amour et maths, ed. Flammarion, 2015, p202 et s.)
Il semblerait qu’il y ait un lien
entre orthogonalité, interaction et généralisation. Sans doute serait-ce même
là un sujet potentiel de thèse pour un doctorant en philosophie des
sciences : « Subsumption de l’orthogonalité dans les processus de
généralisation mathématique. » Je lui laisse le sujet bien volontiers.
Il est vrai que d’un point de vue
philosophique, la notion d’orthogonalité est très intéressante dans ce qu’elle
révèle sur le principe même d’ « interaction ». L’interaction
est-elle possible sans qu’il y ait au préalable deux éléments fondamentalement
différents qu’on voit interagir ? Quel lien possible entre interaction,
orthogonalité et commutativité ? (On
pousse un peu car rien ne nous arrête, apparemment). Il existe en effet tout un pan des
mathématiques récentes qui porte sur la géométrie non-commutative. « A
fois B n’est pas égal à B fois A », pour dire de façon simple ce qu’est la
non-commutativité. Cette non-commutativité
permet de révéler des symétries, des liens, très utiles encore en physique. Peut-on
voir un lien, même ténu, entre l’orthogonalité et non-commutativité ? … (
Je ne développe pas pour ne pas vous faire fuir davantage).
Enfin, on peut
s’intéresser à l’existence des dimensions. Si on reprend notre repère cartésien
avec nos Abscisses et nos Ordonnées, on voit bien que si on supprime un des
deux axes, on est à plat. Horizontalement ou verticalement. On ne peut
concevoir une réalité à plusieurs dimensions si l’on ne postule pas
l’indépendance de certains éléments par rapport à d’autres (orthogonalité),
dans un premier temps, et un jeu subtil entre ces éléments indépendants
(interactions) dans un second temps (sans pour autant que toutes les dimensions
interagissent entre elles). Les dimensions, quoi qu’il en soit, forment un
« cadre », et cette notion de dimension est à la base du
développement exceptionnel du formalisme mathématique. Prenez la géométrie
Riemannienne, sans même savoir en quoi elle consiste, on a des intitulés qui
disent « Concept d’une grandeur à n dimensions ». Ce mathématicien,
Riemann, a révolutionné le concept même
de dimension en travaillant la notion de courbure. Grâce à sa géométrie, on peut dire sans ciller qu’une
ligne droite est courbe, si elle est conçue dans un espace à courbure
positive, par exemple.Ou négative (avec le mathématicien Lobatchevski). Ces espace courbes à n dimensions sont très abstraits
mais très riches de concepts. La géométrie euclidienne (valable dans un espace
plat) fait pâle figure à côté des nouvelles géométries. La question du Recte et du Courbe est très vaste (et j'en connais qui écrirait des romans sur le sujet). C’est d’ailleurs grâce
à ces géométries que la physique a fait tant de progrès théoriques (Relativité
générale, par exemple). Je tourne un peu en rond (c’est le cas de le dire),
mais cela montre que les concepts s’appellent les uns les autres. On ne peut
penser la Dimension sans qu’il y ait un élément de réalité irréductible qui la
fonde, aussi abstraite que soit cette réalité ou cet élément.
Juste pour faire
mousser un peu mes lecteurs surement fort nombreux à ce stade de l’article J, imaginons qu’il y ait
une « orthogonalité » entre le formalisme de la physique quantique et
le formalisme de la Relativité Générale. Je m’explique. On sait que
mathématiquement, on a pu assembler en ce qui est dénommé « modèle
standard de la physique des particules», trois des quatre interactions
fondamentales. Cette généralisation s’est opérée en travaillant avec
acharnement sur les Lagrangiens. Chacune des quatre grandes interactions
fondamentales est mathématiquement définie, entre autre chose, par son
Lagrangien, peu importe içi de savoir de quoi il retourne précisément, mettons
qu’il s’agit de ce qu’on appelle une optimisation de l’action).
On ne peut concilier mathématiquement
le Lagrangien du modèle standard de la physique des particules ( modèle qu’on
appelle QCD pour Chromodynamique quantique) et le Lagrangien de la Relativité
générale. On est coincé. Y a –t-il moyen de comprendre cette irréductibilité à
travers le prisme de l’orthogonalité ? On ne sait pas trop ce qu’il
faudrait pour arriver à unifier les deux théories. Certains parlent de quantifier
la gravitation, et c’est une excellente idée mais on n’y arrive pas… (Quantifier…
je reviendrai sur ce terme). En fait, il est probable qu’il faille que la
mathématique donne une fois de plus le meilleur d’elle-même et trouve comment
« se généraliser », une fois de plus, et sans se disperser ( car elle
sait faire les deux à la fois)… pour subsumer l’incompatibilité des deux
modèles.
Quantifier la gravitation,
disais-je à l’instant. Je n’ai rien à dire sur le sujet, en fait, mais c’est le
terme quantification qui m’intéresse. Il est subtil lui aussi et extrêmement
riche d’un point de vue philosophique.
Pour aborder cette richesse, il
faut prendre le sujet du point de vue de la question suivante : « La
réalité est-elle Continue ou Discontinue ? »
Je sais, je ne vous ménage pas…
Quand on dit que la réalité est
continue, on entend qu’il semble que « tout soit lié », que tout ne
soit que des manifestations d’une seule et même chose, or ce n’est pas si
certain. Peut-être que tout est lié, mais tout n’est pas forcément continu,
même au niveau le plus fondamental. C’est en tout cas ce que la physique
quantique amène à penser, à travers le concept de quantification que
voici.
En gros, un quanta, c’est une
quantité minimale. Vraiment très petite. Une toute petite quantité d’énergie,
mettons.
Il semblerait qu’à l’échelle
subatomique tout soit « quantifié » : une charge électrique est
soit positive, soit négative, un spin est soit up, soit down (on parle aussi de
spin entier ou spin ½)… La quantification correspond, certes, à la « quantité
minimale » définie par la constante de Planck, mais c’est aussi l’impossibilité pour une
propriété de se trouver dans un état intermédiaire. Une propriété est Noire
ou Blanche pour schématiser, mais pas grise. Il règne une espèce de radicalité quantique
quant aux propriétés fondamentales intrinsèques des particules élémentaires.
Ce qui est amusant ensuite, c’est
que cette radicalité quantique fondamentale est par ailleurs complètement
subsumée (j’aime bien ce terme) dans les principes de superposition et d’indétermination.
Par exemple, une particule peut avoir son spin dans un état superposé up et
down à la fois, mais le spin ne sera pas mi-up, ou quart down. La
quantification, la superposition et l’indétermination posent la question du discret
et du continu sous un jour complètement nouveau, en amenant à penser que l’un
ne l’emportera pas sur l’autre. Que la réponse est dans l’interaction entre
discret et continu, comme l’illustre parfaitement la « Superposition des
états quantifiés ». Il semble qu’il existe un principe d’interaction que
nous ne comprenons pas encore très bien, ou qui nous échappe, quand on essaie
de marier, comme je disais plus haut, nos deux théories quantique et relativiste.
On peut voir (en tout cas je me
propose de voir), dans ce jeu subtil de superposition de quantification, une
forme d’orthogonalité. Par exemple : peut-on dire qu’il y a orthogonalité
entre le spin up et le spin down de manière générale? On sait que les
particules de spin up sont des bosons et que les particules de spin down sont
des fermions. Bosons et fermions sont très différents. Les fermions interagissent avec les bosons, cette
interaction est à l’origine de la force nucléaire forte qui agit au sein des
noyaux des atomes. Le boson de Higgs est constitutif du champ de Higgs avec
lequel les autres particules interagissent, et c’est cette interaction qui
confère une masse aux particules…
(Le spin est également l’objet
quantique qui explique fondamentalement le phénomène de magnétisme. On peut
même se le représenter comme un petit aimant porté par la particule élémentaire…)
La « différence » est un
concept fondamental sur lequel repose tout le principe d’interaction, si on y
pense. Je crois bien que l’orthogonalité mathématique pose le concept de
différence comme élément fondamental de la réalité. Et ça, mes amis, c’est très
très fort si on se donne la peine d’exploiter l’idée dans un élan de bonne
volonté. Toutes ces circonvolutions pour nous amener à réfléchir sur la notion
de
différence ontologique ! Et oui. La différence comme concept
mathématique, comme élément fondamental régissant les phénomènes de la nature.
Si on prend le mot "différence" et qu'on lui retire le vernis de sens que nous lui donnons par habitude sans même y penser, qu'avons-nous? Nous avons "di", soit deux, et "férence", comme dans interférence... La différence, c'est le croisement de la dualité, le lieu où la dualité se rencontre. Comme s'il ne pouvait y avoir de "un" sans "deux", comme s'il ne pouvait y avoir de continuité dans discontinuité, d'unité sans parité. De véritable unité sans différence fondamentale. Je vous laisse méditer là-dessus.
Voici les liens vers les
documentaires qui ont inspiré cette réflexion :
Sur les fonctions sin et cos :
Fonction trigo (vidéo amateur très synthétique pour une première approche, par JiPiHorn. C'est dans cette présentation que le monsieur, à un moment, parle d'orthogonalité, et c'est à partir de ce moment qu'est venue la réflexion que vous venez de lire...)
Villani et les maths de la chauve-souris (Cédric Villani, mathématicien, conférence donnée à des lycéens à Strasbourg, 2014)
Sur les lagrangiens (par Kirone Mallick, physicien au CEA, Les émerveillements d'un théoricien, conférence Cyclope 2011)
Sur la physique quantique en générale (Conférence par Etienne Klein, physicien et philosophe des sciences, 2008 )
Livres:
Keith Devlin, Les énigmes mathématiques du 3ème millénaire, ed. poche Le Pommier, 2007; chapitre 4 sur les équations de Navier-Stokes, le calcul différentiel, la mécanique des fluides et les fonctions trigonométriques, p. 197-230.
Edward Frenkel, Amour et Maths, ed. Flammarion, 2015.
Autres ouvrages de vulgarisation mathématique :
Marcus du Sautoy, La symphonie des nombres premiers, ed. Héloïse d'Ormesson, 2005.
Marcus du Sautoy, La symétrie ou les maths au clair de lune, ed. Héloïse d'Ormesson, 2012
Simon Singh, Le dernier théorème de Fermat, ed. JC Lattès, 1998
Simon Singh, Histoire des codes secrets, ed. JC Lattès, 1999
Blogs sur les maths:
Chaine Youtube de
Numberphile ( en anglais)
Chaine Youtube d'El Jj (très très bon
blog en français ) : Choux romanesco, vache qui rit et intégrales curvilignes.