A la Une

Petite épistémologie de la créativité - première partie

(Sous-titre provisoire: De la contrainte nécessaire.) Une des choses qui font de l’Homme un être vraiment étonnant est sa capacité à in...

samedi 19 mars 2016

Sur l'orthogonalité


Dans une vidéo que j’ai regardée dernièrement, un électronicien expliquait quelques fondements mathématiques.
J'ai été surprise de voir comment ce monsieur pouvait expliquer, de fait, très clairement, certains des principes les plus importants de la physique.

On sait qu'en science, il n'y a pas plus beau mariage que celui qui lie la physique et les mathématiques. Il y a une raison simple à cela. Les lois de la nature seraient écrites en langage mathématique. Quoi de mieux, dans ce cas, pour expliquer les phénomènes de la nature, que de recourir aux mathématiques. Mais ce n'est pas tout. Si les lois de la nature sont écrites en langage mathématique, si les lois de la physiques sont pertinentes, en ce qu'elles décrivent effectivement les phénomènes qui nous entourent, alors il est possible que les maths, dans ce qu'elles ont de plus profond, nous apprennent des choses sur nous-mêmes. Elles peuvent inspirer une réflexion philosophique.
C'est ce que je me propose d'ébaucher dans cet article.
A partir de quelques concepts mathématiques, je voudrais montrer comment on peut, moyennant quelque effort d'abstraction, essayer de penser les choses en profondeur.

Je vais pour ce faire, m'inspirer d'un instrument incontournable, fondamental dans les mathématiques qui sont utilisées en physique, qu'on appelle les fonctions trigonométriques.
 Dans la vidéo (dont vous trouverez le lien au bas de l'article), notre homme raconte que les fonctions trigonométriques Sinus et Cosinus interviennent ultra fréquemment dans le calcul de dérivées partielles.
En physique, les dérivées partielles sont utilisées pour décrire les mouvements de fluides, ondes, gaz, etc... Ces fonctions trigonométriques sont très pratiques car leurs dérivées sont redondantes et récursives :

Exemple :
Dérivée de la fonction Cos -> -sin
Dérivée de la dérivée de la fonction Cos -> cos
Dérivée de la dérivée de la dérivée de la fonction Cos -> sin

On observe une jolie récursivité.

La fonction exponentielle  présente un phénomène semblable :
Dérivée de ex ->  ex -> ex
La dérivée est identique à la fonction.

Il semblerait que les lois physiques que nous avons consciencieusement établies soient, en grande partie, régies par des équations Cos, Sin et Exponentielle.

Qu’est –ce que Cos et qu’est-ce  que Sin :

Sinus : à l’origine, c’est une longueur. Dans un triangle rectangle, prenons un des deux angles qui n’est pas droit, nommons-le « Alpha ». Le sinus de cet angle correspond au rapport entre la longueur du côté opposé à alpha sur la longueur du côté adjacent le plus long (hypoténuse). 
Le Cosinus de cet angle « Alpha » correspond au rapport entre la longueur du côté adjacent sur la longueur de l’hypoténuse.
Sin et Cos peuvent aussi se calculer non plus dans un triangle rectangle mais dans un cercle de rayon unité. Comme ce qui se passe dans cette démonstration est très intéressant, il faut regarder :
(Figure 1)


On prend un système de coordonnées cartésien (c’est très simple : un repère avec un axe horizontal qui représente les abscisses et un axe vertical qui représente les ordonnées). On note 0 l’intersection des deux axes. On trace un cercle de rayon 0 ; x=1, on a notre cercle de rayon unité.
Traçons une droite qui coupe notre cercle en un point p, et qui passe par le centre du cercle (qui est aussi l’origine du repère), avec p ayant pour abscisses x un nombre n comprit entre 0 et 1. (Le point p se trouve dans le quart « positif » du repère cartésien).

La droite passant par 0 et par p crée un angle avec l’axe des abscisses. Notons cet angle « oméga ».
On projette le point p sur l’axe des abscisses en p’ : on obtient une longueur 0p’ qui correspond à la valeur du cosinus d’oméga.

Pour obtenir le sinus d’oméga : on projette le point p sur l’axe des ordonnées en p’’, le sinus est alors égal à la longueur du segment  0p’’.
Ce qui est intéressant dans cette démonstration dans le cercle unité c’est que pour définir le Sinus, on « sort » du triangle qui contient oméga. On projette le point p « ailleurs » (sur l’axe des ordonnées) qui permet de former un triangle qu’on pourrait qualifier de complémentaire, et ces deux triangles forment un quadrilatère (0p’pp’’). On a deux triangles rectangles. Par construction symétrique, on peut poser l’angle oméga’ et on constate que la longueur 0p’’ correspond au sinus d’oméga' si on se fie à la première démonstration faite dans un triangle rectangle. On retombe sur nos pattes. Cela dit, d’instinct, on sent que la démonstration dans le cercle unité est plus porteuse de signification, plus exploitable, que la démonstration dans un triangle rectangle.
C’est important. Le fait de sortir du cadre, de prendre un cadre plus grand permet de comprendre plus de choses mais pas seulement. Cela permet très souvent de simplifier les choses.
Nous avons vu d’où venaient et ce qu’étaient nos Sin et Cos, voyons d’où vient la fonction exponentielle.
C’est une fonction très étrange qui  pour tout x associe un y tel que y= ex.
On voit dans la construction géométrique suivante qu’elle a quelques propriétés intéressantes : 

(Figure 2)


en y = 1 , x vaut 0,
en y=0, x vaut e, soit environ 2.178…
Elle transforme une somme en produit
Elle est sa propre dérivée
Etc, elle a encore bien d’autres propriétés.
Voici maintenant les représentations graphiques des fonctions Sin x et Cos x :
(Figure 3)


A priori, on se dit que les fonctions Sin et Cos n'ont rien à voir avec la fonction exponentielle.
Dans le graphe ci-dessus, les valeurs sur l’axe des x sont exprimées en radians (degrés exprimées en fonction de pi) pour la simple raison qu’on travaille avec les sin et cos tels qu’on les a vu dans le cercle unité, et qui dit cercle, dit pi. (Rappel : pi est le rapport de la circonférence d’un cercle à son diamètre).

A priori, on se dit que les fonctions Sin et Cos n'ont rien à voir avec la fonction exponentielle. Et pourtant.On va voir qu'elles peuvent être réunies.

C’est important d’avoir ces représentations en tête, de voir par exemple la différence d’évolution de la courbe sinusoïdale par rapport à la courbe qui représente la fonction cos, quand x vaut  pi/2, pi, 2pi. On sent qu’il existe une forme de complémentarité entre les deux courbes.

Un très grand nombre de phénomènes physiques qui nous entourent sont étudiés sous forme de signal. En effet, de nombreux phénomènes présentent une périodicité, une fréquence de répétitions.
Si une flûte émet un la, par exemple. Mon oreille perçoit ce son comme s’il était lisse, parfaitement continu, sans fluctuations de hauteurs. Si je branche un capteur pour connaitre la fréquence de cette note, si cette fréquence est représentée sur le petit écran d’un oscilloscope, je vois apparaître une courbe sinusoïdale. Plus le son est lisse à mon oreille, plus il est régulier dans sa période, plus la courbe sinusoïdale est régulière sur l’écran.
On appelle ce genre de signal un signal périodique.
Fréquence et période sont des rapports entre durée et amplitude du signal :
(Figure 4)



On utilise les fonctions sin et cos pour étudier les phénomènes périodiques. ( Les phénomènes non périodiques sont dits avoir une fréquence nulle et une période qui s’étend vers l’infini).
Bref.

Une grande partie des phénomènes de la nature émet un signal, en fait. Ainsi, l'étude du signal, en général, représente-t-il une grande partie de la physique.
Si je m’intéresse à ces considérations de base en mathématique, les fonctions trigonométriques, c’est qu’elles sont fondamentales. Elles interviennent partout dans les mathématiques qu’utilise la physique pour décrire les phénomènes de la nature. Cela veut dire que ces notions de sinus, de rapport de proportions autour des angles dans un cercle correspondent à une vérité ontologique vraiment très forte. La nature s’exprime en angles, pourrait-on dire, bien que ces derniers aient été portés à des niveaux de généralisation extrêmement abstraits, qui n’ont presque plus rien de géométrique (de trigonométrique, en l’occurrence).
C’est sur le processus de généralisation en mathématique que je souhaiterais maintenant m’appesantir un peu.
Rien de tel qu’un exemple pour introduire le sujet. Je le tire de la petite vidéo dont je parlais au tout début de cet article.
Sans avoir besoin d’entrer dans les détails, notre homme étudie les fonctions Cos x, Sin x et ex à partir des séries de Taylor et voici ce qu’il obtient. Il n’y a pas à comprendre, juste à regarder :
(Figure 5)



Au signe près, on voit que la fonction (Sin x + Cos x) ressemble beaucoup à la fonction ex.
Il est en fait possible de fusionner toutes ces fonctions en une seule, ce qu’on va voir dans un instant, après un petit détour essentiel par le concept d’orthogonalité.

On définit généralement l’orthogonalité de façon géométrique, en disant par exemple que le repère cartésien ( avec les x en abscisses et les y en ordonnées) est orthogonal car les deux axes se croisent en formant un angle droit. On dira aussi que l’orthogonalité est à l’espace ce que la perpendicularité est au plan, une sorte de projection de la perpendicularité dans l’espace à trois dimensions (qui fait que deux droites peuvent être orthogonales sans être sécantes). Cette définition ne rend pas complètement compte de ce qu’est  le principe d’orthogonalité.
En effet, l’orthogonalité, d’un point de vue plus fondamental, décrit l’indépendance qui existe entre 2 choses. Par exemple, si on reprend notre repère cartésien, on dira que les abscisses et les ordonnées sont orthogonales, parce qu’elles sont perpendiculaires, certes , mais aussi parce qu’ il est impossible d’exprimer une abscisse au moyen d’une combinaison de y, et réciproquement. Tout point du repère s’exprime Et avec  x Et avec y.
C’est aussi cela l’orthogonalité. Abscisse et Ordonnée sont orthogonales parce qu’on ne peut pas remplacer y par des x. Le rôle d’une fonction mathématique est précisément de montrer l’interaction qui existe entre deux notions orthogonales. Une fonction montre comment une notion réagit en fonction de l’autre, les variations de y par rapport aux variations de x, donc il y a un lien entre x et y mais fondamentalement, on ne peut pas supprimer l’un ou le transformer en combinaison de l’autre. La nuance est très subtile mais elle est capitale. En gros, on peut dire qu’il n’y a pas d’interaction sans orthogonalité et d’un point de vue philosophique, on touche le vertige en disant cela.
Mais n’allons pas trop vite.

Ce qui est intéressant c’est que les fonctions Sin x et Cos x sont orthogonales entre elles. Comme pour x et y dans notre repère précédent, il existe des fonctions qui les lient, mais fondamentalement, un sinus est un sinus et non pas un cosinus. Ils ne sont pas interchangeables. Si un sinus n’était pas fondamentalement différent d’un cosinus, on aurait un élément inutile sur les deux, un se répéterait et ne servirait donc à rien. Ce n’est pas encore trop compliqué à comprendre.
Reprenons nos deux  fonctions  de tout à l’heure : sin x +cos x d’une part et ex d’autre part.
On a vu  grâce aux séries de Taylor qu’elles se ressemblaient beaucoup. Intuitivement, on se dit qu’il doit y avoir un moyen de les réunir. Et c’est le cas. Pour ce faire, il faut les « travailler » sur un autre plan, à savoir le plan complexe. Ce plan, sans trop entrer dans les détails, n’est pas très compliqué. Il demande de passer à un niveau d’abstraction un peu plus élaboré.
Plutôt que de prendre pour x des valeurs réelles ( qui sont toutes représentables sur un seul axe allant de moins l’infini à plus l’infini et sur lequel on place tous les nombres qu’on peut connaitre, les entiers , les fractions, les irrationnels (pi, e, etc), les nombres négatifs…), on va inventer quelque chose.
On sait que les nombres réels peuvent être soumis à diverses opérations comme l’addition, la multiplication, la division, etc. On sait qu’un nombre positif ou négatif, multiplié par lui-même, donne toujours un résultat positif. 2 au carré donne 4 ; (-2) au carré donne 4 aussi.
Et si on imaginait un nombre qui, élevé au carré, donnerait un résultat négatif ? par exemple un nombre i, élevé au carré, qui serait égal à (-1) ?
C’est ce qu’on a fait. Alors, en réalité, on n’a pas inventé cela pour faire joli. Non. Ce nombre i s’est en quelque sorte imposé de lui-même à une époque, comme solution d’équations  polynomiales. Comment résoudre par exemple : x2 = -1 ?
C’est dans ce cadre là qu’ont été inventés les nombres imaginaires. Le nombre imaginaire i ne se trouve pas sur l’axe des réels mais sur un axe perpendiculaire à ce dernier. Sur cet axe, on trouve aussi des nombres tels que 5i, 3i, etc . Un nombre complexe est un nombre qui a une partie réelle et une partie imaginaire. Il prend la forme ai + b avec ai : partie imaginaire ; b : partie réelle, et le nombre complexe peut être représenté dans le plan complexe que créent nos deux axes, comme suit :
(Figure 6)


On a trois nombres complexes représentés dans le plan : 3 +2i ; -3+4i ; -4-3i. Ce sont des nombres à deux dimensions : réelle et imaginaire. Ils ont l’air sophistiqués et donc compliqués, mais ce n’est qu’une apparence. En fait, ils permettent de simplifier certains calculs. Regardez.
Si on introduit i, le nombre imaginaire, dans nos fonctions Cos,  Sin et exp, de tout à l’heure, voilà ce qui se passe, toujours avec nos séries de Taylor :
(Figure 7)


Les fonctions eix et (cos x + isin x ) correspondent quand on introduit i !
Voici la représentation graphique de eix :
(Figure 8)


C’est un cercle !  (fait à main levé sur le papier donc pas très centré...) Mais voilà qui est intéressant : nous avons une belle illustration de la récursivité, déjà très présente dans nos fonctions prises séparément (rappelez-vous les dérivées de Sin et Cos qui "retombent" sur elles-mêmes et la dérivée de la fonction exponentielle égale à elle-même), mais aussi dans la définition même du Sinus (rappelez-vous le cercle que l’on a construit au tout début  pour calculer le sinus de l’angle oméga). Cercle, récursivité, fréquence forment un jeu de miroir assez exceptionnel quand on y pense. Et ces réflexions récursives sont "simplifiées", ( voire visibles!) grâce à l’ajout d’une dimension supplémentaire (le plan complexe), elle-même lié à une orthogonalité fondamentale sans laquelle il n’y a plus de dimension possible...
Orthogonalité entre réel et imaginaire, entre positif et négatif, entre vertical et horizontal...

Prenons une petite respiration pour nous remettre de ces émotions.

Un verre d’eau, si vous voulez.

Et poursuivons.

Cette formule ci-dessus ( eix = cos x + i sin x) est très importante. Elle est à l’origine de la fonction d’onde qui rend compte de la propagation des ondes.  Elle est à l’origine des équations de Maxwell qui décrivent la force électromagnétique, force sur laquelle on va s’appesantir un instant.Cette équation est aussi un peu partout en physique quantique.

La force électromagnétique … Rappelons-nous que cette force est comprise comme un couplage entre électricité et champ magnétique, ainsi que les travaux de Faraday, Maxwell et d'autres physiciens du 19ème siècle l'ont montré. Or il s’avère que le courant électrique et le champ magnétique sont orthogonaux. Ils sont fondamentalement "différents".

Par exemple, une charge électrique est « monopole », soit positive, soit négative. Les charges positives s'attirent et les négatives se repoussent, mais une charge électrique n'a qu'un seul pôle. Par contre, le magnétisme se caractérise par une dipolarité (un aimant possède deux pôles absolument inséparables). Peut-on voir un lien entre polarisation ( monopolarité, dipolarité, interactions électromagnétiques ) et orthogonalité ?
L'orthogonalité se décline à plusieurs niveaux et toujours rend-elle compte d'une interaction. Y a-t-il orthogonalité entre les deux pôles d'un aimant ? Entre deux aimants ? Entre une charge électrique et un pôle magnétique ? Entre un courant E et un champ B ? (On a dit oui à la dernière question si vous suivez bien.)

Les équations de Maxwell réunissent électricité et magnétisme en un même corps mathématique très joliment symétrique. Encore une fois, orthogonalité et interaction semblent faire bon ménage pour peu qu’on arrive à sortir du cadre et « généraliser ».

En mathématiques, généraliser veut dire faire un saut dans l’abstraction. Pour le célèbre mathématicien  Henri Poincaré, les mathématiques consistent à généraliser, c'est-à-dire à donner le même nom à des choses différentes. Grothendieck était aussi un maître de la généralisation, subtilement appelée « catégorification » : avec lui, "la fonction devient faisceaux, le nombre devient espace, la forme devient  variété". On élève les concepts à un degré supérieur de généralisation. Et on arrive ainsi à voir des choses. Beaucoup de choses. (Voir Edward Frenkel, Amour et maths, ed. Flammarion, 2015, p202 et s.)

Il semblerait qu’il y ait un lien entre orthogonalité, interaction et généralisation. Sans doute serait-ce même là un sujet potentiel de thèse pour un doctorant en philosophie des sciences : « Subsumption de l’orthogonalité dans les processus de généralisation mathématique. » Je lui laisse le sujet bien volontiers.

Il est vrai que d’un point de vue philosophique, la notion d’orthogonalité est très intéressante dans ce qu’elle révèle sur le principe même d’ « interaction ». L’interaction est-elle possible sans qu’il y ait au préalable deux éléments fondamentalement différents qu’on voit interagir ? Quel lien possible entre interaction, orthogonalité et commutativité ?  (On pousse un peu car rien ne nous arrête, apparemment). Il existe en effet tout un pan des mathématiques récentes qui porte sur la géométrie non-commutative. « A fois B n’est pas égal à B fois A », pour dire de façon simple ce qu’est la non-commutativité.  Cette non-commutativité permet de révéler des symétries, des liens, très utiles encore en physique. Peut-on voir un lien,  même ténu, entre l’orthogonalité et non-commutativité ? … ( Je ne développe pas pour ne pas vous faire fuir davantage).

Enfin, on peut s’intéresser à l’existence des dimensions. Si on reprend notre repère cartésien avec nos Abscisses et nos Ordonnées, on voit bien que si on supprime un des deux axes, on est à plat. Horizontalement ou verticalement. On ne peut concevoir une réalité à plusieurs dimensions si l’on ne postule pas l’indépendance de certains éléments par rapport à d’autres (orthogonalité), dans un premier temps, et un jeu subtil entre ces éléments indépendants (interactions) dans un second temps (sans pour autant que toutes les dimensions interagissent entre elles). Les dimensions, quoi qu’il en soit, forment un « cadre », et cette notion de dimension est à la base du développement exceptionnel du formalisme mathématique. Prenez la géométrie Riemannienne, sans même savoir en quoi elle consiste, on a des intitulés qui disent « Concept d’une grandeur à n dimensions ». Ce mathématicien, Riemann,  a révolutionné le concept même de dimension en travaillant la notion de courbure. Grâce à  sa géométrie, on peut dire sans ciller qu’une ligne droite est courbe, si elle est conçue dans un espace à courbure positive, par exemple.Ou négative (avec le mathématicien Lobatchevski). Ces espace courbes à n dimensions sont très abstraits mais très riches de concepts. La géométrie euclidienne (valable dans un espace plat) fait pâle figure à côté des nouvelles géométries. La question du Recte et du Courbe est très vaste (et j'en connais qui écrirait des romans sur le sujet). C’est d’ailleurs grâce à ces géométries que la physique a fait tant de progrès théoriques (Relativité générale, par exemple). Je tourne un peu en rond (c’est le cas de le dire), mais cela montre que les concepts s’appellent les uns les autres. On ne peut penser la Dimension sans qu’il y ait un élément de réalité irréductible qui la fonde, aussi abstraite que soit cette réalité ou cet élément.

Juste pour faire mousser un peu mes lecteurs surement fort nombreux à ce stade de l’article J, imaginons qu’il y ait une « orthogonalité » entre le formalisme de la physique quantique et le formalisme de la Relativité Générale. Je m’explique. On sait que mathématiquement, on a pu assembler en ce qui est dénommé « modèle standard de la physique des particules», trois des quatre interactions fondamentales. Cette généralisation s’est opérée en travaillant avec acharnement sur les Lagrangiens. Chacune des quatre grandes interactions fondamentales est mathématiquement définie, entre autre chose, par son Lagrangien, peu importe içi de savoir de quoi il retourne précisément, mettons qu’il s’agit de ce qu’on appelle une optimisation de l’action).

On ne peut concilier mathématiquement le Lagrangien du modèle standard de la physique des particules ( modèle qu’on appelle QCD pour Chromodynamique quantique) et le Lagrangien de la Relativité générale. On est coincé. Y a –t-il moyen de comprendre cette irréductibilité à travers le prisme de l’orthogonalité ? On ne sait pas trop ce qu’il faudrait pour arriver à unifier les deux théories. Certains parlent de quantifier la gravitation, et c’est une excellente idée mais on n’y arrive pas… (Quantifier… je reviendrai sur ce terme). En fait, il est probable qu’il faille que la mathématique donne une fois de plus le meilleur d’elle-même et trouve comment « se généraliser », une fois de plus, et sans se disperser ( car elle sait faire les deux à la fois)… pour subsumer l’incompatibilité des deux modèles.

Quantifier la gravitation, disais-je à l’instant. Je n’ai rien à dire sur le sujet, en fait, mais c’est le terme quantification qui m’intéresse. Il est subtil lui aussi et extrêmement riche d’un point de vue  philosophique.
Pour aborder cette richesse, il faut prendre le sujet du point de vue de la question suivante : « La réalité est-elle Continue ou Discontinue ? »

Je sais, je ne vous ménage pas…

Quand on dit que la réalité est continue, on entend qu’il semble que « tout soit lié », que tout ne soit que des manifestations d’une seule et même chose, or ce n’est pas si certain. Peut-être que tout est lié, mais tout n’est pas forcément continu, même au niveau le plus fondamental. C’est en tout cas ce que la physique quantique amène à penser, à travers le concept de quantification que voici.

En gros, un quanta, c’est une quantité minimale. Vraiment très petite. Une toute petite quantité d’énergie, mettons.
Il semblerait qu’à l’échelle subatomique tout soit « quantifié » : une charge électrique est soit positive, soit négative, un spin est soit up, soit down (on parle aussi de spin entier ou spin ½)… La quantification correspond, certes, à la « quantité minimale » définie par la constante de Planck,  mais c’est aussi l’impossibilité pour une propriété de se trouver dans un état intermédiaire. Une propriété est Noire ou Blanche pour schématiser, mais pas grise.  Il règne une espèce de radicalité quantique quant aux propriétés fondamentales intrinsèques des particules élémentaires.

Ce qui est amusant ensuite, c’est que cette radicalité quantique fondamentale est par ailleurs complètement subsumée (j’aime bien ce terme) dans les principes de superposition et d’indétermination. Par exemple, une particule peut avoir son spin dans un état superposé up et down à la fois, mais le spin ne sera pas mi-up, ou quart down. La quantification, la superposition et l’indétermination posent la question du discret et du continu sous un jour complètement nouveau, en amenant à penser que l’un ne l’emportera pas sur l’autre. Que la réponse est dans l’interaction entre discret et continu, comme l’illustre parfaitement la « Superposition des états quantifiés ». Il semble qu’il existe un principe d’interaction que nous ne comprenons pas encore très bien, ou qui nous échappe, quand on essaie de marier, comme je disais plus haut, nos deux théories quantique et relativiste.

On peut voir (en tout cas je me propose de voir), dans ce jeu subtil de superposition de quantification, une forme d’orthogonalité. Par exemple : peut-on dire qu’il y a orthogonalité entre le spin up et le spin down de manière générale? On sait que les particules de spin up sont des bosons et que les particules de spin down sont des fermions. Bosons et fermions sont très différents.  Les fermions interagissent avec les bosons, cette interaction est à l’origine de la force nucléaire forte qui agit au sein des noyaux des atomes. Le boson de Higgs est constitutif du champ de Higgs avec lequel les autres particules interagissent, et c’est cette interaction qui confère une masse aux particules…
(Le spin est également l’objet quantique qui explique fondamentalement le phénomène de magnétisme. On peut même se le représenter comme un petit aimant porté par la particule élémentaire…)

La « différence » est un concept fondamental sur lequel repose tout le principe d’interaction, si on y pense. Je crois bien que l’orthogonalité mathématique pose le concept de différence comme élément fondamental de la réalité. Et ça, mes amis, c’est très très fort si on se donne la peine d’exploiter l’idée dans un élan de bonne volonté. Toutes ces circonvolutions pour nous amener à réfléchir sur la notion de différence ontologique !  Et oui. La différence comme concept mathématique, comme élément fondamental régissant les phénomènes de la nature.

Si on prend le mot "différence" et qu'on lui retire le vernis de sens que nous lui donnons par habitude sans même y penser, qu'avons-nous? Nous avons "di", soit deux, et "férence", comme dans interférence... La différence, c'est le croisement de la dualité, le lieu où la dualité se rencontre. Comme s'il ne pouvait y avoir de "un" sans "deux", comme s'il ne pouvait y avoir de continuité dans discontinuité, d'unité sans parité. De véritable unité sans différence fondamentale. Je vous laisse méditer là-dessus.

Voici les liens vers les documentaires qui ont inspiré cette réflexion :

Sur les fonctions sin et cos : Fonction trigo (vidéo amateur très synthétique pour une première approche, par JiPiHorn. C'est dans cette présentation que le monsieur, à un moment, parle d'orthogonalité, et c'est à partir de ce moment qu'est venue la réflexion que vous venez de lire...)
Villani et les maths de la chauve-souris (Cédric Villani, mathématicien, conférence donnée à des lycéens à Strasbourg, 2014)
Sur les aimants et leurs incroyable fonctionnement (spin!) (par Julien Bobroff, physicien, Les aimants sont quantiques, Conférence Unisciel 2015 )
Sur les lagrangiens (par Kirone Mallick, physicien au CEA, Les émerveillements d'un théoricien, conférence Cyclope 2011)
Sur la physique quantique en générale  (Conférence par Etienne Klein, physicien et philosophe des sciences, 2008 )

Livres:

Keith Devlin, Les énigmes mathématiques du 3ème millénaire, ed. poche Le Pommier, 2007; chapitre 4 sur les équations de Navier-Stokes, le calcul différentiel, la mécanique des fluides et les fonctions trigonométriques, p. 197-230.

Edward Frenkel, Amour et Maths, ed. Flammarion, 2015.

Autres ouvrages de vulgarisation mathématique :
Marcus du Sautoy, La symphonie des nombres premiers, ed. Héloïse d'Ormesson, 2005.
Marcus du Sautoy, La symétrie ou les maths au clair de lune, ed. Héloïse d'Ormesson, 2012
Simon Singh, Le dernier théorème de Fermat, ed. JC Lattès, 1998
Simon Singh, Histoire des codes secrets, ed. JC Lattès, 1999

Blogs sur les maths:
Chaine Youtube de Numberphile ( en anglais)
Chaine Youtube d'El Jj (très très bon blog en français )  : Choux romanesco, vache qui rit et intégrales curvilignes.

Aucun commentaire:

Enregistrer un commentaire