A la Une

Petite épistémologie de la créativité - première partie

(Sous-titre provisoire: De la contrainte nécessaire.) Une des choses qui font de l’Homme un être vraiment étonnant est sa capacité à in...

mardi 11 juin 2013

Travail personnel: feed back

Feed back sur les deux vidéos d’introduction à la physique quantique.

La première retrace brièvement l’historique de cette branche des sciences physiques ; la seconde expose de manière claire le formalisme propre à la physique quantique.

Il va y avoir forcément des confusions, des blancs et des idioties mais je les corrigerai lorsque je reprendrai mes notes. L’intérêt du feed back est de faire travailler sa mémoire pour comprendre les choses, avant d’avancer. Ce que je me propose de faire ici, c'est de sortir tout ce que j'ai retenu de ce que j'ai étudié, sans notes ni rien, de faire un travail de mémoire à plat. Cela permet de voir ce qui a été compris et ce qui est flou et c'est à mes yeux la meilleure façon d'apprendre.
C'est parti.D'avance je m'excuse pour l'abscondité des propos qui vont suivre. Ce travail est avant tout personnel :)

La physique quantique telle qu’on la connaît aujourd’hui, s’est construite progressivement à partir de nombreuses expériences. C’est l’ensemble de toutes ces théories, se contredisant les unes les autres, posant des défis à l’esprit scientifique, qui nous a permis de cerner les principes qui constituent cette branche particulière des sciences physiques.

On considère que c’est une expérience menée par Max Planck en 1900 qui a ouvert la voie quantique.

Cette expérience était menée dans le but de comprendre comment se répartissait l’énergie émise par un corps noir lorsque celui était chauffé à une température approchant de l’infini.

On supposait à l’époque qu’un corps noir chauffé – un corps noir étant une cavité, comme un four, qui ne laisse pas s’échapper la lumière qu’il reçoit sous l’effet de la chaleur – devait finir par exploser. (ce qu’on a appelé la « catastrophe ultraviolette »). Cependant, les expériences révélaient que le corps noir n’explosait pas. D’où la question de savoir comment se répartit l’énergie reçue, en interaction avec la matière qui constitue les parois de ce corps noir. Par ailleurs, quelque soit la matière d’un corps noir, les expériences montraient qu’à une température identique pour tout corps noir, celui-ci virait au rouge. Cela suggère qu’il existe quelque part un invariant, c’est-à-dire une constante dans l’interaction entre matière (les parois)  et énergie (sous forme de température).

Le travail que Planck a réalisé consiste à expliquer pourquoi un corps noir chauffé en continu n’explose pas. Il a produit des équations qui posent le fait que l’énergie est reçue par le corps noir par petits paquets, qu’il appelle quanta. Un quanta est une quantité constante et minimale d’énergie. Ainsi est née la constante de Planck appelée h (qui vient du mot allemand "hilfe" : au secours).

Pourquoi au secours : parce que Planck n’était pas convaincu de l’existence des atomes, mais il a choisit de postuler leur existence pour donner une chance à ses équations de tomber sur un résultat.

Bien que lui-même n’accordât pas beaucoup de crédit à sa découverte, c’est pourtant cette expérience que l’histoire a choisit de mettre à l’origine de la physique quantique.

En 1905, en effet, Einstein va s’inspirer des travaux de Planck pour proposer de nouvelles équations.

Ce n’est plus tant que l’énergie s’échange par paquet, sinon que ces paquets sont des propriétés intrinsèques des particules de lumière. Il proposera, je crois, le terme de photon pour décrire ces particules de lumière.
L’expérience menée par Einstein en 1905 dite sur « l’effet photoélectrique » est très importante.

 Si j’ai bien compris, il s’agissait de comprendre pourquoi une plaque de métal que l’on chauffe engendre un courant électrique. Maxwell avait commencé à faire ce genre d’expériences dans les années 1860 mais c’est Einstein qui a fournit une explication (une formule). Maxwell est le physicien qui a travaillé sur l’électromagnétisme et qui a réuni dans ses équations le courant électrique et le champ magnétique.

On dirige sur une plaque l’émission de différentes fréquences électromagnétiques (allant du rouge au bleu, c'est-à-dire on modifie la longueur de l’onde : plus elle est longue, plus la fréquence est basse et la lumière est rouge, plus elle est courte, plus la lumière est bleue et la fréquence élevée) On distingue la fréquence de l’onde de son intensité, si j’ai bien compris.

Pour mémoire, rappelons nous que le spectre électromagnétique est définit comme suit :
Des plus basses fréquences vers les plus élevées : ondes radio / micro-ondes/ infrarouge/ lumière dite visible : rouge orange jaune vert bleu violet (toutes ces longueurs d’onde additionnées donnent la lumière dite blanche)/ ultraviolet/ rayons X/ rayons gamma (radioactivité).

Bref, à une certaine fréquence, les électrons contenus dans les atomes qui constituent la plaque, émettent un photo, ce qui veut dire que les électrons engrangent une certaine énergie qui les amène à se « déplacer ». Lors de ce mouvement les électrons dégagent une énergie qui se manifeste par l’émission d’un photon.

Ce qui intéressait les physiciens, c’était de comprendre l’effet de seuil qui existait : pourquoi à une certaine fréquence l’électron se mettait en mouvement. Il semble que ce phénomène soit lié à l’intensité de l’énergie reçue par ce dernier.

Il semble que cette quantité d’énergie soit une grandeur proportionnelle à la constante de Planck h.
Il semble important de bien concevoir d’un côté la question de la longueur de l’onde (la fréquence) et d’un autre côté, l’intensité, ce qui n’est pas facile.

Le point à retenir, c’est que ces expériences ont montré que la constante de Planck n’était pas propre à la lumière, mais qu’elle apparaissait aussi dans les particules qui composent la « matière ».

En 1905, par ailleurs Einstein révèle ses travaux sur la relativité restreinte. Il s’agit d’une théorie qui révolutionne la conception de l’espace et du temps, posant, en gros, qu’ils sont inextricablement liés, et surtout que leur propriétés (vitesse, position, énergie, matière, temps) varient en fonction de la position (on pourrait dire des propriétés) de l’observateur.

Les expériences d’Eddington en 1919 confirment par la suite la validité de la théorie d’Einstein : en effet, il semble que la lumière soit déviée par la présence de masse dans l’espace-temps.

Il est important de savoir que Galilée avait déjà proposé une théorie de la relativité sur laquelle newton avait fondé ses propres théories. Mais elle ne disait pas la même chose. Que disait-elle ? Eh bien je ne sais plus trop mais je regarderai. Ce dont je me souviens, c’est que Galilée a étudié la chute des corps : tout corps chute à la même vitesse quelque soit sa masse, c’est le frottement de l’air qui ralenti les moins massifs. Il y est question de référentiels en mouvement ou non, d’où la relativité par rapport à un référentiel, un point d’observation. Newton a quant-à lui déterminé la relation qui existe entre l’énergie d’un corps, sa masse et la vitesse de la lumière, avec les subtilités de masse propre et de masse grave, dans les domaines de la cinétique et de la dynamique, mais c’est un autre sujet.

Après la première guerre mondiale, on assiste à plusieurs avancées déterminantes pour la physique quantique. Ces avancées sont l’œuvre de jeunes scientifiques âgés d’une vingtaine d’années, venant de tous les pays d’Europe et qui ont été fascinés par la théorie de la relativité d’Einstein (qui est une théorie classique, non quantique). La portée révolutionnaire de cette théorie a participé à l’engouement de cette jeune génération en quête d’idées neuves.

Quelques noms : Bohr, Heisenberg, Schrödinger, Gamow, Weyl, Pauli, Dirac, Majonara. Il faut essayer d’en oublier le moins possible car ils sont tous très importants.

Niels Bohr : suite à la théorie de Rutherford qui porte sur la constitution de l’atome ( qu’il se représente selon le modèle d’un petit système solaire : noyau, autour du quel : orbites, sur lesquelles tournent des particules) Bohr propose un autre modèle dans cette lignée : il existe d’après lui des trajectoires autorisées et des trajectoires interdites, les orbites sont des niveaux d’énergie et les électrons, en « sautant » d’un niveau à un autre, émettent un rayonnement ( de l’énergie) qui, me semble-t-il, est appelé rayonnement synchrotron.

Ces modèles ne sont plus valides. Il faut les connaître puis les dépasser. 
Parce qu’ils aboutissaient à des contradictions, la recherche pour résoudre ces contradictions a permis de développer un nouveau formalisme révolutionnaire. C’est ce nouveau formalisme qui constitue ce qu’on appelle la physique quantique.

Recherchons dans notre mémoire un exemple de contradiction : il y avait un problème concernant l’énergie émise par les électrons. Dans le système de Rutherford, les électrons tournaient en émettant de l’énergie, l’énergie même qui permettait leur mouvement. D’après les lois classiques, à force de tourner et d’émettre de l’énergie, un corps s’épuise et finit pas s’écraser sur le noyau. En conséquence : l’électron devait finir par s’écraser sur le noyau, ce qui aurait donné à l’atome une durée de vie très courte.

Voilà qui était en contradiction avec les observations : l’atome a une certaine stabilité. Alors Bohr a stipulé que l’électron tournait sans émettre d’énergie. Il n’émet de l’énergie (un photon, un quantum d’énergie) que lorsqu’il passe d’une orbite ayant un fort niveau d’énergie vers une orbite à plus faible niveau. Dans cette théorie, on viole une loi de l’électromagnétisme qui dit que tout ce qui bouge émet de l’énergie, un rayonnement.

L’histoire de ces expériences est très intéressante d’un point de vue épistémologique. Moi, je trouve touchant les efforts que ces hommes ont fait pour essayer de comprendre quelque chose au monde qui nous entoure. Je les imagine s’arrachant les cheveux, parcourus de doutes existentiels, remettant en question à chaque instant leurs idées et puisant sans cesse dans leur intuition fantastique et contrariante.

Mais ce qui m’intéresse moi, pour mes réflexions, c’est de saisir les détails du formalisme quantique.
Le peu que j’en ai perçu est extrêmement prometteur. Mettons de l’ordre dans tout ça (c’est-à-dire dans ma tête).

Point très important : à quel moment sommes-nous dans le quantique et à quel moment sommes-nous dans le classique. Question épistémologique fondamentale.

Sans que les choses soient figées, il existe quelques critères qui permettent de déterminer si l’on va s’appuyer sur les lois quantiques ou sur les lois physiques.

Appelons système l’objet que l’on soumet à l’étude. Ce système se définit par l’ensemble des propriétés de l’objet. Ce que l’on cherche à étudier, ce sont les caractéristiques, les variations, l’évolution de l’état physique de ce système. Chaque système est doté de propriétés intrinsèques invariantes (par exemple, si notre système est un électron, la masse et la charge de l’électron sont précisément les caractéristiques intrinsèques qui font de l’électron un électron). Chaque système présente aussi des caractéristiques qui varient en fonction de conditions extérieures, d’interaction avec ce qui les entoure (l’énergie de l’électron varie, ainsi que sa « position » par exemple).

On va alors s’intéresser à ce qu’on appelle l’action du système. Je sais que l’action est le produit d’une énergie par un temps (selon les lois de la physique dynamique), et on sait qu’une énergie, c’est le produit d’une masse par une vitesse, ou encore le produit d’une longueur par une quantité de mouvement. Bref, tant en physique classique qu’en physique des particules, on sait calculer l’action d’un système. Lorsque cette action est proche de la constante de Planck, on recourt aux lois quantiques, lorsque cette action est plus grande que la constante de Planck, les lois classiques sont pertinentes pour rendre compte de l’évolution de ce système.

Là je pose une petite étoile mentale (pour moi, pour une autre réflexion en cours) : ce type de retournement de concepts a tout à voir avec le principe de factorisation, les notions de commutativité et de non-commutativité, de variabilité et de constance, qui sont des notions qui me titillent…

On définit donc principalement le critère quantique autour de l’action d’un système. En tout cas pour l’instant, et j’imagine que d’autres critères entrent en compte.

Bon, entrons enfin dans le vif du sujet : plongeons dans le grand bain quantique. Qu’y a-t-il là-dedans, qu’en retenir.

Pour l’instant, j’ai l’impression que j’ai plutôt une bonne mémoire, les choses me paraissent claires pour la plupart. (Ca rime, c’est rigolo).

Formalisme : on peut dire qu’il s’agit d’un langage particulier qui permet d’exprimer des choses que l’on ne peut exprimer aisément à l’aide d’un autre langage. Il s’agit de connexions que l’on postule prudemment entre des concepts nés de phénomènes, d’interactions que l’on observe sous certaines conditions. Les mathématiques constituent le meilleur exemple de formalisme. C’est un peu comme un grand système, un ensemble abstrait qui pose des structures.

Il y a deux choses à distinguer : d’une part, la question de l’interprétation des représentations qu’offre le formalisme quantique.
D’autre part, les principes les plus importants mis en évidence grâce au formalisme, formalisme qui s’adapte réciproquement aux nouveaux principes découverts.

Je distingue ces deux choses alors qu’elles sont indissociables. Voici pourquoi elles sont indissociables.
Afin de résoudre des contradictions sur lesquelles aboutissaient de nombreuses théories, comme nous l’avons vu pour l’énergie de l’électron, les physiciens vont opérer un profond changement dans leur appréhension des phénomènes quantiques. Ils vont recourir à des outils mathématiques inédits.

Ces outils mathématiques ne se sont pas présentés d’eux-mêmes à l’entrée du laboratoire des physiciens, comme une évidence. Non, les physiciens ont été les chercher un peu en dernier recours, tentant l’impossible pour débrouiller la situation. A situation désespérée, entreprise audacieuse. S’engageant dans un pari fou, étourdis par un sursaut d’intuition confuse, ils sont allés chercher dans les mathématiques dites de l’analyse linéaire. Mais pas par hasard, juste pour voir, non. Il y avait une raison qui suggérait leur pertinence.
Qu’était-ce ? C’était  – et c’est toujours- lié au problème de la dualité onde-corpuscule.

Des expériences sur un photon (Fentes de Young) avaient montré que le photon avait un comportement ondulatoire. Entre le moment de son émission et le moment de son arrivée sur une plaque située à une certaine distance du point d émission, voici ce que l’on « observait » : l’impact du photon sur la plaque est corpusculaire, comme un point, et le « lieu » de l’impact laisse entendre que le photon connaît des interférences. C’est étrange car les interférences sont une propriété que seule une onde possède. Le photon ne pouvant raisonnablement pas être à la fois un corpuscule et une onde, n’étant apparemment ni l’un ni l’autre, les physiciens ont émis des postulats.

Un postulat consistait à dire : «  faisons le choix que la particule est une onde » (imaginons les problèmes de l’interprétation !), sans plus, juste pour voir. Ils ont postulé une généralisation du principe de superposition. Les chercheurs se sont alors armés d’un arsenal mathématique particulier. Ils ont choisi une branche des mathématiques issues du calcul différentiel (qui structure le mouvement des fluides à l’aide de fonctions, de dérivées, d’intégrales, de matrices et de vecteurs, inventé par Newton et Leibnitz).

La particularité d’une onde est de créer des interférences. On entend par interférence le phénomène qui voit s’additionner entre elles les longueurs (ou les fréquences) d’ondes de même type (des ondes acoustiques peuvent s’additionner entre elles, des ondes électromagnétiques entre elles). Il s’agit du phénomène dit de superposition.

Les mathématiques choisies ont la particularité de permettre à des entités de s’ajouter entre elles.
En gros, selon un procédé analogique, on transpose le principe de superposition des ondes au principe d’addition entre entités mathématiques (on peut faire une somme de deux fonctions).

Petite étoile mentale : De manière à la foi intuitive et rationnelle on a eu l’idée d’opérer ce genre d’audace analogique, dans laquelle je vois une manifestation de la prégnance de la symétrie, tant dans notre esprit que dans la nature. La question de la symétrie est liée aux questions de factorisation, commutativité, non-commutativité, variabilité et constance. (Biensûr, je suis très loin d’avoir quoi que ce soit à dire là-dessus pour l’instant).

Cette audace formelle s’est avérée éminemment heuristique pour nos amis. C'est grâce à ces mathématiques que tout le reste a été découvert. Il a été découvert grâce à ces mathématiques, qui réciproquement, sont les seules à pouvoir rendre compte de ces découvertes. C'est en cela que les principes découverts sont indissociables de leur interprétation peu évidente. En gros, disons qu'on a découvert plein de choses mais qu'il est difficile de savoir ce que c'est ou ce que ça veut dire...

Je vais m’arrêter là pour l’instant. On a mis quatre heures à faire ce travail et je pense qu’il en faudra au minimum quatre autres pour la suite.


Petite étoile sur les espaces de Hilbert : ces « espaces » n’ont rien à voir avec ce que l’on entend généralement par « espace » (espace physique à trois dimensions, hauteur, longueur, largeur). Ce sont des « espaces » abstraits qui sont définis par le « croisement » d’un nombre variable de dimensions (nombre potentiellement infini, c’est le mathématicien, j’imagine, qui juge et détermine les dimensions dans lesquelles s’inscrit un problème). On peut les imaginer comme relevant de la topologie, une topologie abstraite. Ces espaces sont peuplés de vecteurs, que l’on peut appeler également fonction d’onde. Ils représentent l’évolution des mouvements qui se produisent dans cet espace. Il me semble que les espaces de phase utilisés en physique dynamique sont des espaces de Hilbert. La conception de ce type d’espace repose sur l’interaction interdimensionnelle. On imagine des grandeurs dont les caractéristiques influencent et sont influencées par les caractéristiques d’autres grandeurs, dans une logique que j’appelle « tautologique » mais je me comprends… Les interactions interdimensionnelles entrent dans la réflexion sur la factorisation et ses petits corollaires déjà mentionnés.


To be continued.
------------------------------------------------------------------------------------------------------------


Aucun commentaire:

Enregistrer un commentaire