Feed back sur les deux vidéos d’introduction à la physique
quantique.
La première retrace brièvement l’historique de cette branche
des sciences physiques ; la seconde expose de manière claire le formalisme
propre à la physique quantique.
Il va y avoir forcément des confusions, des blancs et des
idioties mais je les corrigerai lorsque je reprendrai mes notes. L’intérêt du
feed back est de faire travailler sa mémoire pour comprendre les choses, avant
d’avancer. Ce que je me propose de faire ici, c'est de sortir tout ce que j'ai retenu de ce que j'ai étudié, sans notes ni rien, de faire un travail de mémoire à plat. Cela permet de voir ce qui a été compris et ce qui est flou et c'est à mes yeux la meilleure façon d'apprendre.
C'est parti.D'avance je m'excuse pour l'abscondité des propos qui vont suivre. Ce travail est avant tout personnel :)
C'est parti.D'avance je m'excuse pour l'abscondité des propos qui vont suivre. Ce travail est avant tout personnel :)
La physique quantique telle qu’on la connaît aujourd’hui,
s’est construite progressivement à partir de nombreuses expériences. C’est
l’ensemble de toutes ces théories, se contredisant les unes les autres, posant
des défis à l’esprit scientifique, qui nous a permis de cerner les principes
qui constituent cette branche particulière des sciences physiques.
On considère que c’est une expérience menée par Max Planck
en 1900 qui a ouvert la voie quantique.
Cette expérience était menée dans le but de comprendre
comment se répartissait l’énergie émise par un corps noir lorsque celui était
chauffé à une température approchant de l’infini.
On supposait à l’époque qu’un corps noir chauffé – un corps
noir étant une cavité, comme un four, qui ne laisse pas s’échapper la lumière
qu’il reçoit sous l’effet de la chaleur – devait finir par exploser. (ce qu’on
a appelé la « catastrophe ultraviolette »). Cependant, les
expériences révélaient que le corps noir n’explosait pas. D’où la question de
savoir comment se répartit l’énergie reçue, en interaction avec la matière qui
constitue les parois de ce corps noir. Par ailleurs, quelque soit la matière
d’un corps noir, les expériences montraient qu’à une température identique pour
tout corps noir, celui-ci virait au rouge. Cela suggère qu’il existe quelque
part un invariant, c’est-à-dire une constante dans l’interaction entre matière
(les parois) et énergie (sous forme de
température).
Le travail que Planck a réalisé consiste à expliquer
pourquoi un corps noir chauffé en continu n’explose pas. Il a produit des
équations qui posent le fait que l’énergie est reçue par le corps noir par
petits paquets, qu’il appelle quanta. Un quanta est une quantité constante et
minimale d’énergie. Ainsi est née la constante de Planck appelée h (qui vient
du mot allemand "hilfe" : au secours).
Pourquoi au secours : parce que Planck n’était pas
convaincu de l’existence des atomes, mais il a choisit de postuler leur
existence pour donner une chance à ses équations de tomber sur un résultat.
Bien que lui-même n’accordât pas beaucoup de crédit à sa
découverte, c’est pourtant cette expérience que l’histoire a choisit de mettre
à l’origine de la physique quantique.
En 1905, en effet, Einstein va s’inspirer des travaux de
Planck pour proposer de nouvelles équations.
Ce n’est plus tant que l’énergie s’échange par paquet, sinon
que ces paquets sont des propriétés intrinsèques des particules de lumière. Il
proposera, je crois, le terme de photon pour décrire ces particules de lumière.
L’expérience menée par Einstein en 1905 dite sur
« l’effet photoélectrique » est très importante.
Si j’ai bien compris,
il s’agissait de comprendre pourquoi une plaque de métal que l’on chauffe
engendre un courant électrique. Maxwell avait commencé à faire ce genre
d’expériences dans les années 1860 mais c’est Einstein qui a fournit une
explication (une formule). Maxwell est le physicien qui a travaillé sur l’électromagnétisme
et qui a réuni dans ses équations le courant électrique et le champ magnétique.
On dirige sur une plaque l’émission de différentes
fréquences électromagnétiques (allant du rouge au bleu, c'est-à-dire on modifie
la longueur de l’onde : plus elle est longue, plus la fréquence est basse
et la lumière est rouge, plus elle est courte, plus la lumière est bleue et la
fréquence élevée) On distingue la fréquence de l’onde de son intensité, si j’ai
bien compris.
Pour mémoire, rappelons nous que le spectre
électromagnétique est définit comme suit :
Des plus basses fréquences vers les plus élevées :
ondes radio / micro-ondes/ infrarouge/ lumière dite visible : rouge orange
jaune vert bleu violet (toutes ces longueurs d’onde additionnées donnent la
lumière dite blanche)/ ultraviolet/ rayons X/ rayons gamma (radioactivité).
Bref, à une certaine fréquence, les électrons contenus dans
les atomes qui constituent la plaque, émettent un photo, ce qui veut dire que
les électrons engrangent une certaine énergie qui les amène à se
« déplacer ». Lors de ce mouvement les électrons dégagent une énergie
qui se manifeste par l’émission d’un photon.
Ce qui intéressait les physiciens, c’était de comprendre
l’effet de seuil qui existait : pourquoi à une certaine fréquence
l’électron se mettait en mouvement. Il semble que ce phénomène soit lié à
l’intensité de l’énergie reçue par ce dernier.
Il semble que cette quantité d’énergie soit une grandeur
proportionnelle à la constante de Planck h.
Il semble important de bien concevoir d’un côté la question
de la longueur de l’onde (la fréquence) et d’un autre côté, l’intensité, ce qui
n’est pas facile.
Le point à retenir, c’est que ces expériences ont montré que
la constante de Planck n’était pas propre à la lumière, mais qu’elle
apparaissait aussi dans les particules qui composent la « matière ».
En 1905, par ailleurs Einstein révèle ses travaux sur la
relativité restreinte. Il s’agit d’une théorie qui révolutionne la conception
de l’espace et du temps, posant, en gros, qu’ils sont inextricablement liés, et
surtout que leur propriétés (vitesse, position, énergie, matière, temps)
varient en fonction de la position (on pourrait dire des propriétés) de
l’observateur.
Les expériences d’Eddington en 1919 confirment par la suite
la validité de la théorie d’Einstein : en effet, il semble que la lumière
soit déviée par la présence de masse dans l’espace-temps.
Il est important de savoir que Galilée avait déjà proposé
une théorie de la relativité sur laquelle newton avait fondé ses propres
théories. Mais elle ne disait pas la même chose. Que disait-elle ? Eh bien
je ne sais plus trop mais je regarderai. Ce dont je me souviens, c’est que Galilée
a étudié la chute des corps : tout corps chute à la même vitesse quelque
soit sa masse, c’est le frottement de l’air qui ralenti les moins massifs. Il y
est question de référentiels en mouvement ou non, d’où la relativité par
rapport à un référentiel, un point d’observation. Newton a quant-à lui
déterminé la relation qui existe entre l’énergie d’un corps, sa masse et la
vitesse de la lumière, avec les subtilités de masse propre et de masse grave,
dans les domaines de la cinétique et de la dynamique, mais c’est un autre
sujet.
Après la première guerre mondiale, on assiste à plusieurs
avancées déterminantes pour la physique quantique. Ces avancées sont l’œuvre de
jeunes scientifiques âgés d’une vingtaine d’années, venant de tous les pays d’Europe
et qui ont été fascinés par la théorie de la relativité d’Einstein (qui est une
théorie classique, non quantique). La portée révolutionnaire de cette théorie a
participé à l’engouement de cette jeune génération en quête d’idées neuves.
Quelques noms : Bohr, Heisenberg, Schrödinger, Gamow,
Weyl, Pauli, Dirac, Majonara. Il faut essayer d’en oublier le moins possible
car ils sont tous très importants.
Niels Bohr : suite à la théorie de Rutherford qui porte
sur la constitution de l’atome ( qu’il se représente selon le modèle d’un petit
système solaire : noyau, autour du quel : orbites, sur
lesquelles tournent des particules) Bohr propose un autre modèle dans
cette lignée : il existe d’après lui des trajectoires autorisées et des
trajectoires interdites, les orbites sont des niveaux d’énergie et les
électrons, en « sautant » d’un niveau à un autre, émettent un rayonnement
( de l’énergie) qui, me semble-t-il, est appelé rayonnement synchrotron.
Ces modèles ne sont plus valides. Il faut les connaître puis
les dépasser.
Parce qu’ils aboutissaient à des contradictions, la recherche
pour résoudre ces contradictions a permis de développer un nouveau formalisme
révolutionnaire. C’est ce nouveau formalisme qui constitue ce qu’on appelle la
physique quantique.
Recherchons dans notre mémoire un exemple de
contradiction : il y avait un problème concernant l’énergie émise par les électrons.
Dans le système de Rutherford, les électrons tournaient en émettant de l’énergie,
l’énergie même qui permettait leur mouvement. D’après les lois classiques, à
force de tourner et d’émettre de l’énergie, un corps s’épuise et finit pas
s’écraser sur le noyau. En conséquence : l’électron devait finir par
s’écraser sur le noyau, ce qui aurait donné à l’atome une durée de vie très
courte.
Voilà qui était en contradiction avec les
observations : l’atome a une certaine stabilité. Alors Bohr a stipulé que
l’électron tournait sans émettre d’énergie. Il n’émet de l’énergie (un photon,
un quantum d’énergie) que lorsqu’il passe d’une orbite ayant un fort niveau d’énergie
vers une orbite à plus faible niveau. Dans cette théorie, on viole une loi de
l’électromagnétisme qui dit que tout ce qui bouge émet de l’énergie, un
rayonnement.
L’histoire de ces expériences est très intéressante d’un
point de vue épistémologique. Moi, je trouve touchant les efforts que ces
hommes ont fait pour essayer de comprendre quelque chose au monde qui nous
entoure. Je les imagine s’arrachant les cheveux, parcourus de doutes
existentiels, remettant en question à chaque instant leurs idées et puisant
sans cesse dans leur intuition fantastique et contrariante.
Mais ce qui m’intéresse moi, pour mes réflexions, c’est de
saisir les détails du formalisme quantique.
Le peu que j’en ai perçu est extrêmement prometteur. Mettons
de l’ordre dans tout ça (c’est-à-dire dans ma tête).
Point très important : à quel moment sommes-nous dans
le quantique et à quel moment sommes-nous dans le classique. Question
épistémologique fondamentale.
Sans que les choses soient figées, il existe quelques
critères qui permettent de déterminer si l’on va s’appuyer sur les lois
quantiques ou sur les lois physiques.
Appelons système l’objet que l’on soumet à l’étude. Ce
système se définit par l’ensemble des propriétés de l’objet. Ce que l’on
cherche à étudier, ce sont les caractéristiques, les variations, l’évolution de
l’état physique de ce système. Chaque système est doté de propriétés
intrinsèques invariantes (par exemple, si notre système est un électron, la
masse et la charge de l’électron sont précisément les caractéristiques
intrinsèques qui font de l’électron un électron). Chaque système présente aussi
des caractéristiques qui varient en fonction de conditions extérieures,
d’interaction avec ce qui les entoure (l’énergie de l’électron varie, ainsi que
sa « position » par exemple).
On va alors s’intéresser à ce qu’on appelle l’action du
système. Je sais que l’action est le produit d’une énergie par un temps (selon
les lois de la physique dynamique), et on sait qu’une énergie, c’est le produit
d’une masse par une vitesse, ou encore le produit d’une longueur par une
quantité de mouvement. Bref, tant en physique classique qu’en physique des
particules, on sait calculer l’action d’un système. Lorsque cette action est
proche de la constante de Planck, on recourt aux lois quantiques, lorsque cette
action est plus grande que la constante de Planck, les lois classiques sont
pertinentes pour rendre compte de l’évolution de ce système.
Là je pose une petite étoile mentale (pour moi, pour une
autre réflexion en cours) : ce type de retournement de concepts a tout à
voir avec le principe de factorisation, les notions de commutativité et de
non-commutativité, de variabilité et de constance, qui sont des notions qui me
titillent…
On définit donc principalement le critère quantique autour
de l’action d’un système. En tout cas pour l’instant, et j’imagine que d’autres
critères entrent en compte.
Bon, entrons enfin dans le vif du sujet : plongeons
dans le grand bain quantique. Qu’y a-t-il là-dedans, qu’en retenir.
Pour l’instant, j’ai l’impression que j’ai plutôt une bonne
mémoire, les choses me paraissent claires pour la plupart. (Ca rime, c’est
rigolo).
Formalisme : on peut dire qu’il s’agit d’un langage
particulier qui permet d’exprimer des choses que l’on ne peut exprimer aisément
à l’aide d’un autre langage. Il s’agit de connexions que l’on postule
prudemment entre des concepts nés de phénomènes, d’interactions que l’on
observe sous certaines conditions. Les mathématiques constituent le meilleur
exemple de formalisme. C’est un peu comme un grand système, un ensemble
abstrait qui pose des structures.
Il y a deux choses à distinguer : d’une part, la
question de l’interprétation des représentations qu’offre le formalisme
quantique.
D’autre part, les principes les plus importants mis en
évidence grâce au formalisme, formalisme qui s’adapte réciproquement aux
nouveaux principes découverts.
Je distingue ces deux choses alors qu’elles sont
indissociables. Voici pourquoi elles sont indissociables.
Afin de résoudre des contradictions sur lesquelles
aboutissaient de nombreuses théories, comme nous l’avons vu pour l’énergie de
l’électron, les physiciens vont opérer un profond changement dans leur
appréhension des phénomènes quantiques. Ils vont recourir à des outils
mathématiques inédits.
Ces outils mathématiques ne se sont pas présentés d’eux-mêmes
à l’entrée du laboratoire des physiciens, comme une évidence. Non, les
physiciens ont été les chercher un peu en dernier recours, tentant l’impossible
pour débrouiller la situation. A situation désespérée, entreprise audacieuse. S’engageant
dans un pari fou, étourdis par un sursaut d’intuition confuse, ils sont allés
chercher dans les mathématiques dites de l’analyse linéaire. Mais pas par
hasard, juste pour voir, non. Il y avait une raison qui suggérait leur
pertinence.
Qu’était-ce ? C’était – et c’est toujours- lié au problème de la
dualité onde-corpuscule.
Des expériences sur un photon (Fentes de Young) avaient
montré que le photon avait un comportement ondulatoire. Entre le moment de son
émission et le moment de son arrivée sur une plaque située à une certaine
distance du point d émission, voici ce que l’on « observait » :
l’impact du photon sur la plaque est corpusculaire, comme un point, et le « lieu »
de l’impact laisse entendre que le photon connaît des interférences. C’est
étrange car les interférences sont une propriété que seule une onde possède. Le
photon ne pouvant raisonnablement pas être à la fois un corpuscule et une onde,
n’étant apparemment ni l’un ni l’autre, les physiciens ont émis des postulats.
Un postulat consistait à dire : « faisons le
choix que la particule est une onde » (imaginons
les problèmes de l’interprétation !), sans plus, juste pour voir. Ils ont
postulé une généralisation du principe de superposition. Les chercheurs se sont
alors armés d’un arsenal mathématique particulier. Ils ont choisi une branche
des mathématiques issues du calcul différentiel (qui structure le mouvement des
fluides à l’aide de fonctions, de dérivées, d’intégrales, de matrices et de
vecteurs, inventé par Newton et Leibnitz).
La particularité d’une onde est de créer des interférences.
On entend par interférence le phénomène qui voit s’additionner entre elles les
longueurs (ou les fréquences) d’ondes de même type (des ondes acoustiques
peuvent s’additionner entre elles, des ondes électromagnétiques entre elles).
Il s’agit du phénomène dit de superposition.
Les mathématiques choisies ont la particularité de permettre
à des entités de s’ajouter entre elles.
En gros, selon un procédé analogique, on transpose le
principe de superposition des ondes au principe d’addition entre entités
mathématiques (on peut faire une somme de deux fonctions).
Petite étoile mentale : De manière à la foi intuitive
et rationnelle on a eu l’idée d’opérer ce genre d’audace analogique, dans
laquelle je vois une manifestation de la prégnance de la symétrie, tant dans
notre esprit que dans la nature. La question de la symétrie est liée aux
questions de factorisation, commutativité, non-commutativité, variabilité et
constance. (Biensûr, je suis très loin d’avoir quoi que ce soit à dire là-dessus
pour l’instant).
Cette audace formelle s’est avérée éminemment heuristique
pour nos amis. C'est grâce à ces mathématiques que tout le reste a été découvert. Il a été découvert grâce à ces mathématiques, qui réciproquement, sont les seules à pouvoir rendre compte de ces découvertes. C'est en cela que les principes découverts sont indissociables de leur interprétation peu évidente. En gros, disons qu'on a découvert plein de choses mais qu'il est difficile de savoir ce que c'est ou ce que ça veut dire...
Je vais m’arrêter là pour l’instant. On a mis quatre heures
à faire ce travail et je pense qu’il en faudra au minimum quatre autres pour la
suite.
Petite étoile sur les espaces de Hilbert : ces « espaces »
n’ont rien à voir avec ce que l’on entend généralement par « espace »
(espace physique à trois dimensions, hauteur, longueur, largeur). Ce sont des « espaces »
abstraits qui sont définis par le « croisement » d’un nombre variable
de dimensions (nombre potentiellement infini, c’est le mathématicien, j’imagine,
qui juge et détermine les dimensions dans lesquelles s’inscrit un problème). On
peut les imaginer comme relevant de la topologie, une topologie abstraite. Ces espaces
sont peuplés de vecteurs, que l’on peut appeler également fonction d’onde. Ils
représentent l’évolution des mouvements qui se produisent dans cet espace. Il
me semble que les espaces de phase utilisés en physique dynamique sont des
espaces de Hilbert. La conception de ce type d’espace repose sur l’interaction
interdimensionnelle. On imagine des grandeurs dont les caractéristiques
influencent et sont influencées par les caractéristiques d’autres grandeurs,
dans une logique que j’appelle « tautologique » mais je me comprends…
Les interactions interdimensionnelles entrent dans la réflexion sur la
factorisation et ses petits corollaires déjà mentionnés.
To be continued.
------------------------------------------------------------------------------------------------------------
------------------------------------------------------------------------------------------------------------
Aucun commentaire:
Enregistrer un commentaire