M4 Phys 2007

Télécharger au format pdf ou txt
Télécharger au format pdf ou txt
Vous êtes sur la page 1sur 252

Mathématiques pour la Physique

Bahram Houchmandzadeh

To cite this version:


Bahram Houchmandzadeh. Mathématiques pour la Physique. Licence. Mathématiques pour la
Physique., France. 2010, pp.250. �cel-01148916v1�

HAL Id: cel-01148916


https://hal.science/cel-01148916v1
Submitted on 5 May 2015 (v1), last revised 16 Dec 2020 (v7)

HAL is a multi-disciplinary open access L’archive ouverte pluridisciplinaire HAL, est


archive for the deposit and dissemination of sci- destinée au dépôt et à la diffusion de documents
entific research documents, whether they are pub- scientifiques de niveau recherche, publiés ou non,
lished or not. The documents may come from émanant des établissements d’enseignement et de
teaching and research institutions in France or recherche français ou étrangers, des laboratoires
abroad, or from public or private research centers. publics ou privés.
Mathématiques pour la
Physique.

Bahram Houchmandzadeh

http://houchmanddzadeh.net/cours/Math/math.htm
First Version : Septembre 2008
Present Version : December 11, 2014

2
Table des matières
1 Introduction. 7

2 Éléments d'analyse fonctionnelle. 9


2.1 Les espaces vectoriels. . . . . . . . . . . . . . . . . . . . . . . . . . 9
2.2 L'espace vectoriel des fonctions. . . . . . . . . . . . . . . . . . . . . 13
2.3 Quelques digressions historiques. . . . . . . . . . . . . . . . . . . . 18

3 Les séries de Fourier. 19


3.1 Introduction. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19
3.2 Les séries de Fourier. . . . . . . . . . . . . . . . . . . . . . . . . . . 20
3.3 Pourquoi les séries de Fourier sont intéressantes ? . . . . . . . . . . 24
3.4 Un peu de généralisation. . . . . . . . . . . . . . . . . . . . . . . . 26
3.5 Les séries de sinus et de cosinus. . . . . . . . . . . . . . . . . . . . 26
3.6 Vibration d'une corde. . . . . . . . . . . . . . . . . . . . . . . . . . 28
3.7 Dérivation terme à terme des series de Fourier. . . . . . . . . . . . 29
3.8 Equation de la chaleur. . . . . . . . . . . . . . . . . . . . . . . . . . 31

4 Les transformations de Fourier. 44


4.1 Entrée en matière. . . . . . . . . . . . . . . . . . . . . . . . . . . . 44
4.2 Les opérations sur les TF. . . . . . . . . . . . . . . . . . . . . . . . 46
4.3 Transformée de Fourier Rapide. . . . . . . . . . . . . . . . . . . . . 47
4.4 Manipulation et utilisation des TF. . . . . . . . . . . . . . . . . . . 47
4.5 Relation entre les séries et les transformés de Fourier. . . . . . . . 51
4.6 Approfondissement : TF à plusieurs dimensions. . . . . . . . . . . 52

5 Les distributions. 55
5.1 Ce qu'il faut savoir. . . . . . . . . . . . . . . . . . . . . . . . . . . 55
5.2 Un peu de décence. . . . . . . . . . . . . . . . . . . . . . . . . . . . 58
5.3 Manipulation et utilisation des distribution. . . . . . . . . . . . . . 60
5.4 Exercices. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 65

6 Convolution et corrélation. 67
6.1 Les convolutions. . . . . . . . . . . . . . . . . . . . . . . . . . . . . 67
6.2 Auto-corrélation. . . . . . . . . . . . . . . . . . . . . . . . . . . . . 70

3
Table des matières

6.3 Approfondissement : Relation entre l'équation de diusion et les


convolutions. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 72

7 Les transformées de Laplace. 77


7.1 Entrée en matière. . . . . . . . . . . . . . . . . . . . . . . . . . . . 77
7.2 Opérations sur les TL. . . . . . . . . . . . . . . . . . . . . . . . . . 78
7.3 Décomposition en fraction simple. . . . . . . . . . . . . . . . . . . 80
7.4 Comportement assymptotique. . . . . . . . . . . . . . . . . . . . . 82
7.5 Produit de Convolution. . . . . . . . . . . . . . . . . . . . . . . . . 85
7.6 Aperçu des équations intégrales. . . . . . . . . . . . . . . . . . . . 85
7.7 Aperçu des systèmes de contrôle asservis (feedback systems). . . . 86
7.8 La physique statistique. . . . . . . . . . . . . . . . . . . . . . . . . 86
7.9 TL inverse. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 87
7.10 Exercices. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 88

8 Les fonctions de Green. 95


8.1 Entrée en matière . . . . . . . . . . . . . . . . . . . . . . . . . . . . 95
8.2 Le potentiel électrostatique. . . . . . . . . . . . . . . . . . . . . . . 98
8.3 La propagation des ondes . . . . . . . . . . . . . . . . . . . . . . . 100
8.4 Propagateur pour l'équation de Shrodinger. . . . . . . . . . . . . . 101
8.5 Disposer d'une base propre. . . . . . . . . . . . . . . . . . . . . . . 101

9 Les opérateurs linéaires. 102


9.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 102
9.2 L'algèbre des opérateurs. . . . . . . . . . . . . . . . . . . . . . . . . 104
9.3 Représentation matricielle des opérateurs. . . . . . . . . . . . . . . 109
9.4 Valeurs et Vecteurs propres. . . . . . . . . . . . . . . . . . . . . . . 112
9.5 Disposer d'une base propre orthogonale. . . . . . . . . . . . . . . . 114
9.6 Opérateurs hermitiens. . . . . . . . . . . . . . . . . . . . . . . . . . 116
9.7 Méthodes opératorielles, algèbre de Lie. . . . . . . . . . . . . . . . 118

10 Les systèmes Sturm-Liouville. 121


10.1 Introduction. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 121
10.2 Reformulation opératorielle. . . . . . . . . . . . . . . . . . . . . . . 125
10.3 Detour : la mécanique quantique ou pourquoi les valeurs propres
ont pris tant d'importance. . . . . . . . . . . . . . . . . . . . . . . 130
10.4 Les systèmes Sturm-Liouville. . . . . . . . . . . . . . . . . . . . . . 132
10.5 Les solutions polynomiales de Sturm-Liouville. . . . . . . . . . . . 133
10.6 Valeurs et fonctions propres. . . . . . . . . . . . . . . . . . . . . . . 137
10.7 Les solutions non-polynomiales. . . . . . . . . . . . . . . . . . . . . 138
10.8 Problèmes. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 138

4
Table des matières

11 Le calcul variationnel 141


11.1 Introduction. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 141
11.2 Calcul des variations. . . . . . . . . . . . . . . . . . . . . . . . . . . 143
11.3 Plusieurs degrés de libertés. . . . . . . . . . . . . . . . . . . . . . . 147
11.4 Formulation Lagrangienne et équation du mouvement d'un champ. 150
11.5 Optimisation sous contraintes. . . . . . . . . . . . . . . . . . . . . . 153
11.6 Les conditions aux bords naturelles 1. . . . . . . . . . . . . . . . 159
11.7 Les conditions aux bords naturelles 2. . . . . . . . . . . . . . . . . 161
11.8 Détour : éléments de géométries non-euclidiennes. . . . . . . . . . . 162

12 Calcul des perturbations. 170


12.1 Les perturbations régulières. . . . . . . . . . . . . . . . . . . . . . . 170
12.2 Les perturbations singulières. . . . . . . . . . . . . . . . . . . . . . 174

13 Les opérateurs diérentiels. 181


13.1 Métrique et Système de coordonnées. . . . . . . . . . . . . . . . . . 181
13.2 Nabla, div et les autres. . . . . . . . . . . . . . . . . . . . . . . . . 183
13.3 Le gradient. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 183
13.4 Champ de vecteurs. . . . . . . . . . . . . . . . . . . . . . . . . . . 184
13.5 Le rotationnel. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 186
13.6 La divergence. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 189
13.7 Le Laplacien. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 190
13.8 Résumons. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 192
13.9 Problèmes. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 194
13.10Notes. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 194

14 Les tenseurs en physique. 196


14.1 Les tenseurs de rang 2. . . . . . . . . . . . . . . . . . . . . . . . . . 196
14.2 Généralisation des tenseurs. . . . . . . . . . . . . . . . . . . . . . . 199
14.3 Les composantes d'un tenseur. . . . . . . . . . . . . . . . . . . . . 200
14.4 Changement de base. . . . . . . . . . . . . . . . . . . . . . . . . . . 202
14.5 Le produit scalaire généralisé, covariant et contravariant, les formes
linéaires. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 204

15 Équation à dérivée partielle du premier ordre. 206


15.1 La méthode des caractéristiques. . . . . . . . . . . . . . . . . . . . 206
15.2 Interprétation géométrique. . . . . . . . . . . . . . . . . . . . . . . 208
15.3 Généralisation. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 211

16 Les formes diérentielles et la dérivation extérieure. 213


16.1 Introduction. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 213
16.2 Les 1−formes. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 214

5
Table des matières

16.3 Intégration des 1-formes. . . . . . . . . . . . . . . . . . . . . . . . . 215


16.4 les n−formes et lesn−vecteurs. . . . . . . . . . . . . . . . . . . . . 216
16.5 L'intégration des k−formes. . . . . . . . . . . . . . . . . . . . . . . 217
16.6 La dérivation extérieure. . . . . . . . . . . . . . . . . . . . . . . . . 219
16.7 théorème de Stockes. . . . . . . . . . . . . . . . . . . . . . . . . . . 224
16.8 Intégration par partie. . . . . . . . . . . . . . . . . . . . . . . . . . 226
16.9 Un peu de géometrie : vecteurs, 1-formes et leurs associations. . . . 226
16.10L'opérateur de Hodge. . . . . . . . . . . . . . . . . . . . . . . . . . 231
16.11Quelques applications. . . . . . . . . . . . . . . . . . . . . . . . . . 232

17 Les équations de la physique. 236


17.1 Qu'est ce qu'une équation diérentielle ? . . . . . . . . . . . . . . . 236
17.2 Equation de Laplace. . . . . . . . . . . . . . . . . . . . . . . . . . . 237
17.3 Equation d'onde et de chaleur. . . . . . . . . . . . . . . . . . . . . 240

18 Qu'est ce qu'un nombre ? 242


18.1 Les entiers naturels N. . . . . . . . . . . . . . . . . . . . . . . . . . 242
18.2 Les ensembles Z et Q. . . . . . . . . . . . . . . . . . . . . . . . . . 243
18.3 Un peu de topologie. . . . . . . . . . . . . . . . . . . . . . . . . . . 244
18.4 L'ensemble des nombres réels. . . . . . . . . . . . . . . . . . . . . . 246
18.5 Les nombres p−adiques. . . . . . . . . . . . . . . . . . . . . . . . . 248

19 Bibliograhie. 250

6
1 Introduction.
Durant les deux premières années de l'université, on apprend les bases essen-
tielles des mathématiques : calcul diérentiel et integral, algèbre linéaire, équa-
tions diérentielles linéaires, etc. L'objet de ce cours est d'utiliser ce corpus pour
introduire les méthodes mathématiques dites supérieures utilisées pour résoudre
les problèmes classiques de la physique.
Les mathématiques ne sont pas une collection de méthodes juxtaposées et sans
relation : il existe des concepts extremement généraux qui nous permettent de
porter le même regard sur des notions à priori disparates. Le concept qui reviendra
tout au long de ce cours est celui de l'espace vectoriel. Ainsi, tourner un vecteur du
plan d'un angle quelconque ou appliquer un opérateur integro-diérentiel à une
fonction sont fondamentalement la même chose ; de même que trouver les valeurs
propres d'une matrice ou résoudre une équation à dérivée partielle linéaire. C'est
bien pour cela que l'étudiant apprend un tel volme d'algèbre linéaire dans les
cours de mathématiques élémentaires.
Le plan du cours est le suivant : Après une introduction (un rappel) des espaces
vectoriels, nous verrons que les fonctions elles mêmes peuvent être considérées
commes des points (des vecteurs) dans un grand espace des fonctions, et que
nous pouvons dénir des bases orthogonales dans cet espace presque comme on
le fait dans l'espace tri-dimentionnel.
Le chapitre suivant est consacré aux séries de Fourier, le premier exemple pra-
tique que nous verrons de bases dénombrables dans l'espace des fonctions sur
un intervalle ni. Nous verrons entre autre comment cette base nous permet de
résoudre les équations classique de la physique comme celle de diusion de la
chaleur ou des cordes vibrantes.
Nous avons souvent aaire à des fonctions dénies sur des intervalles innis. Les
transformées de Fourier nous permettent de disposer de bases pour l'espace de ces
fonctions. Comme souvent cependant, les innis posent des problèmes particuliers
et nous auront allors à dénir les distributions, une généralisation des fonctions
qui introduit en mathématique le concept de charge (ou force) ponctuelle si cher
aux physiciens. Nous verrons alors le nombre incroyable de problèmes que ces
nouvelles méthodes nous permettent d'aborder : de la résolution des équations
diérentielles à celle d'équations stochastiques (comme le mouvement brownien)
en passant par la diraction par les cristaux etc.
Le cousin germain des transformées de Fourier est la transformée de Laplace :
nous verrons comment l'utiliser pour tous les problèmes où les conditions initales

7
1 Introduction.

sont importantes.
Finalement, un complément util à tous ces outils est la méthode de Green (ou
fonctions de Green) qui à nouveau a à voir avec la généralistation des charges
ponctuelles : si on connait l'eet d'une charge (ou d'une force ou ...) ponctuelle,
on peut alors facilement calculer l'eet d'une distribution de charge (de force ...).
Nous allons revenir sur le concept général d'operateur integro-diérentiel. Une
rotation ou une homotetie transforment de façon linéaire un vecteur dans un
autre. Un opérateur diérentielle linéaire comme (∂t − D∂x2 ) fait la même chose
pour les fonctions, considérées comme des vecteurs d'un grand espcace. Nous sa-
vons qu'étudier une application linéaire est toujours beacoup plus simple dans sa
base propre. La même chose est vrai pour les vecteurs et valeur propres des opé-
rateurs. Les transformées de Fourier nous fournissaient une base très particulière
bien adapté à certains problèmes de physique, nous verrons d'autres bases comme
celle des polynomes othogonaux et nous généraliserons le calcul des opérateurs.
Quelques chapitres sont consacrés aux notions plus avancées qui devront néan-
moins être connues des étudiants à la n de leur Master. Nous abordons le calcul
des perturbations, outil indispensable dès que nous tentons la résolution de vrai
problèmes, c'est à dire ceux qui s'écartent un peu des exemples classiques que
nous savons résoudre. Par exemple, nous savons résoudre une équation diéren-
tielle d'une certaine forme, le calcul de perturbation nous permettra d'obtenir
une solution approchée quand la forme change légèrement.
Un chapitre est consacré aux claculs des variations qui est une généralisation
des problèmes d'extrémum à l'espace des fonctions et des fonctionnelles qui y
agissent. La plupart des problèmes de physique sont formulée dans ce langage ou
gagne à être formulé dans ce langage.
Nous aborderons également la théorie des formes diérentielles. Souvent ces
objets sont enseignés dans le cadre de la théorie des tenseurs et vue comme des
tenseurs alternés. Il est cependant beacoup plus simple de les aborder directement
et en donner une image géométrique, surtout que ce sont des objets très simple
à manipuler et qui donnent de la cohérence aux divers operateurs diérentiels
comme le gradient, rotationnel et divergence. Nous verrons comment certaines
lois de la physique comme les équations de Maxwell acquiert une signication
géométrique intuitive.
La théorie des tenseurs sera également dans un chapitre. Nous nous contente-
rons essentiellement des tenseurs dans un espace euclidien où il n'y a pas à faire
de diérence entre les vecteurs et les covecteurs.
Enn un petit chapitre est consacré aux nombres. Nous les manipulons depuis
si longtemps que nous avons oublié comment on les a construit. Ce chapitre tente
de remedier à cet oubli.
Bon, susement disgressé, voyons du concret.

8
2 Éléments d'analyse
fonctionnelle.
Les espaces vectoriels jouent un rôle unicateur fondamental en mathéma-
tiques. Peut-être cela rappelle au lecteur des souvenirs de matrices, de bases
et de ses changements, ... Nous allons revoir tout cela de façon assez legère mais
surtout appliquée à l'ensemble extrémement vaste des fonctions. Nous allons voir
que nous pouvons décrire les fonctions comme des vecteurs dans des espaces de
dimensions innies, en utilisant pratiquement les mêmes outils que pour des vec-
teurs à trois dimensions. Cela s'appelle analyse fonctionnelle et a été formalisé
par Hilbert au début des années 1900. Le reste de ce cours s'appuie constemment
sur les résultats de ce chapitre dont la lecteure est indispensable.

2.1 Les espaces vectoriels.


Qu'est ce qu'un espace vectoriel ? Nous connaissons déjà certains ensemble
célèbre comme celui des nombres rééls R ou complexes C. On les appellera dans
la suite indiéremment l'ensemble des scalaires S. Un espace vectoriel est un
ensemble E où l'opération + a un sens. Pas n'importe quel sens d'ailleurs, mais
1
ce qu'on associe instinctivement à cette opération : (i) si a et b appartiennent à
notre ensemble, alors a + b aussi ; (ii) a + b = b + a . En plus, multiplier un vecteur
par un scalaire a un sens, qui plus est, lui aussi très naturel : si s, s1 , s2 ∈ S et
a, b ∈ E , alors : (i) sa ∈ E ; (ii) (s1 + s2 )a = s1 a + s2 a ; (iii) s(a + b) = sa + sb ;
(iv) E possède un élément zéro, qu'on notera 0 tel que a + 0 = a, a, 0 ∈ E .
2

N'oublions pas que quand on parle de sa, on parle bien d'un vecteur et non
d'un scalaire. L'ensemble des maisons d'une ville par exemple n'a pas vraiment
une structure d'espace vectoriel. Par contre, l'ensemble des vecteurs dans un
plan, l'ensemble des polynômes, ou l'ensemble des fonctions dénies sur [0, 1]
3
ont une structure d'espace vectoriel. L'intérêt majeur est que tout ce que l'on
peut armer pour l'un de ces ensembles (en rapport avec son caractère vectoriel)
pourra être généralisé aux autres.

1. un instinct forgé par une douzaine d'année d'étude.


2. En caractère gras pour ne pas le confondre avec le 0 des scalaires.
3. Bon, il faut, de temps en temps, prendre des précautions.

9
2 Éléments d'analyse fonctionnelle.

Bases d'espace vectoriel. Une base est l'ensemble de certains éléments de notre
espace E qui nous permet de décrire tout les autres. Pour être plus rigoureux,
supposons que e1 , e2 , e3 , ..., ei ∈ E, soit une base. Dans ce cas, pour n'importe
quel élément
P a
E , on peut trouver des scalaires ( des chires donc) si tel que
de
a = s e
i i i . On dit que a est une combinaison linéaire des vecteurs ei . Bien
sûr, il faut prendre le minimum de ei qui rende cette description faisable. Pour
cela, il sut d'exiger qu'aucun des ei ne puisse être une combinaison linéaire des
autres (on dit alors que ces vecteurs sont linéairement indépendant). Les scalaire
si qu'on aura trouvé pour la description de a sont alors unique. On les appelle
les composantes du vecteur a dans la base {e}.
Le grand intérêt des bases est qu'elles nous permettent de manipuler les vec-
teurs comme des collections de chires. Pour les vecteurs dans le plan, nous ne
sommes pas obligé de faire des dessins, nous pouvons les représenter par des du-
plets (x1 , x2 ) si nous nous sommes xés à l'avance deux vecteurs de références.
A partir du moment où on peut représenter les objets par des chires, on peut
pratiquement tout faire (hem).
Pour l'espace vectoriel des polynômes, les polynômes 1, X, X 2 , ... constituent
2
une base. Une autre serait {1, (1 − X), (1 − X) , ...}. Bien sûr, le choix de la
base n'est pas unique. On peut cependant remarquer que l'ensemble des vecteurs
du plan est de dimension 2 (il sut de deux vecteurs pour dénir une base),
tandis que l'ensemble des polynômes est de dimension innie. Ce n'est pas une
très grande innie, le nombre d'éléments dans la base qui couvre les polynômes
est le même que celui des nombres dans N. On dit alors que c'est une innie
4
dénombrable .
Quand est il de l'espace des fonctions ? A priori, c'est un espace d'une très
grande dimension. On verra par la suite que si on se donne quelques restrictions,
on peut également dénir une base dénombrable pour cet espace. C'est un des
théorèmes les plus fascinants d'analyse.

Le produit scalaire. On peut enrichir la structure d'espace vectoriel en rajoutant


d'autres opération que le + et le produit par un scalaire. L'opération la plus utile
à dénir pour l'Analyse est le produit scalaire (qu'on appelle également le produit
intérieur). Le produit scalaire est une opération qui, à deux vecteurs, associe un
scalaire 5 . Nous noterons le produit scalaire de deux vecteurs (a, b). En physique,

− →

on a plus l'habitude de le noter par a.b, en mécanique quantique par ha| bi.
Nous sommes assez habitués depuis les années du lycée avec ce concept. Un
bon produit scalaire doit avoir ces quelques propriétés :

4. C'est le plus petit des innis. Sans rentrer dans les détails, l'inni qui ensuite est vraiment
plus grande que N est celui de R. L'ensemble de toutes les fonctions est une innie encore plus
grande.
5. (., .) : E × E → S.Si l'espace vectoriel est associé aux réels (complexes), le scalaire est un
réel (complexe).

10
2 Éléments d'analyse fonctionnelle.

(i) (sa, b) = s(a, b) où s ∈ S, et a, b ∈ E .


(ii) (a + b, c) = (a, c) + (b, c). où a, b, c ∈ E .
(iii) (a, a) ∈ R et (a, a) > 0 si a 6= 0 et (a, a) = 0 si a = 0.
Par exemple, dans l'ensemble des vecteurs du plan, on peut dénir un produit
P
scalaire par (a, b) = xi yi où xi et yi sont les composantes des deux vecteurs a
et b.
La propriété (iii) est très intéressante. Elle nous permet de dénir la longueur
d'un vecteur, qu'on appelle sa norme et que l'on note
2
kak = (a, a). L'intérêt
de pouvoir disposer d'une norme est immense. On peut par exemple savoir si
deux vecteurs a, b sont proches l'un de l'autre en regardant la norme de leur
diérence ka − bk, ce qui nous permet à son tour de dénir la notion de limite
(souvenez vous, les ∀blabla, ∃blabla tel que blablabla ...). Cela paraît évident si
l'on parle des vecteurs d'un plan, ça l'est beaucoup moins quand on discute des
espaces vectoriels plus riches comme celui des fonctions. Est ce que par exemple,
on peut dire que la fonction sin(.) et log(.) sont proches ?
Nous avons besoin aussi de préciser la commutativité. Nous exigeons du produit
scalaire :

(iv) (a, b) = (b, a) si E est associé aux réels ;


(iv') (a, b) = (b, a)∗ si E est associé aux complexes.
2
Par exemple, pour les vecteurs de C , on peut dénir le produit scalaire de a, b

P
par i xi yi où xi , yi sont les composantes de a et b. Notez bien que l'on doit
multiplier la composante de l'un par le complexe conjugué de l'autre si on veut
6
respecter la propriété (iii) et disposer d'une norme . La propriété (iv) ou (iv)',
combinée à la propriété (i) nous donne :

(i') (a, sb) = s(a, b) si E est associé aux réels ;


(i) (a, sb) = s∗ (a, b) si E est associé aux réels.

L'orthogonalité. Nous nous souvenons que pour les vecteurs dans Rn , deux
vecteurs (6= 0) sont perpendiculaires (qu'on note a⊥b ) ssi leur produit scalaire
est nul. Nous acceptons cette dénitions pour tout espace vectoriel. On appelle
une base orthogonale une base telle que tout ses éléments soit perpendiculaire l'un
à l'autre. Nous avons un avantage fantastique à utiliser des bases orthogonales.
D'abord, si les vecteurs e1 , e2 , ... sont orthogonale les uns aux autres, ils sont
linéairement indépendant. Si notre espace vectoriel est de dimension n, il nous
sut donc de trouver n vecteurs tous ⊥les uns aux autres et le tour est joué :
nous disposons d'une base !

6. Un exemple intéressant de produit scalaire qui ne respecte pas (iii) est donné par la
relativité restreinte. On repère un événement par ses quatre coordonnées spatiotemporelles
(x, y, z, t) et le produit scalaire de deux événement est déni par x1 x2 + y1 y2 + z1 z2 − t1 t2 .
Deux événement distincts peuvent donc être à distance nulle l'un de l'autre.

11
2 Éléments d'analyse fonctionnelle.

On peut exiger encore plus d'une base : qu'elle soit orthonormée, c'est à dire
que la norme de tous ses éléments soit l'unité. Si nous disposons d'une base
orthonormé, on peut trouver les composantes d'un vecteur quelconque de façon
extrêmement simple : si
P a est un vecteur et (e1 , ...en ) une base orthonormée, alors
a= (a, ei )ei , c'est à dire que la composante de a selon ei est (a, ei ). Comme
n
exemple, prenez le cas des vecteurs dans R .

Exercices.

1. Démontrer que les deux vecteurs (1, 0) (0, 1) forment une base pour l'espace
vectoriel C2 associé à C. Même chose pour les deux vecteurs (i, 0) et (0, i).
2. Démontrer que si ka − bk = 0, alors a = b.
P
3. Démontrer que pour l'espace des matrices n × n, ai,j bi,j est un produit
scalaire. Ce produit scalaire est souvent utilisé en analyse matricielle numé-
rique pour l'évaluation de la stabilité des méthode itératives.

4. Démontrer que si n vecteurs sont mutuellement orthogonaux, alors ils sont


linéairement indépendants.

5. Démontrer que si {e1 , ..., en } est une base orthonormée, alors n'importe quel
vecteur a peut s'écrire sous la forme

n
X
a= (a, ei )ei
i=1

Comment doit on modier cette formule si la base est simplement orthogo-


nal, mais pas orthonormée ?

6. En réalité, une norme pour pouvoir légalement porter ce nom, doit respecter
l'inégalité triangulaire :

ka + bk ≤ kak + kbk

Démontrez que la norme dénie par le produit scalaire vérie cette inégalité.
Pour cela il faut d'abord démontrer l'inégalité de Cauchy-Schwarz :

|(a, b)|2 ≤ k ak.kbk

qu'on peut assez facilement démontrer en considérant le produit (a+λb, a+


λb) ≥ 0.
7. Pouvez vous généraliser le produit scalaire dans Rn à l'espace des poly-
nômes ? Et surtout démontrer qu'il respecte toutes les propriétés d'un pro-
duit scalaire ?

12
2 Éléments d'analyse fonctionnelle.

8. Un operateur linéaire est une fonction linéaire de l'espace vectoriel dans lui
même : il prend un vecteur en entrée et produit un vecteur en sortie. La
linéarité veut dire que si L est un opérateur linéaire, a, b deux membres
quelconques de l'espace vectoriel et λ, µ deux scalaires, alors

L(λa + µb) = λL(a) + µL(b)


(N'oublions pas que L(a) et L(b) sont des vecteurs au même titre que a et
b). Si on se donne une base {ei }, l'operateur peut être caractérisé par son
action sur chaque vecteur de la base :
X
L(ej ) = Lij ei
i

Les nombres Lij sont les comosantes de l'application L dans la base des
{ei }. En général, pour les représenter, on les dispose dans un tableau (appelé
matrice) où la i−ème ligne et la j−ème colonne contient le nombre Lij .
Démontrez que les composantes de deux vecteurs quelconque a et b tel que
b = L(a) sont relié par la relation (noter l'ordre des sommations)
X
bi = Lij aj
j

9. Démontrer alors que si la base est orthonormale,

Lij = (ei , L(ej ))


En langage claire, pour connaitre la composante Lij d'une matrice, il faut
trouver d'abord le vecteur qui résulte de l'application de l'operateur au
j−ème vecteur de la basep = L(ej ), et former le produit scalaire de ce
vecteur avec le i−ème vecteur de la base.
10. Soit deux bases {ei } et {fi } et P une application linéaire tel que

P (ei ) = fi i = 1, 2, ..., n
P −1 (fi ) = ei
P est couramment appelé l'application de passage. Soit A une application
linéaire quelconque dont les éléments dans la base des {fi } sont données
par la matrice aij . Soit maintenant l'application linéaire P −1 AP . Calculer
ses éléments de matrice dans la base des {ei }.

2.2 L'espace vectoriel des fonctions.


Manipuler des vecteurs dans l'espace Rn c'est bien, mais nous nous intéressons à
un espace beaucoup plus vaste, celui des fonctions. Soit F l'ensemble des fonctions

13
2 Éléments d'analyse fonctionnelle.

R→R dénies sur un intervalle donnée I. Les fonctions sont en faite des boites
noire qui prennent des chires en entrée et produisent des chires en sortie. La
fonction sin(.) par exemple, à une valeur x∈I associe le nombre sin x. On peut
voir les fonctions comme des points dans un espace immensément grand où en se
baladant, on rencontrerai de temps en temps des fonctions connues comme log(.),
7
exp(.), exp(2.) et la plupart de temps des fonctions qui n'ont pas de nom .

Le produit scalaire. Il est évident que F possède une structure d'espace vecto-
riel. On ne sait pas encore si nous pouvons étendre la notion de base à cet espace,
mais on peut parfaitement dénir des produits scalaires. Le produit scalaire que
l'on utilisera abondamment est le suivant :
Z
(f, g) = f (x)g(x)dx
I

On démontrera dans un exercice que ce produit scalaire a toute les bonnes pro-
P
priétés. Mais on peut noter que cette dénition généralise la somme xi yi du
produit scalaire dans Rn , quand n→∞ (souvenez vous de la dénition de l'in-
tégral).
Bien, nous disposons d'un produit scalaire, on peut donc dénir la norme d'une
fonction. Z
kf k2 = [f (x)]2 dx
I
Cette norme, appelée L2 , est très populaire. voyons quelques exemples, pour
l'intervalle [0, 2π],
2 R 2π
1. kexp(.)k = 0 exp2 (x)dx = (exp 4π − 1)/2.

2. ksin(.)k = π
3. klog(.)k =??? à faire en exercice.
n
4. k1/(.) k = ∞ si n > 1.
On voit ici les premières bizarreries des ces grands espaces ( de dimension inni)
apparaître : un élément à priori sympathique peut avoir une norme innie.
Le lecteur a remarqué que jusque là, nous avons utilisé une notation particulière
pour distinguer une fonction (un point dans l'espace vectoriel des fonctions) de
la valeur que prend cette fonction pour une entrée particulière : la première est
notée f (.) est la deuxième f (x). Comme cette notation est quelque peu lourde
et que nous espérons que le lecteur est maintenant habitué à cette distinction,
nous emploierons à partir de maintenant indiéremment la notation f (x) pour
les deux notions. Le contexte détermine si on parle de la fonction ou de sa valeur.

7. En faite, si on se baladait dans cet espace de façon aléatoire, on ne rencontrerai jamais


des fonctions connues.

14
2 Éléments d'analyse fonctionnelle.

Nous avons mentionné plus haut que disposer d'une norme nous permet de
savoir si deux fonctions sont proches ou même identique si kf − gk = 0. Consi-
dérons alors les deux fonctions, dénies sur [0, 1] : f (x) = 1 et g(x) = 1 si x 6= 0
et g(x) = 0 si x = 0. Au sens de notre norme L2 , ces deux fonctions sont iden-
8
tiques ! Grossièrement parlant, notre norme est une lunette pas trop précise et
ne distingue pas les diérences subtiles entre deux fonctions. Elle ne va retenir
9
que les traits les plus importants . Ainsi, quand n → ∞, la suite des fonctions
n
fn (x) = x converge vers f (x) = 0 sur l'intervalle [0, 1] au sens L2 , mais ne
converge pas au sens des convergences uniformes.
Notons enn que si nous manipulons l'ensemble des fonctions qui associent à
une valeur réelle un nombre complexe, i.e. f : R → C, nous devons légèrement
modier la dénition du produit scalaire :
Z
(f, g) = f (x)g(x)∗ dx
I

où le symbole ∗ désigne le complexe conjugué.

L'orthogonalité. La notion d'orthogonalité se généralise immédiatement aux


fonctions : f et g (=
6 0)
sont orthogonales si (f, g) = 0. Ainsi, sur l'inter-
valle[−1, 1], les fonctions 1 et x sont orthogonales. De même pour les fonction
exp(−x/2) et exp(−x/2)(1 − x) sur l'intervalle [0, ∞].
Nous avons vu plus haut que la notion d'orthogonalité nous donne un sérieux
coup de main pour trouver une base. En particulier, dans un espace de dimension
n, il nous sut de trouver n vecteurs orthogonaux pour avoir une base. Peut
on généraliser ce résultat à des espaces de dimension innie ? la réponse est oui
si on prend des précautions. Les fonctions de normes innies nous posent de
sérieux problèmes. Nous allons donc restreindre notre espace de fonctions en
nous contentant des fonctions de carré sommable, c'est à dire des fonction f tel
|f (x)|2 dx < ∞.
R
que Nous avons alors le théorème fondamental suivant :
I
Dans l'espace des fonctions de carré sommable, on peut trouver des
ensembles inni dénombrable de fonctions orthogonaux qui chacun
constitue une base.

Le lecteur peut méditer sur ce théorème : pour l'énoncer ( sans le démontrer )


nous avons pris de nombreux raccourcies sans même avoir précisé certains termes,
encore moins leur donner un peu de rigueur et de décence. Nous allons dans la

8. C'est même pire : Si la fonction g est dénie par g(x) = 0 si x∈Q et g(x) = 1 sinon, au
sens de notre norme, elle est identique à la fonction f. Bien sûr, on aurait besoin de redénir
ce que l'on entend par une intégrale.
9. Il existe bien sûr des normes aux pouvoirs de résolutions beaucoup plus grande, comme
celle utilisée pour la convergence uniforme des suites de fonctions.

15
2 Éléments d'analyse fonctionnelle.

suite clarier un peu mieux les choses, sans les démontrer. Mais avant cela, voyons
le côté étrange de ce théorème.
Comme nous l'avons indiqué, l'inni dénombrable, celui des nombres entiers, et
le plus petit des innis. Il a cette particularité que pour un nombre donné, on peut
indiquer celui qui est juste avant et celui qui est juste après. L'inni des nombres
rationnels n'est pas vraiment plus grand, ni celui des nombres algébriques. Par
contre, l'inni des nombre réels est vraiment plus grand. On peut dire grossière-
10
ment que R = 2N (bien sûr, on parle en faite du cardinal, de la taille, de ces
ensembles) : pour représenter un nombre réel, nous avons absolument besoin de N
nombre entier. L'ensemble des fonctions est beaucoup, beaucoup plus vaste. Ima-
ginez que pour représenter une seule fonction, nous avons besoin de R nombre
réel. Le théorème ci-dessus nous dit que si la fonction est de carré sommable, nous
n'avons alors besoin pour la représenter que de N nombre réel ! Une exigence a
priori anodin, que les fonctions soient de carré sommable, réduit sérieusement la
taille de l'ensemble des fonctions.
Après ces digressions philosophicales, un peu de concret. D'abord, qu'est ce
que ça veut dire une base dans ces espaces innis ? intuitivement, ça doit être la
même chose que les espaces de dimensions ni : un ensemble d'objet élémentaire
qui nous permet de décrire tous les autres. Supposons que, dans l'espace des
fonctions, E = {e1 , e2 , ...} constitue une base orthonormée. Dans ce cas, une
fonction quelconque f doit pouvoir s'écrire, de façon unique,

X
f (x) = fn en (x)
n=1

où les fn sont des scalaires qu'on appelle les composantes de f sur la base {en }.
Elle sont données, comme pour des espaces de dimensions nis, par la projection
de f sur les vecteurs de base en utilisant le produit scalaire :
Z
fn = f (x)en (x)dx
I

Remarquez que fn est P


bien un nombre, un scalaire. On peut dénir une suite
N
de fonctionsφN (x) = i=1 fn en (x). Si l'ensemble E est bien une base, alors
kf − φN k → 0 quand N → ∞. Cela veut dire qu'on peut approximer une fonc-
tion par une somme nie de fonctions de base, et on peut rendre cette approxi-
mation aussi bonne qu'on le souhaite en prenant susamment de composante.
Le lecteur est déjà partiellement habitué à cette idée : le développement de Tay-
lor approxime une fonction par la combinaison des fonctions xn . L'espace des

10. le cardinal de N est noté ℵ0(aleph zéro), celui de R ℵ1 si on accepte l'axiome de choix. En
pensant aux nombres réels entre 0 et 1 comme une succession (innie ) de bits 0 et 1 (comme
en informatique), la relation ℵ1 = 2ℵ0 paraît assez raisonnable. Nous devons tous ces résultats
sur les innis aux travaux de Georg Kantor, à la n du dix-neuvième siècle.

16
2 Éléments d'analyse fonctionnelle.

fonctions qui peuvent être couvert par un développement de Taylor est cepen-
dant beaucoup plus petit que L2 . Les mathématiciens ont été amené à trouver
donc d'autres bases. Chaque base est bien adapté aux traitements d'un certain
nombres de problèmes, essentiellement la résolution d'une certaine classe d'équa-
tions diérentielles. La base la plus populaire, est de loin, et celui proposé par
ème
monsieur Fourier, préfet de l'Isère en son temps, au tout début du XIX siècle.
Ce sera l'objet du prochain chapitre.

Exercices.

1. Donner une dénition précise de la convergence d'une suite au sens de la


norme L2 dans l'espace des fonctions de carré sommable.

2. montrer que la fonction f (x) = xn dénie sur [0, 1] converge vers la fonction
g(x) = 0 au sens L2 .
3. Démontrer que la convergence uniforme implique la convergence au sens
L2 . L'exemple précédent montre bien sûr que le contraire n'est pas vrai.

4. En algèbre linéaire, les formes bilinéaires généralisent le concept du produit


scalaire. On peut suivre le même chemin et dénir le produit scalaire entre
deux fonctions par Z
(f, g) = w(x)f (x)g(x)dx
I

où la fonction w(x)est appelé le poids. Démontrer que cette dénition pos-


sède les propriétés d'un produit scalaire. Que doit on imposer à la fonction
poids ?

5. On appel polynômes orthogonaux des polynômes Pn (x) de degrés n, or-


thogonaux les uns aux autres au sens du produit scalaire déni plus haut.
Trouver les trois premiers polynômes associés au poids w(x) = 1 et à l'in-
tervalle [−1, 1]. On appelle ces polynômes les polynômes de Legendre.

6. Démontrer que les polynômes de Legendre que vous avez trouvé obéissent
à l'équation diérentielle

(1 − x2 )y 00 − 2xy 0 + n(n + 1)y = 0

En réalité, c'est souvent pour cela que l'on cherche les polynômes ortho-
gonaux : ils sont solution d'équations diérentielles intéressante pour la
physique.

7. Même question que 5 pour le poids w(x) = e−x et l'intervalle [0, ∞[. Ces
polynômes sont associés à la solution de l'équation de Schroedinger pour
l'atome d'hydrogène.

17
2 Éléments d'analyse fonctionnelle.

8. L'opération D = d/dx est une opération linéaire dans l'espace des fonc-
tions inniment dérivable (C

) : (i) elle prend une fonction en entrée
et donne une fonction en sortie ; (ii) elle fait cela de façon linéaire, i.e.
D(λf + µg) = λDf + µDg , où λ, µ sont des scalaires et f, g des fonc-
tions. Supposons que des fonctions orthonormées fn (x) constituant une base
obéissent à la relation dfn (x)/dx = fn (x) + an fn+1 (x). Pouvez-vous donner
la représentation matricielle de D dans la base des fn ?

2.3 Quelques digressions historiques.


Le concept d'espace vectoriel des fonctions a été proposé par Hilbert à la n
du dix-neuvième et début du vingtième siècle et a unié de nombreux champs de
recherches en mathématique. La résolution des équations intégrales pouvait par
exemple être ramené à la recherche des valeurs propres d'une certaines matrices.
La résolution d'un système d'équations diérentielles de premier ordre pouvait
être donné directement comme l'exponentiel d'une matrice, ... Nous n'épuiserons
pas par quelques exemples l'approche profondément novateur d'Hilbert. Ce champ
de recherche était cependant méconnu des physiciens. Au début des années 1920,
Heisenberg et ses collègues ont inventé une mécanique matricielle (qu' Einstein
qualia de cabalistique dans une lettre à Plank) pour expliquer les phénomènes
observés à la petite échelle des atomes et des électrons. Quelques années plus
tard, Schroedinger a proposé sa célèbre équation d'onde, qui elle aussi expliquait
assez bien les phénomènes observés. C'est Von Neumann qui a démontré à la
n des années 1920 que ces deux approches étaient fondamentalement la même
(voir exercice 8 plus haut) : l'équation de Schroedinger utilise un opérateur dans
l'espace des fonctions de carré sommable( qui transforme une fonction dans une
autre fonction, comme une matrice qui transforme un vecteur dans un autre
vecteur ), donc associé à une matrice innie. Depuis, les grands succès de la
mécanique quantique ont encouragé les physiciens à assimiler ces concepts dès
leur plus tendre age, ce qui les aide à traiter de nombreux champs de recherches
autres que la mécanique quantique par les même techniques.

18
3 Les séries de Fourier.
Nous allons dans ce chapitre étudier les Séries de Fourier. On ne peut pas
sérieusement toucher un sujet de physique sans utiliser d'une manière quelconque
ces séries (ou leur généralisation, les transformées de Fourier). Nous en verrons de
nombreux exemples à travers ce cours. Les séries de Fourier ont également joué
un grand rôle dans le développement des mathématiques. Quand Joseph Fourier
présenta la première fois le résultat de son analyse de l'équation de la chaleur à
l'Académie des Sciences, l'accueil était loin d'être enthousiaste et beaucoup, parmi
les plus grands ( Laplace et Lagrange ) s'y sont violemment opposé : Comment la
somme d'une suite de fonctions toutes continues peut être égale à une fonction
discontinue ? Le pragmatisme a fait avancer l'usage des ces suites bizarres jusqu'à
ce que d'autres mathématiciens comme Lebesgue (pour justier ces pratiques un
peu sales) redénissent la théorie de la mesure et fassent faire un bond à l'analyse
mathématique. De tout cela, on ne parlera pas ici. Notre approche sera beaucoup
plus pratique : Qu'est ce qu'une série de Fourier, à quoi elle sert, comment on
fait pour l'obtenir.

3.1 Introduction.
Les premiers travaux sur la décomposition en série de Fourier viennent en faite
du grand Lagrange lui même dans les années 1780 et son étude de l'équation
des cordes vibrantes. Supposons une corde tendu entre 0 et L qu'on déforme à
l'instant initial et que l'on relâche. Soit y(x, t) l'écart à l'équilibre à la position x
et à l'instant t. On démontre alors que

∂2y 2
2∂ y
− v =0 (3.1)
∂t2 ∂x2
où v est un coecient qui dépend de la densité et de la tension de la ligne.
Cherchons la solution de cette équation sous la forme y = Ak,ω cos ωt. sin kx. En
injectant cette forme dans l'équation (3.1), on trouve que cette forme ne peut
être une solution que si il existe une relation entre ω et k : ω = vk . Ensuite,
la fonction y doit satisfaire les conditions aux bords y(0, t) = y(L, t) = 0. La
première condition est automatiquement satisfaite. La deuxième condition impose
sin kL = 0, c'est à dire k = nπ/L, où n = 0, 1, 2, 3, ....On déduit de tout cela
que les fonctions fn (x, t) = An cos(nπvt/L) sin(nπx/L) sont solution de notre

19
3 Les séries de Fourier.

équation d'onde avec ses conditions aux bords. On les appelle les modes propres
de vibration. Le principe de superposition nous dit (le démontrer) que si f et g
sont solution, alors f +g l'est aussi. La solution générale de l'équation d'onde
(3.1) est donc de la forme


X
y= An cos(nπvt/L) sin(nπx/L)
n=1

Jusque là, nous n'avons rien dit des coecients Ak , puisqu'elle ne peuvent pas
être obtenus de l'équation d'onde directement. Ils doivent sortir de la condition
y(x, 0) = y0 (x), c'est à dire de la déformation originale que nous avons imprimé
à notre corde à l'instant t = 0. Nous devons donc avoir :


X
y0 (x) = An sin(nπx/L)
n=1

Est-il possible de trouver des coecient An pour satisfaire cette équation ? Nous
verrons la réponse plus bas. A priori, trouver la réponse paraît assez compliquée.
Notons que si y0 a une forme simple, on peut trouver une solution. Par exemple,
si y0 (x) = 4 sin(11πx/L), alors A11 = 4 et tous les autres An sont nul.

3.2 Les séries de Fourier.


Nous allons étudier maintenant de façon approfondie les fonctions sin et cos,
puisqu'elles peuvent constituer une base. Plus précisément,

Théorème. Dans l'espace vectoriel L2 [0, L], c'est à dire celui des fonctions de
carré sommable dénies sur l'intervalle [0, L], les fonctions

1, sin(2πx/L), cos(2πx/L), ... sin(2πnx/L), cos(2πnx/L), ...

constituent une base orthogonale.


1
Nous accepterons ce théorème sans démonstration , et allons plutôt contempler
quelques uns de ses aspects. D'abord, l'orthogonalité. Puisque

L
L
Z
L
(1, sin n(.) ) = sin(2πnx/L)dx = − [cos(2πnx/L)]0 = 0
0 2πn
1. La démonstration est due à Weierstrass dans les années 1880. Elle ne pose pas de diculté
majeure. Disons que pour qu'une suite fn de vecteurs orthogonaux constitue une base, il faut
que si un élément g est orhogonal à tous les fn , alors g = 0. C'est pour cela par exemple que la
suite des sin(.) seul ne peut constituer une base : on peut trouver toujours des cos(.) qui soit
orthogonal à tous les sin(.).

20
3 Les séries de Fourier.

la fonction 1 est orthogonale à toutes les sinus, et de même à toutes les cosinus.
Ensuite, comme

2 sin(2πnx/L) sin(2πmx/L) = cos(2π(n − m)x/L) − cos(2π(n + m)x/L)

les fonctions sin n(.) et sin m(.) sont orthogonales, sauf si n = m, auquel cas,
k sin n(.)k = k cos n(.)k = L/2.
Ensuite, une fonction f quelconque de L2 [0, L] peut s'écrire sous la forme


X
f (x) = a0 + an cos(2πnx/L) + bn sin(2πnx/L)
n=1

et comme notre base est orthogonale, les coecient an et bn sont donnés par le
produit scalaire de f par les éléments de la base :

Z L
a0 = (1/L) f (x)dx (3.2)
0
Z L
an = (2/L) f (x) cos(2πnx/L)dx (3.3)
0
Z L
bn = (2/L) f (x) sin(2πnx/L)dx (3.4)
0

Notons que le coecient a0 est la moyenne de la fonction f sur l'intervalle donnée.

Exemple 1. Prenons la fonction f (x) = x , x ∈ [0, 1]. Le coecient a0 s'obtient


facilement en utilisant l'eq.(3.2) : a0 = 1/2. Pour les autres coecients, nous
avons besoin d'une intégration par partie :

1 1
−1 1 1
Z Z
x=1
bn = 2 x sin(2πnx)dx = [x cos(2πnx)]x=0 + cos(2πnx)dx = −
0 πn πn 0 πn
1 1
1 1
Z Z
x=1
an = 2 x cos(2πnx)dx = [x sin(2πnx)]x=0 + sin(2πnx)dx = 0
0 πn πn 0

Nous pouvons donc écrire


1 X 1
x= − sin(2πnx) x ∈ [0, 1] (3.5)
2 n=1 πn

La gure 3.1 montre la fonction x, ainsi que ses approximations successives en


prenant de plus en plus de termes de la série de Fourier. . Nous pouvons constater
plusieurs choses : (i) évidemment, plus on prend de terme, plus l'approximation
est bonne , mais nous avons des oscillations de plus en plus violentes sur les bords,

21
3 Les séries de Fourier.

1
n=0 n=1 n=2
0.5

0
1
n=4 n=8 n=32
0.5

0
0 0.2 0.4 0.6 0.8 1 0 0.2 0.4 0.6 0.8 1 0 0.2 0.4 0.6 0.8 1

Figure 3.1  Approximations successive de la fonction x par les séries de Fourier.


En noir, la fonction original, en rouge l'approximation par la série
géométrique.

dont l'amplitude décroît ; (ii) l'approximation prend les mêmes valeurs aux deux
bords, ce qui n'est pas le cas de la fonction originale ; (iii) cette valeur est 1/2 dans
le cas présent, ce qui est la moyenne des valeurs que prend la fonction originale
aux deux bords.
Le point (ii) est dû à la périodicité de nos fonctions sin et cos : chaque fonction
dans la somme, étant de période au moins 1, prend obligatoirement la même
valeur sur les deux bords, donc la somme doit également prendre la même valeur
sur les deux bords. Le point (iii) est plus troublant : la fonction originalef (x) = x
prend la valeur 0 en x = 0 et 1 en x = 1. La somme par contre, prend la valeur 1/2
sur les deux bords : la somme ne converge donc pas en tout point vers la fonction
originale (adieu la convergence uniforme ou point par point), mais seulement
pour la majorité des points sur l'intervalle. Ils se trouvent que cette majorité est
largement susante : si on prend une innité de terme dans la somme, alors la
somme et la fonction originale ne dièrent qu'en deux points. Deux comparé à la
taille de R donne tous son sens à la notion de majorité. On dit que la diérence
entre la fonction originale et la série est de mesure nulle.
Tout ce que nous avons dit ci-dessus se généralise immédiatement aux inter-
valles quelconques [a, b]. Il sut simplement dans les formules, poser L = b−a
qui représente comme avant la longueur de l'intervalle.

22
3 Les séries de Fourier.

Exemple 2. Prenons cette fois la même fonction f (x) = x, mais sur l'intervalle
[−1/2, 1/2]. Le même calcul que précédemment nous mène à


X (−1)n −1 1
x=− sin(2πnx) x ∈ [ , ] (3.6)
n=1
πn 2 2

Nous voyons que les coecients dépendent également de l'intervalle sur lequel la
fonction est dénie.
Notons enn qu'en prenant des valeurs de x particulier, nous disposons d'un
moyen intéressant de trouver la limite de certaines sommes. Dans l'équation (3.5)
par exemple, si on pose x = 1/4, nous trouvons que


X (−1)n+1 1 1 π
= 1 − + − ... =
n=1
2n − 1 3 5 4

Egalité de Parceval. En utilisant la notion d'orthogonalité et de produit sca-


laire, il est facile de démontrer que

L
1 1X 2
Z
f (x)2 = a20 + (a + b2n ) (3.7)
L 0 2 n=1 n

Cela veut dire que au lieu de calculer explicitement l'integrale du carré de la


fonction, nous pouvons simplement sommer le carré de ses coecents de Fourier.
A priori, la démarche paraît absurde, puisque pour calculer les coecient, on a
du déjà eectuer des intégrales. Mais nous allons voir dans la suite que dans de
nombreuses applications, notemment celles liées à la solution d'équation à dérivée
partielle, nous calculons directement les coecients du Fourier de la fonction
recherché. Le coté gauche de l'équation (3.7) désigne souvent l'énergie stocké dans
un volume, par exemple si f désigne la hauteur d'une corde tendu ou le champs
éléctrique. L'égalité de Parceval nous permet alors d'accéder à cette quantité.

Exercices.

1. Décomposez les fonction f (x) = x2 et f (x) = exp(x) sur l'intervalle[0, 1].


Pour ce dernier, si le produit scalaire vous pose problème, noter que cos(x) =
(eix + e−ix )/2. Proter de la décomposition de x2 pour trouver la limite de
1/n2 . C'était une des erté d'Euler, dans les années 1730, que d'avoir pu
P
déterminer cette somme.

2. Soit la fonction palier f sur [0, 1] tel que f (x) = −1/2 si x < 1/2 et
f (x) = 1/2 si x ≥ 1/2. Trouver sa décomposition en série de Fourier.

23
3 Les séries de Fourier.

3. Même question que précédemment, mais la fonction f est dénie par f (x) =
0 si x < 1/2 et f (x) = 1 si x ≥ 1/2. En comparant ce résultat au résultat
précédent, pouvez en tirer des conclusions générales ?

4. Décomposer la fonction triangle, f (x) = 1−2 |x| sur l'intervalle [−1/2, 1/2].
5. Trouver la série de Fourier de sin(x/2) sur l'intervalle [0, 2π].

6. Démontrer qu'à part le coecient a0 , les deux fonctions f (x) et g(x) =


f (x) + C ont les mêmes coecients de Fourier. Que vaut le coecent a0
pour ces deux fonctions ?

7. Une fonction paire est tel que f (−x) = f (x), c'est à dire que l'axe y consti-
tue un axe de symétrie. Démontrer alors que sur un intervalle [−L, L], les
coecients bn de la série de Fourier sont nuls. On peut généraliser cette
armation : si la fonction f, sur l'intervalle [0, L], est symétrique par rap-
port à son milieu, c'est à dire telle que f (L − x) = f (x), alors ses coecient
de Fourier bn sont nuls (à démontrer bien sûr).

8. Que peut on dire des coecient de Fourier d'une fonction impaire ? En


vous inspirant des deux précédents problèmes, que pouvez vous dire des
coecients de Fourier, sur [0, L], d'une fonction telle que f (L − x) = C −
f (x) ?
9. Quelle est la condition pour que la fonction xα appartiennent à L2 [0, 1].
Démontrer alors que si elle n'appartient pas à L2 [0, 1], elle ne peut pas se
décomposer en série de Fourier. Pouvez vous généraliser ce résultat ?

10. Démontrer l'égalité de Parceval.

11. Qu'elle est la représentation matricielle de l'operateur D = d/dx dans la


base de Fourier ? est celui de D2 = d2 /dx2 ?

3.3 Pourquoi les séries de Fourier sont


intéressantes ?
La base de Fourier est en fait très bien adapté pour étudier les phénomènes
oscillatoires, et ces derniers sont abondants dans la vie de tous les jours : le mou-
vement d'un camion sur un pont génère des vibrations dans toute la structure de
ce dernier ; le mouvement des pistons dans le moteur met la voiture en vibration ;
une onde électromagnétique provoque l'oscillation des électrons à la surface du
métal,...Nous ne pourrions pas traiter ces problèmes si nous ne disposions pas de
la base de Fourier. Voyons cela ce plus près.
Soit une fonction f périodique, de période L. Cela veut dire que f (x + L) =
f (x). Pour connaître cette fonction, il sut donc de connaître sa valeur seulement
sur une intervalle de longueur L. Or, les fonctions sin(2πnx/L) et cos(2πnx/L)
sont également périodique, et de la même période L. Donc, si une somme de ces

24
3 Les séries de Fourier.

0.2

0.1

0
bn

-0.1

-0.2

-0.3

-0.4
0 5 10 15 20
n

Figure 3.2  Le spectre de la fonction x sur [-1/2,1/2]

fonctions égale la fonction f sur une intervalle de longueur L, elle égale la fonction
f partout !
Comme nous le savons, si ces fonctions sont de carré sommable sur une période,
elle peuvent se décomposer en série de Fourier. Représenter leurs coecients de
Fourier an et bn en fonction de n est aussi bien que de les représenter en fonction
de x. Cette représentation est appelé le spectre d'une fonction, et ses composantes
de Fourier les harmoniques. C'est un vocabulaire issue de la musique. La gure
3.2 représente le spectre de la fonction f (x) = x sur [−1/2, 1/2]. En réalité, pour
des raisons que nous verrons plus tard, on n'est même intéressé qu'aux coecients
p
sn = a2n + b2n et c'est ce dernier qu'on appelle couramment le spectre. Ce qui
distingue le Do 240 Hz du piano de la même note d'une ûte n'est pas leurs fré-
quence de base, mais l'amplitude de leurs harmoniques (la forme de leur spectre).
On appelle cela le timbre d'un instrument. L'oreille à une capacité fantastique
à distinguer les timbres, et les meilleurs synthétiseur doivent sommer plus d'une
vingtaine d'harmonique pour pouvoir imiter une note d'un vrai instrument.
L'oreille humain d'ailleurs ne fait que décomposer les sons en leurs harmo-
niques : la forme intérieure de l'oreille fait qu'une vibration pure (sinusoïdale)
de fréquence donnée met une région particulière de l'oreille en oscillation, ce qui
stimule les neurones à cet endroit. Chaque harmonique d'un son excite donc une
région diérente de l'oreille, et la carte de ces régions permet au cerveau de dé-
terminer très précisément la nature du son et distinguer ainsi le piano du violon.
La compression JPEG des photos numériques utilise le principe des transfor-
mées de Fourier : un image est divisé en plusieurs régions et les composantes
de Fourier de chaque sous régions sont calculées, mais seulement l'amplitude des
premières harmoniques sont conservées, puisque l'oeil humain n'est pas sensible
aux petits détails.

25
3 Les séries de Fourier.

Exercices.

Représenter le spectre des fonctions décomposées plus hauts.

3.4 Un peu de généralisation.


Nous avons manipuler plus des sinus et des cosinus séparément. Mais ces deux
fonctions ne sont que des combinaisons d'exponentiel d'arguments imaginaires. Il
serait donc tout aussi logique de choisir comme base les fonctions exp(2iπnx/L).
Cela en plus nous élargit un peu les horizons, puisqu'on peut alors étudier les
fonctions f :R→C (pourvu qu'elles soient de carré sommable). N'oublions pas
cependant que le produit scalaire s'obtient dans ce cas un intégrant une fonction
qui multiplie le complexe conjugué de l'autre. Nous avons donc,

+∞
X
f (x) = cn exp(2iπnx/L)
n=−∞

Tous ce que nous avons dit plus haut se généralise aisément.

Exercices.

1. En vous inspirant du clacul des coecient an et bn , expliquer comment on


calcule les coecients cn .
2. Démontrer que si f (x) ∈ R, alors c−n = c∗n .
3. Trouver la relation entre an , bn et cn .
4. Énoncer la relation de Parceval avec les coecients cn .

3.5 Les séries de sinus et de cosinus.


Nous avons vu que sur l'intervalle [0, L], les fonctions 1, sin(n2πx/L), cos(n2πx/L)
(n ∈ N) constituent une base orthogonale qu'on appelle la base de Fourier : ces
fonctions sont orthogonales les uns aux autres, et la suite est complète. Cette
dernière assertion est équivalent à il n'existe pas une fonction, à part celle uni-
formement nulle, qui soit orthogonale à toutes les fonctions de la base de fourier.
Est-il possible de trouver une autre base sur l'intervalle [0, L] seulement compo-
sée de fonctions sinus ou seulement composée de fonction cosinus ? La réponse est
oui : la suite des fonctions sin(nπx/L) (remarquer le coecient 2 dans l'argument
qui a disparu) également constitue une base, de même que la suite cos(nπx/L).
Le choix d'une base plutôt que d'une autre est seulement dicté par le problème
que nous avons à résoudre, nous en verrons un exemple plus bas.

26
3 Les séries de Fourier.

Les séries de sinus. Prenons d'abord une fonction f (x) dénit sur [−L, L] (un
intervalle de longueur 2L donc). Sa série de Fourier est donnée par

X nπx nπx
f (x) = a0 + an cos + bn sin
n=1
L L

et ses coecientsde fourier sont


Z +L
an = (1/L) f (x) cos(nπx/L)dx
−L
Z +L
bn = (1/L) f (x) sin(nπx/L)dx
−L

Supposons maintenant que la fonction f est impaire, c'est à dire f (−x) = −f (x).
En écrivant les intégrales ci-dessus comme la somme de deux intégrales (de −L
à 0 et de 0 à L) il est alors évident que tous les coecient an sont nuls, et les
coecients bn sont données par

Z L
bn = (2/L) f (x) sin(nπx/L)dx (3.8)
0

Considérons maintenant une fonction f (x) dénit sur [0, L]. On peut toujours
trouver une extension g de f telle que sur l'intervalle [0, L] les deux fonctions
coincident (g(x) = f (x) ) et que sur l'intervalle [−L, L], la fonction g est impaire.
Il est donc évident que sur l'intervalle [0, L], nous pouvons développer f en série
de sinus seulement X nπx
f (x) = bn sin
n=1
L

où les coecients bn sont donnés par la relation (3.8). La gure (3.3) montre les
trois premiers vecteurs de la base de fourier et de la base des sinus.

Exercice.

1. Développer de façon analogue le développement en série de cosinus pur


d'une fonction sur l'intervalle [0, L] en considérant les fonction paires sur
l'intervalle [−L, L].
2. Démontrer que les fonction sin(nπx/L) sont orthogonales les unes aux
autres sur l'intervalle [0, L], et que l'on ne peut pas trouver une fonction
cos(kx) qui soit orthogonale à toutes ces fonctions. Cela pourrait un peu
plus nous convaincre de la complètude de cette suite.

27
3 Les séries de Fourier.

1.5
(a) (b)
1

0.5

-0.5

-1
0 1 2 3 4 5 6 7 0 1 2 3 4 5 6 7

Figure 3.3  Comparaison des trois premières fonction de la base de fourier (a)
et celle des sinus.

3.6 Vibration d'une corde.


Les problèmes de vibration sont une des raisons du succès de l'analyse de
Fourier. Nous traitons le cas de la corde vibrante, mais beaucoup d'autres pro-
blèmes ondulatoires comme le champs électromagnétique ou les ondes élastiques
se traitent par exactement les mêmes méthodes. Revenons à l'équation d'une
corde vibrante que nous avons mentionné au début de ce chapitre, et traitons le à
l'aide de l'artillerie que nous avons développé. Comme nous l'avons dit plus haut,
nous considérons une corde élastique dont (i) les deux extrémités sont xées aux
points x = 0 et x = L ; (ii) est soumise à une tension T ; (iii) a une densité linéaire
ρ. Si nous repérons la hauteur de la courbe par y(x), l'équation d'évolution de y
s'écrit
∂2y ∂2y
2
= v2 2 (3.9)
∂t ∂x
Nous ne justions pas cette équation. Notons simplement que le membre de droite
est l'accélération d'un élément innitésimal de la corde (dans le sens vertical) au
point x, et que le membre de droite est proportionnel à la force exercée sur cet
élément par ses voisins. L'équation ci-dessus est simplement la relation de la
dynamique a = f /m pour un matériau continu. Le paramètre v a les dimensions
d'une vitesse. Les seuls paramètres intrinsèques du problème étant la tension et la
densité, il n'existe qu'une seule façon (dimentionnellement) de former une vitesse
et v2 doit être proportionnelle à T /ρ. Nous supposons enn qu'initialement, la
corde est maintenue dans une certaine forme (pincée par exemple) y0 (x) et qu'on
le relache à l'instant t = 0.
Nous pouvons à chaque instant, représenter la fonction y(x; t) à l'aide de sa
série de Fourier ou de sinus. Pour la représenter à tous les instants, il sut donc

28
3 Les séries de Fourier.

que les coecients de la série soient fonction du temps :

X nπx
y(x; t) = bn (t) sin (3.10)
n=1
L

Notons que nous faisons ici le choix de rechercher la solution sous la forme de
fonction de sinus, puisque chaque terme de la série respecte les conditions aux
bords y(0, t) = y(L, t) = 0. En injectant (3.10) dans (3.9) est en identiant terme
à terme (puisque les fonctions sont orthogonales), nous trouvons une équation
diérentielle pour l'amlitude de chaque mode :

00
bn (t) + n2 ω 2 bn (t) = 0

où ω = πv/L. Comme la corde est relaché avec une vitesse nulle, nous avons
simplement
bn (t) = Bn cos(nωt)
où les coecient Bn sont les coecient de la série des sinus de la fonction y0 (x).
L'image est donc la suivante : la déformation initiale est la superposition d'un
certain nombre de mode, chacune avec une amplitude bn . Une fois qu'on relache la
corde, l'amplitude de chaque mode oscillera dans le temps. Remarquez cependant
qu'il n'y a pas de transfert entre les modes : si un mode n'était pas présent dans la
déformation initiale, il ne sera pas excité dans la suite. Chaque mode se comporte
comme un oscillateur indépendant, non couplé aux autres. En langage plus chic,
on dira que la base de Fourier est une base propre pour l'operateur Laplacian :
dans cette base, la représentation matricielle de cet opérateur est diagonale.
Nous avons, lors de cette résolution, inversé l'ordre des operations de dérivation
et de sommation. Nous savons qu'il existe des conditions très contraignantes pour
pouvoir eectuer cette inversion, et elles sont loin d'être réunies à priori (voir ci-
dessous). Notons enn que la diérence entre un clavecin et un piano, qui excitent
pratiquement les même cordes tendues, est dans la façon de former la déformation
initiale, donc de produire des coecients Bn diérents.

3.7 Dérivation terme à terme des series de


Fourier.

3.7.1 Dérivation par rapport à la variable principale.

Soit la fonction continue et dérivable par morceau f (x) dont la décomposition


de Fourier est


X
f (x) = a0 + an cos(2πnx/L) + bn sin(2πnx/L)
n=1

29
3 Les séries de Fourier.

Dans quelles conditions nous pouvons la dériver terme à terme ? Décomposons la


fonction f 0 (x) en série de Fourier :


X
f 0 (x) = α0 + αn cos(2πnx/L) + βn sin(2πnx/L)
n=1

Nous avons alors pour le premier terme

L
1 1
Z
α0 = f 0 (x)dx = (f (L) − f (0))
L 0 L

et pour les termes de cosinus

L
2
Z
αn = f 0 (x) cos(2πnx/L)dx
L 0
L
2 2πn 2
Z
= (f (L) − f (0)) + f (x) sin(2πnx/L)dx
L L L 0
2 2πn
= (f (L) − f (0)) + bn (3.11)
L L
Finalement, pour les termes en sinus, on trouve, en suivant le même chemin,

2πn
βn = − an
L
Nous voyons donc que si f (L) = f (0), nous pouvons dériver la serie de Fourier
terme à terme. Sinon, des termes additionnelles apparaissent quand on dérive les
termes en sinus dont il faut en tenir compte.
On peut généraliser ce résultat aux series de sinus et de cosinus pures :

1. Si f (x) est continue et dérivable par morceau, sa série de cosinus est déri-
vable terme à terme sans restriction.

2. Si f (x) est continue et dérivable par morceau, sa série de sinus est dé-
rivable terme à terme si f (L) = f (0) = 0 ! Sinon, des termes addition-
nelles apparaissent dans la série de sinus de la dérivée, qui sont de la forme
2( (−1)n f (L) − f (0) )/L.
Nous voyons maintenant dans quelles conditions nous avons pu dériver terme à
terme la serie de la corde vibrante. Comme nous avions la condition u(0, t) =
u(L, t) = 0, nous pouvions dériver la série de sinus pour obtenir une série de cosi-
nus. Nous avons pu ensuite dériver cette dernière encore une fois sans restriction
particulière.
Une hérésie saute aux yeux dans l'équation (3.11) : la suite αn comporte un
terme qui ne dépend pas de n et ne tend pas vers 0. Cela n'est pas de plus bel

30
3 Les séries de Fourier.

eet pour la convergence de la série ! La réponse est dans le coecient bn , qui doit
forcément avoir un terme en −∆/πn pour annuler exactement le terme constant.
C'est ce que l'on va voire plus bas dans un cas particulier.
En pratique, au lieu de dériver terme à terme et prendre en compte les termes
additionnels dus aux conditions au bords, il est préférable de régulariser les condi-
tions aux bords pour ne pas avoir de termes additionnels du tout. Supposons par
exemple que les conditions aux bords soit u(0, t) = a, u(L, t) = b. Il est alors
préférable d'utiliser la fonction

b−a
w(x, t) = u(x, t) − x−a (3.12)
L
Les dérivées temporelles et les dérivées seconde spatiale de u et w coincide évi-
dement. w(x, t) est satisfait donc à la même équation que u si il s'agit d'une
équation de chaleur ou de corde vibrante. Par ailleurs, de par sa construction,
w(0, t)= w(L, t) = 0. Nous pouvons donc d'abord rechercher w(x, t) et ensuite
recouvriru à l'aide de la relation (3.12). Nous verrons un exemple plus bas.

3.7.2 Dérivation par rapport à une autre variable.

Quand est il pour la dérivation par rapport à une autre variable ? En écrivant


X
u(x, t) = bn (t) sin(nπx/L)
n=1

nous avons concentré toute la dépendance temporelle dans l'amplitude des har-
moniques bn (t). Pour avoir le droit de dériver par rapport à t sous la somme,
nous devons pouvoir écrire ( le démontrer )

L L
∂ ∂u
Z Z
u(x, t)dx = dx
∂t 0 0 ∂t

L'échange de l'intégrale (sur x) et de la dérivation ( par rapport au temp) est


permis si ∂u/∂t existe sur l'intervalle [0, L], est continue et elle est bornée. Nous
supposerons dans la suite que pour les fonctions que nous considérons (qui repré-
sentent des hauteurs de cordes, des pressions ou des températures) ces conditions
sont toujours vériées.

3.8 Equation de la chaleur.


La physique mathématique possède quelques équations star. Ce sont les équa-
tions d'onde (rencontrées plus haut), l'équation de Laplace et l'équation de la cha-

31
3 Les séries de Fourier.

leur. Cette dernière décrit les phénomènes diusives (de la chaleur, de la concen-
2
tration, ...) et est de la forme

∂u ∂2u
=D 2 (3.13)
∂t ∂x
où u représente la température, la concentration, etc... Si x désigne l'espace et t
le temps, nous voyons que D doit avoir la dimension d'une longueur au carré par
unité de temps [L2 /T ].
Remarquez la diérence avec l'équation d'onde, où la dérivée par rapport au
temps est de deuxième ordre. Nous voulons traiter le cas d'une barre ( comme
d'habitude, de longueur L ) dont les extrémités sont maintenues à deux tem-
pératures diérentes , disons 0 et T. Nous avons donc les deux conditions aux
limites

u(0, t) = 0 (3.14)

u(L, t) = T (3.15)

et nous supposons la condition initiale

u(x, 0) = f (x) (3.16)

Voilà, le problème est maintenant bien posé. Avant de commencer son traitement
total, voyons voir si il existe une solution stationnaire, c'est à dire une solution
tel que ∂t u = 0. Dans les processus diusive, c'est la solution qui est atteinte au
bout d'un temps plus ou moins long et correspond à une sorte d'équilibre. Il est
évident ici que us (x) = T (x/L) satisfait parfaitement aux équations (3.13-3.15)
et est la solution stationnaire recherchée. Sa série de sinus est donnée par


2T X (−1)n+1 nπ
us (x) = sin( x)
π n=1 n L

Bon, revenons maintenant à la solution générale. Nous décomposons la fonction


u en série de sinus avec des coecients dépendant du temps :

X
u(x, t) = bn (t) sin(nπx/L) (3.17)

Nous dérivons une première fois par rapport à x. Mais attention, la fonction u
prend des valeurs diérentes sur les deux bords, il faut donc ajouter des termes

2 2T
((−1)n u(L, t) − u(0, t)) = (−1)n
L L
2. Voir le chapitre correspondent pour la signication de cette équation.

32
3 Les séries de Fourier.

à la série dérivée :
 
T X nπ 2T n
∂x u(x, t) = + bn (t)( ) + (−1) cos(nπx/L)
L L L

Nous sommes maintenant en présence d'une série de cosinus, que nous redérivons
encore une fois par rapport à x
X nπ 2T


∂x2 u(x, t) = − bn (t)( ) + (−1)n ( ) sin(nπx/L)
L L L

La dérivation par rapport au temps nous donne une série de sinus dont les co-
ecients sont b0n (t). En égalant terme à terme, nous obtenons une équation de
premier ordre pour les coecients

 nπ 2 2T nπ
b0n (t) = −D bn (t) − D (−1)n
L L L
dont la solution est

 2T (−1)n+1
bn (t) = Bn exp −n2 (π 2 D/L2 )t +

(3.18)
π n
Notons d'abords que quand t → +∞, les coecients bn tendent vers les coef-
cients de sinus de la solution stationnaire : au bout d'un temps assez long, la
distribution de température dans la barreau devient linéaire. Ensuite, les ampli-
tudes des harmoniques sont de la forme exp(−n2 t/τ ), où τ ∼ L2 /D. L' harmo-
nique d'ordre n disparait donc sur une echelle de temps ∼ L2 /(n2 D). (i) Plus
L est grand, plus le temps de thermalisation est grand. Si on multiplie par 2 la
longueur du barreau, on doit mulitplier par 4 le temps nécessaire à la thermali-
3
sation ; (ii) Plus le coecient de diusion D est grand, plus la thérmalisation
est rapide : le cuivre est plus rapide à thermaliser que le verre ; (iii) plus l'ordre
d'un harmonique est important, plus il disparaît rapidement, est ceci est prop-
portionnel au carré de l'odre. Très rapidement, il ne restera pratiquement que
l'harmonique d'ordre 1, qui sera le plus lent à mourir (voir gure 3.4).
Nous avons réussi à nous en sortir même quand la dérivation sous la somme
posait problème. Mais était-il vraiment nécessaire de faire appel à une telle ar-
tillerie lourde, qui numériquement n'est pas entièrement satisfaisant ? Et si au
lieu de chercher la fonction u(x, t) qui satisfait aux équations (3.13-3.16), nous
cherchions la fonction
φ(x, t) = u(x, t) − us (x) (3.19)

3. Sachant qu'un gigot de 1 kg cuit en une heure au four, quel est le temps de cuissons d'un
gigot de 2 kg ?

33
3 Les séries de Fourier.

t=0.1
t=0

0.5 t

t=0.25

0 t=1

0 0.2 0.4 0.6 0.8 1

Figure 3.4  Solution de l'équation de la chaleur par les séries de sinus avec
L = 1, u(0, t) = 0 ; u(1, t) = 1, et condition initiale une fonction
pallier. La solution est tracée pour 4 temps diérents. Nous avons
représenté la série par simplement ses 64 premiers harmoniques.
Notez les oscillations articielles : les séries de sinus ont du mal a
reproduire les discontinuités.

Cette fonction obéit bien sûr à l'équation (3.13). Ces conditions aux limites sont

φ(0, t) = u(0, t) − us (0) = 0 (3.20)

φ(L, t) = u(L, t) − us (L) = T − T = 0 (3.21)

La fonction φ obéit donc (contrairerementà u) à des conditions aux limites conti-


nues, et ne pose donc aucun problème lors de ses dérivations par rapport à x. Sa
condition initiale est donnée par

φ(x, 0) = f (x) − us (x)

Les équations pour φ sont donc maintenant bien posées, et nous pouvons les
résoudre par la technique habituelle des séries de sinus sans la complications
des termes additionnels. Une fois φ trouvée, nous avons évidemment trouvé u. La
gure (3.5) montre l'avantage (entre autre numérique) de cette dernière méthode.

34
3 Les séries de Fourier.

0.5

0
0 0.2 0.4 0.6 0.8 1

Figure 3.5  La solution de la même équation de chaleur mais où on a cherché


d'abord la fonction φ. Nous n'avons pris ici que 16 termes harmo-
niques. Nous voyons qu'au temps t = 0, des oscillations articielles
sont toujours présentes à cause de la discontinuité de la condition
initiale. Mais les oscillations articielles pour des temps ultérieurs
de la gure (3.4) ont disparu, puisqu'on a résolu le problème de la
discontinuité des conditions aux limites.

35
3 Les séries de Fourier.

Problèmes avancés.

1. Vibration d'une corde tendu.

L'exemple de la corde vibrante que nous avons considéré plus haut peut être
complété de bien des façons. Si la corde est soumise à un frottement visqueux,
il faut ajouter un terme en −λ∂y/∂t (proportionnel à la vitesse locale) à droite
de l'équation (3.9). Si la corde est en plus soumis à une force par unité de lon-
gueur f (x, t), il faut également l'ajouter à droite. Résoudre l'équation de la corde
vibrante (i) en présence d'un frottement (ii) en présence de la force de gravité
f = −ρg (iii) en présence d'une force de rappelle harmonique f = −ky . Les
conditions aux bords sont toujours les mêmes : corde xée à ses deux extrémités
et avec une déformation initiale y0 (x).

2. Vibration d'une barre elastique.

L'équation de vibration d'une barre élastique est donnée par

∂2y ∂4y
2
=α 4
∂t ∂x
Discuter les solutions de cette équation. Que pensez vous des conditions initiales ?

3. Équation de Schroedinger dans un puits réctangulaire.

Dans un puits de potentiel rectangulaire est très profond, à une dimension,


l'équation de Schroedinger s'écrit :

∂ψ ~2 ∂ 2 ψ
i~ =−
∂t 2m ∂x2
avec les condition aux limites ψ(−L, t) = ψ(L, t) = 0 et ψ(x, 0) = f (x). Discuter
de la solution de cette équation en suivant l'exemple de la corde vibrante.

4. Equation de la Chaleur I.

Soit une barre thermiquement isolé, c'est à dire ∂x u(0, t) = ∂x u(L, 0) = 0. En


eet, le ux de chaleur à travers une section est proportionnel à la pente de u
en cet endroit, et que isolé (pas de ux de chaleur de/vers l'extérieur), impose
les conditions ci-dessus. En partant d'une distribution de température initiale
parabolique u(x, 0) = T x(L − x)/L2 , resolvez l'équation de la chaleur. A t'on
plutôt interêt à prendre des séries de cosinus ou des séries de sinus ?

36
3 Les séries de Fourier.

5. Equation de la chaleur II.

Si une source de chaleur est présente dans le milieu (sous forme de résistance
électrique ou de particule radioactive ...), l'équation de la chaleur prend la forme

∂u ∂2u
= D 2 + Q(x)
∂t ∂x
où Q est la quantité de chaleur produit en x. Prenez une source constante localisé
autour de L/2, et resolvez alors l'équation de la chaleur.

6. Equation de la chaleur III.

Nous nous interessons à la distribution de température dans une barre dont


l'un des cotés est maintenu à température constante et l'autre extrémité à une
température qui varie dans le temps selon une loi connue. Resolvez

∂u ∂2u
=D 2
∂t ∂x
avec les conditions aux limites u(0, t) = 0 ; u(L, t) = g(t). Nous supposons une
condition initiale homogène u(x, 0) = 0 et bien sûr g(0)=0. Notez que vous avez
interêt à chercher plutôt la fonction φ(x, t) = u(x, t) − g(t)x/L pour régulari-
ser les conditions aux limites. Si vous n'aimez pas cette façon de faire, il faut
faire attention aux dérivations terme à terme (qui donneront, bien sûr, la même
reponse).

7. Énergie d'un corps noir.

Reprenons le cas de la corde vibrante xée à ses deux extrémités. Quelle est son
4
énergie libre F quand elle est maintenue à une température T ? Ce problème a
ème
joué un rôle majeur dans l'évolution de la physique au tournant du XIX siècle
et a donné lieu à la première formulation de la mécanique quantique.
Avant d'attaquer de front ce problème, quelques rappels sur un cas simple.
Prenons un oscillateur harmonique (une boule au bout d'un ressort ) dont l'am-
plitude à un instant est x(t). L'énergie élastique enmagasinée dans l'oscillateur
est E(x) = (k/2)x2 . L'énergie libre est une sorte de moyenne pondérée par la
température de toutes les énergies disponible :

X
Z = e−F/T = e−E(x)/T (3.22)
{x}

4. Nous mesurons la température en échelle d'énergie : T = KB θ, où θ est la température


habituelle. Cela nous évite de trainer la constante de Boltzmann.

37
3 Les séries de Fourier.

où la somme s'entend au sens de toutes les congurations possibles. Comme l'am-


plitude x est une variable continue, la somme peut être transformée en intégrale
5
et Z +∞
2 p
Z= e−kx /2T
dx = C. T /k
−∞

L'énergie élastique moyenne de l'oscillateur est


X
hEi = E(x)e−E(x)/T /Z = T /2
{x}

Si à la place d'un oscillateur, nous avions deux oscillateurs indépendants (non


couplés), x1 et x2 de raideur k1 et k2 , l'énergie serait

E = (1/2)(k1 x21 + k2 x22 ) (3.23)

et la somme (3.22) pour obtenir l'énergie serait cette fois une double intégrale
qui se calcule tout aussi facilement. Un calcul élémentaire nous montre alors que
l'énergie élastique moyenne est

hEi = hE1 i + hE2 i = T

Pour N oscillateurs, nous aurions hEi = N T /2, ce qu'on appelle en physique


statistique, l'équipartition.
Voilà pour des rappels rapides. Revenons à notre corde vibrante, dont la hau-
teur à l'abscisse x est reperé par u(x). L'énergie élastique emmagasiné dans la
corde, pour une conguration donnée u(x) vaut 6
L  2
∂u
Z
E[u(x)] = k dx (3.24)
0 ∂x

Au lieu de représenter la corde par u(x), nous pouvons le repéresenter sur la base
de Fourier :
+∞
X
u(x) = cn exp[(2iπn/L)x]
n=−∞

et une application simple du théorème de Parceval nous montre que

L  2 ∞  2
∂u 2πn
Z X 2
E= k dx = k |cn |
0 ∂x n=−∞
L
p
5. Le résultat s'obtient facilement en eectuant le changement de variable x→x T /k ; la

constante C est juste une intégrale dénie qui vaut 2π
6. Pour la signication de cette expression, voir les deux chapitres sur le calcul variationnel
et le sens des équations de la physique.

38
3 Les séries de Fourier.

Remarquez l'expression de droite et comparer le à (3.23). C'est comme si nous


étions en présence de N (N → ∞) oscillateurs harmonique indépendants, l'os-
cillateur n, d'amplitudecn ayant une constante de ressort k(2πn/L)2 . L'énergie
moyenne emmagasiné dans la corde est

+∞
X
hEi = T /2
n=−∞

Aïe .. Une simple corde à température non nulle emmagasine une énergie innie.
La raison principale pour cette divergence est la forme (3.24) de l'énergie de la
corde : elle n'est valable pour des petites déformations de la corde. Les modes à n
grand (les hautes fréquences) imposent cependant de très fortes déformations. Il
est évident que vous ne pouvez pas plier en 10000 une corde de 1m. Il doit donc
exister une sorte de longueur minimum qui limiterait les hautes fréquences, et on
parle alors de longueur de cut-o.
Par contre, la forme (3.24) décrit parfaitement l'énergie du champ électrique
(poser E = ∇u) dans une cavité. Bien sûr, il faut prendre un champs électrique
tridimentionnel et prendre en compte les diverses polarisations ; cela est légère-
ment plus long à calculer mais c'est exactement le même genre de calcul. Ce
problème que l'on appelle divergence ultra-violet (pour les hautes fréquence spa-
tiale) a été résolu par Planck et Einstein en supposant que l'energie d'un mode
n ne pouvait pas prendre des valeurs continues mais varie par palier discret.

8. Le mouvement Brownien.

Considérons une particule sur un réseau discret unidimensionnel de pas a, c'est


à dire une particule qui peut sauter de site en site. Appelons α la probabilité
de saut par unité de temps autant vers la gauche que vers la droite. Cela veut
dire que la probabilité pour que la particule saute à gauche ou à droite pendant
un temps innitésimal dt est αdt (et donc, la probabilité de rester sur place est
1 − 2αdt ). On cherche à déterminer P (n, t), t,
la probabilité pour qu'au temps
la particule se trouve sur le site n, t = 0, la particule se trouvait
sachant qu'à
7
à n = 0 . Pour que la particule soit en n au temps t + dt, il faut qu'il ait été
en n ± 1 au temps t, et qu'il ait eectué un saut vers n pendant l'intervalle dt.
Ce phénomène enrichit la probabilité d'être en n. Par ailleurs, si la particule se
trouvait en n au temps t, il a une probabilité de sauter à gauche ou à droite
pendant l'intervalle dt, ce qui appauvrit la probabilité d'être en n. En prenant en

7. Le mouvement de petites graines de poussière dans l'eau, étudié par Brown à la n du


dix-neuvième siècle, est une version continue de ce mouvement. Einstein a donné l'explication
de ce mouvement ératique en supposant la nature moléculaire de l'eau en 1905. Cet article est
celui qui est cité le plus dans le monde scientique.

39
3 Les séries de Fourier.

compte ces deux phénomènes, on obtient une équation qu'on appel maîtresse :

1 dP (n)
= P (n − 1) + P (n + 1) − 2P (n) (3.25)
α dt
Ceci est en faite une innité d'équations diérentielles de premier ordre, avec la
condition initiale P (n = 0, t = 0) = 1,P (n 6= 0, t = 0) = 0. La série de Fourier est
devenue une célébrité en résolvant en particulier ce genre d'équation. La méthode
que l'on va suivre est une méthode extrêmement générale. Supposons que les P (n)
sont les coecients de Fourier d'une fonction φ(s, t)
+∞
X
φ(s, t) = P (n, t) exp(ins) (3.26)
n=−∞

et essayons de voir à qu'elle équation doit obéir φ. Notons tout d'abord que
φest 2π -périodique en s. La fonction φ est appelée la fonction génératrice des
probabilités et caractérise entièrement le processus stochastique. Par exemple, on
obtient la moyenne très facilement :

X ∂φ
hni = nP (n) = −i
∂s s=0

Question : comment on obtiendrai la variance ?


En multipliant l'eq(3.25) par exp(ins) et en sommant sur les n, on obtient pour
φ :
∂φ
= −2α(1 − cos s)φ
∂t
Ce qui nous donne, en intégrant l'équation diérentielle par rapport à t :

φ = A(s) exp[−2α(1 − cos s)t]


Et la condition initiale φ(s, t = 0) = 1 (pourquoi ?) nous impose A(s) = 1. On
connaît donc φ et on peut par exemple calculer que la variance ∼ 2αt, qui est un
des résultats important du mouvement brownien. Mais on peut pousser l'analyse
plus loin, et calculer explicitement les probabilité. Il existe une classe de fonctions
qu'on appelle des fonctions de Bessel d'ordre n que l' on les étudiera plus tard
lors de ce cours. Ces fonctions (voir Fig.3.6) sont dénies par des intégrales :

π
1
Z
In (z) = ez cos θ cos(nθ)dθ
π 0

Celà nous donne directement les P (n, t) :

P (n, t) = exp(−2αt)In (2αt)


On peu à partir de là eectuer une analyse beaucoup plus ne du mouvement
Brownien.

40
3 Les séries de Fourier.
1

0.8

0.6 n=0

0.4

0.2 n=1

n=2
n=3
2 4 6 8 10

Figure 3.6  Les fonctions e−x In (x) pour n = √0, ..., 3. Pour z  1, In (2z) ≈
z n /n!, et pour z → ∞, In (z) ≈ ez / 2πz .

9. uctuation de mort et naissance.

Soit un système (comme par exemple un ensemble de bactéries ) dont la taille


varie par palier discret de façon aléatoire. Supposons que la probabilité par unité
de temps pour qu'il passe de la taille n à n±1 soit proportionnelle à n (notez
la diérence avec le cas brownien). montrez alors que la probabilité P (n, t) pour
que le système ait la taille n à l'instant t obéit à l'équation :

dP (n)/dt = (n − 1)P (n − 1) + (n + 1)P (n + 1) − 2nP (n) (3.27)

Nous supposons qu'à l'instant initial t = 0, le système a une taille 1 : P (1, 0) = 1,


P (n 6= 1, 0) = 0. Ceci constituera notre condition
P initiale. Résoudre cette équation
n'est pas à priori facile. Posons u(x, t) = P (n, t)exp(inx), et cherchons si on
peut trouver une équation pour cette fonction. Notons tout de suite que de par sa
dénition, u est 2π périodique. On l'appelle la fonction génératrice. Si on réussit
à trouver u, on voit alors que les P (n, t) sont simplement les coecients de la
transformée de Fourier de cette fonction. Quelle est la condition initiale pour
u, c'est à dire u(x, 0) =? En multipliant les deux côtés de l'équation (3.27) par
exp(inx) et en sommant sur n, démontrez que
∂u ∂u
= 2(cos x − 1)
∂t ∂x
Démontrez que la solution de cette dernière (nous verrons plus tard comment
résoudre ces équations) est donnée par :

1 − i(1 + 2t) tan x/2


u(x, t) =
1 + i(1 − 2t) tan x/2
Calculez la moyenne et la variance en fonction du temps. Avec un peu de vigueur
en plus, démontrez que

P (0, t) = t/(1 + t)
P (n, t) = tn−1 /(1 + t)n+1

41
3 Les séries de Fourier.

Figure 3.7  Une portion du cristal montrant 4 atomes

Discutez ce résultat.

10.Propagation du son dans un cristal (les phonons).

Mise en place du problème. Nous allons considérer un cristal uni-dimensionnel


de maille élémentaire a. La position d'équilibre de l'atome n est xn = na. Chaque
atome n'interagit qu'avec avec ses deux plus proches voisins. Nous voulons savoir
comment une perturbation des atomes par rapport à leur positions d'équilibre
se propage dans le cristal. Soit un l'écart de l'atome n par rapport à sa position
d'équilibre (Fig. 3.7). La force fn+1→n exercée par l'atome n + 1 sur son voisin
n est une fonction de la distance entre les deux : fn+1→n = C(un+1 − un ) où
C est un coecient qui dépend de la nature de la liaison chimique (grand pour
les cristaux ioniques ou covalents plus petit pour les cristaux moléculaires). Soit
m la masse d'un atome ; son équation de mouvement ( γ = F/m) s'écrit, en
considérant les forces exercées par ses deux voisins,

d2 un
= (C/m) (−2un + un+1 + un−1 ) (3.28)
dt2
2
Dorénavant, nous poserons ω0 = C/m.

Résolution. Nous considérerons les quantités un (t) comme les coecients de


Fourier d'une fonction caractéristique φ(q, t) où la variable q appartient à l'inter-
valle [−π/a, π/a] (la longueur de l'intervalle est donc L = 2π/a ). Le paramètre
q est souvent appelé nombre d'onde. φ s'écrit donc

+∞
X
φ(q, t) = un (t) exp (iaqn) (3.29)
n=−∞

1. En multipliant l'équation (3.28) pour l'atome n par exp(iaqn) et en sommant


sur toutes les équations, démontrer que la fonction φ obéit à l'équation
∂2φ
+ 2ω02 (1 − cos(aq)) φ = 0 (3.30)
∂t2

42
3 Les séries de Fourier.
P+∞ P+∞
[Help : Utilisez et justiez n=−∞ un±1 exp(iaqn) = n=−∞ un exp (iaq(n ∓ 1))
].

2. Vériez que la solution de cette équation diérentielle linéaire homogène de


seconde ordre en t est donnée par

φ(q, t) = A(q) exp(iωq t) + B(q) exp(−iωq t)

où ωq = 2ω0 sin(aq/2). [Help : arranger d'abord l'équation (3.30) en exprimant


cos(2θ) en fonction de sin θ]. A(q) et B(q) sont des fonctions du paramètre q , mais
pas du paramètre t qui peuvent être déterminées à l'aide des conditions initiales,
mais nous n'avons pas besoin de les expliciter ici.

3. (i) Donnez enn la forme des un (t). un


Comme vous pouvez le constater, les
peuvent être considérés comme des superpositions d'ondes planes exp [i(ωq t ± qna)].
(ii) La vitesse du propagation d'onde est dénie par vq = dωq /dq. Donnez l'ex-
pression de vq et tracez la en fonction de q . Que vaut cette vitesse pour q → 0
(grande longueur d'onde) et q ≈ ±π/a ?

4. Généralisation. Pouvez-vous indiquer, en suivant rapidement le même chemin


que pour les questions précédentes, ce qui changerait si un atome interagissait
avec ses 4 plus proches voisins ?

d2 un
= ω02 (−2un + un+1 + un−1 )
dt2
+ αω02 (−2un + un+2 + un−2 )

43
4 Les transformations de Fourier.
4.1 Entrée en matière.
Nous avons vu plus haut que si une fonction était dénie sur un intervalle
ni de taille L, elle pouvait être approximée aussi précisément qu'on le veuille
par les séries de Fourier exp(2iπnx/L). On peut, pour clarier la notation, poser
q = 2πn/L et écrire pour notre fonction :

X
f (x) = feq exp(iqx) (4.1)
q

où q varierait par pallier discret de 1/L. Notez également que les coecients sont
donnés de façon fort symétrique

Z L
feq = (1/L) f (x) exp(−iqx)dx (4.2)
0

C'est en quelque sorte une formule d'inversion que nous devons à l'orthogonalité.
Cela est fort sympathique, mais si on voulait approcher notre fonction sur toute
l'intervalle ]−∞, ∞[ ? La réponse simple (simpliste) serait que q deviendrait alors
une variable continue, la somme se transforme en une intégrale, et nous avons :

+∞
1
Z
f (x) = fe(q) exp(iqx)dq (4.3)
2π −∞

et par analogie avec (4.2), on doit avoir

Z ∞
fe(q) = f (x) exp(−iqx)dx (4.4)
−∞

On appelle les équations (4.3,4.4) des transformations de Fourier : prenez votre


fonction, multipliez par exp(−iqx), intégrez sur ] − ∞, +∞[, et hop, c'est prêt.
Notez la beauté de la symétrie : si fe(q) = TF[f (x)] alors f (−x) = (1/2π)TF[fe(q)].
Par convention, on met un petit chapeau sur la TF pour distinguer la fonction
originale de la fonction transformée. La variable q est la variable réciproque de
x. Pourquoi ce facteur 2π doit apparaître dans la TF inverse ? En faite, si nous
dénissions la TF par [multiplier par exp(2iπqx) et intégrer] la TF et son inverse

44
4 Les transformations de Fourier.

seraient parfaitement symétrique, et certaines personnes préfèrent cette dernière


dénition. Cela nous obligerait cependant à traîner des 2π lors des dérivations et
des changements de variables et nous préférons donc la dénition (4.4).
La signication de la TF est la suivante : une fonction f (x) peut être considérée
comme la superposition d'oscillations pures exp(iqx), chaque oscillation ayant un
poids f˜(q). Cette signication, comme nous l'avons dit, est juste une généralisa-
tion des séries de Fourier. La TF est un exemple d'opérateur linéaire, c'est à dire
une boite noire qui prend une fonction en entrée et produit une nouvelle fonction
en sortie, et fait cela de façon linéaire, c'est à dire :

TF[λf (x) + µg(x)] = λTF[f (x)] + µTF[g(x)]


Voyons pour l'instant quelques exemples.

1. f (x) = e−k|x| . Il est facile de démontrer que f˜(q) = 2k/(k 2 + q 2 ). La formule


d'inversion est un peu plus compliqué à démontrer, et nécessite quelques éléments
de la théorie des variables complexes.

2. La fonction Π(x), appelé porte, est dénie par Π(x) = 0 si |x| > 1 et Π(x) = 1
si x ≤ 1. Sa TF est donnée par f˜(q) = 2 sin(q)/q . Cette fonction joue un rôle
important dans la théorie de la diraction.
Nous n'avons pas énoncé dans quelle condition les TF existent. Une condi-
tion susante évidente serait que f doit être sommable. Nous ne rentrons pas
plus dans le détail, disons simplement qu'en général, les résultats obtenus sont
radicalement aberrants si on a violé les limites permises.

Exercices.

1. Démontrer la formule donnée pour la TF de k exp(−k|x|). Que devient cette


transformée si k → +∞ ?
2. Calculer la TF de la fonction f (t) = H(t) exp(−νt). H(t) est appelé la
fonction d'Heaviside (Physicien anglais de la n du XIXème). Elle est nulle
pour t<0 et vaut 1 pour t ≥ 0.
3. Calculer la transformée de Fourier de la fonction a−1 Π(x/a). Que devient
cette transformée quand a → 0?
R +∞ 2

4. Sachant que
−∞
exp(−x )dx = π , calculez la TF de exp(−x2 /2). Pour
2 2 2
cela, notez que x + 2iqx = (x + iq) + q . Le résultat d'intégration reste
valable si on parcours un axe parallèle à l'axe réel.

5. Calculez la TF de a−1 exp[−x2 /2a2 ]. Que devient cette transformée quand


a → 0?
6. Calculer la TF d'un train d'onde, f (x) = Π(x/a) exp(ik0 x). k0−1 est la
période de l'onde et a son extension spatial. Discutez les divers limites.

45
4 Les transformations de Fourier.

4.2 Les opérations sur les TF.


Si les TF sont si intéressante, c'est en partie parce qu'elles nous permettent de
manipuler les équations diérentielles comme des équations algébriques. Ceci est
un peu l'analogue de l'invention des logarithme par monsieur Neper au début des
années 1600. Il est dicile de multiplier deux grands nombres. On prend alors le
log de chacun (en consultant une table), on additionne (au lieu de multiplier) les
deux nombres obtenus, et on prend l'antilog du résultat. C'est presque la même
chose pour les équations diérentielles et les TF : on prend la TF des équadifs
(parfois en consultant une table), on résout l'équation algébrique correspondant,
on prend la TF inverse du résultat. Pour cela, nous devons connaître quelques
règles de manipulation des TF, l'équivalent des règles comme log(ab) = log(a) +
log(b) pour les logarithme. Voyons cela de plus près.

Translation. Si TF[f (x)] = f˜(q) alors TF[f (x − a)] = exp(−iqa)f˜(q)


Translater dans l'espace direct revient à multiplier par un facteur de phase
dans l'espace réciproque. Le changement de variable x → x+a (si on remplace
x par x+a ) nous donne la démonstration :

Z Z
−iqx −iqa
f (x − a)e dx = e f (x)e−iqx dx

Inversion. Si TF[f (x)] = f˜(q), alors TF[f (−x)] = f˜(−q)

Changement d'échelle. Si TF[f (x)] = f˜(q), alors TF[f (x/a)] = af˜(qa)


La dilatation d'échelle dans l'espace direct conduit à la contraction d'échelle
dans l'espace réciproque. Cela se démontre par le changement de variable x → ax,
comme ce que vous avez fait dans les exercices 1 et 3 ci-dessus. Nous avons en
réalité supposé que a > 0. Dans le cas général, on doit écrire TF[f (x/a)] =
|a|f˜(qa).

Dérivation. Si TF[f (x)] = f˜(q), = iq f˜(q).


alors TF[df (x)/dx]
Dériver dans l'espace direct revient à multiplier par iq dans l'espace réciproque.
C'est là le grand avantage qui permet de transformer les équadifs en équation algé-
brique dans l'espace réciproque. Pour démontrer cela, il faut simplement eectuer
une intégration par partie, et noter que puisque f est sommable, f (x) → 0 quand
x → ±∞.

46
4 Les transformations de Fourier.

4.3 Transformée de Fourier Rapide.


Une des raisons qui a grandement popularisé les TF est la disponibilité, depuis
le début des années 1960, des alghorithmes qui permettent de les calculer eca-
cement. La première étape pour traiter numériquement un signal est de l'échan-
tillonner, c'est à dire de le mesurer et de l'enregistrer tous les pas de temps ∆t.
Le son sur un CD est par exemple échantillonée à 48 KHz, c'est à dire 48000
enregistrement de l'amplitude par seconde. Nous sommes alors en possession de
N nombres (qui sont les fn = f (n∆t) ). Normalement, si on voulait calculer la
TF, on devrait eectuer N 2 opérations (de multiplications et d'addition). Les
transformés de Fourier Rapide (ou FFT, pour fast fourier transform en anglais)
n'eectuent pour ce calcul que N log N operations. La diérence est enorme en
temps de calcul. Par exemple, en supposant que notre ordinateur eectue un mil-
liard d'operations par seconde, la TF d'une seconde d'un CD prendrait environ 2
secondes, tandis que sa TFR ne prendrait que 0.5 ms. C'est cette diérence qui
permet d'analyser le signal en temps réél.

4.4 Manipulation et utilisation des TF.


Filtrage.

Un ltre ne laisse passer que certaines fréquences. Par exemple, pour la récep-
tion radio de France Info, on règle un circuit électrique pour ne laisser passer que
le 105.5 MHz. En optique, on fait souvent un ltrage spatial pour nettoyer un
faisceau laser et enlever les speackles. Le principe est toujours le même : nous
avons un signal x(t) en entrée et un signal y(t) en sortie. Dans le cas d'un circuit
RLC, ils sont reliés par une équation diérentielle

d2 y dy
2
+α + ω02 y = x(t)
dt dt
Une habitude veut que la variable réciproque est notée q (ou k ) quand la variable
directe est x, et ω (ou ν) quand la variable directe est t. En prenant la TF des
deux côtés de l'équation, on obtient

x̃(ω)
ỹ(ω) = (4.5)
(−ω 2 + iαω + ω02 )
Le signal en entrée x(t) est la superposition d'oscillations pures exp(iωt),
chaque oscillation ayant un poids x̃(ω). L'équation (4.5) montre comment le poids
de chacune de ces oscillations est modié en sortie. Le signal (temporel) en sortie
est la superposition de ces oscillations avec le poids ỹ(ω). L'amplitude du poids
de la fréquence ω en entrée est donc divisée par [(ω 2 − ω02 )2 + α2 ω 2 ]1/2 . Chaque
2 2
composante de sortie subit également un déphasage φ = arctan[(ω0 − ω )/αω].

47
4 Les transformations de Fourier.

Il existe bien sûr autant de ltre que de problème à traiter. Les images issues
de la microscopie éléctronique sont souvent brouillées par des pixels aléatoires.
Pour nettoyer ces images, on ltre les hautes fréquences : on prend la TF de
l'image (c'est une TF à deux dimensions) et on coupe les hautes fréquences, en
mulitpliant la TF par une fonction d'Heaviside H(q0 − q) où q0 est la fréquence
(spatiale) de coupure. On prend alors la TF inverse et l'image résultantes a été
nettoyé du bruit aléatoire. Bien sûr, dans l'opération, on a aussi perdu peut-
être quelques informations. L'opération peut-être résumé comme suit : In (x) =
-1
TF [H(q0 − q)TF[I(x)] ].

TF de H(t) cos(ω0 t).


Nous souhaitons calculer la TF de la fonction f (t) = H(t) cos(ω0 t) où H(t) est
la fonction d'Heaviside. Cela paraît à priori problèmatique, la fonction cos(ω0 t)
ne tendant pas vers zero pour t → +∞. Calculons plutôt la TF de la fonction
fν (t) = H(t) exp(−νt) cos(ω0 t). Pour ν > 0, cette fonction converge rapidement
vers zéro et son intégrale est très bien dénie. Donc,


1
Z  
f˜ν (ω) = e−(ν−iω0 )t + e−(ν+iω0 t) e−iωt dt
2 0
ν + iω
=
(ν + iω)2 + ω02

Maintenant, si on prend la limite ν → 0, nous voyons que fν (t) → f (t) (pas


uniformément ), et que la transformée de Fourier tend également vers une limite
bien dénie. Nous posons donc :

ω
f˜(ω) = i
ω02 − ω 2
Bien sûr, si on voulait prendre la TF inverse, on aurait à nouveau des problèmes
pour l'intégration autour des singularités ω = ±ω0 . On s'en sort en prenant la
valeur principale des intégrales. Quelques connaissances de la théorie d'integra-
1
tion dans le plan complexe nous montre alors qu'on trouve bien le bon résultat .
Le lecteur peut démontrer, en suivant une démarche analogue, que

ω0
TF [H(t) sin(ω0 t)] =
ω02 − ω2

Théorie de la diraction de la lumière et de la formation d'image.

Considérons un rayon de lumière qui se propage d'un point A à un point B . Si


la phase du champs au point A est exp(iω0 t), elle est de exp(iω0 t + φ) au point
1. Cela est en dehors du champs de ce cours.

48
4 Les transformations de Fourier.

B . ω0 est (à 2π près) la fréquence de la lumière (de l'ordre de 1014 s-1 pour la


lumière visible) et φ est le déphasage dû au temps que la lumière met pour aller
de A à B (distant de l) :

AB l
φ = ω0 ∆t = 2πf = 2π
c λ
où λ est la longueur d'onde de la lumière (entre 0.3 et 0.8 micron pour la lu-
mière visible). Le lecteur connaît sans doute tout cela depuis le premier cycle
universitaire.
Chaque point d'un objet recevant une onde luminueuse peut être considéré
comme une source secondaire. Si a exp(iω0 t) est le champs qui arrive au point P ,
le champs émis est ar exp(iω0 t + iφ). Le coecent r (≤ 1) désigne l'absorption
de la lumière au point P . Le coecient φ est le déphasage induit au point P si
par exemple en ce point, le matériaux a un indice diérent de son environnement.
Le coecient complexe T = r exp(iφ) est le coecient de transmission du point
P. Un objet est donc caractérisé par une fonction complexe f (x) qui est son
coecient de transmission pour chacun de ses points x.
Considérons maintenant une onde plane arrivant sur un objet (qui pour plus
de simplicité, nous considérons unidimensionnel) et un point P à l'inni dans la
direction θ (Fig. 4.1(a)). Le champ récu en ce point est la somme des champs
secondairse émis par les divers points de l'objet. Par rapport au rayon OP que
l'on prend comme référence, le rayon AP aura un déphasage de φ = −2πAA0 /λ =
−(2π/λ)x sin(θ). En appelant q = (2π/λ) sin(θ), et en appelant f (x) la fonction
de transmission de l'objet, nous voyons que le champs au point P vaut
Z
f (x) exp(−iqx)dx

qui n'est rien d'autre que la TF de la fonction f.


Mettons maintenant une lentille à une distance U en face de l'objet, une image
se formera dans un plan à distance V de la lentille (Fig. (b)). Les rayons qui
partaient dans la direction θ vont maintenant se focaliser dans le plan focal arrière
de la lentille (distant de F ) en un point P dont la coordonée x0 vaut F tan θ ≈
F sin θ tant que l'angle θ n'est pas trop important. Nous en déduisons l'intensité
du champ g(x0 ) dans le plan focal arrière de la lentille :
 
2π 0 2π 0
Z
g(x0 ) = f (x) exp −i( )x .x dx = f˜( x)
λF λF
Il n'est pas trop dicile de démontrer que l'image formée est la TF du plan
focal arrière, nous laissons cela au soin du lecteur. La formation d'image peut
donc être vu comme une double transformation de Fourier. Cela ouvre de grands
perspectives pour eectuer des opérations de ltrage directement dans le pfa

49
4 Les transformations de Fourier.

Figure 4.1  Formation d'image vu comme une double transformée de Fourier.

d'une lentille. Voir des objets transparents, comme par exemple des cellules dans
l'eau n'est pas possible en microscopie classique. Zerniké, dans les années 1950,
a inventé une technique appelé contraste de phase, qui consiste à introduire des
ltres dans le pfa de l'objectif et permet la visualisation des objets transparents
sous microscope.

Énergie injecté dans un oscillateur.

Soit une particule dans un puits harmonique (Ep = (1/2)kx2 ) soumis à une
force extérieure F (t). Nous désirons savoir quelle énergie cette force transfert à
la particule. L' équation du mouvement s'écrit :

d2 x
+ ω02 x = (1/m)F (t) (4.6)
dt2
où ω02 = k/m est la fréquence propre d'oscillation de la particule. Nous supposons
qu'au temps T1 du début, l'osciallateur est au repos. L'énergie totale transférée
à l'oscillateur est donc la somme de son énergie cinétique et potentielle au bout
d'un temps T2 (que nous prendront égale à +∞ par la suite).
Notons tout de suite que la gauche de l'équation (4.6) peut s'écrire (d/dt −
iω0 )(d/dt + iω0 )x. Comme nous allons voir, cette décomposition a son utilité. En
mécanique quantique, on appellerai l'analogue de ces termes des opérateurs de
création et d'annihilation qui sont fréquemment utilisé. Par ailleurs, H , L'énergie
2
totale du système (cinétique + potentielle ), s'écrit :

(2/m)H = (dx/dt)2 + ω02 x2


= (dx/dt − iω0 x)(dx/dt + iω0 x)
2. En mécanique analytique, on appelle Hamiltonien l'énergie totale du système, d'où le H.
Comme le système n'est pas isolé, H n'est pas une constante du mouvement : H = H(t)

50
4 Les transformations de Fourier.

Si on pose z = dx/dt + iω0 x, nous aurons alors (2/m)H = zz ∗ , et l'équation (4.6)


se transforme en
dz/dt − iω0 z = (1/m)F (t) (4.7)

L'énergie transférée à l'osciallateur est ∆E = H(T2 ) − H(T1 ) = H(T2 ). Multi-


plions maintenant les deux cotés de l'équation (4.7 ) ci-dessus par exp(−iω0 t) et
intégrons entre T1 et T2
Z T2 Z T2
−iω0 t
(dz/dt − iω0 z)e dt = (1/m) F (t)e−iω0 t dt
T1 T1

Il nous sut maintenant d'eectuer une integration par partie du côté gauche
T1 pour
de l'intégrale et d'utiliser le fait que l'oscillateur est au repos à l'instant
trouver que ce côté vaut z(T2 ) exp(−iω0 T2 ). Comme en plus l'oscillateur est au
repos avant T1 , on peut étendre l'intégrale à −∞. Quand T2 → +∞, le côté droit
devient égale à la TF de F évaluée pour la fréquence ω0 , et nous avons

1
∆E = F̃ (ω0 )F̃ ∗ (ω0 )
2m
Pour connaître l'énergie totale transférée à l'oscillateur, nous n'avons pas à ré-
soudre l'équation diérentielle de second ordre avec second membre, évaluer sim-
plement la TF de la Force appliquée à la fréquence propore de l'oscillateur nous
sut.
Vous pouvez donc facilement calculer l'énergie transférée dans les cas suivants :

1. F (t) = f0 e−t/t0 si t ≥ 0; sinon, F (t) = 0.


2. F (t) = f0 Π(t/t0 )
3. F (t) = f0 si t ≥ 0; sinon, F (t) = 0
4. F (t) = f0 cos(ω1 t)
Dans les cas 1 et 2, discutez le transfert d'énergie en fonction du temps t0 . Pour
résoudre le cas 3 et 4, vous aurez besoin des résultats sur les distributions dispo-
nible dans les prochains chapitres.

4.5 Relation entre les séries et les transformés de


Fourier.
Nous avons indiqué au début du chapitre, sans le démontrer, que l'on passe
des séries au transformés de Fourier en laissant la longueur de l'intervalle L vers
l'inni. Revoyons ce passage avec quelques détails maintenant. Considérons une

51
4 Les transformations de Fourier.

fonction f (x) sur l'intervalle [−L/2, L/2]. Ses coecients de Fourier (complexe)
sont donnés par
L/2
1
Z
cq = f (x)e−iqx dx
L −L/2

où pour plus de simplicité, nous notons q = 2πn/L. Désignons par I(q) l'intégrale
ci-dessus (sans le facteur 1/L donc). Par dénition, nous avons pour f (x) :
X
f (x) = (1/L)I(q)eiqx
q,2π/L

où dans la somme, l'indice q varie par pas discret dq = 2π/L. Quand L → ∞,


dq → 0 et par dénition de l'intégrale de Riemann, la somme ci-dessus tend vers

+∞
1
Z
f (x) = I(q)eiqx dq
2π −∞

Par ailleurs, il est évident que quand L → ∞, I(q) tend vers f˜(q) donnée par
l'équation (4.4).

4.6 Approfondissement : TF à plusieurs


dimensions.
Nous nous occupons dans ce cours essentiellement des fonctions à une seule
variable f (x). Ces concepts cependant se généralisent sans problème à plusieurs
variable. Si nous notons les variables de façon vectorielle

x = (x1 , x2 , ..., xd )

alors la TF est dénie comme


Z
f˜(k) = f (x)e−ik.x dx (4.8)
Rd

où k.x = k1 x1 + ...kd xd désigne le produit scalaire. De même, la TF inverse est

1
Z
f (x) = f (k)eik.x dk
(2π)d Rd

Étudions deux cas particuliers que nous rencontrons souvent.

52
4 Les transformations de Fourier.

1.0
0.8
0.6
0.4
0.2

5 10 15 20
-0.2
-0.4

Figure 4.2  La fonction J0 (x)

4.6.1 Symétrie cylindrique.

Dans le premier cas, d = 2 et la fonction est à symétrie cylindrique : f (x) = f (r)


où r2 = x21 + x22 . La fonction f (x, y) = 1/(x2 + y 2 ) en est un bon exemple. Il est
évident que dans un tel cas, nous avons intérêt à utiliser les coordonnées polaire.
Dans ce cas,
Z ∞ Z 2π
f˜(k) = f (r)e−ik.x rdrdθ
0 0
Le problème consiste à calculer le facteur exp(−ik.x). La coordonnées θ désigne
l'angle entre le vecteur x et l'axe des x. Cependant, si nous tournons l'axe des
x pour l'aligner sur l'axe de k, la fonction f (x) ne change pas, puisqu'elle est
de symétrie cylindrique. Dans ce cas, θ désigne l'angle entre le vecteur x et le
vecteur k et
k.x = kr cos θ
p
où k = k12 + k22
L'intégration sur θ nous donne
Z 2π
e−ikr cos θ dθ = 2πJ0 (kr)
0

La fonction J0 (z) est appelée la fonction de Bessel d'ordre 0 et apparaît en phy-


sique mathématique à de très nombreuse endroit. Les fonctions de Bessel jouent
le rôle des fonctions trigonométrique en coordonnées polaires. Nous avons donc
Z ∞
f˜(k) = 2π rf (r)J0 (kr)dr (4.9)
0

Il est évident que la fonction f˜(k) est également de symétrie cylindrique et la TF


inverse est Z ∞
1
f (r) = kf (k)J0 (kr)dk
2π 0

53
4 Les transformations de Fourier.

4.6.2 Symétrie sphérique.

Étudions maintenant le cas d = 3 où la fonction est à symétrie sphérique. En ré-


pétant les arguments ci-dessus pour les coordonnées sphériques, nous aboutissons
à Z ∞ Z π Z 2π
f˜(k) = f (r)e−ik.x r2 sin θdrdθdφ
0 0 0
L'intégration sur φ nous donne juste un facteur 2π . Par ailleurs,

π
sin(kr)
Z
e−ikr cos θ sin θdθ = 2
0 kr

et donc nalement


Z
f˜(k) = rf (r) sin(kr)dr
k 0
En faisant le même chemin pour la TF inverse, nous avons


−1
Z
f (r) = kf (k) sin(kr)dk
πr 0

Exercice. Calculer la Transformée de Fourier de


 2
1 r
f (x) = exp −
σ d/2 4σ

au dimension d = 1, 2, 3.

54
5 Les distributions.
5.1 Ce qu'il faut savoir.
Les transformées de Fourier nous posent quelques problèmes quant à la dé-
nition de base orthogonale. Nous avons vu que, sur l'intervalle ] − ∞, +∞[, la
fonction f (x) peut être représentée comme la superposition des fonctions exp(iqx)
avec le poids f˜(q). Pour en revenir à notre image de base dans l'espace des fonc-
(q ∈ R) forment une base, et les coecients f˜(q) sont les
iq(.)
tion, les fonctions e
projections du vecteur f (.) sur les vecteurs de cette base.
Nous avions aux sections précédentes basé nos démonstrations sur le concept
d'orthogonalité. Mais peut on dire que exp(iq1 x) et exp(iq2 x) sont orthogonales ?
Le produit scalaire a t'elle encore un sens ? En eet, comment dénir la valeur de

Z +∞
exp(iq1 x) exp(−iq2 x)dx (5.1)
−∞

qui au sens normal de la théorie d'intégration, n'a aucun sens ?


Il faut comprendre Le produit scalaire (5.1) dans le sens suivant d'un passage
à la limite :
+L/2
1
Z
lim exp(iq1 x) exp(−iq2 x)dx (5.2)
L→∞ L −L/2

Quand q1 6= q2 , 1et le (1/L) fait tout tend


l'intégrale est au plus de l'ordre de
vers zéro. Par contre, siq1 = q2 , l'intégrale vaut L et l'expression (5.2) vaut 1. Le
produit scalaire (5.1) est donc de l'ordre de L ( avec L → ∞ ) pour q1 = q2 et de
l'ordre de 1 sinon. Nous noterons ce genre d'objet δ(q1 − q2 ) et nous l'appellerons
le delta de Dirac, du nom du physicien qui a établi les règles de manipulation de
ces objets dans son livre sur la mécanique quantique en 1930.
Pour un physicien, le concept de la fonction δ est très intuitif et généralise le
concept de charge ou de masse ponctuel. Supposez que vous avez des charges
répartit continuement dans l'espace avec une densité ρ(x) et que vous voulez
calculer la charge totale contenue dans une sphère de rayon R
R autour d'un point.
Rien de plus simple,il sut d'intégrer la densité autour C = ρ(x)dx. Supposez
V
maintenant que R → 0, c'est à dire que vous prenez des sphères de plus en plus
petite autour de votre point. Il est évident qu'il y aura de moins en mois de
charge à l'intérieur et que C → 0. C'est vrai, sauf si vous avez placé une charge

55
5 Les distributions.

ponctuelle au point considéré. Pour une charge ponctuelle Q, quel que soit la taille
de la sphère autour, la quantité totale de la charge à l'intérieur reste constante.
En gros, pour une charge ponctuelle placé en x0 , la densité de charge est nulle
partout, sauf en x0 où elle vaut innie ! Ce genre de densité innie en un point,
nulle partout et dont l'intégrale est nie est justement un delta de Dirac. Les
mathématiciens nous exécuteraient si on appelait ces objets des fonctions et nous
obligent à les nommer des distributions. La propriété de delta de Dirac est la
suivante : Z
δ(x)dx = 1 ∀I 3 0 (5.3)
I
Du moment que l'intervalle I contient 0, l'intégrale vaut 1, sinon elle vaut zéro.
L'objet de ce chapitre est de se familiariser avec les distributions, et en particulier
avec la distribution de Dirac.
On peut voir δ(x) comme un processus de limite. Prenons le cas de la fonction

1 2
fa (x) = √ e−(x/a)
a π

C'est une gaussienne centrée sur 0, et son intégrale vaut 1. Quand a → 0, elle
devient de plus en plus piquée, avec une extension de moins en moins large, mais
l'intégrale reste constante. On peut dire la même chose de la fonction ga (x) =
(1/2a)Π(x/a) ou en faite de n'importe quelle fonction qui, lors d'un processus de
passage à la limite, réduit son extension, augmente l'amplitude de son pique, et
garde son intégrale constante. La distribution δ(x) est la limite de ce genre de
fonction.
La dénition (5.3) nous permet quelques généralisations. Par exemple, on peut
dénir 3δ(x), la distribution dont l'intégrale vaut 3 sur des intervalles contenant
0. On peut même dénir f (x)δ(x) où on suppose f (x) continue en 0. L'intégrale
vaut : Z +∞ Z +
f (x)δ(x)dx = lim f (x)δ(x) = f (0)
−∞ →0 −

Vous pouvez démontrer cela facilement en utilisant la dénition de la continuité


d'une fonction. Mais intuitivement, cela paraît évident : comme δ(x) est nulle
partout sauf en 0, le multiplier par f (x) revient simplement à le multiplier par
f (0). En faite, on utilise cela comme la dénition de la distribution δ(x) :

Z
f (x)δ(x)dx = f (0) ∀I 3 0 (5.4)
I

δ(x) est
R une distribution centrée sur 0. δ(x − x0 ) est une distribution centrée sur
x0 et δ(x − x0 )f (x) = f (x0 ). Finalement, les règles pour manipuler les δ ne sont
pas vraiment compliquées.

56
5 Les distributions.

La dernière chose à savoir sur δ(x) est sa transformée de Fourier ( on pose


dorénavent R =] − ∞, +∞[ :
Z
δ̃(q) = δ(x) exp(−iqx)dx = 1
R

La TF de δ(x)est la fonction constante 1. Cela veut dire que δ(x) est la superpo-
sition, à poids égal, de toutes les modulations exp(iqx) ! Cela n'est pas vraiment
étonnant : comme δ(x) varie vraiment très rapidement, toutes les modulations
doivent y être présent. Inversement,

1
Z
exp(iqx)dq = δ(x) (5.5)
2π R

Exercice : Démontrer que la fonction


R δ dénie par (5.5) est bien une δ de dirac,
c'est à dire que
R
δ(x)f (x) = f (0) .

La dimension de la distribution δ. En mathématique, nous manipulons essen-


tiellement des chires, c'est à dire des nombre sans dimensions. En physique ce-
pendant, les quantités que nous manipulons représentent des grandeurs telles que
des longueurs, énergies, temps, vitesses, etc. Ces grandeurs ont des dimensions.
Les physiciens attachent beaucoup d'importance à cette question pour plusieurs
raisons. Une de ces raisons est purement gramaticale et permet de vérier la co-
hérence des divers étapes d'un calcul. Prenons le cas d'une équation diérentielle
du genre d2 y/dt2 + ω02 y = f0 et supposons que nous avons trouvé y = f0 sin(ω0 t).
Si y représente une quantité de dimension [y], alors [ω0 ] = T −1 et [f0 ] = [y]T −2 .
Ceci est nécessaire si nous voulons que les deux cotés de l'équation aient la même
dimension. La dimension du côté gauche de la solution est [y]. Comme la fonction
sin n'a pas de dimension, le coté droit de la solution a la dimension de [y]T −2 !
Les deux cotés de la solution n'ont pas la même dimension et nous nous sommes
manifestement trompé à une étape de la résolution. Ces vérications peuvent (et
doivent ) être eectué à chaque étape du calcul.
Comme nous manipulerons pas mal les distributions par la suite, nous avons
besoin de connaitre leur dimension. Les fonctions sin(x) et exp(x) n'ont pas de di-
mensions. Qu'en est-il de la distribution
R δ(x) ? Pour
R cela, il faut d'abord répondre
à la question de la dimension de ydx. Le signe n'est qu'une généralisation de
l'opération addition. La dimension d' une pomme + une pomme est toujours
une pomme. Le signe d signie une très petite quantité de et la dimension
d'une très petite quantité de pomme est toujours une pomme. Nous en dédui-
R
sons de tout cela que [ ydx] = [y][x] R
Nous pouvons maintenant utiliser la propriété de la distribution δ: δ(x)f (x)dx =
f (0). Il est alors aisé de voir que [δ(x)] = [x]−1 ! Nous aurions pu bien sûr ar-
river au même résultat en utilisant l'expression par passage à la limite δ(x) =

57
5 Les distributions.

(1/a) exp(−x2 /a2 ) quand a → 0. Voilà, il faut avoir cela en tête à chaque fois que
l'on veut vérier la cohérence des équations qui impliquent des δ .

5.2 Un peu de décence.


Du point de vue du mathématicien, ce que nous avons raconté plus haut est,
en restant poli, mal propre. Laurent Schwarz, dans les années 1950, a rendu
rigoureux la théorie des distributions. Il est utile de connaître les grande ligne
de sa construction. Il est parti de la constatation que les distributions ne sont
utilisées en pratique que sous le signe intégral, comme en (5.4).
Une fonctionnelle est une généralisation d'une fonction. Elle prend une fonction
en entrée et produit un scalaire en sortie. C'est une fonction de fonction en
quelque sorte. Notons que la TF n'est pas une fonctionnelle, puisqu'elle produit
une fonction en sortie.
Appelons E l'espace des fonctions , et
1
F l'espace des fonctionnelles linéaires
(ou dit plus sérieusement, des formes linéaires dénies sur E ). Un exemple de
fonctionnelle est Lexp(−x2 ) qui prend une fonction en entrée, calcul son produit
scalaire avec la fonction exp(−x2 ), et produit ce chire en sortie :
Z
Lexp(−x2 ) [f ] = exp(−x2 )f (x)dx
R

Nous pouvons généraliser cet exemple : à chaque fonction g ∈ E, nous pouvons


associer une fonctionnelle Lg ∈ F tel que
Z
Lg [f ] = f (x)g(x)dx
R

Et nous pouvons démontrer facilement que ce Lg est bien une fonctionnelle


linéaire. Nous pouvons trouver beaucoup d'autres fonctionnelles linéaires. Par
exemple, la fonctionnelle δx0 est dénie par

δx0 [f ] = f (x0 )

Voilà, le tour est joué. Cette fonctionnelle est bien le delta de Dirac δ(x − x0 )
dénie plus haut. Noter bien l'opération : on peut identier une partie de l'espace
F avec l'espace E via ces Lg que nous avions construit : à chaque élément de E
nous pouvons faire correspondre un élément de l'espace F. Mais l'espace F est
plus vaste, et quelques uns de ces éléments en plus constituent les distributions
inhabituelles. C'est un peu comme enrichir l'ensemble des nombres rationnels Q
pour arriver à l'ensemble des nombres réel R.
1. En réalité, l'espace des fonctions à support bornés et inniment dérivable, mais nous ne
sommes pas à notre premier délit.

58
5 Les distributions.

On peut dénir des opérations sur les distributions. Il est toujours plus simple
de partir des distributions du genre Lg dont le sens est familier pour dénir
ensuite les mêmes opérations sur les distributions du genre δ. Par exemple, que
veut dire Lg0 ?
Z Z
0
L [f ] =
g0 g (x)f (x)dx = − g(x)f 0 (x)dx = −Lg [f 0 ]
R R

(N'oublions pas que comme f et g sont au moins sommable, elle tendent vers zéro
pour x → ∞). On peut donc dénir :

δx0 0 [f ] = −δx0 [f 0 ] = −f 0 (x0 )


où dans le langage moins élégants des physiciens,
Z
0
δ (x − x0 )f (x)dx = −f 0 (x0 )

De même, nous pouvons démontrer que H 0 (x) = δ(x). Nous ne continuerons pas
plus le développement formel des distributions. Mais la constructions de Schwarz
est extrêmement élégante et nous conseillons au lecteur de voir au moins une fois
les bases rigoureuses de cette construction.
Nous voyons cependant que l'espace plus large des distributions nous permet de
manipuler aisement des objets qui nous semblaient interdit. Une force ponctuelle
a un sens. Une discontinuité également. En physique, une fonction ne peut pas
être discontinue. La densité de l'eau ne saute pas de ρl à ρv à l'interface liquide
solide, il existe une couche d'épaisseur petite (très petite devant les autres echelle
de longueur) où la densité varie continuellement d'une valeur à une autre. La
lumière rééchit par un mirroir pénetre sur une petite longueur dans le mirroir
où son intensité décroît exponentiellement et ainsi de suite. Nous pouvons donc
caractériser les discontinuité des fonctions par des distribtion. Soit la fonction
f (x) = g(x)+∆H(x−x0 ) , où la fonction g est une fonction continue est dérivable
− +
en x0 . La fonction f par contre, saute de la valeur g(x0 ) à x0 à ∆ + g(x0 ) à x0 .
0 0
Au sens des distributions, la dérivé de f est donnée par f (x) = g (x) + δ(x − x0 ).
0
Imaginez donc f comme une fonction normale, avec une èche positionnée en
x0 .

Exercices.

1. En utilisant la dénition (5.4), démontrer que l'expression (5.1) égale δ(q1 −


q2 ).
δ 0 (x)
R
2. Que vallent et δ(x) ?
3. Soit une fonction L−périodique f . Que vaut sa TF (au sens des distribu-
tions) ?

59
5 Les distributions.
P+∞
4. Une peigne de Dirac est déni par Ξ(x) = n=−∞ δ(x − n). C'est comme
si nous avions posé un delta de Dirac sur chaque nombre entier. Quelle est
la TF de Ξ(x/a) ?
5. Démontrer que δ(x + a) = δ(x) + aδ 0 (x) + (1/2)a2 δ 00 (x) + ... On peut faire
un développement de Taylor des δ comme pour les fonctions usuelles. Pour
pouvoir démomntrer cette égalité, appliquer les deux côtés de l'égalité à
une fonction f
6. Démontrer que δ(−x) = δ(x) et δ(ax) = (1/|a|)δ(x).
7. Considérons une fonction g(x) avec un zéro simple en x0 : g(x0 ) = 0,
g 0 (x0 ) 6= 0. Prenons un intervale I = [x0 − a, x0 + a] autour de x0 (on
peut supposer a aussi petit que l'on veut). En développant g autour de sa
racine à l'ordre 1, démontrez que

1
Z
δ(g(x))f (x)dx = f (x0 )
I |g 0 (x 0 )|

8. En supposant que la fonction g(x) n'a que des racines simples, et en utilisant
le résultat ci-dessus, démontrer :

X 1
δ (g(x)) = δ(x − xi )
i
|g 0 (xi )|

où les xi sont les racines simples de g(x). Donner comme application l'ex-
pression de δ(x2 − a2 ).
9. En vous inspirant du résultat de la question 5, pouvez indiquer pouquoi
dans la question 7, nous pouvions nous restreindre à un développement
d'ordre 1 ?

5.3 Manipulation et utilisation des distribution.


Oscillateur soumis à une force périodique. Il obéit à l'équation d2 x/dt2 +ω02 x =
A exp(iω1 t). En prenant la TF des deux côtés, nous avons :

2πAδ(ω − ω1 )
x̃(ω) =
ω02 − ω 2
R
comme x(t) = (1/2π) x̃(ω) exp(iωt)dω , nous trouvons

A exp(iω1 t)
x(t) =
ω02 − ω12
Nous connaissions ce résultat depuis l'exercice sur le ltrage.

60
5 Les distributions.

1 1

F(t) y(t)
0.5 0.5

0 0

-2 -1 0 1 2 3 4 -2 -1 0 1 2 3 4
t

Figure 5.1  Reponse d'un oscillateur amortie à une force impulsionnelle. La


distribution δ est représentée par une èche verticale.

Oscillateur amorti soumis à une force impulsionnelle. Un oscillateur amorti


soumis à une force F (t) obéit à l'équation

d2 y dy
m +λ + ky = F (t)
dt2 dt
Nous souhaitons connaître la reponse de l'oscillateur à une force impulsionnelle
F (t) = F0 δ(t). Ceci est l'idealisation d'un coup de marteau très bref et très puis-
sant sur l'oscillateur. Pour simplier le problème, nous supposons dans un premier
temps que la masse est négligeable ( que les forces d'inertie sont petites devant
les forces de frottement ) et que l'osciallateur est au repos. En renormalisant nos
coecient, l'équation prend la forme :

dy
+ νy = f0 δ(t) (5.6)
dt
et en prenant la TF des deux cotés, nous trouvons que ỹ(ω) = f0 /(ν + iω). Il
sut maintenant de prendre la TF inverse. Il se trouve que dans ce cas, si l'on se
souvient de l'exercice (†4.1 :2), nous pouvons directement écrire

y(t) = f0 H(t) exp(−νt) (5.7)

Ce résultat est représenté sur la gure (5.1). Nous suggérons au lecteur de discuter
les limites λ→0 et λ → ∞.

Equation de la chaleur avec une source ponctuelle. Une goutte d'encre extré-
mement concentrée, déposé en un point de l'espace va se diluer en diusant. De
même pour un pulse ponctuel de chaleur. Comme nous l'avons vu précédemment,

61
5 Les distributions.

les phénomènes de diusion sont gouvernés par l'équation de la chaleur :

∂u ∂2u
= D 2 + Q(x, t)
∂t ∂x
où u désigne la température ou la concentration et Q est un terme de source.
Dans le problème qui nous interesse ici, Q(x, t) = Q0 δ(x)δ(t). En prenant la TF
par rapport à la variable d'espace x, nous avons :

∂t ũ(q, t) + Dq 2 ũ(q, t) = Q0 δ(t) (5.8)

Mais cette équation est exactement eq.(5.6), celle qu'on a écrit pour l'oscillateur
amorti. C'est bien une équation diérentielle ordinaire par rapport à la variable
temps, et q peut être considerer comme une constante : Pour chaque mode q , nous
avons une EDO indépendante. La solution est donc analogue à (5.7), et s'écrit :

ũ(q, t) = Q0 H(t) exp(−Dq 2 t)

Il nous sut maintenant de prendre la TF inverse pour obtenir la solution dans


l'espace direct :

+∞
1
Z
u(x, t) = ũ(q, t).eiqx dq
2π −∞
x2
 
Q0 1
= √ √ exp −
2 π Dt 4Dt
La dernière integrale s'obtient facilement par les techniques que nous avons déjà
utilisé. L'évolution de u(x) pour diérente valeur de t sont représenter sur la
gure (5.2).
Extension (dicile) : si la source n'est pas ponctuelle dans le temps, mais
seulement dans l'espace, i.e. Q(x) = Q0 δ(x), quel est le comportement de la
solution ? Help : Essayez comme avant d'obtenir une expression pour ũ(q, t). Cette
expression est trop compliquée pour inverser, mais ∂t ũ(q, t) l'est beaucoup moins.
-1
En changeant alors l'ordre des operation TF et ∂t , vous pouvez obtenir une
expression pour ∂t u(x, t). Il vous sut alors d'evaluer

Z τ
u(x, τ ) = ∂t u(x, t)dt
0

Il n'est pas dicile alors d'obtenir le comportement assymptotique de u pour


t → ∞.

Equation d'onde avec source ponctuelle. Considérons une corde tendue innie
et au repos à l'instant initial. A l'instant t = 0, on la soumet à une force ponctuelle

62
5 Les distributions.

0.8

0.6

0.4

0.2

0
-4 -2 0 2 4
x

Figure 5.2  prol de concentration en fonction de x, à diérent temps t =


0.1, 0.2, 0.5, 1, 2. Ici, D = 1/4. La distribution originale, en δ(x),
est représenté par une èche verticale.

dans le temps et dans l'espace (l'idéalisation d'un marteau de piano tapant sur
la corde). l'équation d'onde s'écrit

∂2u 2
2∂ u
− v = γδ(x)δ(t)
∂x2 ∂x2
En suivant la même démarche que ci-dessus, vous devriez pouvoir obtenir la pro-
pagation de l'onde. Vous pouvez notemment montrer que l'extension du domaine
ou u 6= 0 croit à la vitess v.

Vitesse de phase, vitesse de groupe. Donnons nous un signal u(x, t) qui se


propage (Fig.5.3). Comment devrait on dénir la vitesse du signal ? On pourrait
par exemple repérer le maximum de u et de suivre ce point en fonction de temps ;
ceci n'est pas très bon cependant, puisque le signal peut se déformer et notre
maximum disparaître ou d'autres maximum apparaître. Nous devons dénir la
vitesse en prenant en compte l'ensemble du signal. Une bonne dénition est par
exemple de suivre le barricentre du signal, ou même mieux, le baricentre du carré
du signal pour éviter les comprensations de signe :
Z
x̄(t) = xu2 (x, t)dx
I

Par la suite, sans perte de généralité, nous supposons notre signal normée :
u2 (x, t)dx = 1. Supposons par exemple que notre signal se propage sans se
R
I
déformer u(x, t) = u0 (x − ct) et nous avons alors
Z Z
x̄(t) = xu20 (x) + ct u20 (x)
I I
= x̄0 + ct

63
5 Les distributions.

Figure 5.3  un signal u(x, t) en fonction de x à trois temps t diérents, se


propageant vers la droite.

ce qui correspond bien à notre intuition de la vitesse d'un signal.


En utilisant la dénition des TF et de la distribution δ(x), il est facile de
démontrer que (cf exercice) :
Z  
∂ ũ(q, t)
x̄(t) = −i ũ∗ (q, t)dq (5.9)
I ∂q
où ũ(q, t) est la TF de u(x, t) par rapport à x. Reprenons à nouveau notre signal
qui se propage sans se déformer : u(x, t) = u0 (x−ct). Par la règle des manipulation
des TF, nous savons qu'une translation dans l'espace direct revient à multiplier
par une exponentielle complexe dans l'espace réciproque :

ũ(q, t) = ũ0 (q).e−iqct

En rempalçant dans l'expression (5.9), nous voyons que cela nous donne
Z
x̄(t) = x̄0 + ct ũ0 (q)ũ∗0 (q)dq
I
=x̄0 + ct

ũ (q)ũ∗0 (q)dq = I u20 (x).


R R
puisque, par la relation de Parceval,
I 0
En général le facteur qui multiplie le temps dans l'expoentiel complexe est
appelé la fréquence angulaire ω, qui dans ce cas simple de signal se propageant
sans déformation s'écrit
ω = cq
et nous voyons que nous pouvons dénir la vitesse comme


c=
dq
Prenons maintenant le cas plus général de signaux se déformant en se propageant.
Il existe un cas très important appelé milieu dispersif, où la déformation du signal

64
5 Les distributions.

prend une forme simple dans l'espace réciproque :

ũ(q, t) = ũ0 (q)e−iω(q)t

c'est à dire que le mode q est pondéré par un facteur de phase ω(q)t au temps
t, avec une forme ω(q) quelconque, sans plus nécessairement être proportionnel
au mode q. Dans le cas d'un cristal par exemple, on peut démontrer (voir le
problème correspondant au chapitre sur les séries de fourier) que ω(q) = A sin(q).
Nous pouvons néanmoins calculer la vitesse du baricentre du signal comme avant :
Z  

x̄(t) = x̄0 + t ũ0 (q)ũ∗0 (q)dq
I dq

Si ω(q) varie de façon lente par rapport à ũ0 (q)ũ∗0 (q), et que ce dernier possède
un pic étroit en q0 , alors une bonne approximation pour la vitesse du baricentre
serait

c=
dq q=q0

Ceci est ce qu'on appelle la vitesse du groupe. L'expression ω/q , ayant un sens
pour les signaux se propageant sans déformation, s'appelle la vitesse de phase.

Bruit de Langevin.(transférer au chapitre prochain) (Bien expliquer la signi-


cation de <>). Langevin a trouvé, vers 1910, une façon extrêmement élégante
de traiter le mouvement Brownien, en considérant une particule soumise aux
équations classique du mouvement et à une force aléatoire :

d2 x dx
m +ν = ξ(t)
dt2 dt
ν est la viscosité et ξ(t) une force aléatoire. Nous ne connaissons de cette force que
ses caractéristique stochastique : La moyenne de cette force est nulle, hξ(t)i = 0
2
et sa variance est proportionnelle à la température : ξ (t) = αT . D'autre part,
c'est un bruit blanc : si nous connaissons la valeur de cette force à un instant,
nous ne pouvons rien dire sur sa valeur à quelque temps que ce soit après.

5.4 Exercices.
1. Que valent les distributions δ(x) cos(qx), δ(x) sin(qx) et δ 0 (x) sin(qx) ?
2. En dérivant directement la fonction y(t) = (f0 /ω0 )H(t) sin(ω0 t), démontrer
qu'elle est la solution de ÿ + ω02 y = f0 δ(t).
3. Démontrer que tH(t) est la primitive de H(t). En utilisant une integration
par partie, trouver la primitive de tH(t).

65
5 Les distributions.
y y
f f
a a
x x

(a) (b)

Figure 5.4  la èche d'un pont sous l'eet d'une force ponctuelle.

4. Une particule initialement au repos de masse m soumise à une force im-


pulsionnelle obéit à l'équation mÿ = f0 δ(t). En intégrant directement et
en utilisant les conditions initiales, trouver la solution. Trouver la même
solution en considérant la particule soumise à une force constante avec une
certaine durée f = (f0 /2T )Π(t/T − 1) et faire tendre ensuite la durée vers
zéro.

5. Intégrer directement l'équation dy/dt + νy = f0 δ(t) en utilisant la méthode


de la variation des constantes.

6. L'élasticité des barres est donnée par l'équation

Bd4 y/dx4 = F (x)

où F (x) est la densité de force (force par unité de longueur) appliqué au


point x et B une constante qui donne l'amplitude de la rigidité de la barre
et qu'on appelle module de courbure. C'est par exemple cette équation
qui donne la èche d'un pont sous l'eet d'une charge. Nous souhaitons
connaître la èche d'un pont de longueur L sous l'eet du mouvement d'un
camion à la position a dessus. Comme les dimensions du camion sont petit
par rapport au pont, on le modélise par une distribution de dirac. En solvant
donc l'équation y (4) = f0 δ(x − a) trouver la forme du pont. Nous utiliserons
deux formes de conditions aux limites : (i) pont posé sur des pilliers, y(0) =
y(L) = 0 ; y”(0) = y”(L) = 0 (gure 5.4.a ; (ii) pont ancré aux deux bouts
y(0) = y(L) = 0 ; y 0 (0) = y 0 (L) = 0 (gure 5.4.b) . Pour quelle valeur de a
la èche est maximum ?

7. Démontrer que Z Z
xu2 (x)dx = ũ0 (q)ũ∗ (q)dq
I I

où ũ(q) est la TF de u(x). Help : écrire ũ0 (q) et ũ∗ (q) par leurs dénition
des TF, former leurs produit et intégrer sur q . Il sura juste de remarquer
R
que
I
exp(iq(x − y))dq = 2πδ(x − y).

66
6 Convolution et corrélation.
Deux concepts abondemment utilisé en physique ( et bien d'autres endroist )
sont les convolutions et les correlations. Les TF nous permettent de calculer ces
choses de façon assez simple.

6.1 Les convolutions.


Le produit de convolution f ∗g de deux fonctions f et g est dénie par

Z +∞
h(x) = (f ∗ g)(x) = f (s)g(x − s)ds
−∞

Exercice : démontrer que le produit est commutatif : f ∗ g = g ∗ f.


L'endroit où l'on rencontre fréquemment ce produit est quand on mesure un si-
gnal. Supposons que le signal qu'on mesure est l'intensité lumineuse sur un ecran,
f (x). Pour mesurer ce signal, l'expérimentateur doit positionner son détecteur à
un point x, et mesurer son intensité. Bien sûr, il va eectuer cette mesure en
plusieurs points. Le detecteur est cependant un instrument réel, de taille nie,
disons 2` (et non innitésimal). Quand l'instrument est posistionnée en x, toute
la lumière dans l'intervalle [x − `, x + `] rentre dans le detecteur, et l'expérimen-
tateur mesure donc en faite la moyenne de l'intensité sur une intervalle autour
du point x, et non la valeur exacte de l'intensité en ce point. Evidemment, plus
` est petit, meilleure est la précision de l'appareil. En terme mathématique, l'ex-
périmentateur enregistre le signal h(x) :

Z x+`
h(x) = f (s)ds
x−`
Z +∞
x−s
= f (s)Π( )ds
−∞ `
= (f ∗ Π` )(x)

Ici, Πl (x) = Π(x/`) est la fonction de l'appareil. Les fonctions d'appareil peuvent
avoir des formes plus compliquées, comme par exemple une gaussienne. Le facteur
limitant la précision du signal est le pouvoir de résolution ` de l'appareil qui
lisse et rend ou le signal original. Par exemple, un objectif de microscope est

67
6 Convolution et corrélation.

1.5 l=0.1
l=0.3
l=0.5
1 l=0.7

0.5

0
-3 -2 -1 0 1 2 3 4

Figure 6.1  La convolution du signal δ(x) + δ(x − 1) par des gaussiennes Gl de


diérente largeur.

un appareil de mesure dont le signal mesuré est l'image formée . Ernst Abbe,
physicien de la compagnie Carl Zeiss dans les années 1890, a developpé la théorie
de la formation d'image et démontré que le pouvoir de résolution des objectifs et,
au mieu, ` = λ/2N A, où λ est la longueur d'onde utilisée et N A est l'ouverture de
l'objectif (le sinus de l'angle maximum de capture de la lumière). Les microscopes
optiques ne peuvent donc pas voir les echelles plus petites que 0.2 micron.

Exercice : soit le signal f (x) = δ(x) + δ(x − x0 ), c'est à dire deux piques de dirac
distant de x0 . Calculer et tracer le signal mesuré si la fonction de l'appareil
est (i)Πl ; (ii) Gl = exp(−x2 /2`2 ). Traiter particulièrement les cas x0  `
, x0  ` et x0 ≈ ` (voir gure 6.1). Pouvez vous determiner dans le cas de
la gaussienne, à partir de quelle `, nous ne pouvons plus distinguer deux
piques séparées ?

Les transformées de Fourier nous permettent de calculer facilement les produits


de convolution :
TF[f ∗ g] = TF[f ].TF[g]
La transformée de Fourier du produit de convolution de deux fonctions est le
produit (normal) de leurs transformée de Fourier. Soit h(x) = (f ∗ g)(x), alors

Z +∞ Z +∞
h̃(q) = dx e−iqx ds f (s)g(x − s)
−∞ −∞
Z +∞ Z +∞
= ds f (s) dx e−iqx g(x − s)
−∞ −∞
Z +∞ Z +∞
−iqs
= ds f (s)e dx e−iqx g(x)
−∞ −∞

= f˜(q)g̃(q)

68
6 Convolution et corrélation.

Calculer numériquement le produit de convolution dans l'espace direct est de


l'ordre de N 2, où N est le nombre de points d'échantillonnage des fonctions. Par
contre, prendre la TFR, eectuer une multiplication entre les TF et prendre une
TFR inverse ne coutera que N log N operations.
Un autre endroit où l'on rencontre fréquemment les convolutions est la théo-
rie des probabilités et le théoreme central limite. Soit deux variables aléatoires
continues X1 et X2 indépendantes
f (x) et g(x). Cela veut dire que
de densité
X1 tombe entre x et x + dx est égale
la probabilité pour qu'une réalisation de
à f (x)dx : Pr(x < X1 < x + dx) = f (x)dx. Nous nous demandons mainte-
nant si nous pouvons déterminer la densité de probabilité h(z) de la variable
Z = X1 + X2 .

h(z)dz = Pr(z < X1 + X2 < z + dz)


Z x1 =+∞
= Pr(z − x1 < X2 < z − x1 + dz)Pr(x1 < X1 < x1 + dx1 )
x1 =−∞
Z +∞
= dz g(z − x1 )f (x1 )dx1
−∞

Nous voyons donc que h(z) = (f ∗ g)(z).


Exercice 1 : Démontrer que la densité de probabilité de la moyenne de deux
variables aléatoires est donnée par h(z) = 2(f ∗ g)(2z).
Exercice 2 : Démontrer que le produit de convolution de deux gaussiennes de
largeur l et p est encore une gaussienne

x2
 
1 1
√ p exp − 2
2π l2 + p2 2(l + p2 )

pour vraiment apprecier les TF, faire le calcul d'abord dans l'espace direct,
et ensuite à l'aide des TF. Une gaussienne de largeur l est la fonction

1
√ exp(−x2 /2l2 )
2πl

Les resultats ci-dessus sont important. Supposons que nous ayons deux variables
aléatoires gaussienne de largeur l. Leur moyenne est alors également une variable

aléatoire gaussienne, mais de largeur l/ 2. Ce résultat se généralise
√ à N variables
aléatoires : la moyenne est alors une gaussienne de largeur l/ N . La moyenne de

N variables aléatoires est également une variable aléatoire, mais qui uctue N
fois moins que les variables originales. C'est pour cette raison par exemple qu'un
expérimentateur, pour caractériser un phénomène physique, prend plusieurs me-
sure et calcule leur moyenne (voir les problèmes avancés).

69
6 Convolution et corrélation.

Exercices :

1. Calculer Λ(x) = (Π ∗ Π)(x), et représenter le graphiquement.

2. Démontrer que la distribution δ est l'unité pour la convolution : f ∗δ =f


0
3. Que vaut f ∗δ ?

4. Démontrer que la translation Ta [f (x)] = f (x − a) est la convolution de


δ(x − a) avec la fonction f.
5. Le graal de l'expérimentateur est de déconvoluer son signal, c'est à dire
connaissant le signal enregistré h(t) = (f ∗ A)(t) et la fonction d'appareil
A(t), f (t). On pourrait se dire que pour connaître f (t) il sut
déterminer
de diviser la TF de h par la TF de A et de prendre la TF inverse du resultat.
En pratique, ceci n'est pas une bonne solution, puisqu'on ne peut jamais
enregistrer un signal pendant un temps inniement long. Soit H(t) le signal
enregistré de −T à +T . Mathématiquement parlant, H(t) = h(t).Π(t/T ).
Montrer alors que

Z ω+1/T
H̃(ω) = 2T f˜(ν)Ã(ν)dν
ω−1/T

On voit donc que l'intervalle de temps ni mélange les fréquences. Que
trouve t'on à la limite T → ∞?

6.2 Auto-corrélation.
Un outil indispensable en physique est le concept d'auto-corrélation. Cela joue
un rôle important dans les processus stochastiques, la diraction, ...Supposons
que nous avons une fonction x(t). Pour plus de simplicité, nous considérons notre
signal de moyenne nulle, c'est à dire

t+T
1
Z
lim x(t)dt = 0
T →∞ T t

Nous désirons savoir combien d'information nous pouvons avoir sur x(t + τ ) si
nous connaissons le signal en t. Cette quantité est contenu dans la fonction d'auto-
corrélation Z +∞
G(τ ) = x∗ (t)x(t + τ )dt
−∞

Le complexe conjugué est nécessaire si l'on veut que pour τ = 0 G(τ ) soit réelle.
Dans beaucoup de cas, le signal est réel et le complexe conjugué dans l'espace
réelle n'a pas d'importance. Concrètement, nous prenons notre signal au temps

70
6 Convolution et corrélation.

t, nous le multiplions par le signal au temps t + τ, nous répétons cette opé-


ration pour tous les temps t et ajoutons le résultat. Nous donnerons plus loin
quelques exemples de la façon dont cette mesure est utilisée pour déterminer les
caractéristiques de certains systèmes physiques. Que vaut la TF de la fonction
d'auto-corrélation ?
Z Z
G̃(ω) = dt x∗ (t)x(t + τ ) exp(−iωτ )
dτ (6.1)
Z Z

= dt x (t) dτ x(t + τ ) exp(−iωτ ) (6.2)
Z Z
= dt x∗ (t) exp(+iωt) dτ x(τ ) exp(−iωτ ) (6.3)

= x̃∗ (ω)x̃(ω) = |x̃(ω)|2 (6.4)

Le résultat est d'une grande beauté : la TF de la fonction d'auto-corrélation est


égale au module de la TF du signal au carré. Rappelons simplement que pour
passer de (6.1) à (6.2), nous avons échangé l'ordre d'intégration ; pour passer de
(6.2) à (6.3) nous avons eectué le changement de variable τ → τ − t.
La fonction d'auto-correlation reçoit des interprétation diérentes dans dié-
rents contextes. Par exemple en probabilités, soit X1 la valeur d'une fonction
aléatoire au temps t, et X2 la valeur de même fonction au temps t + τ . En suivant
la discussion sur les convolutions, on peut alors demontrer que l'autocorrelation
G(τ ) est la densité de probabilité de la variable aléatoire X2 − X1 .
En matière condensé, on a coutume d'imager autrement la fonction d'auto-
correlation. Supposez que vous avez des particules distribuées dans l'espace.
Quelle est la distribution des distances entre les particules ? Prenez n'importe
quelles deux particules i, j est calculer la distance rij entre les deux. Faites
maintenant un histogramme de toutes les distances, et vous avez une fonction
d'autocorrelation des concentrations. Nous avions vu, dans le chapitre sur les
TF, que le champs E(q) de lumière diusé dans une direction q est la TF de la
fonction de transmission local. En utilisant des rayons γ ou neutron à très petite
longueur d'onde, la fonction de transmission devient proportionnelle la concen-
tration des molécules qui diusent ces longueurs d'onde ecacement, c'est à dire :
E(q) ∼ T F [c(x)]. Or, les plaques photographiques ou les senseurs de nos caméras
ne mesurent pas le champs, mais l'intensité, c'est à dire I(q) = E(q)E ∗ (q). Les
clichés de diusion des Rayons γ sont donc une mesure directe de la fonction
d'auto-correlation des concentrations moléculaires.

Exercice : le démontrer.

71
6 Convolution et corrélation.

6.3 Approfondissement : Relation entre l'équation


de diusion et les convolutions.
Montrer que la solution de l'équation de la chaleur est juste un lissage (une
convolution) de la condition initiale. Introduire la notion de mollifying function
et faire le lien avec la fonction de Green.

Problèmes avancés.

1. Diusion des corrélations.

Soit une fonction (représentant par exemple une concentration ou une proba-
bilité, ...) obéissant à l'équation de diusion

∂c ∂2c
=D 2
∂t ∂x
Et soit la fonction d'auto-corrélation spatiale

Z ∞
G(y; t) = c(x; t)c(x + y; t)dx
−∞

Démontrer que G obéit également à une équation de diusion, mais avec un


coecient de diusion de 2D. [indication : il sut d'échanger soigneusement les
dérivations et les intégrales]

2. Ressort soumis au bruit thermique.

(Discuter ergodicité). Supposons une particule dans un puits harmonique, sou-


mis au bruit thermique. Son équation du mouvement s'écrit :

d2 x dx
m +ν + kx = f ξ(t) (6.5)
dt2 dt
m est la masse de la particule, ν est la force visqueuse et k la constante du
ressort. Ceci constitue une équation diérentielle stochastique, et le formalisme a
été développé par Langevin vers 1910. La partie gauche de l'équation est celle du
mouvement classique d'une particule attaché à un ressort. La partie droite tient
compte des chocs aléatoires des molécules du uide qui entourent la particule et
qui font subir à cette dernière une force. La fonction ξ est une fonction aléatoire,
c'est à dire qu'on ne connaît pas vraiment la valeur qu'elle peut prendre, mais
seulement la probabilité qu'elle prenne une certaine valeur. Cela généralise le

72
6 Convolution et corrélation.

10
8
6
4
2
0
0 1 2

Figure 6.2  |x̃(ω)|2 en fonction de pour ω0 = 1 et ν = 0.1, 0.2, 0.4.

f est l'amplitude
concept de variable aléatoire utilisé en calcul des probabilités.
KB T /a, où a est la taille de la particule.
des chocs aléatoires et vaut
On suppose que la fonction ξ est de moyenne nulle, c'est à dire qu'il y a autant
de chance, en moyenne, que les chocs mènent vers la gauche que vers la droite. De
plus, on suppose que la connaissance de la valeur de ξ(t) ne nous donne aucune
information sur ξ(t + τ ), quelque soit τ. On exprime cela par
Z
G(τ ) = ξ(t)ξ(t + τ ) = δ(τ ) (6.6)

où bien sûr, δ désigne le delta de Dirac. Cela n'est pas trop dur à imaginer :
comme ξ(t + τ ) est complètement indépendant de ξ(t), il y'a autant de chance
qu'il soit de signe contraire que de même signe. A la longue, l'intégral doit tendre
vers 0. Par contre, ξ 2 (t) > 0, son intégrale tend donc vers l'inni (reportez vous
à notre discussion sur ce genre d'objet au chapitre précédent). En prenant la TF
de l'éq.(6.6), on obtient :

˜ ξ˜∗ (ω) = 1
G̃(ω) = ξ(ω)

En notant ω02 = k/m et en prenant la TF de l'équation (6.5), nous obtenons :

˜
(ω02 − ω 2 + iνω)x̃(ω) = (f /m)ξ(ω)

ce qui nous donne, grâce à la relation (6.6),

˜ 2 (f /m)
|x(ω)| = (6.7)
(ω02 − ω 2 )2 + ν 2 ω 2
Cette fonction présente un pique à ω ≈ ω0 , comme on peut le constater sur la
gure 6.2.
1
On peut faire beaucoup de chose à partir de là. En physique, on réalise souvent
des ressorts de taille micrométrique pour exercer des forces sur des bactéries où

1. Par des pinces optiques, magnétique, des micropipettes, ...

73
6 Convolution et corrélation.

des molécules biologiques. Un problème majeur est celui de calibrer le ressort,


c'est à dire trouver sa constante k. L'équation (6.7) nous montre qu'il existe une
façon extrêmement robuste de trouver cette constante : (i) enregistrer la position
x(t) d'une particule au bout de ce ressort au cours du temps (ses uctuations
thermiques) ; (ii) prendre la TF de x(t) ; (iii) élever le module de la TF au carré ;
(iv) trouver pour quelle fréquence, cette dernière présente un maximum : nous
avons la fréquence propre de l'oscillateur.

3. Somme de deux variables aléatoires et théorème limite centrale.

Une variable aléatoire X est une fonction qui produit un nombre aléatoire à
chaque réalisation. On peut se donner l'image d'un boitier éléctronique qui ache
un nombre à chaque fois qu'on appuie sur un bouton (une réalisation). C'est par
exemple, le jeté d'un dés ; ou le temps entre l'arrivé de deux particules sur notre
senseur ; ou la direction prise par une amibe au fond d'une boite de petri quand on
la photographie toute les 30 secondes ; ou le cours de la bourse à chaque seconde ;
...
On caractérise une variable aléatoire (que l'on suppose continue) par sa densité
de probabilité f (x) : la probabilité d'observé une réalisation de X entre x et x+dx
est égale à f (x)dx . Cela veut dire concrétement que si on eectue par exemple 106
réalisations (mesurons l'arrivé d'un million de particule sur notre senseur), une
proportion f (x)dx des réalisation tomberont dans l'intervalle [x, x + dx[. D'après
ce que nous venons de dire, il est évident que f (x) ≥ 0 et
Z +∞
f (x)dx = 1
−∞

Soit maintenant deux variables aléatoires indépendantes 2 X et Y de densité


f (x) et g(y). Quelle est la densité de la variable Z = X +Y (comme par exemple la
somme de deux dés) ? En probabilité, le et d'événement indépendant se traduit
par le produit de chacune des probabilité et le ou par l'oprération somme des
probabilités. Appelons h(z)dz la probabilité d'observer Z dans l'intervalle [z, z +
dz[. La probabilité d'observer un tel événement égale la probabilité d'observer X
dans [x, x + dx[ et Y dans [z − x, z − (x + dx) + dz[ pour un x quelconque. Cet
événement a la probabilité

f (x)dx.g(z − x)(dz − dx) = f (x)g(z − x)dxdz + O(dx2 )


Cette probabilité est pour une valeur x quelconque. Il faut donc ajouter la pro-
babilité pour toutes les valeur possible de x pour obtenir h(z)dz , ce qui nous
donne Z +∞
h(z) = f (x)g(z − x)dx
−∞

2. une réalisation de l'une n'inue pas sur le résultat de la réalisation de l'autre.

74
6 Convolution et corrélation.

La densité de probabilité de la somme de deux variables aléatoires égale le produit


de convolution des densités de chaque variable.
La moyenne d'une variable aléatoire X est notée hXi et est dénie par

Z +∞
hXi = xf (x)dx
−∞

De façon générale, pour une fonction quelconque V, on dénit

Z +∞
hV (X)i = V (x)f (x)dx
−∞

Exercices. La suite des exercices suivantes vous entraine à manipuler les pro-
babilités. Si vous les suivez dans l'ordre jusqu'au bout (bravo), cela vous ménera
à la démonstration du théorème de la limite centrale : quelque soit la densité de
probabilité de la fonction X (pourvu qu'elle est une variance nie), la densité de
probabilité de la moyenne de
√ N de ces variables est une gaussienne, de largeur
σ/ N , où σ2 est la variance de X. L'ensemble de ces exercices constitue un bon
cours de probabilité.

1. Démontrer que haXi = a hXi où a est un nombre réél. De façon générale,


quelle est la densité de probabilité de Z = aX ?
2. Démontrer que hX + Y i = hXi + hY i. Que vaut la moyenne de la variable
PN
Z = (X + Y )/2 ? Soit ZN = (1/N ) i=1 Xi où les variables aléatoire Xi
sont identique. Que Vaut hZn i ?
2
3. La variance d'une variable est dénie par V ar(X) = X 2 − hXi . Que vaut
V ar(X + Y ) ? Et V ar(ZN ) ?
4. La fonction caractéristique φX (t) d'une variable aléatoire X de densité f (x)
est dénie par
φX (t) = hexp(itX)i
Quelle est la relation entre la densité de X et la fonction φX (t) ?
0 00
5. Démontrer que φX (0) = 1 ; φX (0) = i hXi ; φX (0) = − X 2 ; généraliser
ce résultat. Vous pouvez obtenir ce résultat par le développement de Taylor
de la fonction exponentielle.

6. Que valent φaX (t) et φX+Y (t) ? Que vaut φZn (t) ?
7. Démontrer que de façon générale, φX (t) a un maximum absolue à t = 0.
2
8. On suppose que hXi = 0 et V ar(X) = σ . Développer φZn (t) à l'ordre√2 en
t autour de son maximum, et démontrer qu'elle tend vers exp(−σ 2 t/2 N ).
n
[Help : (1 + x/n) → exp(x)]. En déduire la densité de probabilité de Zn .
Généraliser ce résultat au cas hXi =
6 0.

75
6 Convolution et corrélation.

4. Fluctuation de courbure des polymères.

D'abord, un peu de géométrie diérentielle. Soit une courbe dans le plan. Nous
pouvons par exemple la décrire par l'équation y(x) ou par ses coordonnées para-
métrique x(t), y(t). Si nous appelons l'extrémité de la courbe A, la longueur d'arc
à partir de A jusqu'à un point P est dénie par

Z tp
s= ẋ2 (t) + ẏ 2 (t)dt
0

Appelons l'angle θ(s) l'angle que fait la tangente à la courbe au point P avec
l'axe y. En faite, nous pouvons parfaitement dénir la courbe par la donnée
de la fonction θ(s). Par exemple, θ = Cte décrit une droite, θ = s/R décrit
un cercle de rayon R. Cette description d'une courbe s'appelle semi-intrinsèque.
La courbure de la courbe à la position s est donnée par κ = (dθ)/ds)2 . Nous
pouvons également décrire une courbe dans le plan par la donnée de κ(s) de
façon totalement intrinsèque, sans réference à aucun système d'axe.
Soit maintenant un polymère (à deux dimensions) de longeur L (L → ∞ à
l'échelle moléculaire, comme l'ADN par exemple) baigant dans un bain à tempé-
rature T. L'énergie emmagasinée dans le polymère par unité de longeur dépend
de la courbure de sa conformation et s'écrit
Z L
E= Bκ2 (s)ds
0

où B est le module de rigidité du polymère. Quelle est la correlation entre les


tangentes à la courbe distant de σ? Plus exactement, démontrer que

hu(s).u(s + σ)i = exp(−σ/LP )

où u(s) est le vecteur tangent à l'abscisse curviligne s et Lp = B/KT .


Ceci est loin d'être un calcul anodin : c'est comme cela que l'on mesure la
rigidité des polymères biologiques comme l'actin, les microtubules ou l'ADN.

5. Correlation dans le mouvement brownien.

Calculer la fonction d'autocorrelation pour un mouvement brownien x(t).

76
7 Les transformées de Laplace.
7.1 Entrée en matière.
Les mathématiciens ont inventé de nombreux transformation intégrale d'une
fonction, parmi lesquels nous avons vu les transformées de Fourier. Une autre
transformation extrêmement utilisée est celle de Laplace. Les transformées de
Laplace sont les cousins des transformées de Fourier. Leur relation est celle de
la fonction exponentielle et de la fonction sinus ou cosinus. Comme vous vous
souvenez, pour prendre la TF, on multiplie la fonction f (t) par exp(iωt) et on
intègre entre, notez le bien, −∞ et +∞. Pour les TL, on multiplie la fonction par
exp(−st) et on intègre entre, cette fois, 0 et +∞

Z ∞
f˜(s) = TL[f (t)] = f (t) exp(−st)dt
0

Les conventions veulent que la variable conjuguées à t s'appelle ω pour les TF


et s pour les TL. La fonction f (t) est appelée l'original, et sa TL son image.
Dans la plupart des livres que vous consulterez, l'image est noté F (s), mais nous
maintenons ici la convention f˜(s) ou fˆ(s). Il existe de nombreux avantages et
désavantages à utiliser les TL à la place des TF. D'un point de vue pratique,
toutes les deux transforment des équations diérentielles linéaires en des équa-
tions algébriques. Mais il est dicile d'intégrer les conditions initiales dans les
TF, tandis qu'elles s'introduisent naturellement dans les TL, comme nous en ver-
rons des exemples plus bas. Prenons le cas d'un signal temporel x(t). Pour les
transformées de Fourier, ce signal a toujours existé (depuis t = −∞ ) et existera
toujours. Pour les Transformée de Laplace, le signal ne commence son existence
qu'à un temps ni (t = 0).
Un autre (grand) avantage des TL est que nos exigences sur le comportement
de f (t) quand t→∞ sont beaucoup plus légères : comme la fonction exp(−st)
décroît très rapidement à l'inni (pour Re(s) > 0 ), la transformée de Laplace de
la plupart des fonctions usuelles existera. Voyons quelques exemples.

1. TL[1] = 1/s
2. TL[exp(−at)] = 1/(s + a)

77
7 Les transformées de Laplace.

3. TL[t] = 1/s2 . Pour le démontrer, il sut d'eectuer une intégration par partie :
Z +∞
1 +∞ −st
Z
te−ωt dt = 0 + e dt
0 s 0
1
=
s2

4. TL[tk ] = k!/sk+1 (démontrez cette relation par récurrence.)

Le désavantage des TL est que nous perdons le concept de bases orthogonales.


Nous avons vu qu'en étendant un peu notre espace de fonctions à l'espace des
distributions, nous pouvions considérer les fonctions exp(iωt) comme une base
orthogonale. Rien de tel n'existe pour les TL et les fonctions exp(−st), quoi qu'on
fasse, ne sont pas orthogonales les uns aux autres. Avec la perte d'orthogonalité,
nous perdons également la possibilité d'inverser (facilement) une transformée de
Laplace et la belle symétrie entre une fonction et sa transformée.

7.2 Opérations sur les TL.


Les opération sur les TL sont très similaire, à un facteur i près, aux opérations
sur les TF. Par contre, il faut vraiment bien les maitriser, puisque prendre la
TL inverse est souvent une operation complexe (au sens propre) et qu'on prefère
toujours se ramener à des expessions connues.

Changement d'échelle. TL[f (t/a)] = af˜(as) La démonstration est triviale.

Translation. TL[ exp(−at)f (t)] = f˜(s + a) Multiplier l'originale par une expo-
nentielle revient à translater l'image. Par exemple, TL[1] = 1/s, donc TL[exp(−at)] =
1/(s + a).

Multiplication par t. Si on dérive f˜(s) par rapport à s, nous avons df˜(s)/ds =


− tf (t) exp(−st)dt. Donc, TL[tf (t)] = −df˜(s)/ds 1 . Par exemple, comme TL[1] =
R

1/s, alors TL[t] = 1/s2

Dérivation. Elle contient un élément supplémentaire, et c'est cela le grand


intérêt des TL.
Z ∞ Z ∞
t=∞
f 0 (t) exp(−st)dt = f (t) exp(−st)|t=0 + s f (t) exp(−st)dt
0 0

1. Vous remarquerez que nous avons souvent été négligent avec l'orthodoxie des convergences
et des dérivations sous le signe somme. Mais vous pouvez facilement démontrer qu'ici au moins,
nous n'avons pas enfreint de règles ( démontrez le).

78
7 Les transformées de Laplace.

Ce qui nous amène à

0
TL[f (t)] = −f (0) + sTL[f (t)]
En généralisant cela, nous voyons que TL[f ”(t)] = s2 f˜(s) − sf (0) − f 0 (0), et ainsi
de suite.

Intégration. Il n'est pas dicile, en utilsant la règle de dérivation ci-dessus, de


démontrer que
Z t
TL[ f (τ )dτ ] = (1/s)f˜(s)
0

Exemple 1. Résolvons l'équation diérentielle

x0 (t) + νx(t) = αt (7.1)

avec la condition initiale x(t = 0) = x0 . Par la méthode classique, on résoudrai


d'abord l'équation homogène pour obtenir x = C exp(−νt), ensuite nous allons
supposer que C = C(t), obtenir une autre équation diérentielle pour C, la
résoudre et nalement utiliser la condition initiale pour obtenir la solution nale.
Prenons plutôt la TL des deux cotés de l'éq.(7.1) :

α
−x0 + (s + ν)x̃(s) =
s2
Nous avions déjà, à l'exemple 3 ci-dessus, calculé la TL[t], et nous avons juste
utilisé ce résultat. En général, les TL des fonctions les plus connues sont entrepo-
sées dans des tables et on ne fait souvent que les consulter au lieu de recalculer la
TL (comme pour les tables de logarithme). En décomposant en fraction simple,
nous avons
ν 1 11 1 1
= 2− +
s2 (s + ν) s ν s ν s+ν
et la solution de notre équation s'écrit :
 
α 1 11 1 1 x0
x̃(s) = 2
− + + (7.2)
ν s ν s ν s+ν s+ν
Bon, nous connaissons la TL de la solution, et il faut inverser le processus pour
calculer x(t). Or, nous savons que l'originale de 1/s2 est t, l'originale de 1/s est 1
, l'originale de 1/(s + ν) est exp(−νt) (souvenez vous de la règle de translation).
Nous avons donc
α α
x(t) = t − 2 (1 − e−νt ) + x0 e−νt (7.3)
ν ν
On peut vérier, en l'injectant directement dans l'équation (7.1) que ceci est bien
la solution. Notez avec qu'elle facilité la condition initiale a été prise en compte
dans la solution.

79
7 Les transformées de Laplace.

f (t) f˜(s)
f (t/a) ˜
af (as)
exp(−at)f (t) f˜(s + a)
d ˜
tf (t) − ds f (s)
f 0 (t) ˜
sf (s) − f (0)
f ”(t) s2 f˜(s) − sf (0) − f 0 (0)
f (n) (t) n˜ Pn
s f (s) − k=1 sn−k f (k−1) (0)
Rt 1 ˜
0
f (τ )dτ s f (s)

1 1/s
t 1/s2
exp(−at) 1/(s + a)
sin(at) ou cos(at) a/(s2 + a2 ) ou s/(s2 + a2 )
sinh(at) ou cosh(at) a/(s2 − a2 ) ou s/(s2 − a2 )
−t cos(at) + √(1/a) sin(at) 2a2 /(s2 + a2 )2
√ √
1/
√ t π/ s

t ( π/2)s−3/2
1/(t + 1) exp(s)Γ(0, s)

Table 7.1  Résumé des règles de manipulation des TL et un petit dictionnaire


des TL élémentaires.

Exemple 2. x(3) + 3ẍ + 3ẋ + x = 1 avec les conditions initiales nulles.


Résoudre
3 3 2
La TL nous donne x̃(s) = 1/s(s+1) = (1/s)−1/(s+1) −1/(s+1) −1/(s+1).
2
En se reportant à la table (7.1), on trouve immediatement x(t) = 1 − (t /2 + t +
1) exp(−t).

7.3 Décomposition en fraction simple.


Comme nous avons à utiliser souvent les décompositions en fraction simple,
nous allons faire un petit détour pour rappeler les grands principes.

Cas des racines simples. Soit f˜(s) = p(s)/q(s), où p(s) et q(s) sont des poly-
nômes et qu'en plus, q(s) n'a que des racines simples, i.e. q(s) = (s − a1 )(s −
a2 )...(s − an ). Nous voulons écrire f (s) comme

A1 A2 An
f˜(s) = + + ... +
s − a1 s − a2 s − an

80
7 Les transformées de Laplace.

Soitqi (s) = q(s)/(s − ai ). Nous voyons que qi (s) n'a pas de zero en s = ai . Quand
s → ai , le terme dominant dans f (s) est

p(s) 1 p(a) 1
f˜(s) = . = . + O(1)
qi (s) s − ai qi (a) s − ai

d'où on déduit que Ai = p(ai )/qi (ai ). En plus, comme q(ai ) = 0,

q(s) − q(ai )
lim qi (s) = lim = q 0 (ai )
s→ai s→ai s − ai

quand s → ai . Nous pouvons donc écrire l'original de f˜(s)directement comme

X p(an )
f (t) = exp(an t)
n
q 0 (an )

où la sommation est sur les zeros de q(s).

Exemple : f˜(s) = (3s2 −3s+1)/(2s3 +3s2 −3s−2). Nous avons p(s) = 3s2 −3s+1
3 2 0 2
, q(s) = 2s + 3s − 3s − 2 et q (s) = 6s + 6s − 3. Les zéro du dénominateur
0 0
sont aux s = 1, −2, −1/2. Comme p(1)/q (1) = 1/9, p(−2)/q (−2) = 19/9 et que
0
p(−1/2)/q (−1/2) = −13/18, nous avons
1 1 19 1 1 1
f˜(s) = + −
9s−1 9 s + 2 6 s + 1/2

Cas des racines multiples. Soit maintenant f˜(s) = R(s)/(s − a)n où R(s) est
un quotient de polynôme qui n'a pas de pôles en a. Nous voulons l'écrire sous
forme de
A0 A1 An−1
f˜(s) = + + ... + + T (s)
(s − a)n (s − a)n−1 (s − a)
où T (s) contient le développement en fractions simples autour des autres pôles.
Pour déterminer les coecients Ai nous avons à nouveau à calculer le comporte-
ment de ˜
f (s) pour s → a. Comme R(s) est tout ce qui a de plus régulier autour
de a, nous pouvons le développer en série de Taylor autour de ce point :

R(s) = R(a) + R0 (a)(s − a) + (1/2)R00 (a)(s − a)2 + ...

Ce qui nous donne immediatement

A0 = R(a)
A1 = R0 (a)
...

81
7 Les transformées de Laplace.

Exemple : Trouvons l'originale de f˜(s) = 1/(s2 + a2 )2 . Nous avons

A0 A1 B0 B1
f˜(s) = 2
+ + 2
+
(s − ia) (s − ia) (s + ia) (s + ia)

Nous pouvons bien sûr tout calculer, mais remarquons simplement que dans l'ex-
pression de f˜(s), le changement de s en −s laisse ce dernier invariant. Pour avoir
cette même invariance dans l'expression de f˜(s) une fois décomposée en fraction
simple, nous devons avoir B0 = A0 et B1 = −A1 . Or, d'après ce qu'on vient de
2
dire, autour de la racine s = ia, R(s) = 1/(s + ia) et

1 1
A0 = =−
(s + ia)2 s=ia 4a2

De même,
−2 1
A1 = =
(s + ia)3 s=ia 4ia3
2
Comme l'originale de 1/(s ∓ ia) est t exp(±iat) et que l'originale de 1/(s ∓ ia)
est exp(±t), en regroupant correctement les termes, on trouve que

1 1
f (t) = − t cos(at) + 3 sin(at).
2a2 2a

7.4 Comportement assymptotique.

7.4.1 Comportement pour t → +∞.


Si nous connaissons la transformée de Laplace d'une fonction f (t), nous pou-
vons parfois trouver des approximations de cette fonction quand t → ∞. Par
exemple, les fonctions de Bessel In (t) sont dénies par

1 π t cos θ
Z
In (t) = e cos(nθ)dθ
π 0
2
et il n'est pas dicile de démontrer que la trasnformée de Laplace de I0 (t) est

Iˆ0 (s) = 1/ s2 − 1. Cette tranformée nous
√ permet facilement d'approximer, pour
t  1, la fonction de bessel par exp(t)/ 2πt (gure 7.1). Voyons voir le comment
du pourquoi.
Nous nous sommes peu intéressé jusque là au domaine d'existence de la Trans-
formée de Laplace. Il est évident que pour que la TL ait un sens, il faut que
R∞
0
f (t) exp(−st)dt existe. Pour certaines fonctions comme exp(−t2 ), cette condi-
2
tion est toujours réalisé. Pour d'autres, comme exp(t ), elle ne l'est jamais. Enn,

2. en changeant l'ordre d'intégration sur θ et t, cf exercice 8.

82
7 Les transformées de Laplace.

0.4
I0HtL expH-tL
0.3

0.2

1  , H2 Π tL
0.1

5 10 50 100 500 1000

Figure 7.1  Comparaison des la fonction de Bessel I0 (t) et son approximation


assymptotique (l'axe x est logarithmique)

3
pour la plupart de fonctions usuelles , la condition est réalisée si Re(s) > s0 ,
où s0 est un réél. Par exemple, pour toutes les fonctions polynomiales ou toute
pouissance positive de t, s0 = 0. Pour la fonction cosh(t), s0 = 1.
Souvent, nous nous interessons surtout au comportement de f (t) pour t grand :
nous voulons savoir rapidement si notre particule revient à une position donnée
ou si au contraire, elle part à l'inni, et si elle part à l'inni, à quelle vitesse
elle le fait. Nous allons voir dans la suite que le comportement de f˜(s) autour
de son pôle le plus à droite s0 nous renseigne directement sur le comportement
assymptotique de l'originale. Sans perte de généralité, nous allons supposer par
la suite que Re(s0 ) = 0, puisque si la TL de la fonction f (t) à un pôle en s = a,
la fonction exp(−at)f (t)a un pôle en s = 0. Le comportement assymptotique de
la fonction f (t) s'en déduit donc immediatement.
R∞
Revenons maintenant à notre fonction f (t). Si I = f (t)dt < +∞, c'est que
0
f (t) → 0 quand t → +∞ et nous n'avons pas trop de questions à nous poser
pour son comportement assymptotique. Supposons donc que I n'existe pas, mais
que la TL de f (t) est bien dénie pour Re(s) > 0. Nous pouvons toujours écrire
f (t) = g(t) + h(t), où g(t) contient le terme dominant de f (t) √ quand t → ∞
et h(t) tous les autres. Par exemple, le terme dominant de 1/ t + exp(−5t) +

1/(1 + t2 ) est 1/ t. Nous pouvons formellement écrire que h(t) = o(g(t)) 4 . Il
est évident que pour s → 0, la transformée de laplace est dominée par la TL
de g(t), c'est à dire h̃(s) = o(g̃(s)) quand s → 0 (exercice : le démontrer). Un
simple développement autour du pôle le plus à droite de la TL nous donne donc
directement le comportement assymptotique de l'originale.

3. lire qui ne croient pas plus vite qu'une exponentielle


4. C'est à dire que limt→∞ h(t)/g(t) = 0. Les notations O et o sont dues à Edmund Landau,
mathématicien du premier tiers du vingtième siècle.

83
7 Les transformées de Laplace.

Exemple 1. f˜(s) = 1/s(s + a) pour a > 0 a son pôle le plus à droite à s=


0. Autour de ce point, f˜(s) = 1/as + O(1). Donc, f (t) ≈ 1/a quand t → ∞
( l'original de 1/s est bien sûr 1). Dans cet exemple, et ceux qui suivent, le
lecteur est encouragé à calculer l'originale exacte et vérier le développement
assymptotique.

Exemple 2. f˜(s) = 1/s(s − a)2 pour a > 0. Le pôle le plus à droite est en
s = a. f˜(s) ≈ (1/a)(s − a)−2 quand s → a et donc f (t) ≈ (t/a) exp(−at) quand
t → ∞. Remarquer que nous aurions pû pousser l'approximation un peu plus loin :
f˜(s) ≈ (1/a)(s − a)−2 − (1/a2 )(s − a)−1 et donc f (t) ≈ (t/a − 1/a2 ) exp(−at).

Exemple 3. f˜(s) = 1/(s2 + a2 )2 . La, nous avons deux pôles de même partie
réelle s = ±ia, et nous devons tenir compte des deux. Nous laissons le soin au
lecteur de démontrer que le terme dominant doit être −t cos(at)/2a2 .
Nous avons en faite souvent recours au developpement assymptotique parce que
nous ne savons pas calculer exactement l'originale. Prenons l'équation
√ ẍ + ẋ =
t avec des conditions initiales nulles. C'est l'équation du mouvement d'un
corps soumis à un frottement visqueux et à une force qui grandit comme la
racine du temps. La solution est facilement trouvée en terme de TL :
√ x̃(s) =
( π/2)s−5/2 (s + 1)−1 . Nous ne savons pas calculer
5
l'originale de cette fonction.
Par contre, comme il existe un pôle à zero, le développement assymptotique s'écrit

x(t) ≈ (4/3 π)t3/2 (Le démontrer. Pouvez vous calculer les deux prochaines cor-
rections à ce développement ? ).

7.4.2 Comportement pour t → 0.


Nous disposons d'un théorème analogue pour trouver le comportement de f (t)
autour de t = 0+ si nous disposons de sa transformée de fourier. Il n'est pas
dicile de voir que
f (0) = lim sfˆ(s) (7.4)
s→∞
Ceci découle simplement des règles de TL :
Z ∞
TL[f
0
(t)] = e−st f 0 (t)dt = sfˆ(s) − f (0)
0

Or, quand s → ∞, l'intégrale tend vers zéro, d'où l'égalité (7.4). Nous pouvons
aller bien sûr plus loin. Le développement de Taylor de f (t) proche de t = 0
s'écrit
f (t) = f (0) + f 0 (0)t + (1/2)f 00 (0)t2 + ...
et résulte de la TL inverse du développement assymptotique de sf (s) pour s → ∞.
(voir l'exercice 9).

5. Pas avec notre dictionnaire actuel.

84
7 Les transformées de Laplace.

7.5 Produit de Convolution.


Le produit de convolution de deux fonctions est donné par
Z t
h(t) = f (τ )g(t − τ )dτ (7.5)
0

On note cela par h(t) = (f ?g)(t). Il est facile de démontrer, en échangeant l'ordre
d'intégration, que
h̃(s) = f˜(s).g̃(s)
La solution de beaucoup d'équation diérentielle se met naturellement sous la
forme (7.5).

Exemple : la méthode de la variation des constantes. Nous voulons résoudre


l'équation ordinaire à coecient constant avec second membre

ẋ(t) + ax(t) = f (t)


En prenant la TL, nous trouvons que

1 ˜ x0
x̃(s) = f (s) +
s+a s+a
Comme l'originale de 1/s + a est exp(−at), en utilisant le résultat sur les produit
de convolution, nous trouvons
 Z t 
x(t) = e−at x0 + eaτ f (τ )dτ
0

Ce résultat est connu sous le nom de la méthode de la variation des constantes


et se généralise (à l'aide des décompositions en fraction simple) aux équations de
degrès quelconques.b

7.6 Aperçu des équations intégrales.


Il existe toute une classe d'équation intégrale (qu'on appelle de Voltera) qui
s'écrivent sous la forme :
Z t
f (t) = f (τ )K(τ, t)dτ + λ
0

Dans le cas où le noyau K est symmetrique, c'est à dire qu'il s'écrit sous la forme
K(t − τ ), ces équations admettent une solution simple en terme de transformées
de Laplace. En prenant la TL des deux cotés, on trouve :

λ
f˜(s) = f˜(s)K̃(s) +
s

85
7 Les transformées de Laplace.

c'est à dire que f˜(s) = λ/s(1 − K̃(s)). C'est ensuite un exercice de trouver
l'orginale ou en tout cas son développement assymptotique.

7.7 Aperçu des systèmes de contrôle asservis


(feedback systems).
Quand on conduit une voiture et que l'on tourne le volant ou que l'on appuye
sur la pédale du frein, on n'exerce pas directement une action sur les roues,
mais on actionne des circuits hydroliques qui s'en charge. Ces circuits sont munis
d'automatisme qui règle la pression sur les roues exactement comme demandé,
quelque soit les conditions extérieures. Pour pouvoir eectuer cela, il faut qu'ils
soit munis des mécanismes correcteurs qui constement comparent la direction ou
la pression des roues actuelles à la consigne demandée et réduisent l'erreur. Si
l'on regarde autour de nous, des objets les plus simples comme un réfrigérateur
qui maintient sa température quand on ouvre ou ferme sa porte aux objets les
plus complexes, comme l'ABS ou le pilotage d'un avion, nous sommes entouré
d'automatisme. En cela bien sûr nous ne sommes qu'entrain d'immiter le monde
vivant qui a implanté ces mécanismes à tous les niveaux, de la reproduction de
l'ADN aux mouvements d'une bactérie ou à la marche d'un bipède.

7.8 La physique statistique.


En physique statistique, la fonction de partition Z est une sorte de moyenne
(pondérée par β = 1/KT ) des énergies que peut atteindre un système. Si l'indice
i dénombre les états possibles du système, chacun avec l'energie Ei , alors
X
e−βF = Z(β) = e−βEi
i

La quantité F est appelé l'énergie libre du système.


Il arrive souvent que beaucoup d'état ont la même énergie et dans ce cas, ont
peut les regrouper dans la somme :
X
Z(β) = e−βE n(E)
E

où cette fois, nous sommons sur les energies disponibles au système ; n(E) désigne
le nombre d'états ayant l'énergie E. Si la diérence entre les niveaux d'énergie
est faible par rapport à notre mesure, nous pouvons réecrire la somme ci-dessus
sous forme d'une intégrale
Z ∞
Z(β) = e−βE f (E)dE (7.6)
0

86
7 Les transformées de Laplace.

où f (E)dE est le nombre d'état avec une énergie entre E et E + dE ; toutes les
énergies sont mesurées par rapport à l'énergie minimum du système E0 que nous
choisissons comme référence : E0 = 0.
Ce que nous voyons là est très simple : la fonction de partition est la transformée
de Laplace de la densité d'énergie.

Exemple : l'oscillateur harmonique. Soit une particule dans un champ quadra-


tique, son énergie étant fonction de sa distance au centre : E(x) = kx2 . x ici √
est la
variable qui dénombre les états. Le nombre d'état entre E et E + dE est 1/ kE .
En nous reportant à la table des T.L., nous trouvons la fonction de partition

r
π −1/2
Z(β) = β
k

Problème : Transition de phases. En utilisant la dénition (7.6), démontrez


que la fonction Z(β) est forcèment continue.
Par défnition, une transition de phase (comme l'eau en glace) est une dis-
continuitée de la fonction de partition (ou une de ses dérivées). Vous venez de
démontrer que les transitions de phases ne peuvent pas exister. Où est l'erreur ?
Ceci était un problème majeur de la physique statistique jusque dans les années
1920 et l'invention du modèle d'Ising par le scientique du même nom. Ce modèle
n'a reçu une solution qu'en 1944 par Onsanger. Les années 1970 ont vu appa-
raître les théories mathématiquement sales (dites groupes de renormalisation)
pour traiter les transitions de phases de second ordre. Nous ne disposons à ce
jour pas de théories mathématiques générales satisfaisantes pour les transitions
de phases.

7.9 TL inverse.
Pour pouvoir eectuer les TL inverse, il faut connaître un minimum de la
théorie d'intégration dans le plan complexe. Pour les lecteurs qui en sont familier,
mentionnons la procédure qui est juste une adaptation des TF. Considérons la
fonction f (t) telle que f (t < 0) = 0. Nous pouvons écrire la fonction e−ct f (t)
comme la TF inverse de sa TF :

∞ Z ∞ 
1
Z
e−ct f (t) = e−ct f (t)e−iωt dt eiωt dω
2π −∞ 0

La borne inférieure de la deuxième intégrale commence à zéro puisque la fonction


est nulle pour t < 0. (i) En multilpliant les deux côtés par ect ; (ii) en posant
s = c + iω ; (iii) en prenant soin dans la deuxième intégrale du changement de

87
7 Les transformées de Laplace.

variable dω = ds/i ; (iv) et enn en reconnaissant une TL classique dans l'intégrale


intérieure, nous aboutissons à

c+i∞
1
Z
f (t) = fˆ(s)est ds
2πi c−i∞

l'intervalle]c − i∞, c + i∞[ désigne une droite parrallèle à l'axe imaginaire et de


coordonnée réelle c dans le plan complexe. Il faut choisir c > Re(s0 ), où s0 est le
pôle le plus à droite de la fonction fˆ(s0 ). Nous déférons une discussion plus en
détaille de cette procédure jusqu'au chapitre sur les fonctions complexes.

7.10 Exercices.
1. Trouver la TL des fonctions suivantes : sin(at) ; cos(at) ; sinh(at) ; cosh(at) ;
2 2 2 2
2. Trouver, par la méthode de votre choix, l'original de a /(s + a ) . Help :
2 2 2
Remarquez que vous pouvez écrire cette fonction comme (s + a )/(s +
a ) −s /(s +a ) , et que le dernier terme vaut (1/2)s(−d/ds)(1/(s +a2 ).
2 2 2 2 2 2 2

Il sut ensuite d'utiliser les règles de manipulation des TL pour remonter


à l'originale.
k
3. Démontrez que TL[t ] = k!/sk+1 .
4. Trouver la TL du delta de Dirac.

1/s(1 − e−s ).
P
5. La TL de la fonction escalier n=0 H(t − n) est

6. La TL d'une fonction a−periodique f (t) (f (t + a) = f (t) ) est fˆ(s)/(1 −


Ra
e−as
), où fˆ(s) = 0
f (t) exp(−st)dt.
7. Représentez graphiquement, et trouvez la TL des fonctions suivantes :
P∞ P∞ (t −
n n
a)H(t−a) ; H(t)−H(t−a) ; n=0 (−1) H(t−na) ; n=0 (−1) (t−na)H(t−
na)
8. Les fonctions de Bessel jouent un rôle très important en physique mathéma-
tique. Elles jouent un rôle important pour l'équation de Laplace en coordon-
nées cylindriques, analogue à celui des fonctions circulaires à une dimension.
L'une d'elle est dénie par
Z 2π
I0 (z) = (1/2π) ez cos θ dθ
0
Démontrer que sa T.L. est

1
I˜0 (s) = √
2
s −1
√ √
Démontrez que I0 (t) ≈ (1/ 2π) t exp(t) quand t → +∞. Help : Pour
R
Calculer des R(cos θ, sin θ)dθ, on a interêt à eectuer le changement de
variable u = tan(θ/2)

88
7 Les transformées de Laplace.
1 6

0.8 5

4
0.6
3
0.4
2
0.2
1

1 2 3 4 5 1 2 3 4

Figure 7.2  Les fonctions erf(t) et exp(t)Γ(0, t)

9. Les fonctions de Bessel In (t) obéissent à l'équation dierentielle

t2 u00 (t) + tu0 (t) − (t2 + n2 )u(t) = 0

Démontrer alors que la TL de la fonction u(t) obéit à l'équation

(s2 − 1)û00 (s) + 3sû0 (s) + (1 − n2 )û(s) = 0

Résoudre cette équation pour n = 1 (l'équation se ramène alors à une


équation de premier ordre) et démontrer que sa solution est de la forme

p
û(s) = C0 + C1 / s2 − 1

Sachant que I1 (0) = 0, I 0 (0) = 1/2 et en utilisant le comportement assymp-


totique de sû(s), démontrer que C1 = −C0 = 1. Sachant que I00 (t) = I1 (t),
déduire également la TL de la fonction I0 (t). Enn, en utilisant la relation
de reccurence
2In0 (t) = In−1 (t) + In+1 (t)
Obtenez la forme générale des TL des fonction de Bessel I.
2 z −u2 R
10. La fonction d'erreur est dénie par erf(z) = √ e du (voir gure 7.2).
π 0
Elle joue un rôle fondamentale en probabilité. Démontrer que la TL de

exp(−t2 ) est ( π/2) exp(s2 /4)(1 − erf(s/2). En déduire également la TL de
la fonction erf(t).
R∞
11. La fonction Gamma d'Euler est dénie par Γ(α) = 0 tα−1 exp(−t)dt. Il
n'est pas dicile de démontrer que Γ(α + 1) = αΓ(α) ( le faire ) et donc que
cette fonction est la généralisation de la fonction factorielle n! = Γ(n + 1).
R ∞ α−1
La fonction d'Euler incomplète est dénie par Γ(α, z) = t exp(−t)dt
z
(voir gure 7.2). Son développement assymptotique est donné (pour z → ∞)
α−1
par z exp(−z). Tout ça pour vous demander de démontrer que TL[1/(1+
t)] = exp(s)Γ(0, s). Généraliser se résultat aux puissance négative de (1+t).

89
7 Les transformées de Laplace.

12. Trouver le comportement assymptotique de l'originale de la fonction 1/(s2 +


2 2
a ) . Attention : les deux pôles sont imaginaires pures et contribuent éga-
lement.

13. La fonction de Bessel J d'ordre 0 est dénie par J0 (z) = I0 (iz),et sa TL est
(s2 +1)−1/2 (Pouvez vous le démontrer ?).
p Démontrer que son comportement
assymptotique est donnée par J0 (z) ≈ 2/πz cos(z − π/4).
14. Résoudre ẍ+ω 2 x = b sin(ωt) avec des conditions initales x(0) = x0 et ẋ(0) =
v0 . Notez que c'est l'équation d'un oscillateur harmonique à la résonnance.

15. Résoudre x(3) + 3ẍ + 3ẋ + x = 1 avec les conditions initiales nulles.

16. Résoudre x(4) + 2ẍ + x = sin t avec les conditions initiales nulles.

17. Le mouvement d'une particule dans un champs magnétique peut être ra-
mené à la résolution du système suivant :

ẋ = αy ; ẏ = −αx

où x, y sont les composantes du vecteur vitesse et α une constante propor-


tionnelle au champs magnétique et à la charge de la particule. Les conditions
initiales sont à t = 0 , x = x0 ; y = y0 . Résoudre ce système à l'aide des
transformées de Laplace.

18. Resoudre

ẍ − x + y + z = 0
x + ÿ − y + z = 0
x + y + z̈ − z = 0

√ x(0) = 1 et y(0) = z(0) = ẏ(0) = ż(0) = 0√


avec les conditions initiales .
Sol. :x(t) = (2/3) cosh(t 2)+(1/3) cos t ; y(t) = z(t) = −(1/3) cosh(t 2)+
(1/3) cos t.
19. Donner la solution générale, sous forme de produit de convolution, de l'équa-
tion
y 00 + 2ay + b = f (t)
avec les conditions initiales y(0) = y0 ; y 0 (0) = v0 . Considérer les deux cas
2 2
où a − b 6= 0 et a − b = 0.

Problème : la propagation des ondes.

Nous nous intéressons à nouveau à la résolution de l'équation des cordes vi-


brantes. Nous l'avons déjà rencontré dans le chapitre sur les distributions, et nous
le verrons encore dans la section consacrée aux fonctions de Green. Nous allons ici
utiliser les TL pour résoudre ces équations, avec des conditions initiales données.

90
7 Les transformées de Laplace.

Nous avons vu que les TL sont très bons quand il s'agit d'avoir un début des
temps.

∂2u ∂2u
2
− c2 2 = 0 (7.7)
∂t ∂x
u(x, 0) = f (x) (7.8)

∂t u(x, 0) = g(x) (7.9)

Nous savons sa solution est donnée par

x+ct
1
Z
u(x, t) = f (x − ct) + f (x + ct) + g(ξ)dξ (7.10)
2c x−ct

Nous allons établir la même chose, mais en utilisant de façon combiné les TF
et les TL, ces derniers ayant l'avantage de gérer automatiquement les condi-
tions initiales. Le schéma de la résolution que nous allons mener est la suivante :
−1 −1
TL TF
˜ s) TL
u(x, t) → û(x, s) → û(q, → ũ(q, t)
TF
→ u(x, t). Noter que t ∈ [0, +∞[,
donc nous allons eectuer des TL par rapport à cette variable. Par contre,
x ∈] − ∞, +∞[, donc nous allons procéder à des TF pour cette dernière.

1. En prenant la TL de l'équation (7.7) par rapport à la variable t, démontrer


que
d2 û(x, s)
−c2 + s2 û(x, s) = sf (x) + g(x).
dx2

2. En prenant la TF de cette dernière, demontrer que

˜ s) = s 1
û(q, f˜(q) + 2 2 g̃(q)
c2 q 2 + s2 c q + s2

où f˜ et g̃ sont les TF des fonctions f et g .

3. En prenant la TL inverse, démontrer qu'on obtient

sin(ctq)
ũ(q, t) = f˜(q) cos(ctq) + g̃(q) (7.11)
cq

4. Résultat intermédiare. Démontrer que si la TF de g(x) et g̃(q), alors

x+a
2 sin(aq)
Z
TF
g(ξ)dξ −→ g̃(q)
x−a q

91
7 Les transformées de Laplace.

5. En utilisant le résultat intermédiaire ci-dessus, et les règles de translations


pour les TF, prendre la TF inverse de (7.11) pour obtenir l'équation dans l'espace
direct.

Problème : le théorème H.

Introduction. Nous souhaitons déterminer la fonction c(x, t) obéissant à l'équa-


tion
Z 1 Z ∞ Z ∞
c(x1 )c(x2 )δ (p(x1 + x2 ) − x) dx2 dx1 dp
p=0 x1 =0 x2 =0

−c(x) = 0 (7.12)

δ désigne bien-sûr la distribution δ de Dirac. Cette équation est à la base du


théorème H établit par Boltzmann vers 1870 et forme le c÷ur de la théorie ciné-
tique des gaz et de la physique statistique. Nous allons voir ici qu'aussi intimidant
qu'elle paraisse à priori, cette équation se traite en faite facilement par les outils
que nous avons vus dans notre cours. Du point de vue de la physique, la variable
x dénote l'énergie cinétique ; c(x) est le nombre de molécules ayant l'énergie x;
p désigne le taux de distribution d'énergie après le choc entre deux particules.
Comme les molécules ont une énergie cinétique positive,

c(x) = 0 si x<0 (7.13)

1. Nous pouvons eectuer l'intégrale triple ci-dessus dans l'ordre que nous
voulons. Nous commencerons par intégrer sur x2 . Démontrer alors que l'intégrale
triple se transforme en une intégrale double

Z 1 Z ∞
(1/p) c(x1 )c(x/p − x1 )dx1 dp (7.14)
p=0 x1 =0

En utilisant la condition (7.13), montrer que l'intégrale double ci-dessus se ramène


à
Z 1 Z x/p
(1/p) c(x1 )c(x/p − x1 )dx1 dp
p=0 x1 =0

L'intégrale sur x1 commence à prendre la tête d'un produit de convolution, nous


avons intérêt à passer en TL.

2. Concentrons nous sur l'intégrale sur x1 :

Z x/p
I1 (x) = c(x1 )c(x/p − x1 )dx1
x1 =0

92
7 Les transformées de Laplace.

TL TL TL
et passons en Transformé de Laplace x → β , c(x) → ĉ(β), I1 (x) → Iˆ1 (β).
Nous savons, d'après la règle des dilatation en TL, que TL[f (x/p)] = pfˆ(βp). En
utilisant cette relation, et le résultat sur les produits de convolution, démontrer
que
Iˆ1 (β) = pĉ(βp)2
Et donc que l'équation du bilan (7.12) se met sous la forme

Z 1
ĉ(βp)2 dp − ĉ(β) = 0
p=0

Eectuez un dernier changement de variable évident pour mettre le résultat sous


la forme de
β
1
Z
ĉ(u)2 du − ĉ(β) = 0 (7.15)
β 0

3. Vérier que la fonction


A
ĉ(β) =
β+A
où A est une constante est solution de l'équation (7.15) ci-dessus. [ Pour trouver
cette solution, il sut de remarquer que l'équation (7.15) peut se transformer en
une équation diérentielle de Riccati en dérivant une fois].

R∞
4. Soit T = 0
xc(x)dx ; T représente l'énergie totale du gaz. Démontrer que

∂ĉ(β)
T =−
∂β β=0

En déduire que A = 1/T . En inversant la TL, déduire que la distribution des


énergies dans le système à l'état stationnaire est

1 −x/T
c(x) = e
T
On prétend que cette formule est gravée sur la tombe de Boltzmann.

Problème : le modèle de Glauber.

Les transitions de phase paraissait hors de porté de la physique statistique


jusqu'à ce que Ising propose son modèle de magnétisme dans les années 1920. Il
existe de nombreuse façon de résoudre ce modèle à une dimension où paradoxa-
lement, il n'existe pas de transition de phase. Plus exactement, la transition de
magnétisation arrive seulement quand la température est abaissée à zéro degrés

93
7 Les transformées de Laplace.

Kelvin. En 1963, Glauber a proposé un modèle cinétique équivalent au modèle


d'Ising à une dimension.
Considérons une chaîne de dipôle magnétique, ou spin. Nous supposons que
les spins ne peuvent prendre que deux valeurs, ±1, correspondant aux dipôles
pointant vers le haut ou vers le bas. Quand une majorité de spin pointe dans
une direction, le matériaux devient magnétique. Chaque spin n'interagit qu'avec
ses deux plus proches voisins, et tente d s'aligner sur eux. Plus exactement, il
a une certaine probabilité de s'aligner sur ces voisins ... Plus tard.aboutir au
résultat (7.10)

94
8 Les fonctions de Green.
8.1 Entrée en matière
(insister sur le faite que les CI changent la tête de Green. Surtout, faire une
gure qui serait parlant.). Les fonctions de Green constituent une méthode assez
général de résolution d'équations diérentielles, ou de transformation d'équations
diérentielles en équations intégrales. Elles sont extrêmement utilisée en méca-
nique quantique, où on les appelle des propagateurs, et en théorie des processus
stochastiques. Nous n'aborderons ce sujet que très légèrement ici, juste pour rap-
peler les grands principes de la méthode.
Supposons que nous voulons résoudre l'équation diérentielle

d2 x dx
a +b + cx = f (t) (8.1)
dt2 dt
avec des conditions initiales données x(0) = x0 et x0 (0) = x̃0 . Ceci est par
exemple l'équation du mouvement d'une particule soumise à une force f (t). a et
b peuvent être fonction du temps. Pour résoudre cette équation diérentielle, il
nous faut trouver la solution de l'équation homogène, et lui ajouter une solution
particulière. Nous cherchons justement une solution particulière.
Supposons que nous savons calculer la réponse de la particule à une force
impulsionnelle (genre δ de Dirac) appliquée au temps t0 . Saurions nous calculer
la réponse de la particule à une force générale f (t) ? La réponse est oui : la force
f (t) peut être vue comme une superposition d'impulsion appliquée à diérents
temps. Il sut donc de superposer les réponses aux divers impulsions pour obtenir
la réponse à la force f (t). Plus exactement, on peut écrire
Z ∞
f (t) = f (t0 )δ(t − t0 )dt0 (8.2)
0

ce qui veut dire que la force f (t) est la superposition d'impulsions appliquées au
temps t0 , avec le poids f (t0 ). Revenons à notre équation diérentielle, et appelons
Gt0 (t) la réponse à l'impulsion appliquée au temps t0 . Comme mettre les indices
est un peu lourd comme notation, nous noterons cette fonction plutôt G(t, t0 ). De
par sa dénition, elle doit satisfaire à

d2 G(t, t0 ) dG(t, t0 )
a 2
+b + cG(t, t0 ) = δ(t − t0 )
dt dt

95
8 Les fonctions de Green.

Notez que toutes les dérivations sont faites par rapport à t. Multiplions les deux
côtés de l'équation par f (t0 ). Comme f (t0 ) ne dépend pas de t, on peut la rentrer
à l'intérieur de l'opérateur diérentiel, et écrire :

d2 [f (t0 )G(t, t0 )] d[f (t0 )G(t, t0 )]


a + b + cf (t0 )G(t, t0 ) = δ(t − t0 )f (t0 )
dt2 dt
Intégrons maintenant les deux cotés par rapport à t0 . Comme la dérivation est
par rapport à t, nous pouvons, jetant par dessus bord la décence et l'exigence à
priori de la convergence uniforme, échanger la dérivation et l'intégration.

∞ ∞ Z ∞
d2 d
Z Z
a f (t0 )G(t, t0 )dt0 + b f (t0 )G(t, t0 )dt0 + c f (t0 )G(t, t0 )dt0 =
dt2 0 dt 0 0
Z ∞
δ(t − t0 )f (t0 )dt0 (8.3)
0

Nous remarquons, d'après (8.2), que la droite de l'équation ci-dessus est juste
f (t). Appelons
Z ∞
y(t) = f (t0 )G(t, t0 )dt0 (8.4)
0
et nous voyons donc, d'après (8.3), que y(t) est solution de l'équation (8.1) !
Remarquez l'élégance, nous devons calculer une seule fois la fonction de green
pour une équation diérentielle. Ensuite, quelque soit le membre de droite, la
solution s'obtient par une simple intégration. La solution générale de l'équation
diérentielle s'écrit maintenant

x(t) = C1 x1 (t) + C2 x2 (t) + y(t)

où C1 et C2 sont choisit pour satisfaire les conditions initiales. Nous avons occulté
pas mal de point important. Voyons quelques exemple.

dx/dt + αx = f (t)

La fonction de green est la solution de

dG(t, t0 )/dt + αG(t, t0 ) = δ(t − t0 )

Prenons la TF des deux côtés de l'équation (par rapport à t bien sûr)

exp(−iωt0 )
G̃(ω, t0 ) =
iω + α
H(t)étant la fonction de Heaviside, nulle pour t<0 et 1 pour t > 0, comme vous
vous souvenez, la TF de H(t) exp(−αt) est justement 1/(iω + α). Donc,

G(t, t0 ) = H(t − t0 ) exp(−α(t − t0 ))

96
8 Les fonctions de Green.

Comme vous le remarquez, G(t, t0 ) = 0 si t0 > t. Cela est normal, puisque G(t, t0 )
est la réponse, au temps t, à une impulsion au temps
0
t. Si t 0
est plus tard que t,
la réponse est nulle. Prenons maintenant plusieurs formes de f.
1. f (t) = H(t)t. Alors,

Z ∞
y(t) = H(t0 )t0 H(t − t0 ) exp(−α(t − t0 ))dt0
0
Z ∞
= t0 H(t − t0 ) exp(−α(t − t0 ))dt0
0
Z t
= t0 exp(−α(t − t0 ))dt
0
= (1/α2 )(exp(−αt) − 1) + (1/α)t

2. f (t) = H(t) sin βt. Alors, en suivant les même étapes,

Z t
y(t) = sin(βt0 ) exp(−α(t − t0 ))dt
0
1  −αt 
= βe + β cos(βt) + α sin(βt)
α2 +β 2

Vous voyez ici comment on résout une fois l'équation diérentielle pour la fonction
de Green, et qu' ensuite, il sut d'appliquer une intégration pour trouver la
solution générale.
En langage opératoriel, on écrirai une équation diérentielle comme

L[x] = f

où L est un opérateur diérentiel (dans l'exemple ci-dessus d/dt + α ), c'est à dire


qui transforme une fonction en une autre fonction. La solution de cette équation
s'écrira
x = L−1 [f ]
Trouver la fonction de Green revient à trouver l'opérateur L−1 et ce n'est pas un
hasard donc qu'il comporte une intégration. Si on s'est donné une base, on peut
représenter L par une matrice (innie) et trouver la fonction de Green revient à
inverser cette matrice.
Nous n'avons pas ni avec les fonctions de Green. Supposons que notre équation
est un peu plus compliquée :

d2 x dx
a +b + cx = f (t, x)
dt2 dt

97
8 Les fonctions de Green.

Le membre de droite comporte explicitement un terme avec x, comme par exemple


t.x1/2 ce qui rend la résolution de l'équation nettement plus ardue par les tech-
niques classique. Mais cela ne change rien pour les fonctions de green. La solution
s'écrira toujours
Z ∞
x(t) = C1 x1 (t) + C2 x2 (t) + f (t0 , x)G(t, t0 )dt0 (8.5)
0

Nous avons transformé une équation diérentielle en une équation intégrale. A


priori, nous n'avons pas gagné grand chose, ces dernières étant plus compliquées
à résoudre que les premières. Mais souvent, et surtout en mécanique quantique,
la forme (8.5) se traite bien par la technique des perturbations (objet du prochain
chapitre), et c'est un grand avantage que de pouvoir en disposer. Nous en verrons
des exemples plus bas.

8.2 Le potentiel électrostatique.


Nous avons peut être présenté les fonctions de Green comme quelque chose de
compliqué, mais le lecteur peut remarquer qu'il utilise les fonctions de green de-
puis qu'il a appris l'électrostatique. Si l'on se rappelle, le potentiel électrostatique
φ(r) créé par une charge ponctuelle unité en r0 est

1 1
G(r, r0 ) = (8.6)
4π0 |r − r0 |

Si maintenant nous avons une distribution de charge ρ(r0 ) dans l'espace, le po-
tentiel crée par elle au point r vaut
Z
φ(r) = G(r, r0 )ρ(r0 )dr0 (8.7)

Nous utilisons cette formule depuis la première année du DEUG. Nous savons
par ailleurs que le potentiel obéit à l'équation de Poisson

− ∆φ = ρ/0 (8.8)

Nous oublierons dorénavant le facteur 0 pour alléger les notations.. Il n'est pas
dicile, vue les équations (8.6-8.8) de suspecter que G(r, r0 ) est la fonction de
Green de l'équation de Poisson, c'est à dire qu'elle obéit à

− ∆G(r, r0 ) = δ(r − r0 ) (8.9)

Démontrons ce résultat. Jusque là, nous n'avions manipuler que des TF et des
distributions à une dimension. Leurs généralisation à trois dimension n'est pas

98
8 Les fonctions de Green.

vraiment compliqué. Par exemple, la TF est dénie par


Z
f˜(q) = f (r) exp(−iq.r)dr

où q et r sont des vecteurs à trois dimension et dr désigne le volume innitésimal


dxdydz . En général, les vecteurs sont notés par des caractères gras droits, et leur
norme par le même symbole mais non gras et en italique. Par exemple, q = |q|.
Les opérations sur les TF se généralise également assez facilement. Prenons la
TF des deux cotés de (8.9) par rapport à r :

0
0 e−iq.r
G̃(q, r ) = (8.10)
q2
puisque le numérateur est la TF de la fonction δ translaté de r0 , et que la TF du
2
laplacien d'une fonction est −q fois la TF de la fonction (pouvez vous démontrez
ce résultat ? ). Il nous faut maintenant inverser la TF pour retrouver la fonction
de Green :
0
1 eiq(r−r )
Z
G̃(r, r0 ) = dq (8.11)
(2π)3 q2
Pour eectuer l'intégration, passons aux coordonnées sphériques, où nous prenons
l'axe qz parallèle à (r − r0 ). Dans ce cas, q(r − r0 ) = q|r − r0 | cos θ et dq =
2
q sin θdqdθdφ. L'intégrale (8.11) s'écrit alors
Z 2π Z π Z ∞
0 1 0
G̃(r, r ) = 3
dφ dθ dq sin θ.eiq|r−r | cos θ
(2π) 0 0 0

Une première intégration sur φ ne mange pas de pain et nous sort un facteur 2π .
Ensuite, en posant u = cos θ, le reste s'écrit

∞ +1
1
Z Z
0
G̃(r, r0 ) = dq eiq|r−r |u du
(2π)2 0 −1

et en intégrant sur u, nous trouvons



1 sin q|r − r0 |
Z
0
G̃(r, r ) = dq
2π 2 0 q|r − r0 |
Un changement de variable évident nous donne

1 1 sin q
Z
0
G̃(r, r ) = dq
2π 2 |r − r0 | 0 q
Nous avons donc bien mis en évidence la dépendance en 1/|r − r0 |. L'intégrale
maintenant n'est qu'une constante que nous pourrions calculer à l'aide de la
théorie des fonctions analytique et vaut π/2. Ce qui nous donne exactement
l'expression (8.6).

99
8 Les fonctions de Green.

problème. Il n'est pas dicile de généraliser la technique ci-dessus et trouver


la fonction de Green de l'opérateur ∆ − λ2 , où λ est un réel. En langage claire,
résolvez
∆G(r, r0 ) − λ2 G(r, r0 ) = δ(r, r0 )
Ceci est extrêmement utilisé en mécanique quantique. Le lecteur y reconnaîtra
peut être un semblant d'équation au valeur propre.

8.3 La propagation des ondes


Avant d'attaquer le problème de la fonction de Green de la corde vibrante,
nous avons besoin de quelques résultats intermédiaire. Quelle est par exemple la
TF de la fonction f (t) = H(t) sin(ω0 t) ? Cette question n'a pas de sens à priori,
puisque la fonction sin n'est pas sommable ( et ne tend surement pas vers zero
quand t → ∞). Mais nous pouvons calculer la TF de H(t) exp(−νt) sin(ω0 t) et
une fois la TF calculée, faire ν → 0. Cela nous donnera, et on laisse au lecteur le
soin de le démontrer, que
ω0
f˜(ω) =
−ω 2 + ω02
Quelle est maintenant la réponse d'un oscillateur (initialement au repos) à une
force impulsionnelle ? Nous devons résoudre

d2 y
+ ω02 y = f0 δ(t) (8.12)
dt2
En faisant un allerretour dans l'espace de Fourier, nous voyons que la solution
est
f0
y(t) = H(t) sin(ω0 t)
ω0
Nous somme maintenant bien outillé pour calculer la réponse d'une corde vibrante
(initialement au repos) à une force impulsionnelle. Nous notons u(x, t) la hauteur
de la corde à l'abscisse x et au temps t :

∂2u 2
2∂ u
− c = f0 δ(x)δ(t)
∂t2 ∂x2
En prenant la TF par rapport à la variable x, nous trouvons pour ũ(q, t)
∂ 2 ũ
+ c2 q 2 ũ = f0 δ(t)
∂t2
Mais cela est justement l'équation (8.12) que l'on vient de résoudre, et nous avons
donc
sin(ct q)
ũ(q, t) = f0 H(t)
cq

100
8 Les fonctions de Green.

1
2
3
4

Figure 8.1  La solution u(x, t) en fonction de x pour les temps t0 , 2t0 ,...

Il nous reste maintenant à inverser la TF, ce qui est facile si on se souvient de la


TF de la fonction Porte Π(x/a) rencontrée au chapitre 3 :

f0 x
u(x, t) = H(t)Π( )
c ct
(Exercice : Est-ce tout cela dimensionnellement correct ?) Cette solution est re-
présenté sur la gure 8.1 .
Il est évident que si au lieu d'appliquer la force f0 en x = 0 nous avions appliqué
la force fx0 en x = x0 , la solution, qui est la fonction de Green de la propagation,
s'écrit
fx0 x − x0
G(x, t; x0 , 0) = H(t)Π( )
c ct
Si la corde était initialement au repos et on y appliquait la force distribuée
f (x)δ(x), la déformation de la corde est donnée par

+∞
x − x0
Z
u(x, t) = c−1 H(t) f (x0 )Π( )dx0
−∞ ct
Z x+ct
= c−1 H(t) f (x0 )dx0
x−ct

L'inuence d'un événement en x0 (à l'instant t = 0 ) ne peut être ressenti en


x à l'instant t que si cet événement était à l'intérieur du cône d'inuence de ce
dernier, c'est à dire que si x − ct < x0 < x + ct. En terme moins mystique, une
perturbation se propage à vitesse c.

8.4 Propagateur pour l'équation de Shrodinger.

8.5 Disposer d'une base propre.

101
9 Les opérateurs linéaires.
9.1 Introduction
Une des tâches que l'on rencontre régulièrement en physique est de résoudre des
équations diérentielles linéaires. De façon générale, nous pouvons représenter ces
équations par L† = {, où y est la fonction inconnue à rechercher, f une fonction
connu, et L un opérateur diérentiel.
 Par exemple, l'équation de la chaleur peut

s'écrire Lu = q(x, t), où L = ∂t − D∂§∈ et q(x, t) est le terme de source. A
priori, la recherche des solutions est du domaine de l'analyse. Nous allons voir
cependant que nous pouvons ramener la solution de ces équations dans le domaine
de l'algèbre matricielle des systèmes à n équations et n inconnus 1 du genre AX =
B. Le très grand avantage est que pour faire de l'algèbre, nous n'avons, en gros,
2
que besoin d'addition et de multiplication . Les transformées de Fourier et de
Laplace que nous avons rencontrés dans ce cours étaient des exemples particuliers
d'outils qui nous permettaient de ramener l'analyse à l'algèbre, bien adaptées à
une certaine classe d'équations. Nous allons généraliser cette approche et voir
toute la puissance de feu que cela nous procure.
Depuis le début de ce cours, nous insistons fortement sur le concept de vecteur.
Au premier chapitre, nous avons vu que dans un espace vectoriel, nous pouvons
dénir des bases : cela nous permet de manipuler les vecteurs à l'aide de colonnes
(ou de lignes) de nombres. Nous avons également vu que si nous disposons d'un
produit scalaire, cela facilite grandement la tache de trouver les coecient d'un
vecteur dans une base orthogonale.
Un vecteur peut être un objet aussi simple qu'un vecteur usuel du plan eu-
clidien, ou un objet beaucoup plus complexe tel qu'une fonction. Prenons le cas
d'une fonctions f . Une fonction est une machine qui prend un nombre en entrée
et produit un nombre en sortie. Nous pouvons choisir plusieurs représentations
pour une même fonction. Par exemple, si nous choisissons la base de fourier avec
les vecteurs de la base exp(iqx), f s'écrira comme une superposition de ces fonc-
tions, chacun avec un poids f˜(q) (nous avons absorbé ici le facteur 1/2π dans la
dénition de f˜ ) :
Z +∞
f (x) = f˜(q) exp(iqx)dq
−∞

1. n étant inni en l'occurrence, mais ceci n'induit pas de dicultés particulière


2. Voir également le chapitre 17 sur la signication d'une équation diérentielle

102
9 Les opérateurs linéaires.

L'intégral ici n'eectue rien d'autre que la superposition des vecteurs de base avec
leurs poids correspondants. Il est également usuel de représenter la fonction f par
un tableau qui à chaque entrée numérique, associe un nombre, et on note cela
f (x) (la notation est un peu confuse). En réalité, cela revient à représenter une
fonction f sur la base des δ de dirac, où chaque valeur f (x) est le poids associé
à un dirac centré sur x :
Z +∞
f (x) = f (y)δ(x − y)dy
−∞

A nouveau, l'intégral ne fait rien d'autre que de superposer des vecteurs de la


base.
Revenons maintenant au concept général de vecteur. Soit l'espace vectoriel E.
Nous pouvons dénir des opérations qui transforment un vecteur dans un autre,
et cela de façon linéaire. Dans l'espace des vecteurs du plan euclidien, la rotation
ou la projection sur un axe sont de telles opérations. Par exemple, la rotation de
la somme de deux vecteurs égale la somme de leurs rotations : R(e1 +e2 ) = Re1 +
Re2 . Dans l'espace des fonctions inniment dérivables, l'opération dérivation D
est une opération linéaire : elle transforme un vecteur (une fonction) dans une
Rx
autre, et cela de façon linéaire. De même, l'opération intégration I[f ] = 0
f (y)dy .
De façon général, nous appelons, dans l'espace des fonctions, un opérateur linéaire
comme une machine qui prend en entrée une fonction et produit en sortie une
autre fonction, et fait cela de façon linéaire :

O[λf1 + µf2 ] = λO[f1 ] + µO[f2 ]

où λ et µ sont des scalaires et f1 et f2 des fonctions.

Exercices. Soit l'opérateur X qui prend une fonction f en entrée et produit la


fonction multipliée par x en sortie : X[f (x)] = xf (x) [exemple : X[sin(x)] =
x sin(x)]. Démontrer que c'est un opérateur linéaire. Qu'en est il de l'opéra-
teur X 2 : X 2 [f (x)] = x2 f (x) ? Soit V (X) un opérateur tel que V (X)[f (x)] =
V (x)f (x). Est ce que ce dernier est linéaire ? Même question pour l'opérateur
1 : 1[f (x)] = f (x). L'opérateur 0 est l'opérateur qui associe à n'importe qu'elle
fonction la fonction 0. Est-il linéaire ? De façon général, l'opérateur λ associe
à une fonction f la fonction λf ( il faut avouer que la notation est vraiment
confuse entre l'opérateur λ et le scalaire λ ; on s'y habitue vite cependant). Soit
l'opérateur de translation T [f (x)] = f (x + ) ; démontrer qu'il est linéaire.

Note sur les notations. Pour manipuler les opérateurs linéaires, la coutume
est de laisser tomber les signes du genre () et []. Ainsi, nous écrivons Of où
même pire, Of (x) à la place de O[f (x)]. La confusion est gênante quand on écrit
par exemple, Xf (x) = xf (x). X ici est un opérateur, f (x) et xf (x) sont des

103
9 Les opérateurs linéaires.

3
fonctions ; Xf (x) est la fonction qui résulte de l'application de X à f. Pour
éviter un peu ces confusions, la convention que nous suivrons dans ce cours et de
toujours noter les opérateurs par des lettres majuscules.

9.2 L'algèbre des opérateurs.


Se donner un algèbre est se donner un ensemble E ou l'on dénit les deux opéra-
tions+ et . (produit) entre ses membres, avec toutes les propriétés d'associativités
usuelles que vous connaissez : soit a, b, c ∈ E , alors

a + b a.b ∈ E
a+b = b+a
a(b + c) = ab + ac ; (a + b)c = ac + bc
(ab)c = a(bc)

Nous devons avoir quelques propriétés de plus pour mériter le nom d'algèbre. Il
faut qu'il existe des éléments neutre vis à vis des deux opérations, qu'on appelle
0 et 1 : a + 0 = 0 et a1 = 1a = a. De plus, les inverses des éléments vis à vis de +
et de . doivent exister : pour chaque élément a, il doit exister un élément unique,
qu'on appelle −a, tel que a + (−a) = 0 ; de même, il doit exister un élément un
−1
élément unique qu'on note 1/a ou a tel que a.(1/a) = (1/a)a = 1 (pour a 6= 0).
L'ensemble des nombres (rationnels ou réel), équipé de + et de . usuel, constitue
un algèbre. C'est un cas un peu particulier, puisqu'en plus, la multiplication y
est commutative (ab = ba). Mais toutes les théorèmes qui ont été démontré pour
l'algèbre des nombres sans invoquer la commutativité du produit sont valable
pour n'importe qu'elle autre algèbre.
Nous pouvons dénir un algèbre pour les opérateurs linéaires. Nous devons
d'abord préciser le sens de l'égalité entre opérateurs. Nous dirons que O1 = O2
si le résultat de l'application de ces deux opérateurs à une fonction est le même,
4
quelque soit la fonction : ∀f, O1 f = O2 f .
3. A vrai dire, c'est encore pire : f est une fonction, f (x) est un nombre. A nouveau, on a
l'habitude de ne pas toujours distinguer explicitement les deux choses et laisser le boulot au
cerveau. Dans ce cas, le cerveau agit comme un vulgaire compilateur C, testant constamment
le type des notations qu'on utilise.
4. Il est évident que ∀f est une condition exagérément demandeuse et n'a pas de sens en
général. Si par exemple, l'opérateur contient des dérivées d'ordre n, nous devons comprendre
∀f comme : quelque soit f  n−fois dérivable. De même si l'opérateur vient avec des conditions
aux bords. A chaque fois, nous supposerons l'ensemble des fonctions comme compatible avec la
dénition de l'opérateur. Nous n'entrerons pas plus dans le détail lors de ce cours, pour ne pas
alourdir chaque assertion par un train de précautions et de conditions d'applicabilités. Dans la
majorité des cas, nous supposons de nous travaillons avec l'ensemble des fonctions L2 [−∞, +∞]
au moins deux fois continuement dérivalble. Ceci surtout impose à nos fonctions qu'elles et leurs
dérivée →0 quand leur argument → ∞.

104
9 Les opérateurs linéaires.

L'opération + entre opérateurs hérite directement sa dénition de l'opération


5
+ entre les fonctions O1 + O2 est l'opérateur qui, appliqué à
: L'opérateur
une fonction, produit la fonction O1 f + O2 f (bien noter que là, l'addition est
entre deux fonctions). L'opération . est la combinaison d'opérateur : O1 O2 est
l'opérateur qui à la fonction f , associe la fonction O1 [O2 [f ]]. On peut armer
maintenant que l'ensemble des opérateurs linéaires muni de + et de . constitue
une algèbre. Les opérateurs 0 et 1 sont les éléments neutres de l'addition et
de multiplication. Dans la suite de ce cours, l'ensemble des fonctions auxquels
ces opérateurs s'appliquent est l'ensemble des fonctions L2 au moins deux fois
dérivable.
Toutes les notations que nous utilisons dans l'algèbre classique peuvent être
utilisées pour l'algèbre des opérateurs. Par exemple, X2
est eectivement X.X .
Si l'on désigne par∂x et ∂y les opérateurs de dérivation par rapport à x et y , alors
∂x2 − ∂y2 = (∂x − ∂y )(∂x + ∂y ). Il faut juste faire attention à la commutativité :
en général, deux opérateurs ne commutent pas : O1 O2 6= O2 O1 . Cela ne veut
pas dire que l'on ne peut pas trouver deux opérateurs qui commutent, l'exemple
précédent de ∂x et ∂y le montre. Simplement, il ne faut pas le présumer à l'avance.

Exemple 1. DX −XD = 1 (bien noter que ceci est une égalité


Démontrons que
DX[f (x)] = (d/dx) (xf (x)) = xf 0 (x) + f (x) et
entre opérateurs). Nous avons
0
XD[f (x)] = xf (x). Donc (DX − XD)[f (x)] = f (x) : Le résultat d'application
de DX − XD à une fonction est le même que l'application de l'opérateur 1, d'où
l'égalité entre les opérateurs.

Dénition. On appelle commutateur de deux opérateurs O1 et O2 , l'opérateur


O1 O2 − O2 O1 . Il est usuel de noter ce dernier [O1 , O2 ].
Le commutateur joue un très grand rôle en mécanique quantique. Depuis le
livre de Paul Dirac en 1930, la mécanique quantique est formulée à travers les
relations de commutations.

Fonctions d'opérateurs. Beaucoup de fonctions usuelles sont dénies à l'aide de


n
P
séries algébriques, comme par exemple, exp(x) =
n x /n!. Puisque l'on dispose
d'une algèbre pour les opérateurs linéaires, nous pouvons faire de même et dénir
des fonctions d'opérateurs, comme par exemple exp(O) ou log(1 + O), qui sont
elles mêmes des opérateurs linéaire. Par exemple, pour l'opérateur D et le scalaire
,

X
exp(D) = (1/n!)n Dn
n=0

5. De même que dans l'espace des fonctions, l'opération + est héritée de l'addition entre les
nombres : la fonction f +g est la fonction qui associe au nombre x le nombre f (x) + g(x).

105
9 Les opérateurs linéaires.
P∞
et le résultat de son application à une fonction f (x) produit la fonction n=0 (1/n!)n f (n) (x
c'est à dire la fonction f (x + ). L'opérateur exp(D) n'est rien d'autre que l'opé-
rateur de translation T vu plus haut. Bien sûr, dès que l'on parle de suite et
série innie, nous avons besoin de la notion de convergence. La convergence dans
l'espace des opérateurs hérite sa dénition de la convergence dans l'espace des
fonctions : nous dirons que la suite On converge vers O si la suite des fonctions
On f converge vers la fonction Of quelque soit f (revoir la note 4).
Disposer des fonctions d'opérateurs nous permet de résoudre symboliquement
nombres d'EDP. Prenons d'abord l'équation diérentielle ordinaire

dy/dt = ay (9.1)

avec la condition initiale y(t = 0) = y0 où a et y0 sont des scalaires ne dépendant


pas de temps. La solution bien connue est y(t) = exp(ta)y0 . La valeurs de la
fonction à un temps ultérieur t s'obtient en appliquant (multipliant) le scalaire
exp(ta) à la condition initiale.
Soit maintenant l'EDP de premier ordre

∂t ψ − ∂x ψ = 0 (9.2)

où ψ(x, t) est une fonction des deux variables x, t ; la condition initiale étant
ψ(x, t = 0) = ψ0 (x), ψ0 (x) étant une fonction connue de la variable x. Nous
pouvons écrire cette équation sous forme opératorielle

∂ψ/∂t = Dψ

où D = ∂/∂x est un opérateur qui ne dépend pas de t. En s'inspirant de l'exemple


de l'équation ordinaire(9.1), nous pouvons donner la solution comme

ψ(x, t) = exp(t.D)ψ0 (x)

Nous savons par ailleurs que l'opérateur exp(tD) n'est rien d'autre l'opérateur
translation d'une quantité t, Tt . La solution s'écrit donc

ψ(x, t) = ψ0 (x + t)

Ceci est la solution exacte de l'EDP (9.2) que nous pouvons obtenir soit par
des transformées de fourier-laplace , soit par la méthode des caractéristiques du
chapitre 15. Ceci n'est pas une analogie. Les même règles d'algèbre (et d'analyse)
que nous appliquons aux fonctions ont été dénies pour les opérateurs et nous
donnent le droit de les manipuler symboliquement de la même façon. Voyons cela
d'un peu plus près. La fonction f (t) = exp(ta) est donné comme la série

X
exp(ta) = tn an /n!
n=0

106
9 Les opérateurs linéaires.

sa dérivée (qui coïncide avec la dérivée terme à terme de la série) s'écrit (en jouant
sur l'indice de sommation)
X
f 0 (t) = tn an+1 /n!
n=0
X
= a tn an /n!
n=0
= af (t)
et c'est pour cela que cette fonction est la solution générale de (9.1). En utilisant
les mêmes règles de manipulation pour l'algèbre d'opérateurs, nous voyons que
l'opérateur exp(tD) possède comme dérivée par rapport au temps l'opérateur
D exp(tD). La fonction ψ(x, t) = exp(tD)ψ0 (x) a donc pour dérivée par rapport
au temps la fonction D exp(tD)ψ0 (x), c'est à dire Dψ(x, t).
De façon générale, nous pouvons avoir des EDP du genre

∂ψ/∂t = Hψ
où H est un opérateur spatial ( ne dépendant que de la variable x ) plus compliqué
que le simple opérateur de dérivation spatiale D, mais la discussion ci-dessus reste
valide et nous pouvons donner la solution comme

ψ(x, t) = exp(tH)ψ(x, t = 0)
L'opérateur exp(tH) n'est plus alors une simple translation, mais le principe
reste le même : la fonction solution à un temps ultérieur t est donnée par l'ap-
plication de l'opérateur exp(tH) à la fonction condition initiale. L'opérateur
exp(tH) est appelé, à juste titre, l'opérateur de l'évolution temporelle. Cette fa-
çon de présenter les choses est appelée, en mécanique quantique, l'interprétation
d'Heinsenberg (voir plus bas pour une digression historique). Evidemment, cette
façon de résoudre l'équation ne nous sert à rien si nous ne savons pas calculer
exp(tH). Nous verrons plus bas les outils que les mathématiciens ont développé
pour calculer ecacement ce genre de fonction d'opérateurs.

Exercices.

1. Identité de Jacobi. Démontrer que pour trois opérateurs A, B, C , nous avons


[A, [B, C]] + [B, [C, A]] + [C, [A, B]] = 0

2. Démontrer que D2 + X 2 = (D + X)(D − X) + 1 = (D − X)(D + X) − 1.


En déduire [D − X, D + X] et [D2 + X 2 , D ± X]. [indication : Utiliser la relation
[D, X] = 1 ].

107
9 Les opérateurs linéaires.

3. Commutateur des opérateurs. Démontrer que les opérateurs O et f (O)


comutent. f (x) est une fonction analytique dans le voisinage de x = 0. Même
chose pour g(O) et f (O). Démontrer que si A et B commutent, alors f (A) et
g(B) commutent.

4. Dans l'espace des opérateurs linéaires sur les fonctions à trois variables, nous
dénissons Lz = X∂y − Y ∂x ; Lx et Ly sont dénis cycliquement à partir de cette
dernière dénition. Calculer [Lα , Lβ ]( α, β = x, y, z ). Donner la dénition de L2α
L = α Lα . Calculer [L2 , Lα ].
2
P 2
et de

5. Opérateur rotation. En utilisant les règles de dérivation en chaîne, démontrer


que

= Lz
∂φ
que représente alors l'opérateur exp(αLz ) ? [(r, θ, φ) sont les coordonnées du point
en coordonnées sphérique]

6. exponentiel d'un opérateur. démontrer que

d
exp(tA) = A exp(tA)
dt
où A est un opérateur linéaire. Help : Utiliser le développement de l'exponentiel
et les règles habituelles de la dérivation.

7. exponentiel d'un opérateur (encore). Démontrer que exp(P −1 AP ) = P −1 exp(A)P


où A, P sont deux opérateurs linéaires.

8. Commutation et exponentiel. Soit la matrice


 
0 −x
A=
x 0

Calculer A2 . En déduire une expression générale pour An selon que n est pair ou
impair. Démontrer alors que
 
cos x − sin x
exp(A) =
sin x cos x
Help : Décomposer la somme en terme pair et impair, et utiliser le développement
en série des fonctions sin cos. Soit maintenant les deux matrices
et
   
0 −x 0 0
C= , D=
0 0 x 0

108
9 Les opérateurs linéaires.

Démontrer que C 2 = D2 = 0 et en déduire eC .eD . Que peut ont dire de eC eD et


C+D
e ? Est ce que C et D commutent ?

9. . eA+B Pour deux opérateurs A et B qui ne commutent pas à priori, démon-


trer que
Z t
e(A+B)t = eAt + eA(t−s) Be(A+B)s ds
0
Cette relation, appelé en mécanique quantique relation de Dyson, est très utile
pour évaluer l'exponentiel d'un opérateur, si exp(At) est connu et que la matrice
de l'opérateur B est très creuse. [indication : Quel est la solution de l'équation
y 0 − ay = f (x) ? Obtenir une équation analogue pour l'opérateur exp(A + B)t].
Proter pour donner l'expression de exp(A + B).

10. Equation d'onde. Résoudre par la méthode des opérateur l'équation

∂2u ∂2u
2
− c2 2 = 0
∂t ∂x
avec les conditions initiales u(x, 0) = f (x) et ∂t u(x, t)|t=0 = g(x) en l'écrivant
sous la forme symbolique ∂ 2 u/∂t2 − c2 D2 u = 0 et en vous inspirant de la solution
de l'équation ordinaire u00 − a2 u = 0.

9.3 Représentation matricielle des opérateurs.


Le grand avantage de disposer d'une base est de pouvoir manipuler les vecteurs
à l'aide des nombres. Le même avantage est obtenu pour les opérateurs. Par
exemple, étant donné un vecteur du plan euclidien, nous n'avons pas à nous
munir de compas et de rapporteur pour eectuer une rotation, mais seulement à
eectuer des additions et des multiplications sur des colonnes de chires. Voyons
comment ce la fonctionne.
Soit un opérateur linéaire R dans un espace E que nous avons équipé d'une
base {e1 , ...en }. Soit un vecteur v quelconque. Notre but est de pouvoir calculer
le résultat de l'application de R à v, qui est un autre vecteur d' E. Nous pouvons
décomposer v dans la base donnée :

X
v= aj ej
j

et comme R est linéaire,


X
R.v = aj (R.ej )
j

109
9 Les opérateurs linéaires.

Pour entièrement caractériser l'opérateur R, nous avons simplement besoin de


connaître l'action qu'il eectue sur chaque élément de la base. Par ailleurs, chaque
R.ei ( pour i = 1, ..., n ) est un vecteur de l'espace E, et donc décomposable sur
la base {e1 , ...en } : X
R.ej = rij ei (9.3)
i

Donc, pour entièrement connaître R, il sut de connaître les n × n nombres rij .


Nous pouvons alors connaître le résultat de l'application de R à n'importe quel
vecteurs de l'espace.
X
R.v = rij aj ei (9.4)
i,j

Il est habituel de représenter la décomposition de R.ej comme la j−ième co-


lonne d'un tableau de nlignes et appeler le tableau une matrice.

Exemple 1. Rotation dans le plan euclidien. Caractérisons la rotation de π/2


dans la base orthonormée habituelle du plan euclidien (ex , ey ). Nous savons que
R.ex = ey = 0ex + 1ey . La première colonne de la représentation matricielle de R
dans cette base sera donc (0, 1). De même, R.ey = −1ex + 0ey . La représentation
de R est donc  
0 −1
R=
1 0
Il est très important de faire la distinction entre l'opérateur R et sa représentation
matricielle. La représentation matricielle est comme une photo de l'opérateur :
elle dépend de la base choisie , comme la photo dépend du point de vue du
photographe et de l'humeur de la personne qui se fait photographié. Mais la
photo n'est pas la personne.

Exemple 2. Dérivation dans l'espace des fonctions. Choisissons la base de


fourier {eq = exp(iqx)}. La base est bien sûr innie, (et même très innie !), mais
cela n'a pas d'importance. Nous avons

D.eq = iq eq

La représentation matricielle de D dans la base de fourier ne comporte que des


éléments diagonaux. Les éléments dqq0 de la matrice de D sont donc donnés par
dqq0 = 0 si q 6= q 0 et par dqq = iq . Le faite que D soit diagonale dans la base de
fourier est la raison de son utilisation pour la résolution de l'équation d'onde ou
de la chaleur. L'application de D à une fonction quelconque donne

Z +∞
Df (x) = iq f˜(q) exp(iqx)dq
−∞

110
9 Les opérateurs linéaires.

ce qui n'est rien d'autre qu'une réécriture de l'expression (9.4).


Nous voyons à travers ce dernier exemple un fait important. Peut importe que
notre espace soit ni ou inni, à partir du moment où nous disposons de bases
(ni, inni discret ou inni continu ) et que les convergences sont assurés, nous
pouvons manipuler les opérateurs linéaires comme des matrices.

Base orthonormale. Nous avons vu au premier chapitre que disposer d'un pro-
duit scalaire (., .) et d'une base orthonormale facilite énormément les chose. Soit
{e1 , ...en } une base orthonormale, c'est à dire
P (ei , ej ) = δi,j et soit la décomposi-
tion d'un vecteur quelconque v:v= ai ei . Alors
X
(v, ek ) = ( ai ei , ek )
i
X
= ai (ei , ek )
i
= ak

Le coecient ak de la décomposition du vecteur v sur la base {ei } n'est rien


d'autre que le produit scalaire entre v et ek . Le même principe nous donne les co-
ecient rij d'un opérateur dans une base orthonormée. En partant de l'expression
(9.3), nous voyons que
rij = (ei , R.ej )
Pour trouver rij , il sut d'applique R à ej et prendre le produit scalaire de ce
dernier avec ei .

Exercices.

1. Soit la base de fourier {1, cos(2πnx/L), sin(2πnx/L)} pour les fonctions


dénie sur [0, L]. En ordonnant correctement les éléments de la base, donner
l'expression de l'opérateur D et D2 dans cette base.

2. Soit les fonctions d'Hermite

dn
hn (x) = Cn (−1)n exp(x2 /2) exp(−x2 ) (9.5)
dxn
Les premières fonctions sont (en multipliant par exp(−x2 /2) ) 1, 2x, 4x2 −2,... Les
coecients Cn que nous n'explicitons pas assurent que les fonctions sont normées.
On peut démontrer, avec un peu d'eort, que les fonctions hn sont deux à deux
orthogonales et forment une base.

111
9 Les opérateurs linéaires.

Démontrer que pour l'opérateur

H = −D2 + X 2

nous avons Hhn (x) = (2n + 1)hn (x). Donner alors la représentation de H dans
la base des hn .

3. Opérateur D dans la base des Bessel. Soit les fonctions de Bessel In dénie
par
π
1
Z
In (x) = ex cos θ cos(nθ)dθ
π 0
Démontrer que
In0 (x) = (1/2) (In−1 (x) + In+1 (x))
Les fonctions exp(−x)In (x) (n = 0, 1, ...) forment une base. Donner l'expression
de la matrice de l'opérateur D dans cette base. [ Très important dans les pro-
blèmes de matrices tridiagonal. ]

4. Montrer que si L'opérateur M commute avec tous les autres opérateurs,


alors M = αI . [Help : donnez vous une base quelconque (e1 , ..., en ) et considerer
l'opérateur projection sur e1 : P1 ej = δi,j e1 . En utilisant la commutation de
M avec cet opérateur et d'autres opérateurs de projection, démontrer que la
matrice de M dans cette base est diagonale. Ensuite, considérer un opérateur
de permutation cyclique Πei = ei+1 et considérer sa permutation avec M : en
déduire que tous les élements diagonaux de M sont alors égaux.]

laguerre,...

9.4 Valeurs et Vecteurs propres.


Quand on travail avec un opérateur linéaire et que l'on souhaite résoudre une
EDP qui lui est associée, certaines fonctions (ou vecteur) ont un rôle privilégié.
On appelle vecteur propre ( eigenvector ) d'un opérateur O un vecteur vn 6= 0 tel
que
Ovn = λn vn
où λn est un scalaire qui est appelé valeur propre du vecteur vn .
En géométrie plane, pour l'opérateur de projection sur l'axex, les deux vecteurs
ex et ey sont des vecteurs propres, avec les valeurs propres 1 et 0. En géométrie à
trois dimensions, les trois vecteurs ex et ey et ez sont des vecteurs propres de la
projection sur l'axe x, le premier associé à λ = 1, les deux autres à λ = 0. Dans le
plan, Pour l'opération de rotation de π , tous les vecteurs du plan sont des vecteurs

112
9 Les opérateurs linéaires.

propres associés à la valeur λ = −1 (remarquer cependant que Rπ = −I ). Enn,


la rotation de π/2 n'a pas de vecteurs propres.

Exemple. Dans l'espace des fonctions,exp(iqx) est vecteur propre de l'opérateur


D = ∂x iq . Les fonctions sin(qx) et cos(qx) sont les vecteurs
avec la valeur propre
2 2
propres de l'opérateur D avec λ = −q . Les fonctions d'Hermite hn (x) que nous
2 2
avons rencontrer plus haut sont fonctions propres de l'opérateur −D + X avec
la valeur propre λn = (2n + 1).
Si les vecteurs propres sont susamment nombreux pour former une base, on
les appelle une base propre. Evidemment, la représentation d'un opérateur dans
sa base propre est diagonale.
Pouvoir disposer d'une base propre accélère (ou rend possible) la solution des
problème. Prenons le système à deux équations et deux inconnu

2x + 3y = 4
x − 2y = 1

formellement, nous pouvons le représenter comme Au = B où A est la matrice

 
2 3
1 −2

u = (x, y)T et B = (4, 1)T . A est la représentation matricielle d'une application


T T
linéaire dans la base e1 = (1, 0) et e2 = (0, 1) . La résolution de ce système
nécessite quelques opérations d'addition et de combinaison. Par contre, le système

2x = 4
3y = 1

se résout immédiatement comme deux équations indépendantes. Formellement,


on pouvait l'écrire Au = B où cette fois A est la matrice

 
2 0
0 3

dans la base e1 , e2 , la matrice de l'opérateur A est diagonale, ce qui permet de


ramener la résolution d'un système de 2 équations à deux inconnus à la résolution
de deux équations à une inconnue. Evidemment, un système 2 × 2 est facile à
résoudre, pour un système de 4×4 ou 1000×1000, le gain est déjà plus appréciable.
Dans l'espace de dimension inni de Hilbert, trouver une base propre est souvent
la seule possibilité de résoudre un problème, comme nous le verrons plus bas.

113
9 Les opérateurs linéaires.

9.5 Disposer d'une base propre orthogonale.


Le très grand avantage de disposer d'une base propre orthogonale (ou encore
mieux, orthonormale) est de pouvoir résoudre des équations aux dérivées par-
tielles. Nous avons vu une application de cette méthode dans le chapitre sur les
séries et transformées de Fourier. Nous allons voir cela dans des cas plus généraux
(ou généralisables).
Supposons que nous voulons résoudre l'équation aux dérivées partielles

∂t ψ(x, t) = Hψ(x, t) (9.6)

où l'on suppose que l'opérateur H n'a que des composantes spatiales. Les condi-
tions initiales et aux limites de cette équation sont les suivantes :

ψ(x → ±∞, t) = 0
ψ(x, 0) = g(x)
la fonction tend vers zéro pour les grand x ; à l'instant t = 0, la fonction recherché
prend la forme de f (x). Supposons que nous connaissons une base orthonormale
6
{fn (x)} dans laquelle l'opérateur H est diagonale :

Hfn (x) = λn fn (x)


A chaque instant t, nous pouvons décomposer la fonction (inconnu) ψ(x, t) sur la
base des {fn } :

X
ψ(x, t) = an (t)fn (t)
i=0
Les an (t) sont les coecients de cette décomposition et varient bien sûr d'un
instant à un autre. En utilisant cette décomposition dans l'équation (9.6) nous
7
obtenons

X ∞
X
a0n (t)fn (x) = λn an (t)fn (x)
i=0 i=0
Comme les fn constituent une base, les coecients de la décomposition sont
unique et
an (t) = an,0 exp(λn t)
Il nous reste juste à trouver les coecients an,0 ; ceci s'obtient en utilisant la
condition initiale

X
g(x) = an,0 fn (x)
i=0

6. Nous supposons que les fonctions fn sont compatibles avec les conditions aux bords :
fn (x → ±∞) = 0.
7. Nous supposons que l'on peut intervertir les opération de sommation et de dérivation par
rapport au temps.

114
9 Les opérateurs linéaires.

et donc
an,0 = hfn (x), g(x)i
Résumons la méthode. On décompose la condition initiale sur la base des fonctions
propres. L'amplitude de chaque composante an (t) varie exponentiellement avec
l'exposant λn . Il sut de recombiner ces composantes à un temps ultérieurs t
pour recalculer la fonction ψ en ce temps là :


X
ψ(x, t) = hψ(x, 0), fn (x)i exp(λn t)fn (x) (9.7)
i=0

Cette façon de calculer la fonction ψ est appelé en mécanique quantique l'inter-


8
prétation de Schroedinger .

Exemple : oscillateur harmonique. En mécanique quantique, l'équation d'une


particule dans un potentiel harmonique s'écrit (en choisissant convenablement les
unités)
∂2
 
∂ψ 2
i = − 2 +x ψ
∂t ∂x
D'après l'exercice que nous avons vu sur les fonctions d'Hermite, il n'est pas
dicile d'expliciter la solution sous la forme de

X
ψ(x, t) = an e−i(2n+1)t hn (x)

Comparaison Schroëdinger-Heisenberg. L'interprétation de Schroëdinger et


Heisenberg sont bien sûr équivalente. Reprenons l'équation (9.6) . Dans l'inter-
prétation d'Heisenberg, la solution s'écrit

ψ(x, t) = etH ψ(x, 0) (9.8)

comme nous l'avons indiqué, la fonction ψ au temps t s'obtient en appliquant


l'opérateur exp(tH) à la fonction ψ au temps 0. Dans sa base propre (les fn (x)
ci-dessus), l'opérateur H est diagonal. En utilisant la dénition de l'opérateur

X
exp(tH) = (1/n!)tn H n
n=0

8. Heisenberg et Schroedinger ont formulé ces deux approches dans les années 1925-28 quand
les méthodes d'analyse fonctionnelle n'étaient pas encore popularisées chez les physiciens. La
contribution de Von-Neuman était de montrer, en important les concepts développés par Hilbert
en mathématiques, que les deux approches étaient équivalentes. Dirac à mis la dernière main à
l'édice en 1932 en formulant l'ensemble de façon extrêmement élégante.

115
9 Les opérateurs linéaires.

nous voyons que l'opérateur exp(tH) est également diagonal dans cette base,
et ses éléments diagonaux s'écrivent ( (exp(tλ1 ), (exp(tλ2 ), ...(exp(tλn ), ...). En
notation matricielle, nous avons

 
λ1 0 . .

 0 λ2 0 

H=
 . 0 λ3 . 

 . . . . 
. .

et
etλ1
 
0 . .
 0 etλ2 0 
tH
 tλ3

e =
 . 0 e . 

 . . . . 
. .
Si maintenant nous exprimons la fonction ψ(x, 0) dans la même base

X
ψ(x, 0) = hψ(x, 0), fn (x)i fn (x)
n

nous voyons que l'interprétation d'Heisenberg (9.8) exprime exactement la même


chose que l'interprétation de Schroëdinger (9.7).

Fonctions d'opérateurs. Le paragraphe précédent nous indique comment cal-


culer une fonction d'opérateur, même quand nous ne connaissons pas la série
de la fonction . Soit l'opérateur A, diagonal dans sa base propre (e1 , e2 , ...) et
possédant les valeurs propres (λ1 , λ2 , ...). L'opérateur f (A) est dénie de telle
façon que sa représentation dans la même base soit diagonale, avec les éléments
(f (λ1 ), f (λ2 ), ...).

9.6 Opérateurs hermitiens.


Dans la théorie des opérateurs linéaire, une certaine classe d'opérateur qu'on
appelle hermitien joue un rôle fondamental, puisqu'on peut démontrer que ces
opérateurs sont diagonalisable et qui apparaissent très souvent dans les problèmes
de physique.
Nous supposons dorénavant que nous disposons d'un produit scalaire (., .).On
appelle l'adjoint d'un opérateur O l'opérateur O† tel que quelque soit les deux
vecteurs u, v
(u, Ov) = (O† u, v)

116
9 Les opérateurs linéaires.

Supposons que le produit scalaire est déni sur le corps des réels. Alors (u, v) =
(v, u). Si dans une base (que nous prenons orthonormale pour plus de simplicité,
mais sans nécessité aucune) l'opérateur O est représenté par la matrice Oij =
(ei , Oej ), on peut démontrer sans diculté que pour la matrice de l'adjoint,

Oij = Oji : on interverti les lignes et les colonnes d'une matrice pour obtenir
celle de son adjoint. La matrice résultante est appelé la transposée. Si le produit
† ∗
scalaire est déni sur le corps des complexes, alors Oij = Oji .

Un opérateur est dit self-adjoint ou hermitien si O = O.

Exemple. L2 (qui donc tendent


Dans l'espace des fonctions réelles ou complexes
vers 0 x → ±∞), l'opérateur D n'est pas hermitien : une intégration par
pour
partie montre que (u, Dv) = −(Du, v). Par contre, deux intégrations par partie
2
montrent que l'opérateur D est hermitien. De même, l'opérateur iD est Hermi-
tien pour les fonctions complexes.
Les opérateurs hermitiens ont quelques propriétés remarquables, parmi lesquels
les suivants que nous demandons au lecteur de démontrer/découvrir à travers les
exercices.

Exercices.

1. Les valeurs propres d'un opérateurs hermitiens sont réelles : Si Ax = λx,


A = A† , alors λ ∈ R. [indication : calculer (x, Ax) et (x, A† x)]

2. Les vecteurs propres associés à deux valeurs propres distinctes sont ortho-
gonales : Si Ax1 = λ1 x1 , Ax2 = λ2 x2 , A = A† , λ1 6= λ2 , alors (x1 , x2 ) = 0.

[indication : calculer (x1 , Ax2 ) et (x1 , A x2 ).

3. Démontrer, dans l'espace des fonctions L2 que les valeurs propres de l'opéra-
2
teur −D sont positifs. [indication : il sut de démontrer que ∀x, (x, −D2 x) ≥ 0,
ce qui peut s'obtenir en eectuant une intégration par partie. De tels opérateurs
sont appelés dénie positif.].

4. V (x) possédant un minimum absolu E : ∀x ∈ R,V (x) ≥


Soit la fonction réelle
E . Démontrer d'abord V est hermitien [dénition : V.f (x) =
que l'opérateur
V (x)f (x)] ; Démontrer ensuite que toutes ses valeurs propres sont ≥ E . [indi-
cation : il sut de considérer (u, (V − E)u) pour une fonction u quelconque et
démontrer que sa valeur est toujours ≥ 0]. En combinant avec le résultat de la
question précédente, que pouvez vous déduire pour l'opérateur

H = −D2 + V

117
9 Les opérateurs linéaires.

5. Pour un opérateur hermitien, le minimum de (x, Ax) avec la contrainte


(x, x) = 1 est fournit par le vecteur propre de la matrice associé à la plus petite
des valeurs propres ; la valeur propore est juste un multiplicateur de lagrange
(mieux rédiger).

6. Dans l'espace des fonctions L2 à trois variables dénies sur R3 , démontrer


que l'adjoint de l'opérateur gradient est l'opérateur −divergence, et vice et versa,
tandis que l'adjoint du rotationnel est lui méme.

9.7 Méthodes opératorielles, algèbre de Lie.


En algèbre classique, pour résoudre un problème, on essaye de le décomposer en
terme plus simple. Par exemple, pour résoudre x2 −3x+2 = 0, on peut remarquer
que l'on peut la ramener à la forme (x − 1)(x − 2) = 0 ; on remarque ensuite que
pour que ce produit soit 0, il sut qu'un des termes soit nul, et qu'il sut donc
de résoudre les deux équations x−1 = 0 et x−2 = 0 pour avoir les solutions du
problème. Or, ces deux dernières équations sont soluble par des techniques que
nous connaissons déjà.
Les opérateurs linéaires possèdent un algèbre. On peut se demander si on ne
peut pas entreprendre la même démarche pour décomposer des EDP compliquées
en systèmes plus simple. La réponse est oui si on fait attention aux conditions
aux limites et si on garde en tête que l'algèbre des opérateurs est non commuta-
tive. Nous n'allons pas donner ici un exposé de ces méthodes, mais préférerons
l'illustrer à travers deux exemples.

9.7.1 L'oscillateur harmonique en mécanique quantique.

L'opérateurH = −D2 + V (X) joue un rôle très important en mécanique quan-


tique. Appelant ψ la fonction d'amplitude, l'équation de Schroedinger est de la
forme
∂ψ
i = Hψ
∂t
Nous avons vu au 9.6 qu'il est hermitien est que toute ses valeurs propres sont
supérieures à E0 , la valeur minimum de la fonction V (x). L'opérateur −D2 joue
le rôle de l'énergie cinétique et l'opérateur V (x) celui de l'énergie potentielle ;
l'opérateur H est appelé Hamiltonien du système. Nous travaillons dans l'espace
L2 ]−∞, +∞[ et la gestion des conditions aux limites ne pose pas trop de problème
(ψ(x → ±∞) = 0 ). Nous avons vu au 9.5 que résoudre cette équation revient à
trouver les valeurs et vecteurs propres de l'opérateur H . Prenons le cas particulier
de l'Hamiltonien
H = −D2 + X 2

118
9 Les opérateurs linéaires.

d'une particule se trouvant dans un potentiel harmonique. Nous savons que toutes
les valeurs propres sont > 0. Nous avions donné en exemple plus haut les fonctions
et valeurs propres de cet hamiltonien. Nous allons voir que nous pouvons trouver
ces fonctions sans résoudre aucune équation diérentielle, un peu comme faire
du beurre avec de l'eau. Il sut juste de manipuler l'algèbre des opérateurs et
surtout de leur commutateur. L'exemple que nous allons suivre et le prototype
de ce genre de calcul et nous le donnons donc avec un peu de détail.
Comme [D, X] = 1, nous pouvons décomposer l'hamiltonien :

H = (−D + X)(D + X) + 1 = (D + X)(−D + X) − 1

Notons que l'opérateur X est hermitien X = X† et que D† = −D. Nous pouvons


donc poser

A = D+X
A† = −D + X

et récrire H = AA† − 1= A† A + 1. Ce qui implique naturellement que [A, A† ] = 2.


Par ailleurs, on peut démontrer facilement que pour trois opérateurs quel-
conque, [F G, F ] = F [F, G] et [F, F G] = F [F, G]. Cette petite gymnastique nous
permet d'obtenir

[H, A† ] = [A† A + 1, A† ]
= [A† A, A† ]
= 2A† (9.9)

L'équation (9.9) est un cas particulier d'un opérateur d'échelle. Avoir à sa dis-
position de telles relations est d'un très grand avantage comme nous allons le
voir.

Lemme. Si ψE est une fonction propre de H associée à la valeur propre E,


alors A† ψE est une fonction propre de H associée à la valeur propre E + 2.
Vous voyez ici l'avantage : si on connaît une valeur propre et une fonction
propre, on peut en trouver beaucoup d'autre par l'application successif de l'opé-
rateur A† . La démonstration est immédiat :

HA† ψE = (2A† + A† H)ψE


= (E + 2)A† ψE

Nous pouvons eectuer les même démarche pour A et démontrer que HAψE =
(E − 2)AψE . Comme nous savons que tous les valeurs propres sont > 0, il existe
donc forcément une valeur propre minimum que nous appelons  (noter que 0 <

119
9 Les opérateurs linéaires.

 < 2). Toute les autres valeurs propres sont donc de la forme (2n + ), avec
n ∈ N.
Il nous reste maintenant à déterminer cette valeur . Appelons ψ0 la fonction
propre associée à . Nous devons alors obligatoirement avoir

Aψ0 = 0 (9.10)

sinon nous aurions des valeurs propres négatives. De là, nous pouvons naturelle-
ment déduire que
Hψ0 = ψ0
Et par conséquent,  = 1. Les valeurs propres de l'opérateur H sont donc de la
forme En = 2n + 1. Quand je vous disais qu'on fait du beurre avec de l'eau !
Noter que la relation (9.10) est juste une équation diérentielle

dψ0 /dx + xψ0 = 0

avec les conditions ψ0 → 0 pour x → ±∞. Cette équation est simple à résoudre

ψ0 (x) = C exp(−x2 /2)

Les autres fonctions s'obtiennent à partir de là (cf l'exercice 2).

Exercices.

1. Donner les matrices des opérateurs A et A† de l'oscillateur harmonique dans


la base des fonctions propres de H.

2. En appliquant de façon récursive l'opérateur A† à ψ0 , démontrer que la fonc-


tion propre ψn est bien de la forme donné par l'équation (9.5).

3. Guider susement le lecteur pour résoudre l'atome d'hydrogène.

120
10 Les systèmes Sturm-Liouville.
10.1 Introduction.
1
Nous allons traiter dans ce chapitre la théorie générale des équations diéren-
tielles linéaires de second ordre de la forme :

Lu = λu (10.1)

où u(x) est une fonction au moins deux fois dérivable, la fonction et ses dérivées
2
étant de carré sommable . λ est un scalaire que nous appelons valeur propre et
L est un opérateur diérentiel de second ordre

d2 d
L = α(x) 2
+ β(x) + γ(x)
dx dx
Ce genre d'équation se rencontre partout en physique et la solution du système ci-
dessus a occupé une grande partie du travail des physiciens-mathématiciens. Les
grandes familles de fonctions spéciales, les Bessel, Legendre, Hermit, Laguerre,
les hypergéométriques, ... ont été introduites à l'occasion de l'étude de ce genre
d'équation. Le but de ce chapitre est en partie de nous habituer avec ces fonctions.
La théorie générale que nous allons voir dans ce chapitre est une application
directe de la théorie des opérateurs linéaires que nous avons rencontré au chapitre
précédent ; nous aurons ainsi l'occasion d'approfondir les concept que nous avons
vus.
Illustrons à travers les trois exemples suivants quelques fonctions et équations
fondamentales de la physique mathématique.

Exemple 1. Nous avons vu que pour trouver u(x, t),solution de l'EDP

n
∂ u
= Lu (10.2)
∂tn
où l'opérateur L ne contient pas de dépendence en t, nous pouvons chercher la
solution de l'équation aux valeurs propres

Lφn = λn φn
1. Cette théorie a été formulée par les deux mathématiciens français aux alentour de 1850.
2. Ce genre d'espace est appelé l'espace de Sobolev, mathématicien soviétique du vingtième
siècle, précurseur de la théorie des distributions.

121
10 Les systèmes Sturm-Liouville.

où φn (x) est fonction de la seule variable x. Si les {φn }constituent une base dans
l'espace des fonctions appropriées, alors la solution générale de (10.2) est alors
donnée par
X
u(x, t) = fn an (t)φn (x)
n

où les coecients an (t) sont solution de l'équation diérentielle

dn an
− λn an = 0
dtn
et les scalaire fn sont donnés par les conditions initiale. Si l'on veut, cette méthode
est une super méthode de séparation des variables.

Exemple 2. Propagation en coordonnées cylindrique et l'équation de Bessel.


Nous souhaitons résoudre l'équation d'onde à deux dimensions en coordonnées
polaires (comme par exemple la vibration d'une membrane) :

∂2u
= c2 ∆u (10.3)
∂t2
où u = u(r, θ, t). Si nous savons résoudre

∆φk (r, θ) = −k 2 φk (r, θ) (10.4)

(Question : pourquoi les valeurs propres de l'opérateur ∆ sont réelles et néga-


3
tive ?) alors la solution générale s'écrit

X
Ak eickt + A−k e−ickt φk (r, θ)

u(r, θ, t) =
k

En coordonnée cylindrique, l'équation (10.4) s'écrit

∂ 2 φk 2
2 ∂ φk ∂φk
− 2
= r 2
+r + r 2 k 2 φk (10.5)
∂θ ∂r ∂r
Si on regarde de plus près cette équation, nous voyons qu'elle a à nouveau exac-
tement la forme (10.2) et nous pouvons appliquer la même méthode en cherchant
la solution de l'équation aux valeurs propres

d2 ηm dη
r2 2
+r + r2 k 2 ηm = m2 ηm (10.6)
dr dr
3. Nous utilisons le symbol Σ pour signier superposition. Si la variable sur laquelle on
somme est discrète (∈ Z)alors Σ a son sens habituel. Si par contre la variable de sommation est
R
continue (∈ R) alors le symbol doit être compris formellement comme une intégrale .

122
10 Les systèmes Sturm-Liouville.

où ηm = ηm (r) est la fonction propre et m est la valeur propre. La solution de


(10.5) est
X
Bm eimθ + B−m e−imθ ηm (r)

φk (r, θ) =
m

Nous remarquons en plus une symétrie remarquable dans la fonction φk : φk (r, θ+


2π) = φk (r, θ). Cette symétrie nous impose que m ne peut pas être quelconque,
mais doit être entier : m = 0, 1, ... Nous rencontrerons constemment cette sym-
metrie et sa conséquence dans les équations de la physique écrites en coordonnées
cylindriques ou sphériques. Nous pouvons encore quelque peu nettoyer l'équation
(10.6) en posant
ηm (r) = Jm (x)
où x = kr. Par la règle des dérivations en chaîne, nous avons d/dr = k(d/dx) et
nous obtenons
00 0
x2 Jm (x) + xJm (x) + (x2 − m2 )Jm (x) = 0 (10.7)

Cette équation s'appelle l'équation de Bessel, les fonctions Jm sont appelées les
fonctions de Bessel ; le lecteur notera que cette équation qui joue un rôle pri-
mordial dans les équations de propagation en coordonnées cylindriques est de la
forme (10.1).
Nous avons beaucoup détaillé les calculs dans cet exemple. Nous pouvons sys-
tématiser le travail de la façon suivante : nous cherchons la solution de (10.3)
directement sous la forme

u(r, θ, t) = η(r)f (θ)a(t)

En remplaçant dans l'équation (10.3) et en divisant par u, nous trouvons

a00 1 c2 f 00
− c2 (η 00 + η 0 /r) − 2 =0 (10.8)
a η r f
Cette équation est valable pour tous (r, θ, t). Supposons que nous gardons constance
r et t et nous varions θ. Les deux premiers termes de cette équation ne dépendent
pas de θ et restent inchangé. Pour que l'équation soit satisfaite, nous devons avoir
f 00 /f = Cte. La contrainte f (θ +2π) = f (θ) nous impose Cte = −m2 , m = 0, 1, ...
De la même manière, si l'on fait varier t, les deux derniers termes restent inchan-
00
gés et nous devons donc avoir a /a = cte ; la solution devant resté borné pour
2
tous les temps, nous devons avoir cte = −k . L'équation (10.8) se transforme
alors en
2 1 00
(k/c) + (η + η 0 /r) − m2 /r2 = 0
η
en multipliant par η et en nettoyant un peu, cette dernière équation se met sous
la forme de l'équation de Bessel. La solution générale est la superposition de ces
solutions.

123
10 Les systèmes Sturm-Liouville.

Exemple 3. Equation de Laplace en coordonnées sphérique et équation de Le-


gendre. Nous souhaitons résoudre en coordonnées sphérique (r, θ, φ) l'équation
de Laplace
∆u = 0 (10.9)

Posons u(r, θ, φ) = f (r)g(θ)h(φ). En suivant notre procédé, nous aboutissons à

d2 h
   
1 d 2 df 1 d dg 1
r + sin(θ) + 2 =0
f (r) dr dr g(θ) sin(θ) dθ dθ h(φ) sin (θ) dφ2
Par des arguments analogues à ce que nous avons utilisés précédemment, nous
obtenons
h00 (φ)
= −m2
h(φ)
et  
1 d 2 df
r =λ (10.10)
f (r) dr dr
Il n'est pas dicile de vérier qu'une fonction f de la forme f (r) = An rn +
−(n+1)
Bn r est fonction propre, avec la valeur propre λ = n(n + 1). Ceci nous
donne pour la dernière équation

m2
   
1 d dg
sin(θ) + n(n + 1) − g(θ) = 0
sin(θ) dθ dθ sin2 (θ)
Et nous allons quelques peu nettoyer cette dernière équation. Remarquons d'abord
que la fonction g(θ) est pair ; nous n'avons donc besoin de le résoudre que sur
l'intervalle par exemple [0, π]. cos θ = t ( t ∈ [−1, 1] ) et g(θ) = P (t). La
Posons
dérivation en chaîne nous donne d/dθ = − sin θ(d/dt) et donc

m2
   
d dP
(1 − t2 ) + n(n + 1) − P (t) = 0 (10.11)
dt dt 1 − t2

Les solutions de cette équation, appelées les fonctions de Lengendre associées sont
notées Pnm (t). Pour m = 0, L'équation s'écrit

(1 − t2 )P 00 (t) − 2tP 0 (t) + n(n + 1)P (t) = 0

notons à nouveau que cette équation qui joue un rôle primordial dans les équa-
tions implicant le Lalplacien en coordonnées sphériques est de la forme (10.1).
Les solutions de cette équation sont appelées les polynômes de Lengendre. Nous
verrons (c.f. exercice ??) que les solutions pour m 6= 0 s'obtiennent à partir des
m = 0. La partie angulaire de l'équation de Laplace est donnée par

Ynm (θ, φ) = eimφ Pnm (cos θ)

124
10 Les systèmes Sturm-Liouville.

ces dernière fonctions sont appelées les harmoniques sphériques et jouent le même
rôle que les fonctions sinet cos à une dimension. Le lecteur les rencontrera souvent
comme les fonctions propres des deux opérateurs L2 et Lz dans les problèmes à
symmetries sphériques.

10.2 Reformulation opératorielle.


La méthode que nous avons suivi ci-dessus est quelque peu pédestre et nous
oblige à par exemple séparer les rôles des variables t et x. Ceci est quelque peu
articiel et nous pouvons nous en dispenser. Ce que nous avons distingué dans les
exemples que nous avons traités plus haut est que l'équation à dérivées partielles
pouvait se mettre sous la forme de (L1 + L2 + ...)u = 0 où l'opérateur Li ne
contient que des dérivations sur la variable i 4.
Prenons l'espace des fonctions à deux variables (que nous appelons x et y )
pour illustrer notre propos. Soit un opérateur H dans cet espace que l'on peut
écrire comme la somme de deux opérateurs, chacun ne contenant qu'une seule
dépendence : H = Hx + Hy (par exemple, pour le laplcien en cartésien nous
avons ∆ = ∂ 2 /∂x2 +∂ 2 /∂y 2 ). Supposons que nous souhaitons résoudre l'équation
Hu(x, y) = 0 dans le domaine x ∈ [a1 , b1 ] et y ∈ [a2 , b2 ]. Supposons que dans
l'espace des fonctions sur [a2 , b2 ] nous disposons d'une base {ηi (y)}qui de plus
est une base propre de l'opérateur Hy : Hy ηi (y) = λi ηi (y). Evidemment, nous
pouvons, pour chaque x, décomposer la fonction (inconnue pour l'instant) u(x, y)
dans cette base : X
u(x, y) = ci (x)ηi (y)
i

connaitre les coecients ci (x) est équivalent à connaitre la fonction u(x, y) 5 . Si


nous remplaçons l'expression ci-dessus dans l'EDP que nous tentons de résoudre,
nous trouvons, en utilisant les propriétés de linéarité de H
!
X
Hu = H ci (x)ηi (y)
i
X
= H (ci (x)ηi (y))
i
X
= (Hx .ci (x) + λi ci (x)) ηi (y)
i

4. Ceci bien sûr n'est pas un hasard : on choisit (invente) un système de coordonné dans
lequel l'EDP peut s'écrire de cette façon. C'est la raison de la popularité des trois systèmes de
coordonnés les plus populaires. Le lecteur rencontrera d'autres systèmes plus exotiques adapté
à des problèmes bien particulier.
5. Souvenez vous, nous appelons cela l'interprétation de Schrodinger.

125
10 Les systèmes Sturm-Liouville.

Puisque les ηi sont linéairement indépendant (elles forment une base), l'équation
à dérivées partielles Hu = 0 se transforme en une équation diérentielle ordinaire
(donc beaucoup plus simple)

Hx .ci (x) + λi ci (x) = 0


Les exemple que nous avons vu plus haut avaient l'aire légèrement plus compliqué
que cela. Les EDPs que nous avons vu avaient plutôt la forme

(Hx + f (x)Hy )u(x, y) = 0 (10.12)

Mais ceci n'est guère diérent. En faisant exactement la même démarche de dé-
composer u(x, y) sur la base des {ηi (y)}, nous obtenons pour les coecients ci (x)
l'équation diérentielle ordinaire

Hx .ci (x) + λi f (x)ci (x) = 0


Revoyons à nouveau nos exemples.
Dans le cas de la propagation d'onde en coordonnées polaire, nous pouvons
écrire l'équation (10.3)sous la forme opératorielle

∂tt − (∂rr + (1/r)∂r ) − (1/r2 )∂θθ u(r, θ, t) = 0




où nous avons posé c = 1. Nous voyons que cette équation possède la même
θ ∈ [0, 2π], les fonctions exp(imθ) sont des
structure que (10.12). Pour la variable
fonctions propres de l'opérateur ∂θθ associées à la valeur propre −m2 (de plus,
m ∈ Z) . Pour la variable t ∈] − ∞, +∞[, les fonctions exp(ikt)sont des fonctions
2
propres de l'opérateur ∂tt associées à la valeur propre −k . Si l'on cherche la
solution générale sous la forme de
X
u(r, θ, t) = Rk,m (r)eimθ .eikt
k,m

Alors, d'après ce que nous avons dit, la fonction Rk,m (r) doit obéir à l'équation

−k 2 − (∂rr + (1/r)∂r ) + m2 /r2 R(r) = 0




Qui n'est rien d'autre que l'équation de Bessel déjà rencontré.


Prenons maintenant le cas de l'équation de laplace en coodonnées sphérique
∆u = 0 qui sous forme opératoriel s'écrit
 
2 1 2
∂rr + ∂r + 2 L u = 0
r r
où L2 est l'opérateur qui contient toutes les dérivées par rapport aux variables
angulaire θ, φ :
1 1
L2 = ∂θ sin θ∂θ + ∂φφ
sin θ sin2 θ

126
10 Les systèmes Sturm-Liouville.

6 2
Nous connaissons une base propre de l'opérateur L qui sont les sphériques
m
harmoniques Yn (θ, φ), associée à la valeur propre −n(n + 1). Si on cherche la
solution sous forme de
X
u(r, θ, φ) = R(r)Ynm (θ, φ)
m,n

alors la fonctions R(r) doit obéir à l'équation

2 n(n + 1)
R00 (r) + R0 (r) − R(r) = 0
r r2

Exercices.

1. Démontrer que la fonction Jm (x) = (1/π) 0 cos(x sin θ − mθ)dθ est solution
de l'équation de Bessel si m ∈ Z. Cette fonction est appelée la fonction de Bessel
(d'ordre m) de première sorte.

2.Transformée de Bessel-Fourier. Soit une fonction de deux variables f (x, y)


dont la transformé de fourier (bidimentionnel) est

Z Z ∞
f˜(u, v) = f (x, y) exp (−i (ux + vy)) dxdy
−∞

Supposons que f est de symétrie cylindrique, c'est à dire qu'on peut l'ecrire
comme f (r) où x + iy = r exp(iθ). Dans ce cas, on peut également choisir les
coordonnées polaires dans l'espace réciproque u + iv = q exp(iφ). Démontrer
alors que f˜ est également de symétrie cylindrique et

Z ∞
f˜(q) = 2π f (r)J0 (qr)rdr
0

Ceci s'appelle une transformation de Bessel-Fourier ou Hankel et qui est très


similaire à la TF, puisqu'on peut facilement démontrer l'inversion :

Z ∞
f (r) = 2π f˜(q)J0 (qr)qdq
0

[Help : pour démontrer la formule inverse, nous admettons la relation d'orthogo-


R∞
nalité des fonctions de Bessel :
0
Jµ (kr)Jµ (k 0 r)dr = δ(k − k 0 )/k .]

6. A vrai dire, nous n'avons jamais démontré que ces fonctions constituent une base. La
démonstration découle du fameux théorème d'approximation Weirestrauss (1885). Nous ad-
mettons le résultat. Nous avions simplement démontré que les sphérique harmonique sont les
fonctions propre de l'opérateur L2 .

127
10 Les systèmes Sturm-Liouville.

3. Démontrer que pour m entier, J−m (x) = (−1)m Jm (x). Cela montre que pour
m entier, les deux fonctions Jm et J−m ne sont pas linéairement indépendantes.
L'équation de Bessel étant de second ordre, elle a besoin de deux solutions indé-
pendantes. L'autre solution notée souvent Ym (x) est appelé la fonction de Bessel
de seconde sorte. [Help : eectuer le changement de variable θ → π − θ].

4. En ramenant l'équation suivante

x2 u00 + νxu0 + x2 − m2 u = 0


à une équation de Bessel, donner sa solution générale. [Help : poser


√ u = xα w et
choisir α en conséquence. Solution : u(x) = J±µ (x)/ x où µ = m + (ν − 1)2 /4.
2 2

5. Résoudre l'équation

x2 u00 + xu0 + α2 x2α − m2 u = 0




[Help : poser x = y ν , et choisir ν pour se ramenr à une équation de Bes-


sel.Solution : u(x) = Jm (xα )]

6. Combiner les deux questions précédente pour résoudre

xu00 + (p + 1)u0 + u/4 = 0



[Solution : u(x) = x−p/2 Jp ( x)].

7. Polynômes de Legendre associés. Soit la fonction u(x) solution de l'équation


de Legendre
(1 − x2 )u00 − 2xu0 + n(n + 1)u = 0
Démontrer alors que la fonction v(x) = (1 − x2 )m/2 (dm /dxm )u(x) est solution de
l'équation de Legendre associée

m2
 
2 00 0
(1 − x )v − 2xv + n(n + 1) − v=0
(1 − x2 )
Si on sait que le polynôme de Legendre Pn est d'ordre n, que peut on déduire
pour Pnm pour m > n? Construire explicitement les trois premiers polynomes de
Legendre. [Help : Commencer par démontrer par récurrence que

dm (1 − x2 )u00 − 2xu0 + n(n + 1)u =


 

(1 − x2 )dm+2 u − 2(m + 1)xdm+1 u + [n(n + 1) − m(m + 1)] dm u

où dm est l'opérateur de dérivation d'ordre m.

128
10 Les systèmes Sturm-Liouville.

8.Moment cinétique. Soit l'opérateur L2 = L2x + L2y + L2z . Démontrer que l'opé-
rateur laplacien, en coordonnées sphérique, s'écrit comme

∆ = r−2 ∂r r2 ∂r + L2


Rappel :Lz = x∂y −y∂x et les autres s'en déduisent par permutation circulaire des
indices(x, y, z). Nous avions déjà vu que Lz = ∂φ . Démontrer que les harmoniques
sphériques sont fonctions propres de Lz , donner les valeurs propres associées.

9. Utiliser le résultat de l'exercice (??) pour donner la solution générale de


l'équation d'onde en coordonnées sphériques

∂tt u = ∆u
Help : en notatation opératoriel, l'équation s'écrit

∂tt − r−2 ∂r r2 ∂r + L2 u = 0
 

Comme nous connaissons les fonctions propres de ∂tt (= exp(±kt) ) et de L2


(= Ynm (θ, φ) ), il sut de chercher la solution générique sous la forme de
u(r, θ, φ, t) = R(r)Ynm (θ, φ)eσikt
où σ = ±1 et |m| < n, et obtenir une équation pour R(r). On devrait obtenir,
pour R:
1
R(r) = √ Jσ0 (n+1/2) (kr)
kr
où σ 0 = ±1. Ces fonctions sont parfois appelées des Bessel sphériques.

10.Atome d'Hydrogène. Résoudre en coordonnées sphérique l'équation de l'atome


d'Hydrogène :
i∂t ψ = (−∆ − α/r)ψ
On suppose α>0 (interaction attractive). Help : En suivant le même procédé
que l'éxercice précédent, et en renormalisant convenablement, démontrer que la
partie radiale de ψ obéit à l'équation

x R00 + 2xR0 + (−x2 + βx − n(n + 1))R = 0


2

où :−E est la valeur propre associée à la fonction propre exp(iEt) de i∂t ; β =



α/ E E > 0) ; n(n + 1) est la valeur propre associée à la fonction
(on suppose
m s −x
propre Yn (θ, φ). En posant R(x) = x e u(x) et en choisisant s convenablement,
on peut obtenir l'équation

xu00 + 2(1 + n − x)u0 + [β − 2(1 + n)]u = 0


Cette équation est connu sous le nom de l'équation de Laguerre.

129
10 Les systèmes Sturm-Liouville.

Legendre. Quelqusechose autour de l'expansion

∞ n
1 1 X r0
= √ = Pn (cos θ)
|x − x0 | r2 + r02 − 2rr0 cos θ n=0 rn+1

10.3 Detour : la mécanique quantique ou


pourquoi les valeurs propres ont pris tant
d'importance.
Pouvoir développer les solutions d'une EDP comme une somme de fonction
propre était une technique répandue et maitrisée à la n du XIXème siècle. Les
valeurs propres ont cependant pris une importance extrême avec l'avenement de
la mécanique quantique (MQ). La MQ ajoutait quelque chose qui paraissait très
7
étrange aux scientiques habitués à la propagation des ondes . Pour comprendre
cette crise 8
psychologique , prenons l'exemple d'une corde vibrante à une dimen-
sion sur l'intervalle [0, L] dont l'équation est donnée par

∂2u 2
2∂ u
= c
∂t2 ∂x2
La solution sur la base propre de fourier, d'après ce que nous avons vu plus haut,
est donnée par
X
An eiωn t + Bn e−iωn t eikn x

u(x, t) = (10.13)
n

où kn = (2π/L)n, les exp(ikn x) sont une base ∂ 2 /∂x2


propre de l'opérateur
2 2
de valeur propre kn = (2πn/L) , et ωn = ckn . Notons que la fonction u(x, t)

représentant un déplacement réel, cela nous impose en plus d'avoir Bn = An .

7. De la même manière que la mécanique Newtonienne ajoutait quelque chose de très étrange
à la science du mouvement répandu en 1680. Notre intuition nous disait que la vitesse d'une
charette que l'on pousse dépend de la force qu'on exerce dessus et qu'elle s'arrête quand nous
ne poussons plus. La physique Aristotélicienne postulait donc, en langage moderne, v = C.F .
La mécanique Newtonienne a modié ce postulat en imposant la proportionnalité non pas entre
la vitesse et la force, mais entre l'accélération et la force : a = (1/m)F . Pour interpréter les
résultats expérimentaux dans ce cadre, il a fallu supposer l'existence de forces de réaction, de
frottement, ... On peut facilement imaginer combien cette mécanique nouvelle paraissait contre-
intuitif et étrange aux scientique de l'éopque. Pour nous qui avons assimilé cette mécanique
depuis notre enfance, cette mécanique nous paraît aller de soi. De la même manière, la MQ
parraissait étrange au début du XXème, puisque les scientiques s'étaient forgé une intuition
qui allait à l'encontre des postulats de la nouvelle mécanique.
8. Parfois appelé dualité onde-corpuscule

130
10 Les systèmes Sturm-Liouville.

L'énergie de la corde à un instant donné est la somme de son énergie cintique


9
et potentielle et s'écrit

L  
ρ K
Z
E(u) = ut u∗t + ux u∗x dx (10.14)
0 2 2

où uα désigne ∂u/∂α. Par ailleurs, ρ représente la densité de la corde, K sa


constante élastique et c2 = K/ρ. En utilisant la solutions (10.13), on trouve
facilement X
E(u) = (2LK) An A∗n kn2 (10.15)
n

An est l'amplitude du mode n, et nous voyons que le résultat est la somme des
amplitudes des modes au carré, pondéré par leur valeurs propres.
Nous pouvons contruire un appareil pour mesurer l'énergie de la corde vibrante
de la façon suivante : une caméra prend deux photographies successives de la
corde. Par l'analyse de la forme de la corde sur une des photos, nous pouvons
explicitement mesurer point par point ux . Par l'analyse de la hauteur de la corde
entre les deux photos successives, nous pouvons mesurer point par point ut . Ces
deux mesures nous permettent ensuite d'eectuer une intégrale point par point
10
et remonter à l'énergie (10.14) .
Supposez maintenant que vous avez préparé par exemple M = 106 cordes
vibrantes toutes dans le même état (identiques). En les mesurant les uns après
les autres avec l'appareil, on doit toujours trouver la même valeur E . Les premiers
chercheurs investigant les phénomènes atomiques ont trouvé un résultat diérent :
A chaque mesure, ils trouvaient une valeur diérente, correspondant exactement
à une des valeurs propres kn . La mesure de l'énergie ne donnait pas la même
valeur, ni même des valeurs dispersées de façon continue, mais un ensemble discret
de valeur. Il s'avère que quand ont fait cette mesure un grand nombre de fois,
la proportion de fois où l'on tombe sur la même valeur kn et proportionnelle
au coecient An A∗n . La moyenne sur les M mesures donne en eet le résultat
11
attendu E d'un système classique .

9. voir les chapitres consacrés, d'une part aux équations de la physique, d'autre part au
calcul variationnel.
10. Pour l'investigation des phénomènes à l'échelle atomique, les scientiques du début de
XXème siècle avaient à leur disposition un appareil de mesure basée sur la strepctoscopie.
Ce sont le character discret des raies qui ont commencé à poser des problèmes. Notez que le
problème dont on parle ici n'est pas du tout celui de la divergence ultra-violette du corps
noir. Ce dernier est dû a un postulat de la physique statistique qui exige, dans le cadre de la
physique classique, qu'à l'équilibre thermodynamique, on ait 2LKAn A∗n kn
2 = T /2, ce qui rend
la somme (10.15) divergente.
11. La présentation que je donne est bien sur anachronique. Le concept de décomposition sur
base propre à travers l'équation de Schrodinger post-date de quelques 20 années la découverte
de la nature discrète des raies atomiques.

131
10 Les systèmes Sturm-Liouville.

12
Cette observation a été intégré comme un postulat à la mécanique quantique ,
en sus des équations d'évolutions de la mécanique quantique (comme par exemple
l'équation de Schrodiner). Ce n'est que récemment (les années 1990) que ce pos-
tulat a été compris comme une conséquence du phénomène d'intéraction entre
un système macroscopique et microscopique, appelé décohérence.
Dans beaucoup de branche de physique atomique et moléculaire, la quantité
pertinente étant l'énergie, les scientiques ont élaborer des règles de manipu-
lations impliquant uniquement la connaissance des valeurs propres, sans même
passer par la case résoudre l'équation d'évolution temporelle. Voilà pourquoi
les valeurs propres sont devenues une partie si fondamentale de la culture des
physiciens.

10.4 Les systèmes Sturm-Liouville.


Revenons à notre propos original sur l'équation Lu = λu où L est un opérateur
diérentiel de second degrès. Nous nous plaçons dorénavent dans l'ensemble des
fonctions à valeurs complexes. Nous équipons notre espace vectoriel des fonctions
d'un produit scalaire, mais nous allons quelque peu élargir notre dénition du
produit scalaire :
Z ∞
(f, g) = f ∗ (x)g(x)w(x)dx
−∞

Le lecteur peut vérier que cette denition possède toutes les bonnes propriétés
que l'on exige d'un produit scalaire, si w(x) ≥ 0 13 . La fonction w(x) est dite le
poids (weight en anglais).
Dans la très grande majorité des cas que l'on rencontre en physique-mathématique,
14
l'opérateur L est hérmitien : (f, Lg) = (Lf, g)C'est d'ailleurs précisément ces
systèmes où l'opérateur L est hermitien que nous appelons Sturm-Liouville. Les
opérateurs hermitiens ont des propriétés remarquables : ils sont diagonalisable
et leurs valeurs propres sont réel. Ces faits ne sont pas étranger au fait qu'ils
apparaissent aussi souvent en physique. Nous avons vu que la forme générale de
l'opérateur L est
L = α(x)dxx + β(x)dx + γ(x)
où dx et dxx dénote les dérivées première et seconde et α, β, γ sont des fonctions
à valeurs réels. Comme on exige de L d'être hermitien, cela limite le choix des
fonctions α, β, γ . Si on regarde d'un peu plus près, aucune contrainte ne pèse sur
γ(x). Si L est hermitien, il est trivial de démontrer que L + η(x) est également
12. Cela s'appelle l'interprétation de Copenhague (1928) : Une mesure d'un observable O
projette un état quantique mixte sur un des états propres de cet observable, avec une probabilité
donnée par la norme au carré de l'amplitude de ce mode propre.
13. Il faut que w(x) > 0 sur un ensemble de mesure non-nulle, par exemple sur un intervalle
14. Nous avonsn le choix du poids w(x)

132
10 Les systèmes Sturm-Liouville.

hermitien. Pour étudier les contraintes qui pèsent sur α et β , nous choisissons
donc pour l'instant γ(x) = 0, cela nous simplie l'écriture. Formons la diérence
I = (Lf, g) − (f, Lg). En eectuant une intégration par partie, nous parvenons
facilement à


I = [(f 0 g − f g 0 )(αw)]−∞
Z ∞
+ (f g 0 − f 0 g) [(αw)0 − βw] dx
−∞

L'hermicité de L nous exige donc que

(αw)0 = βw (10.16)
0 0 ∞
[(f g − f g )(αw)]−∞ = 0 (10.17)

L'équation (10.16) dénit en fait le poids w que l'on doit choisir en fonction de α
et β. La condition (10.17) nous indique que selon l'espace des fonctions que nous
nous sommes choisi, nous devons exiger de w de tendre susement rapidement
vers 0 quand x → ∞. Remarquez que w = 0 est solution de l'équation (10.16),
donc nous pouvons eventuellement connecter une région où w>0 à une région
où w=0 et satisfaire ainsi la condition (10.17). Remarquer qu'une fois w choisie
convenablement, nous pouvons mettre l'équation diérentielle Lu = λu sous la
forme de  
d du
(αw) + (γ − λ)wu = 0
dx dx
C'est sous cette forme que les systèmes Sturm-Liouville ont été formulés. Notez
que l'équation (10.16) est une équation diérentielle simple dont la solution est
donnée par
Z 
C β
w(x) = exp dx (10.18)
α(x) α
R
où par nous dénotons une primitive.

Exercices. Démontrer qu'utiliser un poid w(x) pour le produit vectoriel revient


à faire un changement de variable x = φ(s) dans un produit scalaire avec un poid
1.

10.5 Les solutions polynomiales de


Sturm-Liouville.
Nous allons à partit de maintenant nous restreindre aux solutions polynomiales
des systèmes Sturm-Liouville
LPn = λn Pn (10.19)

133
10 Les systèmes Sturm-Liouville.

où Pn (x) est un polynôme de degrès n. Si nous arrivons à trouver de telles


solutions pour un système donné, nous aurons la garantie que ces fonctions
Pn consitutent bien une base de notre espace des fonctions, pourvu que tous les
n ∈ N soit représentés 15 . La recherche des solutions polynomiales impose une
forte contrainte pour satisfaire la condition d'hermicité (10.17) : (wα) doit tendre
très rapidement vers 0 quand x → ∞, ou doit être = 0 en dehors d'un certain
intervalle ( à charge pour nous de connecter les régions w = 0 et les régions w > 0
). Nous allons voir plusieurs exemple qui éclaircireront cela.
Comme L ne contient au plus que des dérivées d'ordre 2, cela nous impose que
les coecients α, β, γ soit eux même des polynômes, de degrès 2 pour α, 1 pour β
et 0 pour γ . (Exercice : le démontrer en considérant les trois premiers polynômes
n = 0, 1, 2). Nous devons donc considérer tous les systèmes Sturm-Liouville où 16

α(x) = α2 x2 + α1 x1 + α0
β(x) = β1 x + β0
γ(x) = γ0

Nous devons donc explorer un espace à six dimensions pour épuiser toutes les
combinaisons des coecients. Pas tout à fait en réalité, cela peut être beaucoup
plus simple. Prenons l'équation algébrique élémentaire ax2 + bx + c = 0. Au lieu
de résoudre directement cette équation, nous pouvons remplacer x par x + x0 et
résoudre
ax2 + (2ax0 + b)x + (ax20 + bx0 + c) = 0
pour une valeur arbitraire de x0 . Une fois cette équation résolue, nous pouvons
toujours remplacer x par x − x0 pour retrouver la solution de l'équation originale.
2
Si nous choisissons judicieusement x0 = −b/2a, l'équation se transforme en ax +
0
c = 0. On peut encore
√ simplier la forme de cette équation (en remplaçant par
exemple x par x/ a ) pour obtenir l'équation

x2 + c0 = 0

Si nous savons résoudre cette dernière nous savons résoudre l'équation général de
second degrès : au lieu d'explorer une famille à trois paramètres, nous n'avons
qu'à explorer une famille à un seul parmaètre.
Nous avons pu eectuer cette simplication formelle et éliminer deux para-
mètres parce que nous avions 2 degrès de libertés à notre disposition : le choix
de l'origine et de l'échelle de l'axe x. Dans une équation de type (10.19), nous
avons 4 degrès de libertés. Par exemple, au lieu de considérer l'opérateur L, nous
pouvons étudier l'opérateur aL, où a est un scalaire. Les fonctions propres de

15. Cela s'appelle la complétude dont nous avions parlé au chapitre sur l'analyse fonctionnelle
et qui découle d'un théorème démontré par Weirestrauss que nous n'avons pas donné ici.
16. Vous remarquerez donc que les fonctions de bessel ne sont pas polynamiales.

134
10 Les systèmes Sturm-Liouville.

cette nouvelles équations restent inchangées, les valeurs propres deviennent aλ.
Cela nous donnera par exemple la possibilité de toujours choisir α2 = −1 (quand
6= 0). Nous pouvons également étudier l'opérateur L+a : a nouveau, les fonc-
tions propres restent inchangées, les valeurs propres seront deplacées de a. Nous
utiliserons cela pour toujours choisir γ0 = 0. Nous avons également toujours la
liberté de choisir l'origine et l'échelle de l'axe x. Nous aurons donc au plus que
deux paramètres libres.

Exercices.

1. Comment se transforme l'équation de Jacobi

(1 − x2 )u00 + [p − q + (p + q + 2)x]u0 = λu

avec le changement de variable x → 1 − 2x ?


2. Démontrer que nous ne pouvons pas satisfaire les conditions d'hermicité si
β = 0.
Nous allons maintenant considérer tous les cas possible.

10.5.1 α(x) quadratique.

Comme nous l'avons dit, nous utilisons un degrès de liberté pour choisir α2 =
−1. Nous pouvons donc écrire α(x) = (−x0 + x)(x1 − x) où x0 et x1 sont les deux
racines de α(x). Ces deux racines sont soit complexes (et conjuguées l'une de
l'autre) soit réelles. Le lecteur peut démontrer qu'avec des racines complexes, il
n'est pas possible de remplir les conditions d'hermicité. Nous utilisons maintenant
deux degrès de liberté d'origine de l'axe x pour choisir x0 = −1 et x1 = 1.

Exercices. y = a(x − b) qui transforme ef-


Trouver le changement de variable
fectivement l'opérateur(−x0 + x)(x1 − x)(d2 /dx2 ) en opérateur (1 − y 2 )(d2 /dy 2 )
Il nous reste deux paramètre et il est coutume de les noter β1 = −(p + q + 2)
et β0 = q − p. La décomposition en fraction simple de β/α s'écrit alors

β(x) q+1 p+1


= −
α(x) x+1 1−x

ce qui nous amène nalement, d'après l'éq.(10.18), à

w(x) = (1 + x)q (1 − x)p

N'oublions pas que nous exigeons wα → 0 très rapidement quand x → ∞. On


peut prendre p, q aussi négative que l'on veut, on ne peut pas satisfaire cette

135
10 Les systèmes Sturm-Liouville.

exigence telle quelle. Par contre, si p, q > −1, nous voyons que wα s'annule sur
les bords. Nous chisisons donc

w(x) = (1 + x)q (1 − x)p si |x|<1

= 0 sinon

Les polynômes associés à ce choix des paramètres sont appelés des polynômes
(p,q)
de Jacobi Jn (x). Certains choix de p, q ont obtenus des noms propres. Par
2 1/2
exemple, p = q = −1/2 nous donne une fonction w(x) = (1−x ) et les solutions
17
s'appellent les polyômes de Chebychev . Pour p = q = 0, nous obtenons les
polynômes de Legendre, avec le poids w(x) = 1.

10.5.2 α(x) linéaire.

Nous considérons le cas α2 = 0. Cette fois, nous n'avons qu'un seul paramètre
libre. Nous choisissons α(x) = x ; β(x) = −x + s + 1.Cela détermine

w(x) = xs e−x

Cela nous convient parfaitement pour x → +∞, mais pas pour x → −∞. Ce-
pendant, ont peut remarquer que si s > −1, nous pouvons connecter la fonction
ci-dessus pour x > 0 à la fonction w(x) = 0 pour x < 0. Les solutions de ce
(s)
système sont appelés les polynômes de Laguerre associés Ln (x). Pour s = 0 les
solutions s'appellent simplement les polynôme de Laguerre et nous les rencontre-
rons pour la résolution de l'atiome d'hydrogène.

10.5.3 α(x) constant.

Nous n'avons plus de paramètres libres et tous les cas se ramène au choix α(x) =
1 β(x) = −2x ( le coecient de x négatif ne pourra pas satisfaire l'hermicité) et
nous obtenons
2
w(x) = e−x
18
Les solutions sont appelées les polynômes d'Hermite . Nous les rencontrerons
très fréquement dans les problèmes d'oscillateurs harmoniques.

17. Les polynômes de Chebychev ont été trouvé par l'auteur du même nom ( professeur
à l'université de St-Petersburg dans les années 1850-80) à l'occasion de l'étude de la théorie
d'interpolation : Soit une fonction donnée sur l'intervalle [−1, 1]. On cherche un polynôme de
degrès n Tn (x) qui coïncide avec f (x) en n points et qui minimise l'écart (maxx∈[−1,1] |f (x) −
Tn (x)| ) avec ce dernier. Les solutions sont nos polynômes.
18. Professeur à l'Ecole Polytechnique et à l'ENS dans les années 1850 − 1880.

136
10 Les systèmes Sturm-Liouville.

10.6 Valeurs et fonctions propres.


Les valeurs propres des systèmes Sturm-Liouville prennent une forme particu-
lièrement simple. Pour les déterminer, il sut de regrouper, dans un polynôme
d'ordre n, le terme d'ordre n. Nous trouvons alors que

λn = α2 n(n − 1) + β1 n = n (α2 n + β1 − α2 )

Pour les Jacobis, l'équation diérentielle est

(1 − x2 )u00 − ((p + q + 2)x − (p − q)) u0 + n(n + p + q + 1)u = 0

Pour les Chebychev, les valeurs propres sont de la forme λn = −n2 et pour les
les legendre de la forme λn = −n(n + 1).
L'équation de Laguerre s'écrit

xu00 − (x − (s + 1)) u0 + nu = 0

avec les valeur propres λn = −n.


L'équation d'Hermite est

u00 − 2xu0 + 2nu = 0

et les valeurs propres sont λn = −2n.


Notez que les valeurs propres sont espacé linéairement dans les deux derniers
cas et quadratiquement dans le premier.
On peut calculer de diérentes façon les polynomes orthogonaux. On peut
Pn
poser fn (x) = i=0 a i xi , remplacer l'expression dans l'équation diérentielle du
polynôme et déduire les coecients explicitement. Par exemple,

[n/2]   
X n 2n − 2m
Pn (x) = xn−2m
m n
i=0
[n/2]
X 1
Hn (x) = (2x)n−2m
i=0
m!(n − 2m)!

où Pn et Hn sont les polynômes de Legendre et d'Hermite. De façon plus générale,


la formule de Rodrigues donne les solutions polynômiales des systèmes Sturm-
Liouville :

1 dn
fn (x) = Cn (αn w)
w dxn

137
10 Les systèmes Sturm-Liouville.

19
Nous omettons la démonstration de cette formule , mais un des sous produit de
cette démonstrations nous fournit la norme des polynômes orthogonaux :
Z +∞ Z +∞
w(x)fn2 (x)dx = (−1) n!an n
αn (x)w(x)dx
−∞ −∞

Comme nous l'avons souvent indiqué, les polynômes orthogonaux sont dénis à
un coecient multiplicatif près, et on peut utiliser l'expression ci-dessus pour les
normaliser.

10.7 Les solutions non-polynomiales.


La fonction hypergéométrique, les fonctions de Bessel.

10.8 Problèmes.
1. Calculer la fonction poids pour les équations suivantes ; mettre ces équations
sous forme SL :

1. Equation de Legendre (1 − x2 )y 00 − 2xy 0 + n(n + 1)y = 0


2 00 0
2. Equation de Mathieu (1 − x )y − xy + n(n + 1)y = 0
2 00 0 2 2 2
3. Equation de Bessel x y + xy + (k x − m )y = 0
00 0 2 2 2
4. Equation de Bessel y + (1/x)y + (k − m /x )y = 0
2 00 0 2 2
5. Equation de Bessel modiée : x y + νxy + (x − m ) = 0
00 0
6. Equation de Laguerre xy + (1 − x)y + ny = 0
00 0
7. Equation d'Hermite y − 2xy + 2ny = 0

8. x3 y 00 + xy 0 + 2y = 0

2. Démontrer que le système suivant, où tous les coecients sont réél,

(x2 + α1 x + α0 )y 00 + (β1 x + β0 )y 0 − λy = 0
n'a pas de solution polynomiale si α(x) a deux racines complexes [Help : dé-
montrer d'abord que wα n'est pas susement rapidement décroissant et en-
suite qu'on ne peut pas trouver wα continue s'annulant en deux points, pour
pouvoir ensuite le connecter à la solution wα = 0. Pour démontrer ce dernier
point, remarquer que
R α(x) peut se mettre sous la forme de (x − a)2 + b2 et que
dx/α(x) = (1/b)Arctg (x − a) /b].
19. Il sut d'abord de démontrer que fn est un polynôme de degrès n et de démontrer
ensuite que fn et fm sont orthogonale avec le poids w. Comme nous savons que les systèmes
de polynômes orthogonaux avec un poid w sont unique ( à un coecient multiplicatif près, voir
un des exercices plus bas) nous tenons notre démonstration.

138
10 Les systèmes Sturm-Liouville.

3. Démontrer que le système SL

α(x)y 00 + (β1 x + β0 )y 0 − λy = 0

n'a pas de solution poylnomiale si β1 x + β0 ≡ 0.

4. Soit {Pn } et {Qn } deux ensembles de polynômes orthogonales, avec le même


poids w(x). Démontrer alors que les deux polynomes sont proportionnel : Pn =
an Qn . Autrement dit, à un coecient multiplicatif près, les polynômes orthogo-
naux associés à un poids sont unique.

5. Démontrer que si les polynômes {Pn (x)} sont les fonctions propres d'un sys-
tème SL avec le poids w(x), alors les polynomes {Pn0 (x)} sont orthogonaux avec
le poid w(x)α(x).

6. Déduire de la question précédente que les polynômes ultrasphériques Gm


n (x)
s'obtiennent à partir des polynomes de legendre :

dm
Gm
n−m (x) = Pn (x)
dxm
Quelle est la relation entre les ultrasphériques et les fonctions de legendre asso-
ciés ?

7. Les polynômes de Tchebychev Tn (x) sont des polynômes de Jacobi pour


p = q = −1/2. En écrivant l'orthogonalité des ces fonctions (et en supposant
Tn (1) = 1) déduire que Tn (cos(θ)) = cos nθ.
√ √
8. A quelle équation obéit la fonction fn (x) = (1/ x)H2n+1 ( x) ? Pouvez vous
établir une relation entre cette fonction est un polynôme de laguerre associé ?

9. Soit l'équation aux valeurs propres

v 00 − x2 v = −λv

D'après ce que nous avons dit, cette équation n'a pas de solution polynômiale.
On peut cependant la mettre sous une meilleure forme. Poser

v(x) = ef (x) φ(x)

Et déduire une équation pour la fonction φ(x). Comment faut il choisir la fonction
f (x) pour éliminer le terme en −x2 φ(x) (attention au signe choisi) ? Que devient
alors l'équation au valeurs propres pour φ? Comment les valeurs propres sont

139
10 Les systèmes Sturm-Liouville.

distribuée ? Utiliser ces résultats pour donner la solution complète de l'équation


de Schrodinger de l'oscillateur harmonique

∂ψ ∂2ψ
i = − 2 + x2 ψ
∂t ∂x
sur l'intervalle x ∈] − ∞, +∞[

10. Quelle est la relation entre la fonction Hyper-Geometrique F (a, b, c; x) so-


lution de
x(1 − x)u00 + [c − (a + b)x]u0 − abu = 0
et les polynômes de Jacobi ?

11. Démontrer que les polynômes orthogonaux obéissent à la relation de récur-


rence
fn+1 (x) = (An + Bn x)fn (x) + Cn fn−1 (x)
où vous obtiendrez les coecients An , Bn , Cn . [Help : Choisir An , Bn pour que
∆ = fn+1 − (An + Bn x)fn soit un polynôme de degrés n − 1 et projeter cette
l
diérence sur la base des fi pour i ≤ n − 1. Il faut utiliser le fait que (fk , x )w = 0
si l < k ]


12. Soit wαy , où y est la solution d'un système Sturm-Liouville αy 00 +
u(x) =
0
βy = λy . Démontrer que u obéit à une équation du genre

u00 + Ru = 0

où il faut expliciter la fonction R(x). Cette forme est le point de départ d'une
approximation célébre, appelé WKB.

140
11 Le calcul variationnel
11.1 Introduction.
Dès que vous avez vu les bases de l'analyse, vous avez appris à répondre à la
question suivante : comment trouver le point x pour lequel la fonction f (x) est
maximum (ou minimum) ? f est une machine qui prend un nombre en entrée et
produit un nombre en sortie. La question ci-dessus en réalité est celle de trouver
un extremum local : un point qui produit la sortie la plus grande (ou la plus
petite) que tous ses voisins immédiats. Nous savons que pour un tel point x∗,

f 0 (x∗) = 0.

Donnons nous maintenant une fonctionnelle S. Ceci est une machine qui prend
une fonction en entrée et produit un nombre en sortie. Par exemple

Z b
f (x)2 + f 02 (x) dx
 
S(f ) = (11.1)
a

est une fonctionnelle qui prend une fonction, ajoute son carré et le carré de sa
dérivée et les intègre entre deux bornes pour produire un nombre. Si on entre la
fonction sin x dans cette machine, elle produit le nombre b − a. Si on y entre la
fonction exp x, elle produit le nombre 2 exp(2b) − 2 exp(2a).
Le calcul variationnel consiste à répondre à la question suivante : quelle est la
fonction f qui produit la plus grande sortie S(f ) ? La réponse que nous allons
voir par la suite est que f doit satisfaire une équation diérentielle qui est relié à
la forme de la fonctionnelle S.
Donnons deux exemples avant d'aller plus loin.

Brachistochrone. L'exemple le plus important historiquement est celui du bra-


chistochrone. Soit un point A(0, 0) situé dans le plan vertical, relié à un point
B(x1 , y1 ) par un toboggan dont la forme est donnée par la fonction y = f (x). On
laisse un objet glisser sans frottement du point A le long du toboggan. Comment
choisir la forme du toboggan, (la fonction f ), pour que le temps d'arrivé au point
B soit minimum ? Vous voyez qu'une fois qu'on se donne un toboggan, c'est à
dire une fonction, en utilisant quelques notion de mécanique et de conservation
d'énergie, on peut calculer le temps de parcours, c'est à dire un scalaire. Essayons

141
11 Le calcul variationnel

de mettre cela
p en forme. La vitesse de l'objet à l'ordonnée
p y vaut 2gy.L'élément
d'arc ds = dx2 + dy 2 = (1 + f 0 (x)2 dx est parcouru en un temps dt = ds/v .
Le temps total du parcours est donc

s
x1
1 + f 0 (x)2
Z
T = dx
0 2gf (x)

1
Et il faut trouver la fonction f qui minimise cette intégrale . Ce problème avait
été lancé comme un dé par un des frères Bernoulli vers 1690 (à peine dix ans
après l'invention du calcul diérentiel) à la communauté scientiques. Tous les
grands (Newton, Leibnitz, l'autre Bernoulli, Hospital, ...) y répondirent. Euler
(~1740) a trouvé une solution générale de ce genre de problème et Lagrange
(~1780) les a généralisé à la mécanique.

Mécanique analytique. Prenons une particule de masse m qui quitte le point


x=0 au temps t=0 et arrive à un autre point x = x1 t = t1 . Cette
au temps
particule est soumise à un potentiel V (x). Le mouvement de la particule est donné
par la fonction x(t). La fonction x(t) qui minimise
Z t1
(m/2)ẋ2 (t) − V (x(t)) dt
 
S= (11.2)
0

est la trajectoire suivie par la particule. Ceci est une nouvelle formulation de
la mécanique. Classiquement, nous résolvons l'équation diérentielle F = ma
où la fonction F (x) = −dV /dx et a = d2 x/dt2 pour remonter à la trajectoire
x(t). Ici, la démarche est diérente : de toute les trajectoires possibles qui relie
(0, 0) à (t1 , x1 ), la particule choisit justement celle qui minimise l'intégrale (11.2).
Comme si un dieu calculait le coût (qu'on appelle l'action S ) de chaque trajec-
toire et choisissait la meilleure. Bien sûr, cette formulation de la mécanique et la
formulation Newtonienne sont équivalente, bien que la formulation lagrangienne
soit beaucoup plus profonde et pratique. Notez que la quantité dans l'intégrale
n'est pas l'énergie totale, mais l'énergie cinétique moins l'énergie potentielle. On
appelle cette quantité le Lagrangien.

1. A première vue, il semble qu'il manque quelque à cette formulation : l'intégrale ne contient
pas de référence à y1 et nous n'exigeons apparemment pas que la particule nisse sa trajectoire
à l'ordonné y1 . Nous y reviendrons plus tard, quand nous aborderons les contraines.

142
11 Le calcul variationnel

11.2 Calcul des variations.


Formulons correctement notre problème (nous n'allons pas attaquer le cas le
plus général pour l'instant). Soit la fonctionnelle

Z b
S[f ] = L[f (t), f 0 (t), t]dt (11.3)
a

Trouver la fonction f (t), avec les conditions f (a) = y0 et f (b) = y1 pour laquelle
l'intégrale est un extremum.
Traditionnellement, la fonction L qui se trouve sous l'intégrale est appelé le
Lagrangien. C'est une fonction tout ce qu'il y a de plus normal. Par exemple,
L(x, y) = x2 + y 2 . Comme à un instant donné, f (t) et f 0 (t) sont des nombres, il
est tout à fait légitime de calculer L[f (t), f (t)] qui dans ce cas, vaut f (t)2 +f 0 (t)2
0

comme l'expression que nous avions écrit dans (11.1). En plus, nous avons le droit
de prendre les dérivées partielles de L : par exemple, dans ce cas, ∂L/∂x = 2x et
∂L/∂y = 2y . Il est usuel, si nous avions noté L[f (t), f 0 (t)], de noter ces dérivées
partielles par ∂L/∂f et ∂L/∂f 0 : cela veut juste dire dérivée partielle par rapport
au premier ou deuxième argument. Dans ce cas, nous aurions eu par exemple
∂L/∂f 0 = 2f 0 (t). D'ailleurs, ∂L/∂f 0 t et on peut par
est ici une fonction de
exemple prendre sa dérivée par rapport au temps : d[∂L/∂f 0 ]/dt = 2f 00 (t). Si au
0
début, vous trouvez cette notation abrupte, remplacez f et f avant les dérivations
par x et y , et remettez les à leur place une fois les opérations terminées. Mais
on prend vite l'habitude de ces notations. Notez également que l'on ne cherche
pas n'importe quelle fonction, mais les fonctions qui prennent des valeurs bien
déterminée (y0 et y1 ) aux bords a et b.
Avant d'aller plus loin, revenons un instant au cas d'une fonction f (x) dont ont
veut trouver l'extremum. Si nous connaissons la valeur de la fonction au point x,
alors son accroissement quand on se déplace au point x+ est donnée par

df = f (x + ) − f (x) = A(x) + termes d'ordres 2 + ...

La première partie de l'accroissement (celle qui est importante quand  est petit)
est linéaire en : si nous avions pris un  deux fois plus grand, nous aurions eu un
accroissement deux fois plus grand également. La fonction A(x) est le coecient
de proportionnalité entre df et  au point x, et nous avons plus l'habitude de la
0
noter par f (x). Le point x est un extremum si le coecient de proportionnalité
0
f (x) = 0, c'est à dire qu'en se déplaçant autour du point x, l'accroissement de f
(à l'ordre 1 en  ) est nulle.
Nous n'avons qu'à suivre cette méthodologie pour trouver l'extremum de notre
fonctionnelle S[f ] : Nous allons ajouter la fonction g(t) à la fonction f (t), et
calculer l'accroissement de la fonctionnelle dS = S[f + g] − S[f ]. Avec un peu de
chance, cette accroissement comporte un terme linéaire en  :

143
11 Le calcul variationnel

y1
f+εg
f

y0

a b

Figure 11.1  Une fonction f et une variation g autour de cette fonction.

dS = S[f + g] − S[f ] = A[f, g]. + termes d'ordre 2 + ...

où A[f, g] est un coecient de proportionnalité qui dépend des fonctions f et


g. Nous disons que f est un extremum si A[f, g] = 0 quelque soit g! Cela est
analogue à trouver l'extremum d'une fonction de plusieurs variables : le point
(x∗ , y ∗ , z ∗ , ...) est un extremum de la fonction f (x, y, z, ...) si en ce point, quelque
soit le déplacement ( par exemple (dx, 0, 0, ...) ou (0, dy, dz, ...) ) la partie linéaire
de l'accroissement est nulle. Une fonction, comme nous l'avons vu au chapitre 1,
n'est nalement qu'un point dans un espace à dimension inni ; une fonctionnelle
est comme une fonction d'une innité de variable. Quelque soit g dans l'expression
précédente veut simplement dire quelque soit le déplacement dans cet espace.
Il faut prendre une précaution : nous ne cherchons que des fonctions pour
lesquelles f (a) = y0 et f (b) = y1 . Comme f satisfait déjà à cette condition, pour
que f + g la fasse également, nous ne devons considérer que des fonctions g tel
que g(a) = g(b) = 0. Les fonctions g ne sont pas donc tout à fait quelconque.
Nous obtenons :

Z b
S[f + g] = L[f (t) + g(t) , f 0 (t) + g 0 (t)]dt (11.4)
a
b b
∂L ∂L 0
Z Z
= S[f ] +  g(t)dt +  g (t)dt + ...
a ∂f a ∂f 0

où nous avons simplement utilisé le fait que L(x+h, y+k) = L(x, y)+(∂L/∂x)h+
(∂L/∂y)k+... On peut déjà voir la partie linéaire apparaître. Nous pouvons mettre

144
11 Le calcul variationnel

la deuxième intégrale un peu plus en forme en faisant une intégration par partie :

b  b Z b  
∂L 0 ∂L d ∂L
Z
g (t)dt = g(t) − g(t)dt
a ∂f 0 ∂f 0 a a dt ∂f
0

La première partie est nulle, puisque la fonction g vaut justement 0 sur les bords.
En remettant ce qui reste dans l'expression (11.4), nous avons :

b   
∂L d ∂L
Z
dS =  − g(t)dt + ...
a ∂f dt ∂f 0

L'intégrale est notre facteur de proportionnalité entre dS et . Si la fonction f


est un extremum, alors l'intégrale doit être nulle quelque soit la fonction g. La
seule possibilité est donc que f satisfasse à l'équation diérentielle

 
∂L d ∂L
− =0 (11.5)
∂f dt ∂f 0

qui est appelé l'équation d'Euler-Lagrange. Notez que cette équation est homo-
gène dimentionnellement. Faisons quelques exercices pour nous xer les idées.

Identité de Beltrami. Evaluons l'expression

   
d 0∂L ∂L
00 0 d ∂L ∂L 0 ∂L 00 ∂L
f −L = f +f − f − f −
dt ∂f 0 ∂f 0 dt ∂f 0 ∂f ∂f 0 ∂t
   
d ∂L ∂L ∂L
= f0 − −
dt ∂f 0 ∂f ∂t

Si L ne dépend pas explicitement de t, alors ∂L/∂t = 0 ; par ailleurs, l'expression


entre parenthèse n'est que l'équation d'Euler-Lagrange et vaut zéro par construc-
tion. Nous en déduisons que si le Lagrangien ne dépend pas explicitement du
temps, alors
∂L
f0 − L = Cte
∂f 0
Ceci est appelé l'identité de Beltrami. En mécanique, ceci n'est rien d'autre que
la conservation d'énergie (exercice : le démontrer) ; elle est cependant de portée
plus générale et facilite grandement les calculs dans les problèmes où la variable
indépendante n'intervient pas explicitement, comme dans le problème du brachis-
tochrone.

Exemple : Mécanique et loi de Newton. En mécanique analytique d'un point


matériel, le lagrangien est L = T −V , où T est l'énergie cinétique est V l'énergie

145
11 Le calcul variationnel

potentiel. Si on se restreint au cas unidimensionnel où une particule est soumis à


un potentiel V (x), alors pour la particule de trajectoire x(t),

L(x, ẋ) = (1/2)mẋ2 − V (x).

Le premier terme de l'équation d'Euler-Lagrange est

∂L dV
=−
∂x dx
Comme nous l'avons mentionné ci-dessus, le seul terme qui dépend de la première
variable x est V (x). Remplacer mentalement la deuxième variable ẋpar y dans
l'expression du lagrangien avant la dérivation si cela vous dérange. La dérivation
par rapport à la deuxième variable ( ẋ )donne

∂L
= mẋ
∂ ẋ
et la dérivation par rapport au temps de cette dernière nous donne
 
d ∂L
= mẍ
dt ∂ ẋ

et l'équation d'E.L. s'écrit nalement

mẍ + dV /dx = 0

Ce qui est bien sûr la même chose que l'équation de Newton F = ma.
Allons un peu plus loin. Supposons que le potentiel est constant V (x) = Cte,
s'est à dire que la particule se meut dans une région de l'espace où il n'est pas
soumis à une force. On peut également dire que cette région de l'espace possède
une symétrie d'invariance par translation : deux particules identiques placé à
deux endroits diérents de l'espace réagirait exactement de même ; dit encore
autrement, nous n'avons aucune méthode pour déterminer où l'on se trouve dans
l'espace. Dans ce cas, ∂L/∂x = 0, et l'équation d'E.L. s'écrit

 
d ∂L
=0
dt ∂ ẋ

ou encore la quantité p = ∂L/∂ ẋ = Cte. Or, p n'est autre chose que la quantité du
mouvement p = mẋ. Donc, symétrie d'invariance par translation dans l'espace
nous impose la conservation de la quantité du mouvement. C'est un concept
2
extrêmement profond : à chaque symétrie du Lagrangien correspond une loi de

2. Ceci s'appelle le théorème de Noether, du nom de la mathématicienne allemande qui l'a


formulé vers 1912.

146
11 Le calcul variationnel

conservation. La conservation de l'énergie est liée à la symétrie de translation


dans le temps, la conservation du moment cinétique est associé à l'invariance par
rotation autour d'un axe et ainsi de suite. En physique, une théorie n'est bien
formé que si on peut la formuler sous forme variationnelle et chercher, par la
symétrie sous-jacente du lagrangien, ses lois de conservation. Plus tard dans ce
chapitre, nous verrons les formulations lagrangienne de l'électromagnétisme et de
la mécanique quantique quand nous verrons comment traiter les champs.

11.3 Plusieurs degrés de libertés.


Parfois, souvent, le lagrangien dépend de plusieurs fonctions. Par exemple,
une particule dans l'espace habituel possède trois degrés de libertés x1 , x2 , x3
etL = L(x1 , x2 , xP
3 , x˙1 , x˙2 , x˙3 ). Si les xi sont les coordonnées cartésiennes, nous
2
avons L = (m/2) i xi − V (r). La démarche ci-dessus peut-être répétée mot à
mot pour démontrer que nous aurons une équation d'E.L. pour chaque degrés de
liberté :  
∂L d ∂L
− =0 (11.6)
∂xi dt ∂ ẋi
L'approche lagrangienne ne dépend pas du choix de coordonnées, bien évidem-
ment. Il sut donc de pouvoir écrire l'énergie cinétique et potentielle pour déduire
les équations du mouvement de façon automatique.

Exemple 1 : mouvement dans un champ central. Il est facile de passer de


l'expression de l'énergie cinétique en coordonnées cartésiennes (on pose m = 1)
T = ẋ2 + ẏ 2 + ż 2 aux coordonnées sphériques, T = ṙ2 +r2 θ̇2 +r2 sin2 θφ̇2 . L'énergie
potentiel est V (r), ce qui donne le lagrangien

L = ṙ2 + r2 θ̇2 + r2 sin2 θφ̇2 − V (r)


En écrivant E.L. pour θ :

4rṙθ̇ + 2r2 θ̈ − 2r2 sin θ cos θφ̇2 = 0 (11.7)

Nous remarquons que nous avons une symétrie : si nous avions choisi nos axes
pour que à t = 0, θ = π/2 et θ̇ = 0 ( ce qui revient à choisir le plan xy déni par le
rayon vecteur de la particule et sa vitesse ), alors θ(t) = π/2 vérie trivialement
l'équation (11.7) : la particule reste dans le plan xy . Le lagrangien s'écrit plus
simplement donc
L = ṙ2 + r2 φ̇2 − V (r)
Nous remarquons que φ n'intervient pas dans le lagrangien, le moment associé à
cette variable se conserve donc :

∂L
pφ = = 2r2 φ̇ = cte
∂ φ̇

147
11 Le calcul variationnel

Ceci n'est rien d'autre que la conservation du moment cinétique, comme nous
l'avions annoncé ci-dessus. Finalement, il faut écrire l'E.L. pour r et résoudre
les équations diérentielles résultantes. Le lecteur trouvera la solution de ses
équations dans les livres de mécanique.

Exemple 2 : Pendule paramétrique. Soit un pendule de masse m=1 restreint


au plan xy (on suppose la gravité selon l'axe y) dont la longueur varie de façon
périodique dans le temps : ` = `(t). Quelle est son équation de mouvement ?
Le système possède un seul degrés de liberté. Nous choisissons l'angle θ que
fait le pendule avec l'axey comme ce degrés. L'énergie cinétique est donnée par
T = (ẋ2 + ẏ 2 )/2. Comme x = ` sin θ et y = ` cos θ, T = (`˙2 + `2 θ̇2 )/2. L'énergie
potentiel est U = gy = −g` cos θ . Pour le premier terme de l'équation E.L., nous
avons
 
d ∂L d h 2 i
= ` θ̇
dt ∂ θ̇ dt
= `2 θ̈ + 2``˙θ̇

Comme par ailleurs, ∂L/∂θ = −∂U/∂θ = −g` sin θ, nous trouvons l'équation du
mouvement :  
˙
θ̈ + 2 `/` θ̇ + (g/`) sin θ = 0

Si ` est constante, nous retrouvons l'équation classique d'un pendule. Si mainte-


nant ` oscille faiblement autour d'une position moyenne ` = `0 +`1 sin ωt, `0  `1 ,
on peut démontrer qu'il y a phénomène de résonance si la fréquence d'excitation
double
p
ω est le de la fréquence propre Ω= g/`0 ; la phase de l'oscillateur est
alors bloquée (à 0 ou π) sur la phase de l'excitation. Ce procédé est largement
utilisé dans les circuits électroniques.
Vous avez sans doute remarqué avec quelle facilité l'on obtient les équations
du mouvement. En aucun cas on ne doit chercher les forces des réactions des
contraintes, comme dans le cas de la formulation Newtonienne. Il existe une
interprétation géométrique extrêmement profonde de cette approche qui peut-
être trouvé dans les livres de mécanique analytique. Nous ne continuerons pas
plus le sujet ici.

Dérivation vectorielle.

Nous avons vu ci-dessus comment dériver les équations d'Euler-Lagrange quand


le Lagrangien dépend de plusieurs fonctions x1 , x2 , ...xn d'une seule variable t.
Très souvent cependant, les fonctions xi (t) sont les coordonnées d'un vecteur et
il est vraiment dommage de devoir décomposer le vecteur en ses composantes.
Ainsi, au lieu d'écrire F = ma, nous sommes amenés à écrire n équations du

148
11 Le calcul variationnel

genre fx = mẍ, fy = mÿ , ... Nous pouvons vectoriser les équations E-L pour
nous éviter ce gymnastique inutile et donner un sens géométrique à nos équations.
Pour cela, nous devons généraliser le concept de dérivation. Premièrement,
remarquons que le Lagrangien est toujours un scalaire. Un Lagrangien avec un
sens géométrique ne doit donc faire intervenir que des opérations sur les vecteurs
dont le résultats est un scalaire intrinsèque, c'est à dire un scalaire dont le résultat
ne dépend pas du système de coordonnées que nous avons choisi. Le meilleurs
exemple d'une telle opération est le produit scalaire.
Prenons par exemple, dans l'espace à trois dimensions, la fonction f (r) = r.r ;
si nous nous sommes équipées de coordonnées cartésiennes, ceci est un racourci
pour écrire
f (x, y, z) = x2 + y 2 + z 2
Nous pouvons donc donner un sens à des expressions tel que ∂x f . Pouvons nous
∂f /∂r ? La réponse est évidemment oui si nous nous
donner un sens à l'expression
souvenons de la dénition de la dérivée. Faisons un petit déplacement u autour
du point r et mesurons la partie linéaire du changement dans la fonction f

df = f (r + u) − f (r)
= (r + u).(r + u) − r.r
= 2r.u + O(u2 )

Nous pouvons donc eectivement écrire la partie linéaire comme


 
∂f
df = .u
∂r

où (∂f /∂r) représente le vecteur 2r. Ceci est l'exact equivalent (et la générali-
sation) de la dérivée de la fonction d'une seule variable scalaire f (x) = x2 , où
0
f (x) = 2x. En analyse vectorielle, la quantité (∂f /∂r) est souvent notée gradf
3
ou ∇f .
Nous pouvons généraliser le produit scalaire en utilisant les notations matri-
cielle. Dans ce cas, le produit scalaire ci-dessus s'écrit rT r où rT est un vecteur
colonne associé à r. De façon encore plus générale, nous pouvons avoir des ex-
T
pressions du genre f (r) = r Ar où A est une application bilinéaire, qu'on appelle
plus comunément un tenseur de rang 2. Il n'est pas dicile alors de voir que

df = rT (A + AT ) .u


Si l'on note As = (A + AT )/2 la partie symmétrique de l'application A, nous


avons ∂f /∂r = 2rT As . Cette formulation est développée en détail dans le chapitre
consacré au tenseur. Notons simplement que l'application A peut être utilisé pour

3. Voir les chapitres sur les formes diérentielles et le calcul tensoriel.

149
11 Le calcul variationnel

gérer simplement les changement de coordonnées. A 2 dimensions, en coordonnées


polaire par exemple, nous avons

 
1 0
A=
0 r2

Exercice. Soit le Lagrangien L = (1/2)mẋ.ẋ + V (x). Démontrer que les équa-


tions d'Euler-Lagrange s'écrivent

mẍ = −gradV

11.4 Formulation Lagrangienne et équation du


mouvement d'un champ.
Là où le calcul variationnel montre toute sa puissance est pour l'obtention
d'équations d'évolution pour un champ : la hauteur d'une corde vibrante, le
champ électromagnétique, le champ des contraintes élastique dans un solide, le
champ des amplitudes en mécanique quantique. Peut importe le champ, il sut
de pouvoir formuler un lagrangien, c'est à dire l'énergie cinétique moins l'énergie
potentielle, et le tour est joué. La diérence par rapport à ce que nous avons
développé ci-dessus est minime. Jusque là, nous avions considéré des lagrangiens
fonctions de plusieurs xi , chacune de ces dernières fonction d'une variable t. Là,
nous allons considérer des lagrangien fonction de plusieurs φi , chacune de ces
dernières fonction de plusieurs variable.

Exemple fondamental. Pour xer les idées, considérons le cas de la corde vi-
brante xée à ces deux extrémités (x = 0 et x = L). A chaque instant t, la
hauteur de la corde à la position x est donnée par φ(x, t). Étant donnée la forme
de la corde à l'instant t0 (φ(x, t0 ) = y0 (x) ) et t1 (φ(x, t1 ) = y1 (x) ), quelle est
l'évolution de la corde qui minimise l'action ? La trajectoire de la corde est alors
la surface reliant y0 (x) à y1 (x) dans le temps.
A un instant donnée t, l'énergie cinétique de la corde est donnée par la somme
de l'énergie cinétique de tout ses points matériel,

Z L
2
T = ρ (∂φ/∂t) dx
0

et son énergie potentielle est l'énergie élastique des déformations

Z L
2
V = k (∂φ/∂x) dx (11.8)
0

150
11 Le calcul variationnel

où ρ est la densité de la ligne et k sa constante élastique. Notant c2 = k/ρ, l'action


(le coût d'une trajectoire φ(x, t) ) est

Z t1 Z L h i
2 2
S[φ] = (∂φ/∂t) − c2 (∂φ/∂x) dxdt
t0 0

En considérant une variation g(x, t) autour de la trajectoire φ(x, t), nous trou-
vons qu'à l'ordre 1 en , la variation de l'action est

t1 L  
∂φ ∂g 2 ∂φ ∂g
Z Z
S[φ + g] − S[φ] =  −c dxdt
t0 0 ∂t ∂t ∂x ∂x

En faisant des intégration par partie, nous trouvons

t1 L
∂2φ 2
 
2∂ φ
Z Z
δS = − c gdxdt
t0 0 ∂t2 ∂x2

δS = 0 quelque soit la variation g que si le terme entre []est nul, c'est à dire

∂2φ ∂2φ
2
− c2 2 = 0
∂t ∂x
qui est bien sûr l'équation d'onde bien connue.

Equation générale du mouvement de champ. Nous pouvons maintenant gé-


néraliser cette approche par des calculs aussi élémentaires que ceux ci-dessus,
l'étape le plus technique étant une intégration par partie. Soit un domaine D
dans un esapce à n dimensions, où nous cherchons à trouver l'extrémum de la
fonctionnelle Z
S[u] = L(u,1 , ..., u,n , u, x1 , ...xn )dn x
D

où u,i = ∂u/∂xi . La valeur de la fonction u(x1 , ..., xn ) sur la frontière du domaine


D étant xé. L'équation d'Euler-Lagrange pour ce champ est donné par

n  
X ∂ ∂L ∂L
− =0
i=1
∂x i ∂u,i ∂u

Remarquez que cette expression est une simple généralisation d'EL à une dimen-
sion : l'expression de dérivation de moment (d/dx)(∂L/∂u0 ) est remplacée par la
somme de toutes les dérivées partielles.

151
11 Le calcul variationnel

Tenseur energie-impulsion. Nous pouvons pousser un peu plus loin. Nous avons
vu l'égalité de Beltrami quand nous avons une fonction d'une variable et que le
lagrangien ne dépend pas de la variable indépendante :

 
d ∂L
y0 −L =0
dx ∂y 0

ou si nous voulions l'écrire avec nos notations sophistiquées

 
d ∂L
y,x −L =0
dx ∂y,x

ou nous avons noté y,x = y 0 = dy/dx. Si L représente le Lagrangien de la méc-


naique analytique, le terme entre crochet rerpésente l'Hamiltonien, une quan-
tité scalaire. Nous pouvons généraliser ce concept au lagrangien d'un champ
u(x1 , x2 , ...xn ) qui ne dépend pas explicitement des variables indépendantes. En
4
notant  
∂L
Tij = u,i − δij L
∂u,j
nous pouvons obtenir l'équivalent de l'identité de Beltrami pour un champ :

n
X ∂Tij
=0
j=1
∂xj

la quantité T qui joue le rôle de l'Hamiltonian pour le champ est souvent appelé
en physique le tenseur énergie-impulsion. Le lecteur interessé pourra consulter
5
des livres de géométrie pour voir la signication générale de ce tenseur .

Exercices.

1. Pour une corde vibrante dans un champ de gravitation, nous devons ajouter
ρ0 φdx à l'énergie potentielle (11.8) où ρ0 est le produit de
R
le terme Vg =
I
la densité par l'accélaration de la gravité. Déduire l'équation du mouvement
du champ dans ce cas. Même question si la corde se trouve dans un potentiel
κφ2 dx.
R
harmonique Vh = I
2. Calculer le tenseur energie-impulsion pour la corde vibrante sans potentiel
extérieur. Que représente Ttt ? Que veut dire l'identité de Beltrami dans ce
cas ? Que représente alors Ttx ?

4. Rappelons que δij = 0 si i 6= j et 1 sinon. Ceci est appelé le symbole de Kroneker


5. Notons quand même que cela ressembe à une expression du genre divT = 0. Classique-
ment, la divergence est déni pour un vecteur et est fortement associée au ux de ce vecteur à
travers une surface. Il n'est pas trop dicile de donner un sens au concept du ux d'un tenseur.

152
11 Le calcul variationnel

3. Déduire les équations du mouvements d'un champ dans un espace à


Rn−dimension,
où l'expression de l'énergie potentielle (interne) est donné par V = I
k(∇φ)2 dr.
Ceci généralise l'équation de la corde vibrante.

4. Déduire l'équation du mouvement d'un champ dans un espace à n−dimension


anisotrope, où l'expression de l'énergie potentielle (interne) est donné par

∂φ ∂φ
Z X
V = aij dr
I i,j ∂xi ∂xj

où pour les coecients, nous pouvons supposer aij = aji (pourquoi ?). Ce
genre d'expression se rencontre fréquemment dans des problèmes comme
l'élasticité des cristaux, où les déformations dans les diérentes directions
ne sont pas équivalentes.

11.5 Optimisation sous contraintes.

11.5.1 Les déplacements compatibles.

Oublions pour l'instant le problème de l'extremum d'une fonctionnelle, et reve-


nons au problème beaucoup plus simple de l'extremum d'une fonction de plusieurs
variables. Soit la fonction f (x, y) dont nous cherchons l'extremum. Nous savons
qu'au point extremum, les termes linéaires des variations doivent être nulle
   
∂f ∂f
df = f (x + h, y + k) − f (x, y) = h+ k + O(h2 , k 2 )
∂x ∂y
et ceci quelque soit h, k : quelque soit la direction que l'on prend au point extre-
mum, le terme linéaire de la variation doit être nulle.
Supposons maintenant que nous ajoutons une contrainte : nous ne cherchons
pas l'extremum absolu de f , mais un point x∗ qui satisfasse en plus à la contrainte
g(x, y) = 0. Par exemple, nous savons que le minimum de la fonction f (x, y) =
x2 +y 2 est le point (0, 0). Mais si nous contraignons notre point à se déplacer sur la
courbe y = ax + b, b 6= 0, le point (0, 0) n'est pas atteignable. On peut cependant
6
chercher un point qui minimise f avec la contrainte donnée . Dans le cas simple
que nous somme en train de traiter ici, on peut résoudre une coordonnées par
rapport à l'autre et ramener la fonction à une seule variable (degrés de liberté) :
f (x) = x2 + (ax + b)2 et chercher maintenant le minimum de cette nouvelle
fonction (où les contraintes ont été absorbées). En général cependant, la fonction
contrainte g(x, y) = 0 est susamment compliquée pour qu'on ne puisse pas
résoudre une des coordonnées par rapport aux autres.

6. Imaginer que vous marchez en montagne sur un chemin, et vous vous intéressez au point
le plus bas sur ce chemin et non pas en général.

153
11 Le calcul variationnel
4
g(x,y)=0

2
A

0
O

−2

−4
−4 −2 0 2 4

Figure 11.2  La fonction f (x, y) = x2 + y2 est représentée par ses courbes de


niveau. Le minimum absolu de cette fonction est le point O =
(0, 0). Le point le plus bas de la fonction qui doit également
appartenir à la courbe g(x, y) = 0 est le point A.

Revenons à la dénition général : la variation linéaire de la fonction autour


du point extremum (x∗ , y ∗ ) doit être nulle quelque soit le déplacement (h, k)
autour de ce point. En présence des contraintes, nous relâchons cette exigence :
il faut que la variation linéaire autour du point (x∗ , y ∗ ) soit nulle seulement
pour les déplacement (h, k) compatible 7
avec les contraintes . Les déplacements
compatibles avec la contrainte g(x, y) = 0 sont données par

(∂g/∂x)h + (∂g/∂y)k = 0

Ceci nous donne une équation supplémentaire à considérer avec l'équation

df = (∂f /∂x)h + (∂f /∂y)k = 0

Nous sommes arrivés à un système de deux équations à deux inconnus linéaire.


En résolvant k en fonction de h dans la première équation et en l'injectant dans
la deuxième, et en exigeant maintenant que df soit nulle quelque soit h, nous
8
obtenons
(∂f /∂x)(∂g/∂y) − (∂f /∂y)(∂g/∂x) = 0 (11.9)

Ceci est une condition supplémentaire sur l'extremum de la fonction f.

7. En mécanique, cela est appelé la méthode des travaux virtuels


8. On peut également dire que pour que le système Ah + Bk = 0, Ch + Dk = 0 ait une
solution non trivial h = k = 0, il faut que le déterminant de la matrice
 
A B
C D
soit nulle.

154
11 Le calcul variationnel

Exemple. Trouver l'extremum de la fonction f (x, y) = x2 +y 2 avec la contrainte


g(x, y) = −ax + y − b = 0. En écrivant la condition (11.9), nous obtenons

(2x)1 − (2y)(−a) = 0

ou autrement dit, x + ay = 0. En combinant cette équation avec la contrainte


y = ax+b, nous trouvons les coordonnées du point extremum : x∗ = −ab/(1+a2 ),
y ∗ = b/(1 + a2 ).

11.5.2 Les multiplicateurs de Lagrange.

Lagrange a introduit une méthode équivalente à ce que nous venons de voir


ci-dessus. Nous voulons optimiser f (x, y) avec la contrainte g(x, y) = 0. Lagrange
introduit une variable supplémentaire, λ et considère maintenant le problème de
l'optimisation (libre) de la fonction F (x, y, λ) = f (x, y) − λg(x, y). Cela nous
donne

∂F ∂f ∂g
= −λ =0 (11.10)
∂x ∂x ∂x
∂F ∂f ∂g
= −λ =0 (11.11)
∂y ∂y ∂y
∂F
= g(x, y) = 0 (11.12)
∂λ
L'équation (11.12) n'est rien d'autre que la contrainte et assure que la solution
trouvée est bien conforme. Les deux premières équations (11.10,11.11) ne sont
rien d'autre que la condition (11.9) si on y élimine λ.

Re-exemple. Minimisons la fonctionf (x, y) = x2 +y 2 avec la contrainte g(x, y) =


−ax + y − b = 0. Nous introduisons la fonction F (x, y) = x2 + y 2 − λ(−ax + y − b).
Cela nous donne

2x + λa = 0
2y − λ = 0

Ce qui bien sûr nous donne x + ay = 0. Nous trouvons à nouveau le même point
optimum ; de plus, si on le souhaite, on peut trouver également λ∗ = 2y ∗ =
2
2b/(1 + a ).
Le coecient λ est appelé un multiplicateur de Lagrange. La méthode a une
signication physique profonde : supposons que nous avons un point matériel
dans le potentiel f (x, y) astreint à rester sur la courbe g(x, y). Au point x∗ , le
point (qui est stable) est soumis à une force non-nulle de la part du potentiel
F = (∂x f, ∂y f ). Pour qu'il puisse rester sur la position x∗ , il faut que la courbe

155
11 Le calcul variationnel

g(x, y) exerce une force de réaction sur le point qui vaut justement λ∗ (∂x g,∂y g).
Si on enlevait la contrainte mais qu'on soumettait le point matériel à cette force
9
supplémentaire, il se mettrait exactement à la même position.

11.5.3 Généralisation des multiplicateurs de Lagrange.

Les multiplicateurs de Lagrange se généralise de façon naturelle aux fonctions


de n variables soumis à m contrainte. Pour optimiser la fonction f (x1 , ...xn )
soumise aux contraintes g1 (x1 , ...xn ) = 0,...,gm (x1 , ...xn ) = 0, nous considérons
la nouvelle fonction F de n + m variable
F (x1 , ...xn ; λ1 , ...λm ) = f (x1 , ...xn ) − λ1 g1 (x1 , ...xn ) − ... − λm gm (x1 , ...xn )
Nous chercherons l'extremum (sans contrainte) de la fonction F.

Exercice. Démontrer le cas général, en suivant le chemin déjà tracé.


La méthode des multiplicateurs de Lagrange se généralise très naturellement
aux fonctionnelles. Si Nous devons trouver le minimum de la fonctionnelle S[y] =
L(y 0 , y, x)dx g(y 0 , y)dx = A,
R R
avec la contrainte il nous sut d'introduire la
I I
fonctionnelle Z
S 0 [y; λ] = {L(y 0 , y, x) − λg(y 0 , y)}
I
et de chercher le minimum de cette fonctionnelle par les techniques habituelles
du calcul des variations ( expliquer pourquoi nous pouvons omettre la constante
A) .

Exemple : Le problème isopérimétrique. Trouver la courbe fermé de longueur


donné qui maximise sa surface.
10
Supposons que nous pouvons représenter la courbe par une fonction R(θ).
Nous cherchons à minimiser la fonctionnelle
Z 2π
S[R] = (1/2)R2 (θ)dθ (11.13)
0

avec la contrainte Z 2π
R(θ)dθ = L (11.14)
0

9. Cette dualité force-contrainte a joué un grand rôle dans le développement de la mécanique,


de sa formulation Newtonienne dans les années ~1680 à l'apparition du livre de mécanique
analytique par Lagrange en ~1780. Lagrange était er de n'avoir pas inclus une seule gure
dans son livre. En mécanique, la méthode de Lagrange nous permet de calculer une position
d'équilibre sans calculer explicitement les forces de réactions.
10. Ceci est une très grosse supposition. Le lecteur a intérêt a tracer quelques courbes qui ne
sont pas représentable par une fonction R(θ) pour se rendre compte de la simplication que
nous assumons derrière cette supposition.

156
11 Le calcul variationnel

Considérons la nouvelle fonctionnelle


Z 2π
S 0 [R(θ); λ] = (1/2)R2 (θ) − λR(θ) dθ

0

Le terme entre {} (que nous continuons d'appeler le Lagrangien) ne contient


même pas de dérivée de R; l'équation d'Euler-Lagrange nous donne directement

R−λ=0

c'est à dire R = λ = Cte. Ceci est bien un cercle. Pour trouver λ, nous utilisons la
contrainte (11.14), qui nous donne λ = L/2π . La courbe qui minimise la surface
est donc un cercle de rayon R = L/2π .

Exemple : distribution d'énergie dans un système isolé. Soit un système isolé


ayant N particule (N → +∞) et soit c(x) le nombre relatif de particule ayant
une énergie dans l'intervalle [x, x + dx[. Comme le système est isolé, le nombre
de particules et l'énergie totale sont conservés :

Z ∞
c(x)dx = 1 (11.15)
0
Z ∞
xc(x)dx = T (11.16)
0

où nous appelons T l'énergie moyenne par particule : T = E0 /N avec E0 l'énergie


totale du système. Le théorème H de Boltzmann nous apprend que la fonction
c(x) doit être choisi de façon à ce que la quantité

Z ∞
H [c] = c(x). log [c(x)] dx (11.17)
0

soit extremum. La quantité −H est souvent appelé entropie. Avec les deux contraintes
(11.15,11.16), nous devons donc chercher l'extremum de la fonctionnelle

Z ∞ Z ∞ Z ∞
H 0 [c; λ, µ] = c(x). log [c(x)] dx − λ c(x)dx − µ xc(x)dx
0 0 0

Le calcul est assez simple dans ce cas, puisque nous n'avons pas de dérivés dans
la fonctionnelle. En cherchant la valeur de la fonctionnelle pour H 0 [c + g; λ, µ]
et en nous contentant d'ordre 1 en , nous trouvons

Z ∞
H 0 [c + g; λ, µ] = H 0 [c; λ, µ] +  (1 + log c − λ − µx) g(x)dx
0

157
11 Le calcul variationnel

la fonction c(x) est un extremum de la fonctionnelle H0 si les variations linéaires


sont nulle ∀g , c'est à dire si

log c = (λ − 1) + µx

ou autrement dit c(x) = Ae−µx ; l'utilisation des deux contraintes nous donne
A = −µ = 1/T . Autrement dit,

c(x) = (1/T )e−x/T

11.5.4 Formulation variationnelle des systèmes


Sturm-Liouville.

Rappelons qu'un système Sturm-Liouville est une équation aux valeurs propres

α(x)y 00 + β(x)y 0 + γ(x)y = λy

Nous avons mentionné (et insisté) que si nous trouvons un poids w(x) qui rend
l'opérateur hermitien, alors les solutions des systèmes SL minimise une certaine
fonctionnelle. Nous avons vu que si une telle fonction poids existe, alors elle doit
obeïr à l'équation (αw)0 = βw et le système peut alors s'écrire sous la forme
alternative
d
(wαy 0 ) + wγy = λwy
dx
Remarquer que cette forme ressemble furieusement à une équation Euler-Lagrange.
On peut faire le chemin inverse : minimiser la fonctionnelle
Z
p(x)y 02 + q(x)y 2 dx

S[y] =
I

avec la contrainte Z
w(x)y 2 dx = 1
I
Comme on peut le voir, nous pouvons formellement identier l'équation d'Euler-
Lagrange du système ci-dessus à un système SL en posant p = wα, q = −wγ . A
regarder de plus près, la formulation variationnelle d'un système SL, si on assimile
la variable x au temps, ressemble beaucoup à un oscillateur harmonique avec une
masse et une constante de ressort dépendant du temps. Ceci, comme nous l'avons
mentionné, est le point de départ de l'approximation WKB.

158
11 Le calcul variationnel

11.6 Les conditions aux bords naturelles 1.


Revenons à notre formulation initiale de problème d'éxtremum. Nous voulons
trouver l'extremum de la fonctionnelle
Z b
S[y] = L(y 0 , y, x)dx
a

avec les conditions aux bords xée

y(a) = y0 ; y(b) = y1

Pour cela, nous avons écrit la variation de S en fonction d'une petite perturbation
g(x) pour obtenir

 b b  
∂L ∂L d ∂L
Z
δS = g + − gdx (11.18)
∂y 0 a a ∂y dx ∂y 0

et nous avons cherché dans quelles conditions, δS = 0 quelque soit g(x). Nos
conditions aux bords nous ont imposées g(a) = g(b) = 0, donc le premier terme
est nul ; le deuxième terme nous donne les équations d'E-L.
Ceci dit, nous pouvons relacher nos contraintes, et ne pas
exiger que y(a) = y0 , y(b) = y0 . Le problème serait alors :
parmis toutes les courbes entre a et b, trouver celle qui ex-
trémise la fonctionnelle. Dans ce cas, l'annulation de δS
exige toujours l'annulation de l'intégrale, qui nous donnera
comme d'habitude les équation d'Euler Lagrange, et l'an-
nulation du terme de bord. Or, cette fois, comme les bords
ne sont plus xe, nous n'avons plus g(a) = g(b) = 0, pour Figure 11.3  Bords
annuler les termes de surface, nous devons exiger libres

∂L
=0
∂y 0 x=a,b

ce qui nous fournit deux nouvelles conditions en remplacement des conditions


y(a) = y0 , y(b) = y0 . On peut bien sur mixer les conditions : xer y en un bord
et laissery varier sur l'autre bord.

Application 1 : Elasticité des poutres. Pour illustrer ce principe, considérons


un lagrangien qui contient des dérivées d'ordre 2 : L = L(y 00 , y 0 , y, x). Dans ce
cas, la variation s'écrit

b b
d2 ∂L
  
∂L d ∂L ∂L ∂L d ∂L
Z
δS = g− g + 00 g 0 + − + gdx
∂y 0 dx ∂y 00 ∂y a a ∂y dx ∂y 0 dx2 ∂y 00

159
11 Le calcul variationnel

Pour une poutre élastique soumis à une charge f (x) par exmeple, l'énergie s'écrit
Z L  002
E= By − f (x)y dx
0

Si la poutre est encastrée (a), nous avons les


conditions y(0) = y(L) = 0 et y0 (0) = y0 (L) = 0.
Dans ce cas, le terme de bord est automatique-
(a)
ment nulle. Par contre, si la poutre est seulement (b)
posé (b), nous avons seulement y(0) = y(L) = 0.
(c)
Pour trouver les deux autres conditions et annuler
le terme de bord, nous devons avoir ∂L/∂y 00 = 0,
00 00
c'est à dire y (0) = y (L) = 0. Nous laissons au
lecteur le soin de trouver les conditions aux limites Figure 11.4  poutres
pour le cas (c). xées.

Application II : angle de contact. Mettons un


liquide en contact avec un support solide. Le liquide monte le long de la paroi
solide, et par rapport à l'état de référence, l'énergie libre du système s'écrit :

F = γlg (` − L) + (γsl − γsg )h


les coecients γlg ,... sont les tensions de surface liquide-gaz, ... ; ` est la
longueur de l'interface liquide-solide après la montée du liquide, L la lon-
gueur de cette même interface avant la montée, et nous supposerons ces deux
valeurs très grand (→ ∞). h est la longueur de l'interface solide-liquide.
Repérons la courbe du liquide par la fonction
y(x). En mettant le problème sous forme varia-
Sol.
tionnelle, nous avons
Gaz
Z ∞ p 
F [y] = γlg 1 + ẏ 2 − 1 dx + (γsl − γsg )y(0)
0
Liq.
avec la contrainte de conservation de masse qui est
Z ∞
ydx = 0
0

Nous sommes en présence d'une optimisation sous contrainte, en présence de


bords libre, c'est à dire la hauteur du liquide à x=0 et x = ∞. En ajoutant à
y(x) une variation g(x) où g ne s'annule pas sur les bords de l'intervalle, nous
obtenons d'une part une équation d'Euler Lagrange comme d'habitude, et d'autre
part une condition non-trivial sur le bord x=0:
 
∂L
+ (γsl − γsg ) =0
∂ ẏ x=0

160
11 Le calcul variationnel

Or,
∂L γlg ẏ
=p = γlg cos θ
∂ ẏ 1 + ẏ 2
où θ est l'angle entre la tangente et l'axe y. On en déduit l'angle de contact
solide-liquide
γsg − γsl
cos θ =
γlg
La relation ci-dessus est connu sous le nom de la relaton d'Young. Comme la
mesure de l'angle de contact est facile, on l'utilise en général pour mesurer les
tensions de surface.

11.7 Les conditions aux bords naturelles 2.


Dans le paragraphe précédent, l'abscisse x était xée sur les deux bords, y
ayant la liberté de bouger le long d'une droite verticale. Nous pouvons généraliser
encore plus en relachant cette contrainte et permettre aux points sur les bords de
se mouvoir le long d'une courbe quelconque. Supposons, pour la simplicité, que
seulement le bord droit à x=b doit se mouvoir le long d'une courbe y = φ(x).
L'expression (11.18) que nous avions écrit dépend bien sûr du bord, et on peut
écrire la variation causé autour de y(x) par

 b b   b+db
∂L ∂L d ∂L
Z Z
S[y, b] − S[y + g, b + db] = g + − gdx + L(y 0 , y, x)d
∂y 0 a a ∂y dx ∂y 0 b
 b
∂L
g + L(y 0 , y, x)db + {...} (11.19
∂y 0 a

Le terme entre crochet nous donne l'équation d'Euler-Lagrange comme d'habi-


tude sur l'interval [a, b]. Occupons nous seulement des termes du bord. Nous
devons avoir, puisque le point du bord se meut le long de la courbe y = φ(x),

y(b + db) + g(b + db) = φ(x + db)

Cela nous donne, à l'ordre 0 en db, y(b) = φ(b) bien sûr, et de plus, à l'ordre 1 :

g(b) = (φ0 (b) − y 0 (b)) db

Finalement, la variation de S due au bord s'écrit

 
∂L 0 0 0
δS = (φ (b) − y (b)) + L(y , y, x) db
∂y 0

161
11 Le calcul variationnel

et la nullité de ce terme nous impose

∂L ∂L 0
y 0 (b) 0
−L= φ (b)
∂y ∂y 0
Le lecteur peut noter que le terme de gauche est souvent noté H , tandis que
∂L/∂y 0 est souvent noté p. En mécanique analytique, on les appelles l'Hamiltonien
et le moment. L'équation s'écrit donc, sur le bord,

H = pφ0 (b) (11.20)

Résumons : Si db = 0, nous n'avons rien à faire de plus dans l'expression (11.19), et


nous avons notre condition au bord du parapgraphe précédent p = 0. Si db 6= 0,
alors nous devons utiliser la condition plus général (11.20). En particulier, si
φ0 (b) = 0 (nous n'admettons que des déplacelements lelong de l'axe x), alors
nous devons avoir
H=0

Exemple : angle de contact d'une goutte posé sur un substrat solide non
plane.

Exemple 2 : Brachistrochrone générale.

11.8 Détour : éléments de géométries


non-euclidiennes.
Le cinquième axiome d'Euclide est le suivant : d'un point en dehors d'une
droite, on ne peut tracer qu'une et une seule droite parallèle au premier. Pendant
deux millénaires, les mathémiticiens ont cru que ceci n'est pas un axiome, mais
un théorème que l'on peut démontrer à partir des quatre premier axiomes. A
partir de 1830, il est devenu claire que le cinquième mérite le titre d'axiome
et qu'on peut tout a fait formuler d'autres géométries qui acceptent d'autres
axiomes. Nous allons étudier une version simpliée de la géométrie riemanienne.
Pour cela, nous devons donner un sens précis au mot droite : nous le dénirons
dorénavent comme le chemin le plus court entre deux points ; il est plus habituel
alors d'appeler cela une géodésique. Supposons que nous avons muni notre espace
bidimensionnel d'un système de coordonnées (x1 , x2 ). La distance entre deux
points inniments voisins est dénie par

X
ds2 = gij dxi dxj
i,j

162
11 Le calcul variationnel

où gij = gij (x1 , x2 ) est appelé le tenseur métrique. Par exemple, si nous avons
muni le plan euclidien de coordonées polaires, ds2 = dr2 + r2 dθ2 et nous avons
2
(en posant x1 = r , x2 = θ ), g11 = 1, g22 = x , g12 = g21 = 0.
Nous allons considérer dans la suite le cas très particulier où g11 = 1, gi6=j = 0
2 11
et g22 = g (x), où g est une fonction quelconque . Le prérimètre d'une courbe
y(x) reliant deux points est donnée par
Z 2 p
`[y(x)] = 1 + g 2 (x)y 02 dx
1

et il est élémentaire de montrer, d'après les précédents paragraphes, que l'équation


d'Euler-Lagrange nous donne immédiatement l'équation de la courbe :

p
y 0 = a/g g 2 − a2

où a est une constante d'intégration. Dans le cas des coordonnées polaire par
12
exemple où g(x) = x, nous pouvons intégrer l'équation ci-dessus et obtenir
l'équation d'une droite y = α + arccos(a/x) où a et α sont deux constante d'in-
tégration. Pour vous convaincre que cela est eectivement le cas, Il sut d'inte-
préter x comme r et y comme θ, faire un petit schéma et quelques manipulations
d'angles .
Prenons le cas plus intéressant pour nous de g(x) = sin(x). A nouveau, l'inté-
13
gration s'eectue sans diculté et nous obtenons

y = ψ + arccos (cos α cot x)

où ψ et α sont deux constantes d'intégration. Nous voyons par exemple que pour
α = π/2, nous avons une famille de droites données par y = Cte. Prenons la
géodésique y = 0 et considérons le point P = (π/2, π/2) en dehors de cette
droite. Toute les droites traversant ce point doivent avoir le paramètre ψ = 0. Il
n'est pas alors dicile de voir que toute ces droites croisent la droite y = 0 au
point cot x = 1/ cos α.
Nous venons de démontrer dans ce cas que toutes les droites traversant P
croisent une droite ne contenant pas P ; cela est très diérent du cinquième axiome
d'Euclide. Le cas que nous venons de traiter correpsond à la géométrie sphérique :
sur la sphére unité, la distance entre deux points est donnée par ds2 = dθ2 +
2 2
sin θdφ . Mais le point de vue de Rieman est beaucoup plus fondamental que
cela : ce qui caractérise l'espace et qui lui donne sa substance est la donnée du
tenseur métrique. Les habitants de la surface de la sphère unité ne peuvent pas

11. Nous noterons par habitude les coordonnées (x, y) sans leur associer l'idée de coordonnées
cartesiennes
12. il sut d'eectuer le changement de variable u = a/x
13. Il sut de poser u = cot x

163
11 Le calcul variationnel
z

y
r(z)
L
F
a x

(a) (b) (c)

Figure 11.5  (a) : surface minimum entre deux cercle ; (b) ambage d'une
barre ; (c) pont suspendu à une chaînette.

voir qu'ils sont sur une sphére. Ils peuvent par contre visionner les géodésiques
(en suivant les trajets des faisceaux de lumière ) et déterminer la nature de leur
espace en faisant des mesures par exemple de la somme des angles d'un triangle
formé par trois géodésiques. C'est exactement dans ce cadre qu'Einstein a formulé
sa théorie de gravité en 1917, où les masses confèrent de la courbure à l'espace-
temps.

A ajouter.

1. Discuter la Jauge dans le Lagragian et eventuellement le theorème de Noe-


ther.

Problèmes.

1. Surface minimum. Soit deux cercles concentriques de rayon à priori diérents


disposés l'un au dessus de l'autre à une hauteur h. Quelle est la forme de la surface
d'aire minimum qui relie les deux cercles (g. 11.5a) ?

2. Energie de courbure. Comment faut-il écrire les équations d'Euler-Lagrange


si le Lagrangien contient des dérivées secondes ? Plus spéciquement, supposer
que le Lagrangien est de la forme L = y 00 (x)2 + V (y). Généraliser ensuite au cas
L = L(y 00 , y 0 , y, x).

3. Brachistochrone. Nous voulons minimiser


s
x1
1 + y 02
Z
T = dx
0 y

164
11 Le calcul variationnel

En utilisant l'identité de Beltrami, démontrer que la courbe y(x) doit obéir à


l'équation
−1
=C
y(1 + y 02 )
où C est une constante. Résoudre cette équation du première ordre en démontrant
d'abord que
y
r
dx = dy
2a − y
où nous avons posé 1/C 2 = 2a ; integrer cette dernière équation en posant
y = a(1 − cos θ). [Help : nous devons obtenir l'équation du cycloïde sous forme
paramétrique.]

4. Elasticité 1-d. Soit une barre dont on repère les points (avant deformation)
par la coordonnées x. On appuie sur la barre parralèlelement à son axe ; les
points de la barre se déplacent aux coordonnées x0 (Figure 11.6). Nous appe-
lons déplacement u(x) = x − x 0
la fonction qui traque cette quantité. L'énergie
élastique stocké dans la barre est proportionnel au carré du gradient de ce terme :
Z L
E= (1/2)ku0 (x)2 dx
0

où k est la constante élastique de la barre (qu'on appelle


également le module d'Young). La force a eectué le travail
W = F u(L). L'énergie totale de la barre s'écrit donc

Z L
(1/2)ku0 (x)2 − F u0 (x) dx

E=
0
Figure 11.6 
Démontrer alors que u(x) = ax où à est une constante à
determiner. Déterminer a en utilisant les conditions aux bords naturelles (section
11.6). En déduite la loi d'élasticité de Hook

F = Ku(L)

Que vaut K? quelle est sa dépendance en L?

5. Flambage d'une poutre. Appuyez sur une règle tenu verticalement sur une
table ; au delà d'une certaine force, la règle ambe (g.11.5b). Ceci est un pro-
blème extrêmement important de la résistance des matériaux et conditionne
la conception des tours pour qu'ils ne s'écroulent pas (en ambant) sous leurs
propres poids. Repérons la barre par son écart à la droite y(x). En supposant
faible l'écart de la barre par rapport à la droite, l'énergie de courbure de la barre

165
11 Le calcul variationnel

est donné par sa courbure locale B(y 00 (x) )2 . Nous supposons l'extrémité de la
courbe maintenu à y = 0, mais pouvant coulisser sur l'axe x et soumis à une
force F. Pour trouver la conguration qui minimise l'énergie, nous devons donc
trouver l'extremum de la fonctionnelle
Z a
S[y, a] = B(y 00 (x) )2 dx − F (L − a)
0

soumis à la contrainte Z a
(1 + (1/2)y 02 dx = L

0
p
Nous avons approximé ici l'élément de ligne ds = 1 + y 02 par son développement
de Taylor, en supposant les écarts à la ligne (et leurs dérivées) faible. Démontrez
alors que pour F > Fc , la poutre droite n'est plus la solution optimum ; calculer
Fc .

6. Flambage d'une poutre II. Nous pouvons formuler diérement le problème


de ambage, en intégrant directement la contrainte dans le Lagrangien. Pour cela
il sut d'utiliser un système de coordonnées plus adaptés que les coordonnées
cartesienne. Reperons un point le long de la poutre par sa longueur d'arc à partir
de l'origine s, et par l'angle de la tangente à la courbe en ce point avec l'axe
horizontal θ(s). Ce nouveau système de coordonnées est reliée aux coordonnées
cartesiennes par la relation

dx = cos θds
dy = sin θds

La courbure de la courbe en un point est simplement donnée par dθ/ds. L'énergie


s'écrit alors simplement

Z L n o
2
S[θ] = B (θ0 ) + F cos θ ds − F L
0

Que l'on peut traiter par les équation d'EL sans contrainte : la longueur d'arc
s gère automatiquement la constance de la longueur totale de la poutre. Les
coordonnées semi-intrinsèque (s, θ) sont très utilisé en géométrie diérentielle.
Noter de plus la grande similarité de l'action à celle de l'oscillation d'une pendule
dans le champs de la gravité.

7. Angle de contact. Trouver l'angle de contact d'une goutte de liquide déposé


sur une surface solide.

166
11 Le calcul variationnel

8. isopérimétrique II. Chercher la courbe sous forme paramétrique x = x(t),


y = y(t) avec la condition supplémentaire x(1) = x(0) et y(1) = y(0). Ecrire tout
au moins les équations d'Euler-Lagrange.

9. Isopérimétrique III. Quelle est la courbe de surface donnée qui minimise son
périmètre ?

10. Equation de la chainette. Une chaîne y(x) est suspendu entre deux points
distant de a. La longueur totale de la chaîne est L. Trouver l'équation de la
chaîne. Help : A l'évidence, la chaîne doit minimiser l'énergie potentielle, avec
R
une contrainte sur sa longueur. L'energie potentielle est de la forme ρyds ; on
doit donc trouver le minimum de

Z a/2 n p p o
0
H = ρy 1 + y 0 (x)2 − λ 1 + y 0 (x)2 dx
−a/2

où λ est un multiplicateur de Lagrange. Obtenez également l'équation de la chaî-


nette à laquelle on a suspendu un pont (g.11.5c)

11. Trajectoire complexe. Soit une fonction y(x) complexe (R → C) dont l'ac-
tion est dénie par Z
0
S[y] = L(y, y 0 , y ∗ , y ∗ ; x)dx
I
0 ∗0
Comme par exemple L = y y + kyy ∗ . Obtenir les équations d'Euler-Lagrange de

cette fonction. [Help : il faut démontrer que l'on peut considerer y et y comme
deux composantes indépendantes, et obtenir une equation d'EL pour chacune].

12. Equation de Schrodinger. Nous cherchons la fonction complexe ψ(x, t) qui


optimise l'action associé au Lagrangien suivant

L = iψ ∗ ∂t ψ − a(∂x ψ ∗ )(∂x ψ) − V (r)ψ ∗ ψ

Trouver l'équation d'Euler Lagrange auquel obéit la fonction ψ. Dans la formu-


lation ci-dessus, ψ et ψ∗ ne jouent pas le même rôle. Pouvez vous donner une
version plus symétrique de ce Lagrangien ?

13. Champs électromagnétique dans le vide. Nous dénissons un champ A =


(A0 , A1 , A2 , A3 ) dans un espace à 4 dimensions que l'on repère à l'aide des co-
14
ordonnées x = (x0 , x1 , x2 , x3 ) . Comme nous sommes parfois trop habitué à la
séparation en espace (3d) et en temps, nous dissocions parfois les expressions

14. Nous évitons pour l'instant les exposants et notons les coordonnées xi au lieu de xi

167
11 Le calcul variationnel

ci-dessus en donnant des noms diérents aux diérents composants : nous notons
par exemple A = (φ, −A) où nous appelons φ le potentiel et A le potentiel vec-
teur ; de même, nous notons x = (t, x) où le premier composant est appelé temps
et les trois autres l'espace. Les équations d'électromagnétisme ont été formulé
dans le cadre de cette séparation étrange et les diérentes dérivées du champ ont
reçu des noms diérents. Par exemple, on appelle champ électrique le vecteur à
3 dimensions
E = −∂t A − ∇φ
et champ magnétique
H=∇×A
Revenons à notre formulation générale. Le tenseur électromagnétique est déni
par
∂Ak ∂Ai
Fik = −
∂xi ∂xk
Ce tenseur est bien sûr anti-symétrique Fik = −Fki .
1. Donner l'expression du tenseur F en fonction des champs Ei et Hk .
2. Démontrer que pour trois indices i, j, k , la denition même du tenseur F
impose
∂Fij ∂Fjk ∂Fki
+ + =0
∂xk ∂xi ∂xj
démontrer que les seules équations non-triviales sont celles où i 6= j 6= l et
cela nous donne 4 équations que nous pouvons regrouper en

∇×E = −∂t H
∇.H = 0

qui ne sont rien d'autre que les deux premieres équations de Maxwell.

Dans l'espace-temps reliativiste, la distance ds entre deux points voisins est


donnée par
3
X
ds2 = dx20 − (dx21 + dx22 + dx23 ) = i dx2i
i=0

où 0 = 1 et i≥1 = −1. Il existe une diérence entre une des composantes et


les trois autres quant au signe qu'il faut utiliser pour l'élément d'arc. Cette dié-
rence apparaît obligatoirement dans toutes les expressions des lois physiques. En
particulier, toutes les expressions quadratiques auront une forme similaire à l'ex-
pression de l'élément d'arc. Par exemple, l'action du champs électromagnétique

168
11 Le calcul variationnel

15
est donnée par l'intégrale sur un volume du Lagrangien suivant :

3
X
L=− i j Fij2
i,j=0

Remarquer la similarité entre cette formulation et la formulation de la théorie


de l'élasticité, où le champs A représente le vecteur déplacement et le tenseur
Fij le tenseur déformation. Ceci n'est pas un hasard ; Maxwell lui même imagi-
nait l'ether comme un corps élastique et s'inspirait fortement de la théorie de
l'élasticité.

1. Déduire que l'on peut mettre le Lagrangien sous forme de L = E2 − H 2


2. Déduire les équations du champs

3
X ∂Fij
i j =0
j=0
∂xj

3. Mettre ces équations sous la forme plus usuelle des deux autres équations
de Maxwell :
∇ × H = ∂t E ; ∇.E = 0

15. Le signe moins n'a pas de conséquence pour nos calculs, mais assure que la solution trouvée
est un minimum plutôt qu'un maximum de l'action.

169
12 Calcul des perturbations.
Le calcul des perturbations n'est pas une méthode scientique utilisé dans les
hôpitaux psychiatriques pour évaluer les symptômes d'un patient. Il existe peu
de problème exactement soluble en physique et il faut souvent recourir aux tech-
niques d'approximations. Une des techniques les plus utilisées est celle qui porte
le nom de ce chapitre. L'idée de base est une généralisation du développement de
Taylor : si nous connaissons la valeur d'une fonction au point x0 , nous pouvons
calculer, sous certaines conditions, la valeur de la fonction au point x0 +  :

f (x0 + ) = f (x0 ) + A1  + A2 2 + ...

Le développement de Taylor nous fournit en plus un moyen de trouver les coe-


cients Ai f au point x0
: ce sont, si elles existent, les i-ème dérivées de la fonction
,divisé par i! . De plus, si  est petit et que nous ne sommes pas très exigent quant
à la précision que l'on cherche, nous pouvons nous contenter du premier ou des
deux premiers termes du développement. Le calcul des perturbations généralise
cette démarche au calcul des solutions des équations diérentielles, des racines des
polynômes, des équations intégrales, des vecteurs propres des matrices, ... C'est
le premier outil utilisé par le physicien qui tombe sur un problème ardu dont
la solution n'est pas connu : si on connaît un problème proche dont la solution
est connu, on peut tenter les perturbations. Mentionnons tout de suite que cette
technique ne marche pas toujours. On tombe parfois (souvent), sur des perturba-
tions dites singulières et il faut alors sortir l'artillerie lourde. Les perturbations
qui se traitent facilement sont dites régulières. Nous nous intéresserons surtout
aux perturbations régulières, mais dirons quelques mots sur les perturbations
singulières.

12.1 Les perturbations régulières.


La meilleure façon de s'habituer aux calcul des perturbations est à travers des
exemples.

Les racines d'un polynômes. Supposons que nous ne connaissons pas la réso-
lutions des équations algébriques de second ordre, mais que nous savons résoudre
l'équation x2 − x = 0 , dont les racines sont x0 = 0, 1. Nous cherchons la solution

170
12 Calcul des perturbations.

de l'équation
x2 − x +  = 0 (12.1)

où nous supposons  petit. Cherchons la solution sous forme de

X = x0 + x1 + 2 x2 + ... (12.2)

Nous cherchons la solution sous cette forme puisque nous pensons que comme
 est petit, la nouvelle racine ne doit pas être trop loin de l'ancienne, et l'écart
doit être justement fonction de  : pour  = 0, nous devons trouver la solution
originale. Nous connaissons déjà x0 , et il nous faut trouver une méthode pour
calculer x1 , x2 , ... Branchons maintenant (12.2) dans (12.1) et regroupons les en
fonction des puissances d' :

(x20 − x0 ) + [(2x0 − 1)x1 + 1]  + (x21 + 2x0 x2 − x2 )2 + ... = 0 (12.3)

Le membre de droite de l'équation ci-dessus est un polynôme en  et il est uni-


formément nul. Nous en déduisons donc que tous les coecients du polynôme
doivent être nuls, c'est à dire :

x20 − x0 = 0 (12.4)

(2x0 − 1)x1 + 1 = 0 (12.5)

x21 + 2x0 x2 − x2 = 0 (12.6)

... = 0
L'équation (12.4), donnée par le coecient de 0 et appelé le terme d'ordre zéro,
est notre équation originale non perturbée que nous savons résoudre. l'équation
(12.5) nous donne x1 :
x1 = 1/(1 − 2x0 )
Comme nous connaissons déjà x0 , nous déterminons facilement que x1 = 1 ou
−1. L'équation (12.6) nous détermine le coecient x2 :

x21
x2 =
1 − 2x0
et donc x2 = 1 ou −1. Nous pouvons continuer ainsi (cela dépend de notre
patience) et trouver les coecient xn . Ce que nous devons remarquer est que : (i)
pour déterminer xk , nous n'avons que besoin des xk−1 , xk−2 , ... (ii) l'équation qui
détermine xk est linéaire en xk , c'est à dire ne comporte que des puissances unité
de xk . C'est deux points nous permettent assez aisément de calculer la solution
aussi précisément que l'on souhaite. Nous avons donc, pour les deux racines de
l'équation (12.1),

X1 = 0 +  + 2 + ... (12.7)
2
X2 = 1 −  −  + ... (12.8)

171
12 Calcul des perturbations.

Dans ce cas précis, nous connaissons la solution exacte


1± 1 − 4
X=
2
Un développement de Taylor de cette dernière nous rassure sur l'exactitude des
résultats (12.7,12.8).

Généralisation. Nous pouvons généraliser l'approche ci-dessus, sans le forma-


liser plus : on cherche la solution d'un problème avec perturbation comme un
développement en puissance de la perturbation. Il faut alors que les coecients
de chaque puissance de la perturbation soit nul. Le mieux reste encore d'illustrer
cela à travers des exemples.

Recherche des valeurs propres d'une matrice symétrique. Supposons que nous
connaissons une valeur et un vecteur propre d'une matrices symétrique, c'est à
dire que nous connaissons un scalaires λ0 et un vecteur φ0 tel queAφ0 = λφ0 .
Une matrice symétrique par dénition est égale à sa transposée AT = A. Nous
cherchons la valeur propre proche de λ0 de la matrice A + B . Appelons cette
valeur propre µ.On cherche donc à résoudre

(A + B)ψ = µψ (12.9)

Procédons comme nous l'avons mentionné plus haut. Nous chercherons la solution
sous la forme

µ = λ0 + λ1 + ... (12.10)

ψ = φ0 + φ1 + ... (12.11)

et nous cherchons s à déterminer λ1 , ... et φ1 , ... En injectant (12.10-12.11) dans


(12.9), nous avons :

(A + B)(φ0 + φ1 + ...) = (λ0 + λ1 + ...)(φ0 + φ1 + ...)

et en regroupant les termes en puissance de , nous trouvons les équations sui-


vantes :

Aφ0 = λ 0 φ0 (12.12)

Aφ1 + Bφ0 = λ 0 φ1 + λ 1 φ0 (12.13)

... = ...

La première équation, c'est à dire les terme d'ordre 0 en , ne nous rapporte bien
sûr rien que ne l'on connaisse déjà. Dans l'équation (12.13), nous avons deux

172
12 Calcul des perturbations.

inconnus, le vecteur φ1 et le scalaire λ1 à déterminer. Prenons le produit scalaire


des deux côtés par le vecteur φ0 :

(φ0 , Aφ1 ) + (φ0 , Bφ0 ) = λ0 (φ0 , φ1 ) + λ1 (φ0 , φ0 ) (12.14)

Nous avons supposé que A est symétrique. Donc,

(φ0 , Aφ1 ) = (AT φ0 , φ1 ) = (Aφ0 , φ1 ) = λ0 (φ0 , φ1 )

et en injectant ce résultat dans (12.14), nous aboutissons nalement à

λ1 = (φ0 , Bφ0 )/(φ0 , φ0 )

Nous connaissons donc la correction d'ordre 1 à la valeur propre.


Si tous cela paraît un peu abstrait, cherchons la valeur propre de la matrice

 
1+ 2
2 2 + 3

Cette matrice est la somme d'une matrice diagonale A = diag(1, 2) et de la


matrice B tel que Bij = (i + j − 1). La matrice B est la perturbation si on
suppose   1. La matrice A possède bien sur les deux valeurs propres 1 et 2 et
les vecteurs propres associés (1, 0) et (0, 1). Cherchons la valeurs propre proche
de 1 de la matrice perturbée. D'après ce que nous avons dit, nous devons calculer
(1, 0)B(1, 0)T :   
 2 1
(1, 0). =
2 3 0
Comme (1, 0)(1, 0)T = 1, la valeur propre proche de 1, à l'ordre 1 en epsilon,
s'écrit
µ=1+
Le lecteur peut chercher directement la valeur propre de la matrice perturbée et
vérier le résultat ci-dessus. Bien sûr, quand la matrice est plus grande que 2 × 2,
la recherche directe peut être extrêmement fastidieuse.

La stabilité d'un système diérentielle. Nous connaissons parfois un point xe


d'une équation, et nous souhaitons savoir si ce point est stable ou non. Par
exemple, le point le plus bas pour un pendule est un point xe stable, tandis
que le point le plus haut est un point instable. Intuitivement, pour connaître la
stabilité, nous écartons un peu le système de son point xe. Si le système revient
à son point de départ ou reste proche, l'équilibre est stable. Si au contraire, la
perturbation tende à grandir, le point est alors instable.

173
12 Calcul des perturbations.

Considérons l'équation du mouvement d'un pendule amorti

˙
θ̈ + ρ ˙ + ω 2 sin θ = θ0 (12.15)

où θ θ = 0 correspond au point le plus bas. Il


est l'angle avec l'axe vertical et
est évident que les points θ =0 θ = π sont les points xes de cet équation.
et
Supposons maintenant que nous partons très proche du point θ = 0, c'est à dire
avec la condition initiale θ(t = 0) = . Cherchons comme d'habitude la solution
sous forme de θ = 0 + θ1 + ... En réalité, comme nous nous intéressons qu'à
la stabilité, le terme d'ordre 1 en  nous sut. En injectant cette solution dans
(12.15) et en développant la fonction sin, nous trouvons :

˙
θ̈1 + ρ ˙ 1 + ω 2 θ1 = θ0

la solution générale de cette dernière est de la forme θ1 = exp(−ρt) exp(±iω 0 t)


et elle tend eectivement vers 0 quand t → ∞. Le point θ = 0 est donc un point
stable. En répétant les même opérations pour le point θ = π , et en n'oubliant pas
que sin(π + x) = − sin x, nous aboutissons à

˙
θ̈1 + ρ ˙ 1 − ω 2 θ1 = θ0

et cette fois, il est claire que quand t → ∞ , θ1 → ∞ . Le point θ=π est donc
instable.

12.2 Les perturbations singulières.


Nous avons supposé, lors de l'étude des perturbations singulières, que la solu-
tion perturbée est proche de celle non perturbée. Cela n'est pas toujours le cas
et l'ajout d'un petit terme peut radicalement changer la solution. Prenons le cas
de l'équation algébrique
x2 + x − 1 = 0 (12.16)

La solution non perturbée, i.e. pour =0 vaut x = 1. La solution exacte pour
 6= 0 s'écrit

−1 ± 1 + 4
x=
2
et un petit développement nous montre que les racines sont, pour   1, de la
forme

x1 = 1−
1
x2 = −


174
12 Calcul des perturbations.

Nous avons donc l'apparition d'une nouvelle racine qui est d'autant plus grande
que la perturbation est petite. Cela est un phénomène générale : à chaque fois que
la perturbation est sur un terme d'ordre supérieur, la perturbation est singulière.
Il existe parfois des changements de variable qui rendent la perturbation régulière.
Par exemple, dans l'équation (12.16), en posant x = 1/y , nous avons

y2 − y −  = 0

qui peut se traiter par la méthode habituelle. D'après notre traitement de (12.1),
ses solutions sont

y1 = −
y2 = 1+

qui nous redonne bien les racines en x = −1/ et x = 1 − .


La même remarque s'applique aux équations diérentielles. L'équation

ẍ + ẋ + 1 = 0

est celle d'un oscillateur harmonique amortie. Si la masse  est nulle, la solution
est de la forme x = A exp(−t). Si la masse est non nulle, la solution, à l'ordre
le plus important en , est de la forme A exp(−t) + B exp(−t/) et le lecteur
peut vérier que les deux solutions sont radicalement diérentes. Remarquons
à nouveau que nous pouvons chercher un changement de variable de la forme
t = p t0 et x = q y qui rendrait la perturbation régulière. Nous en laissons le soin
au lecteur intéressé.
L'ennui avec les équations diérentielles est que les termes les plus inoensifs
peuvent rendre les perturbations singulières. Considérons l'exemple de l'oscilla-
teur suivant :
ẍ + ω 2 x + x3 = 0 (12.17)

2 0 4
ceci est l'équation d'un mobile dans un potentiel en kx + k x . La solution
général de l'équation non perturbée est a cos(ωt + φ). Sans perte de généralité,
on supposera φ = 0. Nous cherchons alors la solution de l'équation perturbée
sous forme de x(t) = a cos(ωt) + x1 (t) + ... En injectant dans l'équation et en
collectant les termes d'ordre 1 en  , nous trouvons que

ẍ1 + ω 2 x1 = −a3 cos3 (ωt) (12.18)

Or, cos3 (u) = (1/4) cos(3u)+(3/4) cos(u) et donc la solution de (12.20) est donnée
par la somme de la solution des deux équations suivante :

ẍ1 + ω 2 x1 = (−a3 /4) cos(3ωt) (12.19)


2 3
ẍ1 + ω x1 = (−3a /4) cos(ωt) (12.20)

175
12 Calcul des perturbations.

La première équation ne présente pas de danger : c'est l'équation d'un oscillateur


harmonique de fréquence propre ω forcée à la fréquence 3ω et possède une solution
du genre cos(3ωt + α).
Par contre, la deuxième équation (12.20) est celle d'un oscillateur harmonique
de fréquence propre ω forcée justement à ω . Il y a donc résonance et la solution,
qui est de la forme t cos(ωt + β), va devenir très large. Cela viole notre hypothèse
de départ sur les développements en puissance d'. Nous avions écrit

x(t) = a cos(ωt) + x1 (t) + ...


en supposant x1 (t) bornée, de façon à ce que x1 (t) reste toujours petit par
rapport à la solution non perturbée a cos(ωt). Or, nous voyons qu'au bout d'un
temps t > 1/, le soit disant petit terme devient en faite le terme dominant.
Il existe de nombreuse types diérents de perturbations singulières et au moins
autant de façon de les traiter. L'objet de ce livre n'étant pas un cours détaillé sur
les calculs de perturbations, nous nous en tiendrons presque là. Nous trouvons ce-
pendant utile de montrer comment traiter les cas similaires à l'exemple ci-dessus.
La technique est a appelée élimination des termes séculaires ou résonnant.

Le traitement des termes séculaires.

La perturbation que nous avons considéré plus haut intervient dans pratique-
ment tous les problèmes d'oscillations, et c'est pourquoi il nous semble important
de la traiter. En regardant de plus près l'équation (12.17), nous voyons qu'il n'y
a rien d'anormal ou de divergent. Elle décrit simplement des oscillations au fond
d'un puits peut être un peu plus raide qu'un puits harmonique et il n'y a aucune
raison que quelque chose diverge. L'erreur ne peut venir que de notre traitement.
En supposant que la solution s'écrit sous la forme a cos(ωt) + x1 (t), nous avons
fait l'erreur de penser que le terme d'ordre 0 continue à présenter une oscillation
à fréquence ω. Il n'y a aucune raison pour cela, et la fréquence peut également
être de la forme ω + ω1 + ... La gure (12.1) montre la diérence entre sin(t) et
sin(1.01t) pour les temps inférieurs à vingt et pour les temps autour de 250. Nous
voyons que la diérence est à peine perceptible pour les temps courts, tandis que
les deux fonctions n'ont plus rien à voir aux temps longs. Ce problème avait été
observé d'abord en astronomie, où les calculs perturbatifs des siècles précédents
commençaient à s'écarter des observations (d'où le terme séculaire). Lindstedt
(vers 1880) a remédié à ces carences par sa technique de renormalisation qui est
de chercher la solution sous la forme

x(t) = a cos[(ω + ω1 )t] + x1 (t) (12.21)

En injectant la forme (12.21) dans (12.17) et en collectant les termes d'ordre 1


en , nous trouvons cette fois

ẍ1 +ω 2 x1 −2aωω1 cos[(ω+ω1 )t] = (−a3 /4) cos[3(ω+ω1 )t]−(3a3 /4) cos[(ω+ω1 )t]

176
12 Calcul des perturbations.

0.5

-0.5

-1
0 5 10 15 20 235 240 245 250 255

Figure 12.1  sin(t) (en noir) et sin(1.01t) (en rouge) pour les temps courts et
longs.

Il nous sut maintenant de choisir

3a2
ω1 =

pour éliminer le terme résonnant. La solution perturbative à l'ordre 1 s'écrit alors :

3a2 3a2
x(t) = a cos[(ω +  )t] + A cos[3(ω +  )t + α]
8ω 8ω
où les coecients a, A, α sont déterminés à partir des conditions initiales.

Problèmes.

Racine des polynômes.


P (x) = an xn un polynôme dont une des racines, x0 est connue, c'est
P
1. Soit
0 p 0
à dire P (x0 ) = 0. Soit le polynôme P (x) = P (x) + x . Soit x la racine
proche de x0 de ce dernier. Montrer qu'à l'ordre 1,

xp0
x0 = x0 − P 
nan xn−1
0

2. Pouvez vous exhiber la correction à l'ordre 2 ?

3. Soit l'équation
x6 − 4x5 + 3x4 − 6x2 + 6x + 1 = 0 (12.22)
4
Nous remarquons qu'en écrivant par exemple le coecient de x comme
2+ (où  = 1), la somme des coecients de l'équation non perturbée
vaut 0. x = 1 est donc une solution de l'équation non perturbée (i.e. pour
 = 0). Calculez la correction à cette racine à l'ordre 1 en  et comparez à la
4
solution exacte x = 1.10565. Et si au lieu du coecient du x , nous avions
choisit un autre terme, qu'aurait on obtenu ?

4. Calculer la correction à l'ordre 2. Pouvez vous alors trouver un critère pour


le choix du coecient pour que la correction à l'ordre 1 soit la meilleure ?

177
12 Calcul des perturbations.

Équation trencendante.

1. x log x = 0 admet une solution pour x = 1. Calculez, à l'ordre 3, la ra-


cine proche de 1 de l'équation x log x = . Comparez à la solution exacte
1.09557 pour  = 0.1. Pouvez-vous utiliser la même approche pour trouver
la solution proche de 0?
2. Trouver la racine, proche de π, de x sin x = . Comparez, pour  = 0.1, à la
solution exacte x = 3.10943.

Équation intégrale. Nous avons rencontré les équations intégrales lors de notre
discussion des fonctions de Green. Nous allons étudier ci-dessous un schéma ité-
ratif de leurs résolution. Ces schéma là sont extrêmement fragile cependant, et il
faut toujours s'assurer de leur convergence.

1. Une équation intégrale de Fredholm de deuxième espèce est de la forme

Z b
f (x) = g(x) + µ K(x, x0 )f (x0 )dx0
a

Proposez un schéma de résolution par le calcul des perturbations. Ne vous


contentez pas de l'ordre 1. Trouvez la perturbation d'ordre n en général.

2. Protez pour exhiber la solution exacte de

Z ∞
f (x) = 1 + λ e−(x+y) f (y)dy
0

En calculant les perturbations à tout ordre et en sommant la série ainsi


obtenue.

3. Faites la même chose pour

Z x
f (x) = 1 + λ f (y)dy
0

Attention, les bornes de l'intégrale dépendent de x. On appelle ces équations


Voltera de deuxième espèce.

Oscillateur de Van der Pol. Van de Pol à proposé l'équation suivante dans les
années 1920 pour modéliser les oscillateurs auto-entretenus comme le battement
de coeur
ẍ + (x2 − 1)ẋ + ω0 x = 0
Le coecient du terme ẋ est équivalent à un frottement. Nous voyons qu'il est
négatif si l'amplitude x est petite (< 1), c'est à dire que le système reçoit de
l'énergie de l'extérieur, ce qui va l'amener à augmenter son amplitude. Par contre

178
12 Calcul des perturbations.

si l'amplitude devient trop grande (> 1) le frottement devient positif et le système


perd de l'énergie vers l'extérieur, ce qui va diminuer son amplitude. Nous voyons
que le système maintient une oscillation stable quelque soit les conditions de
départ.

1. Montrer que le point xe x=0 est instable.

2. En partant de la solution non perturbée x = a cos ω0 t, montrez que les


perturbations régulières génèrent des termes résonnants.

3. Utilisez la renormalisation de Lindstedt pour éliminer les termes résonnants.


Pour cela, chercher la solution sous forme de

x(t) = a cos Ωt + x1 (t)

où Ω = ω0 + ω1 . Vous pouvez apercevoir que l'élilmination des termes


résonnants impose une condition sur l' amplitude de l'oscillation, ce que l'on
appelle un cycle limite.

Écosystème de prédateursproies. Une des interaction fondamentale en écolo-


gie est celle des prédateurs et des proies. Le premier modèle pour la dynamique de
ces deux populations a été proposé par Lotka et Votera au début des années 1930.
Soit P le nombre des prédateurs et N le nombre des proies dans l'écosystème.
Lotka et Voltera ont proposé

dN/dt = αN − βN P (12.23)

dP/dt = γN P − δP (12.24)

α est le taux de croissance naturel des proies en l'absence des prédateurs. La


présence des prédateurs cause également la disparition des proies, proportion-
nellement au nombre de prédateur et de proie, d'où le terme en −βN P dans la
première équation, β étant l'ecacité de la chasse. Dans l'équation qui régit la
dynamique des prédateurs, nous voyons que la croissance est fonction du nombre
de proie disponible, et le terme δ est le taux de mort naturel des prédateurs.

1. Montrez que ce système possède un point xe, c'est à dire des valeurs N0 , P0
pour lesquels dN/dt = dP/dt = 0.
2. Étudiez la solution de ce système pour les faibles écarts au point xe. Cela
veut dire que nous prenons des conditions initiales du genre N (t = 0) =
N0 +  et P (0) = P0 . Cherchez la solution sous la forme N (t) = N0 + N1 (t)
et P (t) = P0 + P1 (t), et en collectant les termes d'ordre 1 en , obtenez un
système linéaire pour N1 et P1 . Résolvez ce système et déduisez également
la forme du cycle limite, c'est à dire N1 en fonction de P1 .

3. Poussez les calculs à l'ordre 2 en  et étudiez l'apparition d'harmonique


supérieurs.

179
12 Calcul des perturbations.

4. Vous pouvez également remarquer que le cycle limite peut s'obtenir en divi-
sant directement (12.23) par (12.24) et en résolvant l'équation diérentielle
du premier ordre. Comparez le résultat de ce calcul au résultat de la ques-
tion 2.

Stabilité d'interface. Soit une interface u(x, t) (par exemple entre solide et li-
quide lors de la coulée continue en métalurgie) décrit par l'équation

∂u ∂2u ∂4u
= −au − bu3 + c 2 − d 4
∂t ∂x ∂x
où nous supposons les coecients a, b, d > 0. Discuter la stabilité linéaire de
la solution u(x, t) = 0 selon que c est positif ou négatif et chercher les seuils
d'instabilité.

180
13 Les opérateurs diérentiels.
La plupart des phénomènes physiques sont décrits par des équations dié-
rentielles qui impliquent des opérateurs diérentielles. On rencontre souvent les
gradients, rotationelles, divergences et laplaciens et le fait que l'espace dans le-
quel vivent les physiciens ait trois dimensions a peut-être fovorisé leurs usages au
1
dépend d'autres formulations plus symétriques . Fondamentelement, ce sont des
opérateurs de dérivation et nous allons nous attacher dans ce chapitre à étudier
leurs signications et à établir leurs expression dans divers systèmes de coordo-
nées.

13.1 Métrique et Système de coordonnées.


Nous repérons les points dans l'espace à l'aide d'un système de coordonnées. Par
exemple, pour un espace à trois dimension, nous associons un tripet (q1 , q2 , q3 )
à chaque point P de l'espace. Cet acte fondateur nous permet de ramener la
géométrie, la science des relations entre points de l'espace, dans le domaine de
l'analyse et y appliquer toute la puissance de feu dont on y dispose.
Les points de l'espace ont une existence propre, indépendement de la represen-
tation en triplet que l'on utilise. Que le triplet qu'on utilise soit les coordonnées
cartesiennes ou polaire ne change pas le point P ni (soulignons mentalement deux
fois ce ni ) la distance de ce point à un autre. Si la distance entre deux points
est 1 mm, cela ne doit pas dépendre du système de coordonnées cartesienne ou
polaire que nous avons choisi. Supposons que nous avons repéré un point P par
le triplet (q1 , q2 , q3 ) et le point innitésimalement voisin P + dP par le triplet
(q1 + dq1 , q2 + dq2 , q3 + dq3 ). Notons ds la distance entre P et P + dP . La relation
entre la distance ds et le triplet (dq1 , dq2 , dq3 ) dénit la métrique du système de
coordonnées. Nous nous contenterons par la suite de systèmes de coordonnées
orthogonales (cartesiens, polaire, cylindrique,...) pour lesquels, de façon général,
nous avons :
ds2 = h21 dq12 + h22 dq22 + h23 dq32 (13.1)

Les quantités h1 , h2 , h3 dépendent en général des coordonnées qi . On les appelle

1. Voir le chapitre sur les formes diérentielles

181
13 Les opérateurs diérentiels.

2
les éléments du tenseur métrique . Il est évident que si pour un certain déplace-
ment, nous avons dq2 = dq3 = 0, alors ds = h1 dq1 tout simplement.

Coordonnées cartésiennes. On le note souvent par le triplet (x, y, z). C'est la


plus simple des systèmes, pour lequel h1 = h2 = h3 = 1.

Coordonnées polaires. On le note souvent (r, θ, z). Comme dans ce système,

ds2 = dr2 + r2 dθ2 + dz 2


nous avons h1 = 1, h2 = q1 = r et h3 = 1.

Coordonnées sphériques. On le note souvent (r, φ, θ). Ici

ds2 = dr2 + r2 sin2 θdφ2 + r2 dθ2


et donc h1 = 1, h2 = q1 sin q3 = r sin θ, h3 = q1 = r.

Coordonnées semi-paraboliques. On le note souvent (σ, τ, z). Ce système est


relié au cartésien par les relations

x = στ ; y = (τ 2 − σ 2 )/2 ; z = z

Démontrez que les éléments du tenseur métrique sont h1 = h2 = σ2 + τ 2 ,
h3 = 1.

Coordonnées paraboliques. On le note souvent (σ, τ, φ), relié au système car-


tesien par
x = στ sin φ ; y = στ cos φ ; z = (1/2)(τ 2 − σ 2 )
Trouvez les éléments du tenseur métrique.

Problème. En coordonnées cartésienne, la surface qi = Cte est un plan. Donnez


des dénitions analogues pour les autres systèmes de coordonnées.
En réalité, la démarche est la suivante : une fois que nous avons un système
de coordonnées (q1 , q2 , q3 ), c'est la donnée du tenseur métrique qui nous indique
qu'elle est ce système, où même plus, si l'espace est plat ou courbé (mais ceci est
une autre histoire).

2. Dans le cas le plus général, l'élément de distance curviligne s'écrit


X
ds2 = hi,j dqi dqj
i,j

et la matrice H dont les éléménts sont les hi,j s'appelle le tenseur métrique. Dans le cas des
coordonnées curvilignes orthogonales, les éléments non-diagonaux sont nulles et ds2 peut s'écrire
sous la forme plus simple de 13.1.

182
13 Les opérateurs diérentiels.

13.2 Nabla, div et les autres.


Les opérateurs diérentielles ont tous un sens géométrique (disons même plus,
physique). Ce ne sont pas juste des règles de dérivation du genre ∂1 E2 −∂2 E1 . Si on
connait ce sens, on peut comprendre le sens profond de l'équation qui les contient.
Par ricochet, il devient très facile de déduire leurs expressions dans n'importe quel
système de coordonnées. C'est ce à quoi nous allons nous attacher par la suite.
Notons quand même que ces opérateurs ne sont pas si dissemblable qu'il n'y paraît
et tous relient, d'une façon ou d'une autre, un ux à travers un point, un circuit
ou une surface fermée à une intégrale. Dès la n du dix-neuvième siècle, cette
similtude a emmené E. Cartan à inventer la notion de formes dierentielles qui
unie tous ces opérateurs, qui ne sont alors que l'expression d'une opération de
dérivation (qu'on appelle extérieure). Ces formes d'une élégance extraordianire
font l'objet d'un autre chapitre. Ici, nous nous attacherons à une introduction
classique de ces opérateurs.

13.3 Le gradient.
Soit la fonction f (P ) qui a chaque point de l'espace associe une quantité. Le
nom savant de cela est un champ scalaire. Cela peut être une densité , un potentiel,
...Nous somme interessé par savoir de combien cette fonction change si on passe
du point P au point voisin P + ds. Le gradient est la quantité physique qui nous
donne cette information :

df = f (P + ds) − f (P ) = gradf.ds (13.2)

gradf qu'on note également ∇f est un vecteur dont le produit scalaire avec le
déplacement ds donne la variation de f. Ceci est la dénition du gradient. ∇f à
priori dépend du point P. Notez que jusque là, nous avons exprimé la variation
indépendement du système de coordonnées choisi pour repérer les points de l'es-
pace. Une quantité physique ne doit jamais dépendre du système de coordonnées
et sa dénition doit toujours être donnée de façon intrinsèque, indépendemment
des coordonnées. Quand en mécanique, nous écrivons F = md2 r/dt2 , ceci est une
relation qui est valable quelque soit le système de coordonées. La même chose
s'applique aux opérateurs diérentiels que nous utilisons en physique.
Evidement, une fois que nous avons exprimé les choses de façon intrinsèque, il
faut ensuite faire le boulot et calculer la trajectoire, les lignes du champ, les iso-
potentiels,...Pour cela, nous devons choisir un système de coordonées. Donc, nous
avons besoin d'exprimer ∇f dans un système de coordonnée, celui qui convient le
mieux au problème considéré. Suppons que le point P est repéré par (q1 , q2 , q3 ) et
le point voisin par (q1 + dq1 , q2 , q3 ). Alors df = f (q1 + dq1 , q2 , q3 ) − f (q1 , q2 , q3 ) =

183
13 Les opérateurs diérentiels.

(∂f /∂q1 )dq1 . Le membre de droite de l'équation(13.2) vaut

(∇f )1 h1 dq1

où (∇f )1 est la composante du gradient dans la direction 1. Ceci nous donne


(∇f )1 = (1/h1 )(∂f /∂q1 ). En refaisant la même opération pour les trois coordon-
nées, on obtient :
 
1 ∂f 1 ∂f 1 ∂f
∇f = , ,
h1 ∂q1 h2 ∂q2 h3 ∂q3

Examples. En coordonnées cartesien, nous avons ∇f = (∂f /∂x, ∂f /∂y, ∂f /∂z).


En coordonnées polaire, ∇f = (∂f /∂r, (1/r)∂f /∂θ, ∂f /∂z).

Problème. Donner l'expression du gradient dans les autres systèmes de coor-


données.

Problème. Ecrire l'expression général du gradient dans l'espace à n dimension.


La seule connaissance du tenseur métrique nous permet de donner l'expression
du gradient dans le système de coordonnées en question. Nous allons suivre la
même démarche pour tous les autres opérateurs diérentiels.
Notons également que la dénition (13.2) donne la direction selon laquelle le
champs f varie le plus rapidement. A ds xe, c'est la direction donné par ∇f qui
donne la variation la plus importante.
Un corrolaire important de cela est que le vecteur gradient est perpendiculaire
aux surface de niveau. Une surface de niveau est l'ensemble des points sur lesquels
f est constante. Si f est une fonction de n variable, f (x1 , ...xn ) = Cte est une
(hyper) surface de dimension n−1. Un déplacement ds perpendiculaire au vecteur
gradient ne change pas (à l'ordre 1 en ds) la valeur de f ce qui implique que le
gradient est perpendiculaire à la surface.

13.4 Champ de vecteurs.


Les quantités que l'on utilise en physique ne sont pas toutes scalaires comme la
densité ρ ou le potentiel V . Certaines quantités comme le champs électrique E ou
la vitesse d'un ot J sont des quantités vectorieles. Nous supposons ici connu la
notion de champ de vecteur, le lecteur interessé par plus de détails et de rigueur
pourrait se reporter au cours traitant les variétés dierentiables. Pour visualiser
un champ de vecteur, il sut de choisir un ensemble de points représentatifs,
souvent régulièrement espacé, et de montrer par une èche le vecteur associé à
ces points.

184
13 Les opérateurs diérentiels.

2 2

1 1

0 0

−1 −1

−2 −2
−2 −1 0 1 2 −2 −1 0 1 2
(a) (b)

Figure 13.1  Représentation des champs de vecteurs (fx = x, fy = y) et (fx =


−y, fy = x). Une èche en un point représente la valeur du vecteur
f en ce point.

Les lignes de champs sont facile à imaginer. En chaque point P , la tangente à la


ligne de champs est donnée par le champ en ce point. Les lignes de champs de la
gure 13.1a sont des droites passant par l'origine, tandis que les lignes de champs
de la gure 13.1b sont des cercles centrés sur l'orgine. Le calcul des lignes de
champs est élémentaire d'après ce que nous venons de dire. Supposons que nous
utilisons les coordonnées (q1 , q2 , q3 ) et à chaque point q = (q1 , q2 , q3 ) de l'espace
nous avons associé le vecteur (f1 (q), f2 (q), f3 (q)). Soit une ligne de champ que
nous avons paramétrons par la variable t. Cela veut dire que nous dénission la
ligne par trois fonctions q1 (t), q2 (t), q3 (t). D'après ce que nous venons dire, nous
devons avoir
dqi /dt = fi i = 1, 2, 3
ou encore, en regroupant les trois expressions,

dq1 dq2 dq3


= =
f1 f2 f3
Nous avons écrit ces expressions pour un espace à trois dimensions, mais cela
peut s'appliquer à n'importe quelle dimension.

Exemple 1. Soit, à deux dimensions, f1 = q1 et f2 = q2 . Les équations des


lignes de champs sont dq1 /dt = q1 et dq2 /dt = q2 . La solution est q1 = αq2 , où
α est une constante. Si (q1 , q2 ) désigne les coordonnées cartesienne, alors ceci est
une famille de droite passant par l'origine, c'est à dire les lignes de champs de la
gure 13.1a.

185
13 Les opérateurs diérentiels.

curl f
n
f

C
P

Figure 13.2  Le champ f ,sa projection sur le circuit C entourant le point P , la


normale à la surface n et le rotationel noté ∇×f ou curl f .

Exemple 2. Soit, à deux dimensions, f1 = 0 et f2 = −q1 . Les équations des


lignes de champs sont dq1 /dt = 0 et dq2 /dt = −q1 . La solution est q1 = α,
q2 = −αt où α est une constante. Si (q1 , q2 ) désigne les coordonnées polairs ,
alors ceci est une famille de cercles centrés sur l'origine, c'est à dire les lignes de
champs de la gure 13.1b.

13.5 Le rotationnel.
La distinction entre les gure 13.1a et b saute aux yeux : dans le premier,
les lignes de champs ne se referment pas sur elles mêmes, dans le deuxième,
toutes les lignes se referment sur elle même. Dans le premier, les lignes de champs
sont comme originaire d'une source à l'origine, dans le deuxième au contraire,
aucune source ne saute au yeux à priori. C'est cela que l'opérateur rotationnel,
que l'ont note rot ou parfois ∇× (ou curl dans la littérature anglo-saxonne)
mesure localement. Précisons les choses.
Soit un champ f. Considérons un point P et un circuit innitésimal C autour
de ce point. Si la projection des lignes de champ de
R f sur C se referme, alors
IC = C
f .ds 6= 0. Le rotationnel est l'opérateur qui quantie l'amplitude de
IC . Il y a cependant un petit détail à régler : la direction du circuit C a autant
d'importance que sa taille. Soit An le vecteur porteur du circuit C , A étant l'air
de la surface enclose par C et n le vecteur unitaire perpendiculaire à C , alors
nous dénissons ∇×f telle que
Z
An.∇ × f = f .ds (13.3)
C
3
à l'ordre 1 en A (voir note ). Si vous n'aimez pas le travail avec les éléments

3. Précisons quelques notions sur les approxiamtions. Supposons que nous pouvons approxi-

186
13 Les opérateurs diérentiels.

innitésimaux (quoiqu'ils aient une existence mathématiquement légitime depuis


les années 1960), vous pouvez utilisez la dénition

1
Z
n.∇ × f = lim f .ds (13.4)
A→0 A C

où A est la surface entouré par la courbe C.


Comme vous le savez probablement, le rot n'est pas un vrai vecteur, mais
un pseudo-vecteur. En faite, on ne peut donner un sens vectoriel au rotationel
que dans l'espace à trois dimensions. Nous verrons le sens général du rotationel
dans le chapitre consacré soit aux tenseurs, soit aux formes dierentielles. Nous
continuerons de les traiter classiquement dans ce qui suit.
Une fois que nous avons défni le rotationnel de façon (eq.13.3), nous pouvons
nous en servir pour l'écrire dans n'importe quel système de coordonnées. Soit
le système (q1 , q2 , q3 ) et le champs f = (f1 , f2 , f3 ) déni dans ces coordonnées :
fi = fi (q1 , q2 , q3 ). Considérons un petit circuit autour du point P , dans le plan
(q2 , q3 ).
Sur la partie P A, notre intégrale vaut (nous omettons d'écrire la variable q1
qui ne varie pas), à l'ordre 1 en a

f2 (q2 , q3 )h2 (q2 , q3 )a (13.5)

mer une fonction autour d'un point x par son développement de taylor :
0 00
∆ = f (x + h) − f (x) = f (x)h + (1/2)f (x)h2 + ...
0
Quand on dit qu'à l'ordre 1 en h, ∆ vaut f (x)h, cela veut dire que

1 0
lim ∆ = f (x)
h h→0
Concrétement, cela veut dire que nous nous interessons aux très petits h (innitésimaux) et le
premier terme de l'approximation est amplement susant. De façon plus formelle, nous pouvons
écrire
0
∆ = f (x)h + o(h)
où o(h) regroupe tous les termes qui sont négligeable devant h quand h→0 :

1
lim o(h) = 0
h h→0
Si nous avons une idée précise des termes que l'on néglige (comme c'est le cas ici) on peut écrire
0
∆ = f (x)h + O(h2 )
où O(h2 ) veut dire que le plus grand terme que nous avons négligé est au mieux de l'ordre de
h2 :
1
lim O(h2 ) = Cte < ∞
h2 h→0
Pour simplier, par o(h) il faut entendre très petit devant h et par O(h) de l'ordre de h.
Les symboles o et O sont appelés les symboles de Landau, du nom du mathématicien allemand
Edmund Landau (et non du physicien soviétique Lev Landau). Ils permettent une grande rigueur
et concision dans l'écriture des expressions impliquant des limites.

187
13 Les opérateurs diérentiels.
3
B

C
2
A

P 1

Figure 13.3  un petit circuit autour du point P = (q2 , q3 ), où A = (q2 + a, q3 )


,B = (q2 + a, q3 + b) et C = (q2 , q3 + b). Noter que le circuit est
dans le plan (q2 , q3 ) et perpendiculaire à l'axe q1 .

et sur la partie BC
−f2 (q2 , q3 + b)h2 (q2 , q3 + b)a
et la somme de ces deux parties nous donne


− [h2 f2 ] ab
∂q3
Par le même mécanisme, l'intégration sur la partie AB et CP nous donne


[h3 f3 ] ab
∂q2
La partie gauche de l'eq.(13.3) est par ailleurs, à l'odre le plus bas en a, b :
h2 h3 ab (rot f )1 , ce qui nous donne, enn,

 
1 ∂(h3 f3 ) ∂(h2 f2 )
(rot f )1 = − (13.6)
h2 h3 ∂q2 ∂q3
Les autres composantes se trouvent facilement par une permutation circulaire de
(1, 2, 3).

Example. En coordonnées polaire (r, θ, z), h1 = h3 = 1, h2 = r. Nous avons


donc
 
1 ∂fz ∂(rfθ )
(rot f )r = −
r ∂θ ∂z
 
∂fr ∂fz
(rot f )θ = −
∂z ∂r
 
1 ∂(rfθ ) ∂fr
(rot f )z = −
r ∂r ∂θ

188
13 Les opérateurs diérentiels.

Problème. Donnez l'expression du rotationel en coordonnées sphérique et pa-


rabolique.

Généralisation. Quand on se trouve dans l'espace à trois dimensions, nous pou-


vons caractériser une surface plane par le vecteur orthogonal à celle-ci. Dans le
cas général, ceci n'est pas possible et il faut indexer les composants du rotationnel
par deux indices désignant le plan qui contient le circuit sur lequel nous avons
eectuer l'intégral. Ainsi, nous aurions dû noter l'expression (13.6) en réalité

(rot f )2,3 = ...


où l'indice (2, 3) implique que le circuit C se trouvait dans le plan x2 , x3 . A quatre
dimension par exemple, le rotationnel contient 6 composantes (et n(n − 1)/2 à n
dimension). Dans l'espace-temps par exemple, le rotationnel d'un vecteur qu'on
appelle potentiel vecteur possède 6 composantes : les trois où les circuits conte-
naient une dimension temporelle sont appelés champ magnétique et les trois qui
4
ne contiennent que des dimensions spatiales sont appelé champ électrique.

13.6 La divergence.
Le travail d'un comptable est de faire le bilan des sommes dépensées et gagnées
par son entreprise. C'est exactement ce travail qu'eectue l'opérateur divergence.
Considérons une surface innitésimal fermée σ autour du point P : quel est le bilan
du ux d'un champs f à travers cette surface ? C'est ce bilan que la divergence
quantie. Plus exactement,
Z
dV div f = f dσ
σ

La démarche pour calculer la divergence est similaire à ce que nous avons fait
pour le rotationnel. Considérons le ux (sortant) à travers la surface ABCD (les
normales aux surfaces sont par convention orientées sortant ) :
bch2 (q1 + a, q2 , q3 )h3 (q1 + a, q2 , q3 )f1 (q1 + a, q2 , q3 )
et le ux (entrant) à travers la surface P B 0 C 0 D0
−bch2 (q1 , q2 , q3 )h3 (q1 , q2 , q3 )f1 (q1 , q2 , q3 )
Le bilan de ces deux termes nous donne

∂(h2 h3 f1 )
abc
∂q1
4. Le rotationnel dans ce cas est appelé tenseur électromagnétique. Nous réferons le lecteur
à un livre avancé en électromagnétisme pour voir cela en détail.

189
13 Les opérateurs diérentiels.

En considérant le ux à travers les quatre autres surfaces, et en notant que dV =


h1 h2 h3 abc, on obtient nalement

 
1 ∂(h2 h3 f1 ) ∂(h3 h1 f2 ) ∂(h1 h2 f3 )
div f = + +
h1 h2 h3 ∂q1 ∂q2 ∂q3

Example. En coordonnées polaire (r, θ, z), h1 = h3 = 1, h2 = r. Nous avons


donc  
1 ∂(rfr ) ∂fθ ∂(rfz )
div f = + +
r ∂r ∂θ ∂z
Noter que comme ∂z (rfz ) = r∂z fz , l'expression ci-dessus peut encore se simplier
quelques peu.

Problème. Donnez l'expression de la divergence en coordonnées sphérique et


parabolique.

Problème. Comment pourrait on généraliser la divergence pour les espaces à n


dimensions ?
Prenons le cas d'un uide de densité ρ et de champs de vitesse v. La densité de
courant (le débit de la masse) vaut en chaque point ρv.Si le uide est incompres-
sible (pensez à l'eau), alors divρv = 0. Si au contraire le uide est compressible,
la dierence entre le ux entrant et sortant dans un petit volume provoque une
accumulation de la masse en ce point, d'où le sens de l'équation

∂ρ
+ divρv = 0
∂t
Ceci est également le sens des équations de Maxwell en electromagnetisme, sauf
que là, on ne considère pas le ux d'un vecteur mais d'un objet un peu plus
complexe qu'on appelle le tenseur électromagnétique.

13.7 Le Laplacien.
Le laplacien dun champ scalaire est déni en terme des autres opérateurs que
nous venons de voir :
∆f = div(gradf )
et d'après ce que nous avons dit, s'exprime simplement en coordonnées curviligne
comme
      
1 ∂ h2 h3 ∂f ∂ h3 h1 ∂f ∂ h1 h2 ∂f
∆f = + +
h1 h2 h3 ∂q1 h1 ∂q1 ∂q2 h2 ∂q2 ∂q3 h3 ∂q3

190
13 Les opérateurs diérentiels.

Example. En coordonnées polaire (r, θ, z), h1 = h3 = 1, h2 = r. Nous avons


donc
1
∂r (r∂r f ) + (1/r)∂θ2 f + r∂z2 f

∆f =
r
qui prend une forme plus simple si l'on fait rentrer le facteur (1/r) à l'intérieur
du [].
La signication du laplacien est l'écart à la moyenne. En un point P , le laplacien
mesure de combien le champ scalaire f est diérent de la moyenne du champ pris
sur les points voisins. Voyons cela de plus près. Prenons d'abord le cas à une
dimension et supposons que nous utilisons les coordonnées cartesiennes. Autour
du point P d'indice x0 , choisissons deux points distants de h est calculons l'écart
à la moyenne d'une fonctions f :

1
∆ = (f (x0 + h) + f (x0 − h)) − f (x0 )
2
1 1
= (f (x0 + h) − f (x0 )) + (f (x0 − h) − f (x0 ))
2 2
1 00
= f (x0 )h2 + O(h3 )
2
donc, à un facteur 1/2 près (qui dépend de la dimension de l'espace), l'écart à la
moyenne est donnée par la dérivée seconde multipliée par la distance des points
de voisinage au carré h2 . La généralisation est immédiate. Donnons nous un point
P0 et une sphère de rayon h petit autour de ce point. Calculons la moyenne de
l'écart entre la valeur de la fonction au point P de la sphére et le point P0 . Le
point P est repéré par le vecteur hn, c'est à dire que P = P0 + hn

1
ZZ
∆ = (f (P ) − f (P0 )) dΣ
Σ Σ
1
ZZ
= (gradf ) hndΣ
Σ
Z ZΣZ
h
= div (gradf ) dV
Σ V
hV 3
= div (gradf ) + O(h )
Σ
5
La quantité V /Σ = Ch, où C est un facteur géométrique. A trois dimensions
par exemple, C=1/3. Nous retrouvons donc bien la signication du laplacien de
la moyenne.

5. De façon générale, V /S == r/d, où d est la dimension de l'espace et r le rayon de la


sphère.

191
13 Les opérateurs diérentiels.

Table 13.1  Les opérateurs dierentiels en coordonnées curviligne. Pour les opé-
rateurs vectoriels, seul la composante selon q1 est donnée, les autres
se déduisent par permutation circulaire (1, 2, 3).
Expression application
1 ∂f
R
(gradf )1 = h1 ∂q f (b) − f (a) = C ∇f.ds
h1 i
(rot f )1 = h21h3 ∂(h∂q32f3 ) − ∂(h∂q23f2 )
R R
C
f .ds = S rotf .dn
 
div f = h1 h12 h3 ∂(h∂q
2 h3 f1 )
+ ∂(h∂q 3 h1 f2 ) ∂(h1 h2 f3 ) R R
+ ∂q3 S
f dn = V divf dV
h  1  2
i
1 ∂ h2 h3 ∂f
∆f = h1 h2 h3 ∂q1 h1 ∂q1 + ...

Par exemple, l'équation de la vibration d'une membrane élastique, dont la


hauteur u est relevé en chaque point est

∂2u
ρ = k∆u
∂t2
En terme de mécanique du point, l'équation ci-dessus est juste la formule mγ =
F : le terme de gauche est l'accélération verticale ; le terme de droite, l'écart à
la moyenne de chaque point par rapport à ses voisins, est la force exercée sur ce
point.
Une des équations très importante de la physique (électrostattique sans charge)
est celle de laplace (d'où le nom de Laplacien)

∆V = 0

Cela veut dire qu'en tout point x, la fonction V (x) est est égale à la moyenne de
son voisinage. Ceci veut dire que soit la fonction est localement linéaire autour
du point P, soit que les variations le long d'une direction sont compensé par des
variation en sens inverse dans d'autres dimension. Prenez par exemple l'image
d'un col en montagne : dans une direction, on monte, dans l'autre direction, on
descend. Cela implique donc qu'une fonction obéissant à cette équation ne peut
pas avoir d'extrémum local nul part à l'intérieur du domaine où cette équation
est valable.

13.8 Résumons.
Il est temps de mettre tous ces expression côte à côte et voir leur ressemblance.
Remarquez, dans la colonne des applications de la table 13.1), la relation entre
la partie droite et gauche de chaque égalité. Dans la partie gauche, nous somme
entrain de calculer quelque chose comme le ux d'un champ sur une courbe

192
13 Les opérateurs diérentiels.

P2 P3
P1 PN−1

B
A

Figure 13.4  Découpage d'un circuit en N intervalles

de 0, 1, 2 dimensions. Dans la partie droite, nous relions ce ux à l'intégrale


d'un operateur dierentiel de ce champ sur une surface de 1,2,3 dimensions qui
entoure la courbe précédente. Les trois relations s'appellent formule de Stockes
généralisée.
Remarquez que les relations de Stockes s'obtiennent directement à partir des
dénitions. Prenons l'exemple du gradient, et donnons nous un circuit C com-
mençant par le point A et nissant par le point B. Découpons ce circuit en N
intervalles (bien sûr, nous prensons à N très grand, → +∞ ). Sur chaque inter-
valle, nous pouvons écrire, à l'ordre 1 en longeur des intervalles, et en utilisant la
dénition du gradient :

f (P1 ) − f (A) = ∇f |A .ds1


f (P2 ) − f (P1 ) = ∇f |P1 .ds2
...
f (B) − f (PN −1 ) = ∇f |PN −1 .dsN

En sommant les deux côtés de ces égalités et en prenant la limite N → ∞, nous


obtenons la relation de Stockes pour le gradient. La relation de Stockes pour les
deux autres opérateurs s'obtient de façon similaire.
Nous reviendrons beaucoup plus tard sur ces notions en leur donnant le carac-
tère général qui leur sied d'abord à travers le cours sur les formes dierentielles et
ensuite quand nous aborderons le calcul tensoriel et les variétés diérentielles. Les
formes diérentielles sont plus élégant, mais les physiciens sont plus habitués au
calcul tensoriel. Les deux approches sont très complémentaire, des perspectives
diérentes de la même chose. Notons simplement qu'avec les formes dierentielles,
les relations de Stockes se notent, de façon très générale,
Z Z
ω= dω
dΣ Σ

où dΣ est l'hyper surface qui entoure l'hyper volume Σ, est dω est la dérivée
extérieure de ω.

193
13 Les opérateurs diérentiels.

13.9 Problèmes.
1. Démontrer les relations suivantes et surtout, donner leur un sens géométrique
en vous inspirant des dénitions

1. rot(gradf ) = 0 (help : considerer des circuits innitésimaux sur des sur-


faces de niveau entourant un point P ).
2. div(rot f ) = 0
3. div(A × B) = −(rotA).B + A.(rotB)

2. En utilisant les relations locales, démontrez les formules de Stockes du tableau


13.1.

3. Nous avons déni le Laplacien d'un champ scalaire. Le Laplacien d'un champ
vectoriel est déni par

∆f = grad(divf ) − rot(rotf )

Exprimez le Laplacien dans les diérents systèmes de coordonnées. Pouvez vous


en donner un sens géomtrique ?

4. Démontrer les relations de Stockes pour le rotationnel et la divergence.

13.10 Notes.
Certaines manipulations impliquant les dqi peuvent paraître approximatif et
sans la rigueur nécessaire. Il n'en est rien. Reprenons par exemple le calcul du
rotationnel avec autant de précision que souhaitable.
Quelques points à éclaircir d'avance. Si nous connaissons la fonction (très lisse,
inniment dérivable) f et ses dérivées au point q = (qi0 ), alors nous pouvons
0 0 0
connaître sa valeur en un point proche, par exemple (q1 + dq1 , q2 , q3 ) :

f (q10 + dq1 , q2 , q3 ) = f (q) + dq1 ∂1 f (q) + (1/2)dq12 ∂12 f (q) + ...

C'est ce que nous appelons le développement de Taylor. Maintenant, si nous


connaissons la fonction f et ses dérivées au point q = (qi0 ), alors comment évaluer
Z q10 +a
f (q1 , q2 , q3 )dq1
q10

194
13 Les opérateurs diérentiels.

Rien de plus simple à partir du développement de Taylor. Dans l'intervalle d'in-


tégration, nous choisissons le paramétrage q1 = q10 + u
Z q10 +a Z a
f (q1 , q2 , q3 )dq1 = f (q10 + u, q2 , q3 )du
q10 0
Z a
f (q) + u∂1 f (q) + (1/2)u2 ∂12 f (q) + ...
 
=
0
= af (q) + (1/2)a2 ∂1 f (q) + (1/6)a3 ∂12 f (q) + ...

La dernière ligne a été possible parceque les quantité f (q), ∂1 f (q), ... sont juste
des constantes pour l'intégrale en question : l'intégration se fait sur u! Dans
l'équation13.5, nous avons simplement écrit le premier ordre, le seul qui est per-
tinent quand on prend la limite a, b → 0. Pour vous en persuader, il sut de faire
le calcul à l'odre supérieur.

195
14 Les tenseurs en physique.
Le mot tenseur peut évoquer des objets avec beacoup d'indices et d'exposants
ml
du genre ξijk qui multiplient d'autres objets de ce genre et où il faut se souvenir
que certains varient de façon contravariante et d'autres covariante. En faite, ce
sont des objets très simple qui généralisent les matrices. Le lecteur déjà familier
avec ces derniers n'aura aucun mal à manipuler les tenseurs. Comme on va le voir
par la suite, les tenseurs sont partout en physique et donnent beaucoup de sens
aux diverses formules.

14.1 Les tenseurs de rang 2.


Prenons d'abord le cas d'une force appliquée à une masse m. Comme maître
Newton l'avait armé, le vecteur accélération de la paticule, a, est relié au vecteur
force, F, par la relation
1
a= F (14.1)
m
Dit en langage de mathématicien, il existe une application linéaire qui, appliquée
au vecteur F produit le vecteur a. Comme nous l'avons mainte fois souligné,
linéaire veut dire que (i) si l'on double la force, l'accélération est doublée ; (ii)
si la force est considérée comme la somme de deux autres forces, l'accélération
produite sera la somme des accélérations produites par chacune de ces forces. Si
on note par A cette application, nous avons

A(λF1 + µF2 ) = λA(F1 ) + µA(F2 ) λ, µ ∈ R

C'est la dénition d'une application linéaire. Comme c'est très simple et très
fondamental, ça ne mange pas de pain de la rappeler. En physique, nous avons
l'habitude d'appeler cela le principe de superposition.
Notre application linéaire dans ce cas était vraiment triviale : prendre le vec-
teur F et le multiplier par un scalaire 1/m. Prenons le cas maintenant d'une onde
électromagnétique qui rentre dans un matériau diélectrique (non métalique). Lo-
calement, le matériau devient polarisé, et le vecteur polarisation P est relié au
champs électrique E par
P = χE (14.2)

196
14 Les tenseurs en physique.

La polarisation est bien sûr reliée linéairement au champ électrique : si on double


le champs, la polarisation est doublé etc. Mais P n'a aucune raison d'être pa-
rallèle à E! Le matériau, si il est cristalin, possède des axes priviligiées. Il est
plus polarisable dans certaines directions et la composante de E parallèle à ces
directions est plus amplifée . Le vecteur polarisation résultant à priori n'est donc
pas parallèle au champ électrique. La susceptibilité électrique (c'est son nom) χ
1
n'est donc pas un scalaire, mais un tenseur (une application linéaire) . Quand on
veut manipuler et mesurer ces choses, il faut bien les représenter par des nombres.
Comme nous l'avons dit, nous nous donnons alors une base, est nous represen-
tons un vecteur par ses compostantes Ei ou Pi . La représentation de χ est une
matrice, dont les éléments sont χij et numériquement, la relation (14.2) s'écrit

X
Pi = χij Ej (14.3)
j

L'expression ci-dessus est juste le produit de la matrice χ par le vecteur Pécrit


de façon explicite.
Pour le physicien, la susceptibilité est une propriété fondamentale du materiau,
au même titre que sa masse. De même, les vecteurs E et P ont une existence
propre, indépendemment de comment nous les mesurons. Ceci veut dire que dans
diérentes bases, les composantes des vecteurs, Ei et Pi auront diérentes va-
leurs, mais si on les manipule correctements, on retrouvera les même vecteurs
originaux. De même pour les éléments χij : quelque soit la base que nous avons
2
choisi , en suivant la relation (14.3), on doit toujours retrouver le même vec-
teurs polarisation. Cela va de soit si nous savons que ces nombres ne sont que
des représentations des vecteurs et applications linéaires, et que nous disposons
des mécanismes précis pour les calculer, une fois donnée une base. Cela allait un
peu moins de soi au début du vingtième siècle quand l'algèbre linéaire n'était pas
aussi démocratisé que de nos jours. On présentait alors un tenseur χij comme une
collection de nombres avec des règles de transformations précises lors des chan-
gements de base. C'était un peu comme faire de l'arithmétique avec des chires
latins ( quel est le résultat de MCLLXIV+MLCLXII ? ) et malheureusement,
cette conception des tenseurs reste encore vivante de nos jours.

1. Dans le temps, on faisait beaucoup de dinstinction entre un scalaire, un vecteur et un


tenseur. Bien sûr, on peut voir un scalaire comme une matrice diagonale avec tous ses éléments
égaux : le produit d'une application identité par un nombre.
2. par exemple, base 1 : x horizontal et selon le rayon laser qui rentre dans le cristal, z vertical
et y perpendiculaire aux deux autres ; base 2 : x,y ,z parallèle aux axes principaux du cristal ;
base 3 : x dans la direction de l'étoile polaire, y pointant vers le soleil et z vers le centre de la
galaxie. Les deux premières bases sont couremment utilisées par l'opticien : la première est le
référentiel du laboratoire très naturel à utiliser ; Dans la deuxième, la matrice de la susceptibilité
est diagonale (au dit autrement, les axes du cristal constituent les vecteurs propres de χ) et
donc les calculs y sont très simple. La base 3 n'a jamais été utilisé à ma connaissance pour faire
de l'optique.

197
14 Les tenseurs en physique.

Nous reviendrons plus tard à ces règles de maniplation pratique des chires.
Pour l'instant nous allons nous habituer un peu plus à ces concepts. A propos, le
titre de cette section était les tenseurs de rang 2. C'est un terme savant pour
désigner les applications linéaires. Un scalaire est un tenseur de rang 0 (zéro)
et une application linéaire est un tenseur de rang 2 (il faut deux indices pour
énumerer les éléments). A votre avis, qu'est ce qu'un tenseur de rang 1 ?
Prenons maintenant un autre exemple, une fonction vectoriel dans l'espace R3 ,
3
u(x, y, z) = (u1 (x, y, z), u2 (x, y, z), u3 (x, y, z) ) . Si nous connaissons la valeur de
la fonction au point (x0 , y0 , z0 ), la valeur de la fonction au point (x0 + dx, y0 +
dy, z0 + dz) est u(x0 , y0 , z0 ) + du, où

du = D.dr (14.4)

la relation ci-dessus n'est pas autre chose que du = u0 (x0 )dx pour les fonctions
d'une seule variable et le tenseur D généralise la notion de dérivée. Evidément,
nous savons que les composantes de ce tenseur s'écrivent

∂ui
Dij =
∂xj

où nous avons remplacé les coordonnées x, y, z par x1 , x2 , x3 ( cela est beaucoup


plus pratique). Remarquez qu'à priori, nous n'avons rien fait d'autre que d'écrire
le développement à l'ordre 1 de chaque composante ui et de regrouper le tout
sous forme d'une matrice. La relation (14.4) est cependant plus profond et met
l'accent sur la linéarité de la relation entre dret du 4 .
Ce que vous devez retenir à ce point est que les tenseurs généralisent la notion
de multiplication à des objets de dimension supèrieurs 1.

Convention de sommation. Les tenseurs sont devenus populaire à partir des


années 1920. Einstein par exemple a formulé sa théorie de relativité générale
en termes tensoriels. Il a remarqué que quand on écrivait des sommes du genre
(14.3), l'indice sur lequel on sommait (j dans le cas cité) était toujours répété
dans deux quantités (χij et Ej dans ce cas). Du coup, autant laisser tomber le
signe somme et accepter que quand un indice est répété deux fois, cela veut dire
qu'il faut sommer sur cet indice. Cette convention est tellement pratique qu'elle a
été adopté partout. La relation (14.3) s'écrit, avec notre convention, Pi = χij Ej .
Si nous étions dans un espace à quatre dimension, la relation ξij = λijkl ζkl (peut

3. par exemple la vitesse d'un écoulement en chaque point de l'espace.


4. Si l'on deforme un solide, chacun de ses points est déplacé. Nous pouvons dénir une
fonction véctoriel u(x, y, z) qui relate le déplacement de chaque point. Le tenseur D que nous
avons déni ci-dessus (ou plutôt sa version symétrisée) est appelé dans ce cas le tenseur des
déformations et constitue le socle de la théorie d'élasticité.

198
14 Les tenseurs en physique.

importe ce que cela veut dire) est une façon plus concise d'écrire

4 X
X 4
ξij = λijkl ζkl
l=1 k=1

Si les composantes d'un vecteur x dans la base (e1 , e2 , e3 ) sont x1 , x2 , x3 , nous


pouvons, en suivant cette convetion, écrire simplement x = xi ei . Nous suivrons
cette convention dans cette section.
Note : Faire plusieurs exercices pour bien habituer à la convention, surtout
en préparation de ce qui suit. Surtout les habituer au permutation d'indice :
pji xj et pij xi c'est la même chose. Donner l'équivalent en langage humain du
genre sommons sur la première indice. Faire vraiment beaucoup d'exercice sur
l'indice muet. Une bonne partie du pratique des tenseurs c'est seulement cette
manipulation d'indice.

Examples choisis et exercice.


Les mettres peut être juste avant les changement de base, ou les distribuer au
fur et à mesure.

1. Champ électrique créé par un dipole

2. énergie d'interaction entre dipoles

3. le tenseur quadrapolaire

4. elasticité : tenseur de déformation et de contrainte, relation de Hook. Pro-


ter pour habituer aux changements de variables pour écrire ces tenseurs
en symetrie sphérique ou cylindrique : contenaire précontraint, les billes
d'actine, etc.

5. tenseur de déformation crée par une force ponctuelle à la surface ; par un


dipole de force ;

6. Energie d'interaction entre deux marches à la surface d'un cristal. Instabi-


lités élastiques

7. tenseur hydrodynamique et la viscosité, à la landau.

8. Le tenseur métrique. Les opérateurs diérentiels : grad, curl, div.

9. Un peu de géométrie diérentielle.

10. Le tenseur éléctromagnétique en relativité, le lien avec le chapitre précédent.

14.2 Généralisation des tenseurs.


Les tenseurs de rang 2 que nous avons rencontré plus haut étaient des fonctions
linéaires d'un espace vectoriel E1 dans un autre esapce vectoriel E2 : A : E1 → E2 .

199
14 Les tenseurs en physique.

Un tenseur de rang 3 est une application bi-linéaire qui prend deux vecteurs en
entrée et prdouit un vecteur en sortie : A : E1 × E1 → E2 . l'application A(x, y)
est bilinéaire, c'est à dire linéaire pour chacun de ses arguments :

A(µx1 + λx2 , y) = µA(x1 , y) + λA(x2 , y)


A(x, µy1 + λy2 ) = µA(x, y1 ) + λA(x, y2 )

où λ, µ ∈ R. A nouveau, pour faire des calculs, nous nous donnons une base, et
cette fois, A doit être donné par trois indices aijk (une matrice à trois dimensions
si vous voulez : ligne, colonne,epaisseur). Si z = A(x, y), alors la relation entre
leurs composantes est juste une généralisation des produits matricielles :

zi = aijk xj yk

Reprenons notre exemple de fonction u(x1 , x2 , x3 ) que nous avons rencontré


plus haut.
introduire déjà les formes linéaires, mais attendre le produit scalaire pour parler
de l'espace dual.

14.3 Les composantes d'un tenseur.

Les tenseurs de rang 2.

Il nous faut maintenant manipuler pratiquement les tenseurs, c'est à dire à


calculer leurs composantes. Revenons à ce que nous savons sur les vecteurs. Pour
les manipuler, nous les reprensétons sous formes d'un ensemble de chire (souvent
sous forme d'une colonne) : nous nous donnons une base {e1 , e2 , ...en }, nous
écrivons un vecteur x sous forme de combinaison linéaire de ces vecteurs, x =
x1 e1 + ...xn en = xi ei et nous représentons le vecteurs par les nombres (x1 , ...xn ).
Pour caractériser une application linéaire A (autrement dit, un tenseur de rang
2), il sut de connaitre l'action de cette application seulement sur chaque vecteur
5
de base :

Ae1 = a11 e1 + a21 e2 + ...an1 en (14.5)

Ae2 = a12 e1 + a22 e2 + ...an2 en


...
Aen = a1n e1 + a2n e2 + ...ann en

5. Nous considérons seulement le cas où A est une application linéaire d'un espace vectoriel
de dimension n dans un espace vectoriel de même dimension. La matrice représentant A est
alors carré. La généralisation au cas les espace vectoriel de départ et d'arrivé n'ont pas la même
dimension est triviale et laissé au soin du lecteur.

200
14 Les tenseurs en physique.

ou dans notre notation concise tensorielle avec la convention de sommation de


l'indice répété,
Aei = aji ej i = 1, ..., n (14.6)

Notez le sens de la variation des indices : c'est la fameuse convention de présenter


les composantes de Aei comme des vecteurs colonnes et de les aligner côtes à
côtes pour former une matrice. Connaissant ces composantes aij , nous pouvons
calculer les composantes de n'importe quel vecteur y = Ax (on ne le précisera
plus, nous suivons notre convention de sommation ) :

Ax = A(xi ei )
= xi Aei linéraité d'une application linéaire

= xi aji ej la relation (14.6) ci dessus

La i-ème composante du vecteur y est donc donné par

yi = aij xj (14.7)

Ceci est bien sûr la règle selon laquelle il faut multiplier la i-ème ligne de la matrice
par le vecteur colonne x élément par élément pour obtenir la i-ème composante
de y. Notez à nouveau 6 le sens de la variation de l'indice et comparez à la relation
(14.6) : cette fois nous sommes en train de sommer sur le deuxième indice tandis
que dans la relation (14.6), nous sommions sur la première indice. On dit que
les composantes d'un vecteur varient de façon contravariante, c'est à dire dans le
sens contraire à la variation des vecteurs sous l'eet d'une application linéaire. Le
7
mot contraire est mal choisi , puisque il veut simplement dire qu'il faut sommer
sur l'autre indice. C'est malheureusement un mot consacré qu'il faut connaître.

Les tenseurs de rang quelconque.

Ce que nous venons de dire se généralise naturellement aux tenseurs de rang


quelconque. Prenons le cas d'un tenseur A de rang 3, c'est à dire une fonction
bi-linéaire qui prend deux vecteurs en entrée et produit un vecteur en sortie
(A : En × En → En , où En est un espace vectoriel de dimension n). On ne peut
plus représenter A comme une matrice, il nous faudrait arranger les termes dans
un tableau tri-dimensionnel, peut pratique à écrire. Il nous faut nous contenter
des coecients, mais à la longue vous le verrez, ce n'est pas moins pratique.
Comme nous l'avons indiqué plus haut, il nous faut connaître l'action de A sur
tous les couples vecteurs de base :

A(ei , ej ) = akij ek i, j = 1, ..., n


6. Nous avons permuter i et j pour désigner la ligne de la matrice par i et sa colonne par j.
Certaines habitudes ont la vie dure.
7. Historiquement, l'application linéaire le plus souvent considéré était un changement de
base et le mot contravariant avait plus de sens. Nous verrons cela un peu plus tard.

201
14 Les tenseurs en physique.

connaissant ces coecients akij , nous pouvons connaitre l'action de A sur n'im-
porte quel deux vecteurs x,y :

z = A(x, y)
= A(xi ei , yj ej )
= xi yj A(ei , ej )
= akij xi yj ek

Autrement dit,
zk = akij xi yj
Voilà, c'est ce que nous disions sur la généralisation naturelle des matrices. Notez
la concision que la convention de sommation de l'indice répété nous procure.

14.4 Changement de base.


Connaissant les composantes d'un vecteur ou tenseur dans une base, comment
en déduire ces composantes dans une autre base ? L'exercice n'est pas futil, et
mérite que l'on y passe un peu de temps pour au moins deux raisons : (i) nous
mesurons souvent les composantes d'un tenseur dans une base priviligiée où il est
diagonal (par ce qu'il est beacoup moins fastidieux de mesurer n coecients que
nk ), mais nous gagnons notre pain dans la base du laboratoire où nous eectuons
nos expériences ; (ii) certaines théories comme la mécanique classique où la rela-
tivité sont fondées sur l'invarience de certaines quantitées lors des changements
de référentiel : il faut donc savoir comment passer d'une base à l'autre si l'on veut
comprendre ces théories.

Commençons par le cas d'un vecteur. Nous connaissons les composantes d'un
vecteur x dans la base {e1 , ..., en }et nous souhaitons obtenir ses composantes dans
la base {f1 , ..., fn }. Evidement, il existe une application linéaire P qui transforme
les vecteurs fi en vecteur ei : P f1 = e1 , P f2 = e2 ,... Par exemple, si nous avons
tourné les axes de la première base de 45 degrès pour obtenir la deuxième base,
l'application P est l'application Rotation de -45 degrès. Notez que c'est l'appli-
cation qui transforme la deuxième base en première ; pour plus de clarté, on le
note parfois P2→1 . Pour avoir la représentation matricielle de P dans la base {fi },
il sut, comme nous l'avons dit plus haut (relation 14.5), d'écrire les vecteurs ei
comme des combinaisons linéaires des vecteurs fi :

ei = pji fj

202
14 Les tenseurs en physique.

Connaissant ces coecient pij , on obtient directement l'expression de x comme


combinaison linéaire des vecteurs fi :

x = xi ei
= xi pji fi

Si nous désignons par x0i les composantes du vecteur dans la nouvelle base, nous
avons
x0i = pij xj (14.8)

Vous avez peut être remarqué la beauté de la relation ci-dessus : les composantes
du vecteur x dans la deuxième base {f } sont égaux aux composantes du vecteur
Px dans la première base {e} ! Revenons à l'exemple de la base {f } obtenue par
une rotation de +45 degrès de la base {e} ; les composantes d'un vecteur x dans
cette nouvelle base sont égaux aux composantes du ce vecteur, tourné de -45
degrès, dans l'ancienne base. En faite, voilà l'origine du mot contravariant.

Continuons par un tenseur de rang 2. Nous connaissons les éléments aij d'un
tenseur A dans une base {e}, et nous souhaitons les exprimer dans la base {f }
en nous aidant de l'application de passage P = P2→1 . Cette fois, nous avons
également besoin de l'application inverse Q = P −1 :

fi = qji ej

Connaitre l'application A dans la base {f }, c'est connaitre l'action de A sur


chaque vecteur fi . Allons-y :

Afi = Aqji ej
= qji Aej
= qji akj ek
= qji akj plk fl

Ce qui nous donne :


a0li = plk akj qji
Cette démarche se généralise immédiatement aux tenseurs de rangs supérieurs.
Il ne faut surtout rien retenir pas coeur : si vous avez compris la démarche,
la formule de transformation s'obtient en deux coup de cuillère. (j'ai un petit
problème de consistence de notation). Donner la forme matricielle habitulles.
Exercice : déduire l'expression des tenseurs a0ijk et a0ijkl

203
14 Les tenseurs en physique.

14.5 Le produit scalaire généralisé, covariant et


contravariant, les formes linéaires.
Le lecteur qui a rencontré les tenseurs, surtout dans le contexte de la relativité
générale ou de la géometrie riemanienne a noté que l'on fait une distinction très
nette entre les vecteurs, tenseurs,... covariant et contravariant. Les composantes
des uns s'écrivent avec des indices en bas, d'autre avec des indices en haut et nous
ij
manipulons constement des expressions du genre ξkl yi xk . Nous écrivions jusque
là tous les indices en bas, mais essayons d'aller plus loin. Une bonne partie du
calcul tensoriel consiste à pratiquer la manipulation des indices. Nous allons nous
donner une nouvelle régle de sommation dont le sens sera précisé plus loin.

Régle de sommation. Une expression qui contient des indices répétés représente
une somme si un des indices est en haut et l'autre en bas.
C'est une régle gramatical au même titre que les parenthèse : une expression
bien formée contient le même nombre de parenthèse ouvertes que fermées. De
même pour les indices répétés, l'expression xi yi est correctement formé et veut
1 2 3 i j ij
dire x y1 + x y2 + x y3 + ... L'expression gij x y est bien formée, ainsi que g xi yj
j i i i j
et gi xj y . Par contre, gj xj y ou gij xi y sont gramaticalement incorrect, au même
titre que les expressions du genre (a + b))c + d( ou (a + (b + (c). Par convention,
tout ce qui a un indice en bas est appelé covariant ; un indice en haut représente
une quantité contravariante.
Donnons nous maintenant une base (e1 , e2 , ...) dans un espace vectoriel E .
N'importe quel vecteur x s'écrit comme une combinaison linéaire des éléments de
la base, ce qui, avec notre nouvelle convention de sommation, donne :

x = xi ei

Si vous vous souvenez, nous avions souligné que les composantes varient dans le
sens contraire des vecteurs lors d'un changement de base, cette notation met cela
clairement en évidence.
Nous rentrons maintenant dans le vif du sujet. A l'espace E, nous associons
un espace dual E ∗ des formes lineaires. Cet espace représente, si vous voulez,
l'autre coté du mirroir. Par forme linéaire, il faut entendre l'espace de toutes les
fonctions f E , produisent un scalaire, et font cela de
qui prennent un élément de
façon linaire :f : E → R,f (λe1 + µe2 ) = λf (e1 ) + µf (e2 ). E ∗ ressemble à E :

c'est également un espace vectoriel (af + bg , où a, b ∈ Ret f, g ∈ E a exactement

le sens qu'on lui donne) et de plus, E a la même dimension que E . (cf exercice

plus bas). E est l'espace des vecteurs contravariants comme nous allons le voir,
mais retenez l'image du mirroir : quand vous tournez vers la gauche, votre image
dans le mirroir tourne vers la droite.

204
14 Les tenseurs en physique.

Revenons à notre espace E. Vous avez vu (cf 2.1) que nous pouvons le munir
d'un produit scalaire <, >, c'est à dire une application bilinéaire qui a deux vec-
teur de E associe un scalaire. Si nous nous donnons une base (e1 , e2 , ...) et que
nous connaissons le produit scalaire de chaque couple d'entre eux < ei , ej >= gij ,
alors nous pouvons écrire le produit scalaire de n'importe quel deux vecteurs

hx, yi = gij xi y j

où xi et y j sont les composantes des deux vecteurs. N'oublions pas que le produit
scalaire doit être déni positif, c'est à direhx, xi > 0 si x 6= 0. Cela impose
gij que nous verrons plus tard.
certaines contraintes sur les valeurs
Considérons maintenant l'objet fv = hv, .i, où v ∈ E . Ceci est bien une forme

linéaire appartenant à E , puisque si u ∈ E , alors fv (u) = hv, ui ∈ R.
Note sur le produit tensoriel de deux espaces vectoriel, tenseur d'elasticité qui
relie deux tenseurs,...
Indice haut, bas, la reduction, monter ou descendre un indice : essentiellement
en relation avec la relativité et le produit scalaire de minkowski.
espace dual
exercice : démontrer que E ∗ est un espace vectoriel de même dimension
une base dans l'esapce dual sans faire référence au produit scalaire.
produit scalaire généralisé < x, y >= gij xi y j

205
15 Équation à dérivée partielle du
premier ordre.
Le monde des équations à dérivée partielle est vaste, est des centaines de livres,
souvent extrêmement pédagogiques, leur sont consacrées. Les EDP les plus utili-
sées en physique sont de second ordre pour l'espace, et de premier ou de second
ordre pour le temps. Ce sont les équations de la chaleur, de Laplace et de Poisson,
et l'équation d'onde. Nous n'allons traiter aucun de cela, même si la plus part
des méthodes développées plus haut y sont extrêmement utiles.
Les EDP linéaires de premier ordre sont par contre exactement soluble par la
méthode des caractéristiques, au moins en théorie. Il est utile d'en donner un bref
aperçu.

15.1 La méthode des caractéristiques.


Nous souhaitons déterminer la fonction φ(s, t) obéissant à l'équation :

∂t φ + P (s)∂s φ = Q(s)φ (15.1)

Nous cherchons la solution sous forme de φ(s, t) = f (s)g(u(s, t)) où f, g, u sont


des fonctions inconnues à déterminer. A priori, nous n'avons rien gagné d'autre
que d'augmenter le nombre de fonctions inconnues. Mais nous gagnons la liberté
d'imposer des contraintes à ces fonctions qui nous ramènerons le problème à des
choses plus connues.
Nous avons, pour les dérivées partielles de φ :

∂t φ = ∂t uf (s)g 0 (u) (15.2)


0 0
∂s φ = f (s)g(u) + ∂s uf (s)g (u) (15.3)

En insérant (15.2,15.3) dans l'équation (15.1), nous avons :

(∂t u + P (s)∂s u)f (s)g 0 (u) + (P (s)f 0 (s) − Q(s)f (s))g(u) = 0. (15.4)

Nous voyons qu'une solution évidente de (15.4) est donnée par :

P (s)f 0 (s) − Q(s)f (s) = 0 (15.5)

∂t u + P (s)∂s u = 0 (15.6)

206
15 Équation à dérivée partielle du premier ordre.

L'équation (15.5) est une équation diérentielle linéaire homogène de premier


ordre en f et sa solution est donnée par f (s) = exp(A(s)), où A0 (s) = Q(s)/P (s).
L'équation (15.6) , qui est une EDP de premier ordre homogène, a comme
solution u(s, t) = exp(W (s) − t) où W 0 (s) = 1/P (s). Notons que la fonction g
reste indéterminée. Son choix dépend des conditions initiales imposées au système.

Exemple Nous souhaitons résoudre une équation de diusion avec un terme de


drift linéaire, appelé Ornstein-Uhlenbeck :

∂t p = ∂x (kxp) + D∂x2 p (15.7)

avec la condition initiale


p(x, 0) = δ(x − x0 ) (15.8)

où δ est la fonction de Dirac. p(x, t) est une densité de probabilité de présence à


l'instant t à l'abscisse x, et la condition initiale veut simplement dire que toute
la probabilité est condensée en x0 à l'instant t = t0 . Soit φ(s, t) la transformée
de Fourier en x de p(x, t) :

Z +∞
φ(s, t) = eisx p(x, t)dx
−∞

l'équation (15.7) se transforme alors en

∂t φ + ks∂s φ = −Ds2 φ (15.9)

avec la CI
φ(s, 0) = eisx0 (15.10)

L'équation (15.9) est une EDP de premier ordre similaire à (15.1), avec P (s) =
ks Q(s) = −Ds2 . Nous avons
et alors A(s) = −Ds2 /2k et W (s) = log(s)/k . Les
fonctions f ,u et φ s'écrivent :

f (s) = exp(−Ds2 /2k) (15.11)

u(s, t) = s exp(−kt) (15.12)


2
φ(s, t) = exp(−Ds /2k) g(s exp(−kt)) (15.13)

Nous pouvons vérier par dérivation directe que l'expression (15.13) est bien
solution de (15.9). Il nous reste à utiliser la CI (15.10) pour trouver g, ce qui
donne :
g(s) = exp(Ds2 /2k + iux0 )
et la solution complète s'écrit :

−Ds2
 
φ(s, t) = exp (1 − e−2kt ) + isx0 e−kt
2k

207
15 Équation à dérivée partielle du premier ordre.

La fonction φ est appelé en probabilité la fonction caractéristique associé à


la densité de probabilité p. La moyenne et la variance se calcule aisément si on
connaît φ :

∂φ
Z
<X> = xp(x)dx = −i
|s=0
∂s
∂2φ
Z
< X2 > = x2 p(x)dx = − 2 |s=0
∂s

Problème 1. Calculer, pour le processus d'Ornstein, < X(t) >et V ar(X(t)) =<
X 2 (t) > − < X(t) >2 (C'est pour vous faire la main).

Problème 2. Croissance exponentielle Pour une croissance exponentielle, l'équa-


tion maîtresse s'écrit :

∂t p(n, t) = (n − 1)p(n − 1, t) − np(n, t)


où p(n, t) et la probabilité pour une population d'avoir la taille n à l'instant t.
En utilisant plutôt la transformée de Laplace
X
φ(s, t) = p(n, t)e−ns
n

Calculer < n(t) >et V ar(n(t)). La condition initiale est p(n, 0) = δn,n0 .

Problème 3. (Plus ardu). On démarre avec une population initiale de bactérie


n0 , dont les taux de mort et naissance sont égaux et valent α. Calculer < n(t) >et
V ar(n(t)).
Nous verrons que l'équation maîtresse dans ce cas s'écrit :

∂t p(n, t) = (n − 1)p(n − 1, t) + (n + 1)p(n + 1, t) − 2np(n, t) (15.14)

avec la condition initiale p(n, 0) = δn,n0 . p(n, t) est la probabilité pour la popu-
lation, à l'instant t, n.
d'avoir la taille
Pour résoudre l'éq.(15.14), vous avez plus intérêt à utiliser la transformée de
Laplace :
X
φ(s, t) = p(n, t)e−ns
n

15.2 Interprétation géométrique.


Nous avons donné la méthode des caractéristiques comme une sorte de recette.
Mais cette recette découle d'une interprétation géométrique très simple : les déri-
vées premières sont les pentes de la fonction selon les diverses directions. Prenons

208
15 Équation à dérivée partielle du premier ordre.

d'abord le cas de l'équation

P (s, t)∂s φ + R(s, t)∂t φ = 0 (15.15)

Nous pouvons représenter la solution φ(s, t) comme une surface : φ(s, t) étant la
hauteur à la position (s, t). Si nous pouvions connaître les courbes de niveau de
cette surface, nous aurions déjà une très bonne connaissance de la solution (voir
gure 15.1). Quand on parcours une courbe de niveau, la valeur de la fonction φ
y reste constante. Supposons maintenant que nous sommes à une position (s, t).
Comment se déplacer d'une quantité (ds, dt) pour que la valeur de la fonction φ
reste constante ? Quelle doit être le rapport entre le déplacement dans la direction
ds et le déplacement dans la direction dt pour ne pas changer d'altitude ? Noter
que se donner une relation entre ds et dt en tout point déni une courbe dans
le plan (s, t). Par exemple, dy/dx = −x/y déni l'équation d'un cercle de centre
origine ; le rayon de ce cercle est donné par une condition initiale.
La variation de φ en fonction de (ds, dt) est

dφ = (∂s φ)ds + (∂t φ)dt

En comparant cette expression à (15.15), nous voyons qu'il sut de choisir ds


proportionnel à P (s, t) et dt proportionnel à R(s, t) pour que dφ = 0. Autrement
dit, pour avoir dφ = 0, il sut de choisir
ds dt
= (15.16)
P (s, t) R(s, t)

Comme vous le remarquez, l'expression ci-dessus est une équation diérentielle


ordinaire donnant la forme de la courbe qu'on appelle caractéristique.

Exemple. L'équation t∂s φ − s∂t φ = 0 : les courbes de niveaux sont données par
sds + tdt = 0, autrement dit par s2 + t2 = C . Ce sont des cercles centrés
sur l'origine.

Appliquons cela à l'équation plus simple que nous avions traité au début de ce
chapitre :
∂t φ + P (s)∂s φ = 0 (15.17)

Les courbes de niveau sont donné par

ds dt
=
P (s) 1

En intégrant les deux côtés, nous avons donc

W (s) − t = C

209
15 Équation à dérivée partielle du premier ordre.

La surface φ(s, t)

φ
2

0
1
0.8
0.6
1
0.4 0.9
0.2 0.8
0 0.7
0.6
−0.2 0.5
−0.4
−0.6 0.3
0.4
Les courbes de niveau
−0.8 0.2
0.1
La condition initiale −1 0

φ(s, 0) = I(s) s
t

Figure 15.1  Construction d'une solution : nous trouvons d'abord les courbes
de niveau dans le plan (t, s). Ensuite, en utilisant la condition
initiale φ(s, 0) = I(s), on précise la hauteur de la surface de φ sur
chacune des courbes et on reconstruit la solution φ(s, t).

où W 0 (s) = 1/P (s) et C est une constante d'intégration. La fonction u(s, t) =


W (s) − t = C nous donne donc les courbes de niveau, et la solution générale de
l'équation (15.17) est donc de la forme

φ(s, t) = g (u(s, t))

La fonction g doit être trouvé en utilisant les conditions aux bords. Ceci est le
sens de la recette de résolution que nous avions donné au début de ce chapitre,
dans le cas simple où le second membre est nul.
Très bien, nous connaissons les courbes de niveaux. Mais pour vraiment connaître
φ, il faut connaître la valeur de cette fonction sur chaque courbe. Comment dé-
terminer cela ? Évidement, à l'aide des conditions initiales. Si par exemple, on
se donne φ(s, 0) = I(s), nous connaissons alors la valeur de φ sur la courbe de
niveau qui passe par (s, 0) (voir gure 15.1). Autrement dit, en transportant les
hauteurs φ(s, 0) le long des courbes de niveau, on reconstruit la surface φ(s, t).
Ceci est le sens de la détermination de la fonction g(u) par les conditions initiales
dans la section précédente. Nous avons donc la méthode générale de la résolution
d'une EDP de premier ordre.

Exemple : équation d'onde. Soit l'équation c∂x φ − ∂t φ = 0, avec la condition


φ(x, 0) = f (x). Les courbes caractéristiques sont dx/c = −dt, autre-
initiale
ment dit x = −ct+x0 . En inversant cette relation, nous trouvons x0 = x+ct
. Nous trouvons donc que

φ(x, t) = f (x + ct)

Nous avons appelé cette équation équation d'onde puisque l'équation

210
15 Équation à dérivée partielle du premier ordre.

c2 ∂ 2 φ/∂x2 − ∂ 2 φ/∂t2 = 0 se factorise en

(c∂x − ∂t )(c∂x + ∂t )φ = 0

Si φ est solution de c∂x φ−∂t φ = 0 ou de c∂x φ+∂t φ = 0, alors φ est solution


de l'équation d'onde.

15.3 Généralisation.
A partir de là, nous pouvons généraliser notre analyse à l'équation

P (s, t)∂s φ + R(s, t)∂t φ = Q(s, t, φ)

avec les conditions initiales φ(s, 0) = I(s). Les courbes caractéristiques données
par (15.16) ne sont plus des courbes de niveau, mais la variation de φ le long
des courbes est donnée par une équation diérentielle ordinaire. Supposons que
la solution de ds/P = dt/R soit donnée par s = f (t, s0 ) 1 , c'est à dire ds/dt =
0
f (t, s0 ) = P/R. Quand on se déplace le long d'une courbe caractéristique s =
f (t, s0 ), la variation de φ est

dφ = ds∂s φ + dt∂t φ
= (P ∂s φ + R∂t φ)(dt/R)
= (Q/R)dt

Donc, le long de ces courbes, φ est solution de l'équation

dφ Q(s, t, φ)
= (15.18)
dt R(s, t)

La stratégie pour trouver la solution est une modication de ce que nous avons
dit précédemment :

1. Trouver la courbe caractéristique s = f (t, s0 ), l'inverser pour trouver s0 =


g(s, t).
2. Résoudre l'équation diérentielle ordinaire (15.18) où s = f (t, s0 ) soumise
à la condition initiale φ(0) = I(s0 ),le long d'une courbe caractéristique.

Exemple. Résoudre l'équation ∂s φ + P (t)∂t φ = Q(t)φ avec la condition initiale


φ(s, 0) = I(s). Notez que nous n'avons pas de dépendance explicite en s dans
cette équation.

1. Pour être plus général, nous aurions du écrire f (s, t, s0 ) = 0

211
15 Équation à dérivée partielle du premier ordre.

Les courbes caractéristiques sont ds/1 = dt/P (t). Si nous appelons W (t) une
primitive de 1/P (t), W est connue, puisque P l'est ) les courbes ca-
( la fonction
ractéristiques sont données par W (t)−s = W (0)−s0 . Le long de ces courbes, nous
choisissons s comme variable indépendante ( nous avons le choix du paramétrage,
) et donc, le long de ces courbes,

dφ Q(t)
= φ
dt P (t)

Si nous appelons A(t) une primitive de Q/P , alors la solution générale de l'équa-
tion ci-dessus est
φ(t) = C. exp(A(t)).
Toutes les courbes passant par t (quelque soit leur ordonnée s) ont la forme
ci-dessus. Vous pouvez voir cela comme le croisement entre la surface φet le
plan t. La caractéristique passant par le point (s, t) passe par le point (s0 , 0) où
s0 = W (t) − s − W (0). La solution complète de l'équation s'écrit donc comme

φ(s, t) = I(W (t) − s − W (0).) exp(A(t)

Nous laissons au lecteur le soin de revoir la première section de ce chapitre à la


lumière de ces développements.

212
16 Les formes diérentielles et la
dérivation extérieure.
16.1 Introduction.
L'analyse des fonctions d'une seule variable est simple : nous savons prendre
la dérivée première, seconde, ... et cela a un sens direct (pente, courbure,...).
Quand on aborde les fonctions de plusieurs variables, les choses commencent à se
compliquer. Les opérateurs diérentielles prennent alors des noms étrange comme
gradient, divergence, rotationnel,... Et nous découvrons qu'il existe des relations
entre ces êtres : prendre la circulation le long d'une courbe fermée revient à
calculer le ux d'un rotationnel à travers la surface engendré par cette courbe ;
calculer le ux à travers une surface fermée revient à prendre l'integrale de la
divergence dans le volume,... Si vous êtes très versé dans la manipulation de ces
objets, vous savez peut-être ce que vaut grad(divf ) par coeur !
Tout cela n'est pas très joli. D'abord, nous avons de la peine à distinguer la
signication de tous ces opérateurs et des relations qui existent entre elle ; ensuite,
cette analyse vectorielle ne marche qu'à trois dimensions
1
; Enn, les équations
mathématiques deviennent confus : pourquoi la dérivée temporelle du champ
magnétique devrait être lié au rotationnel du champ électrique ? On sent bien
qu'il y a des arguments de géométrie derrière, mais quoi exactement ?
A partir du début du vingtième siècle, des mathématiciens comme Poincarré
et Cartan ont réalisé que derrière tous ce chaos, il y avait de l'ordre, exactement
comme la découverte de l'existence des atomes a donné un sens à la chimie. Les
atomes en question ici s'appellent des formes diérentielles, et nous allons les étu-
dier plus en détails. Disons simplement que toutes ces relations entre operateurs
ne sont en faite que des généralisations du Théorème Fondamentale de l'analyse :

Z b
F 0 (x)dx = F (b) − F (a)
a

1. Et cela par un malentendu qui fait correspondre un vecteur aux produit vectoriel dans le
cas des espaces à trois dimensions.

213
16 Les formes diérentielles et la dérivation extérieure.

16.2 Les 1−formes.


Une 1-forme est une application linéaire qui agit sur un vecteur et produit un
nombre. Le lecteur est probablement habitué déjà à ce concept : en notation ma-
tricielle, les (vrais) vecteurs sont représentés par des colonnes (vecteur colonne) ;
ceci dit, nous avons également des vecteurs lignes. Ces vecteurs lignes sont ce
qu'on appelle des 1-formes. L'application d'une forme ũ à un vecteur v revient
à multiplier son vecteur ligne par le vecteur colonne de v pour produire un
nombre.
Bien. Ceci dit, une colonne de nombre est juste une représentation d'un vecteur,
qui dépend de la base choisie. Les vecteurs sont des objets géomtriques qui ne
2
dépendent évidemment pas de leurs représentations . De la même manière, les
1-formes ne sont pas des vecteurs lignes qui est juste une façon de les représenter
par des nombre : Le scalaire ũ(v) ne dépend pas de la base que nous avons choisie.
Pour développer notre théorie, c'est quand même pratique de ce donner une
base. Prenons pour simplier les choses un espace plat à 3 dimensions, où nous
nous donnons trois vecteurs indépendants ex , ey et ez . N'importe quel vecteur
peut maintenant être représenté par une combinaison du genre v = ax ex +ay ey +
az ez où les coecients ay sont des nombres.
De la même façon, nous pouvons nous donner une base dans l'espace des formes
et écrire une 1-forme ω comme une combinaisons de ces 1-formes de base. C'est
ici que les mathématiciens ont introduit une notation qui peut paraître déroutant
3
aux physiciens , mais qui s'avère extrémement féconde. Il existe par exemple un
(unique) 1-forme ωx tel que

ωx (ex ) = 1 ; ωx (ey ) = 0 ; ωx (ez ) = 0

Nous appelerons cette 1-forme dx. Ici, dx n'a rien d'innitésimal, sa représentation
est le vecteur ligne (1, 0, 0). De la même façon, nous dénissons les 1-formes dy
et dz . Ainsi, dy(ax ex + ay ey + az ez ) = ay .
4
Un exemple de 1-forme est la force f en mécanique . Quand sous l'action de
cette force, un point matériel bouge du point P1 au point P2 , le travail (qui un

scalaire) de cette force est f (P1~ P2 ), c'est à dire l'appliccation de la 1-forme f


~
au vecteur P1 P2 . Donnons nous par exemple un champ de force constant f =
2dx + 3dy et supposons que le déplcament 5 P1~P2 = 3ex + 2ey . Alors le travail de
cette force est

W = 2dx(3ex + 2ey ) + 3dy(3ex + 2ey ) = 6 + 6 = 12


2. C'est la diérence entre une personne et une photo de cette personne.
3. Utiliser ces notations demande un peu de schizophrénie de la part de l'étudiant phyisicien,
qui doit désapprendre ses propres notations.
4. Oui, la force n'est pas un vecteur, mais un 1-forme
5. Oui, le déplacement est un vecteur.

214
16 Les formes diérentielles et la dérivation extérieure.

Figure 16.1  Comment représenter les 1-


formes ? Dans l'espace à 2 dimensions, une

6
très bonne représentation est les lignes de ux.
Ainsi, l'action d'une 1-forme sur un vecteur est
5 le nombre de ligne que ce vecteur coupe. Ici,
nous avons ainsi représenté . Le lecteur est déjà
4 familier avec cette représentation comme courbes
de niveau pour certaines 1-formes. Pour ces
3 formes là, ceci est une bonne représentation du
gradient, comme nous le verrons plus bas. De
2
façon générale, nous pouvons, dans un espace
à dimensions, représenter les 1-formes par des
1
1 2 3 4 5 6
hyper surfaces.

Généralisons un peu plus. De la même façon que nous dénissions un champ de


vecteur (pensez le champ de déplacement u(x, y, z) des points d'un corps matériel
sous l'action des forces), nous pouvons dénir un champ de 1-forme comme par
exemple
ω = f (x, y)dx + g(x, y)dy
L'application de ce 1-forme à un vecteur P1~P2 produit un scalaire qui dépend non
seulement du vecteur P1~P2 , mais également de la localisation de ce vecteur dans
6
l'espace . Si le vecteur est petit, que le point P0 qui désigne son milieu est de
coordonnées (x0 , y0 ), et que nous pouvons le représenter par le vecteur colonne
(h, k)T , alors
ω(P1~P2 ) = f (x0 , y0 )h + g(x0 , y0 )k
A vrai dire, le mot diérentielle dans forme diérentielle sous-entend bien que
nous nous adressons qu'aux petits vecteurs ; l'action des formes sur des plus
grand objet s'obtient par la sommation de leurs actions sur les petits, ce qu'on
désigne par intégration. Nous verrons cela plus bas.

16.3 Intégration des 1-formes.


Nous avons une idée assez claire de ce que veux dire l'intégrale d'une fonction
d'une variable sur un intervalle [a, b]. Nous devons maintenant dénir exactement
ce que l'on entend par l'intégration des 1-formes le long d'un chemin C rieliant
deux points A et B.

6. Il existe une dierence entre un vecteur abstrait, c'est à dire un objet appartenant à un
espace vectoriel, et un vecteur géométrique reliant deux points P1 et P2 . Les deux concepts sont
fortement connecté, mais diérent.

215
16 Les formes diérentielles et la dérivation extérieure.

Géometriquement, cela est très simple : Donnons


nous une 1-forme ω , un chemin C et N +1 points le
long de la courbe (P0 = A, P1 , ...Pi , ..., PN = B ).
Nous dénissons

N
−−−−→
Z X
ω = lim ω(Pi Pi+1 )
C N →∞
i=0

En clair, nous appliquons le 1-forme à tous les petits vecteurs dont l'union
constitue le chemin. Remarquez que nous avons transféré, pour l'intégration ici
le poids du petit des formes aux vecteurs.
Ceci dit, comment faire l'intégration concrétement ? Soit la formeω = f (x, y)dx+
g(x, y)dy C . Nous pouvons donner l'équation de la courbe sous forme
et le chemin
paramétrique x = x(t) et y = y(t) pour t ∈ [a, b]. Nous avons alors, selon les opé-
7 0 0
rations classiques de l'analyse , dx = x (t)dt et dy = y (t)dt. Nous avons alors

Z Z b
f (x, y)dx + g(x, y)dy = {f (x, y)x0 (t) + g(x, y)y 0 (t)} dt
C a

Exemple. Intégrons la forme ω = ydx + xdy le long du quart de cercle de rayon


1 parcouru dans le sens positif. Nous pouvons paramétriser le quart de cercle par
x = cos t et y = sin t pour t ∈ [0, π/2]. Nous avons alors

Z Z π/2
− sin2 (t) + cos2 (t) dt

ω= = 0
C 0

L'intégration de −ydx + xdy le long du meme chemin nous donnerai π/2.


En physique, nous ne faisons souvent pas de distinction entre 1-forme et vecteur.
Ainsi, le 1-forme
R ω = adx + bdy est souvent remplacé par le vecteur f = (a, b)T .
L'intégrale
C
ω est écrit dans ces notations comme

Z
f .ds
C

où ds est un élément innitésimal et le point désigne le produit scalaire.

16.4 les n−formes et les n−vecteurs.

7. Les formes diérentielles ne font que généraliser les concepts d'analyse.

216
16 Les formes diérentielles et la dérivation extérieure.

Dans l'espace, nous avons des points, des vecteurs (re-


liant deux points proches), et des 1-formes. Nous pouvons
maintenant généraliser ces concepts et construire des ob-
jets plus complexes. Par exemple, nous pouvons construire
des bi-vecteurs. De la même manière qu'un vecteur ~e peut
être utiliser pour porter un segment de ligne orienté, un
bi-vecteur ~e1 ∧ ~e2 peut être utilisé pour porter un élément de surface orienté 8 .
Ainsi, nous avons

~e ∧ ~e = 0
~e1 ∧ ~e2 = −~e2 ∧ ~e1

un bivecteur a toute les propriétés usuelles de distributivité qu'on attend de lui.


Par exemple, ~e1 ∧ (~e2 + ~e3 ) = ~e1 ∧ ~e2 + ~e1 ∧ ~e3 . Si dans l'espace n = 3 des
vecteurs, nous avons pris ~e1 , ~e2 ,~e3 comme élément de la base, Dans l'espace des
bi-vecteurs, nous pouvons dénir ~ e1 ∧~e2 , ~e2 ∧~e3 , ~e3 ∧~e1 comme les éléments de la
base. De façon génrale, dans un espace à n dimensions, la dimension de l'espace
n

des bi-vecteurs est
2 . Un hasard malheureux (ou heureux, selon les points de
vue) fait que si n= 3, l'espace des bi-vecteus est de dimension 3 également. Une
certaine habitude s'est alors instaurée de représenter le bi-vecteur par un vecteur
(normale à la surface), en mettant en garde l'utilisateur que ces vecteurs sont un
peu anormal, qu'il faut les appeler axial, etc.
Bien, les 2-formes sont de la même manière une généralisation des 1-forme. Un
2-forme ω s'applique à un bi-vecteur pour produire un scalaire de façon bi-linéaire.
Ainsi, la 2-forme dxdy appliquée 9 à ~e1 ∧ ~e2 produit le nombre 1. Une 2-forme
constante peut-être vue comme un ux ; appliqué à une surface, cela produit le
ux à travers cette surface.

16.5 L'intégration des k−formes.


Tout ce que nous avons dit sur les 1-forme se généralise aux k -formes. Nous
appelerons un k−surface un objet que l'on peut paramétrer par k variables. Une
courbe par exemple est une 1-surface, une surface au sens habituel est une 2-
surface, un volume un 3-surface et ainsi de suite. Dans un espace à n dimensions,
nous pouvons donner un sens très précis à l'intégration d'un k−forme ω sur un
k−surface S : nous découpons S en N petits éléments portés par des k−vecteurs
ai et nous dénissons
Z N
X
ω = lim ω(ai )
D N →∞
i=0

8. L'opération ∧ est appelé produit extérieur.


9. La convention est de laisser tomber le ∧ entre dx et dy .

217
16 Les formes diérentielles et la dérivation extérieure.

Le calcul eective se fait via une paramétrisation de D. Par exemple, une deux
formes dans l'espace à 3d peut être représenté par

ω = f (x, y, z)dxdy + g(x, y, z)dydz + h(x, y, z)dzdx


R
Pour calculer concrétement l'intégrale
S
ω , on paramétrise la surface par deux
variables
x = a(u, v); y = b(u, v); z = c(u, v)
2
avec (u, v) ∈ D ⊂ R . Nous avons alors

∂a ∂a
dx = du + dv
∂u ∂v
el l'élément dxdy par exemple devient
  
∂a ∂a ∂b ∂b
dxdy = du + dv du + dv
∂u ∂v ∂u ∂v
Or, comme dudu = dvdv = 0 dudv = −dvdu, nous trouvons
et simplement
 
∂a ∂b ∂a ∂b
dxdy = − dudv
∂u ∂v ∂v ∂u
et ainsi pour les autres éléments. La parenthèse représente bien sûr ce que nous
appelons un Jacobien, c'est à dire le determinant de la matrice des dérivées.
Quand vous passez des vecteurs e1 , e2 aux vecteurs f1 , f2 par une transformation
linéaire A, le déterminant de A est le scalaire qui relie les surfaces portées par les
deux jeux de vecteurs. Ceci est la dénition du déterminant, indépendement de la
base choisie pour exprimer la matrice de A. Le Jacobien apparait ici puisque nous
sommes passé des dx,dy ,dz aux du,dv par une transformation linéaire donnée par
la matrice des dérivées.

Connection avec l'analyse vectoriel.

En analyse vectoriel classique, nous rencontrons souvent l'intégrale d'un champ


de vecteur le long d'une courbe, de surface, de volume, ... Par exemple, nous
savons que le travail eectué par un champ de force le long d'une courbe est
appelé circulation du vecteur. Soit le vecteur f = (fx , fy , fz )T . Sa circulation C
le long d'une courbe C est dénie par
Z
C= f .dt
C

où dt est un petit vecteur tangent à la courbe au point P, et f .dt représente le


produit scalaire entre ces deux vecteur. En langage de forme diérentielles, au

218
16 Les formes diérentielles et la dérivation extérieure.

vecteur f est associée la 1-forme f˜ = fx dx + fy dy + fz dz et la circulation est


simplement Z
C= f˜
C
De même, le fulx Φ d'un champ de vecteur f à travers une surface S est dénie
par Z
Φ= f .n.dS (16.1)
S
où dS est un élément innitésimal de surface, n est le vecteur normal à cet
élément, et f .n représente le produit scalaire. En langage des formes dierentielles,
au vecteur f = (fx , fy , fz ) est associée la 2-forme f˜ = fx dydz+fy dzdx+fz dxdy
T

et le ux est simplement Z


Φ= f˜ (16.2)
S
La dénition habituelle du ux en analyse vectoriel est problèmatique à cause de
la dénition du vecteur n normal à la surface en un point. A trois dimension,
un petit élément de surface peut éventuellement être représenté par un vecteur
(qu'on appelle alors axial) ; à dimension supérieure cependant, un élément de
surface ne peut pas être représentée par un vecteur et la dénition (16.1) n'est
plus valide. La dénition (16.2) en terme de forme diérentielle reste bien sûr
toujours valide.

16.6 La dérivation extérieure.


Jusque là, les p−formes nous ont rapporté rien de nouveau. Leur vrai beauté
apparaît avec la dérivation. Nous allons d'abord donner la technique et nous
viendrons ensuite sur le sens.
La dérivation extérieur transforme une p−forme
(p + 1)-forme. Le prin-
en une
A(x, y, z, ...)dxdy...,
cipe est le suivant : quand on rencontre une expression du genre
on prend le diérentiel de A au sens usuel (∂A/∂x)dx + ∂A/∂y)dy + ... et on mul-
tiplie par l'élément dxdy... qui était devant. Si on rencontre des dxdx, eh bien
cela vaut zero et on ne s'en occupe pas ; enn, on arrange de façon cohérente les
divers dxdz , ... Cela sera sans doute plus claire à travers des exemples. Dans les
exemples ci-dessous, nous prenons un espace à trois dimensions.

Exemple 1. Soit la 0−forme ω = f (x, y, z). Alors, trivialement,

dω = (∂f /∂x)dx + (∂f /∂y)dy + (∂f /∂z)dz

Nous voyons donc que dω représente ce qu'en général nous appelons un gradient
et notons ∇f . Mais le gradient n'est pas un vecteur, c'est une 1-forme.

219
16 Les formes diérentielles et la dérivation extérieure.

Exemple 2. Soit la 1−forme ω = A(x, y, z)dx + B(x, y, z)dy + C(x, y, z)dz . La


dérivation de la première partie nous donne

d[A(x, y, z)dx] = [(∂A/∂x)dx + (∂A/∂y)dy + (∂A/∂z)dz] dx (16.3)

= −(∂A/∂y)dxdy + (∂A/∂z)dzdx (16.4)

Nous somme passé de la première ligne à la seconde en notant que dxdx = 0 et


nous avons réarrangé le dydx en −dxdy . En continuant l'opération sur les deux
autres parties restantes et en regroupant les termes, nous trouvons nalement

dω = [−(∂A/∂y) + (∂B/∂x)] dxdy


+ [−(∂B/∂z) + (∂C/∂y)] dydz
+ [(∂A/∂z) − (∂C/∂x)] dzdx
Vous avez bien sûr reconnu ce qu'en analyse vectoriel nous noterions par une
rotationnelle. Il sut, pour reconnaitre les notations habituelles, de remplacer
A par Fx , B par Fy et C par Fz .

Exemple 3. 2−forme ω = A(x, y, z)dxdy+B(x, y, z)dydz+C(x, y, z)dzdx.


Soit la
(∂A/∂z)dzdxdy
Le seul terme non nul de la dérivation de la première partie est le terme
que l'on réarrange en (∂A/∂z)dxdydz en permuttant d'abord dz et dx, ensuite
dz et dy (−1 × −1 = 1, d'où le signe positif du réarrangement). En regroupant
tout les termes, nous obtenons

dω = [(∂A/∂z) + (∂B/∂x) + (∂C/∂y)] dxdydz


qui, en notations vectoriel, désignerait une divergence (Remplacer A par Fz , B
par Fx et C par Fy pour les notations habituelles).
Nous voyons donc que les divers opérateurs diérentiels de l'espace à trois di-
mension ne sont que des formes déguisées de la dérivation (extérieure) des formes
diérentielles. C'est pour cela que le gradient, associé à une 1−forme, est toujours
intégré le long d'une courbe, tandis que la rotationnelle, associée à une 2−forme,
est intégrée sur une surface (on calcule toujours le ux d'une rotationnelle à
travers une surface) ; enn, la divergence, associée à une 3−forme est toujours
intégrée dans un volume. Noter également que les opérateurs diérentielles ha-
bituels ne sont bien déni que dans l'espace à trois dimensions, tandis que la
dérivation des formes extérieurs se fait indépendement de la dimension et de fa-
çon presque mécanique, sans avoir à apprendre par coeur quoique ce soit. Si par
ailleurs, vous êtes incapable de vous souvenir de la forme des opérateurs dié-
rentiels dans d'autres systèmes de coordonnées, transformez les formes ci-dessus
en coordonnées polaire ou sphérique et dérivez les pour vous convaincre de la
simplicité de manipulation des formes (voir les exercices).
Le point le plus fondamental est le corpus géométrique que les formes nous
procurent et avec lequel nous allons nous familiariser dans la suite.

220
16 Les formes diérentielles et la dérivation extérieure.

Que signie géométriquement la dérivation extérieur ? Com-


mençons par la dérivation d'une 1-formes ω à un point P de
l'espace. Donnons nous deux petits vecteurs ~a et ~b et faisons
un circuits C autour du P en suivant altérnativement ces deux
vecteurs. Appelons I l'intégrale de notre 1-forme le long de ce
chemin. Nous dénissons alors la 2-formes dω comme la 2−forme qui, appliqué
au bi-vecteur ~a ∧ ~b, produirait le même scalaire I :
Z
def
dω(~a ∧ ~b) = ω
C

à la limite quand les deux vecteurs → 0. La technique que nous avons donné
plus haut calcule explicitement la deux-forme. Voyons cela de plus près. Prenons
pour simplier la 1-forme ω = f (x, y)dx + g(x, y)dy et posons ~a = (2h, 0)T et
~b = (0, 2k) . Si (x, y) sont les coordonnées du point P , les coordonnées du milieu
T

du segment P1 P2 par exemple est (x, y − k). Donc,

−−−→ −−−→
ω(P1 P2 ) + ω(P3 P4 ) = (f (x, y − k) − f (x, y + k)) (2h)
∂f
= − (4hk)
∂y
En calculant l'application de ω aux deux autres vecteurs restants, nous trouvons
nalement que
 
∂g ∂f
Z
ω= − (4hk)
C ∂x ∂y
Ce qui est exactement ce que produit la 2-forme ~a ∧ ~b. dω appliquée à
Cette construction se généralise aisément à la dérivation des n−formes. Pour la
dérivation d'une 2-forme ω par exemples, nous nous donnons trois petit vecteurs
autours d'un point P , et calculons la somme I de l'application de la 2-forme à
toutes ces surfaces (correctement orientées). Il existe une 3-forme qui, appliquée
au tri-vecteur en question, produit le même nombre et correspond bien sûr à
notre dω .

Lemme de Poincarré.

Ce lemme est quelque chose de tellement évident qui n'a pas mérité le nom de
théorème ; ceci dit, nous l'utilisons constemment dans divers contexte en lui don-
nant des noms diérents (par exemple les deux premieres équations de Maxwell).
Le voici :
d(dω) = 0
Dériver deux fois une k−forme produit la (k + 2)−forme nulle ! Prenons par
exemple une 0-forme dans l'espace à 2 dimensions f (x, y) et dérivons là deux

221
16 Les formes diérentielles et la dérivation extérieure.

fois :

∂f ∂f
df = dx + dy
∂x ∂y
∂2f ∂2f
 
d2 f = − + dxdy = 0
∂y∂x ∂x∂y

Ceci a un caractère très général : quelque soit la forme que vous prenez, en la
dérivant deux fois, vous tombez sur des expressions ou nous avons des dérivées
secondes croisées qui apparaissent deux fois avec des signes opposées.
Si par ailleurs, le lecteur a bien compris la signication géométrique de la
dérivation extérieure, il n'aura pas de mal à démontrer le lemme de façon générale,
sans faire appel aux coordonnées.

Exercice.

Démontrer pourquoi en calcul vectoriel, nous avons les identités

∇ × (∇f ) = 0
div(∇ × u) = 0

Changement de variable.

Une des beauté des formes diérentielles est la facilité qu'elles ont à gérer les
changements de variable, de façon presque automatique. Prenons par exemple la
forme ω = dxdy en coordonnées cartésiennes à 2 dimensions qui nous serre à
mesurer l'air d'une courbe fermée. En coodonnées polaire nous avons

x = r cos θ ; y = r sin θ
dx = cos θdr − r sin θdθ ; dy = sin θdr + r cos θdθ

et donc ω = rdrdθ. Obtenir une forme dans un autre système de coodonnées et


juste une question de multiplication propre des formes. Cet exemple nous sert
également à illustrer que la dérivation extérieure est indépendant du système de
coordonnées choisi. En système cartésien, nous avons par exemple ω = dη où
η = (xdy − ydx)/2. En coordonnées polaires, le même calcul nous amène à

η = (1/2)r2 dθ

et nous voyons bien que dη = rdrdθ. La recette pour eectuer la dérivation


extérieure se charge de rendre cette operation libre des coordonnées.

Exercice. Démontrer cela de façon générale.

222
16 Les formes diérentielles et la dérivation extérieure.

Manipulation des dérivations.

La première chose à maitriser, comme dans le cas de la dérivation usuelle, est


la règle de la dérivation d'un produit, qui s'écrit légérement diérement :

d(ω1 ω2 ) = (dω1 )ω2 + (−1)deg(ω1 ) ω1 (dω2 )

Le signe est une conséquence de la commutativité des formes :

ω1 ω2 = (−1)deg(ω1 ) ω2 ω1

Exercice

Démontrer, en analyse vectoriel à 3 dimensions, que

1. ~ × B)
div(A ~ = div(A)
~ B~ − A.div(
~ ~
B)

Exemple fondamental : le champ électromagnétique.

Soit la 1-forme A = −A0 dt + A1 dx + A2 dy + A3 dz dans l'espace à quatre


dimension. Nous avons l'habitude d'appeler A0 = V le potentiel électrique et
~ = (A1 , A2 , A3 )T le potentiel vecteur. Le signe − dans la coordonnée associée à
A
dt est dû à la signature de notre espace-temps. Nous pouvons construire la forme
dA. La seule complication est d'ordonner correctement les choses à 4d :

dA = − ((∂x A0 )dx + (∂y A0 )dy + (∂z A0 )dz) dt


− ((∂t A1 )dx + (∂t A2 )dy + (∂t A3 )dz) dt
+ (−∂y A1 + ∂x A2 ) dxdy
+ (−∂z A2 + ∂y A3 ) dydz
+ (∂z A1 − ∂x A3 ) dzdx

Nous avons pris la peine de séparer les diérentes contributions selon les conven-
10
tions usuelles . Par exemple, la 1-forme qui multiplie dt

E = −(∂x A0 + ∂t A1 )dx + (∂y A0 + ∂t A2 )dy + (∂z A0 + ∂t A3 )dz

est appelé (tri-) vecteur champ électrique et déni comme

~ = −−
E
−→ ~
∇V − ∂t A
10. En donnant les indices 0 à 3 à nos coordonnées, nous avons simpement quelque chose du
genre
dA = (∂xi Aj − ∂xj Ai ) dxi dxj
où nous sommes données quelques conventions pour ordonner correctement les paires (i, j) et
sommer les indices répétés.

223
16 Les formes diérentielles et la dérivation extérieure.

La 2-forme qui reste (tout ce qui ne contient pas du dt)

B = (−∂y A1 + ∂x A2 ) dxdy + (−∂z A2 + ∂y A3 ) dydz + (∂z A1 − ∂x A3 ) dzdx

est appelé tri-vecteur champ magnétique. Nous voyons ici pourquoi ~


B n'est pas
un vrai vecteur, puisqu'en réalité, il est associé à une 2-forme :

Bx = −∂z A2 + ∂y A3 ; ...

ou encore, écrit dans les notations pedestres :

~ =∇×A
B ~

Séparer ainsi les coordonnées temporelles et spatiales nous oblige à alourdir inuti-
lement nos notations, et pire, nous aveugler devant des évidences. Par le lemme
de Poincarré, nous avons
d2 A = 0
En séparant péniblement les divers coordonnées, nous obtenons ce que l'on appelle
les deux premières équations de Maxwell.
Voyons cela de plus près. Dans la dérivation de dA, nous voyons que seul les
termes de la 2-forme B produisent des 3-formes en dxdydz , ce que nous écrivons,
en notation vectoriel, par
~
divB =0
En regoupant maintenant les autres termes en par exemple dxdydt, ..., nous
trouvons trois autres identités que l'on écrit, en notation vectorielle, par

~ = −∂t B
∇×E ~

Un peu plus de travail sur les formes diérentielles nous montrerai que les deux
autres équations de Maxwell s'écrivent comme

d(∗dA) = µ0 (∗J)

où ∗ est appelé l'opération de Hodge (nous verrons le sens géométrique plus bas)
et J est la 1-forme courant :J = −ρdt + j1 dx + j2 dy + j3 dz .

16.7 théorème de Stockes.


Le théorème fondamental de l'analyse relie l'intégration de la dérivée d'une
fonction aux valeurs de cette fonction aux bords :
Z b
F 0 (x)dx = F (b) − F (a) (16.5)
a

224
16 Les formes diérentielles et la dérivation extérieure.

Ceci est en faite une forme particulière du théorème de Stockes. Donnons nous un
11
domaine S de dimension p dans un espace de dimension n. Une sphére pleine
( le point P de coordonnées (x, y, z) apprtient à la sphère de rayon R centré sur
2 2 2 2
l'origine si x + y + z < R ) est par exemple un domaine de dimension trois
2 2 2
dans un espace de dimension 3. La boule (z = 0, x + y < R ) est un domaine de
dimension 2 dans un espace de dimension 3. Notons par ∂S la frontière du domaine
S . La coque x2 +y 2 +z 2 = R2 du premier exemple et le cercle z = 0, x2 +y 2 = R2
du deuxième exemple sont les frontières de leurs domaines. Le théorème de Stockes
s'écrit Z Z
ω= dω (16.6)
∂S S

où ω est une (p − 1)-formes. C'est pour cela par exemple que l'intégrale d'une
fonction (une 1-forme) le long d'une courbe fermée est égale à l'intégrale de la
rotationnelle de cette fonction (la 2−forme dérivée) à travers la surface délimité
par cette courbe. En réalité, c'est ce théorème que les physiciens appelle théorème
de Stockes Z Z
rotf .ds = f .dl (16.7)
S ∂S
Mais nous n'avons pas à nous limiter là. Le ux d'un champ de vecteur à travers
une surface S (une 2−forme ) égale à l'intégrale de la divergence de ce champ (la
3−forme dérivée) dans le domaine D délimité par la surface. En physique, nous
écrivons cela comme Z Z
f .ds = divf dV (16.8)
S D
Enn, nous avons appris que si une fonction est le gradient d'une autre, alors son
intégrale le long d'un chemin reliant les point A et B ne dépend pas du chemin :
Z
gradf.dl = f (B) − f (A) (16.9)
C

Comme vous le constatez, ces grad,rot et div théorèmes ne sont que des applica-
tions du thèorème de Stockes aux 1,2 et 3 formes dans un espace de dimension
3.

Aperçu de la démonstration du théorème de Stockes. La démonstration suit


de très près la défnition de la dérivée extérieure.

11. Nous avons à supposer que le domaine est compact.

225
16 Les formes diérentielles et la dérivation extérieure.

16.8 Intégration par partie.


Le théorème de Stockes nous donne la possibilité de généraliser l'intégration
par partie Z Z
0
f g dx = [f g]I − f 0 gdx
I I
à n'importe quelle dimension. Nous savons que

(dω1 )ω2 = d(ω1 ω2 ) − (−1)deg(ω1 ) ω1 (dω2 )

Nous en déduisons que


Z Z Z
deg(ω1 )
(dω1 )ω2 = d(ω1 ω2 ) − (−1) ω1 (dω2 )
S
ZS Z S

= ω1 ω2 − (−1)deg(ω1 ) ω1 (dω2 )
∂S S

16.9 Un peu de géometrie : vecteurs, 1-formes et


leurs associations.
Dans l'espace à n dimensions muni de coordonnées cartésiennes (x1 , x2 , ...xn ),
1 2 n T
nous avons vu qu'au vecteur f = (f , f , ...f ) nous pouvons associer la 1-forme

f˜ = (f1 , f2 , ...fn )
= f1 dx1 + ...fn dxn

où tout simplement, nous avons f i = fi . Nous avons fait cela de façon intuitive
sans trop nous arrêter au détail. Une fois établi cette association, nous pouvons
établir l'association entre les k−vecteur et les k−formes en utilisant simplement
les règles de manipulation du produit extériure.
Comment généraliser cela à un système de coordonnées non-cartésien ? Nous
pouvons faire cela de façon fastidieuse en passant par un système cartésien, mais
nous pouvons faire cela de façon beaucoup plus élégante et rapide en comprenant
ce que la géométrie signie vraiment.

Exemple fastidieux. Soit le vecteur f = (f 1 , f 2 ) = f 1 ux + f 2 uy en coordonnées


cartésiens. En coordonnées polaires (r, θ), nous avons

ux = cos θur − sin θuθ


uy = sin θur + cos θuθ

226
16 Les formes diérentielles et la dérivation extérieure.

et donc

f = (f 1 cos θ + f 2 sin θ)ur + (−f 1 sin θ + f 2 cos θ)uθ


= f r ur + f θ uθ (16.10)

Par exemple, le vecteur xux + yuy s'écrit rur en coordonnées polaire, tandis que
−yux + xuy s'écrit ruθ . Pour la 1-forme associée, nous avons en coordonnées
cartésiennes
f˜ = f1 dx + f2 dy
où f 1 = f1 et f 2 = f2 . D'après ce que nous savons sur les changement de variable,
nous savons que en coordonnées polaire,

f˜ = (f1 cos θ + f2 sin θ) dr + r(−f1 sin θ + f2 cos θ)dθ


= fr dr + fθ dθ (16.11)

En comparant les expressions (16.10,16.11), nous avons

fr = fr
fθ = rf θ

Noter en particulier que nous avons dθ(uθ ) = 1/r.

Concept de distance. Revenons à nos moutons et sur l'élément le plus impor-


tant de la géometrie : le concept de distance. Un espace géométrique est déni
par le concept de distance entre deux points. Une fois donnée la distance, tout
le reste suit. Prenons maintenant des coordonnées générales (x1 , x2 , ...xn ) et dé-
nissions le carré de la distance entre deux points voisins P = (x1 , x2 , ...xn ) et
P 0 = (x1 + h1 , x2 + h2 , ...xn + hn ) par

X
d`2 = gij hi hj
i,j

Les coecients gij forment les éléments d'un objet qu'on appelle le tenseur mé-
trique. En général, nous utilisons des coordonnées orthogonales, où les éléments
gij sont nuls si i 6= j . Dans ce cas, nous pouvons poser gii = gi2 et dénir

X
d`2 = (gi hi )2
i

227
16 Les formes diérentielles et la dérivation extérieure.

Concept de vecteur et de produit scalaire. Nous n'avons encore jamais vrai-


ment déni ce qu'est un vecteur. Dans un espace plat un vecteur
12
est un objet
qui relie deux points P et P 0
et que l'on note par exemple par u = P~P 0 . Nous
pouvons altérnativement écrire cette relation comme P 0 = P + u.
Dans un système de coordonnées (x1 , x2 , ...xn ), nous pouvons nous donner
13
des vecteurs de base ~e1 = (1, 0, 0, ...0), ~e2 = (0, 1, 0, ...). Si (a, b, c) sont les
0
coordonnées du point P , le point P de coordonnées (a + 1, b + 3, c − 1) peut
s'écrire comme P + ~
e1 + 3~e2 − ~e3 .
Nous pouvons nous donner un produit scalaire entre deux vecteurs partant
d'un point P : une application bilinéaire, symétrique, déni-positive qui à deux
vecteurs associe un scalaire. Par exemple, dans le système de coordonnées ortho-
gonales (x1 , x2 , ...xn ), le produit scalaire entre les deux vecteur u = (u1 , ..., un )
et (v , ..., v n ) est donnée
1
par

n
X
u.v = gii ui v i
i=1

où les coecients gii dépendent du point P auxquels les deux vecteurs sont at-
tachés.
Probablement, la chose la plus troublante pour le lecteur qui n'a pas déjà vu un
cours de géométrie est le fait qu'un vecteur soit associé à un point. Ceci provient
du fait que la plupart du temps, un espace plat muni de coordonnées cartésiennes
14
ont été utilisé où gii = 1. Nous pouvons alors établir très facilement une équi-
valence entre les vecteurs associés à diérents points et libérer les vecteurs de
leurs points d'attache. En général, ceci n'est pas le cas.
Si nous avons un produit scalaire entre deux vecteurs, nous nous donnons
automatiquement une distance entre deux points :

d(P, P 0 )2 = P~P 0 .P~P 0

et nous voyons donc apparaître le tenseur métrique gij .


Remarquons tout de suite que la base ~e1 ... est orthogonale, mais pas normée.
En eet
~ei .~ei = gii = gi2
12. Ceci bien sûr est fortement relié au concept de vecteur comme objet appartenant à un
espace vectoriel, mais ceci nous entrainerai loin du présent chapitre. Disons que les vecteurs géo-
métriques représentent un sous ensemble des groupes de transformation des points de l'espace,
d'où la notation P~P 0 , qui désigne la l'application qui transforme le point P en point P 0. Dans
un espace plat, nous n'avons pas à nous limiter aux points voisins pour dénir un vecteur. Dans
un espace non-plat, nous dénissons les vecteurs en un point comme les vecteurs de l'espace
tangent en ce point : imaginer une sphère et le plan tangent à cette sphère en un point. Si tout
cela vous paraît confus, vous avez raison, c'est vraiment trop rapide.
13. Habituellement, ces vecteurs sont notés symboliquement par ∂xi .
14. qu'on appelle euclidien

228
16 Les formes diérentielles et la dérivation extérieure.

Nous pouvons bien sûr utiliser des vecteurs ~ui unitaire. Dans le système de coor-
données orthogonales (x1 , x2 , ...xn ), nous avons

~ui = (1/gi )~ei (16.12)

. Par exemple, en coordonnées polaire, le vecteur unitaire ~uθ au point (r, θ) s'écrit
(0, 1/r).

Retour sur les formes diérentielles. Nous pouvons maintenant donner un sens
plus précis aux formes diérentielles. Commençons par un 0-forme, c'est à dire
une fonction f (P ) qui à chaque point de l'espace, associe un scalaire. Prenons un
point inniment voisin P 0 = P + v où  est un scalaire et v un vecteur. Nous
dénissons la 1−forme df au point P par

1
df (u) = lim (f (P + u) − f (P )) (16.13)
→0 

Dans le système de coordonnées (x1 , x2 , ...xn ), soit la fonction f (P ) = xi , c'est


à dire une fonction qui retourne la i-ème coordonnées du point P . Si ~
ei est le
vecteur (1,0,...,0), alors évidement,

dxi (~ei ) = 1

De même, si ~ui est le vecteur unitaire dans la direction i, alors dxi (~ui ) = 1/gi
d'après notre relation (16.12).

Association vecteur-forme. Prenons maintenant un vecteur f . Nous souhaitons


lui associer une 1-forme f˜ qui respecte la géométrie. Cela veut dire que nous
voulons avoir
f˜(f ) = f .f (16.14)

En général, nous travaillons toujours avec une base orthonormale pour représenter
le vecteur f (voir l'exemple du début de cette section). Supposons que dans cette
base orthonormale, nous ayons

f = f 1 ~u1 + ... + f n ~un

alors la simple application de la contrainte (16.14) nous amène à

fi = gi f i

de même, si nous appelon g i = 1/gi , nous avons

f i = g i fi

229
16 Les formes diérentielles et la dérivation extérieure.

Dans l'exemple du début, nous avions trouvé la relation entre vecteur et forme
en coordonnées par le passage par les coordonnées cartésiennes. Nous aurions pu
remarquer simplement que la distance entre deux points (r, θ) et (r + h, θ + τ ) et

d`2 = h2 + r2 τ 2
et donc grr = 1, gθθ = r2 , donc fr = gr f r = f r et fθ = gθ f θ = rf θ .

Application : le gradient. En analyse vectorielle, nous avons un vecteur que


nous appelons gradient. Soit la fonction f (x). Trouver son gradient en coordon-
nées généralisées.
Nous avons
X ∂f
df = dxi
∂xi
Le vecteur associé à cette 1-forme s'appelle le gradient ∇f . Nous avons donc

∂f
(∇f )i = g i
∂xi
Par exemple, en coordonnées polaire, le gradient s'écrit

∂f 1 ∂f
∇f = ur + uθ
∂r r ∂θ

Le rotationnel. Soit le vecteur à trois dimensions f (x). Trouver le vecteur


rotationnel qui lui est associé.
A ce vecteurs, nous associons la 1-forme

f˜ =
X
gi f i dxi

et donc
3 
∂(gj f j ) ∂(gi f i )

df˜ =
X
− dxi dxj
i=1
∂xj ∂xi
où nous avons posé j = i+1 pour décrire correctement une permutation circulaire.
A la 2-forme df˜, nous associons le bi-vecteurξ
3
∂(gj f j ) ∂(gi f i )
X 1  
ξ= − ~u1 ∧ ~u2
gg
i=1 i j
∂xj ∂xi

A trois dimensions, au bi-vecteur ξ nous pouvons associer un vecteur axial que


nous appelons rotationnel :

∂(gj f j ) ∂(gi f i )
 
1
∇×f = − ~uk
gi gj ∂xj ∂xi
où k = i + 2(mod)3.

230
16 Les formes diérentielles et la dérivation extérieure.

La divergence. Le calcul de la divergence procède de la même façon. Il faut


seulement noter que le divergence est dénie pour un n−1 forme. En analyse à
trois dimensions, le vecteur f est en faite un bi-vecteur, auquel on doit associer
une 2-formes et prendre la dérivée extérieure de celle-ci. Soit f = f 1 ~u1 +...En faite,
1
le premier terme représente en réalité f ~u2 ∧ ~u3 auquel est associée la 2-forme

g1 g2 f 1 dx2 dx3 dont la dérivée exterieure est la 3-forme ∂x1 g1 g2 f 1 dx1 dx2 dx3 .
A cette 3-forme est associé le tri-vecteur
 
1
∂x1 g1 g2 f 1 + ... ~u1 ∧ ~u2 ∧ ~u3

divf =
g1 g2 g3
le triple produit vectoriel, au signe près vaut 1. Le signe dépend de l'orientation
de l'espace. Bien sûr, un 3-vecteur ne peut pas valoir un scalaier, mais l'espace
des 3-vecteurs est de dimensions 1, et nous les associons donc aux scalaire.

16.10 L'opérateur de Hodge.


Un opérateur diérentielle fondamental dont nous n'avons pas encore parlé est
le Laplacien. Nous savons que en analyse vectoriel, cet opérateur est relié à une
dérivée seconde, mais nous ne pouvons évidement pas l'utiliser tel quel, puisque
d'après le lemme de Poincarré, pour une k−forme ω , d(dω) = 0. L'opérateur de
Hodge nous permet de donner un sens précis au Laplacien pour les k -forme.
Dans l'espace à n dimension, il existe une n−forme fondamental que nous
appelons volume. Dans un espace plat muni de coordonnées cartésiens xi , la
n−forme volume est simplement

φ = dx1 ...dxn

Insistons à nouveau : cette n−forme est un objet intrinsèque ; dans une autre
base, elle s'écrirait autrement. Une fois qu'on la xe, on xe en réalité la géometrie
15
de notre espace . En coordonnées orthogonale généralisés, nous avons

φ = gdx1 ...dxn

où g est la racine carré du determinant du tenseur métrique, autrement dit, dans


les notations de la sous section précédente,

g = g1 g2 ...gn

L'opérateur de Hodge ? associe (de façon unique) à une k−forme ω = dx1 ...dxk
une (n − k)−forme ?ω telle que

ω(∗ω) = φ
15. Se donner la n−forme volume ou se donner un produit scalaire sont équivalent

231
16 Les formes diérentielles et la dérivation extérieure.

Nous avons pas mal utilisé cet opérateur sans lui donner un nom. Prenons l'espace
à n=3 muni de coordonnées cartésiens où g = 1. Alors, par exemple,

∗dx = dydz
∗dy = dzdx
∗dz = dxdy
i i
Nous voyons alors que dx (∗dx ) = 1dxdydz pour i = 1, 2, 3. La seule petite
complication est de bien gérer le signe, c'est à dire le degrès de permutation que
cela nous impose. Prenons maintenant une fonction f (x, y, z), c'est à dire une
0−forme. Nous avons alors

∂f ∂f ∂f
df = dx + dy + dz
∂x ∂y ∂z
∂f ∂f ∂f
∗df = dydz + dzdx + dxdy
∂x ∂y ∂z
 2
∂2f ∂2f

∂ f
d(∗df ) = + + dxdydz
∂x2 ∂y 2 ∂z 2
Et nous voyons que d(∗df ) nous donne bien le Laplacien sous forme d'une 3-
forme. Comme nous connaissons les changements de variable et les associations
forme-vecteur, nous pouvons écrire le Laplacien dans n'importe quelle système
de coordonnées.
Nous n'avons bien sûr par à nous restreindre aux 0−forme et nous pouvons
ainsi généraliser le Laplacien d'un champ de k−forme. L'exemple fondamental
est encore l'électromagnétisme, où l'action et le Lagrangien du champ A sont
donnés par Z
S= {dA(∗dA) + A(∗ρ)} (16.15)
V
où ρ est la 1−forme décrivant la distribution des charges (voir ci-dessous). Une
variation sur A nous donne alors simplement
d(∗A) = ∗ρ
ce qui constitue les deux dernières équations de Maxwell (voir exercice).

16.11 Quelques applications.

16.11.1 Equation de conservation.

Vous rencontrez cette équation partout en physique, sous des formes diverses
et variées. Elle dit simplement que la variation de quelque chose dans un vo-
lume égale la quantité de ce quelque chose qui entre dans ce volume moins la

232
16 Les formes diérentielles et la dérivation extérieure.

quantité de ce quelque chose qui en sort. Le quelque chose peut être la concen-
tration d'une substance, l'énergie emmagasinée dans le volume, une probabilité
de présence, ...
16
Les systèmes qui obéissent à cette loi sont dits conservatif s. La
quantité entrante moins la quantité sortante se dit ux. Notons par ρ le quelque
chose et par J son ux. Appliquée à un volume innitésimal dxdydz , l'équation
de conservation s'écrit
∂ρ/∂t + divJ = 0 (16.16)

Si nous parlons d'un uide en mouvement, alors ρ(x) est la concentration en un


point de l'espace, v(x) la vitesse du uide et J = ρ(x)v(x). Dans le cas d'une
substance qui diuse, le ux J est proportionnel au gradient de la concentra-
17
tion (la chaleur diuse du chaud vers le froid, l'encre se dilue dans l'eau,...)
J = −Kgradρ, ce qui, réinjécté dans l'équation de conservation, nous donne
l'équation de diusion ∂ρ/∂t = K∇2 ρ.
En langage des formes, cette équation aquiert une interprétation géométrique.
Prenons d'abord le cas de l'espace à une dimension spatiale et une dimension
temporelle, et considérons un élément innitésimal dt, dx (les deux cotés d'un
carré dans l'espace-temps, si vous voulez) et la forme ω = ρdx−Jdt 18 . L'équation
de conservation n'est alors rien d'autre que

dω = 0

A 3+1 dimensions (ou plus si anité), il faut considerer la forme

ω = ρdxdydz − (Jx dydz + Jy dzdx + Jz dxdy)dt

Cette forme est analogue à ce qu'en physique nous appelons un quadri-vecteur.


Nous verrons plus bas une application de ce concept au champ éléctromagnétique.

Problèmes et exercices.

Périmétre et surface. Soit A l'aire enformé par une courbe C. Démontrer que
nous avons Z
A = (1/2) xdy − ydx
C

16. Le quelque chose peut être l'argent d'une entreprise, et les comptables sont responsable,
sur leur denier personnel, de faire respecter cette loi. L'étudiant en physique perd au plus
quelques points à l'examen.
17. Cela se démontre facilement en physique statistique et s'appelle la réponse linéaire.
18. Le signe - vient de notre convention de compter en négatif le ux entrant. Cela paraît
aussi arbitraire que la charge de l'électron. Historiquement, cela vient du fait que la surface est
orientée pour que la normale pointe vers l'extérieurs.

233
16 Les formes diérentielles et la dérivation extérieure.

En déduire que l'air d'un ellispe est πab, où a et b sont les axes majeur et mineur.
Comment cette expression est reliée à l'expression habituelle

Z b
A= f (x)dx
a

de la surface entre une courbe et l'axe x?

Air d'une courbe fermée. Nous souhaitons calculer l'air enfermée par une
courbe C donnée en coordonnées polaire par l'équation

N
X
r(θ) = an cos(nθ)
n=0

dont un exemple est donnée par la gure 16.2.

R 2π
1. Démontrer que
0
cos2 (nθ)dθ = π si n 6= 0 1.5

R 2π2π si n =
et 0. De même, démontrer que 1.0

0
cos(nθ) cos(mθ)dθ = 0 si m 6= n. 0.5

2. Démontrer que la 2-forme diérentielle ω = dxdy -1.5 -1.0 -0.5 0.5 1.0 1.5

η = (1/2)(xdy − ydx).
-0.5

dérive de la 1-forme
-1.0

3. Donner l'expression de ω et η en coordonnées -1.5

polaires.

4. Vérier qu'en coordonnées polaire, nous avons Figure 16.2  Une


bien ω = dη . feuille donnée
5. En utilisant la forme polaire de ces formes, et en par l'équation
utilisant le théorème de Stockes, démontrer que r = 1 + (1/2) cos(4θ) +
l'air enfermée par la courbe vaut (1/5) cos(16θ)
N
X
A = π(a20 + (1/2) a2n )
n=1

Volume. Démontrer que la 3-forme volume dxdydz dérive de la 2-forme

1
(xdydz + ydzdx + zdxdy)
3
en déduire le volume d'une sphère, d'une ellipsoide de révolution et d'une ellip-
soide générale.

234
16 Les formes diérentielles et la dérivation extérieure.

Association bi-vecteur, 2-forme. Dans un espace à 3 dimensions, donner la re-


lation entre bi-vecteur et 2-formes en en coordonnées généralisées orthogonale.
Utiliser ce résultat pour trouver l'association en coordonnés cylindrique et sphé-
rique.

Opérateurs diérentielles en analyse vectorielle. Trouver l'expression du La-


placien à n = 3 en coordonnées généralisées orthogonale. Utiliser ce résultat pour
trouver ce résultat en coordonnées cylindrique et sphérique.

D'Alembertien. Dans l'espace-temps (n = 4), la 4-forme volume est donnée en


coordonnées cartésienne par

φ = −dtdxdydz

Etant données la fonction f (t, x, y, z), donner l'expression de d(∗df ). C'est ce


que l'on appelle couremment le D'Alembertien qui gouverne toutes les équations
d'ondes.

Equations de Maxwell. En partant du Lagrangien (16.15), faire une variation


sur A, intégrer par partie les formes résultantes pour déduire les équations du
Maxwell en présence du champ.

quelques exmples d'intégration des formes.


est ce que dw = 0 implique w = dα? exemple pratique sur le rot.
équation de maxwell complète
transformation de lorentz et les équations de Maxwell, la modication du cou-
rant,
relativité
démonstration de stockes pour les deux formes.
l'operateur *, le laplacien d(∗df ), en déduire le laplacien en coordonnées curvi-
ligne, le lien entre la minimisation de df ∧ ∗df et d(∗df ) = 0. Eventuellement, si
possible, faire le lien avec le chapitre précédent et le calcul des surfaces minimales.
Peut être faire une vague intro à la géometrie des surfaces et la relation avec
les courbures.
Faire le lien avec les tenseurs antisymetriques du prochain chapitre.

235
17 Les équations de la physique.
Nous avons, à de nombreuses occasions, rencontré les diverses équations de
la physique. Nous voudrions donner ici une dérivation simple et intuitive de ces
équations. Comme nous le verrons, pour établir ces équations, nous discrétisons
le système et faisons ensuite un passage à la limite. La méthode plus rigoureuse
( et riche et élégante et ... ) d'aborder ces sujets est le calcul variationnel (voir
le chapitre correspondant) . La méthode utilisée dans ce chapitre est celle qui
avait été utilisée par Euler lui-même dans les années 1740 pour fonder le calcul
des variations. Cette vue consiste à regarder les équations diérentielles comme
des équations aux diérences, avec un pas ∆x qui peut être rendu aussi petit que
l'on souhaite. Cette vue a quelque peu disparu des mathématiques au début du
XIXème siècle quand Cauchy &Co ont donné de la rigueur aux mathématiques,
mais a donné très naturellement lieu au développement des calculs matriciels et
la formalisation des espaces vectoriels un siècle plus tard par Hilbert &Co. Avec
l'arrivée des ordinateurs et la résolution numérique des équations, cette approche
redevient tout a fait naturelle. Regardons quelques cas particuliers.

17.1 Qu'est ce qu'une équation diérentielle ?


Prenons la plus simple des équations diérentielles

y 0 = f (x) (17.1)

[0, 1]. Découpons cet intervalle en N morceau de largeur ∆x dont


sur l'intervalle
les bords sontx0 = 0, x1 = 1/N, x2 = 2/N, ...xN = 1. Nous cherchons à déter-
miner les N + 1 valeurs y0 = y(x0 ), y1 = y(x1 ),...yN = y(xN ). Nous pouvons
0
approximer le terme y au point xi par

y 0 (xi ) = y(xi+1 ) − y(xi ) /∆x




L'équation (17.1) se transforme alors en un système d'équations algébriques :

y1 − y0 = ∆x.f (x0 )
y2 − y1 = ∆x.f (x1 )
... ...
yN − yN −1 = ∆x.f (xN −1 )

236
17 Les équations de la physique.

Si vous regardez bien, nous avons N +1 inconnus, mais seulement N équations !


Le système est sous déterminé et n'a pas de solution unique. Pour que le système
ait le même nombre d'équations que d'inconnus, il faut ajouter une équation
supplémentaire, par exemple y0 = a. C'est cela que nous appelons la condition
initiale. Nous avons l'habitude de penser aux équations diérentielles comme
la donnée de deux choses diérentes : une équation de la forme (17.1) et des
conditions initiales. En réalité, ces deux choses sont indissociables. Nous pouvons
maintenant représenter cela sous forme matricielle

    
1 0 ... 0 y1 a + ∆x.f (x0 )

 −1 1 0 .. 0 
 y2  
  f (x1 ) 


 0 −1 1 .. 0 
 . =
  . 

 ...  .   . 
0 ... −1 1 yN f (xN )

ou de façon plus succincte Ay = f . Nous avons maintenant un système de N


équation et N inconnus équilibré. A partir de là, nous pouvons utiliser toute la
puissance des techniques d'opérateurs linéaires pour résoudre le problème dif-
férentielle. Vous voyez également les diérentes généralisations possibles. Si par
exemple, nous avons une équation de seconde ordre, nous n'obtiendrons alors que
N −1 équations pour N +1 inconnus et nous devons la supplémenter par deux
équations aux bords, et ainsi de suite pour des équations d'ordre plus élevés. De
la même manière, l'approche se généralise à l'étude des équations aux dérivées
partielles. Les techniques de résolution numérique d'équations diérentielles ne
font que reprendre ces schémas.

17.2 Equation de Laplace.


Considérons un ensemble de N boules de masse m reliées par des ressorts de
raideur k. Chaque boule est assujettie à se mouvoir sur une ligne verticale, et les
lignes sont espacées de d (gure 17.1.a ). L'énergie potentielle totale du système
est par conséquent :

X1
U (..., yn−1 , yn , yn+1 , ...) = k(yn+1 − yn )2 (17.2)
n
2

où yn est l'ordonnée de la n-ième boule ( et xn = nd son abscisse ). Pour quelles


valeurs des yk le potentiel est minimum ? Comme U est une fonction de N va-
riables, pour être extremum, il faut que sa dérivée par rapport à chaque variable
soit nulle. Considérons la n-ième boule. Dans l'expression de l'énergie sous la
somme, il y a seulement deux termes qui contienne la coordonnée de yn qui sont

237
17 Les équations de la physique.

y
y y
d

Y
k

x L x x

(a) (b) (c)

Figure 17.1  Vue discrète d'une corde vibrante.

(yn − yn−1 )2 et (yn+1 − yn )2 . La minimisation de U par rapport à yn donne donc :

∂U
= k(2yn − yn−1 − yn+1 ) = 0 (17.3)
∂yn
Cette dernière relation indique simplement que la force exercée sur la n-ième
boule doit être nulle : en eet, la force n'est que le gradient (à un signe près) du
potentiel. L'extremum du potentiel correspond à une position d'équilibre où les
d → 0 et N → +∞ pour retrouver
forces exercées s'annulent. Faisons maintenant
x = nd devient continue, de même que la fonction y(x).
le continuum. La variable
Comme yn = y(xn ) = y(nd), nous avons, par un simple développement de Taylor,

dy 1 d2 y
yn+1 = yn + d+ d2
dx x=xn 2 dx2 x=xn
dy 1 d2 y
yn−1 = yn − d+ d2
dx x=xn 2 dx2 x=xn

L'équation (17.3) se transforme donc en une équation diérentielle d2 y/dx2 = 0.


A plusieurs dimensions, en appliquant la même démarche, on aboutit à l'équation

∆y = 0 (17.4)

où l'opérateur ∆ désigne le laplacien. L'équation (17.4) est appelée justement


1
l'équation de Laplace et comme nous le voyons, est le résultat de la minimisa-
tion d'une certaine énergie. C'est exactement cette approche qu'Euler a utilisé
pour développer le calcul variationnel et qui a donné lieu aux équations d'Euler-
Lagrange.

1. Grand mathématicien français de la n dix-huitième et début dix-neuvième siècle. Très


célèbre pour son livre de mécanique céleste, les fondements de la théorie des probabilités (qui
l'ont amené à inventer les transformées de Laplace), la théorie moléculaire de la capilarité (quand
les molécules n'existaient pas !), ... Ses collègues et contemporins sont Lagrange, Fourier, Poisson
et Cauchy. Que du beau monde.

238
17 Les équations de la physique.

Que vaut la constante de raideur k ? Elle doit probablement dépendre de notre


découpage discrète, i.e. de l'espacement d entre les éléments discrets que nous
avons utilisé pour modéliser le continuum. Mais comment ? La règle fondamentale
est que les valeurs que l'on peut mesurer (physiquement) ne doivent pas dépendre
de notre découpage. Prenons maintenant une ligne de longueur L que l'on découpe
en N morceau espacé de d = L/N . Nous maintenons un coté (disons x = 0 ) à
y = 0, et l'autre cotés (x = L) à y = Y (g. 17.1.b). Comme (yn+1 −yn ) = (Y /L)d,
Selon l'expression (17.2), l'énergie potentielle totale est donnée par

X
U= k(Y /L)2 d2 = (Y /L)2 N kd2 = (Y /L)2 Lkd = (Y 2 /L)kd
n

Si maintenant nous avions fait un autre découpage en prenant N0 boules reliées


0 0
par des ressorts de constante k et un espacement d (g. 17.1.c), nous aurions
trouvé pour l'énergie U = (Y 2 /L)k 0 d0 . Comme U ne doit pas dépendre de notre
découpage, kd doit être constante :

K
k= (17.5)
d
La constante de ressort microscopique (résultat de notre découpage discret ) k
est relié à une constante physique du système K, ( qui dénote l'amplitude de la
rigidité du système par rapport à un phénomène physique), par la relation (17.5).
Comme (yn+1 −yn ) = y 0 (x).d+O(d2 ), l'expression de l'énergie potentielle devient
XK
U = (1/2) y 0 (nd)2 d2
Z d
= (1/2) Ky 0 (x)2 dx quand d→0

(/2)|E|2 dτ =
R
Pour un champ électrique par exemple, l'énergie est donnée par
(/2)|∇V |2 dτ . V
R
est le potentiel électrostatique et l'opérateur gradient (∇) gé-
néralise la dérivée à plusieurs dimensions. Ici, le rôle de la constante de rigidité
du système (vis à vis du champs électrique ) est joué par la constante de perméa-
bilité électrique . En élasticité, la variable du champ est appelé déplacement, et
2
la rigidité du système est donnée par le module d'Young . Dans le cas des gaz,
nous somme en présence d'un champ de pression et K est l'inverse du coecient
de compressibilité.

2. Maxwell, le fondateur de la théorie électromagnétique dans les années 1860, considérait


les phénomènes électromagnétiques comme des déformations élastiques d'une substance hypo-
thétique appelée éther et s'est beaucoup inspiré des travaux sur l'élasticité pour formuler sa
théorie.

239
17 Les équations de la physique.

17.3 Equation d'onde et de chaleur.


Nous nous sommes préoccupé dans la précédente section de phénomènes sta-
tiques. Essayons maintenant de formuler la dynamique. Revenons à notre exemple
du gure (17.1.a) et supposons que chaque boule a une masse m. Nous pouvons
maintenant écrire la relation fondamentale de la dynamique F = ma pour chaque
2 2
boule. L'accélération de la n-ième boule est donnée par d yn /dt . La force sur
la n-ième boule étant égale au gradient du potentiel, i.e. Fn = −∂U/∂yn , nous
avons, en suivant ce que nous avons dit plus haut,

d2 yn
m = −k(2yn − yn+1 − yn−1 ) (17.6)
dt2
Comment m dépend de notre découpage ? La réponse est plus simple cette fois.
Si nous désignons par ρ la densité (linéaire à une dimension), nous avons m = ρd.
Nous avons également, comme indiqué plus haut, k = K/d et (2yn − yn+1 −
yn−1 ) ≈ −(∂ 2 y/∂x2 )d2 . Quand d → 0, l'équation (17.6) devient
∂2y (K/d) ∂ 2 y 2
= d
∂t2 ρd ∂x2
K ∂2y
= (17.7)
ρ ∂x2
C'est ce qu'on appelle l'équation d'onde. Elle se généralise de la même manière à
plusieurs dimensions ( l'opérateur ∆ généralise la dérivée seconde). La constante
K/ρ possède la dimension d'une vitesse au carré (pourquoi ?) et désigne, comme
nous l'avons vu, la vitesse de propagation des ondes.

Question : qu'est ce qui joue le rôle de la densité pour les phénomènes élec-
triques ?

Nous pouvons maintenant aborder plusieurs généralisation. Si les boules bai-


gnent en plus dans un liquide , il faut tenir compte de la force de dissipation
visqueuse qui est proportionnelle (et opposée) à la vitesse, et donc à −dyn /dt.
L'équation d'onde devient alors, lors de la passage à la limite d → 0,
∂2y ∂y ∂2y
ρ 2
+λ =K 2
∂t ∂t ∂x
En électromagnétisme, λ dénote le coecient d'absorption d'un matériau (l'in-
verse de sa transparence). Nous voyons que si la masse des boules (la force iner-
tielle) peut-être négligée par rapport aux autres forces de frottement et appliquée
par les voisins (penser aux boules baignant dans du miel), nous pouvons négliger
la dérivée d'ordre 2 par rapport au temps et écrire

∂y ∂2y
=D 2
∂t ∂x

240
17 Les équations de la physique.

qui n'est rien d'autre que l'équation de la chaleur. Il est peut-être dicile pour le
lecteur de penser au champ de température comme des boulent qui se meuvent
3
dans du miel . Nous le référons à la théorie de la réponse linéaire en physique
statistique pour une dérivation de l'équation de la chaleur qui ait une plus grande
réalité physique.
Revenons encore une fois à notre image de boules de la gure (17.1.a) . Et
imaginons qu'en plus d'être relié par un ressort de raideur k les uns aux autres,
elles sont en plus reliés à l'axe x par un ressort de constante V d (nous normalisons
tout de suite la raideur par l'espacement, en laissant le soin au lecteur de démon-
trer que cela eectivement est la bonne forme). Nous n'avons aucune obligation
à penser que V doit être une constante. A certain endroit le long de l'axe x, elle
peut être forte, à d'autres endroit, faible. Nous notons donc Vn la constante du
ressort qui relie la n-ième boule à l'axe x. L'expression de l'énergie potentielle
totale est donc
X1K
U= (yn+1 − yn )2 + d.Vn yn2
n
2 d
Il ne sera pas alors dicile pour le lecteur de démontrer que l'équation d'onde
s'écrira
∂2y ∂2y
2
= c2 2 − V (x).y
∂t ∂x
et l'expression de l'énergie (potentielle) est de la forme

Z
(K/2)|∇y|2 + (1/2)V (x)y 2 dx

forme couramment utilisée dans la théorie du ferromagnétisme.


le cas de l'équation de schrodinger comme deux équations couplées, et le rap-
prochement avec particule dans champs magnétique ou les équations de seconde
degrès ;
Traitement du processus dissipatif en développant le BABA de la réponse li-
néaire en phys stat. le cas de l'équation de la chaleur, indication (par potentiel
chimique) pourquoi ca se généralise à la diusion de concentration etc.

3. Même si la conception de la chaleur comme un uide de calorique était populaire jus-


qu'au début du XIXème siècle.

241
18 Qu'est ce qu'un nombre ?
Nous avons vu tout au long de ce cours divers outils de mathématiques très
utilisés en physique. Ces outils concernaient la manipulation des fonctions dans le
but très alimentaire de résoudre des équations issue de la physique. Les fonctions
elles même étaient dénies comme des boîtes noires transformant un nombre dans
un autre. Nous nous sommes jamais demandé ce qu'est un nombre, nous avons
pris cela comme une donnée dont la signication est à priori connu.
Nous allons dans ce chapitre revenir un peu sur ce concept et voir la construc-
tion des nombres réels. Nous verrons également que ce n'est pas la seule façon
de construire un ensemble complet de nombe, et d'autres ensembles qui déent
notre intuition de proche et de loin sont également constructible. Ce chapitre
n'a pas d'autre but que d'éveiller la curiosité du lecteur.
Le plan général que l'on va suivre est de d'abord construire les nombres en-
tiers, ensuite les nombres rationnels. Nous munirons alors notre ensemble d'une
topologie et construirons soit l'ensemble des nombres réels, soit celui des nombres
p-adiques. Munir un ensemble d'une topologie est un terme pour erayer l'étu-
diant. En langage profane, cela veut simplement dire que l'on va dénir les dis-
tances, la notion d'être proche. La topologie habituelle que l'on dénie, et à la-
quelle nous sommes habitué depuis notre tendre enfance nous dit par exemple
que 4.3 et plus proche de 4.2 que 5. Tant que nous construisons l'ensemble des
nombres rationnels, nous n'avons pas besoin de ce concept, celui d' avant et après
nous sura.

18.1 Les entiers naturels N.


Dedekind, grand mathématicien de la n du dix-neuvième siécle disait : Dieu
inventa les nombres entiers ; tous le reste est invention humaine. La construction
moderne des nombres entiers est due à Peano et ses cinq principes. De façon
intuitif, on peut dire que c'est le plus simple ensemble ou chaque élément (exepté
le premier qu'on appelle 0) posséde un élément juste avant et un élément juste
après, et cela de façon non cyclique. Bon, bien sûr, comme nous sommes en train
de faire des mathématiques, nous devons dénir exactement ce que ces termes
veulent dire. Voilà les axiomes de Péano.

1. 0 ∈ N1
1. Grand débat philosophique pour savoir si il faut commencer par 0 ou par 1. Cette question

242
18 Qu'est ce qu'un nombre ?

2. Chaque nombre naturel x posséde un autre élément x0 = s(x) ∈ N appelé


son successeur (voilà pour le juste après ).
3. 0 n'est le successeur d'aucun nombre (cela nous enlève le danger des cycles).
4. Si s(x) = s(y) alors x = y (cela nous enlève le problème de plusieurs nombre
ayant le même successeur).

5. Axiome d'induction. Soit Q une propriété telle que

 Q est valable pour 0


 Si Q est valable pour x, alors Q est valable pour s(x)
 Alors Q est valable pour tous les nombres entiers (cela entre autre nous
enlève le problème d'avoir plusieurs premier élément)
Nous avons insisté sur cette construction pour souligner que tout ce dont on a
besoin à cette étape et le concept d'avant et d'après.
Bon, comme nous ne voulons pas écrire un texte très rigoureux, nous allons
aller un peu plus vite à partir de là. On peut commencer par donner des noms
aux divers éléments. Par exemple, le successeur de 0 sera appelé un (et noté 1),
le successeur de 1 deux (2) et ainsi de suite. On peut donc noter N = {0, 1, 2, ...}.
Ensuite, nous allons munir notre ensemble de l'opération +. C'est une application
qui à deux nombres entiers associe un troisième, et cela en généralisant le concept
de successeur : x+0 = x et x + s(y) = s(x + y) . Par exemple, et x + 1 = s(x) 2 .
L'opération + a bien sûr toutes les bonnes propriétés d'associativité, commuta-
tivité, etc. dont nous sommes habitué (exercices : les démontrer). Nous laissons
au lecteur le soin d'en donner une dénition rigoureuse.
Tant que nous y sommes, nous pouvons également dénir l'opération ×(multiplication)
commes une autre application qui a chaque deux nombres entiers associe un troi-
sième :x × 0 = 0 ; x × s(y) = x × y + x. Bien sûr, c'est la multiplication habituelle
et on aurait été plus claire si on avait notéx × (y + 1) = x × y + x. Par exemple,
x × 1 = x.
Enn, ça ne mange pas de pain de dénir rigoureusement les relations de com-
paraison < et >, à nouveau en suivant la piste des successeurs.
Nous suggérons au lecteur de faire ces constructions en détails et de façon
rigoureuse, c'est un exercice très intéressant.
Nous disposons donc maintenant d'un ensemble N, muni des deux opérations +
et ×. En langage chique, nous dirrions que (N, +, ×) est un anneau commutatif.

18.2 Les ensembles Z et Q.


A partir de là, nous allons commencer à élargir notre ensemble N.

n'a pas de sens tant que l'on a pas déni l'opération addition et son élément neutre. Tout ce
que l'on veut ici est de dénir un premier élément.
2. Notez comment l'operation +1 devient alors le synonyme de l'opération successeur.

243
18 Qu'est ce qu'un nombre ?

D'abord, nous pouvons dénir l'opération soustraction − comme l'inverse de


l'addition : si x−y = z alors c'est que y+z = x (exercice : donner une dénition
rigoureuse de la soustraction). Mais cela nous pose un problème. N est fermé pour
l'addition, c'est à dire que l'addition de n'importe quel deux nombres est encore
dans N. Cela est loin d'être le cas pour la soustraction. Il sut d'examiner 0 − 1 :
si 0 − 1 = z ∈ N, alors z + 1 = 0, ce qui contredit violement un des axiomes de
Péano. Qu'à cela ne tienne : nous allons dénir un ensemble Z qui contient N et
qui est fermé pour la soustraction, Z = {..., −2, −1, 0, 1, 2, ...} .
Nous pouvons également dénir l'opération de division /comme l'inverse de
la multiplication : si x/y = z alors c'est que x = yz . Le même problème se pose :
en général, pour un couple quelconque, x/y n'a pas de sens dans N ou Z . A
nouveau, on peut agrandir notre ensemble et dénir l'ensemble des nombres
rationnels Q qui est fermé pour l'opération de division. Notez que nous avons
pas vraiment dénit comment on aggrandit nos ensemble, cela alourdirait trop
3
ce texte .
L'ensemble Q est très riche. Concrétement les humains n'en sortent jamais pour
faire leurs calculs. Le trait principal de cet ensemble est qu'entre n'importe quel
deux nombres rationnels, on peut en trouver d'autres. Ceci dit, comme le lecteur
le sait, l'ensemble Q reste dénombrable, et même si il est fermé pour la division,
il n'est pas algébriquement fermé. Par cela nous voulons dire que les racines de
tous les polynomes (de coecient entier) ne se trouvent pas dans Q. Par exemple,
il est trivial de montrer que la racine de x2 − 2 = 0 (qui représente l'hypothénus
d'un triangle réctangle de coté unité) n'est pas rationnelle.
Il sut de suivre la même démarche et construire l'ensemble des nombre algé-
brique
A, la fermeture algébrique de Q, et qui contient tous ces nombres du genre
p √ √
2 + 3 + 17 253. A t'on épuisé tous les nombres ou existe t'il des nombres non-
algébriques qu'on appelle transcendants ? Est ce que par exemple, le périmètre
d'un cercle de diamètre unité π, ou le nombre e sont algébriques ? La réponse à
ces questions n'est venu qu'à la n du dix-neuvième siècle.

18.3 Un peu de topologie.


Nous n'avons pas encore introduit le concept de distance entre deux nombres.
La distance entre deux nombres est une application qui prend deux nombres en
entrée et produit un nombre en sortie. On peut la dénir sur n'importe quel

3. Voyons rapidement la construction des rationnels. Considérons l'ensemble A = N×N, c'est


à dire l'ensemble de tous les pairs (x, y) où x et y sont des entiers naturels. Nous dénissons
une relation d'équivalence (x, y) = (x0 , y 0 ) si xy 0 = x0 y . Nous dénissons l'operation +dans
A par (a, b) + (c, d) = (ad + bc, bd) et l'opération × par (a, b) × (c, d) = (ac, bd). L'ensemble
A partitionné par la relation d'équivalence ci-dessus et muni des deux opérations + et × peut
être identié au corps des rationnels Q. Un exercice interessant serait de suivre les mêmes lignes
pour construire les entiers relatifs à partir des entier naturels.

244
18 Qu'est ce qu'un nombre ?

corps k45 (dont par exemple le corps des rationnels). Nous demandons à cette
application d'avoir un minimum de propriétés : Pour tous a, b, c ∈ k ,
1. d(a, b) ≥ 0 et d(a, b) = 0 si et seulement si a = b.
2. d(a, b) = d(b, a).
3. d(a, b) ≤ d(a, c) + d(b, c) (l'inégalité du triangle).

Ce n'est pas beaucoup demander, mais à partir du moment où nous disposons


d'une métrique, nous pouvons faire une quantité phénoménale de choses. Essen-
tiellement, c'est l'étape où l'on passe de l'algèbre à l'analyse, où on peut com-
mencer à dénir le concept de continu, de la convergence des suites, ...
Un concept étroitement lié à la notion de distance est celle de la valeur abso-
lue. Supposons que nous disposons d'une valeur absolue sur un corps k avec les
propriétés suivantes :

p1 : |a| = 0 ssi a = 0.
p2 : |ab| = |a||b|
p3 : |a + b| ≤ |a| + |b|
alors nous pouvons facilement dénir la distance entre deux éléments par d(a, b) =
|a − b|. Nous laissons au lecteur le soin de démontrer cela. L'exemple usuel de la
valeur absolue sur Q est |x| = x si x≥0 et −x sinon. Bien sûr, ce n'est pas la
seule valeur absolue possible, nous en verrons des exemples plus bas.
Comme nous l'avons dit, dès que nous disposons d'une distance, nous pouvons
dénir la convergence des suites. Nous disons que la suite an converge vers la limite
a si tous les éléments de la suite, à partir d'un certain N sont aussi proche de la
limite que nous le souhaitons. Dans l'ensemble Q, nous écrirons par exemple que
a est la limite de an si pour tout  ∈ Q, nous pouvons trouver N tel que si n>N
alors d(a, an ) < .
Un des problèmes de cette dénition de la convergence est que pour savoir si
une suite converge, nous devons connaître à l'avance sa limite ! Le grand Cauchy a
trouvé comment y remedier : une suite converge si la distance entre deux éléments
quelconques converge vers zero au delà d'un certain N : si pour tout  ∈ Q, nous
pouvons trouver N tel que si n, m > N alors d(am , an ) <  alors la suite est
convergente.
Cela nous pose un nouveau problème : la limite d'une suite dans un corps k n'a
aucune raison d'appartenir au même corps. Mais nous pouvons continuer notre
procédure d'enrichissement et considérer un ensemble qui contient et le corps k et
toutes les limites de toutes les suites convergentes. Nous verrons ci-dessous deux

4. Rappelons qu'un corps est un ensemble, muni des deux opérations + et × et fermée vis
à vis d'elles.
5. Bien sûr, pour dénir une norme, nous n'avons pas nécessairement besoin d'un corps.
Nous avons vu dès le début de ce livre comment en dénir une pour l'espace vectorielle des
fonctions de carré sommable.

245
18 Qu'est ce qu'un nombre ?

exemples de fermeture topologique de l'ensemble Q : l'ensemble des nombres réels


et l'ensemble des nombres p−adiques.

18.4 L'ensemble des nombres réels.


Munissons nous de la valeur absolue usuelle, et la distance ( le métrique) qui
en découle. Et considérons les suites convergentes dans Q. Il est évident que
beaucoup (vraiment beaucoup) de ces suites n'ont pas leurs limites dans Q.

n
P
Exemple 1. Le nombre 1/e, n=0 (−1) /n! n'est pas
déni comme la limite de
un nombre rationnel. Pour voir cela supposons qu'il l'est et ecrivons le comme
p/q . Nous décomposons la série en une somme jusqu'au terme q et le reste :
q
p X
= (−1)n /n! + Rq
q n=0
Comme nous avons aaire à une série alternative convergente, le reste est plus
petit que le dernier terme : |Rq | < 1/q!. Multiplions maintenant les deux cotés
par q!. Nous avons à gauche un entier, et à droite un entier plus un terme plus
petit que l'unité. Le coté droit n'est donc pas un entier naturel. Notre hypothèse
de rationnalité de 1/e est donc fausse.
Nous dénissons l'ensemble des nombres réel R comme un ensemble qui contient
l'ensemble Q et les limites de toutes les suites convergentes dans Q au sens
de Cauchy. Les opérations + et × se généralisent aisement par continuité. Par
exemple,pour a, b ∈ R, (mais pas nécessairement rationnel) a + b = lim(an + bn )
où an et bn sont des suites dans Q convergeant vers a et b.
Nous pouvons pousser un ouf de soulagement, nous sommes au bout de notre
chemin (à part peut-être une extension triviale au nombre C). Mais est ce que
c'était vraiment la peine de faire tout ce parcours ? Est ce que l'ensemble R est
vraiment plus riche que l'ensemble des nombres algébriques ? La réponse est évi-
dement oui, mais est loin d'être évidente. Jusqu'à presque la n du dix-neuvième
siècle, la réponse à cette question n'était pas connu. On a pu démontrer à cet
époque avec peine que les nombre e et π ne sont pas algébrique, c'est à dire
que nous ne pouvons pas trouver un polynome de coecient entier dont une
des racines soit un de ces nombres. Mais combien y avait il de ces nombres
transcendant ? très peu, beaucoup ? La réponse, un coup de maître, est venu
de Greg Cantor : les nombres algébriques sont une minorité négligeable comparés
au nombres réels. Cette démonstration a provoqué beaucoup de débats furieux
à l'époque, puisque Cantor ne construisait pas un seul nombre transcendant. Sa
démonstration se fait en deux étapes très simple : (i) les nombres algébriques
sont dénombrables ; (ii) les nombres réels ne sont pas dénombrable. Voyons cela
de plus près.

246
18 Qu'est ce qu'un nombre ?

18.4.1 Les nombres algébriques sont dénombrables.

Comme nous l'avons dit, les nombres algébriques comprennent les racines de
tous les polynomes. Les nombres rationnels sont évidement des nombres aglé-
briques, puisque p/q est solution de l'équation px − q = 0.
Considérons maintenant un polynome à coecient entier du genre a0 + a1 x +
... + an xn (an 6= 0). Nous appelerons hauteur de ce polynôme le nombre H =
n − 1 + |a0 | + |a1 | + ...|an |. Il existe un seul polynome de hauteur 1 : x. Pour
H = 2, nous avons les polynômes suivants : x2 ; x ± 1. Pour H = 3, x3 ; ±2x2 ;
x2 ± x ; x2 ± 1 ; 2x ± 1 ; x ± 2 et ainsi de suite. Le fait intéressant est que le
nombre de racines de tous les polynomes d'un hauteur H est ni ( Combien y'en
a t'il au plus ?). Nous pouvons donc ranger les nombres algébriques de façon
suivante : On prend d'abord toutes les racines associées à l'hauteur 1, et on les
range dans l'ordre croissant, en éliminant les doublons. On prend ensuite toutes
les racines associées à H = 2, on les ranges dans l'ordre croissant en éliminant
les doublons et on continu le procédé pour H = 3, H = 4,... Cela nous donne
par A = {0 ; −1, 1 ; −2, −1/2, 1/2, 2 ; ...} et il n'est pas dicile de voir que nous
avons ainsi une procédure pour dénombrer les nombres algébriques !

18.4.2 Les nombres réels ne sont pas dénombrables.

La plupart des lecteurs ont déjà vu cette demonstration. Supposons que nous
avons réussi à denombrer tous les nombres réel entre 0 et 1et nous les listons dans
l'ordre croissant en utilisant leur representation décimal :

r0 = 0.a00 a01 a02 ...


r1 = 0.a10 a11 a12 ...
r2 = 0.a20 a21 a22 ...
...
Soit maintenant le chire r construit à partir des décimaux diagonaux : r =
0.a00 a11 a22 ... et construisons un nombre r0 à partir de r en changeant chacun des
0
décimaux de r d'une façon quelconque. Il est alors facile de voir que r ne peut
pas être dans la liste ci-dessus ! (Exercice : le démontrer).

18.4.3 Au delà des nombres réels : les hyper-réels.

Si on voulait donner une image de nos nombres, les rationnels seraient des
points isolés dans un espace et les réels remplirait le vide qu'il y a entre. Peut on
encore inventer des nombres qui se mettraient entre les nombres réels ? Avant le
dix-neuvième siècle, les mathématicens avaient l'habitude de manipuler ce genre
de nombres qu'ils appelaient des inniment petits. Ces nombres cependant pro-
voquaient pas mal de contradictions et on vite été chassé du monde. Dans les

247
18 Qu'est ce qu'un nombre ?

années 1960, Abraham Robinson à réussi de les réintroduire de façon rigoureuse


par une méthode pas trop loin de ce que nous avons vu pour la construction
des nombres réels. Un inniment petit est par exemple un nombre  tel que
0 <  < 1/n quelque soit n ∈ N. Dans l'ensemble des nombres hyper-réel, chaque
réel classique est entouré d'un nuage de nombre à distance inniment petit.
Concrétement, l'introduction de ces nombres n'apporte pas de nouvelles mé-
thodes et nous ne développerons pas ce concept plus ici. Nous suggérons au lecteur
intéressé de se diriger vers des livres plus spécialisés sur ces nombres et l'analyse
non-standard.

18.5 Les nombres p−adiques.


Nous allons voir dans cette section des nombres étranges, très diérents de ce
que nous connaissions jusque là. La notion de proche et de loin est complétement
dissocié de la notion d'avant et après, contrairement à la distance usuelle que nous
avons utilisé pour construire R à partir de Q. Il existe d'autres valeurs absolues,
et la topologie qu'elles dénissent est radicalement diérente. Rappelons que la
valeur absolue doit avoir les trois propriétés mentionnées à la section 18.3. Si la
valeur abolsue a en plus la propriété suivante :

p4 : |x + y| ≤ max{|x|, |y|}
nous l'appelons non-archimedien. Notons que la propriété 4 implique la propriété
3, puisque max{|x|, |y|} ≤ |x| + |y|.
Commençons par les nombres entiers. Donnons nous un nombre premier p.
N'importe quel entier n peut s'écrire de façon unique sous la forme

n = pvp (n) n0

où p . n0 ( p ne divise pas n0 ). Par exemple, si nous avons choisi le nombre premier


5, nous avons

2 = 50 2
5 = 51 1
6 = 50 6
150 = 52 6

et nous avons donc v5 (2) = v5 (6) = 0 ; v5 (5) = 1 ; v5 (150) = 2. vp (n) est appelé
la valuation p−adique du nombre n, et désigne la multiplicité du facteur premier
p pour former le nombre n. Par convention, vp (0) = ∞ : on peut diviser 0 par
p ; le résultat étant 0, on peut encore multiplier 0 par p et cela peut continuer
inniment.

248
18 Qu'est ce qu'un nombre ?

On peut étendre de façon évidente la valuation p−adique aux nombres ration-


nels : vp (a/b) = vp (a) − vp (b)
Et ce n'est pas dicile de voir que

1. vp (xy) = vp (x) + vp (y)


2. vp (x + y) ≥ min{vp (x), vp (y)}
Si on compare les propriétés de vp à une valeur absolue, nous voyons que vp agit un
peu comme un logarithme. Nous pouvons donc dénir la valeur absolue p−adique
d'un nombre x par
|x|p = p−vp (x)
et pour revenir à l'exemple des nombres précédents, |2|5 = |6|5 = 1 ; |5|5 = |10|5 =
1/5 ; |150|5 = 1/25. En utilisant notre convention, nous avons en plus |0|5 = 0.
Nous devons remarquer plusieurs chose à ce niveau : (i) la valeur absolue
p−adique d'un nombre est inférieure ou égale à 1 ; (ii) plus un nombre est di-
visible par p, plus sa valeur absolue est proche de 0. Nous laissons au lecteur le
soin de démontrer que cette valeur absolue en est vraiment une, et qu'en plus,
elle est non archimedien. Nous pouvons en plus démontrer que si x 6= y , alors
|x + y|p = max{|x|p , |yp |}.
Super, nous disposons d'une valeur absolue sur Q, nous pouvons donc dénir
une distance : d(x, y) = |x−y|p . Par exemple, pour la distance 5-adique, d(5, 6) =
1 ; d(5, 10) = 1/5 ; d(5, 30) = 1/125. Notons que cette metrique a la proriété
suivante : d(x, y) ≤ max{d(x, z), d(y, z)}∀x, y, z ∈ Q. Cette inégalité est appelé
l'inégalité ultramétrique.
Notons combien cette distance est diérente de la distance habituelle. Prenons
par exemple trois points quelconques mais distinct x, y, z . Alors deux des distances
sont égales ! Ceci découle du fait que (x−y)+(y −z) = (x−z). Si |x−y| = 6 |y −z|,
alors |x − z| est égale au plus grand d'entre eux.
Comme nous disposons d'une distance, nous pouvons dénir les suites et leur
convergences, et fermer Q pour obtenir l'ensemble Qp . Nous pouvons développer
l'analyse exactement comme nous avons fait avec les nombres réels, dénir les
fonctions, leurs dérivée et intégrale, ... Nous ne développons pas plus cela ici,
notons simplement quelques faits inhabituels de ces ensembles :
 Pour qu'une suite an converge, il sut que |an+1 − an | → 0 (c'est beaucoup
plus simple que le critère de Cauchy).
P
 Pour que la série an converge, il sut que |an |p → 0
 Si un point appartient à une boule (ouverte ou fermée), il en est le centre,
 ...

249
19 Bibliograhie.
Ce cours est un résumé rapide de ce que l'étudiant en physique doit absolument
savoir. Ce cours est une introduction qui devrait permettre à l'étudiant d'attaquer
les divers sujets en conslutant des livres plus avancés. Ci-dessous, je liste pêle-
mêle quelques livres que j'ai eu entre les mains et que j'ai trouvé particulièrement
intéressant pour des étudiants de niveau L3-M2.

Jean Bass, Cours de Mathématiques. C'est un cours extremement complet,


en plusieurs volumes, allant des mathématiques élémentaires aux sujets les plus
avancées.

Nino Boccara, Analyse fonctionnelle. Le livre le plus élégant que l'auteur


connaisse sur le sujet.

François Rodier, Distributions et Transformation de Fourier. L'auteur y dé-


veloppe les résultats essentiels de l'analyse fonctionnelle et de la théorie de la
mesure avant d'exposer les distributions et les TF, avec un regard de phycisien
tourné vers l'expérience.

F.W. Byron & R.W. Fuller, Mathematics of classical and quantum physics.
Le livre que chaque étudiant de physique devrait avoir lu.

Ondelettes et Analyse de Fourier. La première partie de ce livre expose le


développement de la théorie de la mesure et des series de Fourier tout au long du
dix neuvième et du vingtième siècle.

J.G.Simmonds & J.E. Mann, A rst look at Perturbation Theory. Un aperçu


des divers aspects du calcul de pertubations. Le lecteur plus assoié se raportera
au livre de Nayfeh, Perturbation Theory.

C. Lanczos, Linear Dierential operators. Lanczos, à part avoir été un très


grand scientique, a écrit des livres d'une rare profondeur. Son livre de mécanique
analytique est un pur bijou. Le livre mentionné ici traite avec une très grande
rigueur et élégance les opérateurs linéaires.

250
19 Bibliograhie.

H. M. Edwards, Advanced Calculus : A Dierential Forms Approach. Un très


beau livre sur les formes diérentielles, écrit il y a une quarantaine d'année et
n'ayant rien perdu de sa beauté. La plupart des livres sur les formes dierentielles
sont réservés aux étudiants avancés de mathématiques, où l'exposé est noyé sous
des tonnes de théorème-démonstration. Edwards fait jaillir toute la beauté de ces
objets mathématiques. Pour une lecture plus avancé mais toujours aussi élégant,
le lecteur pourra se rapporter au livre d'Arnold : mathématiques de la mécanique
classique.

S.L. Sobolev, Partial dierential equations of mathematical physics. Un grand


tour des EDP de la physique, écrit par un des grands chercheurs du domaine qui
sait également être très pédagogue.
Beaucoup de thème indispensable ont été negligé dans ce manuscrit. La théorie
des fonctions holomorphes et l'analyse complexe sont très bien traité chez Bass
ou Byron et Fuller, nous suggérons cependant les deux livres suivants :

251

Vous aimerez peut-être aussi