MQ 2016 2017
MQ 2016 2017
MQ 2016 2017
MECANIQUE QUANTIQUE
SML5PH01
Cours L3PH
2 Déterminants 32
2.1 Le groupe symétrique . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 32
2.1.1 Structure de Sn . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 32
2.1.2 Transposition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33
2.1.3 Cycles . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 37
2.2 Applications multilinéaires . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 38
2.2.1 Généralités . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 38
2.2.2 Applications multilinéaires alternées . . . . . . . . . . . . . . . . . . . . . 38
2.3 Déterminant d’une famille de n vecteurs dans une base d’un ev de dimension n . . 40
2.3.1 Espace Λn (E) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 40
2.3.2 Propriétés . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 42
2.4 Déterminant d’un endomorphisme . . . . . . . . . . . . . . . . . . . . . . . . . . 43
2.5 Déterminant d’une matrice carrée . . . . . . . . . . . . . . . . . . . . . . . . . . 45
2.6 Développement par rapport à une rangée . . . . . . . . . . . . . . . . . . . . . . . 48
2.6.1 Cofacteurs et mineurs . . . . . . . . . . . . . . . . . . . . . . . . . . . . 48
ii
TABLE DES MATIÈRES TABLE DES MATIÈRES
2.6.2 Comatrice . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 52
2.7 Calcul des déterminants . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 54
2.7.1 Déterminant d’une matrice triangulaire . . . . . . . . . . . . . . . . . . . 55
2.7.2 Manipulation des lignes et des colonnes . . . . . . . . . . . . . . . . . . . 55
2.7.3 Cas n = 2, n = 3 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 57
2.7.4 Déterminant d’une matrice triangulaire par blocs . . . . . . . . . . . . . . 57
2.8 Système affines . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 58
2.8.1 Position du problème . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 58
2.8.2 Résolution dans le cas d’un système de Cramer . . . . . . . . . . . . . . . 59
iii
TABLE DES MATIÈRES TABLE DES MATIÈRES
iv
TABLE DES FIGURES
5.1 Codage quantique. Le qubit |ψi = α|0i + β |1i (avec α = cos θ2 , β = ei ϕ sin θ2 et
|α|2 + |β |2 = 1), offre une description différente des systèmes physiques. Les états
binaires classiques sont aux pôles de la sphère. Il opère dans un univers multidi-
mensionnel, ses états propres correspondent à la surface de la sphère, alors que les
états logiques classiques correspondent aux pôles de cette sphère. . . . . . . . . . 91
5.2 Qubit représenté par deux états électroniques d’un atome. . . . . . . . . . . . . . . 92
5.3 Dispositif des fentes de Young et interférence lumineuse. . . . . . . . . . . . . . . 93
5.4 Figures d’interférence obtenues avec des électrons uniques. Le nombre d’électrons
sur le détecteur augmente au cours du temps. Le temps d’exposition entre la figure
(a) et la figure (d) est multiplié par 20. (a) 8 électrons ; (b) 270 électrons ; (c) 2000
électrons ; (d) 6000 électrons. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 94
5.5 Expériences de Mach Zehnder 1 et 2. . . . . . . . . . . . . . . . . . . . . . . . . . 95
5.6 Expériences de Mach Zehnder 3 et 4. . . . . . . . . . . . . . . . . . . . . . . . . . 96
5.7 Le chat de Schrödinger dans la boîte d’acier. Tant que la boîte reste fermée, le chat
est dans un état superposé mort et vivant. . . . . . . . . . . . . . . . . . . . . . . . 99
v
LISTE DES TABLEAUX
vi
CHAPITRE 1
Sommaire
1.1 Espace vectoriel, sous-espaces vectoriels . . . . . . . . . . . . . . . . . . . . . 1
1.2 Applications linéaires . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
1.2.1 Définition et premières propriétés . . . . . . . . . . . . . . . . . . . . . 5
1.2.2 Cas particulier : F = K (Formes linéaires et dualité) . . . . . . . . . . . 7
1.3 Notion de Matrice. Matrice d’une application linéaire . . . . . . . . . . . . . 14
1.3.1 Notion de Matrice. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14
1.3.2 Matrice d’une application linéaire . . . . . . . . . . . . . . . . . . . . . 16
1.3.3 Opération sur les matrices . . . . . . . . . . . . . . . . . . . . . . . . . 18
1.3.4 Calcul Matriciel . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23
1
Chapitre 1. Espaces vectoriels et Matrices 1.1. Espace vectoriel, sous-espaces vectoriels
K
2. ∀(λ , µ) ∈ 2 , ∀x ∈ E, λ ⊥(µ⊥x) = (λ ⊥µ)⊥x et e⊥x = x ; e étant l’élément
K
neutre de ( , ⊥)
1. (E, +) est un groupe commutatif (OE est l’élément neutre et le symétrique d’un élé-
ment est son opposé).
2.
3.
Tous les ensembles vectoriels que l’on utilise sont des sous-espaces vectoriels d’un en-
semble vectoriel, c’est-à-dire qu’ils sont des sous-ensembles sur lesquels on applique
localement les opérations de l’espace entier.
Démonstration
Parmi les 8 propriétés de la définition 1.1, celles qui ne font intervenir que le quantificateur ∀
(associativités, commutativité, distributivités), puisqu’elles sont vraies dans E, restent vraies
dans F à cause de 1.7. Il suffit donc de vérifier les 2 propriétés impliquant une existence
(élément neutre et opposé). Nous devons démontrer que F contient le vecteur nul, ainsi
que l’opposé de tout vecteur de F. Le vecteur nul OE s’écrit O.u pour tout vecteur u de F.
Comme F est non vide, le vecteur nul est donc dans F. De même si u est un vecteur de F,
alors son opposé, qui s’écrit (−1)u est aussi dans F.
∑ λi ai = 0 (1.8)
i∈I
Autrement dit, s’il existe une combinaison linéaire "non triviale" des {ai }i∈I qui est nulle ; Une
telle relation est une relation de dépendance linéaire entre les vecteurs. On dit aussi que les vecteurs
{ai }i∈I sont linéairement dépendants.
Dans le cas où il n’existe pas de relation de dépendance linéaire, on dit que la famille {ai }i∈I est
libre ou linéairement dépendante ou encore que les vecteurs a1 , . . . , ai , . . . forment un système
libre. On dit alors aussi que les vecteurs sont linéairement indépendants.
Lemme 1.1
La famille {ai }i∈I est libre si et seulement si pour toute famille finie de scalaire {λ j } j∈J⊂I ,
on a :
∑ λ j a j = 0 ⇒ ∀ j ∈ J, λ j = 0. (1.9)
j∈J
Remarque 1.2
Lemme 1.2
La famille de vecteurs {ai }i∈I est liée si et seulement l’un des vecteurs ai peut s’écrire
comme combinaison linéaire des autres.
Lemme 1.3
Si la famille {ai }i∈I est liée, ∀ω ∈ E, la famille {ai }i∈I ∪ {ω} est liée. En particulier, toute
famille qui contient le vecteur nul est liée.
Soit {ai }i∈J une famille de vecteurs de E. {ai }i∈J est une famille génératrice de E si et
seulement si :
∀x ∈ E, ∃{λ j } j∈J / x = ∑ λ j a j (1.10)
j∈J
On dit alors que la famille {ai }i∈J engendre E ou est un système générateur de E. Alors on
écrit E = Vect(a1 , a2 , . . . , ai , . . . )
Proposition 1.1
Si un espace vectoriel E est engendré par un système de n vecteurs, alors tout système de
n + 1 vecteurs de E est lié.
Théorème 1.2
Si E admet une base formée de n vecteurs, alors toute base de E sera de n vecteurs.
Définition 1.5
On dit qu’un espace vectoriel E 6= {0} est de dimension finie s’il admet au moins une famille
génératrice finie.
Proposition 1.2
Un ev de dimension finie admet une base finie.
Remarque 1.3
Lorsque l’on parle de famille de vecteurs libres ou liées, l’ordre des vecteurs n’a pas d’im-
portance. Par contre s’agissant de bases, on considérera que deux systèmes constitués de
mêmes vecteurs, écrits dans un ordre différent, sont deux bases distinctes. C’est pourquoi,
on préférera noter une base sous la forme (ai )i∈I plutôt que {ai }i∈I .
∀u ∈ E, ∃ !(λi )i∈I ∈ K/ u = ∑ λi ei
i∈I
u = ∑ λi ei = ∑ µi ei
i∈I i∈I
⇒ ∑ (λi − µi) ei = 0
i∈[I]
⇒ λi = µi , ∀i ∈ I car B est libre.
Proposition 1.3
Soit E un K-ev de dimension finie n.
• Si L est un système libre de n vecteurs de E, alors L constitue une base de E.
Définition 1.7
Soient E et F deux espaces vectoriels sur K. Une application f : E 7−→ F est linéaire
si :
Remarque 1.4
(1) et (2) peuvent être regroupées en une seule :
K,
n n
(iii) ∀u1 , . . . , un ∈ E, λ1 , . . . , λn ∈ f ( ∑ λi ui ) = ∑ λi f (ui )
i=1 i=1
Exemple 1.1
Vocabulaire
. Une application linéaire d’un espace vectoriel dans lui-même est appelé endomorphisme.
Remarque 1.5
L’ensemble L (E, F) de toutes les applications linéaires du K-ev E vers le K-ev F peut-être
muni d’une structure d’espace vectoriel sur par K
. addition : f + g : E 7−→ F, ( f + g)(u) = f (u) + g(u), ∀u ∈ E
Proposition 1.4
Si B = (ei )i∈[n] est une base de E, alors les applications "coordonnéees" pri : E 7−→ R
définies par pri (x1 e1 + · · · + xn en ) = xi sont linéaires.
Proposition 1.5
Si B = (ei )i∈[n] est une base de E, alors toute forme linéaire sur le K.ev E, f : E 7−→ K, est
définie par :
n n
f ( ∑ xi ei ) = ∑ xi f (ei ).
i=1 i=1
Proposition 1.6
Toute application linéaire est définie par ses valeurs sur une base.
Démonstration
Qu’est ce que celà signifie ? Considérons f : E 7−→ F une application linéaire et B =
(e1 , . . . , en ) une base de E. Nous prétendons qu’il suffit de connaître les seules images des
n
éléments de la base pour déterminer entièrement f . En effet, soit x = ∑ xi ei un vecteur
i=1
n n
quelconque de E. Soient ∀i ∈ [n], bi = f (ei ) ∈ F. Alors : f (x) = f ( ∑ xi ei ) = ∑ xi f (ei ) .
i=1 i=1
Autrement dit, lorsque l’on connaît les images f (ei ) des ei , on connaît l’image par f de tout
vecteur x ∈ E.
Remarque 1.6
0
Les f (ei ) sont des vecteurs de F, par conséquent, en choississant une base B = (g1 , . . . , gm )
m
de F, on peut aussi écrire les f (ei ) dans cette base : f (ei ) = ∑ α ji g j . A f est donc aussi
j=1
associée une "matrice" à m lignes et n colonnes qui détermine f de manière unique.
Rappelons que si f : E 7−→ F et g : F 7−→ G sont deux applications, on peut les composer
pour faire une application, notée g ◦ f de E dans G définie ainsi :
g ◦ f : E 7−→ F
x 7−→ (g ◦ f )(x) = g( f (x))
Lemme 1.4
La composée g ◦ f de deux applications linéaires f : E 7−→ F et g : F 7−→ G est une appli-
cation linéaire de E 7−→ G
Proposition 1.7
Si f : E 7−→ F est une application linéaire bijective, il existe une application linéaire
g : F 7−→ E telle que g ◦ f = IdE et f ◦ g = IdF . L’application g ainsi définie est appelée
application réciproque de f et notée f −1
Espace dual
K K
L’espace dual d’un -ev E est l’ensemble L (E, ) des formes linéaires sur E. L’espace
K K
dual du -ev E est donc un -ev. Il est noté E ∗ . Si E est de dimension finie, E et E ∗ sont
isomorphes.
Base duale
dimE = n
Proposition 1.8
Soit B = (e1 , . . . , en ) une base de E. On note (e∗1 , . . . , e∗n ) les formes linéaires coordonnées
dans la base E . Auterment dit, on a he∗i , e∗j i = δi j . Alors B ∗ = (e∗1 , . . . , e∗n ) est une base de
E ∗.
∀ j ∈ [n], e∗i (e j ) = δi j
Démonstration
D’abord, les e∗i (1 ≤ i ≤ n) sont bien des éléments de E ∗ . Soient ϕ ∈ E ∗ , (λ1 , . . . , λn ) ∈ Kn ,
on a :
n n
∑ λi e∗i = ϕ ⇔ (∀ j ∈ {1, . . . , n}, ( ∑ λi e∗i ) j = ϕ(e j ))
i=1
i=1
⇔ (∀ j ∈ [n], λ j = ϕ(e j ))
n
ϕ = ∑ ϕ(ei )e∗i
i=1
n
si l ∈ E ∗, alors l = ∑ hl, ei i e∗i
i=1
Formes bilinéaires
K
Dans ce qui suit, = R donc E est un R − ev de dimension finie.
Soit f une application de E × E dans R ( f ∈ L (E × E R )) et par Q l’application de E dans R
définie par Q(x) = f (x, x).
Définition 1.11 Forme bilinéaire
L’application f est appelée forme bilinéaire si et seulement si pour tout y fixé dans E,
l’application qui à y associe f (x, y) est linéaire, et si, pour tout x fixé dans E, l’application
qui à y associe f (x, y) et linéaire.
Autrement dit :
∀x, x0 , y, y0 ∈ E, ∀λ , µ ∈ R,
Remarque 1.7
Si f est bilinéaire, on a : ∀x, y ∈ E, ∀y ∈ R,
Définition 1.13
Deux vecteurs x et y sont dits orthogonaux pour f si
f (x, y) = 0
A⊥ = {x ∈ E/ f (x, y) = 0, ∀y ∈ A}
Théorème 1.5
L’orthogonal de A est un ev sur R.
Démonstration
En effet, si x et x0 sont dans A⊥ et si λ et µ ∈ R, ∀y ∈ A
et donc
λ x + µx0 ∈ A⊥
Définition 1.18
Une forme bilinéaire symétrique f est dite non dégénérée si le noyau de f est réduit à OE .
Définition 1.19
Une forme bilinéaire symétrique de f est dite positive si,
∀x ∈ E, Q(x) ≥ 0
Proposition 1.9
Une forme bilinéaire symétrique est non dégénérée, si et seulement si Q(x) est nul unique-
ment si x est nul.
Si f est dégénérée, le sous-espace E ⊥ n’est pas réduit à zéro et ses éléments sont des vecteurs
isotropes. Il existe donc x non nul, tel que Q(x) soit nul.
Réciproquement, si f n’est pas dégénérée, soit x un vecteur isotrope. On a alors, ∀y ∈ E, λ ∈
R,
0 ≤ Q(λ x + y) = λ 2 Q(x) + 2λ f (x, y) + Q(y) = 2λ f (x, y) + Q(y),
et cette inégalité n’est vraie ∀λ que si f (x, y) est nul. Donc, ∀y, le nombre f (x, y) est nul, ce
qui prouve que x ∈ E ⊥ = {0}. Donc x est nul.
Produit scalaire
Définition 1.20
• On appelle produit scalaire sur E, une forme bilinéaire symétrique positive et non
dégénérée sur E ou définie positive.
définie : f (x, y) = 0 ⇒ x = 0 ; positive : ∀x ∈ E, f (x, y) ≥ 0
Définition 1.21
Une forme sesquilinéaire sur un ev complexe E est une une application de E × E dans C,
linéaire selon l’une des variables et semi-linéaire (anti-linéaire) par rapport à l’autre variable.
Conventionnellement, on choisit qu’elle soit anti-linéaire par rapport à la première variable
et linéaire par rapport à la deuxième variable. ie
∀x, x0 , y, y0 ∈ E, ∀ λ , µ ∈ C, on a :
Définition 1.22
On dira que la forme sesquilinéaire est hermitienne, si
(iv) hx, xi ∈ R+
(v) hx, xi = 0 ⇒ x = 0
Ainsi
n n
hx|yi = ∑ ∑ xi y j hei|e j i
i=1 j=1
n
Si la base B est orthonormée, alors hei |e j i = δi j et hx|yi = ∑ xi yi
i=1
n
• On a aussi x = ∑ hx|ei iei
i=1
n
En effet, hx|e j i = ∑ xi hei |e j i = x j
i
• Ainsi, |xi |2 = xi∗ xi peut être interprété comme la probabilité de réalisation du vecteur x
dans la direction ei .
L’image de (i, j) sera notée ai j et la matrice M : (i, j) 7−→ ai j sera notée M = (ai j ) i∈I ≡ [ai j ] i∈I
j∈J j∈J
Dans la pratique on supposera I = Nn et J = N p , et on parlera de matrice de type (n,p). On
représentera alors une matrice M = [ai j ] i∈Nn par un tableau rectangulaire :
j∈N p
a11 a12 · · · a1p
· · · a2p
a21 a22
.
. .. .. .. ,
. . . .
an1 an2 · · · anp
en convenant que l’image du couple (i, j) ∈ Nn × N p est l’élément situé à l’intersection de la i-ième
ligne et de la j-ième colonne.
Plus généralement, si I et J sont des ensembles totalement ordonnés, on peut représenter la
matrice par un tableau en rangeant les i ∈ I dans l’ordre croissant de haut en bas et les j ∈ J dans
l’ordre croissant de gauche à droite.
Notation : L’ensemble des matrices de types (n, p) à coefficients dans E sera noté Mn,p (E). S’il
n’y a pas d’ambiguïté, on peut se dispenser d’écrire le K-ev E. On dira (n, p) matrice ou, matrice
(n × p) pour matrice de type (n, p) ; E-matrice ou matrice sur E, pour matrice à éléments dans E.
Définition 1.25 Sous-matrices
Soit M une E-matrice de type I × J, on appelle sous-matrice de M (ou matrice extraite de
0 0 0 0 0 0
M) toute restriction de M à I × J avec I ⊂ I et J ⊂ J; (I 6= 0,
/ J 6= 0)
/
a11 a12 · · · a1p a11
a22 · · · a2p a21 a22 O
. , . .
... . . .. . . .
. .
O anp an1 an2 · · · anp
∀(i, j) ∈ N2n i 6= j ⇒ ai j = 0
a11 O
a22
...
O ann
Définition 1.30
On appelle matrice scalaire, toute matrice diagonale dont les éléments diagonaux sont
La matrice unité est donc une matrice diagonale dont les éléments sont tous égaux à 1.
C’est donc une matrice scalaire particulière.
K
Soient E et F deux ev sur un même corps , de dimensions finies respectives p et n (p > 0 et
n < 0), munis des bases BE = (e1 , . . . , e p ) et BF = ( f1 , . . . , f p ) .
∀x ∈ E, ∃!(αi )i∈[p] / x= ∑ αj ej
j∈[p]
∀y ∈ F, ∃!(β j ) j∈[n] / y= ∑ βi fi
i∈[n]
⇒ u(x) = ∑ ( ∑ ai j α j ) f i
i∈[n] i∈[p]
∀i ∈ Nn , βi = ∑ ai j α j (1.11)
j=[p]
∀ j ∈ N p, u(e j ) = ∑ ai j fi.
i∈[n]
Dans la pratique, on retiendra que les éléments de la j-ième colonne de la matrice sont les
composantes, dans la base BF , de l’image par u du j-ième vecteur de la base BE , selon le schéma :
(1.13)
Théorème 1.6
K
Les bases BE et BF des -ev E et F étant choisies, l’application qui à u 7−→
Mat(u; BE , BF ) est une bijection de LK (E, F) sur tel que M(n,p) ( ). K
Démonstration
K
Étant donné la matrice M = (ai j ) ∈ M(n,p) ( ), cherchons u ∈ LK (E, F) tel que M =
Mat(u; BE , BF ), ie tel que :
Np
n
∀j ∈ u(e j ) = ∑ ai j fi
i=1
On sait qu’une application linéaire est déterminée de manière unique par la donnée des
images des vecteurs d’une base de l’espace de départ : on obtient donc une, et une seule ap-
plication u. On notera que, dépendant du choix des bases, cette bijection n’est pas canonique.
K K
Cependant, dans le cas particulier où E = p , F = n , nous qualifions de bijection cano-
K K K
nique de L ( p , n ) sur M(n,p) ( ) l’application qui à u associe la matrice qui représente u
K K
dans les bases canoniques de p et de n , et nous dirons que u et M sont canoniquement
associées.
A = Mat(u; BE , BF ) et B = Mat(v; BE , BF ),
(
A + B = Mat(u + v; BE , BF )
(1.14)
λ A = Mat(λ u; BE , BF )
Or nous avons,
∀ j ∈ N p, u(e j ) = ∑ ai j f i et v(e j ) = ∑ bi j fi
i∈[n] i∈[n]
(u + v)(e j ) = u(e j ) + v(e j ) = ∑ (ai j + bi j ) fi
i∈[n]
⇒
(λ u(e j ) = λ u (e j ) = ∑ λ ai j fi
i∈[n]
K
Ce qui prouve que A + B et λ A sont les matrices de M(n,p) ( ) définies par :
Définition 1.32 Opérations sur les matrices
(
A + B = [ai j + bi j ]
(1.15)
λ A = (λ ai j )
K K
Ainsi, muni des lois définies par 1.14, M(n,p) ( ) est un -ev isomorphe à LK (E, F), et
donc de dimension np. En fait, les mêmes lois pouvant être définies par 1.15, la structure
d’espace vectoriel est ainsi indépendante du choix des espaces E et F, et des bases BE et
BF . Elle est donc canoniquement isomorphe à la structure d’ev de LF ( p , n ), dans la K K
K K
mesure où on convient de rapporter p et n à leurs bases canoniques.
K
n n
∀M ∈ M(n,p) ( ), avec M = ai j : M=∑ ∑ ai j Mi j
i=1 j=1
n n
D’autre part, ∑ ∑ ai j Mi j n’est égal à On,p que si et seulement si tous les ai j sont nuls.
K
i=1 j=1
(Mi j )i∈[n], j∈[p] constitue donc une base de M(n,p) ( ) que nous appelons la base canonique
K K
de M(n,p) ( ). C’est en fait la base canonique de l’espace vectoriel I×J , ou encore l’image par
l’isomorphisme canonique de la base canonique de LF ( p , n ). K K
Produit de matrices
Proposition 1.10
K
Soient E, F et G des .ev de dimensions finies non nulles p, n, m munis des bases
BE , BF , BG , et soient deux applications linéaires u : E 7−→ F et v : F 7−→ G on pose :
Alors la matrice Mat(v ◦ u; BE , BG ) que nous noterons C = (Cik ) est donnée par :
n
∀(i, k) ∈ Nn × N p , cik = ∑ bi j a jk
j=1
Démonstration
On notera que i, j, k parcourent respectivement Nm , Nn , N p . Les Cik sont données par les
relations :
n
(v ◦ u)(ek ) = ∑ cik gi
i=1
n
En utilisant u(ek ) = ∑ a jk f j , on a :
j=1
n
(v ◦ u)(ek ) = ∑ a jk v( f j )
j=1
n m
= ∑ a jk ( ∑ bi j ) gi
j=1 i=1
m n
= ∑ ( ∑ bi j a jk )gi)
i=1 j=1
On note
C = BA
• Il est facile de voir que le produit matriciel n’est pas commutatif, c’est-à-dire
AB 6= BA. (1.17)
B : n lignes q colonnes
b11 ... b1 j ... b1q
.. ... .. .. ..
. . . .
j
b1 bk1 ... bk j ... bkq
×
1
ai
+
..
.. .. .. .. ..
.+
. . . . .
j
bk
×
k
j
bn
×
n
ai
b11 b12 b11 b12 b11 b12 b11 b12
b 11 2
×
× b1
b 12
1
a 11
b1
×
+
1
a1 b 21 b21 b22 b 22 b21 b22 b21 b22 b21 b22
×
+
a 12 × a2 1
21
× b 22
+
1
+
×b
a2
a 1 2 ×
a 22
2
a2
a11 a12 c11 c12 a11 a12 c11 c12 a11 a12 c11 c12 a11 a12 c11 c12
a a22 c c22 a a22 ; c21 c22 a a22 c c22 a a22 c21 c22
21 21 21 21 21 21
C11 = a11 b11 + a12 b21 C12 = a11 b12 + a12 b22 C21 = a21 b11 + a22 b21 C22 = a21 b12 + a22 b22
on a
! ! !
1 2 5 6 19 22
AB = = , (1.18b)
3 4 7 8 43 50
! ! !
5 6 1 2 23 34
BA = . (1.18c)
7 8 3 4 31 46
a) Associativité
K K K
Soient les matrices C ∈ Ml,m ( ), B ∈ Mm,n ( ), A ∈ Mn,p ( ). On peut ainsi définir les ma-
trices C(BA) et (CB)A ; ces matrices sont égales.
K K
b) Bilinéarité de l’application (B, A) 7−→ BA de Mm,n ( )× ∈ Mn,p ( ) dans Mm,p ( ). On a : K
(B1 + B2 ) A = B1 A + B2 A
B (A1 + A2 ) = BA1 + BA2
λ (BC) = (λ B)C = B(λC)
Ces propriétés sont des conséquences des propriétés analogues des applications linéaires.
Mat(u; BE , BF ) = M avec M = ai j .
L’application s’écrit :
p n p
u
x= ∑ α j e j 7−→ y = ∑ βi fi; βi = ∑ ai j α j , 1≤i≤n
j=1 i=1 j=1
∀(x, y) ∈ E × F y = u(x) ⇔ Y = MX
Trace
Proposition 1.11
1. L’application
K
tr : Mn ( ) 7−→ K est une forme linéaire.
A 7−→ tr(A)
C’est-à-dire :
K
2. ∀A ∈ Mn,p ( ), ∀B ∈ M p,n ( ), K tr (AB) = tr (BA)
Démonstration
n n n
tr (α A + B) = ∑ (α aii + bii ) = α ∑ aii + ∑ bii = α tr (A) + tr (B)
i=1 i=1 i=n
3. D’après 1
tr P−1 AP) = tr (P−1 (AP) = tr ((AP)P−1 ) = tr (A)
On verra plus loin que cette proposition signifie que la trace d’une matrice ne dépend
pas de la représentation (base) choisie. C’est donc une propriété caractéristique ou
intrinsèque à une application linéaire.
K
Soient E un -ev de dimension finie, f ∈ L (E). On appelle trace de f , et on note tr ( f ),
la trace de n’importe quelle matrice carrée représentant l’endomorphisme f .
∀α ∈ K, ∀ f , g ∈ L (E), tr (α f + g) = α tr ( f ) + tr (g)
Blocs
Décomposition en blocs
• n0 = p0 = 0
k
• σk = ∑ ni , pour k ∈ {0, . . . , s}
i=0
l
• τl = ∑ p j , pour l ∈ {0, . . . ,t}
j=0
aσk−1 +1τl−1 +1 · · · aσk−1 +1τl
.. ..
Bk,l =
. .
aσk τl−1 +1 ··· aσk τl
K
de Mnk ,pl ( ) est appelée le (k, l)-ième bloc dans la décomposition de A en blocs suivant le
découpage (n1 , . . . , ns ) pour les lignes et (p1 , · · · , pt ) pour les colonnes :
K K K
X,Y ∈ Mn,p+q ( ), pour X ∈ Mn,p ( ), Y ∈ Mn,q ( ).
•
!
A B
C D
K
∈ Mn+p ( ), pour A ∈ Mn ( ), K K
B ∈ Mn,p ( ), K
C ∈ M p,n ( ), D ∈ Mp ( ) K
•
!
a L
C B
K
∈ Mn+1 ( ), pour a∈ K, K
L ∈ M1,n ( ), K
C ∈ M1,n ( ), K
B ∈ Mn ( ).
Remarque 1.8
1. Si A est une matrice carrée, nous n’utiliserons, sauf exception, que des décompositions
en blocs pour lesquelles s = t et (n1 · · · ns ) = (p1 · · · ps )
!
B11 · · · B1s
A=
Bs1 · · · Bss
Dans ce cas, les blocs Bkk (k ∈ {1, · · · , s}) sont appelés les blocs diagonaux de la
décomposition de A en blocs.
K K
Soient λ ∈ , A, B ∈ Mn,p ( ). Si A et B sont décomposées en blocs avec le même décou-
page, alors λ A + B admet la décomposition en blocs (avec le même découpage) obtenue en
combinant les blocs situés aux mêmes places :
A11 · · · A1t B11 · · · B1t λ A11 + B11 · · · λ A1t + B1t
. .
. . ... + ... . . . ... = .. ... ..
λ .. . .
As1 · · · Ast Bs1 · · · Bst λ As1 + Bs1 · · · λ Ast + Bst
Exemple 1.3
K
Soient A ∈ Mn,p ( ), B ∈ M p,q ( ) K
A11 · · · A1t BB11 · · · B1t 0
. .
. . ... , ... ... ..
A= .. .
As1 · · · Ast Bs0 1 · · · Bs0t 0
des décompositions en blocs de A et B telles que :
0 0 0
s = t, (n1 , . . . , ns0 ) = (p1 , . . . , pt )
Démonstration
0 0 0
Soient (i, j ) ∈ {1, . . . , n} × {1, . . . , q}. Il existe (k, l ) ∈ {1, . . . , s} × {1, . . . ,t } unique tel
que :
p p1 p1 +p2 p
∑ ai j b j j0 = ∑ ai j b j j0 + ∑ ai j b j j 0 + · · · + ∑ ai j b j j0
j=1 j=1 j=p1 +1 j=p1 +···+pt−1 +1
p1 p2
Mais, ∑ ai j b j j0 , ∑ ai j b j j 0 , . . . , ∑ ai j b j j0 sont respectivement les éléments
j=1 j=p1 +1 j=p1 +···+pt−1 +1
de Akl B1l , Ak2 B2l 0 , . . . , Aks0 Bs0 l 0 situés à la (i−(n0 +· · ·+nk−1 ), ( j0 −(p00 +· · ·+ p0l 0 −1 ))-ième
place.
Exemple 1.4
•
!
K
b
a L = a b + LV ∈ M1 ( )
V
•
! !
b ba bL
K
a L = ∈ Mn+1 ( )
V aV V L
•
! ! !
A B
C D
V
W
=
AV BW
CV DW
∈ M2n,1 ( )K
•
! ! !
A B
c D
A0 B0
C0 D0
=
A A0 + BC0 A B0 + B D0
C A0 + DC0 C B0 + D D0
∈ M2n ( ) K
Exemple 1.5
1. • Une matrice carrée A est dite triangulaire supérieure par blocs si et seulement
2. Une matrice carrée A est dite diagonale par blocs si et seulement si elle admet une
composition en blocs :
A11 . . . O
.. ..
A= . .
O Ass
(
− A11 , . . . , Ass sont des matrices carrées
telle que
− les blocs non diagonaux sont tous nuls
On peut alors noter : A = diag (A11 , . . . , Ass ).
On montre que :
Proposition 1.14
1. L’ensemble des matrices de Mn (K) triangulaires supérieures par blocs (avec le même
découpage) est une sous-algèbre unitaire de l’algèbre unitaire Mn ( ). K
De plus, les blocs diagonaux du produit de deux matrices triangulaires supérieures
par blocs (avec le même découpage) sont les produits des blocs diagonaux situés à la
même place :
A11 . . . B11 . . . A11 B11 . . .
.. .. .. .. .. ..
. .
. . =
. .
O Ass O Ass O Ass Bss
De plus, dans, ce cas, A−1 est triangulaire supérieure par blocs, et les blocs diagonaux
de A−1 sont les inverses des blocs diagonaux de A :
A−1
11 ...
−1
.. ..
A =
. .
O A−1
ss
3. L’ensemble des matrice de Mn (K) diagonales par blocs (avec le même découpage) est
sous-algèbre unitaire (non seulement commutative) de l’algèbre unitaire Mn (K). De
plus :
A11 . . . O B11 . . . O A11 B11 . . . O
.. .. .. .. . .. ..
. .
. . =
.
O Ass O Ass O Ass Bss
A11 O
A= ...
O Ass
DÉTERMINANTS
Sommaire
2.1 Le groupe symétrique . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 32
2.1.1 Structure de Sn . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 32
2.1.2 Transposition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33
2.1.3 Cycles . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 37
2.2 Applications multilinéaires . . . . . . . . . . . . . . . . . . . . . . . . . . . . 38
2.2.1 Généralités . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 38
2.2.2 Applications multilinéaires alternées . . . . . . . . . . . . . . . . . . . . 38
2.3 Déterminant d’une famille de n vecteurs dans une base d’un ev de dimension n 40
2.3.1 Espace Λn (E) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 40
2.3.2 Propriétés . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 42
2.4 Déterminant d’un endomorphisme . . . . . . . . . . . . . . . . . . . . . . . . 43
2.5 Déterminant d’une matrice carrée . . . . . . . . . . . . . . . . . . . . . . . . 45
2.6 Développement par rapport à une rangée . . . . . . . . . . . . . . . . . . . . 48
2.6.1 Cofacteurs et mineurs . . . . . . . . . . . . . . . . . . . . . . . . . . . 48
2.6.2 Comatrice . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 52
2.7 Calcul des déterminants . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 54
2.7.1 Déterminant d’une matrice triangulaire . . . . . . . . . . . . . . . . . . 55
2.7.2 Manipulation des lignes et des colonnes . . . . . . . . . . . . . . . . . . 55
2.7.3 Cas n = 2, n = 3 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 57
2.7.4 Déterminant d’une matrice triangulaire par blocs . . . . . . . . . . . . . 57
32
Chapitre 2. Déterminants 2.1. Le groupe symétrique
2.1.1 Structure de Sn
Proposition 2.1
Sn est un groupe pour la loi ◦, appelé groupe symétrique.
Démonstration
2. ◦ est associative.
3. Id{1,··· ,n} ∈ Sn .
4. ∀σ ∈ Sn , σ est bijective et σ −1 ∈ Sn .
Par commodité, nous noterons e l’identité de {1, · · · , n}. Une permutation σ de Sn sera
notée : !
1 2 ··· n−1 n
(2.1)
σ (1) σ (2) · · · σ (n − 1) σ (n)
2.1.2 Transposition
On suppose ici n ≥ 2
Définition 2.1
∀ i, j ∈ {1, · · · , n} /i < j, on appelle transposition échangeant i et j, et on note τi j , la per-
mutation de {1, · · · , n} définie par : τi j (i) = j, τi j ( j) = i, τi j (k) = k ∀k ∈ {1, · · · , n} − {i, j}
!
1 2 3 4 5
Pour n = 5, τ24 = (2, 4) =
1 4 3 2 5
Remarque 2.1
Théorème 2.1
Les transpositions de {1, · · · , n} engendrent le groupe Sn . Autrement dit, toute permutation
de {1, · · · , n} est décomposable (d’au moins une façon) en un produit de (plusieurs) trans-
positions.
Démonstration
Récurrence sur n.
S2 = {e, τ12 } et e = τ12 2 , donc τ engendre S . Soit n ∈ N/n ≥ 2. Supposons que les trans-
12 2
positions de {1, · · · , n} engendre Sn et soit σ ∈ Sn+1 .
1er Cas : σ (n + 1) = n + 1
Comme σ est bijective, {1, · · · , n} est alors stable par σ et l’application induite
σ 0 = {1, · · · , n} −→ {1, · · · , n}
k −→ σ (k)
σ 0 = t10 ◦ · · · ◦ tN0 .
2eme Cas σ (n + 1) 6= n + 1
Considérons ρ = τn+1,σ (n+1) ◦ σ .
On a
ρ ∈ Sn+1 et ρ(n + 1) = τn+1,σ (n+1) (σ (n + 1)) = n + 1.
σ = τn+1,σ (n+1) ◦ t1 ◦ · · · ◦ tN
!
1 2 3 4 5 6 7 8
σ =
6 3 7 4 8 1 5 2
1 2 3 4 5 6 7 8
6 3 7 4 8 1 5 2
6 3 7 4 2 1 5 8
6 3 5 4 2 1 7 8
1 3 5 4 2 6 7 8
1 3 2 4 5 6 7 8
1 2 3 4 5 6 7 8
Dans chaque ligne, on a mis en gras les deux éléments qui vont être échangés pour obtenir la
ligne suivante. On a donc τ23 ◦ τ25 ◦ τ16 ◦ τ57 ◦ τ28 ◦ σ = e ⇒ σ = τ28 ◦ τ57 ◦ τ16 ◦ τ15 ◦ τ23 .
Remarque 2.2
L’algorithme montre que toute permutation de {1, · · · , n} est décomposable, d’au moins une
façon, en un produit d’au plus n transpositions.
Soit σ ∈ Sn . On dit qu’un couple (σ (i), σ ( j)) présente une inversion pour σ (ou une
inversion de σ ) si et seulement si i < j et σ (i) > σ ( j). On note I(σ ) le nombre d’inversions
de σ et on appelle signature de σ , le nombre noté ε(σ ), défini par :
On dit que σ est paire (resp. impaire) si et seulement si ε(σ ) = 1 (resp. ε(σ ) = −1).
Démonstration
σ2 : B2 (n) −→ B2 (n)
(2.4)
{i, j} −→ {σ (i), σ ( j)}
ce qui montre :
σ ( j) − σ (i)
∏ = 1. (2.6)
(i, j)∈B2 (n)
j − i
σ ( j) − σ (i)
2. Le nombre de paires {i, j} de {1, · · · , n} telles que < 0 est I(σ ), donc
j−i
σ ( j) − σ (i)
∏ est du même signe que ε(σ ).
{i, j}∈B2 (n) j−i
Remarque 2.3
On a aussi :
σ ( j) − σ (i)
ε(σ ) = ∏ . (2.7)
1≤i< j≤n j−i
Théorème 2.2
L’application signature ε : Sn −→ {−1, 1} est un morphisme du groupe (Sn , ◦) sur le groupe
multiplicatif ({−1, 1}, .).
Démonstration
Soient ρ, σ ∈ Sn , on a :
σ ◦ ρ( j) − σ ◦ ρ(i)
ε(σ ◦ ρ) = ∏ (2.8)
{i, j}∈B2 (n)
j−i
σ (ρ( j)) − σ (ρ(i)) ρ( j) − ρ(i)
= ∏ . ∏ (2.9)
{i, j}∈B2 (n)
ρ( j) − ρ(i) (i, j)∈B (n)
j−i
2
L’application {i, j} 7−→ {ρ(i), ρ( j)} étant une permutation de B2 (n), on obtient :
D’autre part, il est clair que {−1, 1} est un groupe pour la multiplication.
Proposition 2.3
Démonstration
Soit (i, j) ∈ {1, · · · , n}2 tel que i < j. Puisque
!
1 ··· i−1 i i+1 ··· j −1 j j +1 ··· n
τi j = (2.11)
1 ··· i−1 i i+1 ··· j −1 i j +1 ··· n
les couples présentant une inversion (sur la 2-ième ligne) sont : ( j, i + 1), ( j, i +
2), · · · , ( j, j − 1), ( j, i), (i + 1, i), (i + 2, i), · · · , ( j − 1, i), qui sont au nombre de 2 ( j − 1) − 1.
Donc I(τi j ) est impair, ε(τi j ) = −1, τi j impaire.
Corollaire 2.1
Soient σ ∈ Sn , N ∈ N∗ , t1 , · · · ,tN des transpositions de {1, · · · , n} telles que σ = t1 ◦ · · · ◦ tN .
On a :
ε(σ ) = (−1)N . (2.12)
2.1.3 Cycles
On suppose ici n ≥ 2
L’ensemble {x1 , · · · , x p } (qui est à l’évidence unique pour un p-cycle donné) est appelé le
support de σ , et on note σ = (x1 , · · · , x p ). Une permutation σ de {1, · · · , n} est appelé cycle
si et seulement s’il existe p ∈ {2, · · · , n} tel que σ soit un p-cycle.
Exemple 2.1
!
1 2 3 4 5
est le 3-cycle (2, 5, 3).
1 5 2 4 3
Remarque 2.4
Exercice 2.1
2. Soit !
1 2 3 4 5 6 7 8 9 10 11 12
σ=
7 1 5 12 6 3 9 4 2 11 8 10
Proposition 2.4
Démonstration
Il est clair que L p (E1 , · · · , E p ; F) est un sev de F E1 ×···×E p .
Soient E un K − ev, et p ∈ N∗ .
Définition 2.5 Application linéaire alternée
xi = x j =⇒ ϕ(x1 , · · · , x p ) = 0. (2.15)
Remarque 2.5
L’ensemble des applications p-linéaires alternées de E p dans F est un sev de
L p (E, · · · , E; F).
Proposition 2.5
Une application p-linéaire ϕ : E p −→ F est alternée si et seulement si
Démonstration
ϕ(x1 , · · · , xi , · · · , xi , · · · , x p ) + ϕ(x1 , · · · , xi , · · · , x j , · · · , x p )
+ ϕ(x1 , · · · , x j , · · · , xi , · · · , x p ) + ϕ(x1 , · · · , x j , · · · , x j , · · · , x p ) = 0 (2.18)
et donc
ϕ(x1 , · · · , x j , · · · , xi , · · · , x p ) = −ϕ(x1 , · · · , xi , · · · , x j , · · · , x p ) (2.19)
2. Cas général
Soit σ ∈ Sn . D’après le Théorème , σ est décomposable en un produit de transposi-
tions ; ∃N ∈ N∗ et des transpositions σ1 , · · · , σN telles que σ = σ1 ◦ · · · ◦ σN ; de plus,
ε(σ ) = (−1)N . EN appliquant de façon itérée le résultat de 1, on obtient :
ϕ xσ (1) , · · · , xσ (p) = − ϕ xσ2 ◦···σN (1) , · · · , xσ2 ◦···σN (p) (2.21)
= · · · = (−1)N ϕ(x1 , · · · , x p ) = ε(σ )ϕ(x1 , · · · , x p ). (2.22)
Proposition 2.6
Démonstration
Supposons (x1 , · · · , x p ) liée ; l’un au moins des x1 , · · · , x p s’exprime donc comme combi-
naison linéaire des autres. D’après la proposition précédente, on peut se ramener au cas où
p−1
∃(α1 , · · · , α p−1 ) ∈ K p−1 /x p = ∑ αi xi . Alors :
i=1
p−1
ϕ(x1 , · · · , x p ) = ∑ αi ϕ(x1, · · · , x p−1, xi) = 0 (2.23)
i=1
Comme ϕ est alternée, ϕ(ei1 , · · · , ein ) est nul dès que i1 , · · · , in ne sont pas deux à deux
distincts. Il ne reste donc, dans la somme multiple précédente, que les termes correspondant
aux cas où (1, · · · , n) 7−→ (i1 , · · · , in ) est une permutation de {1, · · · , n}. D’où
n
∀ j ∈ {1, · · · , n}, Vj = ∑ ai j j ei j (2.32)
i j =1
• ψ est n-linéaire car, ∀i ∈ {1, · · · , n}, ∀α ∈ K, ∀V1 , · · · ,Vi−1 ,Vi ,Vi0 ,Vi+1 , · · · ,Vn ∈ E, on
a, en notant a0ki 1≤k≤n les composantes de Vi0 dans B :
ψ(V1 , · · · , αVi +Vi0 , · · · ,Vn ) = λ ∑ ε(σ )aσ (1)1 · · · αaσ (i)i + a0σ (i)i · · · aσ (n)n
σ ∈Sn
(2.33)
=αλ ∑ ε(σ )aσ (1)1 · · · aσ (n)n + λ ∑ ε(σ )aσ (1)1 · · · a0σ (i)i · · · aσ (n)n (2.34)
σ ∈Sn σ ∈Sn
• ψ est alternée car, ∀i, j ∈ {1, · · · , n}/i < j et ∀V1 , · · · ,Vn ∈ E/Vi = V j , on a, en effec-
tuant le changement d’indice σ 0 = σ ◦ τi j dans la sommation :
puisque Vi = V j . D’où
n
ej = ∑ δi j j ei j , (2.40)
i j =1
Résumons l’étude :
Théorème-Définition 2.0 Déterminant d’une famille de vecteurs
L’ensemble Λn (E) des formes n-linéaires alternées sur un K-ev de dimension n (n ≥ 1) est
un K-ev de dimension 1. Pour toute base B = (e1 , · · · , en ) de E, on note detB : E n −→ K
l’application définie par,
∀(V1 , · · · ,Vn ) ∈ E n : detB (V1 , · · · ,Vn ) = ∑ ε(σ )aσ (1)1 · · · aσ (n)n , (2.42)
σ ∈Sn
n
Vj = ∑ ai j j ei j . (2.43)
i j =1
L’élément detB (V1 , · · · ,Vn ) (de K) est appelé le déterminant de (V1 , · · · ,Vn ) dans la base
B. Pour toute base B de E, (detB ) est une base de Λn (E).
Autrement dit, pour toute base B de E les éléments de Λn (E) sont proportionnel à detB .
Remarque : On a vu plus haut que, pour toute base B de E : detB (B) = 1.
2.3.2 Propriétés
Démonstration
Soient ϕ ∈ Λn (E), B ∈ B(E). Puisque detB engendre Λn (E), ∃α ∈ K/ϕ = α detB . En
particulier :
ϕ(B) = αdetB (B) = α =⇒ ϕ = ϕ(B)detB (2.44)
c’est-à-dire :
∀S ∈ E n , ϕ(S) = ϕ(B)detB (S). (2.45)
Corollaire 2.2
∀B, B 0 ∈ B(E), ∀S ∈ E n , detB0 (S) = detB0 (B) detB (S).
2. En particulier, en prenant B 00 = B on a :
∀B, B 0 ∈ B(E), detB0 (B) 6= 0 et detB (B 0 ) = (detB0 (B))−1 (2.46)
Proposition 2.8
Démonstration
Si S est liée alors detB (S) = 0, puisque detB est n-linéaire et alternée.
ϕ ◦ ( f × · · · × f ) = (λ ϕ) ◦ ( f × · · · × f ) = λ (ϕ ◦ ( f × · · · × f )) (2.48)
= λ (αϕ) = α(λ ϕ) = αψ. (2.49)
Résumons l’étude :
Proposition-Définition 2.2
On a ainsi :
Proposition 2.10
1. det(IdE ) = 1
Démonstration
Le K-ev admet au moins une base B = (e1 , · · · , en ).
2.
a11 · · · a1n
.. ..
. . , l’élément de K défini par
an1 · · · ann
minant d’ordre n. Pour rappeler l’ordre n, on peut noter [n] en bas à droite :
a11 · · · a1n
. ..
det(A) = .. . . (2.58)
an1 · · · ann
[n]
Exemple 2.2
a b
1. ∀(a, b, c, d) ∈ K4 ,
= ad − bc, puisque S2 = Id{1,2} , τ12 .
c d
2. Soit
a11 a12 · · · a1n
... ..
.
A= ∈ Tn,s (K). (2.59)
. . . an−1n
0 ann
Proposition 2.12
1. det(In ) = 1
Démonstration
Les propriétés 1 à 5 se déduisent de la proposition 2.5 et des propriétés du déterminant d’un
endomorphisme. En notant A = (ai j )i j ∈ Mn (K), on a :
Sn −→ Sn
Enfin, comme est une bijection conservant la signature (i.e. ∀σ ∈
σ 7−→ σ −1
Sn , ε(σ −1 ) = ε(σ )), on obtient :
Remarque 2.7
d’où det(A) = 0.
Par définition :
det(A) = ∑ ε(σ )aσ (1)1 aσ (2)2 aσ (3)3 . (2.69)
σ ∈S3
! !
1 2 3 1 2 3
Comme S3 = {Id, τ12 , τ13 , τ23 , c, c0 } où c = et c0 = , on obtient :
2 3 1 3 1 2
det(A) = a11 a22 a33 − a21 a12 a33 − a31 a22 a13 − a11 a32 a23 + a21 a32 a13 + a31 a12 a23 .
(2.70)
On peut grouper, par exemple, ainsi :
det(A) = a11 (a22 a33 − a32 a23 ) + a21 (−a12 a33 + a32 a13 ) + a31 (a12 a23 − a22 a13 ) (2.71)
a22 a23 a12 a13 a12 a13
= a11 − a21 + a31 , (2.72)
a32 a33 a32 a33 a22 a23
1 0 0
0
1
0
..
e1 = 0 , e2 = 0 , · · · , en = (2.73)
.
.. ..
.
.
0
0 0 1
et
a11 a1n
. ..
C1 = ..
, · · · ,Cn =
.
(2.74)
an1 ann
les colonnes de A. Soit j ∈ {1, · · · , n}.
En développant par linéarité par rapport à la j-ième colonne, on a :
n n
det(A) = detB (C1 , · · · ,C j−1 , ∑ ai j ei ,C j+1 , · · · ,Cn ) = ∑ ai j Ai j , (2.75)
i=1 i=1
en notant
bn1 · · · bnn−1 1
Par définition : det(B0 ) = ∑ ε(σ )b0σ (1)1 · · · b0σ (n)n ∀σ ∈ Sn /σ (n) 6= n, on a b0σ (n)n = 0.
σ ∈Sn
Comme b0nn = 1, on a donc :
{σ ∈ Sn ; σ (n) = n} −→ Sn−1
Il est clair que l’application , où ρ est définie par :
σ 7−→ ρ
∀k ∈ {1, · · · , n − 1}, ρ(k) = σ (k), est une bijection et qu’elle conserve la signature.
D’où :
2. ∀i, j ∈ {1, · · · , n}, on appelle cofacteur de la place (i, j) dans A (ou, par abus :
cofacteur de ai j dans A), et on note Ai j défini par :
Ai j = (−1)i+ j ∆i j (2.87)
On appelle rangée d’une matrice ou d’un déterminant toute ligne ou colonne de cette matrice
ou de ce déterminant.
Démonstration
La deuxième proposition ci-dessus se déduit de la première appliquée à t A au lieu de
A.
2 6 −3 4
1 3 4 2 6 −3 2 6 −3
1 3 4 −5
= −4 4 1 2 − 5 4 1 2 + 6 1 3 4 (2.88)
4 1 2 0
−3 0 3 −3 0 3 4 1 2
−3 0 3 6
! !
3 4 1 3 6 −3 2 6
= −4 −3 +3 − 5 −3 +3
1 2 4 1 1 2 4 1
(2.89)
!
3 4 6 −3 6 −3
+6 2 − +4 (2.90)
1 2 1 2 3 4
= 1437. (2.91)
2.6.2 Comatrice
Soit n ∈ N∗ .
Définition 2.8 Comatrice
Soit A = (ai j )i j ∈ Mn (K). On appelle comatrice de A, la matrice carrée d’ordre n, notée
Com(A), définie par :
A11 · · · A1n
. ..
Com(A) = (Ai j )i j = ..
,
. (2.92)
An1 · · · Ann
n
Nous avons vu que : ∀ j ∈ {1, · · · , n}, ∑ ai j Ai j = det(A). Intéressons-nous à ∑ni=1 ai j Aik ∀ j, k ∈
i=1
{1, · · · , n} fixé tel que j 6= k. Considérons la matrice B = (bip )ip obtenue à partir de A en rempla-
çant, dans A, la k-ième colonne par la j-ième colonne de A :
a11 · · · a1 j · · · a1k−1 a1 j a1k+1 · · · a1n
. .. .. .. .. ..
B= .. . . . . . (2.93)
an1 · · · an j · · · ank−1 an j ank+1 · · · ann
D’une part, det(B) = 0, puisque B a deux colonnes égales. D’autre part, en développant det(B) par
rapport à la k-ième colonne, on a :
n n
det(B) = ∑ bik Bik = ∑ ai j Aik , (2.94)
i=1 i=1
puisque les cofacteurs des éléments de la k-ième colonne sont les mêmes dans B que dans A. Ainsi,
n
∑ ai j Aik = 0. On a donc prouvé :
i=1
(
n det(A) si j = k
∀ j, k ∈ {1, · · · , n}, ∑ ai j Aik = (2.95)
i=1 0 si j 6= k
n
Mais, pour ( j, k) ∈ {1, · · · , n}2 , ∑ ai j Aik est le ( j, k)-ième terme du produit de t A par Com(A),
i=1
d’où !
t det(A) 0
A.Com(A) = = det(A)In . (2.96)
0 det(A)
En appliquant ce résultat à t A au lieu de A, et en remarquant que Com(t A) =t Com(A) et det(t A) =
det(A), on obtient :
A.t Com(A) = det(A)In , (2.97)
t
Com(A).A = det(A)In . (2.98)
Corollaire 2.3
1 t
∀A ∈ GLn (K), A−1 = Com(A).
det(A)
Exemple 2.3
!
a b
Pour n = 2, si ad − bc 6= 0, alors A = est inversible, et
c d
!
1 d −b
A−1 = (2.99)
ad − bc −c a
Exercice 2.2
1. Soient n ∈ N∗ , M ∈ Mn (K),
O ··· O
.
A= .. M ∈ Mn+1 (K). (2.100)
0
Calculer Com(A).
A p = In =⇒ (Com(A)) p = In . (2.101)
3. Soit n ∈ N∗ . Montrer :
( )
Com(A) ∈ GLn (K)
∀A ∈ GLn (K), . (2.102)
(Com(A))−1 = Com(A−1 )
a11 · · · a1n n
.. .
. .. = ∏ aii (2.103)
i=1
0 ann
Démonstration
Récurrence sur n. La propriété est évidente pour n = 1. Supposons-la vraie ∀n ∈ N∗ et soit
a11 · · · a1n+1
... ..
A=
. ∈ Tn+1,s (K). (2.104)
0 an+1n+1
Remarque 2.8
En particulier, le déterminant d’une matrice diagonale est égal au produit des éléments dia-
gonaux.
Remplacement d’une colonne par la somme de celle-ci et d’une combinaison linéaire des autres.
Soient A = (ai j )i j ∈ Mn (K), C1 , · · · ,Cn les colonnes de A, j ∈ {1, · · · , n}, (αk )k6= j ∈ Kn−1 .
Considérons la matrice B obtenue à partir de A en remplaçant C j par C j + ∑ αkCk .
k6= j
= detB (C1 , · · · ,C j , · · · ,Cn ) + ∑ αk detB (C1 , · · · ,C j−1 ,Ck ,C j+1 , · · · ,Cn ) (2.107)
k6= j
= det(A) (2.108)
Proposition 2.15
On ne change pas la valeur d’un déterminant en remplaçant une colonne par la somme
de celle-ci et d’une combinaison linéaire des autres colonnes. Résultats analogues sur
les lignes.
En notant
1
α21 1
T = 31
α α 32 1 O ,
(2.114)
. .. . . .
.. . . ..
αn1 αn1 · · · αnn−1 1
on a : B = AT , d’où
Proposition 2.16
On ne change pas la valeur d’un déterminant en remplaçant (simultanément) chaque
colonne par la somme de celle-ci et d’une combinaison linéaire des colonnes sui-
vantes. Résultats analogue sur les lignes.
De même, en utilisant la post-multiplication de A par une matrice triangulaire supé-
rieure.
Proposition 2.17
On ne change pas la valeur d’un déterminant en remplaçant(simultanément) chaque
colonne par la somme de celle-ci et d’une combinaison linéaire des colonnes précé-
dentes. Résultat analogue sur les lignes.
Exemple 2.4
∀a, b ∈ K et n ≥ 2, calculer
2.7.3 Cas n = 2, n = 3
a11 a12
• n=2: = a11 a22 − a21 a12 .
a21 a22
Proposition 2.18
Démonstration
On remarque que ! ! !
A B In O A B
= (2.117)
O C O C O Ip
d’où ! ! !
A B In O A B
det = det .det (2.118)
O C O C O Ip
!
In O
En développant par rapport à la première ligne, de façon itérée, on obtient :
O C
!
In O
det = det(C). (2.119)
O C
!
A B
De même, en développant par rapport à la dernière ligne, de façon itérée, on
O Ip
obtient : !
A B
det = det(A). (2.120)
O Ip
Proposition 2.19
Le déterminant d’une famille triangulaire par blocs est égal au produit des déterminants des
blocs diagonaux :
A11 · · · s
det
..
= ∏ det (Akk ) . (2.121)
.
k=1
O Ass
Démonstration
Récurrence immédiate sur s en utilisant la proposition 2.7.4.
d’inconnue (x1 , · · · , xn ) ∈ K p , appelé système affine. En notant S l’ensemble des solutions de (S)
dans K p , il s’agit de savoir si (S) est vide ou non, et, lorsque S 6= ∅, d’expliciter les éléments de
(S).
x1
.
.
Interprétation matricielle En notant X = . ∈ M p,1 (K), (x1 , · · · , x p ) est solution de (S) dans
xp
p
K si et seulement si : AX = B. Ainsi, la résolution de (S) se ramène à celle de l’équation
matricielle AX = B, d’inconnue X ∈ M p,1 (K).
Gardons les notations précédentes, et notons r = rg(A). Le système (S) est dit de Cramer si et
seulement si A est carrée et inversible, ie n = p = r.
Nous supposons ici cette condition réalisée. On a alors :
AX = B ⇐⇒ X = A−1 B. (2.124)
a1 j
.
Notons, pour 1 ≤ j ≤ n, C j = .
. la j-ième colonne de A. Puisque A est inversible, la famille
an j
F = (C1 , · · · ,Cn ) est une base de Mn,1 (K). Il existe donc (x1 , · · · , x p ) ∈ K p unique tel que B =
n
∑ x j C j , et (S) admet donc une solution et une seule, qui est (x1 , · · · , xn ).
j=1
Soit k ∈ {1, · · · , n}. On a :
n
detF (C1 , · · · ,Ck−1 , B,Ck+1 , · · · ,Cn ) = detF (C1 , · · · , ∑ x jC j , · · · ,Cn ) (2.125)
j=1
n
= ∑ x j detF (C1, · · · ,C j , · · · ,Cn) (2.126)
j=1
= xk detF (F ) = xk , (2.127)
On a prouvé :
Proposition 2.20 Formules de Cramer
Sommaire
3.1 Eléments propres . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 61
3.2 Sommes- Sommes directes . . . . . . . . . . . . . . . . . . . . . . . . . . . . 63
3.3 Polynôme caractéristique . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 64
3.4 Diagonalisation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 67
• Soit λ ∈ K. On dit que λ est une valeur propre (vp) de (ou : pour) f si et
seulement si :
∃x ∈ E, (x 6= 0 et f (x) = λ x). (3.1)
2. Soient n ∈ N∗ , A ∈ Mn (K).
62
Chapitre 3. Réd. des endo et des matrices 3.1. Eléments propres
• Soit λ ∈ K. On dit que λ est une valeur propre de (ou : pour) A si et seulement
si :
∃X ∈ Mn,1 (K), (X 6= 0 et AX = λ X). (3.3)
Les valeurs propres et vecteurs propres sont globalement appelés éléments propres.
NB : Par définition, un vecteur propre n’est jamais nul. La proposition suivante est immé-
diate.
Proposition 3.1
2. Soient n ∈ N∗ , A ∈ Mn (K), λ ∈ K ; on a :
λ ∈ S pK ⇐⇒ Ker(A − λ In ) 6= {0} ⇐⇒ A − λ In ∈
/ GLn (K)
⇐⇒ rg(A − λ In ) < n
2. Soient n ∈ N∗ , A ∈ Mn (K).
X 6= 0 et AX = λ X. (3.6)
Soient I un ensemble fini, (Ei )i∈I une famille de seV de E. On appelle somme de (Ei )i∈I , et
on note ∑ Ei , l’ensemble des sommes ∑ xi lorsque (xi )i∈I décrit ∏ Ei :
i∈I i∈I i∈I
( )
∑ Ei = ∑ xi; ∀ i ∈ I, xi ∈ Ei . (3.8)
i∈I i∈I
L
On note alors Ei au lieu de ∑ Ei .
i∈I i∈I
Proposition 3.2
Soient E un K-eV de dimension finie et Ei une famille finie de seV de E telle que la somme
∑ Ei soit directe. On a alors :
i∈I
!
M
dim Ei = ∑ dim (Ei ) (3.10)
i∈I i∈I
Proposition 3.3
Soient E un K-eV de dimension finie et (Ei )i∈I une famille finie de seV de E telle que la
somme ∑ Ei soit directe. On a alors :
i∈I
M
E= Ei ⇐⇒ dim (E) = ∑ dim (Ei ). (3.11)
i∈I i∈I
Proposition 3.4
Soient f ∈ L (E), λ1 , · · · , λN des valeurs propres de f (deux à deux distinctes). Alors les
sous-espaces propres de f associés à λn , · · · , λN sont en somme directe.
Démonstration
Récurrence sur n. La propriété est triviale pour N = 1. Supposons-la vraie pour N ∈ N∗ et
soient λ1 , · · · , λN+1 des valeurs propres de f deux à deux distinctes. Soit (xi )1≤i≤N+1 ∈ E N+1
tel que :
N+1
∀i ∈ {1, · · · , N + 1}, xi = SEP( f , λi ), ∑ xi = 0 (3.12)
i=1
N+1 N+1
En appliquant f : 0 = ∑ f (xi ) = ∑ λi xi . Ainsi,
i=1 i=1
(
x1 + · · · + xN + xN+1 = 0
(3.13)
λ1 x1 + · · · + λN xN + λN+1 xN+1 = 0
d’où
(λN+1 − λ1 )x1 + · · · + (λN+1 − λN )xN = 0 (3.14)
Mais λ1 , · · · , λN+1 sont deux à deux distincts, d’où : ∀i ∈ {1, · · · , N}, xi = 0, et enfin :
N
xN+1 = − ∑ xi = 0. (3.16)
i=1
K −→ K
1. Soit A ∈ Mn (K). L’application est un polynôme, appelé po-
λ 7−→ det(A − λ In )
lynôme caractéristique de A, et noté χA .
K −→ K
2. Soit f ∈ L(E). L’application est le polynôme caractéris-
λ −→ det(A − λ e)
tique de f , noté χ f .
Proposition 3.5
Démonstration
Notons A = (ai j )i j . Soient λ ∈ K et, ∀i, j ∈ {1, · · · , n} :
(
ai j − λ si i= j
αi j = (3.18)
ai j si i 6= j
α11 · · · α1n
. ..
χA (λ ) = .. . = ∑ ε(σ )ασ (1)1 · · · ασ (n)n . (3.19)
σ ∈Sn
αn1 · · · αnn
∀σ ∈ Sn − {Id{1,··· ,n} }, le terme ε(σ )ασ (1)1 · · · αα(n)n est un polynôme (en λ ) de degré ≤
n − 2. D’autre part :
Ceci montre que χA est de degré n et que les termes en λ n et λ n−1 sont respectivement
(−1)n λ n et (−1)n−1tr(A)λ n−1 . Enfin, comme det(A) = χA (0), le terme constant de χA est
det(A).
Remarque 3.1
n n n
Si χA est scindé sur K, χA = (−1)n ∏ (λ − λi ), alors ∑ λi = tr(A) et ∏ λi = det(A).
i=1 i=1 i=1
Exemple 3.1
8 12 10
Calculer les vp et les vp de A = −9 −22 −22 ∈ M3 (R).
9 18 17
8−λ 12 10
χA (λ ) = −9 −22 − λ −22 = −(λ + 1)(λ − 2)2 , (3.22)
9 18 17 − λ
Donc SEP(A, −1) est la droite vectorielle engendré par (2, −4, 3). De même, SEP(A, 2) est
la droite vectorielle engendrée par (4, −7, 6).
Définition 3.4
Soient f ∈ L (E) (resp. A ∈ Mn (K)), λ0 une valeur propre de f (resp. de A). On appelle
ordre de multiplicité de λ0 l’ordre de multiplicité de λ0 en tant que zéro du polynôme
caractéristique χ f (resp. χA ).
Exemple 3.2
Dans l’exemple précédent, les vp sont -1 (simple) et 2 (double).
Proposition 3.6
Démonstration
2. SEP( f , λ0 ) admet au moins une base (e1 , · · · , ed0 ) et, d’après le théorème de la base
incomplète, il existe ed0 +1 , · · · , en ∈ E tels que B = (e1 , · · · , en ) soit une base de E. Il
existe C ∈ Md0 ,n−d0 (K), B ∈ Mn−d0 (K) telles que :
!
λ0 Id0 C
MatB ( f ) = , (3.25)
O B
d’où ∀λ ∈ K, !
(λ0 − λ )Id0 C
χ f (λ ) = det
O B − λ In−d0
(3.26)
= (λ0 − λ )d0 det(B − λ In−d0 )
= (λ0 − λ )d0 χB (λ )
Corollaire 3.1
3.4 Diagonalisation
Définition 3.5
1. Soit f ∈ L (E). On dit que f est diagonalisable si et seulement s’il existe une base
B de E telle que MatB ( f ) soit diagonale.
2. Soit A ∈ Mn (K). On dit que A est diagonalisable si et seulement s’il existe une matrice
diagonale D de Mn (K) telle que A soit semblable à D.
Si A ∈ Mn (K) est diagonalisable, diagonaliser A c’est déterminer P, D, (et P−1 ) telles que :
Remarque 3.2
Proposition 3.7
1. f est diagonalisable
Démonstration
1 . =⇒ 2. Supposons f diagonalisable. Il existe une B = (e1 , · · · , en ) de E telle que
MatB ( f ) soit diagonale ; il existe donc (λ1 , · · · , λn ) ∈ Kn tel que :
n n
∑ Ker( f − λ e) ⊃ ∑ Ker( f − λ e) = ∑ Ker( f − λi e) ⊃ ∑ Kei = E, (3.31)
λ ∈S pK ( f ) λ ∈Λ i=1 i=1
∑ Ker( f − λ e) = E (3.32)
λ ∈S pK ( f )
3. =⇒ 4. Supposons que la somme des SEP de f soit égale à E. Comme cette somme est
directe, on a alors :
M
∑ dim(SEP( f , λ )) = dim SEP( f , λ ) = dim(E). (3.33)
λ ∈S pK ( f ) λ ∈S pK ( f )
4. =⇒ 1. Supposons que la somme des dimensions des SEP de f soit égale à dim(E). No-
tons k = Card(S pK ( f )), µ1 , · · · , µk les éléments de S pK ( f ). Chaque SEP( f , µ j )(1 ≤
k
j ≤ k) admet au moins une base B j , notons B = B j . Comme les SEP( f , µ j )(1 ≤
S
j=1
j ≤ k) sont en somme directe, et que chaque B j est libre, B est libre.
D’autre part :
k k
Card(B) = ∑ Card(B j ) = ∑ dim(SEP( f , µ j )) = dim(E). (3.34)
j=1 j=1
Ainsi, B est une base de E, et la matrice de f dans B est diagonale, puisque les
éléments de B sont des vp de f :
µ1 Id1 · · · O
.. .. ..
MatB ( f ) =
. . . (3.35)
O · · · µk Idk
où d j = Card(B j ), 1 ≤ j ≤ K.
Remarque 3.3
D’après la preuve précédente, si f ∈ L (E) est diagonalisable, alors les éléments diago-
naux d’une matrice diagonale représentant f sont les valeurs propres de f , écrits sur cette
diagonale autant de fois que l’indiquent leurs ordres de multiplicité.
Démonstration
• Supposons f diagonalisable. On a :
λ1 · · · O
. . .
MatB ( f ) = .. . . .. . (3.37)
O · · · λn
On a donc ∀λ ∈ K,
n
χ f (λ ) = det (MatB ( f ) − λ In ) = ∏(λi − λ ). (3.38)
i=1
Exemple 3.3
Montrer que
2 0 1
A = 1 1 1 ∈ M3 (R) (3.39)
−2 0 −1
est diagonalisable et diagonaliser A.
2−λ 0 1
2−λ 1
χA (λ ) = 1 1−λ 1 = (1 − λ ) = (λ )(λ − 1)2 (3.40)
−2 −1 − λ
−2 0 −1 − λ
•
x 2x + z = 0
(
z = −2x
X = y ∈ SEP(A, 0) ⇐⇒ x + y + z = 0 ⇐⇒ (3.41)
y=x
z −2x − z = 0
1
Donc SEP(A, 0) est de dimension 1 et admet pour base (V1 ) où V1 = 1 .
−2
•
x
X = y ∈ SEP(A, 1) ⇐⇒ x + z = 0 (3.42)
z
0
Donc SEP(A, 1) est de dimension 2 et admet pour base (V1 ,V3 ) où V2 = 1, V3 =
0
1
0 , par exemple.
−1
Puisque χA est scindé sur R et que, pour chaque vp de A, la dimension du SEP est égale
à l’ordre de multiplicité de la vp, d’après le théorème précédent, A est diagonalisable.
En notant B0 la base canonique de M3,1 (R), B = (V1 ,V2 ,V3 ), P = Pass(B0 , B)
1 0 1 0 0 0
P = 1 1 0 , D = 0 1 0 (3.43)
−2 0 −1 0 0 1
On a : A = PDP−1 .
−1 0 −1
P−1 = 1 1 1 (3.44)
2 0 1
1. Soit f ∈ L (E). Si f admet n valeurs propres deux à deux distinctes (où n = dim(E)),
alors f est diagonalisable.
2. Soit A ∈ Mn (K). Si A admet n valeurs propres deux à deux distinctes, alors A est
diagonalisable.
Exemple 3.4
1 0 ··· 0
0
. . . . . . ..
0
. . . .
.. .. ..
Soient n ∈ N − {0, 1}, A = 0 . . . 0 ∈ Mn (C. Montrer que A est diagonali-
.. .. ..
0 . . . 1
1 0 0 0 0
sable.
−λ 1 0 ··· 0 −λ 1 0 ··· 0
... ... ... .. ... ... ... ..
0 . 0 .
χA (λ ) = ... ... ... = −λ ... ... ...
0 0 0 0
.. .. .. .. .. ..
0 . . . 1 0 . . . 1
1 0 0 0 −λ [n]
1 0 0 0 −λ [n−1]
1 0 0 ··· 0
.. .. .. ..
−λ . . . .
+ (−1)n+1 0 .. .. ..
. . . 0
... ... ...
0 0
1 0 0 −λ 1 [n−1]
n−1 n+1
= (−λ )(−λ ) + (−1)
= (−1)n (λ n − 1).
Il est clair que χA est scindé sur C et à zéros simples (les racines n-ième de 1 dans C) ;
d’après le corollaire précédent, A est diagonalisable dans Mn (C).
Généralité
Soit P = a0 + a1 X + · · · + aN X N ∈ K[X]
P(A) = a0 In + a1 A + · · · + aN AN
Remarque 3.4
Proposition 3.8
(αP + Q)( f ) = αP( f ) + Q( f )
∀α ∈ K, ∀P, Q ∈ K[X], (PQ)( f ) = P( f ) ◦ Q( f )
1( f ) = e
(αP + Q)(A) = α p(A) + Q(A)
∀α ∈ K, ∀P, Q ∈ K[X], (PQ)(A) = P(A) ◦ Q(A)
1(A) = In
Démonstration
N N
1. Notons P = ∑ ak X k , Q = ∑ bk X k
k=0 k=0
•
!
N
(αP + Q)( f ) = ∑ (αak + bk )X k (f)
k=0
N N N
= ∑ (αak + bk ) f k = α ∑ ak f k + ∑ bk f k
k=0 k=0 k=0
= ∑ αP( f ) + Q( f )
2N k
(PQ)( f ) = ( ∑ ( ∑ ai bk−i )X k )( f )
k=0 i=0
2N k N N
= ∑ ∑ aibk−i f k = ( ∑ ai f i) ◦ ( ∑ b j f j )
k=0 i=0 i=0 j=0
= P( f ) ◦ Q( f )
Proposition 3.9
Démonstration
gk+1 ◦ f = g ◦ (gk ◦ f ) = g ◦ ( f ◦ gk ) = (g ◦ f ) ◦ gk = ( f ◦ g) ◦ gk
= f ◦ gk+1
Proposition 3.10
Démonstration
• Montrons, par récurrence : ∀k ∈ N, f k (x) = λk x. La propriété est triviale pour k = 0
(car f 0 = e et λ 0 = 1), et vraie pour k = 1 par hypothèse. S elle est vraie pour un k de
N, alors :
N
• On a alors, pour tout P = ∑ ak X k de K ∈ [X],
k=0
N N
k
(P( f ))(x) = ( ∑ ak f )(x) = ∑ ak f k (x)
k=0 k=0
N
= ∑ ak λ k x = P(λ )x
k=0
Sommaire
4.1 Formes bilinéaire . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 77
4.2 matrice d’une fbs dans une base . . . . . . . . . . . . . . . . . . . . . . . . . 78
4.3 Changement de base pour une fbs . . . . . . . . . . . . . . . . . . . . . . . . 79
4.4 Formes sesquilinéaires . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 84
4.4.1 Transconjugaison . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 85
4.4.2 matrices hermitiennes . . . . . . . . . . . . . . . . . . . . . . . . . . . 86
4.5 la notion de produit scalaire . . . . . . . . . . . . . . . . . . . . . . . . . . . 87
4.5.1 Diverses caractérisations d’une base orthonormale . . . . . . . . . . . . 89
78
Chapitre 4. Formes bilinéaires symétriques 4.2. matrice d’une fbs dans une base
Démonstration
On a par récurrence immédiatement sur n :
n n
∀Y ∈ E, ϕ( ∑ αi xi ,Y ) = ∑ αi ϕ(xi ,Y ), d’où
i=1 i=1
!
n p n p
ϕ ∑ αixi, ∑ β j y j = ∑ αi ϕ(xi , ∑ βi y j )
i=1 j=1 i=1 j=1
!
n p n p
∑ αi ∑ β j ϕ(xi, y j =∑ ∑ αiβ j ϕ(xi, y j )
i=1 j=1 i=1 j=1
Exemple 4.1
ϕ : R3 × R3 7−→ R
((x1 , x2 ), (y1 , y2 )) 7−→ αx1 y1 + β (x1 y2 + x2 y1 ) + γx2 y2
On a alors
ϕ(x, y) = t XAY (4.2)
Démonstration
x1 y1
. .
En notant B = (e1 , · · · , en ), A = (ai j )i j , X = . .
. , Y = . On a
xn yn
!
n n
ϕ(x, y) = φ ∑ xi ei , ∑ y j e j = ∑ xi y j ϕ(ei , e j )
i=1 j=1 i∈[n], j∈[n]
! (4.3)
n n
= ∑ xi ∑ ai j y j .
i=1 j=1
D’autre part :
n
∑ a1 j y j
j=1
t ..
X = (x1 , · · · , xn ), AY = , (4.4)
n .
∑ an j y j
j=1
!
n n
Donc ∑ xi ∑ ai j y j =t XAY (4.5)
i=1 j=1
Proposition 4.3
A0 = t PAP (4.6)
Démonstration
Soient x, y ∈ E, X = MatB (x), Y = MatB (y),
0 0
X = MatB (x),Y = MatB (y)
, on a alors :
0 0
X = PX et Y = PY
.
0 0 0
D’une part ϕ(x, y) = t X A Y
D’autre part :
t 0 0 0 0 0
ϕ = X A Y = t (P ) A(PY )
t 0 0
= X t P A PY
0
Par unicité de la matrice ϕ dans B et puisque t P A P ∈ Sn (K), on conclut : t P AP
Proposition 4.4
n
∀x ∈ E, x = ∑ hei |xiei
i=1
Proposition 4.5
Si B est une b.o.n de E, on a, ∀x, y ∈ E et en notant X = MatB(x) ,Y = MatB(y) :
hx|yi = t XY
Notons S(E) l’ensemble des endomorphismes symétriques de E. Il est clair que S (E) est
un sev de L (E).
Proposition 4.6
f ∈ S (E) ⇐⇒ A ∈ Sn (R)
Démonstration
On a :
∀x, y ∈ E, h f (x)|yi = hx| f (y)i
Proposition 4.7
On a :
1. ∀ f , g ∈ S (E), (g ◦ f ∈ S (E) ⇐⇒ g ◦ f = f ◦ g ;
2. ∀ f ∈ S (E), ∀k ∈ N, f k ∈ S (E) ;
Démonstration
1. Soit f , g ∈ S (E). On a :
f o = IdE ∈ S (E).
= hx| f −1 (y)i.
Donc f −1 ∈ S (E)
∀k ∈ Z, f k = ( f −1 )−1 ∈ S (E).
Proposition-Définition 4.1
∀ f ∈ L (E), ∃!g ∈ L (E)/∀x, y ∈ E, h f (x)|yi = hx|g(y)i. Cet élément g de L (E) est appelé
l’adjoint de f et notée f ∗ . Pour toute base orthonormale B de E, on a :
MatB ( f ∗ ) = t (MatB ( f ))
Démonstration
Soient B une b.o.n de E, f , g ∈ L (E). Notons A = MatB ( f ), B = MatB (g). On a :
Proposition 4.8
Soient α ∈ R, f , g ∈ L (E). On a :
1. (α f + g)∗ = α f ∗ + g∗
2. (IdE )∗ = IdE
3. (g ◦ f )∗ = f ∗ ◦ g∗
4. ( f ∗ )∗ = f
5. f ∈ G L (E) ⇐⇒ f ∗ ∈ G L (E)
6. ∀ f ∈ G L (E), ( f ∗ )−1 = ( f −1 )∗
Démonstration
1ère méthode : Utiliser les matrices dans une b.o.n
2ème méthode :
1. ∀(x, y) ∈ E 2 :
(α f + g)∗ = α f ∗ + g∗
Donc : f = ( f ∗ )∗
5. et 6. Soit f ∈ L (E).
Proposition 4.9
hx|yi = 0
Démonstration
Soient λ , µ ∈ S p ( f )/ λ 6= µ, x ∈ SEP( f , λ ), y ∈ SEP( f , µ). On a donc :
D’où :
hλ x|yi = h f (x)|yi = hx| f (y)i = hx|µyi
=⇒ (λ − µ)hx|yi = 0 =⇒ hx|yi = 0
n p
ϕ( ∑ αk xk , ∑ β j x j ) = ∑ ∑ α k β j ϕ j ϕ(xk , y j )
k=1 j=1 i≤k≤n 1≤ j≤p
Démonstration
Exercice
4.4.1 Transconjugaison
Dans ce paragraphe, n, p ∈ N∗ .
Définition 4.3
Soit A ∈ Mn,p (C). On appelle transconjuguée de A, et on note A∗ , la matrice de M p,n (C)
définie par :
A∗ = t A
Exemple 4.2
! 1 2−i
1 i 0
Si A = alors A∗ = −i 3
2+i 3 1−i
0 1+i
Exemple 4.3
Dans ce paragraphe n ∈ N∗
Définition 4.4
Une matrice A de Mn (C) est dite hermitienne ssi :
A∗ = A
Remarque 4.1
Exemple 4.4
• ! !
1 0 2 1+i
, sont hermitiennes
0 −3 1 − i −5
• !
1 0
n’est pas hermitienne
0 i
Proposition 4.13
Hn est un R-ev.
Démonstration
Montrons que Hn est un sev du R-ev Mn (C)
• Si H1 , H2 ∈ Hn et α ∈ R alors :
Donc
αH1 + H2 ∈ Hn
Proposition 4.14
1. ∀H1 , H2 ∈ Hn , H1 H2 ∈ Hn ⇐⇒ H1 H2 = H2 H1
2. ∀H ∈ Hn ∩ GLn (C), H −1 ∈ Hn
Démonstration
H1 H2 ∈ Hn ⇐⇒ (H1 H2 )∗ = H1 H2
1. ⇐⇒ H2∗ H1∗ = H1 H2
⇐⇒ H2 H1 = H1 H2
2. (H −1 )∗ = (H ∗ )u∗−1 = H −1
Proposition 4.15
Soient E un evh (espace vectoriel hermitien) et f un endomorphisme auto-adjoint de E.
Alors :
1. f est diagonalisable ;
2. Les sous-espaces propres de f sont deux à deux orthogonaux ( f possède une base
propre orthonormée) ;
On appelle espace préhilbertien complexe tout couple (E, ϕ) où E est un C-ev et ϕ un pro-
duit scalaire hermitien (psh) sur E. On appelle espace hermitien tout espace préhilbertien
complexe de dimension finie.
Définition 4.6
Produit scalaire usuel sur Rn , n ∈ N∗
L’application ϕ : Rn × Rn −→ R définie par :
n
ϕ((x1 , . . . , xn ), (y1 , . . . , yn )) = ∑ xk yk
k=1
est un produit scalaire sur sur Rn , appelé produit scalaire usuel (ou canonique) sur Rn .
Définition 4.7
Produit scalaire canonique sur Mn,p (R)
L’application
ϕ : Mn,p (R) × Mn,p (R) −→ R
t
(4.7)
(AB) 7−→ tr( AB)
est un produit scalaire sur Mn,p (R), appelé produit scalaire canonique sur Mn,p (R). Le pro-
duit scalaire canonique sur Mn,1 (R) (ou M1,n (R)) est, à la notation près, le produit scalaire
usuel sur Rn .
Définition 4.8
Produit scalaire hermitien sur Cn
L’application
ϕ: Cn × Cn −→ Cn
n (4.8)
((x1 , . . . , xn ), (y1 , . . . , yn )) 7−→ ∑ xk yk
k=1
est une fsh (produit scalaire hermitien canonique sur Cn ) et la fh associée est :
Cn −→ C
n (4.9)
(x1 , . . . , xn ) 7−→ ∑ |xk |2
k=1
Définition 4.9
Produit scalaire hermitien canonique sur Mn,p (C), n, p ∈ N∗
L’application
ϕ : Mn,p (C) × Mn,p (C) −→ C
(4.10)
(A, B) 7−→ tr(A∗ B)
est un produit scalaire hermitien sur Mn,p (C), appelé produit scalaire hermitien canonique
sur Mn,p (C). Le psh canonique sur Mn,1 (C) (ou M1,n (C) est, à la notation près, le psh usuel
sur C.
Définition 4.10
Produit scalaire hermitien canonique sur E, le C-ev des applications continues de [a; b]
dans C
Soient (a, b) ∈ R2 , tel que a < b, E = C0 ([a; b], C), le C-ev des applications continues de
E 2 −→ C (4.11)
Z b
( f , g) 7−→ fg (4.12)
b
Sommaire
5.1 Qubit ou bit quantique . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 90
5.2 Phenomènes quantiques : interférences à une particule . . . . . . . . . . . . 92
5.2.1 Fentes d’Young . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 93
5.2.2 Interférométrie de Mach Zehnder . . . . . . . . . . . . . . . . . . . . . 95
5.2.3 Chat Schrödinger . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 98
Dans ce chapitre, nous présentons le cadre général de la théorie quantique en utilisant la puis-
sante et élégante algèbre de Dirac. Nous initions les étudiants à la découverte de l’étrange monde
quantique à travers quelques expériences d’interférences à une particule. Ces expériences montrent
que l’intuition et le bon sens hérités de la physique classique sont inadaptés dans le monde quan-
tique du fait de la nature fondamentalement probabiliste ou indéterministe des phénomènes
quantiques.
92
Chapitre 5. Qubits et états quantiques 5.1. Qubit ou bit quantique
La Figure 5.1 donne une représentation du qubit sur une sphère de Bloch. Tant qu’on effectue
Fig. 5.1. Codage quantique. Le qubit |ψi = α|0i + β |1i (avec α = cos θ2 , β = ei ϕ sin θ2 et |α|2 + |β |2 = 1), offre une
description différente des systèmes physiques. Les états binaires classiques sont aux pôles de la sphère. Il opère dans
un univers multidimensionnel, ses états propres correspondent à la surface de la sphère, alors que les états logiques
classiques correspondent aux pôles de cette sphère.
aucune mesure ou alors tant que le qubit est isolé du monde extérieur, il reste dans cet état super-
posé. Dès qu’une mesure est effectuée où dès que le qubit est en contact avec son environnement, il
adopte un comportement classique en prenant soit l’état |0i, soit l’état |1i. Et les lois de la théorie
quantique nous disent que :
Principe 5.1 Probabilité de l’état d’un qubit
N−1 N−1
|ψi = ∑ αi |ii, ∑ |αi|2 = 1
i=0 i=0
La dichotomie qu’il y a entre le comportement du qubit quand il n’est pas observé (ou Lorsqu’il
est isolé) et Lorsqu’il est observé (ou en contact avec l’environnement), est au coeur même de la
théorie quantique. malgré son comportement étrange, le qubit existe réellement. En effet, nombre
de systèmes physiques peuvent être utilisés pour réaliser un qubit. C’est le cas par exemple des
deux états d’un électron orbitant autour du noyau d’un atome qu’illustre la Figure 5.2. Dans le
modèle de l’atome, un électron est soit dans un état fondamental soit dans un état excité, que l’on
peut représenter respectivement par |0i ou |1i. Lorsqu’on envoie un rayonnement électromagné-
tique avec une énergie appropriée, il est possible de déplacer l’électron de l’état |0i vers l’état |1i
et vice-versa. Mais il est encore plus intéressant d’éclairer l’atome avec un rayonnement ayant une
énergie telle que, l’électron initialement dans l’état |0i se trouve à mi-chemin entre |0i et |1i, dans
l’état
1
|ψi = √ (|0i + |1i)
2
.
Fig. 5.2. Qubit représenté par deux états électroniques d’un atome.
Exercice 5.1
For each of the following qubits, if a measurement is made, what is the probality to find the
qubit in the state |0i ? What is the probality to find it in the state |1i ?
r
1 2
• |ψi = √ |0i + |1i
3 3
√
i 3
• |ψi = |0i + |1i
2 2
1+i i
• |ψi = √ |0i − √ |1i.
3 3
(a) Dispositif des fentes de Young (b) Interférence lumineuse lorsque les
deux fentes sont ouvertes. On a une alter-
nance de franges brillantes et de franges
sombres.
la position x alignée horizontalement sur la fente F1 . Lorsqu’on éloigne le détecteur de cette posi-
tion x, l’intensité diminue progressivement et devient nulle. cependant, lorsque les deux fentes sont
ouvertes, la figure des intensités n’est pas la somme des deux figures d’intensité des fentes indivi-
duelles ouvertes, mais plutôt une figure d’interférence : on observe au détecteur une alternance
de franges brillantes et de franges sombres (voir Fig.5.3(b)). Il y a donc interférence entre les
faisceaux lumineux provenant des deux fentes.
Utilisons maintenant un Dispositif spécial dont la source S ne produit que des électrons uniques
qui sont dirigés vers les fentes F1 et F2 . L’électron a une charge bien déterminée et la proposition :
un seul électron est bien passé soit par F1 , soit par F2 est bien décidable (deux chemins pos-
sibles). Chaque électron est capté en un point bien précis du détecteur comme on peut le voir sur
la Fig.5.4(a). Ces points d’impact sont cependant aléatoires : les différents électrons indépendants
préparés dans les mêmes conditions ont des impacts différents. Ce qui est en contradiction avec le
déterminisme classique qui veut qu’à des conditions initiales identiques, correspondent des condi-
tions finales identiques. Au bout d’un temps suffisamment long, on observe avec surprise que les
impacts des électrons forment une figure d’interférence comme illustrée à la Fig.5.4(d). Ce résultat
est surprenant en ce sens que l’électron est un corpuscule. Or nous savons qu’une onde remplit tout
l’espace ! Les électrons sont nus et indivisibles, donc il n’y a pas de fragmentation d’un quantum
d’énergie hν. D’après Paul Dirac, chaque électron interfère avec lui-même comme une onde.
1 Il y a donc antinomie : les concepts classiques d’onde et de corpuscules semblent ne plus être
Fig. 5.4. Figures d’interférence obtenues avec des électrons uniques. Le nombre d’électrons sur le détecteur augmente
au cours du temps. Le temps d’exposition entre la figure (a) et la figure (d) est multiplié par 20. (a) 8 électrons ; (b)
270 électrons ; (c) 2000 électrons ; (d) 6000 électrons.
Lorsqu’on réalise une autre expérience où le chemin emprunté par l’électron est discernable,
F1 ouvert seul ou F2 ouvert seul, on n’observe pas de figure d’interférence, mais plutôt des impacts
distribués autour des sorties F1 ou F2 . La somme de ces deux distributions distinctes ne ressemble
en rien à la figure obtenue quand les deux fentes sont ouvertes. On ne peut donc analyser le phéno-
mènes d’interférence des électrons uniques en termes de probabilités classiques : lorsqu’à la même
issue correspondent des processus indépendants différents, la probabilité de cette issue n’est pas la
somme des probabilités individuelles.
1 En fait, avant la mesure, l’électron est dans une superposition d’états, et c’est chaque de ces états qui a interféré
avec les autres.
Afin de mieux analyser le comportement des objets quantiques, examinons les expériences qui
mènent à l’Interférométrie de Mach Zehnder. On considère :
• une source qui envoie des objets quantiques isolés, un à un, l’un après l’autre ;
Expérience MZ1
Les objets quantiques arrivent individuellement sur le séparateur et on compte combien d’entre eux
sont réfléchis (R), et combien sont transmis (T) Figure MZ1. Après le passage d’un grand nombre
d’objets quantiques, on fait les deux observations suivantes :
1. Les deux détecteurs ne s’activent jamais au même instant, donc l’objet est indivisible, il est
soit réfléchi, soit transmis (deux chemins possibles) ;
2. La moitié des objets quantiques est réfléchie et l’autre moitié est transmise et les deux pro-
babilités sont 50%.
Expérience MZ2
Il y a lieu de se poser la question de savoir si en sortant de la source, chaque objet n’a pas une
instruction lui permettant, chaque fois qu’il rencontre un séparateur, d’être soit seulement réfléchi,
soit seulement transmis ?
Afin d’élucider cela, à chaque sortie du premier séparateur, on place un autre séparateur et on
obtient quatre chemins possibles (Fig. 5.5(b)) : l’objet quantique peut être réfléchi deux fois (RR),
réfléchi puis transmis (RT), transmis puis réfléchi (TR) ou transmis deux fois (TT).
Si chaque objet avait une instruction lui permettant, chaque fois qu’il rencontre un séparateur,
d’être soit seulement réfléchi, soit seulement transmis, alors après le passage d’un grand nombre
d’objets quantiques, on observerait 50% des objets en RR et 50% des objets en TT, et rien en RT
ou TR. Mais on observe qu’on a 25% d’objets à chaque sortie.
Expéreince de MZ3
(a) Expérience MZ3 : Interféromètre de Mach (b) Expérience MZ4 : Interféromètre de Mach
Zehnder équilibré. Les chemins sont indiscer- Zehnder déséquilibré. Les chemins sont discer-
nables. nables et l’objet quantique explore tous les che-
mins possibles.
Dans la configuration de notre expérience MZ3, A2 est toujours vraie alors que A1 peut être vraie
ou fausse.
Si on modifie l’expérience en insérant des détecteurs aux chemins R et T après le premier sé-
parateur, de sorte à avoir exactement la valeur de vérité de A1 , alors la valeur de vérité de A2 est
modifiée. Seule la moitié des objets quantique conduiront à une valeur de vérité vraie, conformé-
ment à l’expérience MZ1. Donc si l’objet quantique laisse une trace de son passage, on observe
pas d’interférence.
Conclusion 5.2 trajectoire d’un objet quantique
Il est donc impossible de savoir par quel chemin est passé l’objet quantique et observer les
interférences. C’est le paradoxe connu sous le non du chat de Schrödinger.
Expérience MZ4
On modifie la longueur des chemins RT ou TR, en y introduisant par exemple une longueur sup-
plémentaire ∆l. On constate que les probabilité de détection des objets quantiques aux sorties (RT
ϕ ϕ
ou TR) et (RR ou TT) sont respectivement cos2 et sin2 , ϕ = 2π∆l/λ
2 2
• ∆l = λ (lame d’onde), tous les objets quantiques sont détectés à la sortie RT ou TR ;
λ
• ∆l = (lame demi-d’onde), tous les objets quantiques sont détectés à la sortie RR ou TT ;
2
λ
• ∆l = (lame quart-d’onde), une moitié à la sortie RT ou TR.
4
Donc,lorsqu’on modifie un seul des deux chemins, on modifie le comportement de tous les
objets quantiques.
Résumé 5.1
En résumé :
2. Dans les expériences MZ1 et MZ2, il y a un seul chemin qui conduit à chaque détec-
teur, chaque objet quantique détecté a emprunté un chemin connu : c’est la situation
de discernabilité, il n’y a pas d’interférence.
3. Dans les expériences MZ3 et MZ4, on ne peut dire quel chemin chaque objet quan-
tique détecté a emprunté, puisque deux chemins sont possibles. Ces deux chemins
sont indiscernables et les effets d’interférence sont présents. On peut donc énoncer le
principe suivant :
On peut dire que le comportement d’un objet quantique dépend de toutes les possibi-
lités indiscernables. Donc avant la mesure, le système quantique est dans une super-
position d’états possibles (états propres).
4. Chaque objet quantique explore tous les chemins possibles (délocalisation) comme
une onde, cependant elle est indivisible à la détection. Si cette exploration de tous les
chemins n’était pas possible, tous les objets quantique ne seraient pas influencés par
le changement de longueur d’un seul chemin. un objet quantique n’a donc pas une
trajectoire bien définie.
5. Dans l’expérience MZ3, lorsqu’on cherche à savoir par quel chemin est passé l’objet
quantique, on n’observe plus de figure d’interférence. On dit alors que : la mesure
perturbe le système. L’interposition d’un instrument de mesure modifie le chemin
emprunté et la discernabilité apparaît.
Ce phénomène est d’ailleurs à la base de la crytographie quantique car toute tenta-
tive d’espionnage est immédiatement détectée par la perturbation qu’elle introduit.
Dans la suite, on désignera par quanton tout objet quantique (photons, neutrons,
atomes, molécules . . .) pouvant présenter l’un ou l’autre des deux aspects particuliers
(particules, ondes).
Remarque 5.1
Quand on dit que le quanton interfère avec lui-même, il s’agit en fait d’interférences d’am-
plitudes de probabilité.
Dans les années 1930, le célèbre physicien autrichien Schrödinger avait, en pensée, enfermé un
chat dans une boîte en acier contenant un bol de lait empoisonné. Le chat meurt s’il boit de ce lait
et il est vivant sinon. Cependant, tant qu’aucune mesure n’est effectuée (la boîte reste fermée), le
chat est dans un état superposé à la fois mort et vivant ! Attention, le chat n’est pas mort-vivant,
il est soit mort, soit vivant, mais tant que la boîte n’est pas ouverte, notre information sur son
état est nécessairement constituée de ces deux possibilités. C’est en l’observant que l’on constate
que le chat est mort ou vivant. Donc, on réduit le paquet d’ondes, en transformant le chat de l’état
1
superposé √ (|vivanti + |morti) à l’état |vivanti ou |morti.
2
Fig. 5.7. Le chat de Schrödinger dans la boîte d’acier. Tant que la boîte reste fermée, le chat est dans un état superposé
mort et vivant.
Achevons ce chapitre, porte d’entrée dans le merveilleux monde quantique, en notant que clas-
siquement, on est habitué à un déterminisme rigide et à la relation de causalité : quand on connaît
les conditions initiales, on sait parfaitement ce qui va se passer.
En théorie quantique, ces certitudes sont remises en question. La possibilité de prévoir le com-
portement d’un système quantique n’est qu’une prédictibilité probabiliste (un seul événement) et
statique (grand nombre d’événements). L’objet quantique est en quelque sorte une juxtaposition
de possibles : on parle d’indéterministe. On dit aussi que Dieu joue pas aux dés en théorie
quantique.
Conclusion 5.3 Etat du chat avant et après la mesure
Tant que la mesure sur un système quantique n’est pas effectuée, ce dernier est dans une
superposition d’états possibles (états propres) et donc, l’état du système n’est pas défini. Par
contre, dès qu’on effectue la mesure, on détruit la superposition quantique (perturbation du
système) et le système est alors dans l’un de ses états possibles.
Sommaire
6.1 Espace des états quantiques . . . . . . . . . . . . . . . . . . . . . . . . . . . . 100
6.1.1 Vecteur d’état et observable . . . . . . . . . . . . . . . . . . . . . . . . 100
6.1.2 Commutateur de deux opérateurs . . . . . . . . . . . . . . . . . . . . . 101
6.1.3 Opérateurs hermitien . . . . . . . . . . . . . . . . . . . . . . . . . . . . 102
6.1.4 Opérateurs de projection . . . . . . . . . . . . . . . . . . . . . . . . . . 103
6.2 ECOC . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 105
6.2.1 Observables qui commutent . . . . . . . . . . . . . . . . . . . . . . . . 105
6.2.2 ECOC . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 107
6.2.3 Mesures expérimentales et ECOC . . . . . . . . . . . . . . . . . . . . . 109
6.3 Postulats de la mécanique quantique . . . . . . . . . . . . . . . . . . . . . . . 110
6.3.1 Postulats fondamentaux . . . . . . . . . . . . . . . . . . . . . . . . . . 110
6.3.2 Opérateur correspondant à une grandeur physique . . . . . . . . . . . . . 110
6.3.3 Probabilité d’obtention d’une valeur propre lors d’une mesure . . . . . . 111
6.3.4 Valeurs moyennes d’une observable . . . . . . . . . . . . . . . . . . . . 113
6.4 Propriétés des observables . . . . . . . . . . . . . . . . . . . . . . . . . . . . 114
6.4.1 Évolution de la valeur moyenne d’une observable . . . . . . . . . . . . . 114
6.4.2 Constante du mouvement . . . . . . . . . . . . . . . . . . . . . . . . . . 115
6.5 Mesure de grandeurs physiques . . . . . . . . . . . . . . . . . . . . . . . . . 116
6.6 Opérateurs d’évolution et états stationnaires . . . . . . . . . . . . . . . . . . 117
6.6.1 Cas des systèmes conservatifs . . . . . . . . . . . . . . . . . . . . . . . 117
102
Chapitre 6. Formalisme de la mécanique quantique 6.1. Espace des états quantiques
Jusqu’ici, nous avons vu la fonction d’onde comme une solution de l’équation de Schrödinger,
permettant de décrire un système physique. Cependant, cette fonction d’onde est exprimée dans
une représentation particulière, on introduit le vecteur d’état qu’on caractérisera par le symbole
| i
Définition 6.1 Vecteur d’état
On appelle vecteur d’état tout vecteur de l’espace de Hilbert permettant de décrire l’état
quantique d’un système indépendamment de la représentation choisie. Un tel vecteur est un
ket du point de vue de Dirac.
Exemple : |ni, |ψi sont deux vecteurs d’états décrivant des systèmes donnés.
Définition 6.2 Espace dual
Soit E, un C-ev, à tout élément |ψi de E, on peut toujours lui associer un élément de l’espace
dual de E (E ∗ ) qu’on notera hψ| et qu’on lira bra de ψ.
• Conventionnellement, on utilisera les lettres majuscules surmonter d’un chapeau pour dési-
gner un opérateur en mécanique quantique.
Ainsi, on pourra avoir Â, B̂, Ĉ, . . . comme opérateurs linéaires. Les matrices associées à ces
opérateurs linéaires pourront être notées A, B,C, . . . , respectivement. Ceci par abus de langage,
on confondra les opérateurs à leurs représentations respectives. Ainsi, toutes les propriétés vues
pour les applications linéaires sont valables pour les opérateurs linéaires. Dans tout le cours de
mécanique quantique, les opérateurs que nous considérerons sont linéaires.
Une propriété importante distingue le produit des nombres de celui des opérateurs.
Comme nous l’avons vu pour les matrices, en général, AB 6= BA.
Définition 6.5 Commutateur de deux opérateurs
[A, B] = AB − BA
Soient A et B deux opérateurs qui commutent. Si |ψi est un vecteur propre de A, alors B|ψi
en est un autre associé à la même valeur propre.
Démonstration
Corollaire 6.1
Si λ est une valeur propre non dégénérée, les deux vecteurs propres |ψi et B|ψi sont
propositionnels. Soit B|ψi = α|ψi. Donc |ψi est également vecteur propre de B.
Corollaire 6.2
Si λ est une valeur propre dégénérée, nous avons vu que toute combinaison linéaire des
vecteurs propres associés à λ forme encore un vecteur propre (En effet, toute combinaison
linéaire α|ψi + β |ψi de vecteurs propres de A associés à une même valeur propre λ est
Théorème 6.1
Toutes les valeurs propres d’un opérateur hermitien sont réels.
Démonstration
Théorème 6.2
Deux vecteurs propres d’un opérateur hermitien, correspondant à des valeurs propres dis-
tinctes, sont orthogonaux entre-eux.
Démonstration
Théorème 6.3
Soient A et B deux opérateurs hermitiens tels que [A, B] = 0 (A et B sont des observables
compatibles). Soient |ψ1 i et |ψ2 i deux vecteurs propres de A associés respectivement à des
vecteurs propres différents , α1 et α2 . Ces vecteurs propres sont orthogonaux entre-eux et
peuvent faire partir d’une base propre. Alors l’élément de matrice hψ1 |Bψ2 i est nul :
hψ1 |B|ψ2 i = 0
Démonstration
En effet, puisque [A, B] = 0, B|ψ2 i ∈ SEP(A, α2 ) = E2 . Si |ψ1 i est un élément d’une base
propre, il est orthogonal aux vecteurs de E2 et par suite, B|ψ2 i est orthogonal à |ψ1 i ⇒
hψ1 |B|ψ2 i = 0
Pφ = |φ ihφ | (6.1)
Soient |ψ1 i, |ψ2 i, . . . , |ψ p i; p vecteurs formant un sous-espace E p de l’espace E des vecteurs d’état.
Montrons que l’opérateur Pp défini par :
p
Pp = ∑ |ψi ihψi | (6.3)
i=1
p
∀|φ i ∈ E Pp |φ i = ∑ |ψi ihψi |φ i (6.4)
i=1
On obtient une combinaison linéaire des vecteurs |ψi i et le vecteur Pp |φ i appartient donc à l’espace
E p ; les kets hψi |φ i|ψi i sont les projections de |φ i sur les divers kets |ψi i. L’opérateur Pp est donc
bien une projection sur le sous-espace E p .
Relation de fermeture
|φ i = ∑ c j |ψ j i (6.5)
j
Théorème 6.4
Si deux observables commutent, elles possèdent un système de vecteurs propres communs
formant une base de l’espace des vecteurs d’état.
Démonstration
(l)
Considérons les vecteurs propres |ϕk i formant une base propre de l’opérateur B ; ces vec-
teurs vérifient la relation :
(l) (l 0 )
hϕk |ϕk0 i = δkk0 δll 0 (6.8)
∞ gk
(l)
En effet, ∀|ψi, |ψi = ∑ ∑ ckl |ϕk i (6.9)
k=0 l=1
∞
Puisque |ψi ∈ E, |ψi = ∑ ak |ϕek i, |ϕek i ∈ sous-espace de E de dimension gk .
k=0
gk ∞ gk
(l) (l)
|ϕek i = ∑ bl |ϕk i =⇒ |ψi = ∑ ∑ ak bl |ϕk i (6.10)
l=1 k=0 l=1
∞ gk
(l)
=⇒ |ψi = ∑ ∑ ckl |ϕk i (6.11)
k=0 l=1
∞ gk
(l)
Soit |ψa i ∈ SEP(A, a), |ψa i = ∑ ∑ ckl |ϕk i
k=0 l=1
gk
(l)
Posons |φk (a)i = ∑ ckl |ϕk i.
l=1
|φk (a)i est un vecteur propre de B relatif à la valeur propre bk . |φk (a)i ∈ SEP(B, bk ). Mon-
trons que les |ψk (a)i sont également vecteurs propres de A. En effet, comme [A, B] =
0, B(A − a)|φk (a)i = (A − a)B|φk (a)i = bk (A − a)|φk (a)i
Les (A − a)|φk (a)i sont donc des vecteurs propres de B, les valeurs propres bk étant toutes
distinctes, ces vecteurs sont linéairement indépendants.
Cependant, on a également :
cette égalité n’est possible que si chacun des vecteurs (A − a)|φk (a)i est nul :
En conséquence, les vecteurs |φk (a)i sont aussi vecteurs propres de A. Les résultats pré-
(l)
cédents s’appliquent à tout vecteur propre |ψn i de A associé à la valeur propre an , de
dégénérescence gn , avec l = 1, . . . , gn . On a la décomposition :
(l) (l)
|ψn i = ∑ |φk (an )i (6.14)
k
(l)
où les |φk (an )i sont des vecteurs propres communs à A et B. Il existe éventuellement plu-
(l)
sieurs vecteurs |φk (an )i, pour un même couple de valeurs propres (an , bn ), qui peuvent
ne pas être linéairement indépendants. Cependant, il est possible de construire une suite de
(q)
vecteurs orthonormés |ηk (an )i correspondant au même couple de valeurs propres tels que
(l)
les vecteurs |φk (an )i soient des combinaisons linéaires de ces vecteurs :
(l) (q)
|φk (an )i = ∑ clq |ηk (an )i (6.15)
q
(q)
L’ensemble {ηk (an )} constitue un système orthonormé de vecteurs communs à A et B. De
(q)
plus, l’ensemble {ηk (an )} est un système total car tout vecteur |ψi est développable en
(q) (l)
série des vecteurs |ηk (an )i. En effet, il suffit de développer |ψi sur la base {|ψn i}, puis
(l)
de transformer chaque |ψn i à l’aide de son développement 6.14 et enfin de substituer aux
(α)
|φk (an )i leur développement 6.15. Le théorème se trouve ainsi démontré, sa réciproque se
démontre également.
Ce théorème s’étend à un nombre quelconque N d’observables qui commutent deux à deux.
Par conséquent, si N observables commutent deux à deux, elles possèdent au moins un
système orthonormé total de vecteurs propres communs et réciproquement.
Observables compatibles
Soient A et B deux observables qui commutent et soient a j et bk des valeurs propres respectives
de A et B. Notons |a j , bk , li les vecteurs formant une base commune de l’espace des états ; l’indice
l spécifie les différents vecteurs correspondant à un même couple (a j , bk ). L’état |a j , bk , li étant
associé à la valeur propre a j de A, il existe au moins un état pour lequel une mesure de A permettra
d’obtenir la valeur a j . Pour ce même état, une mesure de B permettra d’obtenir la valeur bk . Si l’on
effectue simultanément une mesure de A et B, on peut, dans ce cas, obtenir des valeurs parfaitement
déterminées. Lorsqu’il en est ainsi, on dit que ces observables sont compatibles
Lorsque deux observables ne commutent pas, elles ne pourront pas avoir de base commune et
un état ne pourra pas être un vecteur propre simultané de ces deux observables, sauf éventuellement
pour quelques vecteurs particuliers. On dira que ces observables sont incompatibles.
6.2.2 ECOC
La notion d’ECOC est importante en mécanique quantique car elle correspond à l’idée que, pour
un système donné, on a trouvé un ensemble d’observables dont les valeurs et les vecteurs propres
spécifient toutes les grandeurs expérimentales mesurables, pour une technique de mesure donnée.
Principe 6.1
• Considérons une observable A agissant dans E et une base propre de A. Lorsque au-
cune des vecteurs propres de A n’est dégénérée, cette base propre est unique. On dit
alors que l’observable A constitue , à elle seule, un ECOC.
• Supposons à présent que l’observable A ait un spectre dont l’une au moins des vecteurs
propres soit dégénérée. Notons a cette valeur propre dégénérée et Ea = SEP(A, a). On
peut choisir à l’intérieur de Ea une base quelconque et la base propre de A n’est plus
unique.
Soit alors B une autre observable qui commute avec A. On peut former une b.o.n de
vecteurs propre communs à A et B puisque nous en avons démontré l’existence. Si
cette base est unique, c’est-à-dire si à chacun des couples des valeurs propres (a j , bk )
il correspond un seul vecteur de base de E, on dit alors que les observables A et B
forment un ECOC.
Principe 6.2
De manière générale, des observables A, B, . . . , M forment un ECOC si et seulement si :
Remarquons que pour un système physique donné, on peut choisir plusieurs ECOC différents.
En particulier, on peut ajouter d’autres observables qui commutent avec ceux d’un ECOC ; on ob-
tient alors un autre ECOC. On utilisera généralement le nombre minimal d’observables permettant
de former un ECOC.
Exemple 6.1 ECOC
On considère un système physique dont l’espace des états, qui est à trois dimensions, est
rapporté à la base orthonormée formée par les trois kets |ϕ1 i, |ϕ2 i, |ϕ3 i. Dans la base B =
(|ϕ1 i, |ϕ2 i, |ϕ3 i), les opérateurs H et B sont définis par :
1 0 0 1 0 0
H = h̄ωo 0 −1 0 , B = b 0 0 1
7 0 −1 0 1 0
1. H et B sont-ils hermitiques ?
3. Parmi les ensembles d’opérateurs :{H}, {B}, {H, B}, {H 2 , B}, lesquels forment un
ECOC ?
Solution
1
|p2 i = √ (|ϕ2 i + |ϕ3 i) (valeur propre + b)
2
1
|p3 i = √ (|ϕ2 i − |ϕ3 i) (valeur propre − b)
2
Ces vecteurs sont systématiquement les vecteurs propres de H, puisque E2 est un sous-
espace propre de H correspondant à la valeur propre −h̄ω0 . En résumé, les vecteurs
propres communs à H et B sont donnés par
Vecteurs propres valeurs propres de H valeurs propres de B
|p1 i = |ϕ1 i h̄ω0 b
1
|p2 i = √ (|ϕ2 i + |ϕ3 i) −h̄ω0 b
2
1
|p3 i = √ (|ϕ2 i − |ϕ3 i) −h̄ω0 −b
2
3. On voit sur le tableau que H a une valeur propre dégénérée deux fois ; ce n’est donc
pas un ECOC. De même, B a aussi une valeur propre dégénérée deux fois, et n’est
donc pas un ECOC : un vecteur propre de B de valeur propre b peut être aussi bien
1 1 1
|p1 i, ou |p2 i, ou encore √ (|ϕ1 i + √ |ϕ2 i − √ |ϕ3 i) par exemple. Par contre, l’en-
3 3 3
semble des deux opérateurs H et B constitue, lui, un ECOC. En effet, dans le tableau
écrit plus haut, il n y a pas deux vecteurs |p j i qui aient les mêmes valeurs propres,
à la fois pour H et B. C’est pourquoi, comme cela a déjà été signalé, le système
de vecteurs propres normés communs à H et B est unique (à des facteurs de phase
près). Remarquons que, à l’intérieur du sous-espace propre E2 de H associé à la va-
leur propre −h̄ω0 , les valeurs propres de B sont distinctes (b et −b) : de même, dans
le sous-espace propre de B engendré par |p1 i et |p2 i, les valeurs propres de H sont
distinctes (h̄ω0 et −h̄ω0 ).
H 2 admet |p1 i, |p2 i, et |p3 i comme vecteurs propres, avec la valeur propre h̄2 ω02 , on
voit aisément que H 2 et B ne constituent pas un ECOC, puisqu’au couple de valeurs
propres {h̄2 ω02 , b} correspondent deux vecteurs propres linéairement, indépendants,
|p1 i et |p2 i.
Les grandeurs physiques représentées par les observables d’un ECOC peuvent être toutes mesurées
simultanément avec précision et forment un ensemble complet de grandeurs compatibles. Le
vecteur d’état du système est un vecteur propre des observables A, B, . . . , M correspondant aux
valeurs propres a, b, . . . , m, trouvées lors de l’opération de mesure. Comme il n’existe qu’un seul
vecteur propre possédant cette propriété, la donnée de ces mesures définit complètement de vecteur
d’état du système physique.
L’état quantique d’une particule peut être caractérisé par un vecteur d’état |ψi du C-ev E. On
postule qu’il en est de même pour tout système quantique.
Postulat 6.1
A tout instant t, l’état d’un système quantique est décrit par un vecteur d’état |ψ(t)i appar-
tenant au C-ev des états quantiques.
Outre l’énergie des particules qui figure dans l’équation de Schrödinger, des grandeurs physiques
comme l’impulsion, le moment cinétique, ... peuvent être définies en mécanique quantique. Nous
avons vu, par exemple, qu’à l’impulsion classique p, on fait correspondre −ih̄∇, à l’énergie, l’opé-
rateur hamiltonien. Cette règle de correspondance se généralise.
Postulat 6.2
A toute grandeur physique mesurable A n on peut faire correspondre un opérateur A qui agit
sur les vecteurs d’états de l’espace E, cet opérateur est une observable.
L’équation de Schrödinger H|ψi = E|ψi est une équation dont les énergies E sont les valeurs
propres de l’opérateur H. De même, toutes les grandeurs physiques mesurables vont être des vec-
teurs propres de l’opérateur correspondant. La mesure d’une grandeur physique étant nécessaire-
ment un nombre réel, l’opérateur correspondant doit être hermitien.
Ainsi, une observable est tout opérateur hermitique (hermitien) associé à une grandeur phy-
sique mesurable.
Postulat 6.3
Les vecteurs propres de l’observable A, correspondant à une grandeur physique, sont les
seules valeurs mesurables.
Postulat 6.4
L’opérateur hamiltonien H(t) d’un système est une observable associée à l’énergie totale de
ce système. L’évolution dans le temps du vecteur d’état |ψ(t)i est régie par l’équation de
Schrödinger :
d
H(t)|ψ(t)i = ih̄ |ψ(t)i (6.16)
dt
Construction de l’opérateur hamiltonien Dans le cas d’une particule de masse m dans un po-
tentiel scalaire, l’hamiltonien classique s’écrit :
p2
H= +V (r). (6.17)
2m
L’hamiltonien correspondant agissant dans l’espace des vecteurs d’état s’écrit alors :
P2
H= +V (R) (6.18)
2m
Mesure de l’énergie
Considérons un système qui se trouve dans un état quelconque décrit par le vecteur |ψi normé.
Notons les vecteurs propres orthonormés de l’hamiltonien du système, correspondant aux états
stationnaires de celui-ci, associés aux vecteurs propres En , non dégénérées. Le vecteur |ψi peut
s’écrire sur la base (|un i)n :
|ψi = ∑ cn |un i (6.19)
n
Dans un état stationnaire, l’énergie En du système est donnée par l’élément matriciel suivant de
H:
En = hun |H|un i (6.20)
Cherchons à présent le sens physique qu’il faut attribuer à un élément du même type pour un
système dans un état non stationnaire, c’est-à-dire :
W = hψ|H|ψi (6.21)
W = h∑ cn un |H| ∑ c j u j i = ∑ ∑ c∗n c j hun |u j i (6.22)
n j n j
= ∑ |cn|2En (6.23)
n
Selon le postulat 1.3 les seules valeurs mesurables sont les valeurs En . Or si l’on effectue un grand
nombre N de mesures de l’énergie sur un système dans un état quelconque |ψi, on obtiendra un
certain nombre de fois , n j , la valeur E j . Lorsque N → ∞, le rapport n j /N tend vers la probabilité
théorique P(E j ) d’obtenir la valeur E j lors d’une mesure, soit :
nj
P(E j ) ' (6.24)
N
Or, la valeur moyenne, hWexp i, des valeurs obtenus à partir de ces nombres est la somme des valeurs
expérimentales divisée par N, soit
1
hWexp i = n j En ' ∑ P(E j )E j (6.25)
N∑j j
On voit donc que W peut être interprété comme une valeur moyenne de l’énergie en considérant
|2
|cn comme la probabilité d’obtenir pour résultat En lors d’une mesure. Cette interprétation est
confortée par le fait que la somme des probabilités est bien égale à l’unité, puisque :
L’interprétation précédente des quantités |cn |2 peut être étendue à toutes les observables. Considé-
rons une observable A dont le spectre ne comporte que de valeurs propres an non dégénérées et
soit |un i le vecteur propre normé associé à an . L’ensemble des vecteurs d’état |un i forme une base
orthonormée du C-ev E. Ainsi,
Comme on l’a fait pour l’énergie, on postule que |cn |2 représente la probabilité, notée P(an ), d’ob-
tenir la valeur propre an comme résultat d’une mesure de la grandeur physique A à laquelle cor-
respond l’observable A.
Postulat 6.5
Soit A une grandeur physique d’un système quantique et A l’observable correspondante
dont le spectre ne comporte que de valeurs propres non dégénérées an associées aux vecteurs
propres orthonormés |un i. Lorsqu’on mesure A sur le système dans l’état quelconque |ψi
de norme unité, la probabilité P(an ) d’obtenir comme résultat de mesure an est donnée par :
Dans le cas d’un système d’un spectre comportant des vecteurs propres an dégénérées gn fois, il
correspond à chaque valeur propre gn vecteurs propres orthonormés |ukn i, k = 1, 2, . . . , gn . Ainsi,
|ψi ∈ E peut être développé sur la base orthonormée (|ukn i)n,k sous la forme :
gn
|ψi = ∑ ∑ ckn |ukn i (6.29)
n k=1
gn
P(an ) = ∑ |ckn|2 (6.30)
k=1
Postulat 6.6
Soit A une grandeur physique d’un système et A l’observable correspondante ; soit an une
vecteur propre de A dégénérée gn fois et associée aux vecteurs propres orthonormés |ukn i.
Lorsqu’on mesure A sur le système dans l’état |ψi de norme unité, la probabilité P(an )
d’obtenir comme résultat de mesure an est donnée par :
gn
P(an ) = ∑ |hukn|ψi|2 (6.31)
k=1
Les postulats 1.5 et 1.6 ont été obtenus en généralisant le raisonnement effectué sur la valeur
moyenne de l’énergie donnée par 6.23. Réciproquement, partant des postulats 5 et 6, on doit re-
trouver, pour une observable quelconque A, une expression analogue à 6.23 pour la valeur moyenne
de A.
Définition 6.6 Valeur moyenne d’une observable
Considérons un système quantique dans un état quelconque normé |ψi. La valeur moyenne,
notée hAiψ , d’une observable A dans l’état |ψi est donnée par :
gn gn
=⇒ hAiψ = ∑ ∑ |hukn|ψ|2an = ∑ ∑ hψ|anuknihukn|ψi
n k=1 n k=1
gn
= ∑ ∑ hψ|A|uknihukn|ψi
n k=1
!
gn
= hψ|A ∑ ∑ |uknihukn| |ψi
n k=1
Donc
hAiψ = hψ|A|ψi (6.33)
Considérons un système dans un état |ψ(t)i, dont la norme est unité à l’instant t = 0, c’est-à-dire :
hψ(0)|ψ(0)i = 1 (6.34)
et soit A(t) une observable associée à une grandeur physique A (t), soit :
supposons que la valeur moyenne hAi dépende du temps, ce qu’on note hAi(t) ; on a :
cette valeur moyenne dépend du temps parce que le vecteur |ψ(t)i en dépend mais aussi éventuel-
lement l’opérateur A(t). Dérivons l’expression 6.36 par rapport à t ; il vient :
d d ∂A d
hAi(t) = hψ| A|ψi + hψ| |ψi + hψ|A |ψi (6.37)
dt dt ∂t dt
d i i
Or |ψi = − H(t)|ψi = − |H(t)ψi (6.38)
dt h̄ h̄
d i
=⇒ hψ| = hψ|H(t) (6.39)
dt h̄
Ainsi, pour A = I, on a :
d i i
hψ(t)|ψ(t)i = hψ(t)|H|ψ(t)i − hψ(t)|H|ψ(t)i = 0 (6.40)
dt h̄ h̄
Conclusion 6.1
On en déduit que la norme de l’état du système reste indépendante du temps. Cela signifie
que, lorsqu’à l’instant zéro le vecteur d’état |ψi du système est normalisé à l’unité, son état
|ψ(t)i conserve à tout instant sa norme, justifiant ainsi la conservation de la probabilité de
présence totale.
d i ∂A
hAi(t) = − hψ|(AH − HA)|ψi + |ψi hψ| (6.41)
dt h̄ ∂t
d i ∂A
Donc hAi(t) = − h[A(t), H(t)]i + h i(t) (6.42)
dt h̄ ∂t
∂A
h i(t) = 0, h[A(t), H(t)]i = 0 (6.44)
∂t
d
=⇒ hAi(t) = 0 (6.45)
dt
Dans ce cas, quelque soit l’état |ψi du système, la valeur moyenne de A dans cet état n’évo-
lue pas au cours du temps. Lorsqu’il en est ainsi, on dit que l’observable A est une constante
du mouvement.
avec an une valeur propre de A ou valeur résultant d’une mesure idéale faite sur A .
Si la mesure d’une grandeur physique A sur le système dans l’état |ψi donne le résultat an ,
l’état du système immédiatement après la mesure est |ϕn i défini par :
Pn |ψi Pn |ψi
|ϕn i = =p (6.47)
||Pn |ψi|| hψ|Pn |ψi
|ϕn i est donc la projection normée de |ψi sur le sous-espace propre associé à an . Donc la
mesure est une projection orthogonale.
Exercice 6.1
A system is in the state
1 √
|ψi = √ 2|u1 i + 2|u2 i + |u3 i + 2|u4 i + 6|u5 i (6.48)
19
where {|un i}n=1−5 are a complete and orthogonal set of vectors. Each |un i is an eigenstate of
the system’s Hamiltonian corresponding to the possible measurement result H|un i = n ε|un i
d
H −→ ih̄ (6.49)
dt
Nous supposons pour simplifier, le spectre de H discret. τ désigne l’ensemble des indices autres
que n qui sont nécessaires, pour caractériser un vecteur |ϕn,τ i unique (ces indices repéreront au
général les valeurs propres d’opérateurs formant avec H un ECOC) comme par hypothèse H ne
dépend pas explicitement du temps, t n’intervient ni dans la valeur propre En , ni dans le ket propre
|ϕn i.
Nous allons montrer tout d’abord que la connaissance des En et des |ϕn,τ i permet de résoudre
très simplement l’équation de Schrödinger, c’est-à-dire de déterminer l’évolution au cours du
temps d’un état quelconque. En effet, les |ϕn,τ i formant une base (H est une observable) de l’es-
pace des états du système, on peut toujours, pour chaque valeur de t, développer un état |ψ(t)i
quelconque du système sur les |ϕn,τ i :
|ϕn,τ i. Il vient :
d
ih̄ hϕn,τ |ψ(t)i = hϕn,τ |H|ψ(t)i (6.52)
dt
d
=⇒ ih̄ cn,τ (t) = En cn,τ (t) (6.53)
dt
Pour trouver |ψ(t)i, connaissant |ψ(t0 )i, on procède donc comme suit :
Principe 6.4 Détermination de l’évolution d’un état quantique au cours du temps
|ψ(t0 )i = ∑ ∑ cn,τ (t0 )|ψ(t)i, cn,τ (t0 ) = hϕn,τ |ψ(t0 )i; (6.55)
n τ
2. On obtient alors |ψ(t)i, pour t quelconque, en multipliant chaque coefficient cn,τ (t0 )
du développement précédent par e−iEn (t−t0 )/h̄ . En étant la valeur propre de H associée
à l’état |ϕn,τ i :
|ψ(t)i = ∑ ∑ cn,τ (t0 )e−i En (t−t0 )/h̄ |ϕn,τ i. (6.56)
n τ
Etats stationnaires
un cas particulier important est celui où |ψ(t0 )i lui-même est état propre de H :
|ψ(t)i et |ψ(t0 )i ne différent donc l’un de l’autre que par le facteur de phase e−iEn (t−t0 )/h̄ . Ces
deux états sont physiquement indiscernables.
Nous en concluons que toutes les propriétés physiques d’un système qui se trouve dans
un état propre de H ne varient pas au cours du temps, les états propres de H sont ainsi
appelés états stationnaires.
hAiψ(t) = heiEn (t−t0 )/h̄ ψ(t0 )|A|e−iEn (t−t0 )/h̄ ψ(t0 )i (6.61)
= hψ(t0 )|A|ψ(t0 )i = hAiψ(t0 ) (6.62)
Nous avons vu qu’on appelle constante du mouvement, une observable A qui ne dépend pas
explicitement du temps et qui commute avec H :
∂A
= 0
∂t (6.63)
[A, H] = 0
• Comme A et H sont deux observables qui commutent, on peut toujours leur trouver un sys-
tème de vecteurs propres communs, que nous désignerons par (|ϕn,p,τ i) :
Nous supposons pour simplifier les spectres de H et A discrets, l’indice τ repère les valeurs
propres d’observables qui forment un ECOC avec H et A. Les états |ϕn,p,τ i étant états propres
de H, sont états stationnaires. Si le système est, à l’instant initial, dans l’état |ϕn,p,τ i, il y
demeurera donc indéfiniment (à un facteur de phase global près). Mais l’état |ϕn,p,τ i est
également état propre de A ; lorsque A est une constante du mouvement, il existe donc des
états stationnaires du système physique (les états|ϕn,p,τ i) qui demeurent toujours, quelque
soit t, états propres de A avec la même valeur propre (a p ). Les valeurs propres de A sont
appelées pour cette raison de bons nombres quantiques.
Proposition 6.2
Montrons enfin que, pour un état |ψ(t)i quelconque, la probabilité de trouver la valeur
propre a p , lorsqu’on mesure la constante du mouvement A, ne dépend pas du temps.
Démonstration
En effet, on peut toujours développer |ψ(t0 )i sur la base (|ϕn,p,τ i) introduite plus haut :
De même
P(a p ,t) = ∑ ∑ |cn,p,τ (t)|2 = P(a p ,t0 ) (6.70)
n τ
Remarque 6.1
Pour déterminer l’état ψ(t) d’un système à un instant t ultérieur, connaissant son état ψ(t0 )
à l’instant t0 , on peut définir l’opérateur d’évolution par
Puis on écrit : |ψ(t)i = U(t − t0 )|ψ(t0 )i. Ainsi, il serait plus aisée de décomposer |ψ(t0 )i
dans la base propre du Hamiltonien H afin de faire agir U simplement. En effet, si H|ϕn i =
En |ϕn i, on peut trouver les cn ∈ C/ |ψ(t0 )i = ∑n cn |ϕn i
=⇒ |ψ(t − t0 )i = ∑ cn e−iEn (t−t0 )/h̄ |ϕn i
n
Il existe donc des dispersions ou écarts quadratiques moyens des mesures effectuées à partir d’un
état initial |ψi arbitraire :
q q
Mψ A = hA iψ − hAiψ = h(A − hAiψ I)2 iψ
2 2 (6.73)
Nous Considérons que nous pouvons écrire : [A, B] = iC avec C† = C. Considérons les opéra-
teurs hermitiens P et Q de valeur moyenne nulle, définis par :
1
Mψ A. Mψ B ≥ |hCiψ | (6.78)
2
qui est l’inégalité de Heisenberg.
REPRÉSENTATIONS PARTICULIÈRES
Sommaire
7.1 Distribution de Dirac et fonction δ . . . . . . . . . . . . . . . . . . . . . . . . 123
7.1.1 Fonctions tendant vers une fonction δ . . . . . . . . . . . . . . . . . . . 124
7.2 Transformation de Fourier . . . . . . . . . . . . . . . . . . . . . . . . . . . . 125
7.2.1 Propriétés de la transformation de Fourier . . . . . . . . . . . . . . . . . 128
7.2.2 Convolution et transformation de Fourier . . . . . . . . . . . . . . . . . 129
7.2.3 Forme intégrale de la fonction δ . . . . . . . . . . . . . . . . . . . . . . 130
7.3 représentation |αi . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 131
Dans le chapitre précédent, nous avons étudié le vecteurs d’état qui permet de caractériser un
système physique indépendamment de la base (représentation) choisie. De même, nous avons éta-
bli les postulats fondamentaux de la mécanique quantique indépendamment d’une représentation
donnée. Ceci montre que les résultats issus du chapitre précédent sont indépendants de la repré-
sentation choisie et sont généraux. Dans ce chapitre, on se propose de réécrire quelques postulats
et d’établir quelques résultats dans des représentations particulières. parlant de représentation, on
considérera :
• la représentation α
• la représentation r
• la représentation p
Pour que les choses soient très claires, nous Rappellerons la transformation de Fourier en pas-
sant par les fonctions tendant vers la fonction δ
125
Chapitre 7. Représentations particulières 7.1. Distribution de Dirac et fonction δ
Z+∞
• F(x)δ (x − x0 ) dx = F(x0 )
−∞
Z+∞
• F(x)δ (x) dx = F(0)
−∞
• δ (x) = δ (−x)
Z
• F(r) δ (r − r0 ) dr = F(r0 )
V
• δ ∗ (x) = δ (x)
On se propose de montrer que gε tend vers une fonction δ lorsque ε → 0. Pour cela, on montera
R∞
que : lim −∞ F(x)gε (x) dx = F(0)
ε→0
En effet,
1 1
Z ∞ Z ε/2 Z ε/2
I = lim F(x)gε (x)dx = lim F(x) dx = lim F(x)dx
ε→0 −∞ ε→0 −ε/2 ε ε→0 ε −ε/2
En posant x = εu, on a :
Z 1/2 Z 1/2
I = lim F(εu)du = F(0) = du = F(0)
u→0 −1/2 −1/2
1 2 2
gσ (x) = √ e−x /2σ (7.1)
σ 2π
On a :
1
Z ∞ Z ∞
u=x/σ 2 /2
I = lim F(x)gσ (x)dx = √ f (σ u)e−u du (7.2)
ε→0 −∞ 2π −∞
1
Z ∞
2 /2
= √ f (0) e−u du = f (0) (7.3)
2π −∞
Ainsi, la transformée de Fourier inverse notée F −1 appliquée à fˆ, permet (sous conditions
appropriées) de retrouver f à partir des données fréquentielles :
1
Z ∞
−1
f (x) = F fˆ(x) = fˆ(ξ )eiξ x dx. (7.5)
2π −∞
Ainsi, pour des raisons de symétries, les physiciens préfèrent noter F et F −1 avec le même
1
facteur multiplicatif √ . En prenant ξ = k ≡module d’un vecteur d’onde, on a : les définitions
2π
suivantes que nous adoptons en physique.
Définition 7.6 Transformation de Fourier entre espace des positions et espace des vecteurs
d’ondes
1 ∞ Z
F ( f )(k) = √ f (x) e−ikx dx = fˆ(k) (7.6)
2π −∞
1
Z ∞
F −1 ( f )(x) = √ fˆ(k) eikx dk = f (x) (7.7)
2π −∞
Définition 7.7 Transformation de Fourier entre espace des positions et espace des vecteurs
d’ondes
1
·
Z
fˆ(k) = 3/2
f (r)e−ik r d 3 r (7.8)
(2π) V
1
·
Z
f (r) = 3/2
fˆ(k)eik r d 3 k (7.9)
(2π) Ω
Exemple 7.1
1 2 2
Soit f (x) = √ e−x /2σ , calculons fˆ(k).
σ 2π
1
Z ∞
fˆ(k) = √ f (x)e−i k x dx (7.10)
2π −∞
x2
1 1 − −i k x
Z ∞
= √ √ e 2σ 2 dx (7.11)
2π −∞ σ 2π
1 2 2
= √ e−k σ /2 (7.12)
2π
Conclusion 7.1
Donc la transformée de Fourier d’une gaussienne de dispersion σ est une gaussienne
de dispersion inverse (1/σ ).
Z ∞ − u+i pσ
2
Calcul de I = e h̄ du
−∞
Z R − x+i pσ
2
I = lim e h̄ dx (7.13)
R→+∞ −R
Z
2
= lim e−z dz car sur Γ3 , z = x + ipσ /h̄, avec x variant de R à − R(7.14)
R→+∞ Γ3
Z ∞ −(x+i pσ )2 Z Z +∞
−z2 −x2 2
e h̄ dx = lim e dz = lim e dx = e−x dx = I
−∞ R→+∞ Γ1 R→+∞ −∞
Z +∞ Z +∞ Z Z +∞ Z 2π Z ∞
−x2 −y2 −x2 −y2 2
2
I = e dx e dy = e dxdy = re−r dr = π
−∞ −∞ −∞ 0 0
Z +∞
2 √
=⇒ I = e−x dx = π
−∞
1 2 2 1 2 2 2
ψ(x) = √ e−x /2σ ⇐⇒ ψ(p) = √ e−p σ /2h̄ (7.15)
σ 2π 2π h̄
Démonstration
Z ∞
ˆf1 ∗ (k) fˆ2 (k)dk = √1
Z ∞ Z ∞
ˆf1 ∗ (k) f2 (x)e−ikx
dx dk (7.17)
−∞ 2π −∞ −∞
1
Z ∞ Z ∞
∗
= √ f2 (x)dx fˆ1 (k)e−ikx dk (7.18)
2π −∞ −∞
Z ∞
= f2 (x) f1∗ (x)dx (7.19)
−∞
Corollaire 7.1
=⇒ h fˆ1 | fˆ2 i = h f1 | f2 i
=⇒ || f || = || fˆ||
Conclusion 7.2
On dira que la transformée de Fourier conserve le produit scalaire et la norme : c’est donc
une isométrie
• Par définition, x et ξ ont des dimensions inverses. En physique, lorsque x représente la posi-
tion (longueur), ξ = k et représente la norme d’un vecteur d’onde dont la dimension est bien
inverse à celle d’une longueur. Lorsque x = t, ξ = ω qui a bien les dimensions de l’inverse
d’un temps.
• autres exemples
a 1
f (x) = , a>0
π x2 + a2
Sa transformée de Fourier est une fonction "en toile de tente" (non dérivable en k = 0) :
1
fˆ(k) = √ e−a|k|
2π
Z ∞Z ∞
F [ f ∗ g] = e−ikx f (u)g(x − u) dx du
Z−∞ −∞
∞ Z ∞
= e−ik(u+v) f (u)g(v) du dv
Z−∞
∞
−∞
Z ∞
−iku
= e f (u) du e−ikv f (v) dv
−∞ −∞
⇒ F [ f ∗ g] = F [ f ]F [g] (7.21)
Bien entendu, dans cette démonstration, nous avons utilisé la définition intrinsèque de la transfor-
mée de Fourier.
1 ∞ 1
Z
2 2
δ (x) = lim √ √ e−k σ /2 eikx dk (7.22)
σ →0 2π −∞ 2π
1 ∞ ikx
Z
= e dk (7.23)
2π −∞
1 ∞ ikx
Z
δ (x) = e dk (7.24)
2π −∞
1 ∞ ik(x−x0 )
Z
δ (x − x0 ) = e dk (7.25)
2π −∞
1
·
Z
δ (r − r0 ) = ei k (r−0 ) d 3 k (7.26)
(2π)3 Vk
1
·
Z
δ (r) = 3
ei k r d 3 k (7.27)
(2π) Vk
δ (r − r0 ) = δ (x − x0 ) δ (y − y0 ) δ (z − z0 ) (7.28)
Cas où ξ = p
Dans le cas où l’espace réciproque est l’espace des impulsions, on a : p = h̄k. D’après ce qui
précède, on a :
1 ∞ Z
ψ(x) = √ eikx ψ̂(k)dk (7.29)
2π −∞
1 p
Z ∞
= √ eipx/h̄ ψ̂( )d p (7.30)
h̄ 2π −∞ h̄
1 ∞
Z
ψ(x) = √ eipx/h̄ ϕ(p) d p (7.32)
2π h̄ −∞
1
Z ∞
ϕ(p) = √ e−ipx/h̄ ψ(x) dx (7.33)
2π h̄ −∞
1
Z
ψ(r) = 3/2
eip.r/h̄ ϕ(p) d 3 p (7.34)
(2π h̄) Vp
1
Z
ϕ(p) = 3/2
e−ip.r/h̄ ψ(p) d 3 r (7.35)
(2π h̄) V
En dimension n quelconque, on a :
1
Z
ψ(r) = eip.r/h̄ ψ(p) d n p (7.36)
(2π h̄)n/2 v
1
Z
ψ(p) = e−ip.r/h̄ ψ(p) d n r (7.37)
(2π h̄)n/2 V
r = (r1 , . . . , rn ); p = (p1 , . . . , pn )
hα|β i = δ (α − β ) (7.38)
Remarquons que cette basse n’est pas normée, puisque hα|αi n’est pas définie ;
Z
• |ψi = ∑ |ui i ⇐⇒ |ψi = c(α)|αidα
i
Ainsi, on a :
Z
|ψi = hα|ψi|αidα (7.39)
Z
= |αihα|ψidα (7.40)
Z
=⇒ |αihα|dα = In (Relation de fermeture pour une base continue) (7.41)