08-Déterminants MPSI 2023-2024 Lizdihar

Télécharger au format pdf ou txt
Télécharger au format pdf ou txt
Vous êtes sur la page 1sur 29

Notes de cours: Déterminants

Par Abdellah Lizdihar. [email protected]


Date de la dernière modification:
28 mai 2024

Table des matières


1 Formes n-linéaires alternées 2
1.1 Définition général d’une application n-linéaire . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2
1.2 Forme n-linéaire alternée - Forme n-linéaire antisymétrique . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2

2 Déterminant dans à une base d’un espace vectoriel de dimension finie 3


2.1 Les déterminants comme étant des formes n-linéaires alternées . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4
2.2 Effet de changement de bases - Relation de Chasles . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
2.3 Interprétation géométrique des déterminants . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6
2.4 Orientation d’un espace vectoriel réel de dimension finie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7

3 Déterminant des endomorphismes des espaces de dimensions finies 7


3.1 La définition utilisant le déterminant d’une famille dans une base . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7
3.2 Déterminant d’un composé d’endomorphismes d’un espace de dimension finie . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8
3.3 Caractéristique d’un automorphisme d’un espace de dimension finie par déterminant . . . . . . . . . . . . . . . . . . . . . . . . 8

4 Déterminant des matrices carrées 9


4.1 Formule de Leibniz du déterminant d’une matrice carrée . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9
4.2 Lien du déterminant des matrices carrées avec le déterminant des endomorphismes . . . . . . . . . . . . . . . . . . . . . . . . . 10
4.3 Déterminant de la transposée d’une matrice . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10
4.4 Déterminant du produit de matrices carrées . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11
4.5 Caractéristique de l’inversibilité d’une matrice par déterminant . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11
4.6 Effets des opérations élémentaires sur le déterminant d’une matrice . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12

5 Déterminant des matrices particulières 13


5.1 Déterminant des matrices triangulaires et diagonales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13
5.2 Déterminant des matrices élémentaires . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13
5.3 Effet des produits par des matrices élémentaires sur les déterminants . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15

6 Formule en développant par rapport à une ligne ou une colonne 16


6.1 Mineurs et cofacteurs d’une matrice . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16
6.2 Comatrice d’une matrice - Relation de Laplace - Formule de l’inverse d’une matrice . . . . . . . . . . . . . . . . . . . . . . . . . 18

7 Formule de la solution d’un système de Cramer 19

8 Déterminant des matrices triangulaires ou diagonales par blocs 20

9 Caractéristique du rang des matrices à l’aide des déterminants 21

10 Deux déterminants classiques usuels 26


10.1 Déterminants de Vandermonde - Lien avec problème d’interpolation polynômiale . . . . . . . . . . . . . . . . . . . . . . . . . . 26
10.2 Déterminants de Cauchy - Lien avec problème d’interpolation fractionnelle . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27

1
CPGE Tétouan - MPSI Notes de cours: Déterminants 2023-2024

Dans toute la suite, K est l’un des corps R ou C. n désigne toujour un entier⩾ 1 et l’ensemble Sn désigne
l’ensemble des permutations de l’intervalle discret J1, nK.

1 Formes n-linéaires alternées

1.1 Définition général d’une application n-linéaire

Définition 1 (Application n-linéaire)


Soit Soit E1 , . . . , En et F des K-espaces vectoriels. Une application Φ : E1 × · · · × En −→ F est dite n-linéaire si à
Y
chaque fois qu’on fixe un k ∈ J1, nK, et une famille de (n − 1) points : X = (xi )i∈J1,nK\{k} ∈ Ek , l’application
i∈J1,nK\{k}

 E
k −→ F
ΦX : est linéaire.
 x 7 → ΦX (x) = Φ (x1 , . . . , xk−1 , x, xk+1 , . . . , xn )

Elle est dite une forme n-linéaire si de plus F = K.

Dans toute la suite, on va s’interesser au cas où E1 = · · · = En égale à un K espace vectoriel E et F = K.

1.2 Forme n-linéaire alternée - Forme n-linéaire antisymétrique

Définition 2 (Forme n-linéaire alternée et antisymétrique)


Soit f : E n −→ K une forme n-linéaire.
— Φ est dite alternée sur E si pour tout (x1 , . . . , xn ) ∈ E n non deux à deux distincts, on a Φ (x1 , . . . , xn ) = 0.
— Φ est dite antisymétrique sur E si :
n
∀ (xk )k=1 ∈ E n , ∀i, j ∈ J1, nK : ”i < j =⇒ Φ (x1 , . . . , xi , . . . , xj , . . . , xn ) = −Φ (x1 , . . . , xj , . . . , xi , . . . , xn ) ”.

Remarque 1 (Antisymétrie en utilisant les transpositions)


Φ est antisymétrique sur E signifie en d’autres termes que pour toute transposition τ de J1, nK, on a :

Φ xτ (1) , . . . , xτ (n) = −Φ (x1 , . . . , xn ) = ε(τ )Φ (x1 , . . . , xn ), où ε est l’application signature.

Proposition 1 (Equivalence entre alternance et et antisymétrie)


Soit Φ : E n −→ K une forme n-linéaire. Les propositions suivantes sont équivalentes :
(i) Φ est alternée sur E.
(ii) Φ est antisymétrique sur E.

(iii) ∀σ ∈ Sn , ∀ (x1 , . . . , xn ) ∈ E n : Φ xσ(1) , . . . , xσ(n) = ε(σ)Φ (x1 , . . . , xn ).

Preuve :
− Pour (iii) =⇒ (ii) : Voir qu’une transposition est une permutation et utiliser la remarque 1.
− Pour (ii) =⇒ (iii) : Si σ permutation de J1, nK, alors il existe des transpositions τ1 , . . . , τm telles que σ = τm ◦ · · · ◦ τ1 . Vérifier
ensuite(récurrence sur k ∈ J1, mK) que : ∀ (x1 , . . . , xn ) ∈ E n , Φ x(τk ◦···◦τ1 )(1) , . . . , x(τk ◦···◦τ1 )(n) = (−1)k Φ (x1 , . . . , xn ).


Dans l’étape héridité, après fixer (x1 , . . . , xn ) ∈ E n et pour simplifier, adopter la notation :

(y1 , . . . , yn ) = xτk+1 (1) , . . . , xτk+1 (n) (càd : ∀j = 1, . . . , n, yj = xτk+1 (j) ) et appliquer l’hypothèse de récurrence à ce n-uplet.
Attention aux indixations ! N’écrivez pas :
 
Φ xτk+1 ((τk ◦···◦τ1 )(1)) , . . . , xτk+1 ((τk ◦···◦τ1 )(n)) = −Φ x(τk ◦···◦τ1 )(1) , . . . , x(τk ◦···◦τ1 )(n) . Pourquoi ?
− Pour (i) =⇒ (ii) : Soit (i, j) ∈ J1, nK2 tel que i < j et (xk )n n
k=1 ∈ E .

Φ alternée implique Φ (x1 , . . . , xi−1 , xi + xj , , xi+1 . . . , xj−1 , xi + xj , xj+1 , . . . , xn ) = 0. Développer ceci en appliquant la
linéarité par rapport à chacune des composantes de rang i et j. Puis utiliser deux fois l’alternance de Φ pour obtenir :
Φ (x1 , . . . , xi , . . . , xj , . . . , xn ) = −Φ (x1 , . . . , xj , . . . , xi , . . . , xn ).

2
CPGE Tétouan - MPSI Notes de cours: Déterminants 2023-2024

− Pour (ii) =⇒ (i) : Soit (xk )n n


k=1 ∈ E de composantes non deux à deux distincts.

Donc ∃(i, j) ∈ J1, nK2 tel que i < j et xi = xj . Posons λ = Φ (xk )n



k=1 .

L’antisymétrie de Φ implique que λ = −λ, puis que λ = 0. [CQFD]

Proposition 2 (Image d’une famille liée par une forme n-linéaire alternée)
Soit Φ : E n −→ K une forme n-linéaire alternée. Alors on a :

1. L’image par Φ de tout n-uplet de vecteurs liés de E est nulle.


Autrement dit, si V ∈ E n à vecteurs v1 , . . . , vn linéairement dépendants, alors Φ(V) = 0.

2. Le rajout à un vecteur une combinaison linéaire des autres vecteurs d’un n-uplet de vecteurs de E ne change pas
l’image par Φ. Autrement dit, si V = (v1 , . . . , vn ) ∈ E n , alors pour tout k ∈ J1, nK et tout (λj )j∈J1,nK\{k} ∈ Kn−1 , on
 P 
a : Φ v1 , . . . , vk−1 , vk + j∈J1,nK\{k} λj vj , vk+1 , . . . , vn = Φ(V).

Preuve :
Utiliser le fait qu’une famille est liée signifie que l’une de ses vecteurs est combinaison linéaire des autres. Puis appliquer la n-linéarité et
l’alternance de Φ. [CQFD]

Remarque 2
On verra plus tard(corollaire 2) que la réciproque du point (i) de cette proposition est toujours vraie lorsque l’entier n
coı̈ncide avec la dimension de E.

2 Déterminant dans à une base d’un espace vectoriel de dimension finie


Dans ce paragraphe, E est de dimension finie et l’entier n auquel E est mis en puissance est exactement la dimension
de E.

Théorème 1 (Détermination d’une forme n-linéaires alternées)


Soit E un K-espace vectoriel de dimension n ⩾ 1.

1. Une forme n-linéaire alternée Φ sur E est entièrement déterminée par l’image d’une base  de E. 
X n
Y
Plus précisement : si B est une base fixée de E, alors ∀x = (x1 , . . . , xn ) ∈ E n : Φ(x) =  ε(σ) aσ(j),j  Φ(B),
σ∈Sn j=1
où (ai,j ) 1⩽i⩽n = MatB (x1 , . . . , xn ).
1⩽j⩽n
2. Si deux formes n-linéaires alternées Φ : E n −→ K et Ψ : E n −→ K coı̈ncident sur une base B = (e1 , . . . , en ) de E,
alors elles coı̈ncident partout sur E n . Autrement dit, si Φ(B) = Ψ(B), alors pour tout n-uplet x = (x1 , . . . , xn ) de E n ,
on a Φ(x) = Ψ(x).

Preuve :
Fixer une base B de E et assayer d’établir la formule de Φ(x) en utilisant cette base : Ecrire les vecteurs x1 , . . . , xn dans cette base
sous forme des ”sigma” avec des indices i1 , . . . , in , utiliser la n-linéarité et transformer Φ(x) sous forme d’un ”sigma” multiple d’indice
(i1 , . . . , in ) ∈ J1, nKn . L’alternance de Φ ne laissera figurer que les indices (i1 , . . . , in ) de composantes deux à deux distincts. Puis
considérer le changement d’indice : σ 7→ (σ(1), . . . , σ(n)) = (i1 , . . . , in ), car celui-ci établit une bijection de Sn vers l’ensemble des
n-uplets de J1, nKn à composantes deux à deux distincts. Finir par utiliser l’antisymétrie de Φ.
[CQFD]

3
CPGE Tétouan - MPSI Notes de cours: Déterminants 2023-2024

2.1 Les déterminants comme étant des formes n-linéaires alternées

Théorème 2 (Existance et unicité d’une forme n-linéaire alternée relativement à une base)
Soit E un K-espace vectoriel de dimension finie n ⩾ 1 et B ∈ E n une base de E. Alors, on a :
(i) Il existe une unique forme n-linéaire ΦB alternée sur E telle que ΦB (B) = 1.
(ii) Toute autre forme n-linéaire alternée sur E est colinéaire avec ΦB .
De plus ΦB satisfait à la formule de Leibniz suivante :
X n
Y
Pour tout (x1 , . . . , xn ) ∈ E n , si (ai,j ) 1⩽i⩽n = MatB (x1 , . . . , xn ), alors on a : ΦB (x1 , . . . , xn ) = ε(σ) aσ(j),j .
1⩽j⩽n σ∈Sn j=1

Définition 3
Sous les mêmes données et notations du théorème, la forme n-linéaire ΦB s’appelle le déterminant sur E relativement à la
base B (ou dans la base B) et se note par detB . Cette forme vérifie detB (B) = 1.

Preuve :
Analyse : Supposer une telle application Φ existe. Le théorème 1 précédent confirme que Φ s’atisfait à la formule de Leibniz du
théorème. Ce qui affirme en même temps l’unicité de Φ si elle existe.
X n
Y
Synthèse : Poser ΦB (x1 , . . . , xn ) = ε(σ) aσ(j),j , pour tout (x1 , . . . , xn ) ∈ E n , où pour chaque j = 1, . . . , n, (a1,j , . . . , an,j )
σ∈Sn j=1
désigne le vecteur(ligne) des coordonnées de xj dans la base B.
Vérifions que cette application ΦB est n-linéaire alternée sur E. Le problème auquel vous devrez faire attention c’est l’indixation
et les changement d’indices.
Pour la n-linéarité, c’est facile(essayer de la faire !).
Pour l’alternance : on montre plustôt l’antisymétrie. Soit τ une transposition(ou même une premutation quelconque). Soit
X n
Y
(x1 , . . . , xn ) ∈ E n et notons (y1 , . . . , yn ) = xτ (1) , . . . , xτ (n) . Alors ΦB (y1 , . . . , yn ) =

ε(σ) bσ(j),j , où (b1,j , . . . , bn,j )
σ∈Sn j=1
est le vecteur(ligne) des coordonnées de yj dans la base B, pour chaque j = 1, . . . , n.
Notons (a1,j , . . . , an,j ) le vecteur(ligne) des coordonnées de xj dans la base B, pour chaque j = 1, . . . , n.
Attention : On a yj = xτ (j) , cela ne donne pas que bσ(j),j = aσ(τ (j)),τ (j) , mais que bσ(j),j = aσ(j),τ (j) .
En effet, pour tout j = 1, . . . , n et tout i = 1, . . . , n, bi,j = ai,τ (j) et en particulier bσ(j),j = aσ(j),τ (j) .
X Y n
Donc ΦB (y1 , . . . , yn ) = ε(σ) aσ(j),τ (j) .
σ∈Sn j=1
En appliquant le changement d’indice : k 7→ τ −1 (k) = j sur le symbôle (pourquoi ?), on obtient que :
Q
X Y n
ΦB (y1 , . . . , yn ) = ε(σ) aσ(τ −1 (k)),k .
σ∈Sn k=1 P
En appliquant le changement d’indice : ρ 7→ ρ ◦ τ = σ sur le symbôle (pourquoi ?), on obtient que :
X n
Y
ΦB (y1 , . . . , yn ) = ε(ρ ◦ τ ) aρ(k),k .
ρ∈Sn k=1
X n
Y X n
Y
Donc ΦB (y1 , . . . , yn ) = ε(ρ)ε(τ ) aρ(k),k = ε(τ ) ε(ρ) aρ(k),k .
ρ∈Sn k=1 ρ∈Sn k=1

D’où ΦB xτ (1) , . . . , xτ (n) = ε(τ )ΦB (x1 , . . . , xn ). [CQFD]

Exercice 1
Soit Φ une forme n-linéaire alternée non nulle sur un K-espace vectoriel E de dimension finie n ⩾ 1.

1. Montrer qu’il existe une base B de E telle que Φ = detB . Y a -il unicité de la base B ?

 B(E) −→ A (E)
n
2. Que pouvez-vous dire de l’application Υ : , où B(E) est l’ensemble des bases de
 B 7−→ Υ(B) = detB
E(c’est une partie de E n ) et An (E) l’ensemble des formes n-linéaires alternées sur E ?

Solution :

4
CPGE Tétouan - MPSI Notes de cours: Déterminants 2023-2024

1. Puisque Φ non nulle, alors il existe n-uplet U = (u1 , . . . , un ) ∈ E n tel que Φ(U) ̸= 0. Posons λ = Φ(U) et B =
1

λ u1 , u2 , . . . , un . Alors puisque Φ est n- linéaire, on aura que Φ(B) = 1. Le point 1. de la proposition 2 affirme que
B est libre, puis qu’elle est une base de E, puisque son cardinal est la dimension de E. Puis le point 2. du théorème 1
affireme que Φ = detB .
La base B n’est pas unique : Si par exemple B = (e1 , . . . , en ) est une telle base, les bases suivantessatisfont à la même
condition : B ′ = 2e1 , 21 e2 , . . . , en , B ′ = (e1 + e2 , e2 , . . . , en ), B ′ = (e2 , e3 , e1 , e4 , . . . , en )(agir avec σ =< 1, 2, 3 > de


signature 1).

2. L’application Υ est surjective, mais pas injective ! [CQFD]

Proposition 3 (Déterminant d’une famille liée - Effet de rajout d’une combinaison linéaire)
Sous les mêmes notations du théorème précédent, on a :
(i) L’image par detB de tout n-uplet lié de vecteurs de E est nulle.
Autrement dit, si V ∈ E n à vecteurs v1 , . . . , vn linéairement dépendants, alors detB (V) = 0.
(ii) Le rajout à un vecteur une combinaison linéaire des autres vecteur d’un n-uplet de vecteurs de E ne change pas le
déterminant relativement à une base.
Autrement dit, si V = (v1 , . . . , vn ) ∈ E n , alors pour tout k ∈ J1, nK et tout (λj )j∈J1,nK\{k} ∈ Kn−1 , on a :
 P 
detB v1 , . . . , vk−1 , vk + j∈J1,nK\{k} λj vj , vk+1 , . . . , vn = detB (V).

Remarque 3
On verra (corollaire 2) que la réciproque du point (i) de cette proposition est toujours vraie.

Proposition 4 (L’espace des formes n-linéaires alternées sur un espace)


Soit E un K-espace vectoriel de dimension finie n ⩾ 1. L’ensemble noté An (E) de toutes les formes n-linéaires alternées
sur E est un K-espace vectoriel de dimension 1 et engendré par la forme detB , où B est une base quelconque de E. Plus
précisement, si on fixe une base B de E, alors pour toute forme n-linéaire alternée Φ de E, il existe un unique scalaire
λ ∈ K tel que Φ = λ detB . Ce scalaire λ n’est que Φ(B).

Preuve :
Il suffit de férifier que An (E) est un s.e.v du K-espace usuel A (E n , K) de toutes les applications de E n vers K.(Facile)
Pour l’une de ses bases et sa dimension, utiliser les deux théorèmes précédents, ainsi que la définition précédente. [CQFD]

2.2 Effet de changement de bases - Relation de Chasles


Le théorème 1 permet d’établir la relation de Chasles suivante :

Théorème 3 (Relation de Chasles)


Soit B et B ′ deux bases d’un K-espace vectoriel E de dimension finie n ⩾ 1. Pour tout n-uplet x = (x1 , . . . , xn ) de vecteurs
de E, on a : detB (x) = detB (B ′ ). detB′ (x).
En d’autre termes on a la relation fonctionnelle : detB = (detB (B ′ )) . detB′ .

Preuve :
On a detB′ (B′ ) = 1 , donc les deux formes n-linéaires alternée(se rappeller la structure vectorielle de l’ensemble des formes n-linéaires
alternées) : x 7−→ detB (x) et x 7−→ (detB (B′ )) . detB′ coı̈ncident en la base B′ de E. Donc elle coı̈oncident partout(Théorème de
détermination unique suivant une base).
Vous pouvez aussi raisonner en utilisant le fait que detB′ engendre l’espace des formes n-linéaires alternées sur E et ecrire detB =
λ detB′ , . . . , etc. [CQFD]

5
CPGE Tétouan - MPSI Notes de cours: Déterminants 2023-2024

Corollaire 1 (Inversibilité du nombre detB (B ′ ))


Soit B et B ′ deux bases d’un K-espace vectoriel E de dimension finie. Le nombre detB (B ′ ) est toujours non nul et que
1
= detB′ (B).
detB (B ′ )

Preuve :Facile ! [CQFD]

Corollaire 2 (Caractéristique d’une base en utilisant un déterminant)


Soit B une bases fixé d’un K-espace vectoriel E de dimension finie n ⩾ 1. Alors pour qu’un n-uplet V = (v1 , . . . , vn ) de
vecteurs de E soit libre, il faut et il suffit que son déterminant dans la base B soit non nul. Ceci signifie en d’autres termes
qu’il y a équivalence entre : (i) V est base de E ; (ii) V est libre ; (iii) detB (V) ̸= 0

Preuve :
(i) ⇐⇒ (ii) : toujours vraie car Card(V) = dim(E).
(iii) =⇒ (ii) : déjà vu !(par exemple, le point 1. de la proposition 2).
(i) =⇒ (iii) : utiliser le corollaire précédent. [CQFD]

Exercice 2 (Caractéristique d’une base en utilisant une forme n-linéaire alternée quelconque)
Sous les mêmes notations du corollaire ci-dessus, considérons Φ une forme n-linéaire alternée non nulle quelconque sur
E. Montrer que les points (i), (ii) et (iii) de ce corollaire sont aussi équivalents au point : (iv) Φ(V) ̸= 0.

Solution :
Il suffit d’utiliser la proposition 4 et le point 1. de la proposition 2. [CQFD]

2.3 Interprétation géométrique des déterminants

Définition 4 (Hyper-parallélépipède)
Soit V = (v1 , . . . , vp ) une famille libre de vecteurs d’un K-espace E de dimension ⩾ p. L’ensemble
Pp
{ k=1 λk vk / (λ1 , . . . , λp ) ∈ [0, 1]p } s’appelle l’hyper-parallélépipède(ou tout simplement parallélépipède) de E de dimension
p engendré par la famille V et peut se noter par HP(V).

Remarque 4
Pp
— Puisque V est libre, alors la correspondance (λ1 , . . . , λp ) 7−→ k=1 λk vk établit une bijection de [0, 1]p (qu’est
l’hyper-parallélépipède de Kp engendré par la base canonique de Kp (à vérifier ceci)) vers HP(V). Sa restriction sur
Pp
{0, 1}p établit une bijection de {0, 1}p (c’est l’ensemble des 2p sommets de [0, 1]p ) vers { k=1 λk vk / (λ1 , . . . , λp ) ∈ {0, 1}p }.
Cette dernière partie de E s’appelle l’ensemble des sommets de l’hyper-parallélépipède HP(V). Cette partie contient
donc exactement 2p sommets.

6
CPGE Tétouan - MPSI Notes de cours: Déterminants 2023-2024

— Un hyper-parallélépipède est un segment pour p = 1, un parllèlogramme pour p = 2 et un parallélépipède pour


p = 3.

Définition 5 (Hyper-volume géométrique d’un hyper-parallélépipède de dimension p = 1, 2, 3)


Soit V = (v1 , . . . , vp ) une famille libre dans Kn (n ⩾ p). Avec une unité de mesure considérée, on appelle hyper-volume
canonique de l’hyper-parallélépipède HP(V) :
— La longueur géométrique(positive) de HP(V), si p = 1.
— La surface géométrique(positive) de HP(V), si p = 2.
— Le volume géométrique(positif ) de HP(V), si p = 3.
Cette quantité peut se notée dans les trois cas de p par HVolGeo(HP(V)).

Proposition 5 (Hyper-volume géométrique et déterminant pour n = 1, 2, 3)


Soit B une base de Kn . Avec une unité de mesure considérée, on a la relation pour les cas n = 1, 2 ou 3 : HVolGeo(HP(B)) =
(n)
detB(n) (B) , où Bc est la base canonique de Kn .
c

Définition 6 (Hyper-volume orienté d’un hyper-parallélépipède. Cas général)


On fixe une base de référence B d’un K-espace E de dimension finie dont on convient qu’avec une unité de mesure considérée
que ce qu’on appellera l’hyper-volume orienté de son hyper-parallélépipède est égale à HVolOr(HP(B)) = detB (B) = 1. Pour
toute autre base B ′ de E, on appelle hyper-volume orienté de son hyper-parallélépipède la quantité HVolOr(HP(B ′ )) =
detB (B ′ ). Sa valeur absolue(ou module) s’appelle l’hyper-volume géométrique de HP(B ′ ).

2.4 Orientation d’un espace vectoriel réel de dimension finie

Définition 7 (Bases de même orientation)


Soit E un R-espace de dimension finie. On dit que deux bases B et B ′ de E ont même orientation(ou sont orientées dans
le même sens) si detB (B ′ ) > 0.

En vertu de la relation de Chasles (théorème 3), on aura :

Proposition 6 (Relation d’orientation des bases)


Soit E un R-espace de dimension finie. La relation définies sur l’ensemble des bases de E par ”B et B ′ ont même orientation”
est une relation d’équivalence. Selon cette relation, il n’y a que deux classes d’équivalence : Une qui contient toutes les bases
B ′ telles que detB (B ′ ) > 0 et l’autre qui contient toutes les bases B ′ telles que detB (B ′ ) < 0, où B est une base quelconque
de E.

Définition 8 (Orientation d’un espace réel de dimension finie)


Soit E un R-espace de dimension finie. On fixe une base B de E(considérée comme base de référence pour orientation). Si
B ′ est une autre base de E, alors on dit que B ′ est une base directe de E(ou que l’espace E est orienté de manière directe
par la base B ′ ) si detB (B ′ ) > 0.

3 Déterminant des endomorphismes des espaces de dimensions finies

3.1 La définition utilisant le déterminant d’une famille dans une base

Proposition 7 (et définition : déterminant d’un endomorphisme)


Soit E un K-espace de dimension finie ⩾ 1 et f un endomorphisme de E. Le nombre detB (f (B)) est indépendant de la
base choisie B de E. Ce nombre s’appelle le déterminant de l’endomorphisme f et se note par det(f ). De plus, c’est le seul
vérifiant la propriété : ∀x ∈ E n : detB (f (x)) = det(f ). detB (x).

7
CPGE Tétouan - MPSI Notes de cours: Déterminants 2023-2024

Preuve :
Soit B et B′ deux bases de E et montrons que detB (f (B)) = detB′ (f (B′ )).
On considère l’application Φ : E n −→ K définie par Φ(x) = detB (f (x)), où n = dim(E).
A noter que la variable de l’application f est un élément de E et que f (x) c’est l’image de la famille n-uplet x par f , donc égale à
(f (x1 ) , . . . , f (xn )), si x = (x1 , . . . , xn ) ∈ E n .
Vérifier que Φ est une forme n-linéaire alternée sur E(facile).
Donc(proposition 4) : Il existe λ ∈ K tel que Φ = λ detB .
En appliquant Φ au n-uplet B, on trouve que λ = detB (f (B)) (car detB (B) = 1).
Aussi, en appliquant Φ au n-uplet B′ , on trouve que Φ(B′ ) = λ detB (B′ ).
D’un autre coté, la relations de Chasles donne Φ(B′ ) = detB (f (B′ )) = detB (B′ ). detB′ (f (B′ )).
On simplifie (puisque detB (B′ ) ̸= 0) et on trouve que λ = detB′ (f (B′ )).
Bref : detB (f (B)) = λ = detB′ (f (B′ )). [CQFD]

3.2 Déterminant d’un composé d’endomorphismes d’un espace de dimension finie

Théorème 4
Soit f et g deux endomorphismes d’un même -espace vectoriel de dimension finie E. Alors on a la relation :
det(g ◦ f ) = det(g) det(f ) = det(f ) det(g) = det(f ◦ g).

Preuve :
On fixe une base B de E.
Première téchnique : Par définition det(g ◦ f ) = detB ((g ◦ f )(B)) = detB (g(f (B))).
Distinguer les cas selon que f (B) ̸= 0 ou non et dans le premier cas, appliquer Chasles en considérant la base B′ = f (B).
Deuxième téchnique : On s’appuie sur la caractéristique de det(f ) : ∀x ∈ E n : detB (f (x)) = det(f ). detB (x) et on l’applique à g au lieu
de f et à x = f (B).
Le dernier point de la proposition découle ainsi imédiatement. [CQFD]

Corollaire 3
Soit E un K-espace vectoriel de dimension finie n ⩾ 1. L’application restriction det : GLK (E) −→ K∗ est un morphisme du
groupe linéaire (GLK (E), ◦) vers le groupe (K∗ , ×).

3.3 Caractéristique d’un automorphisme d’un espace de dimension finie par déterminant

Théorème 5
Soit f un endomorphisme de d’un K-espace vectoriel de dimension finie E. Alors on a l’équivalence : f automorphisme de
1
E ⇐⇒ det(f ) ̸= 0. Le cas échéant, det f −1 =

.
det(f )

Preuve :
Fixer une base B de E et se rappeller la caractéristique de la bijection de f par la famille image f (B). Utiliser aussi le corollaire 2.
Pour la formule du déterminant de f −1 dans le cas échéant, utiliser le théorème 4. [CQFD]

8
CPGE Tétouan - MPSI Notes de cours: Déterminants 2023-2024

4 Déterminant des matrices carrées

4.1 Formule de Leibniz du déterminant d’une matrice carrée

Définition 9 (Déterminant d’une matrice carrée)


Soit A une matrice carrée d’ordre n ⩾ 1. On appelle déterminant de A le nombre noté det(A) et donné par det(A) =
(n)
detB(n) (C1 (A), . . . , Cn (A)), où Bc est la base canonique de Mn,1 (K) identifié à Kn et Cj (A) est la j ième colonne de A,
c

pour j = 1, . . . , n.

Remarque 5
Puisque detB(n) est une forme n-linéaire altérnée, alors le déterminant des matrices est n-linéaire altérnée par rapport
c

aux colonnes des matrices. On tire donc que ∀A ∈ Mn (K), ∀λ ∈ K : det(λA) = λn det(A).

Proposition 8 (Formule de Leibniz)


X n
Y
Soit A = (ai,j ) 1⩽i⩽n ∈ Mn (K). On a la formule det(A) = ε(σ) aσ(j),j .
1⩽j⩽n σ∈Sn j=1

Preuve :
Utiliser la définition de det(A), et le théorème(&définition) 2. [CQFD]
Notation :
 
a1,1 a1,2 ...... a1,n a1,1 a1,2 ...... a1,n
 
 a2,1 a2,2 ...... a2,n  a2,1 a2,2 ...... a2,n
Si A =  .  ∈ Mn (K), alors on écrit det(A) = ∈ K.
 
 .. .. .. .. .. ..
 . . 
 . . .
an,1 an,2 ...... an,n an,1 an,2 ...... an,n

Déterminant d’une matrice carrée d’ordre 2


 
a1,1 a1,2
Soit A =   une matrice d’ordre 2. Les seules permutations de S2 sont l’identité IdJ1,2K et la transposition
a2,1 a2,2
τ =< 1, 2 > dont leurs signatures sont respectivement 1 et −1.
La formule de Leibniz donne :
2
Y 2
Y
det(A) = ε(IdJ1,2K ) aIdJ1,2K (j),j + ε(τ ) aτ (j),j
j=1 j=1
2
Y 2
Y
= 1 aj,j + (−1) aτ (j),j
j=1 j=1
= 1a1,1 a2,2 + (−1)a2,1 a2,1
= a1,1 a2,2 − a2,1 a1,2 .

9
CPGE Tétouan - MPSI Notes de cours: Déterminants 2023-2024

Déterminant d’une matrice carrée d’ordre 3 - Schéma de Sarrus


 
a1,1 a1,2 a1,3
 
Soit A = 
 a2,1 a2,2
a2,3  une matrice d’ordre 3. Il y a 3! = 6 permutations de J1, 3K qui sont :
a3,1 a3,2 a3,3
IdJ1,3K , < 1, 2 >, < 1, 3 >, < 2, 3 >, < 1, 2, 3 > et < 3, 2, 1 > avec des signatures respectives : 1, −1, −1, −1, 1, 1.
La formule de Leibniz donne :

det(A) = 1a1,1 a2,2 a3,3 + (−1)a2,1 a1,2 a3,3 + (−1)a3,1 a2,2 a1,3 + (−1)a1,1 a3,2 a2,3 + 1a2,1 a3,2 a1,3 + 1a3,1 a1,2 a2,3
= (a1,1 a2,2 a3,3 + a2,1 a3,2 a1,3 + a3,1 a1,2 a2,3 ) − (a2,1 a1,2 a3,3 + a3,1 a2,2 a1,3 + a1,1 a3,2 a2,3 ) .

4.2 Lien du déterminant des matrices carrées avec le déterminant des endomorphismes

Proposition 9 (Lien avec l’endomorphisme canoniquement associé)


Soit A une matrice carrée d’ordre n ⩾ 1. Notons fA : Kn −→ Kn , X 7−→ AX, l’endomorphisme canoniquement associé à
A. Alors on a det(A) = det (fA ).

Preuve :
       
(n) (n) (n)
det (fA ) = detB(n) fA Bc = detB(n) fA e1 , . . . , fA en = detB(n) (C1 (A), . . . , Cn (A)) = det(A). [CQFD]
c c c

Proposition 10 (Lien avec un endomorphisme dont lui représente)


Soit E un K-espace de dimension finie n ⩾ 1 et f un endomorphisme de E et B une base quelconque de E. Si on note par
A la matrice qui représente f dans B, alors det(f ) = det(A).
Autrement dit, le déterminant d’un endomorphisme de E est égale au déterminant de sa matrice représentante de manière
indépendante de la base choisie de E.

Preuve :
Si on note B = (e1 , . . . , en ), alors : det (f ) = detB (f (B)) = detB (f (e1 ) , . . . , f (en )).
X Y n
Et si on pose f (e1 ) = n
P
i=1 ai,j ei , pour tout j = 1, . . . , n, alors det (f ) = ε(σ) aσ(j),j .
σ∈Sn j=1
D’un autre coté A = MatB (f ) = MatB (f (B)) = (ai,j ) 1⩽i⩽n .
1⩽j⩽n
X n
Y
Donc det(A) = ε(σ) aσ(j),j et par conséquent det(A) = det(f ). [CQFD]
σ∈Sn j=1

4.3 Déterminant de la transposée d’une matrice

Proposition 11
Pour toute matrice carrée A, on a : det (t A) = det(A).

10
CPGE Tétouan - MPSI Notes de cours: Déterminants 2023-2024

Preuve :
t

Notons A = (ai,j ) 1⩽i⩽n et on appliquera la formule de Leibniz aux : det A et det (A) :
1⩽j⩽n
X Yn X n
Y
t
a′σ(j),j , où a′i,j = aj,i , pour tout (i, j) ∈ J1, nK2 .

det (A) = ε(σ) aσ(j),j et det A = ε(σ)
σ∈Sn j=1 σ∈Sn j=1
X n
Y
Donc det t A =

ε(σ) aj,σ(j) .
σ∈Sn j=1
Pour chaque σ ∈ Sn , on effectue dans le produit le changement d’indice : i 7−→ σ −1 (i) = j qui établit une bijection de J1, nK vers lui
même.
X n
Y
t

Donc det A = ε(σ) aσ−1 (i),i .
σ∈Sn i=1
Pour l’indice de la somme, on effectue le changement : γ 7−→ γ −1 = σ qui établit une bijecttion de Sn vers lui même.
X n n
Y X Y
Donc det t A = ε γ −1

aγ(i),i = ε(γ) aγ(i),i = det(A). [CQFD]
γ∈Sn i=1 γ∈Sn i=1

Corollaire 4
(n)
Si on note par Li (A), la iième ligne de A, pour tout i ∈ J1, nK, alors det(A) = detB(n) (L1 (A), . . . , Ln (A)), où Bc est la
c
n
base canonique de M1,n (K) identifié à K .
Par conséquent, le déterminant des matrices est n-linéaire altérnée aussi par rapport aux lignes des matrices.

4.4 Déterminant du produit de matrices carrées

Théorème 6
Pour tout deux matrices carrées de même ordre A et B, on a la relation :
det(A × B) = det(A) × det(B) = det(B) × det(A) = det(B × A).

Preuve :
Utiliser la proposition précédente, la formule du déterminant d’un composé de deux endomorphismes et la formule fA×B = fA ◦ fB .
Autre technique c’est utiliser le produit par blocs suivant : A × B = A [C1 (B), . . . , Cn (B)] = [AC1 (B), . . . , ACn (B)] et la formule
detB(n) (fA (x)) = det (fA ) . detB(n) (x), pour tout x ∈ (Kn )n et appliquer ceci à x = (C1 (B), . . . , Cn (B)).
c c

[CQFD]

Corollaire 5
Soit n ⩾ 1. L’application restriction det : GLn (K) −→ K∗ est un morphisme du groupe linéaire (GLn (K), ×) vers le groupe
(K∗ , ×).

Corollaire 6
Deux matrices semblables ont toujours le même déterminant.

Preuve :
si A = P BP −1 , alors det(A) = det P BP −1 = det (P B)P −1 = det P −1 (P B) = det P −1 P B = det (B).
    

4.5 Caractéristique de l’inversibilité d’une matrice par déterminant


On se ramène au déterminant de l’endomorphisme canoniquement associé (proposition 9) et à la caractéristique des
automorphismes par déterminant (théorème 5) et on obtient :

Théorème 7 (Caractériser l’inversibilité par le déterminant)


1
Une matrice carrée A est inversible si et seulement si det(A) ̸= 0. Le cas échéant, det A−1 =

.
det(A)

11
CPGE Tétouan - MPSI Notes de cours: Déterminants 2023-2024

4.6 Effets des opérations élémentaires sur le déterminant d’une matrice

Définition 10 (Rappel des opérations élémentaires)


Soit A une matrice quelconque de taille (n, p). On note par L1 , . . . , Ln les lignes de A et par C1 , . . . , Cp .
On entend par opération élémentaire sur les lignes de A l’une des opérations :

1. Transvection des lignes : Le rajout à une ligne de A une autre multipliée par un scalaire : Li ←− Li + λLj , où
1 ⩽ i ̸= j ⩽ n et λ ∈ K.

2. Dilatation des lignes : La multiplication d’une ligne de A par un scalaire : Li ←− λLi , où 1 ⩽ i ⩽ n et λ ∈ K..

3. Permutation de deux lignes(transposition des lignes) de A : Li ←− Lj et Lj ←− Li , où 1 ⩽ i ̸= j ⩽ n.

4. Permutation des lignes de A : ∀i ∈ J1, nK : Li ←− Lσ(i) , où σ ∈ Sn .

Les opérations élémentaires sur les colonnes de A se définissent de manière analogue .

Théorème 8 (Effet des opérations élémentaires sur le déterminant)


Pour toute matrice carrée A d’ordre n, on a :

1. Toute transvection des lignes ou des colonnes de A ne change pas son déterminant.
On tire de plus la règle fondamentale :
▶ Le rajout à une ligne de A une combinaison linéaire des autres ne change pas son déterminant.
▶ Le rajout à une colonne de A une combinaison linéaire des autres ne change pas son déterminant.

2. Toute dilatation de scalaire λ d’une ligne ou d’une colonne de A change son déterminant en le multipliant par λ.

3. Toute transposition de deux lignes ou de deux colonnes de A change son déterminant en son opposé.

4. Toute permutation par un σ ∈ Sn des lignes ou des colonnes de A change son déterminant en le multipliant par la
signature ε(σ).

Preuve :
La preuve de ce théorème se base sur le fait que le déterminant des matrices est n-linéaire alterné par rapport aux colonnes et par
rapport aux lignes. Ce théorème n’est donc qu’une version matricielle de la proposition 2 ou de la proposition 3. Toutefois, vu l’importance
de ce théorème dans le calcul des déterminants, on propose de refaire la preuve dans cet aspect matricielle.
On va prouver les formules des effets des opérations élémentaires sur les colonnes de A. Pour celles sur les lignes de A c’est analogue.
En effet : Pour simplifier, on note les colonnes de A respectivement par C1 , . . . , Cn et on suppose par exemple que 1 ⩽ i < j ⩽ n.
On note :
- B la matrice obtenue en effectuant l’opération : Cj ←− Cj + λCi .
- C la matrice obtenue en effectuant l’opération : Cj ←− λCj .
- D la matrice obtenue en effectuant l’opération : Ci ←→ Cj .

- E la matrice obtenue en effectuant l’opération : (C1 , . . . , Cn ) ←− Cσ(1) , . . . , Cσ(n) .
(n)
On rappelle que : det(A) = detB(n) (C1 , . . . , Cn ), où Bc la base canonique de Mn,1 (K) identifié à Kn .
c

det (B) = detB(n) (C1 , . . . , Ci , . . . , Cj−1 , Cj + λCi , Cj+1 , . . . , Cn )


c

= detB(n) (C1 , . . . , Ci , . . . , Cj−1 , Cj , Cj+1 , . . . , Cn ) + λdetB(n) (C1 , . . . , Ci , . . . , Cj−1 , Ci , Cj+1 , . . . , Cn )


c c

= detB(n) (C1 , . . . , Cn ) + λ.0 (Car detB(n) est alternée)


c c

= det(A).

det (C) = detB(n) (C1 , . . . , Cj−1 , λCj , Cj+1 , . . . , Cn )


c

= λdetB(n) (C1 , . . . , Cj−1 , Cj , Cj+1 , . . . , Cn )


c

= λ det(A).

12
CPGE Tétouan - MPSI Notes de cours: Déterminants 2023-2024

det (D) = detB(n) (C1 , . . . , Ci−1 , Cj , Ci+1 , . . . , Cj−1 , Ci , Cj+1 , . . . , Cn )


c

= −detB(n) (C1 , . . . , Ci−1 , Ci , Ci+1 , . . . , Cj−1 , Cj , Cj+1 , . . . , Cn ) . (Car detB(n) est antisymétrique)
c c

= − det(A).


det (E) = detB(n) Cσ(1) , . . . , Cσ(n)
c

= ε(σ)detB(n) (C1 , . . . , Cn ) . (Car detB(n) est antisymétrique)


c c

= ε(σ) det(A).

5 Déterminant des matrices particulières

5.1 Déterminant des matrices triangulaires et diagonales

Théorème 9 (Déterminant des matrices triangulaires et diagonales)


Soit A = (ai,j ) 1⩽i⩽n ∈ Mn (K) une matrice triangulaire(supérieure ou inférieure) et en particulier diagonale.
1⩽j⩽n
n
Y
Alors on a det(A) = ak,k .
k=1

Preuve :
Si par exemple A est triangulaire supérieure, alors les coefficients de A seront tels que ∀i, j ∈ J1, nK : i > j ⇒ ai,j = 0. Dans le
X n
Y
Σ de la formule det(A) = ε(σ) aσ(j),j , tous les termes d’indice σ ̸= IdJ1,nK sont donc nuls. En effet : utiliser ”(i) =⇒ (ii)”
σ∈Sn j=1
du lemme suivant dont sa démonstration peut se faire par récurrence forte(ascendente et autre descendente) et à intervalle borné :
[CQFD]

Lemme 1 (Autres caractéristiques de la permutation IdJ1,nK )


Soit σ une permutation de J1, nK. Alors il y a équivalence entre les trois points :
(i) ∀k ∈ J1, nK, σ(k) ⩽ k (ii) σ = IdJ1,nK (iii) ∀k ∈ J1, nK, σ(k) ⩾ k

5.2 Déterminant des matrices élémentaires

Déterminant des matrices élémentaires de la base canonique

On rappelle les matrices élémentaires de la base canonique de Mn (K) :


 1, si i = j
(n)
Pour chaque (p, q) ∈ J1, nK2 , Ep,q = (δp,i δj,q ) 1⩽i⩽n , où δi,j = (symbôle de Kronecker).
1⩽j⩽n  0, sinon.
Il est clair que ces matrices sont triangulaires et qui comporte au moins un zéro dans sa diagonale si n ⩾ 2.
   
(n) (1)
Donc si n ⩾ 2, alors ∀(p, q) ∈ J1, nK2 : det Ep,q = 0 et si n = 1, alors det E1,1 = 1.

Déterminant des matrices élémentaires de transvection

On rappelle les matrices de transvection de Mn (K)(ici n ⩾ 2) :


(n) (n)
Pour chaque λ ∈ K et chaque (p, q) ∈ J1, nK2 tel que p ̸= q, on pose Tp,q (λ) = In + λEp,q .
Ces matrices sont donc triangulaires de diagonale formée des 1 et par conséquent :
 
(n)
∀(p, q) ∈ J1, nK2 (p ̸= q), ∀λ ∈ K : det Tp,q (λ) = 1 .

Déterminant des matrices élémentaires de dilatation

On rappelle les matrices de dilatation de Mn (K) :


(n) (n)
Pour chaque λ ∈ K et chaque p ∈ J1, nK, on pose Dp (λ) = In + (λ − 1)Ep,p .

13
CPGE Tétouan - MPSI Notes de cours: Déterminants 2023-2024

Ces matrices sont donc diagonales de diagonale formée des 1 sauf dans le pème rang diagonal où il y a le scalaire λ et par
conséquent :
 
(n)
∀p ∈ J1, nK, ∀λ ∈ K : det Dp (λ) = λ .

Déterminant des matrices élémentaires de permutation

On rappelle les matrices de permutation(transpositiopn) de Mn (K)(ici n ⩾ 2) :


(n) (n) (n) (n) (n)
Pour chaque (p, q) ∈ J1, nK2 tel que p ̸= q, on pose Pp,q = In − Ep,p − Eq,q + Ep,q + Eq,p .
Ces matrices ne sont pas triangulaires.
(n) 
Toutefois, on peut vérifier que Pp,q = δi,τp,q (j) 1⩽i⩽n , où τp,q est la transposition < p, q > de J1, nK. Puis on applique la
1⩽j⩽n
  n
(n)
X Y
formule de Leibniz : det Pp,q = ε(σ) δσ(j),τp,q (j) .
σ∈Sn j=1
Q n
Or pour toute permutatin σ de J1, nK, on a j=1 δσ(j),τp,q (j)= 1, si σ = τp,q et 0 si non, alors :
 
(n)
∀(p, q) ∈ J1, nK2 (p ̸= q) : det Pp,q = ε(τp,q ) = −1 .
Généralisation des matrices de permutations :
(n)
Pour chaque permutation σ de J1, nK, on considère la matrice d’ordre n(dite de permutaion σ), la matrice Pσ =
 
δi,σ(j) 1⩽i⩽n = δσ−1 (i),j 1⩽i⩽n . Cette matrice est enfaite peut être obtenue en permutant par σ les colonnes de la
1⩽j⩽n 1⩽j⩽n
matrice identité In = (δi,j ) 1⩽i⩽n ou aussi en permutant par σ −1 les lignes de In .
1⩽j⩽n
(n)
En effet : si on désigne par ej =t (0, . . . , 0, 1, 0, . . . , 0) la j ième colonne de la matrice identité, In (qu’est la transposée de
sa j ième ligne), alors, on peut vérifier facilement que :  
t (n)
eσ−1 (1)
..
   
(n) (n) (n) (n)
Sous forme de colonnes, on a Pσ = eσ(1) , . . . , eσ(1) et sous forme de lignes on a Pσ =  .
 
 . 
t (n)
eσ−1 (n)
On donne la formule d’action suivante :
(n) (n) (n)
∀σ, ρ ∈ Sn : Pσ◦ρ = Pσ × Pρ . (∗)
Pour la formule du déterminant, on a :
 
(n)
∀σ ∈ Sn : det Pσ = ε(σ) .

La preuve de cette dernière relation peut se faire soit en appliquant la formule de Leibniz comme vu pour les matrices de transposition
ci-dessus, soit en écrivant la permutation σ sous forme produit de transpositions et appliquer le fait que det(AB) = det(A) det(B),
ε(µν) = ε(µ)ε(ν) et la formule : (∗) ci-dessus !

14
CPGE Tétouan - MPSI Notes de cours: Déterminants 2023-2024

5.3 Effet des produits par des matrices élémentaires sur les déterminants

Proposition 12 (Rappel sur les effets des multiplications par des matrices élémentaires)
Soit A ∈ Mn,p (K) une matrice réctangulaire quelconque. On note par C1 , . . . , Cp les colonnes de A et par L1 , . . . , Ln ses
lignes. Soit un scalaire quelconque λ ∈ K. On a les propriétés :
(n)
— Le produit Ti,j (λ)A est la matrice obtenue en effectuant sur A l’opération élémentaire(Transvection des lignes) :
Li ←− Li + λLj , où 1 ⩽ i ̸= j ⩽ n.
(p)
— Le produit ATi,j (λ) est la matrice obtenue en effectuant sur A l’opération élémentaire(Transvection des colonnes) :
Cj ←− Cj + λCi , où 1 ⩽ i ̸= j ⩽ p.
(n)
— Le produit Di (λ)A est la matrice obtenue en effectuant sur A l’opération élémentaire(Dilatation des lignes) :
Li ←− λLi , où 1 ⩽ i ⩽ n.
(p)
— Le produit ADj (λ) est la matrice obtenue en effectuant sur A l’opération élémentaire(Dilatation des colonnes) :
Cj ←− λCj , où 1 ⩽ j ⩽ p.
(n)
— Le produit Pi,j A est la matrice obtenue en effectuant sur A l’opération élémentaire(Transposition des lignes) :
Li ←→ Lj , où 1 ⩽ i ̸= j ⩽ n.
(p)
— Le produit APi,j est la matrice obtenue en effectuant sur A l’opération élémentaire(Transposition des colonnes) :
Ci ←→ Cj , où 1 ⩽ i ̸= j ⩽ p.
(n)
— Le produit Pσ A est la matrice obtenue en effectuant sur A l’opération élémentaire(Permutation des lignes) :

(L1 , . . . , Ln ) ←− Lσ−1 (1) , . . . , Lσ−1 (n) , où σ ∈ Sn .
(p)
— Le produit APσ est la matrice obtenue en effectuant sur A l’opération élémentaire(Permutation des colonnes) :

(C1 , . . . , Cn ) ←− Cσ(1) , . . . , Cσ(n) , où σ ∈ Sp .

Preuve : Imédiate en appliquant la formule du produit de deux matrices. [CQFD]

Théorème 10 (Déterminants des produits avec des matrices élémentaires)


Pour toute matrice A ∈ Mn (K), on a :
   
(n) (n)
• ∀(p, q) ∈ J1, nK2 (p ̸= q), ∀λ ∈ K : det Tp,q (λ)A = det ATp,q (λ) = det (A).
   
(n) (n)
• ∀p ∈ J1, nK, ∀λ ∈ K : det Dp (λ)A = det ADp (λ) = λ det (A).
   
(n) (n)
• ∀(p, q) ∈ J1, nK2 (p ̸= q) : det Pp,q A = det APp,q = − det (A).
   
(n) (n)
• ∀σ ∈ Sn : det Pσ A = det APσ = ε(σ) det (A).

Preuve :
Imédiate, soit en appliquant la formule du déterminant d’un produit de deux matrices et les formules des déterminants des matrices
élémentaires, soit en appliquant directement le théorème des effets des opérations élémentaires des lignes et des colonnes sur les
déterminants des matrices(théorème 8). [CQFD]

15
CPGE Tétouan - MPSI Notes de cours: Déterminants 2023-2024

6 Formule en développant par rapport à une ligne ou une colonne

6.1 Mineurs et cofacteurs d’une matrice

Définition 11 (Mineur et cofacteur)


Soit A = (ai,j ) 1⩽i⩽n ∈ Mn (K). Pour chaque (p, q) ∈ J1, nK, notons Ap,q la matrice extraite de A en suprimant la pième
1⩽j⩽n
ligne et la q ième colonne de A.
— Le nombre det (Ap,q ) s’appelle le mineur de A relatif au couple (p, q)(ou relatif au coeficient ap,q ) et se note par
∆p,q (A)(ou tout simplement ∆p,q ).
— Le nombre (−1)p+q det (Ap,q ) s’appelle le cofacteur de A relatif au couple (p, q)(ou relatif au coeficient ap,q ) et se
note par Cp,q (A)(ou tout simplement Cp,q ).

Théorème 11 (Formule de développement du déterminant)


Soit A = (ai,j ) 1⩽i⩽n ∈ Mn (K).
1⩽j⩽n
n
X n
X
1. Pour chaque rang de ligne fixé p ∈ J1, nK, on a : det(A) = (−1)p (−1)j ap,j ∆p,j (A) = ap,j Cp,j (A).
j=1 j=1
Avec cette formule on dit qu’on a développé le déterminant de A suivant sa pième ligne.
Xn n
X
2. Pour chaque rang de colonne fixé q ∈ J1, nK, on a : det(A) = (−1)q (−1)i ai,q ∆i,q (A) = ai,q Ci,q (A).
i=1 i=1
Avec cette formule on dit qu’on a développé le déterminant de A suivant sa q ième colonne.

La preuve qu’on va proposer qui utilise le lemme suivant :

Lemme 2
Soit A une matrice
 carrée d’ordre
 n qui s’écrit sous l’une des quatre formes :
1 L
(1) A =  , où L ∈ M1,n−1 (K) et B ∈ Mn−1 (K).
0n−1,1 B
 
1 01,n−1
(2) A =  , où C ∈ Mn−1,1 (K) et B ∈ Mn−1 (K).
C B
 
B C
(3) A =  , où C ∈ Mn−1,1 (K) et B ∈ Mn−1 (K).
01,n−1 1
 
B 01,n−1
(4) A =  , où L ∈ M1,n−1 (K) et B ∈ Mn−1 (K).
L 1
Alors on a det(A) = det(B).

Preuve du lemme :
Par transposée, les formes (1) et (2) se ramènent l’une à l’autre. De même que les formes (3) et (4).
Donc il suffit de montrer le lemme pour
 la forme (1)et pour la forme (4).
B 01,n−1
Cas où A est de la forme (4) : A =  , où L ∈ M1,n−1 (K) et B ∈ Mn−1 (K).
L 1
Notons A = (ai,j ) 1⩽i⩽n de sorte qu’on aura B = (ai,j ) 1⩽i⩽n−1 , an,n = 1 et ∀i ∈ J1, nK : i < n =⇒ ai,n = 0.
1⩽j⩽n 1⩽j⩽n−1
X n
Y
On applique la formule de Leibniz à la matrice A : det(A) = ε(σ) aσ(j),j .
σ∈Sn j=1
On partage Sn  en deux classes de permutations I =
 {σ ∈ Sn /σ(n) = n} et J = {σ ∈ Sn /σ(n) < n}.
 Si σ ∈ I, alors Qn aσ(j),j = Qn−1 aσ(j),j an,n = Qn−1 aσ(j),j .
j=1
Il est clair que  j=1  j=1
 Si σ ∈ J , alors Qn aσ(j),j = Qn−1 aσ(j),j aσ(n),n = 0.
j=1 j=1
n−1
! n−1
! n−1
X Y X Y X Y
Donc det(A) = ε(σ) aσ(j),j + ε(σ) aσ(j),j = ε(σ) aσ(j),j .
σ∈I j=1 σ∈J j=1 σ∈I j=1

16
CPGE Tétouan - MPSI Notes de cours: Déterminants 2023-2024

Remarquons que si σ ∈ I, alors J1, n − 1K est stable par σ et donc σ/J1, n − 1K peut être considérée comme un élément de Sn−1 .
L’application φ : σ 7−→ φ(σ) = σ/J1, n−1K est donc bien défine, établit une bijection de I vers Sn−1 et conserve la signature. (En effet : si
σ ∈ I, alors σ(n) = n et parsuite : (i, j) inversion de σ ⇔ ”1 ⩽ i < j ⩽ n et σ(i) > σ(j)” ⇔ ”1 ⩽ i < j ⩽ n−1 et σ(i) > σ(j)” ⇔ (i, j)
inversion de φ(σ). Bref : Nombre d’inversions de σ =Nombre d’inversions de φ(σ))
Donc on peut appliquer le changement d’indice : γ = φ(σ) de sorte que :

X n−1
Y
det(A) = ε(φ−1 (γ)) aφ−1 (γ)(j),j
γ∈Sn−1 j=1

X n−1
Y
= ε(γ) aγ(j),j
γ∈Sn−1 j=1

= det(B).
 
1 L
Cas où A est de la forme (1) : A =  , où L ∈ M1,n−1 (K) et B ∈ Mn−1 (K).
0n−1,1 B
On va transformer A par des permutations des colonnes, puis des lignes de sorte d’obtenir une matrice qui satisfait à la forme (4).
t
Notons A = (ai,j ) 1⩽i⩽n de sorte qu’on aura B = (ai,j ) 2⩽i⩽n = (ai+1,j+1 ) 1⩽i⩽n−1 , a1,1 = 1, (a2,1 , . . . , an,1 ) = 0n−1,1 et
1⩽j⩽n 2⩽j⩽n 1⩽j⩽n−1
(a1,2 , . . . , a1,n ) = L.
On note les colonnes de A par Cj , j = 1, . . . , n de sorte A = [C1 , . . . , Cn ].
Agissons sur les colonnes de A le cycle γ =< 1, 2, . . . , n > de sorte d’obtenir la matrice A′ = Cγ(1) , . . . , Cγ(n) = [C2 , . . . , Cn , C1 ].
 

Ecrivons
 cette matrice en forme de  tableau et agissons sur ses lignes la même permutation γ :  
a1,2 . . . a1,n a1,1 L1
   
 a
2,2 . . . a2,n a2,1   L2 
′ ′
   
A = .
.. .. , dont on peut l’écrire sous formes des lignes notées : A = 
 
..
.
 . . . .   .


   
an,2 . . . an,n an,1 Ln
     
Lγ(1) L2 a2,2 ... a2,n a2,1
  ..   .. .. ..
     
 L 
 γ(2)   .   . . .
L’action sur les lignes de A′ avec γ donne la matrice : A′′ = 

= = .
 ..     
 .   Ln   an,2 ... an,n an,1 
     
Lγ(n) L1 a1,2 ... a1,n a1,1
 
B 01,n−1
Cette matrice est donc de la forme (4) A =  .
L 1
D’après le cas traité de la forme (4) : det (A′′ ) = det (B) .
Puisque det (A′′ ) = ε(γ) det (A′ ) = ε(γ)ε(γ) det(A) = det(A) , alors det(A) = det(B).
Preuve du théorème :
Quitte à travailler avec la matrice transposée t A qui a le même déterminant que A, il suffit de montrer la formule 2-(Développement
suivant la q ième colonne) :
Ecrivons A sous forme colonnes : A = [C1 , . . . , Cn ]. Donc : det(A) = detB (n) (C1 , . . . , Cq−1 , Cq , Cq+1 , . . . , Cn ).
c

17
CPGE Tétouan - MPSI Notes de cours: Déterminants 2023-2024

On permute ces colonnes par le cycle γ = ⟨q, q − 1, . . . , 2, 1⟩ qu’est de signature ε(γ) = (−1)q−1 .

(−1)q−1 detB (n) Cγ(1) , . . . , Cγ(q−1) , Cγ(q) , Cγ(q+1) , . . . , Cγ(n)



det(A) =
c

= (−1)q−1 detB (n) (Cq , C1 , . . . , Cq−1 , Cq+1 , . . . , Cn ) (∗)


c
n
!
X (n)
= (−1)q−1 detB (n) ai,q ei , C1 , . . . , Cq−1 , Cq+1 , . . . , Cn
c
i=1
n
X  
q−1 (n)
= (−1) ai,q detB (n) ei , C1 , . . . , Cq−1 , Cq+1 , . . . , Cn , (Gràce à la linéarité par rapport à la 1ière colonne)
c
i=1

0 a1,1 ... a1,q−1 a1,q+1 ... a1,n


0 a2,1 ... a2,q−1 a2,q+1 ... a2,n
.. .. .. .. ..
. . . . .
n
X 0 ai−1,1 ... ai−1,i−1 ai−1,i+1 ... ai−1,n
= (−1)q−1 ai,q
i=1 1 ai,1 ... ai,q−1 ai,q+1 ... ai,n
0 ai+1,1 ... ai+1,q−1 ai+1,q+1 ... ai+1,n
.. .. .. .. ..
. . . . .
0 an,1 ... an,q−1 an,q+1 ... an,n

On permute maintenant les lignes par le cycle γ = ⟨i, i − 1, . . . , 2, 1⟩ qu’est de signature ε(γ) = (−1)i−1 .

1 ai,1 ... ai,q−1 ai,q+1 ... ai,n


0 a1,1 ... a1,q−1 a1,q+1 ... a1,n
0 a2,1 ... a2,q−1 a2,q+1 ... a2,n
n
.. .. .. .. ..
X . . . . .
det(A) = (−1)q−1 ai,q (−1)i−1
i=1 0 ai−1,1 ... ai−1,i−1 ai−1,i+1 ... ai−1,n
0 ai+1,1 ... ai+1,q−1 ai+1,q+1 ... ai+1,n
.. .. .. .. ..
. . . . .
0 an,1 ... an,q−1 an,q+1 ... an,n

a1,1 ... a1,q−1 a1,q+1 ... a1,n


a2,1 ... a2,q−1 a2,q+1 ... a2,n
.. .. .. ..
n
. . . .
X
= (−1)q ai,q (−1)i ai−1,1 ... ai−1,i−1 ai−1,i+1 ... ai−1,n (C’est d’après le lemme précédent)
i=1
ai+1,1 ... ai+1,q−1 ai+1,q+1 ... ai+1,n
.. .. .. ..
. . . .
an,1 ... an,q−1 an,q+1 ... an,n
n
X
= (−1)q ai,q (−1)i ∆i,q (A)
i=1
n
X
= ai,q Ci,q (A). [CQFD]
i=1

6.2 Comatrice d’une matrice - Relation de Laplace - Formule de l’inverse d’une matrice

Définition 12 (Comatrice et matrice complémentaire)


Soit A ∈ Mn (K).
 
— La matrice Ci,j (A) 1⩽i⩽n des cofacteurs de A s’appelle la comatrice de A et se note par Com(A).
1⩽j⩽n
— La matrice t Com(A) s’appelle la matrice complémentaire de A et se note par A
e (ou par A# ).

18
CPGE Tétouan - MPSI Notes de cours: Déterminants 2023-2024

Théorème 12 (Formule de Laplace)


Pour toute matrice A ∈ Mn (K), AA
e = det(A)In = AA.
e

Preuve :
 
e =t Com(A) =
Notons la matrice A par (ai,j ) 1⩽i⩽n et sa matrice complémentaire par A Cj,i (A) .
1⩽i⩽n
1⩽j⩽n 1⩽j⩽n
On rappelle que la matrice identité peut s’écrire à l’aide du symbôle de Kronecker : In = (δi,j ) 1⩽i⩽n .
1⩽j⩽n
Fixons un indice (i, j) quelconque de J1, nK2 et calculons le coefficient de cet indice de chacune des matrices AA,
e det(A)In et AA,
e notés
respectivement ui,j , vi,j et wi,j .
ui,j = n
P Pn
k=1 Ck,i (A)ak,j et vi,j = det(A)δi,j = k=1 ak,q Ck,q (A)δi,j (n’importe quel q convient !).

− Si i = j, alors ui,j = k=1 ak,j Ck,j (A) = det(A) = n


Pn P
k=1 ak,q Ck,q (A) = vi,j .

− Si i ̸= j, alors vi,j = 0. Vérifions que dans ce cas ui,j = n


P
k=1 ak,j Ck,i (A) = 0 :

On fait retours à la démonstration précédente et on change les ai,q , i = 1, . . . , n par des autres : ai,q′ , i = 1, . . . , n, où q ′ ̸= q
et on recommence la démarche du bat vers le haut jusqu’à la deuxième ligne (*).
On trouve que n
P
i=1 ai,q Ci,q (A) = detBc(n) (Cq , C1 , . . . , Cq−1 , Cq+1 , . . . , Cn ) = 0 (car detBc(n) est alternée).
′ ′

En changeant (q, q ) par (i, j)(après changer l’indice i), on aura aussi : ui,j = n
′ P
k=1 ak,j Ck,i (A) = 0.

Pour wi,j = vi,j c’est analogue ! [CQFD]

Corollaire 7 (Formule de l’inverse d’une matrice inversible)


1
Une matrice A ∈ Mn (K) est inversible si et seulement det(A) ̸= 0 et dans ce cas, on aura A−1 = A.
e
det(A)

Preuve :
Pour l’équivalence, c’est déjà vue dans le théorème 7. La formule de l’inverse est imédiate d’après la formule de Laplace !

Corollaire 8 (Cas
 particulier
 : Inverse d’une matrice inversible d’ordre 2)
a b
Une matrice A =   ∈ M2 (K) est inversible si et seulement ad − bc ̸= 0 et dans ce cas, on aura :
c d
 
1 d −b
A−1 =  .
ad − bc −c a

7 Formule de la solution d’un système de Cramer

Théorème 13 (Formule de la solution d’un système de Cramer)


Soit AX = b un système linéaire de matrice A ∈ Mn (K), de second membre b ∈ Kn et d’inconnu X ∈ Kn .

 solution si et seulement si det(A) ̸= 0 et dans ce cas les composantes xk de cette solution sont
Ce système admet une unique
det Ab
dk
données par xk = dk est la matrice obtenue de A et b en remplaçant la k ième
, où pour chaque k = 1, . . . , n, Ab
det(A)
colonne de A par le vecteur b.

Preuve :
On a vu au chapitre précédent que : AX = b admet une unique solution ⇐⇒ A est inversible.
Or dans le chapitre en cours : A est inversible ⇐⇒ det(A) ̸= 0.
D’où l’équivalence souhaitée : AX = b admet une unique solution ⇐⇒ det(A) ̸= 0.
Supposons que A inversible et notons X =t (x1 , . . . , xn ), l’unique solution du système AX = b.

19
CPGE Tétouan - MPSI Notes de cours: Déterminants 2023-2024

Pn
Si A = [C1 , . . . , Cn ], alors un produit par blocs donne AX = j=1 xj Cj et par suite pour chaque k = 1, . . . , n, on a :

 
det Ab
dk = detB (n) (C1 , . . . , Ck−1 , b, Ck+1 , . . . , Cn )
c
n
!
X
= detB (n) C1 , . . . , Ck−1 , xj Cj , Ck+1 , . . . , Cn
c
j=1
n
X
= xj detB (n) (C1 , . . . , Ck−1 , Cj , Ck+1 , . . . , Cn ) (Car detB (n) est linéaire par rapport à la kième composante)
c c
j=1

= xk detB (n) (C1 , . . . , Ck−1 , Ck , Ck+1 , . . . , Cn ) (Car detB (n) est alternée)
c c

= xk det(A). [CQFD]

8 Déterminant des matrices triangulaires ou diagonales par blocs

Définition 13 (Rappel : Matrice triangulaires et diagonales par blocs)  


A B
(1) Une matrice carrée M est dite triangulaire supérieure en deux blocs si elle s’écrit sous forme M =  ,
0s,r D
où A et D sont des matrices carées d’ordres respectifs r ⩾ 1 et s ⩾ 1 et B ∈ Mr,s (K). M est  
A 0r,s
(2) Une matrice carrée M est dite triangulaire inférieure en deux blocs si elle s’écrit sous forme M =  ,
B D
où A et D sont des matrices carées d’ordres respectifs r ⩾ 1 et s ⩾ 1 tels que r + s = n et B ∈ Ms,r (K).
(3) Une matrice carrée M est dite diagonale en deux blocs si elle satisfait à la forme du point (1) ou (2) avec une
matrice B nulle.
(4) Une matrice carrée M est dite triangulaire supérieure par blocs si elle s’écrit sous forme
 
A1,1 A1,2 ... A1,m−1 A1,m
 
 0r ,r A2,2 ... A2,m−1 A2,m 
 2 1 
 .. . . . . . . .. 
, où toute matrice pour tout i, j ∈ J1, mK, Ai,i est une
M = 
. . . . . 
 
 0
 rm−1 ,r1 0rm−1 ,r2 . . . Am−1,m−1 Am−1,m 

0rm ,r1 0rm ,r2 . . . 0rm ,rm−1 Am,m


matrice carrée d’ordre un ri ⩾ 1 et Ai,j est une matrice de taille (ri , rj ).
(5) Une matrice carrée M est dite triangulaire inférieure par blocs si elle s’écrit sous forme
 
A1,1 0r1 ,r2 ... 0r1 ,rm−1 0r1 ,rm
 
 A2,1 A2,2 ... 0r2 ,rm−1 0r2 ,rm 
 
 .. .. .. .. .. 
, où pour tout i, j ∈ J1, mK, Ai,i est une matrice carrée
M =  . . . . . 
 
 A
 m−1,1 Am−1,2 . . . Am−1,m−1 0rm−1 ,rm  
Am,1 Am,2 ... Am,m−1 Am,m
d’ordre un ri ⩾ 1 et Ai,j est une matrice de taille (ri , rj ).
(3) Une matrice carrée M est dite diagonale en blocs si elle satisfait à la forme du point (4) ou (5) avec des matrices
Ai,j toutes nulles si i ̸= j.

Le théorème suivant généralise le lemme 2 pour des blocs quelconques :

20
CPGE Tétouan - MPSI Notes de cours: Déterminants 2023-2024

Théorème 14
On conserve les notations de la définition 13 ci-desus. On a les formules :

1. Si M satisfait à l’un des point (1), (2) ou (3), alors det(M ) = det(A) det(D).
Par conséquent, on a l’équivalence : M inversible ⇐⇒ A et D sont inversibles.
m
Y
2. Si M satisfait à l’un des point (4), (5) ou (6), alors det(M ) = det(Ak,k ).
k=1
Par conséquent, on a l’équivalence : M inversible ⇐⇒ ∀k ∈ J1, mK, Ak,k est inversible.

Preuve :
Il suffit de démontrer le point 1., car le point 2. peut se démontrer par récurrence en utilisant le point 1. : On montre la relation lorsque
M est triangulaire supérieure en deux blocs. Lorsqu’elle triangulaire inférieure en deux blocs, il suffit de se ramener aux transposeés. On
peut suivre une récurrence simple, soit sur l’ordre n ⩾ 2 de M , soit sur l’ordre r ∈ J1, n − 1K de A(après fixer bien sûr n ⩾ 2). Choisissons
de suivre la récurrence sur r :
Avant de procéder la récurrence, on montre la propriété pour n’importe quel matrice M lorsque A = a ∈ K (càd A d’ordre r = 1).
a
Cas r = 1 : Il suffit de développer le déterminant de M suivant la première colonne(qu’est de composantes nulles sauf peut être le
premier a).
Vous pouvez même adapter la preuve du lemme 2 et vérifier que si au lieu de 1 il y a un certain a ∈ K, alors det(A) = a det(B).
a
Cas général, récurrence sur r ∈ J1, n − 1K, avec n fixé⩾ 2 :
Initialisation : C’est le cas particulier r = 1.  
A B
Héridité : On suppose que la propriété est vraie pour toute matrice M =  , où A et D sont des matrices carées d’ordres
0s,r D
1 tels que r + s= n et B ∈ Mr,s (K).
respectifs r ⩾ 1 et s ⩾
A B
Soit maintanant M =  , où A et D sont des matrices carées d’ordres respectifs r + 1 ⩾ 1 et s ⩾ 1 tels que r + 1 + s = n
0s,r+1 D
et B ∈ Mr+1,s (K).
▷ Si toute la première colonne de A est nulle, alors toute la première colonne de M est aussi nulle.
On obtient donc det(M ) = 0 = 0 × det(D) = det(A) × det(D)
▷ Si non, il existe k ∈ J1, r + 1K tel que ak,1 ̸= 0, où on a noté les coefficients de A par des ai,j .
On permute la première ligne de M avec la kième et on effectuer des transvections sur les lignes de M de rang 2, . . . , r + 1 en prenant
 
a L K
le premier nouveau coefficient de M comme pivot de sorte d’obtenir une matrice M ′ de la forme : M ′ = 
 

 0r,1 A B′ 
, où
0s,1 0s,r D
 
a L
a = ak,1 ∈ K∗ et A′ matrice carée d’ordre r telle que la matrice A′′ =   est obtenue à partir de A suivant une permutation
0r,1 A′
des premières et kième lignes, puis des transvections restreintes des précédentes.
Donc det(M ′ ) = −det(M ) et det(A′′ ) = − det(A).  
′′ ′ ′ ′′ ′′
A′ B′
D’un autre coté, le cas particulier r = 1 déjà traité affirme que det(A ) = a det(A ) et det(M ) = a det(M ), où M =  .
0s,r D
Cette matrice satisfait aux conditions de l’hypothèse de récurrence, donc det(M ′′ ) = det(A′ ) det(D).
Ensuite det(M ) = − det(M ′ ) = −a det(M ′′ ) = −a det(A′ ) det(D) = − det(A′′ ) det(D) = det(A) det(D). [CQFD]

9 Caractéristique du rang des matrices à l’aide des déterminants


On convient que les emplacements des éléments des familles indexées par des parties finies de Z s’implémentent de
gauche à droite en commençant par les éléments d’indices de plus petit vers le plus grand. Avec cette convention, on peut
définir la notion de matrice même indexée par un produit cartésien I × J avec I et J des parties finies de Z même ne sont
pas de la forme J1, mK.

21
CPGE Tétouan - MPSI Notes de cours: Déterminants 2023-2024

Définition 14 (Rappel : Sous-Matrice - Sur-matrice - Matrice bordante)


Soit A = (ai,j ) 1⩽i⩽n ∈ Mn,p (K) une matrice réctangulaire quelconque.
1⩽j⩽n
— Une matrice B et dite sous-matrice(ou matrice extraite) de A s’il existe une partie I de J1, nK et une partie J de
J1, pK telles que B = (ai,j ) i∈I . Dans ce cas, A est dite sur-matrice de B.
j∈J
— En général, si B = (ai,j ) i∈I et C = (ai,j )i∈K sont deux matrices extraites de A et si I ⊂ K et J ⊂ L, alors B est
j∈J j∈L
dite sous-matrice(ou matrice extraite) de C. Dans ce cas, C est dite sur-matrice de B.
— On peut se convenir de dire que B = (ai,j ) i∈I est une matrice vide lorsque I = ∅ ou J = ∅. La matrice vide est une
j∈J
sous-matrice de toutes les matrices.
— Une matrice carrée C = (ai,j )i∈K est dite bordante d’une matrice carrée B = (ai,j ) i∈I si B est une sous-matrice de
j∈L j∈J
C et Card(K) = Card(L) = Card(I) + 1 = Card(J) + 1.

Lemme 3 (Rang d’une matrice exraite)


Si B et C sont deux matrices telles que B est extraite de C, alors Rang(B) ⩽ Rang(C).

Preuve :
Posons B = (ai,j ) i∈I et C = (ai,j )i∈K telles que I ⊂ K et J ⊂ L.
j∈J j∈L  
Notons C = (Cj ) j∈L, où les Cj sont les colonnes de C et B = Cej , où les Cej sont les colonnes de B.
j∈J  
Posons s = Rang(B) et r = Rang(C). Alors, il existe J ′ ⊂ J telle que Card(J ′ ) = s et la famille Cej est libre(dans l’es-
j∈J ′
pace MCard(I),1 ). Comme toutes les colonnes Cej pour j ∈ J, sont obtenues, chacune de la colonne Cj en ne gardant que les
P
éléments lignes d’indices dans I, alors la famille (Cj )j∈J ′ est aussi libre(dans l’espace MCard(K),1 )(car si j∈J ′ λj Cj = 0Card(K),1 ,
 
P ′
alors j∈J ′ λj Cj = 0Card(I),1 ). Comme (Cj )j∈J ′ est une sous-famille de (Cj )j∈L , alors s = Card(J ) ⩽ Rang (Cj )j∈L = r.
e

[CQFD]

Lemme 4 (Le rang à l’aide des matrices extraites, carrées et inversibles)


Soit A une matrice réctangulaire quelconque et posons r = Rang(A). On convient qu’une matrice carrée d’ordre 0 est la
matrice vide et que celle-ci est inversible. Alors on a les propriétés :

1. A admet au moins une matrice extraite, carrée, d’ordre r et inversible(donc de même rang que A).

2. Pour tout k ∈ J0, rK, A admet au moins une matrice extraite, carrée, d’ordre k et inversible.

3. Si B est une matrice carrée, inversible et extraite de A, alors A admet au moins une matrice extraite, carrée,
d’ordre r et inversible(donc de même rang que A) et qu’est une sur-matrice de B.

4. Si B est une matrice carrée d’ordre un entier s, inversible et extraite de A, alors pour tout k ∈ Js, rK, A admet au
moins une matrice extraite, carrée, d’ordre k et inversible et qu’est une sur-matrice de B.

Preuve :
On note (Ci )i∈Γ et (Li )i∈∆ respectivement les colonnes et les lignes de A. On pose aussi(si besoin) n = Card(∆) et p = Card(Γ).

1. Comme A est de rang r, alors il existe J une partie de cardinal r de Γ telle que (Cj )j∈L soit libre. La matrice U = (Cj )j∈L formée
par ces r colonnes est de rang r. D’un autre coté, les n lignes de U notées (L′i )i∈∆ seront également de rang r. Il existe donc K
une partie de cardinal r de ∆ telle que (L′i )i∈K soit libre. La matrice formée par ces r lignes est donc carrée d’ordre r et de rang
r(et par suite elle est inversible).

2. Soit k ∈ J0, rK. D’après le point 1, Soit B une sous-matrice de A, carrée d’ordre r et inversible. Comme k ⩽ r, on peut choisir
k colonnes quelconques de B et notons les par Cj′ j∈T , où Card(T ) = k. Ces colonnes sont libres, puisque celles de B le sont.


Donc la matrice A′ = Cj′ j∈T est de rang k. Pour finir, il suffit d’appliquer le point 1, cette fois à A′ .

   
3. Soit B une matrice carrée, inversible et extraite de A. On note Cej et Lei respectivement les colonnes et les lignes de
j∈J i∈I
B(ici Card(I) = Card(J) = Ordre(B)). Les colonnes de B sont libres(puisque B inversible). Alors les colonnes de A qui leurs
augmentent (Cj )j∈J seront aussi libres(pourquoi ?). On les complète à partir des autres colonnes de A de telle sorte d’obtenir une
famille de r colonnes libres notés (Cj )j∈L . De même que dans le point 1, les n lignes notées (L′i )i∈∆ de la matrice U = (Cj )j∈L

22
CPGE Tétouan - MPSI Notes de cours: Déterminants 2023-2024

 
sont aussi de rang r. Comme les lignes Lei de B sont libres, alors les lignes (L′i )i∈I seront aussi libres. On les complète à
i∈I
partir des n autres lignes de U de sorte à obtenir une famille (L′i )i∈K libre de r lignes de U . La sous-matrice C = (L′i )i∈K de A est
 
carrée d’ordre r et de rang r(donc inversible). De plus c’est une sur-matrice de B (car B = Lei ⋐ (L′i )i∈I ⋐ (L′i )i∈K = C,
i∈I
où le symbôle ⋐ désigne ”sous-matrice de”).

4. Soit B est une sous-matrice de A et qu’est carrée inversible d’ordre s (donc s ⩽ r) et soit k ∈ Js, rK.
D’après le point 3, il existe une matrice C carée inversible d’ordre r et telle que B ⋐ C ⋐ A, où le symbôle ⋐ désigne ”sous-matrice
de”. Notons (Ci′ )i∈L les colonnes de C. Les colonnes de B seront donc indexées par une partie J de L.
Posons m = k − s et soit J ′ une partie quelconque de L \ J de cardinal m(c’est possible !), de sorte que Card(J ∪ J ′ ) = k.
La famille (Ci′ )i∈J∪J ′ est donc libre(puisque sous-famille de (Ci′ )i∈L qu’est libre) et par suite son rang est k.
Bref la matrice D = (Ci′ )i∈J∪J ′ est une matrice de rang k dont B est une sous-matrice.
Pour finir, il suffit d’appliquer le point 3, cette fois à la matrice D. [CQFD]

On donne maintenant quatre caractéristiques du rang d’une matrice à l’aide des déterminants des matrices carrées
extraites.

Théorème 15 (Rang à l’aide des déterminants des matrices carrées extraites(2))


Soit A une matrice réctangulaire quelconque et r ∈ N. On convient qu’une matrice carrée d’ordre 0 est la matrice vide et
que celle-ci est de déterminant = 1 ̸= 0. Alors les propositions suivantes sont équivalentes :

(1) Rang(A) = r ;

 (i) ∃B matrice carrée extraite de A d’ordre r : det(B) ̸= 0 ;
(2) ;
 (ii) ∀C matrice carrée extraite de A et d’ordre > r : det(C) = 0 .

 (i) ∃B matrice carrée extraite de A d’ordre r : det(B) ̸= 0 ;
(3) ;
 (ii) ∀C matrice carrée extraite de A et d’ordre r + 1 : det(C) = 0 .

 (i) ∃B matrice carrée extraite de A d’ordre r : det(B) ̸= 0 ;
(4) ;
 (ii) ∀C sous-matrice carrée de A et strictement sur-matrice de B : det(C) = 0 .

 (i) ∃B matrice carrée extraite de A d’ordre r : det(B) ̸= 0 ;
(5) .
 (ii) ∀C sous-matrice de A et bordante de B : det(C) = 0 .

Preuve : L’idée de montrer ces équivalences en montrant un cycle férmé d’implications n’aboutit pas bien !

1. Pour (1)=⇒(2) : Supposons que Rang(A) = r.


− Le point 1 du lemme 4 montre facilement le point (i).
− Soit C carrée extraite de A telle que m > r, où m est l’ordre de C.
Si par absurde det(C) ̸= 0, alors C est inversible et par suite Rang(C) = m.
Le lemme 3 affirme que Rang(C) ⩽ Rang(A) qui contradit le fait que m > r. Donc det(C) = 0.

2. Pour (2)=⇒(1) : Supposons (i) et (ii) de (1) et montrons que Rang(A) = r.


Le point (i) et le lemme 3 impliquent que Rang(A) ⩾ r.
Supposons par absurde que Rang(A) > r et posons s = Rang(A).
D’après le point 1 du lemme 4, il existe une sous-matrice C de A qu’est carrée inversible et telle que Rang(C) = s.
Donc C est d’ordre = s > r. Le point (ii) implique que det(C) = 0 qui contradit bien le fait que C est inversible.

3. Pour (2)=⇒(3) : c’est trivial.

4. Pour (3)=⇒(1) : Supposons (i) et (ii) de (3) et montrons que Rang(A) = r.


Le point (i) et le lemme 3 impliquent que Rang(A) ⩾ r.
Supposons par absurde que Rang(A) > r et posons R = Rang(A) et k = r + 1 qui apprtient donc à Jr, RK.
D’après le point 2 du lemme 4, il existe une sous-matrice C de A qu’est carrée inversible d’ordre k. Le point (ii) implique que
det(C) = 0 qui contradit bien le fait que C est inversible.

5. Pour (2)=⇒(4) : c’est trivial.

23
CPGE Tétouan - MPSI Notes de cours: Déterminants 2023-2024

6. Pour (4)=⇒(1) : Supposons (i) et (ii) de (4) et montrons que Rang(A) = r.


Le point (i) et le lemme 3 impliquent que Rang(A) ⩾ r.
Supposons par absurde que Rang(A) > r et posons s = Rang(A).
D’après le point 3 du lemme 4, il existe une sous-matrice C de A qu’est sur-matrice de B et qu’est carrée inversible et d’ordre s.
C est en outre une sur-matrice stricte de B.
Le point (ii) implique que det(C) = 0 qui contradit bien le fait que C est inversible.

7. Pour (2)=⇒(5) : c’est trivial(aussi (3)=⇒(5) et (4)=⇒(5) sont triviaux).

8. Pour (5)=⇒(1) : Supposons (i) et (ii) de (5) et montrons que Rang(A) = r.


Le point (i) et le lemme 3 impliquent que Rang(A) ⩾ r.
Supposons par absurde que Rang(A) > r et posons R = Rang(A) et k = r + 1 qui apprtient donc à Jr, RK.
D’après le point 4 du lemme 4, il existe une sous-matrice C de A qu’est une sur-matrice de B et carrée inversible d’ordre k = r + 1.
Donc C est une matrice bordante de B.
Le point (ii) implique que det(C) = 0 qui contradit bien le fait que C est inversible. [CQFD]

Remarque 6
Soit
 A une matrice réctangulaire quelconque. Les trois entiers :
 Max ({s ∈ N/∃B matrice carrée extraite de A d’ordre s : det(B) ̸= 0})


Min ({s ∈ N/∀B matrice carrée extraite de A d’ordre > s : det(B) = 0})


Min ({s ∈ N/∀B matrice carrée extraite de A d’ordre = s + 1 : det(B) = 0})

sont toujours bien définis et sont identiques au rang de A.

24
CPGE Tétouan - MPSI Notes de cours: Déterminants 2023-2024

Exemple : Essayons avec les caractéristiques du rang fournies par ce théorème de calculer le rang de la matrice suivante :
 
2 −1 3 0 −1
 
 0 2 1 3 5 
A= . On utilisera par exemple la caractéristique (5) (ou même (4)) du théorème :
 
 −1 0 −1 0 0 
 
1 −1 1 −1 −2
Il est clair, qu’il y a au moins une sous-matrice carrée d’odre 1 et autre d’ordre 2 de déterminant non nul.
On passe à l’ordre 3 et on cherche une sous-matrice d’ordre 3 simple à calculer son déterminant.
 
3 0 −1 3 0 −1
  3 −1
La sous-matrice B =  1 3 5  est de déterminant det(B) =
 1 3 5 = (−1)2+2 3 ̸= 0
−1 0
−1 0 0 −1 0 0
(on a développé par rapport à la colonnes 2).
Il y a exactement deux sous-matrices
 de A, bordantes
 de B :
−1 3 0 −1
 
 2 1 3 5 
— la matrice C =  , qu’est de déterminant :
 
 0
 −1 0 0  
−1 1 −1 −2
−1 3 −1 −1 3 −1
3+2 3+4
det(C) = (−1) 3 0 −1 0 + (−1) (−1) 2 1 5 =
−1 1 −2 0 −1 0
   
−1 −1 −1 −1
= −3 (−1)2+2 (−1)  + (−1)3+2 (−1)  = 3(2 − 1) + (−5 + 2) = 0.
−1 −2 2 5
 
2 3 0 −1
 
 0 1 3 5 
— La matrice D =  , qu’est de déterminant :
 
 −1 −1 0 0 
 
1 1 −1 −2
2 3 −1 2 3 −1
3+2 3+4
det(D) = (−1) 3 −1 −1 0 + (−1) (−1) 0 1 5 =
1 1 −2 −1 −1 0
   
3 −1 2 −1 3 −1 2 −1
= −3 (−1)2+1 (−1) + (−1)2+2 (−1)  + (−1)3+1 (−1) + (−1)3+2 (−1) =
1 −2 1 −2 1 5 0 5
= −3(−5 + 3) + (−16 + 10) = 0.
Donc Rang(A) = 3.

25
CPGE Tétouan - MPSI Notes de cours: Déterminants 2023-2024

10 Deux déterminants classiques usuels

10.1 Déterminants de Vandermonde - Lien avec problème d’interpolation polynômiale

Définition 15 Pour chaque n ∈ N∗ et chaque (x0 , . . . , xn−1 ) ∈ Kn , on appelle déterminant de Vandermonde


du n-uplet (x0 , . . . , xn−1 ), qu’on note V (x0 , . . . , xn−1 ) le déterminant de la matrice dont les vecteurs colonnes sont
     
1 1 1
     
 x0   x1   xn−1 
 .  ,  .  , . . . ,  . .
     
 ..   ..   .. 
     
n−1 n−1 n−1
x0 x1 xn−1
1 1 ... 1 1
! x0 x1 ... xn−2 xn−1
.. .. .. ..
 
Autrement dit, V (x0 , . . . , xn−1 ) = det xi−1
j−1 1⩽i⩽n = . . . . .
1⩽j⩽n
xn−2
0 xn−2
1 ... xn−2
n−2 xn−2
n−1

xn−1
0 xn−1
1 ... xn−1
n−2 xn−1
n−1

Remarque 7
Vu que le déterminant d’une matrice est identique au déterminant de sa transposée, alors :
1 x0 . . . xn−2
0 xn−1
0

! 1 x1 ... xn−2
1 xn−1
1
.. .. .. ..
 
V (x0 , . . . , xn−1 ) = det xj−1
i−1 1⩽i⩽n = . . . . .
1⩽j⩽n
1 xn−2 ... xn−2
n−2
n−1
xn−2
1 xn−1 ... xn−2
n−1
n−1
xn−1

Le théorème suivant donne des différentes notions liées au déterminant de Vandermonde et qui le caractérisent lorsqu’il
est non nul :

Théorème 16 (Autours du déterminant de Vandermonde)


Pour tout n ∈ N∗ et tout (x0 , . . . , xn−1 ) ∈ Kn , les propositions suivantes sont équivalentes :
(i) V (x0 , . . . , xn−1 ) ̸=0.
n
n−1 [X] → K
 K
(ii) L’application φ : est un isomorphisme d’espaces vectoriel.
 P 7→ (P (x0 ) , . . . , P (xn−1 ))
(iii) Les points x0 , . . . , xn−1 sont deux à deux distincts.
(iv) ∀ (y0 , . . . , yn−1 ) ∈ Kn , ∃P ∈ Kn−1 [X] : ∀k ∈ J0, n − 1K, P (xk ) = yk .
 Pn−1 xj a = y
j=0 i j i
(v) Pour tout (y0 , . . . , yn−1 ) ∈ Kn , le système à n équations et à n inconnues a0 , . . . , an−1 admet
 i = 0, . . . , n − 1
une solution dans Kn . 
 Pn−1 xj a = 0
j=0 i j
(vi) Le système homogène à n équations et à n inconnues a0 , . . . , an−1 admet (0, . . . , 0) comme
 i = 0, . . . , n − 1
l’unique solution dans Kn .
Y
Le cas échéant, on a la formule : V (x0 , . . . , xn−1 ) = (xj − xi ).
0⩽i<j⩽n−1
De plus, le polynôme P qui satisfait à l’existance dans (iv) est unique et la solution du système dans (v) est unique, pour
chaque (y0 , . . . , yn−1 ) ∈ Kn .

Remarque 8
La formule ci-dessus de V (x0 , . . . , xn−1 ) restes valables même que les points x0 , . . . , xn−1 ne sont pas deux à deux distincts,
car dans ce cas, la matrice de Vandermonde va contenir deux colonnes identiques.

26
CPGE Tétouan - MPSI Notes de cours: Déterminants 2023-2024

Preuve :
Pour (i) ⇐⇒ (ii) : L’application φ est clairement linéaire et dont la matrice relativement aux bases canoni-
 
1 x0 ... xn−2
0 xn−1
0
 
 1 x1 ... xn−2 xn−1
 
1 1 
. .. .. ..
   
j−1
ques des espaces de départ et d’arrivée n’est que la matrice xi−1 =  .. .
 
1⩽i⩽n . . .
1⩽j⩽n
 
xn−2 xn−1
 
 1 xn−2 ... n−2 n−2

 
1 xn−1 ... xn−2
n−1 xn−1
n−1
Donc V (x0 , . . . , xn−1 ) ̸= 0 ⇐⇒ φ isomorphisme d’espaces vectoriel.
Pour (i) =⇒ (iii) : si les points x0 , . . . , xn−1 ne sont pas deux à deux distincts : ∃(i, j) ∈ J0, n − 1K2 : i ̸= j et xi = xj , alors les deux
colonnes de rangs i et j de la matrice de Vandermonde citée dans la définition sont identiques. Donc V (x0 , . . . , xn−1 ) = 0.
Pour (iii) ⇐⇒ (ii) : Puisque les espaces de départ et d’arrivée sont de même dimension finie, il suffit de montrer que φ est injectif :
Lorsque l’image d’un polynôme P ∈ Kn−1 [X] par φ est nul, alors P admet n racines différentes(deux à deux): x0 , . . . , xn−1 .
Or deg(P ) ⩽ n − 1, alors P est nécessairement nul. Donc φ est injective.
Remarquer qu’on peut de plus montrer directement (ii) ⇐⇒ (iii) : Si les points x0 , . . . , xn−1 ne sont pas deux à deux distincts :
Y
∃(i, j) ∈ J0, n − 1K2 : i ̸= j et xi = xj , alors le polynôme P = (X − xk ) est non nul, dans Kn−1 [X] et qui vérifie
k∈J0,n−1K\{j}
φ(P ) = (0, . . . , 0). Donc φ n’est pas injectif.
Pour (ii) ⇐⇒ (iv) : Il suffit de remarquer que (iv) signifie que l’application linéaire φ est surjective et utliser le fait que les espaces de
départ et d’arrivée sont de même dimension finie.
Pour (i) ⇐⇒ (v) ⇐⇒ (vi) : Il suffit de remarquer que V (x0 , . . . , xn−1 ) est le déterminant de la même matrice des deux systèmes (v) et
(vi).
Pour la formule de V (x0 , . . . , xn−1 ) : La preuve repose sur l’utilisation des effets des opérations élémentaires sur les déterminants pour
établir une relation de récurrence. Voir TD(Déterminants). [CQFD]

Définition 16 (Polynôme d’interpolation)


Soit n ∈ N∗ , (x0 , . . . , xn−1 ) ∈ Kn . On suppose que V (x0 , . . . , xn−1 ) ̸= 0(ce qu’est équivalent à que les points x0 , . . . , xn−1
sont deux à deux distincts). Alors pour tout (y0 , . . . , yn−1 ) ∈ Kn , l’unique polynôme P de Kn−1 [X] tel que ∀k ∈ J0, n −
1K, P (xk ) = yk (proposition (iv) du théorème précédent) s’appelle le polynôme d’interpolation des points y0 , . . . , yn−1 aux
points x0 , . . . , xn−1 .

10.2 Déterminants de Cauchy - Lien avec problème d’interpolation fractionnelle

Définition 17 Soit n ∈ N∗ , a = (a1 , . . . , an ) ∈ Kn et b = (b1 , . . . , bn ) ∈ Kn tels que ∀(i, j) ∈ J1, nK2 : ai + bj ̸= 0. On


appelle déterminant
 de Cauchy qu’on peut noter C (a, b) relativement à ces deux n-uplets, le déterminant de la matrice de
1
Cauchy .
ai + bj 1⩽i⩽n
1⩽j⩽n
1 1 1 1
...
a1 + b1 a1 + b2 a1 + bn−1 a1 + bn
1 1 1 1
...
a2 + b1 a2 + b2 a2 + bn−1 a2 + bn
.. .. .. ..
Donc C (a, b) = . . . . .
1 1 1 1
...
an−1 + b1 an−1 + b2 an−1 + bn−1 an−1 + bn
1 1 1 1
...
an + b1 an + b2 an + bn−1 a n + bn

Remarque 9
Vu que le déterminant d’une matrice est identique au déterminant de sa transposée, alors : C (a, b) = C (b, a).

27
CPGE Tétouan - MPSI Notes de cours: Déterminants 2023-2024

Le théorème suivant donne des différentes notions liées au déterminant de Cauchy et qui le caractérisent lorsqu’il est
non nul :

Théorème 17 (Autours du déterminant de Cauchy)


Pour tout n ∈ N∗ , tout a = (a1 , . . . , an ) ∈ Kn et tout b = (b1 , . . . , bn ) ∈ Kn tels que ∀(i, j) ∈ J1, nK2 : ai + bj ̸= 0, les
propositions suivantes sont équivalentes :
(i) C (a, b) ̸= 0. 
 n  E → Kn
1
(ii) La famille F = est libre et l’application ψ : est un isomorphisme
X + bj
j=1
 F 7→ (F (a1 ) , . . . , F (an ))
 n !
1
d’espaces vectoriel, où E = Vect le sous-espaces(de l’espace de K(X)) formé des fractions de pôles
X + bj j=1
simples −b1 , . . . , −bn .
(iii) Les points a1 , . . . , an sont deux à deux distincts et les points b1 , . . . , bn sont deux à deux distincts.
(iv) ∀ (c1 , . . . , cn ) ∈ Kn , ∃F ∈ E : ∀k ∈ J1, nK,F (ak ) = ck .
Pn αj
 j=1 = ci
n
(v) Pour tout (c1 , . . . , cn ) ∈ K , le système ai + bj à n équations et à n inconnues α1 , . . . , αn admet
i = 1, . . . , n

une solution dans Kn . 
Pn αj
 j=1 =0
(vi) Le système homogène a i + bj à n équations et à n inconnues α1 , . . . , αn admet une unique solution
i = 1, . . . , n

(qu’est la solution nulle (0, . . . , 0)). Y
(aj − ai ) (bj − bi )
1⩽i<j⩽n V (a1 , . . . , an ) V (b1 , . . . , bn )
Le cas échéant, on a la formule : C(a, b) = Y = Y .
(ai + bj ) (ai + bj )
1⩽i,j⩽n 1⩽i,j⩽n
De plus, la fraction F qui satisfait à l’existance dans (iv) est unique et la solution du système dans (v) est unique, pour
chaque (c1 , . . . , cn ) ∈ Kn .

Remarque 10
La formule ci-dessus de C(a, b) restes valables même que les points a1 , . . . , an ou les points b1 , . . . , bn ne sont pas deux à
deux distincts, car dans ce cas, la matrice de Cauchy va contenir deux lignes ou deux colonnes identiques.

Preuve :
(n)
Pour (ii) =⇒ (i) : Il imédiat de voir que(si (ii) vraie) la matrice de ψ relativement aux bases F et Bc n’est que la matrice de Cauchy
 
1
. D’où ce qu’on souhaite établir.
ai + bj 1⩽i⩽n
1⩽j⩽n
Pour (i) =⇒ (iii) : Si a1 , . . . , an ne sont pas deux à deux distincts : ∃(i, j) ∈ J0, n − 1K2 : i ̸= j et ai = aj , alors les deux lignes de rangs
i et j de la matrice de cauchy citée dans la définition sont identiques.
Donc C (a, b) = 0. De même si les b1 , . . . , bn ne sont pas deux à deux distincts, alors deux colonnes de la matrice de Cauchy seront
identiques. Par conséquent C(a, b) = 0.
Pour (iii) ⇐⇒ (ii) : Si les points a1 , . . . , an sont deux à deux distincts et les points b1 , . . . , bn sont deux à deux distincts, alors on va
vérifier les trois points: n
1
1- La famille F = est libre et donc dim(E) = n.
X + bj j=1

2- ψ est un isomorphisme d’espaces vectoriels.


3- MatB(n) ,F (ψ) est la matrice de Cauchy définie plus haut.
c

En effet :
 Pour le point 1-, utiliser l’unicité de décomposition en éléments simples des fractions en remarquant que si α1 , . . . , αn sont des
αk
scalaires tels que n
P
k=1 = 0K(X) , alors celle-ci coı̈ncide avec
X + bk
0K 0
= n
P
la décomposition en éléments simples de la fraction nulle 0K(X) = Qn k=1 = 0K(X) .
k=1 (X + b k ) X + bk

28
CPGE Tétouan - MPSI Notes de cours: Déterminants 2023-2024

Donc ∀k ∈ J1, nK : αk = 0 (car on a décomposé suivant des pôles(simples) deux à deux distincts).
αk
 Pour le point 2-, il suffit de montrer que ψ est injectif : Si F = n
P
k=1 ∈ E telle que
 X + bk
 ∃P ∈ Kn−1 [X] : F = Qn P

;
(F (a1 ) , . . . , F (an−1 )) = (0, . . . , 0), alors : k=1 (X + bk )
 ∀k ∈ J1, nK : P (ak ) = 0.

Comme deg(P ) < n et les points a1 , . . . , an sont deux à deux distincts, alors P = 0K[X] , puis F = 0K(X) .
 Pour le point 3-, c’est imédiat !
Conséquence : En combinant entre ces trois points, on tire que C(a, b) ̸= 0.
Remarquer qu’on peut de plus montrer directement (ii) ⇐⇒ (iii) : Si les b1 , . . . , bn ne sont pas deux à deux distincts, alors la famille
F est liée et donc dim(E) < n et par conséquent ψ ne pourait être surjective et par conséquent ne pourait être isomorphisme. Si les
b1 , . . . , bn sont deux à deux distincts et les points a1 , . . . , an ne sont pas deux à deux distincts : ∃(i, j) ∈ J0, n − 1K2 : i ̸= j et ai = aj .
P Y
La fraction F = Qn , où P = (X − ak ) qu’est non nul(donc F non nulle).
k=1 (X + b k )
k∈J1,nK\{j}
Or, puisque tout al est distinct de tous les bk , alors les pôles de F sont les bk et sont simples. De plus P ∈ Kn−1 [X], alors la décomposition
en éléments simples de F est sans partie entière. Donc F ∈ E.
De plus F est non nulle et d’image nulle par ψ. Donc ψ n’est pas injective et donc n’est pas isomorphisme.
Pour (ii) ⇐⇒ (iv) : Il suffit de remarquer que (iv) signifie que l’application linéaire ψ est surjective et établir le fait que les espaces de
départ et d’arrivée seront de même dimension finie.
Pour (i) ⇐⇒ (v) ⇐⇒ (vi) : Il suffit de remarquer que les matrices des deux systèmes dans (v) et (vi) sont identique à la matrice de
Cauchy dont sont déterminant est C(a, b).
Pour la formule de C(a, b) : La preuve repose sur l’utilisation des effets des opérations élémentaires sur les déterminants pour établir une
relation de récurrence. Voir TD(Déterminants). [CQFD]

Définition 18 (Interpolation fractionnelle)


Soit n ∈ N∗ , a = (a1 , . . . , an ) ∈ Kn et b = (b1 , . . . , bn ) ∈ Kn tels que ∀(i, j) ∈ J1, nK2 : ai + bj ̸= 0.
On suppose que le déterminant de Cauchy C (a, b) ̸= 0 (ce qu’est équivalent à que les points a1 , . . . , an sont
deux à deux distincts et les points b1 , . . . , bn sont deux à deux distincts). Alors pour tout (c1 , . . . , cn ) ∈ Kn , l’unique fraction
 n !
1
F de E = Vect telle que ”∀k ∈ J1, nK : F (ak ) = ck ”(proposition (iv) du théorème précédent) s’appelle la
X + bj j=1
fraction de pôles simples −b1 , . . . , −bn qui interpole les points c1 , . . . , cn aux points a1 , . . . , an .

29

Vous aimerez peut-être aussi