Cours Alg PR ST
Cours Alg PR ST
Cours Alg PR ST
Lahoucine Elaissaoui
Année Universitaire 20232024
Université Mohammed V-Rabat
Faculté des sciences
Département des Mathématiques
Laboratoire de Mathématiques, Statistique et Applications
Master Statistique et Économétrie
Introduction et Terminologie
On appelle matrice un tableau rectangulaire des nombres disposés en
lignes et en colonnes et soumis à certaines règles d'opérations. En
statistique, l'algèbre matricielle est utilisée pour exprimer et étudier
certaines collections de données. Par exemple, la conversion en algèbre
matricielle du tableau (qui décrit le rendement des stratégies suivies par
une société donnée en fonction du temps)
pendant 2 ans pendant 4 ans
Stratégie 1 10 −5
Stratégie 2 3 7
Stratégie 3 8 8
10 −5 10 −5
1 + 1 −1 + 1 2 + 0 2 0 2
A+B = = .
0+3 0+0 1+1 3 0 2
Exercice
Soient A = [ai,j ] ∈ Mm,n (K) une matrice xée et X ∈ Mm,n (K). Ré-
soudre les équations suivantes : A + X = A et A + X = Θm,n . Déduire
l'élément neutre et la matrice opposée (l'élément symétrique pour l'ad-
dition) dans Mm,n (K). Que peut on dire sur le magma (Mm,n (K), +) ?
Propriétés et remarques
avec p
X
ci,j = ai,k bk,j ,
k=1
pour tous i = 1, 2, · · · , m et j = 1, 2, · · · , n.
0 1
On déduit que AB ̸= BA. Si on pose C = montrer que BC = Θ2 ,
0 0
que peut-on déduire ?
on montre que
a1T∗
T
a1∗ b∗1 a1T∗ b∗2 · · · a1T∗ b∗n
aT aT b∗1 aT b∗2 · · · a2T∗ b∗n
2∗ 2∗ 2∗
AB = . [b∗1 , b∗2 , · · · , b∗n ] = . .. ... ..
.. ..
. .
T T b T T
am∗ am∗ ∗1 am∗ b∗2 · · · am∗ b∗n
h i
T
= ai∗ b∗j
Exercice
Donner tous les partitionnements possibles des matrices de taille (3, 4)
et (4, 4).
Master Statistique et Econométrie
22 / 140
▲
L'algèbre matricielle
Exercice
Donner les (2 × 2) partitionnements possibles des matrices de taille (3, 4)
et (4, 4).
1 Soit A = [Ai,j ] une matrice carrée d'ordre n par blocs dont toutes les
sous-matrices Ai,j sont carrées alors
Tr(A) = Tr(Ak,k ).
X
Exercice
Soit A la matrice donnée par
1 0 1 3
A = 2 1 0 1
0 3 1 2
T
AT
A A1,2 A
si A = 1,1 alors A = 1T,1
T 2,1 .
A2,1 A2,2 A1,2 AT
2,2
2 Soient A = [Ai,j ] et B = [Bi,j ] deux matrices par blocs de même taille telles
que les sous-matrices Ai,j et Bi,j sont de même taille pour chaque couple
(i, j) (on dit dans ce cas A et B sont conformablement partitionnées
pour l'addition) donc A + B = [Ai,j + Bi,j ].
hX i
AB = Ai,k Bk,j .
Rappels et dénitions
On dénit le noyau d'une matrice A ∈ Mm,n (K), et est noté par ker(A)
l'ensemble
ker(A) := {x ∈ Kn , Ax = 0Km , }
On peut démontrer facilement que le noyau d'une matrice A ∈ Mm,n (K)
est un sous-espace vectoriel de Kn . On dénit l'image de A, et est notée
Im(A), l'ensemble
Im(A) := {Ax, x ∈ Kn },
Exercice
Soit A = [Ak ] une matrice bloc-diagonale. Montrer que An = [Ank ].
Théorème du rang
Théorème
Soit A ∈ Mm,n (K), alors
rg(A) = n − dim ker(A).
Exercice (propositions)
Soit A ∈ Mm,n (K) et on pose f (x) = Ax pour tout x ∈ Kn .
1 Montrer que f est injective si et seulement si rg(A) = n.
2 Montrer que f est surjective si et seulement si rg(A) = m.
Dénition
Soit A ∈ Mm,n (K), on appelle le rang de A, noté rg(A), la dimension
de sous-espace vectoriel Im(A). i.e.
rg(A) := dim Im(A) = dim{Ax, x ∈ Kn } ≤ min(m, n)
Dénition
Une matrice A ∈ Mm,n (K) est dite de rang plein si rg(A) = n.
Exercice (proposition)
Montrer qu'une matrice A ∈ Mm,n (K) est de rang plein si et seulement
si l'application f (x) = Ax pour x ∈ Kn est injective.
Propriétés
Exercice et Propriétés
Montrer les propriétés suivantes
une matrice A ∈ Mn (K) est inversible si et seulement si rg(A) = n.
Soient A, B ∈ Mn (K), telles que l'une des deux est inversible alors
AB = In ⇐⇒ BA = In .
A−1
−1 Θn,m
M = .
Θm,n B −1
L'algèbre matricielle
Dénition
Soit A ∈ Mn (K) une matrice carrée. On dit que A est inversible s'il
existe une matrice B ∈ Mn (K) telle que
AB = In et BA = In .
B est dite l'inverse de A et on pose B = A−1 .
Notez que l'inverse d'une matrice A ∈ Mm,n (K) n'est pas dénie sauf pour
m = n; ainsi que l'inverse (en cas d'existence) est unique.
1 −1 −1
F −1 = A− −1
22 + A22 A21 G A12 A22
et
1 −1 1
G −1 = A−
11 + A11 A12 F
−1
A21 A−
11 .
Théorème 1
Si A11 et son complément de Schur F sont inversibles alors la matrice A
est inversible et
−1 1 1 1
A11 + A− A12 F −1 A21 A− −A− A12 F −1
−1 11 11 11
A = 1 .
−F −1 A21 A− 11 F −1
3. Déduire que
A−1 = UD −1 L;
et déterminer sa forme explicite en utilisant l'exercice
précédent.
Exercice
Prouver Théorème 2 en suivant des étapes analogues. En déduire le
Corollaire.
Exercice 1 (TD)
Soient A ∈ Mn (R) inversible, u, v ∈ Rn , et λ ∈ R. Calculer l'inverse s'il
existe de la matrice
A u
.
vT λ
2. Montrer que
A11 Θn1 ,n2
LAU = = D.
Θn2 ,n1 F
L'algèbre matricielle
Groupe symétrique
Soit E un ensemble ni de n éléments. On appelle le groupe symétrique de
E , et le note Gn (E ), le groupe des bijections de E dans E muni de la loi de
la composition d'applications. Que l'on peut nommer aussi le groupe
des permutations de E . Formellement, soit E = {xi }i=n i=1 et soit
σ ∈ Gn (E ) une permutation de E alors pour chaque i = 1, · · · n on a
σ(xi ) := σi = xj avec j ∈ {1, · · · , n}; donc
σ(E ) = {σ1 , σ2 , · · · , σn }.
Exercice (proposition)
Soit E un ensemble ni de cardinal n et soit Gn (E ) son groupe symé-
trique. Montrer que card(Gn (E )) = n!.
Master Statistique et Econométrie
38 / 140
▲
Exercice 2 (TD) : Actualisation de rang 1
Soient A, u et v comme dans l'exercice précédent. Montrer (A + uv T )
est inversible si et seulement si 1 + v T A−1 u ̸= 0 et que
1
(A + uv T )−1 = A−1 − A−1 uv T A−1 .
1+ v T A−1 u
Ind. Pensez au produit
0Rn
A u In
.
−v T 1 vT 1
chaque i = 1, · · · n.
Ainsi, on laisse au titre d'exercice, en utilisant les propriétés présentées
ci-dessus sur les permutations, de démontrer les propriétés suivantes
P1. L'application ψ : Kn × · · · × Kn → K donnée par
ψ(a∗1 , a∗2 , · · · , a∗n ) = |A| avec A = [a∗i ]i=n
i=1 ∈ Mn (K)
Exercices
Comme complément du cours on considère les exercices suivants
Exercice 1.
Soient A, B deux matrices carrées d'ordre n et m, respectivement, et soit
C une matrice de taille (n, m). Calculer les déterminants des matrices
suivantes
A C A Θn,m
H= et H = T
′
.
Θm,n B C B
Exercice 2.
Soient A ∈ Mn (K) inversible, u, v ∈ Kn , et λ ∈ K. Calculer le détermi-
nant de (A + λuv T ).
Notez qu'on peut démontrer d'une manière similaire que si A22 est
inversible alors |A| = |A22 ||G |; où G est le complément de Schur de A22 ;
i.e.
1
|A| = |A22 ||A11 − A12 A−
22 A21 |.
Déduire que AAT et AT A ont les mêmes valeurs propres non nulles pour
toute matrice A ∈ Mm,n (K).
Propriétés et remarques
Deux matrices semblables sont équivalentes mais la réciproque n'est pas
vraie.
Deux matrices semblables représentent le même endomorphisme d'un espace
vectoriel muni de deux bases diérentes et P est la matrice de passage d'une
base à l'autre. Cependant, deux matrices équivalentes représentent la même
application linéaire entre deux espaces vectoriels (qui peuvent être diérents)
et Q est la matrice de passage dans l'espace d'arrivé et P celle pour l'espace
de départ.
les relations ≃ et ∼ sont des relations d'équivalence.
Deux matrices semblables ont même polynôme caractéristique, même trace
et même rang. Par conséquent, ont même valeurs propres. Cependant, les
matrices équivalentes de même ordre peuvent avoir des polynômes
caractéristiques diérents.
Dénitions
On dit que deux matrices A ∈ Mn (K) et B ∈ Mn (K) sont semblables,
et on note A ≃ B, si et seulement s'il existe une matrice inversible
P ∈ GLn (K) telle que A = PBP −1 .
On dit que deux matrices A ∈ Mm,n (K) et B ∈ Mm,n (K) sont
équivalentes, et on note A ∼ B, si et seulement s'il existe deux matrices
Q ∈ GLm (K) et P ∈ GLn (K) telles que A = QBP −1 .
Preuve
Pour n = 1 on a A = [a] ∈ M1 (C) est trivialement trigonalisable.
Supposons que pour un certain entier n ≥ 1 une matrice A ∈ Mn (C) est
trigonalisable et montrons qu'une matrice d'ordre n + 1 est trigonalisable.
Soit M ∈ Mn+1 (C), et puisque C est algébriquement clos alors M a
(n + 1) valeurs propre. Soit λ ∈ SpC (A) et soit v0 ∈ Eλ (A) alors d'après le
théorème de base incomplète il existe (vk )nk=1 ∈ Cn+1 tels que
B = {vk }nk=0 est une base de Cn+1 ; pour laquelle M est semblable à la
matrice
λ wT
M′ = , où A ∈ Mn (C).
0Cn A
Puisque A ∈ Mn (C) est trigonalisable c'est à dire il existe P ∈ GLn (C)
telle que A = PTP −1 où T est triangulaire supérieure, et si on pose
Dénition
On dit qu'un polynôme p ∈ K[X ] est un polynôme annulateur d'une
matrice carrée A ∈ Mn (K) si et seulement si p(A) = Θn .
On note par A(A) l'ensemble des polynômes annulateur de la matrice A.
Notez que si p(X ) = mk=0 ck X est un polynôme alors l'image d'une
k
P
matrice A ∈ Mn (K) par p est une matrice carrée dénie par
m
X
p(A) = ck Ak ,
k=0
avec A0 = In .
Master Statistique et Econométrie
57 / 140
▲
La théorie spectrale des matrices et réduction
Polynôme minimal
Dénition
On appelle le polynôme minimal d'une matrice A ∈ Mn (K), le polynôme
unitaire de plus petit degré qui annule A, noté πA .
Preuve
Il existe plusieurs sorte de preuve du théorème de Cayley-Hamilton dans
diérentes littératures ; cependant, ici on va présenter une preuve simple et
rapide par récurrence. Tout d'abord, on a déjà démontré que toute matrice
dans C est trigonalisable et aussi deux matrices semblables ont même
polynôme caractéristique. Ainsi, si T est une matrice triangulaire
supérieure semblable à A c'est à dire il existe Q ∈ GLn (C) telle que
A = QTQ −1 , alors on a χA (X ) = χT (X ) et par suite
χA (A) = χT (M) = QχT (T )Q −1 .
D'où χA (A) = Θn si et seulement si χT (T ) = Θn . Maintenant, pour une
matrice triangulaire T = [a] de taille 1 son polynôme caractéristique est
trivialement annulateur. Supposons que le polynôme caractéristique d'une
matrice triangulaire supérieure T ∈ Mn (C) pour un certain n ≥ 1 est
annulateur de T et montrons que ça reste vrai pour une matrice
triangulaire supérieure T ′ ∈ Mn+1 (C).
Master Statistique et Econométrie
64 / 140
▲
Théorème de Cayley-Hamilton
Le polynôme caractéristique d'une matrice A ∈ Mn (C) est annulateur
de A. i.e. pour tout A ∈ Mn (C) on a χA (A) = Θn .
Par conséquent, on déduit que
Corollaire
Le polynôme minimal πA d'une matrice A ∈ Mn (C) divise le polynôme
caractéristique χA .
Par conséquent, si on désigne par mλ la multiplicité de la valeur propre λ
dans le polynôme caractéristique d'une matrice A ∈ Mn (C) (appelée la
multiplicité algébrique) alors on a
Y
πA (X ) = (x − λ)αλ ,
λ∈SpC (A)
où 1 ≤ αλ ≤ mλ .
Master Statistique et Econométrie
63 / 140
▲
La théorie spectrale des matrices et réduction
Dénition
Soient A ∈ Mn (K) et λ ∈ SpK (A). Le sous-espace
Eλc (A) := ker ((A − λIn )αλ ) ,
Preuve
On rappelle que si M ∈ Mn (K) alors pour tout n ∈ N∗
ker(M n ) ⊂ ker(M n+1 ).
Ainsi, on a
Eλc (A) ⊂ ker (A − λIn )αλ +1
Notez qu'on l'identité de Bézout joue un rôle très important dans l'algèbre
et en particulier dans l'algèbre linéaire. Un autre exemple d'utilisation est
donné dans le lemme suivant.
c'est à dire,
r (X )(X − λ)αλ +1 + s(X )πA (X ) = (X − λ)αλ .
D'où
r (A)(A − λIn )αλ +1 = (A − λIn )αλ ;
Preuve
Puisque p et q sont premiers entre eux alors d'après l'identité de Bézout, il
existe deux polynôme r , s ∈ K[X ] tels que
r (X )p(X ) + s(X )q(X ) = 1.
c'est à dire
ker(p(A)) ∩ ker(q(A)) = {0Kn }.
Master Statistique et Econométrie
72 / 140
▲
La théorie spectrale des matrices et réduction
Corollaire : Généralisation
Soit (pk )ℓk=1 ∈ K[X ] une famille nie des polynômes deux à deux pre-
miers entre eux et A ∈ Mn (K), alors
ℓ ℓ
!
Y M
ker pk (A) = ker(pk (A))
k=1 k=1
donc
(M − λIm )mλ = Θm .
Ce qui montre que la seule valeur propre de M est λ. De la même manière,
puisque
q(A)vk = 0Kn ∀k ∈ [|m + 1, n|]
alors d'après la stabilité de Eλc (A) et ker(q(A)) par A on a
′ −1 q(M) Θm,n−m q(M) Θm,n−m
q(A ) = P q(A)P ⇔ = .
Θn−m,m q(N) Θn−m,m Θn−m
Proposition
Soit A ∈ Mn (C) alors
M
Cn = Eλc (A).
λ∈SpC (A)
Ainsi que, X
n= mλ ;
λSpC (A)
Exercice
Soit M ∈ M2n (R) (n ≥ 1) donnée par
3In uu T
M=
uu T In
où u ∈ Rn
Montrer que M est semblable à une matrice diagonale à déterminer.
Matrice diagonalisable
Dénition
On appelle une matrice A ∈ Mn (K) diagonalisable toute matrice sem-
blable à une matrice diagonale.
Proposition
Soit matrice A ∈ Mn (K), alors les assertions ci-dessous sont équiva-
lentes :
1 A est diagonalisable.
2 Le polynôme caractéristique χA est scindé et dim Eλ (A) = mλ pour tout
λ ∈ SpK (A).
3 Le polynôme minimal πA est scindé et à racines simples.
Dénition
On appelle une norme sur un K−espace vectoriel E , et notée ∥ · ∥, toute
application de E dans R+ vériant
Pour tout x ∈ E et λ ∈ K, on a ∥λx∥ = |λ|∥x∥.
Pour tous x, y ∈ E on a ∥x + y ∥ ≤ ∥x∥ + ∥y ∥
∥x∥ = 0 ⇐⇒ x = 0E .
Master Statistique et Econométrie
82 / 140
▲
La décomposition en valeurs singulières des matrices (DVS)
Dénition
Soit E une K−espace vectoriel de dimension nie n ≥ 1. On appelle
produit scalaire sur E , toute application, noté ⟨·, ·⟩, de E × E dans K
vériant :
Pour tous x, y , z ∈ E et λ ∈ K on a
⟨x + λy , z⟩ = ⟨x, z⟩ + λ⟨y , z⟩.
Dénition
On dit que deux vecteurs x, y ∈ E sont orthogonaux si et seulement si
⟨x, y ⟩ = 0.
On qu'une famille de vecteurs non nuls {vk }m
k=1 est une famille
orthogonale si ses vecteurs sont deux à deux orthogonaux ; i.e.
0 si i ̸= j
(
⟨vi , vj ⟩ = ∀i, j ∈ [|1, m|].
∥vi ∥2 si i = j.
Si de plus ∥vk ∥ = 1 pour tout i ∈ [|1, m|], on dit que la famille {vk }m
k=1
est orthonormée.
Exercice
Soit ⟨·, ·⟩ un produit scalaire sur K−un espace vectoriel E .
1 (L'inégalité de Cauchy-Schwarz) Montrer que pour tous x, y ∈ E on a
|⟨x, y ⟩| ≤ ∥x∥∥y ∥.
m 2 m
∥vk ∥2 .
X X
vk =
k=1 k=1
Exercice
Montrer l'identité de Pythagore.
X ⊥ = {x ∈ E , ⟨x, y ⟩ = 0, ∀y ∈ X }.
Exercice
Soient X et Y deux ensembles non vides de E ,
Montrer que X ⊥ est un sous-espace vectoriel de E .
Montrer que X ⊂ Y implique Y ⊥ ⊂ X ⊥ .
⊥
Montrer que X ⊂ X ⊥ est l'égalité découle si et seulement si X est
un sous espace vectoriel de E .
Montrer que E ⊥ = {0E } et {0E }⊥ = E .
k=1
⇒ ∀j ∈ [|1, m|], λj ∥vj ∥2 = 0
⇒ ∀j ∈ [|1, m|], λ j = 0.
où =
u∗ uT désigne pour tout u ∈ l'adjoint (ou transconjugué) du
Kn
vecteur u et M = [⟨ej , ei ⟩] ∈ Mn (K) est dite la matrice associée au
produit scalaire dans la base B.
Master Statistique et Econométrie
91 / 140
▲
La décomposition en valeurs singulières des matrices (DVS)
Par conséquent,
Kn = ker(A) ⊕ Im(A∗ ) et Km = ker(A∗ ) ⊕ Im(A).
M est dénie, i.e. xc∗ Mxc = 0 ⇐⇒ xc = 0Kn car le produit scalaire est déni.
Si B est une base orthonormée de E alors M = In .
Master Statistique et Econométrie
93 / 140
▲
La décomposition en valeurs singulières des matrices (DVS)
Projecteur orthogonal
Dénition
On appelle un projecteur (ou une projection) tout endomorphisme p :
E −→ E idempotent ; i.e. vériant p ◦ p = p. Ainsi, sa matrice associée
P ∈ Mn (K) est dite la matrice de la projection et vériant P 2 = P.
Proposition et Dénition
Si p est un projecteur de E alors on a
E = Im(p) ⊕ ker(p).
Preuve
x ∈ ker(A) ⇐⇒ ∀y ∈ Km , y ∗ Ax = 0
⇐⇒ ∀y ∈ Km , (A∗ y )∗ x = 0
⇐⇒ x ∈ (Im(A∗ ))⊥ .
Donc
ker(A) = (Im(A∗ ))⊥ ,
ce qui est équivalent, puisque le noyau et l'image d'une matrice sont des
sous-espaces vectoriels, à
(ker(A))⊥ = (Im(A∗ ))⊥ = Im(A∗ )
⊥
Ainsi,
Im(A) = Im((A∗)∗) = (ker(A∗))⊥
Master Statistique et Econométrie
95 / 140
▲
Théorème
Soient F un sous-espace vectoriel de E et x ∈ E , alors
min ∥x − y ∥ = ∥x − p(x)∥,
y ∈F
Exercice
Soit p un projecteur de E . Montrer que q = idE − p est un projecteur
de E et
Im(p) = ker(q) et ker(p) = Im(q).
Donc on obtient, pour tout v ∈ Kn ,
PF v = Ax = A(A∗ A)−1 A∗ v ,
i.e.
PF = A(A∗ A)−1 A∗
qui est l'expression de la matrice de la projection orthogonale sur le
sous-espace vectoriel F . Remarquez que PF ∈ Mn (K) est une matrice
auto-adjointe et que rg(PF ) = dim F = m.
Exercice
Soit u un vecteur non nul de Kn . Déterminer la matrice de la projection
orthogonale sur F = vect(u).
A∗ Ax = A∗ v ⇐⇒ x = (A∗ A)−1 A∗ v
qui est dite l'équation normale et elle joue un rôle très importante dans la
statistique ; en particulier, pour eectuer une régression linéaire par la
méthode des moindres carrés. Notez l'unicité de x.
Master Statistique et Econométrie
99 / 140
▲
Par conséquent, on a le système linéaire Y = X β + ε où
X = [xi,j ] ∈ Mn,m+1 (R), β = [β0 , β1 , · · · , βm ]T ∈ Rm+1 et
ε = [ε1 , · · · , εn ]T ∈ Rn sont sous la forme
1 x1,1 x1,2 · · · x1,m
ε1 β0
1 x2,1 x2,2 · · · x2,m ε2 β2
X = . .. .. . . .. , . et β = . .
.. . ..
. . . . .
1 xn,1 xn,2 · · · xn,m εn βm
β est dit le vecteur des paramètres du modèle. Ainsi, on dénit la valeur
prédite du modèle par Ŷ qui vérie l'équation Ŷ = X β̂, où β̂ est le vecteur
des paramètres estimés. Donc, on appelle la diérence entre la valeur
observée Y et celle prédite Ŷ par le résidu, i.e. ε̂ = Ŷ − Y . En eet,
min ∥ε∥ = minn ∥Y − X β∥ = ∥Y − Ŷ ∥ = ∥ε̂∥.
β∈R
D'où
Ŷ = X β̂ = PX Y ,
où PX = X (X T X )−1 X T est la matrice de la projection orthogonale sur
Im(X ).
D'où
n n n n
! ! ! !
xi2
X X X X
yi − xi xi yj
i=1 i=1 i=1 i=1
n n
!2
xi2 −
X X
n xi
β̂ = (X T X )−1 X T Y = i=1! i=1
.
n n n
! !
X X X
n xi yj − xi yi
i=1 i=1
!2i=1
n n
xi2 −
X X
n xi
i=1 i=1
Explicitement on a,
1T 1T 1 1 T x
X T X = [1, x]T [1, x] = 1 x = T
;
x T 1 x xT x
i.e. n
X
n xi
T i=1
X X = n X .
n
2
X
x i x i
i=1 i=1
Puisque les xi ne sont pas tous égaux alors la matrice X T X est inversible
et on a
n n
2
X X
xi − xi
1
T −1 1 i=1
(X X ) = i= .
n n
!2
X n
−
xi2 − xi n
X X
n xi
i=1
i=1 i=1
Théorème spectral
Dénition : matrice unitaire - orthogonale
On dit qu'une matrice U ∈ Mn (K) est unitaire si et seulement si
UU ∗ = In et U ∗ U = In .
En particulier, si K = R on dit que U est une matrice orthogonale.
et désigne par On (K) l'ensemble des matrices unitaires (en particulier
orthogonales) d'ordre n.
Exercice
Montrer que (On (K), ×) est un groupe et que pour tout P ∈ On (K)
on a | det(P)| = 1 ( le module du déterminant de P ) et déduire que
On (K) ⊂ GLn (K).
Master Statistique et Econométrie
107 / 140
▲
En eet, soit A ∈ Mn (K) une matrice auto-adjointe et soit λ une valeur
propre de A alors pour un vecteur propre v associé à λ on a
v ∗ (Av ) = (Av )∗ v ⇐⇒ λv ∗ v = λv ∗ v ⇐⇒ λ = λ ⇐⇒ λ ∈ R,
Proposition 2.
Les vecteurs propres associés à des valeurs propres distinctes d'une ma-
trice auto-adjointe sont orthogonaux.
En eet, Soient λ et µ deux valeurs propres distinctes associées à deux
vecteurs propres v et u, respectivement, d'une matrice auto-adjointe A
alors on a
u ∗ (Av ) = (Au)∗ v ⇐⇒ λu ∗ v = µu ∗ v ⇐⇒ (λ − µ)u ∗ v = 0 ⇐⇒ u ∗ v = 0
Théorème spectral
Soit A ∈ Mn (K) une matrice auto-adjointe alors il existe une matrice
P ∈ On (K) et une matrice diagonale D = diag [λ] telles que
λ∈Sp(A)
A = PDP ∗ .
Proposition 1.
Les valeurs propres d'une matrice auto-adjointe sont réelles.
Corollaire
Soit A ∈ Mn (K) une matrice auto-adjointe alors :
A est positive si et seulement si les valeurs propres de A sont positives.
A est dénie-positive si et seulement si les valeurs propres de A sont
strictement positives.
D'une manière équivalente, une matrice A ∈ Mn (K) auto-adjointe est
positive (resp. dénie-positive) si et seulement s'il existe une matrice
B ∈ Mn (K) (resp. B ∈ GLn (K)) telle que
A = B ∗ B.
Master Statistique et Econométrie
113 / 140
▲
La décomposition en valeurs singulières des matrices (DVS)
Théorème (DVS)
Soit A ∈ Mm,n (K) une matrice du rang r ≥ 1, alors il existe deux
matrices S ∈ Om (K) et V ∈ On (K) telles que
A = S∆V ∗ ;
où
Dr Θr ,n−r
∆=
Θm−r ,r Θm−r ,n−r
√
et Dr = diag [ λ] ∈ Mr (K).
λ∈Sp(A∗ A)
Preuve
Soit A ∈ Mm,n (K) une matrice du rang r ≥ 1; on rappelle que
r ≤ min{m, n}, donc la matrice A∗ A ∈ Mn (K) est auto-adjointe positive
du rang r , et par conséquent, elle admet r −valeurs propres strictement
positives et n − r valeurs propres nulles. Ainsi, par le théorème spectral il
existe une matrice V ∈ On (K) telle que
A∗ A = VDV ∗
où
Dr2
Θr ,n−r
D= .
Θn−r ,r Θn−r ,n−r
La matrice unitaire V a la forme concaténée par colonne
V = [v1 , v2 , · · · , vr , vr +1 , · · · , vn ] avec {vk }rk=1 sont les vecteurs propres
orthonormaux associés à les r −valeurs propres strictement positives et
{vk }nk=r +1 sont les vecteurs orthonormaux de ker(A).
Master Statistique et Econométrie
117 / 140
▲
Exercice
Déterminer la décomposition en valeurs singulières de la matrice
1 0 −1 1
A= .
2 0 0 1
S = [s1 , s2 , · · · , sr , sr +1 · · · , sm ] ∈ Om (K).
Terminologie
Les valeurs propres non nulles de A∗ A qui sont les mêmes valeurs propres
non nulles de AA∗ sont dites les valeurs singulières de A. Les vecteurs
propres de A∗ A sont dits les vecteurs singuliers à droite de A et les
vecteurs propres de AA∗ sont dits les vecteurs singuliers à gauche de
A.
Algorithme et preuve
Soit A = [a∗1 , a∗2 , · · · , a∗n ] une matrice de rang plein alors ses vecteurs
colonnes a∗j sont linéairement indépendant, donc soient qj ∈ Km
(j = 1, · · · , n) les vecteurs obtenus en appliquant le procédé de
Gram-Schmidt via le produit scalaire canonique sur la famille {a∗j }nj=1 et
on pose Q = [q1 , q2 , · · · , qn ] ∈ Mm,n (K). Il est clair que Q ∗ Q = In et que
Q ∗ A = [Q ∗ a∗1 , Q ∗ a∗2 , · · · , Q ∗ a∗n ] := R.
Montrons que R est une matrice triangulaire supérieure ayant les éléments
strictement positifs sur sa diagonale principale. Puisque q1 = ∥aa∗∗11 ∥ et pour
tout j ∈ [|2, n|] on a
Pj−1 ∗
a∗j − k=1 (qk a∗j )qk
qj = Pj−1 ∗
∥a∗j − k=1 (qk a∗j )qk ∥
alorsQ ∗a∗1 = ∥a∗1 ∥e1 ; où ej désigne le j−ème vecteur de la base
canonique de Kn ,
Master Statistique et Econométrie
122 / 140
▲
Quelques décompositions matricielles
Décomposition QR
Théorème
Soit A ∈ Mm,n (K) une matrice de rang plein alors il existe une matrice
Q ∈ Mm,n (K) et une matrice triangulaire supérieure R ∈ Mn (K) telles
que Q ∗ Q = In et
A = QR.
A = −1 1
0 1
Par conséquent, le fait que Q ∗ qk = ek pour tout k ∈ [|1, n|] implique que
pour tout j ∈ [|2, n|] on a
j−1
X j−1
X
Q ∗ a∗j = a∗j − (qk∗ a∗j )qk ej + (qk∗ a∗j )ek = r∗j ;
k=1 k=1
ce qui montre que R = [r∗1 , r∗2 , · · · , r∗n ] est une matrice triangulaire
supérieure ayant ses éléments sur la diagonale principale
j−1
(qk∗ a∗j )qk > 0.
X
rjj = a∗j −
k=1
Élimination de Gauss
On peut dénir l'élimination de Gauss comme un algorithme des opérations
élémentaires appliquées à une matrice donnée pour la rendre échelonnée
réduite. Les opérations élémentaires utilisées sont :
Op1. L'échange de deux lignes,
Op2. La multiplication d'une ligne par un scalaire non nul,
Op3. L'ajout du multiple d'une ligne à une autre ligne.
L'élimination de Gauss joue un rôle très important dans la théorie des
matrices, son rôle réside dans la détermination de rang, l'inverse (quand il
existe) et calcul de déterminant d'une matrice. On a vu que ce dernier
nécessite une n! opérations pour une matrice carrée d'ordre n. Cependant,
la complexité algorithmique asymptotique de l'élimination de Gauss est
O(n3 ) ce que la rendre plus ecace. Notez que cet algorithme peut être
utilisé sur un ordinateur pour des matrices avec une taille des milliers
d'éléments.
Master Statistique et Econométrie
127 / 140
▲
Quelques décompositions matricielles
Exercice
- Montrer (i), (ii) et (iii).
- Montrer que l'ensemble des solutions de l'équation Ax = b est convexe.
A = 2 −2 −1
7 3 8
alors, on pose
1 −1 0 1 0 0
ℓ1 −→
ℓ2 −→ 2 −2 −1 0 1 0 .
ℓ3 −→ 7 3 8 0 0 1
On remplace ℓ2 par ℓ2 − 2ℓ1 et ℓ3 par ℓ3 − 7ℓ1 on trouve
1 −1 0 1 0 0
ℓ1 −→
ℓ2 −→ 0 0 −1 −2 1 0 .
ℓ3 −→ 0 10 8 −7 0 1
C'est à dire, X = [x, y , z]T ∈ R3 est une solution si et seulement si
y = z − 1/3 et x = −z − 1/3 c'est à dire
1 1
T
X = z[−1, 1, 1] + − , − , 0
T
.
3 3
D'où le système admet une innité des solutions qui représentent un sous
espace ane de R3 .
Exercice
En utilisant l'élimination de Gauss, résoudre les systèmes linéaires
1 0 −1 3 1 4 0
3 2 1 0 et −2 1 −1 .
1 1 6 7 5 0 2
Exercice
Déterminer le rang et l'inverse, s'il existe, de la matrice
1 −1 4 1
2 0 0 1.
−3 2 0 1
0 2 −1 0
Master Statistique et Econométrie
134 / 140
▲
Ainsi, en remplaçant ℓ3 par ℓ3 + 8ℓ2 on aura
1 −1 0 1 0 0
ℓ1 −→
ℓ2 −→ 0 0 −1 −2 1 0 .
ℓ3 −→ 0 10 0 −23 8 1
1
De même en remplace ℓ1 par ℓ1 + 10 ℓ3 on obtient
13 4 1
1 0 0 − 10
ℓ1 −→ 5 10
ℓ2 −→ 0 0 −1 −2 1 0 ,
ℓ3 −→ 0 10 0 −23 8 1
c'est à dire
1 0 0 − 13 4 1
ℓ1 −→ 10 5 10
ℓ2 −→ 0 0 1 2 −1 0 .
ℓ3 −→ 0 1 0 − 23
10
4
5
1
10
Calcul de la décomposition
Sans perte de généralité, soit A une matrice carrée qui admette une
décomposition LU. Ainsi, pour décomposer la matrice A en produit LU,
d'abord, on transforme, en utilisant l'élimination de Gauss, la matrice A à
une matrice triangulaire supérieure U en éliminant les coecients sous la
diagonale principale. Ainsi, les éléments restants sont les coecients
multiplicateurs à cause de lesquelles les positions respectives deviennent
nulles dans la matrice U. Notez que certaine décomposition LU peut être
transformée à une décomposition LDU où D est une matrice diagonale
ayant les mêmes éléments de la diagonale de U et U devient une matrice
triangulaire supérieure ayant les 1 sur sa diagonale principales en divisant
chaque ligne par l'élément de la diagonale principale qui correspond.
On va présenter l'algorithme sous titre d'un exemple.
Décomposition LU
Une décomposition LU se réfère à la factorisation d'une matrice carrée A
sous la forme A = LU, en utilisant l'élimination de Gauss, où L est une
matrice triangulaire inférieure et U est une matrice triangulaire supérieure.
Il n'est pas toujours vrai qu'une matrice carrée A admette une
décomposition LU; cependant, toute matrice carrée A admette une
décomposition PLU, en multipliant A par une matrice de permutation P
(voir l'un des exemples ci-dessous).
Pour une matrice inversible A = [ai,j ] ∈ Mn (R), on note Ak les matrices
principales dominantes de A, i.e. Ak = [ai,j ] ∈ Mk (R). Donc, la matrice A
admette une décomposition LU si rg(Ak ) = k, pour k = 1, 2, . . . , n − 1.
S'il existe un k ∈ [|1, n − 1|] tel que rg(Ak ) ̸= k alors la matrice A admette
une décomposition PLU où P est une matrice de permutation choisie de
telle sorte que la matrice P T A admette une décomposition LU.
Notez que, cette décomposition n'est pas unique, mais si on xe les
éléments de la diagonale principale de L égaux 1, alors on aura l'unicité.
1 −1 0
ℓ1 −→
ℓ2 −→ 0 10 8 .
ℓ3 −→ 0 0 −1
Or on a la matrice U,
1 −1 0
U = 0 10 8 .
0 0 −1
Pour la matrice L, puisque les opérations eectuées sont ℓ2 − 7ℓ1 et
ℓ3 − 2ℓ1 alors
1 0 0
L = 7 1 0 .
2 0 1
Donc P T A = LU ce qui est équivalent à A = PLU et on déduit que
|A| = |P||L||U| c'est à dire |A| = −|U| = 10.
Exemple
On considère la matrice,
1 −1 0
A = 2 −2 −1
7 3 8
alors, puisque le rang de la matrice principale A2 est 1 ̸= 2, donc A
n'admet pas une décomposition LU; cependant, elle admet une
décomposition PLU alors on fait une permutation de ℓ2 avec ℓ3 , en
multipliant par une matrice de permutation P T (à déterminer) on obtient
1 −1 0
ℓ1 −→
ℓ2 −→ 7 3 8 .
ℓ3 −→ 2 −2 −1
Donc, on remplace ℓ2 et ℓ3 respectivement par ℓ2 − 7ℓ1 et ℓ3 − 2ℓ1 on
trouve
Master Statistique et Econométrie
137 / 140
▲
Exercice
Déterminer la décomposition LU ou PLU de la matrice
3 1 −1 0
1 −7 3 2
A=
−1 3
.
1 5
0 2 5 3
Question Bonus. Déterminer la décomposition spectrale et en valeurs
singulière de A.