M Emoire de Master Matrices Tridiagonales: PR Esent e Par Marwa Fareh Et Sarra Messaadi

Télécharger au format pdf ou txt
Télécharger au format pdf ou txt
Vous êtes sur la page 1sur 62

République Algérienne Démocratique et Populaire

Ministére de l’Enseignement Supérieur et de la Recherche


Scientifique
Université 8 mai 1945-Guelma
Faculté des mathématiques, de l’informatique et des sciences de la
matière
Département de Mathématiques

Mémoire de Master
Matrices tridiagonales

Présenté par
Marwa Fareh et Sarra Messaadi

Mémoire soutenu le 08 Juillet 2019 devant le jury composé de:


M. BELLAOUAR Djamel Université de Guelma (Président),
M. KHENICHE Azzedine Université de Guelma (Rapporteur),
M. AZZOUZA Nourddine Université de Guelma (Examinateur).

Mémoire présenté pour obtenir le diplôme de MASTER 2 en


Mathématique Appliquées
Année Universitaire 2018-2019
Please refer to this work as follows:
Marwa Fareh et Sarra Messaadi(Promotion 2019). Matrices tridiagonales, Uni-
versité 8 mai 1945-Guelma
Facultédes mathématiques, de l’informatique et des sciences de la matiére
Département de Mathématiques

The supervisors give the authorization to consult and to copy parts of this work
for personal use only.
Remerciements

Nous tenons en premier lieu à remercier Dieu de nous avoir donné le courage, la
patience et la volonté pour réaliser ce travail.
Nous tenons à exprimer nos remerciements au Dr, Kheniche Azzedine, pour avoir
dirigé ce mémoire, et pour ses précieux conseils, son aide, et son soutien scientique
et humain, qui nous a donné la patience et la volonté d’accomplir ce modeste travail.
Nos vifs remerciements, vont également aux membres du jury pour l’intérêt qu’ils
ont porté à notre mémoire en acceptant d’éxaminer notre travail. Nous adressons
aussi nos remerciemment à tout les enseignants de la filière de Mathémathique de
l’université de Guelma, qui nous a aidé tout au long de cette formation de Master.
Enfin, nous tenons également à remercier toutes les personnes qui ont participé de
près ou de loin à la réalisation de ce travail.
Guelma, juin 2019
MARWA FAREH ET SARRA MESSAADI

iii
Résumé

Ce mémoire de Master a pour but, de faire une étude algébrique sur les matrices
tridiagonales et plus particulièrement en ce qui concerne les matrices tridiagonales
de Toeplitz. En effet, aprés avoir introduit la notion d’une matrice bande (tridiago-
nale) et celle de Toeplitz, nous commençons par une étude sur les déterminants de
ce genre de matrices, et le lien de ces déterminants avec les nombres de Fibonacci.
Nous continuons a expliciter les valeurs et vecteurs propres ainsi que les formules
des matrices inverses de ces matrices. En outre, nous allons présenter la méthode
de Householder, pour la tridiagonalisation d’une matrice symétrique, avec des ex-
emples illustratifs, notons que ce mémoire n’a pas la prétention d’apporter de
nouveaux résultats, mais il présente quelques résultats obtenus dernières années
par diférents auteurs, dans des travaux cités en bibliographie.

iv
Abstract

The aim of this memory is to present the notion of tridiagonal matrices, we will
focus on the algebraic study of such matrices, and in particular the Toeplitz tridi-
agonale matrices. Indeed, after introducing the notion of the band matrix (tridi-
agonal) and that of Toeplitz, we start with a study of the determinant of such
matrices, and the links with the Fibonacci numbers, we continue to explain the
eigenvalues, eigenvectors and the formulas of the inverses matrices of a tridiagonal
matrix. Moreover, we will introduce the Householder’s method for tridiagonal-
ising a symmetric matrix, and we finish with some illustrative examples, note
that this memory does not pretend to bring new results, but it presents some
results obtained in recent years by different authors, in works cited in the bibliog-
raphy.

v
Sommaire

Remerciements iii

Introduction xi

1 Généralité sur l´algèbre des matrices 1


1.1 Matrices et vecteurs . . . . . . . . . . . . . . . . . . . . . . . . . . 1
1.2 Opérations sur les matrices . . . . . . . . . . . . . . . . . . . . . . 2
1.3 Trace et déterminant d’une matrice . . . . . . . . . . . . . . . . . . 4
1.4 Inverse d’une matrice . . . . . . . . . . . . . . . . . . . . . . . . . . 6
1.5 Valeurs et vecteurs propres d’une matrice . . . . . . . . . . . . . . 7
1.6 Quelques matrices particuliéres . . . . . . . . . . . . . . . . . . . . 8
1.6.1 Matrice symètrique et hermitinnes . . . . . . . . . . . . . . 8
1.6.2 Matrice bande, Hessenberg . . . . . . . . . . . . . . . . . . 9
1.7 Normes et produits scalaires . . . . . . . . . . . . . . . . . . . . . . 11

2 Matrices Tridiagonales 13
2.1 Définitions et Propriétés . . . . . . . . . . . . . . . . . . . . . . . . 13
2.1.1 Matrices tridiagonales . . . . . . . . . . . . . . . . . . . . . 13
2.1.2 Matrices tridiagonales de Toeplitz . . . . . . . . . . . . . . 14
2.2 Déterminant d’une matrice tridiagonale . . . . . . . . . . . . . . . 14
2.2.1 Déterminant d’une matrice tridiagonale de Toeplitz . . . . 18
2.2.2 Liens avec les nombres de Fibonacci . . . . . . . . . . . . . 19
2.3 Valeurs et vecteurs propres d’une matrice tridiagonale de Toeplitz 24
2.3.1 Cas d’une matrice tridiagonale de Toeplitz symétrique . . . 24
2.3.2 Cas d’une Matrice tridiagonale de Toeplitz non symétrique 27
2.4 Inverse d’une matrice tridiagonale . . . . . . . . . . . . . . . . . . 31
2.4.1 Principaux résultats . . . . . . . . . . . . . . . . . . . . . . 31
2.4.2 Exemples illustratifs . . . . . . . . . . . . . . . . . . . . . . 32

3 Tridiagonalisation d’une matrice symétrique 35


3.1 Matrice de Householder . . . . . . . . . . . . . . . . . . . . . . . . 35
3.2 Réduction à la forme tridiagonale (Householder) . . . . . . . . . . 37
3.3 Décomposition LU d’une matrice tridiagonale . . . . . . . . . . . . 45

General conclusions 47

Bibliography 48

vii
Liste des symboles

In La matrice identité d’ordre n


K Le corps des complexes ou des réels
Mn (K) L’ensemble des matrices carrées d’ordre n
MnT D L’ensemble des matrices tridiagonales d’ordre n
MnT O L’ensemble des matrices tridiagonales de Toeplitz d’ordre n
Fn Le nombre de Fibonacci d’ordre n
Ln Le nombre de Lucas d’ordre n
δij Le symbole de kronicker
AT La matrice transposée de la matrice A
Hu La matrice de Householder assocée au vecteur u

ix
Introduction

Les matrices tridiagonales, jouent un rôle important autant en pratique qu’en


théorie, et apparaissent dans de nombreux contextes en mathématiques pures et
appliquées comme un outil de base dans la théorie de l’approximation, en partic-
ulier dans l’étude des fonctions spéciales et polynômes orthogonaux, les équations
aux dérivées partielles par la méthode des différences finies, il est donc nécessaire
de leur apporter un intérét particulier.
La forme compacte qu’offere la matrice tridiagonale amène une réduction impor-
tante du nombre d’opérations arithmétiques lors du calcule des valeures propres
et des vecteures propres, calcule de la matrice inverse, ainsi que pour la résolution
d’un systéme d’equations linéaires.
Les matrices tridiagonales de Toeplitz (Otto Toeplitz, né le 1er août 1881 à
Breslau auj. Wroclaw-Pologne et mort le 15 février 1940 à Jérusalem est un
mathématicien allemand) est l’une des formes le plus souvent utilisées dans beau-
coup d’applications et ont été largement étudiées dans la littérature. Elles sont
omniprésentes dans de trés nombreux problèmes tels que le traitement de signal
numérique (le filtrage numérique, la théorie destimation, le traitement de la pa-
role, etc...), ainsi que le traitement dimages, la théorie de contrôle, les équations
intégrales, les polynômes orthogonaux, les équations aux dérivées partielles et
dautres domaines de lanalyse numérique.
Notre objectif dans ce mémoire, est de faire une étude détailée sur ces matrices
de Toeplitz tridiagonales. En effet, les matrices symétriques, que l’on retrouve
dans des application en physique, mécanique, génie électrique etc.., peuvent être
réduites a une forme tridiagonale.
Quand on calcule numériquement des solutions approchées d’équations aux dérivées
partielles élliptiques ou paraboliques par des méthodes de différences finies, on
doit considérer des matrices tridiagonales. Pour développer et étudier certains
préconditionnements pour les méthodes itératives, il est utile de connaitre les pro-
priètés de l’inverse comme, par exemple, la décroissance des élments de l’inverse
sur une ligne ou une colonne. [11, 7].
Les inverses des matrices tridiagonales ont été abondamment étudiés dans le passé,
bien qu’il semble que la plupart des résultats aient été obtenus indépendamment.
On ne peut obtenir des formules explicites pour les élments de l’inverse que
pour des matrices particulières comme par exemple les matrices tridiagonales de
Toeplitz [16]. Quand une solution explicite ne peut pas être trouvée, les élments
de l’inverse sont donnés par les solutions de récurrences du second ordre.
Dans l’application de telles méthodes, l’étude de linverse de ces matrices apparaı̂t
très importante [21, 5, 31, 19], nous avons choisi dans ce travail une méthode ex-
acte, assez élégante, introduite par M. El-Mikkawy et A. Karawia dans [13] pour

xi
le calcul rapide de l’inverse de matrices tridiagonales.
Le calcule des valeurs et vecteurs propres de matrices tridiagonales est l’un des
problèmes les plus importants en analyse numérique linéaire. Les techniques
requérant la connaissance du spectre de matrices sont utilisées dans des domaines
aussi variés que la mécanique quantique, lanalyse des structures, la théorie des
graphes, les modèles de léconomie et le classement des pages de la Toile informa-
tique par les moteurs de recherche.
On veut transformer une matrice symétrique en une matrice tridiagonale sans
modifier les valeurs propres et avoir des vecteurs propres equivalents entre les
deux matrices. Il existe plusieurs méthodes qui permettent une telle tridiagonal-
isation, mais ici nous nétudierons que celle de Householder (Alston Scott House-
holder, né le 5 mai 1904, à Rockford dans l’Illinois et mort le 4 juillet 1993, est un
mathématicien américain spécialiste de biomathématique et d’analyse numérique).
La méthode de Householder est une suite de transformations orthogonales [27, 28,
25, 15, 30]. Donc la matrice symétrique A1 = A ∈ Rn×n est réduite à la matrice
tridiagonale (symétrique) An−1 par (n − 2) transformations orthogonales:
Pour une matrice tridiagonale, nous avons expliciter dans ce mémoire les valeurs
et les vecteurs propres dans le cas où cette matrice est de Toeplitz [3], comme nous
avons aussi investigué quelques résultats sur les déterminants liés aux nombres de
Fibonacci[8, 9, 20, 24].
Ce mémoire n’a pas la prétention d’apporter de nouveaux résultats, mais il présente
en détails, quelques résultats obtenus dernières années par diférents auteurs, dans
des travaux cités en bibliographie.
Ce mémoire est organisé de la façon suivante :
Dans le premier chapitre, nous introduisons quelques outils théoriques utiles tout
au long de ce travail. Nous rappelons d’abord les définitions de quelques matri-
ces spéciales (hermitienne, orthogonale, decomposée en blocs, triangulaires, bande,
echelonnées, Hessenbergue), et quelques propriétés de ces matrices (trace, trans-
position, Déterminant, normes et produits scalaires).
Dans le deuxiéme chapitre, nous nous intéressons à l’étude des matrices tridiago-
nales, en particulier, les matrices tridiagonales de Toeplitz (d’aprés Otto Toeplitz)
et on introduit quelques propriétés liées à cette notion (déterminant, déterminants
liés au nombre de fibonacci, valeurs et vecteurs propres, inversion d’une matrice
tridiagonale).
Le troisième chapitre concerne l’étude de la méthode de Householder pour la tridi-
agonalisation d´une matrice symétrique ainsi que la décomposition LU de la ma-
trice tridiagonale résultante.
A la fin, nous présentons une conclusion générale avec quelques perspectives de ce
modeste travail de recherche.

xii
1 Généralité sur l´algèbre des matrices

1.1. Matrices et vecteurs

Les matrices jouent un rôle fondamental en algèbre linéaire, où elles fournissent un
outil de calcul irremplaçable. L’objectif de ce chapitre, est de rappeler les bases du
calcul matriciel, qui seront utilisées dans les chapitres suivants. Nous nous plaçons
dans le corps K, en géneral R ou C.
Définition 1.1. Soient m et n deux entiers strictement positifs. On appelle ma-
trice à m lignes et n colones à coeficients dans un corps K, un ensemble A de
m × n scalaires aij , i = 1, ..., m, j = 1, ..., n noté (A)ij , présentés dans le tableau
rectangulaire suivant:
 
a11 a12 ··· a1n
 
 a21 a22 ··· a2n 
(A)ij = 
 .. .. .. .. 

 . . . . 
an1 an2 ··· ann

Les scalaires aij , i = 1, ..., m, j = 1, ..., n sont appelées coefficients ou élèments


de la matrice A, le premier indice i étant celui de la ligne de l’élèment et le second
j étant celui de la colonne. Ainsi l’ensemble des coefficients:
• ai1 , ...., ain est la iieme ligne de la matrice .
• a1j , ...., amj est la j ieme colonne .
Les élèments d’une matrice (A)ij sont notés aussi par aij (lorsque qu’aucune con-
fusion ou ambiguitè n’est possible). On note Mm,n (K) l’ensemble des matrices à
m lignes et n colonnes dont les coefficient appartiennent à K. Une matrice est
dite réelle ou complexe selon que ses élèments sont dans R ou C . Si m = n,
la matrice est dite carrée d’ordre n et on note Mn (K) l’ensemble correspondant,
lorsque m ̸= n, on parle de matrice rectangulaire.
On appelle diagonale d’une matrice A d’ordre n l’ensemble des coefficientes aii ,
i = 1, ..., n. Cette diagonale divise la matrice en une partie sur-diagonale com-
posée des élèments dont l’indice de ligne est strictement inférieur à l’indice de
colonne et une partie sous-diagonale formée des élèments pour les quels l’indice de
ligne est strictement supérieur à l’indice de colonne. Étant donné A ∈ Mm,n (R),
on note AT ∈ Mm,n (R), la matrice transposée de A telle que:
• (AT )ij = (A)ji , 1 ≤ i ≤ n, 1 ≤ j ≤ m. On a alors (AT )T = A. De même
étant donné A ∈ Mm,n (C), on note A∗ ∈ Mm,n (C), la matrice adjointe de A

1
Chapter 1. Généralité sur l´algèbre des matrices

telle que :

• (A∗ )ij = (A)ji , 1 ≤ i ≤ n, 1 ≤ j ≤ m. le scalaire z désignant le nombre


complexe conjugué du nombre z et on a (A∗ )∗ = A.

On appelle vecteur ligne (resp., vecteur colonne), une matrice n’ayant qu’une ligne
(resp., vecteur colonne).
Définition 1.2. ( sous-matrice)
Soit A une matrice de Mm,n (K). Soient

(i) 1 ≤ i1 < ..... < ip ≤ m

(ii) 1 ≤ j1 < ..... < jp ≤ n

deux ensembles d’indices. La matrice S de Mp,q (K) ayant pour coefficients:


skl = aik jl l , 1 ≤ k ≤ p, 1 ≤ l ≤ q, est appellée une sous-matrice de A.
Il est aussi trés courant d’associer à une matrice, une décomposition en sous-
matrice.

Définition 1.3. ( décomposition par blocs d’une matrice)


Une matrice A de Mm,n (K), est dite décomposée par blocs, si elle s’écrit:
 
A11 A12 ··· A1n
 
 A21 A22 ··· A2n 
A=
 . .. .. .. 

 .. . . . 
An1 An2 ··· Ann
où les blocs AIJ , 1 ≤ I ≤ M , 1 ≤ J ≤ N sont des sous-matrices de A.

L’intérêt de telles dcompositions par blocs réside dans le fait que certaines opérations
définies sur les matrices, restent formellement les mêmes, les coefficients de la ma-
trice étant remplacés par ses sous-matrices.

1.2. Opérations sur les matrices

On peut effectuer un certain nombre d’oprations simples sur les matrices. Nous
rappelons à présent quelques opération essontielles définies sur les matrices.
Définition 1.4. ( Égalité de deux matrices)
Soit A et B deux matrices de Mm,n (K). On dit que A égale à B si aij = bij , pour
i = 1, ..., m, j = 1, ..., n.

Définition 1.5. ( Somme de deux matrices) Soit A et B deux matrices de Mm,n (K).
On appelle somme des matrices A et B la matrice C de Mm,n (K), dont les coeffi-

2
Chapter 1. Généralité sur l´algèbre des matrices

cients sont:

• cij = aij + bij , i = 1, ..., m, j = 1, ..., n. L’élèment neutre pour la somme de


matrices est la matrice nulle noté 0, dont les coefficients sont tous égaux à
zéro, on rappelle que l’on a par ailleurs

• (A + B)T = AT + B T , ∀A, B ∈ Mm,n (K).

• (A + B)∗ = A∗ + B ∗ , ∀A, B ∈ Mm,n (K).


Définition 1.6. ( multiplication d’une matrice par un scalaire)
Soit A une matrice de Mm,n (K) et λ un scalaire , le résultat de la multiplication
de la matrice A par le scalaire λ
est la matrice C de Mm,n (K), dont les coefficients sont cij = λaij , i = 1, ..., m,
j = 1, ..., n, on a: (αA)T = αAT et (αA)∗ = αA∗ , ∀A ∈ Mm,n (K).

Muni des deux dernière opérations, l’ensemble Mm,n (K) est un espace vectoriel sur
K. On appelle alors base canonique de Mm,n (K), l’ensemble des m×n matrices Ekl ,
k = 1, ..., m, l = 1, ..., n, de Mm,n (K) dont les élément sont définis par:
{
0 , si i ̸= k ou j ̸= l, 1 ≤ i ≤ m et 1 ≤ j ≤ n,
(Ekl )ij =
1 , si i = k et j = l, 1 ≤ i ≤ m et 1 ≤ j ≤ n.

Définition 1.7. ( produit de deux matrices)


Soit A une matrice de Mm,p (K) et B une matrice de Mp,n (K), le produit des
matrices A et B est la matrice C de Mm,n (K) dont les coefficients sont donnée
∑p
par cij = k=1 aik bjk , i = 1, ..., m, j = 1..., n.

le produit de matrices est associatif et distributif par rapport à la somme de ma-


trices, mais il n’est pas commutatif en général. Dans le cas de matrices carrées,
on dit que deux matrices A et B commutent si AB = BA. Toujours dans ce cas
l’élèment neutre pour le produit de matrices d’ordre n est la matrice carrée appelée
matrice identité définie par:

In = (δij )1≤i,j≤n
avec δij le symbole de Kronecker:
{
1 , si i = j,
δij =
0 , si non.

Cette matrice est, par définition la seul matrice d’ordre n telle que AIn = In , A = A
pour toute matrice A d’ordre n.
Muni de la multiplication par un scalaire de la somme et de la produit de matrice
l’ensemble Mn (K) est une algèbre. Si A est une matrice d’ordre n et p un entier,
on définit la matrice Ap comme étant le produit de A par elle même répété p fois

3
Chapter 1. Généralité sur l´algèbre des matrices

en posant A◦ = In .
On rapelle enfin que l’on a

(i) (AB)T = B T AT ∀A ∈ Mm,p (K), ∀B ∈ Mp,n (K).

(ii) (AB)∗ = B ∗ A∗ ∀A ∈ Mm,p (K), ∀B ∈ Mp,n (K).

Notons que toutes ces opérations peuvent s’étendre au cas de matrices décomposées
par blocs, pourvu que la taille de chacun des blocs soit telle que les opérations
soient bien définies.
On a le résultat suivant:
Lemme 1.1. ( produit de matrices décomposées par blocs)
Soient A et B deux matrices de tailles compatibles pour effectuer le produit AB.
Si A admet une dècomposition en blocs (AIK )1≤I≤M, 1≤K≤N de formats respectifs
(rI , sK ) et B admet dècomposition compatibles en blocs (BKJ )1≤K≤M, 1≤J≤P de
formats respectifs (sK , tJ ), alors le produit C = AB peut aussi s’écrire comme une
matrice par blocs (CIJ )1≤I≤M,1≤J≤P , de formats respectifs (rI , tJ ) et donnés par:


N
CIJ = AIK BKJ , 1 ≤ I ≤ M, 1 ≤ J ≤ P
K=1

1.3. Trace et déterminant d’une matrice

Nous rappellons quelques définitions sur la notion de trace et de déterminant d’une


matrice carrée.
Définition 1.8. ( trace d’une matrice)
La trace d’une matrice A d’ordre n est la somme de ses coefficients diagonaux


n
tr(A) = aii .
i=1

Les relations suivantes sont évidentes:

tr(A + B) = tr(A) + tr(B), tr(AB) = tr(BA), tr(αA) = αtr(A),


et
∀α ∈ K, ∀A, B ∈ Mn (K).

la seconde ayant comme conséquence le fait que la trace d’une matrice est invariant
par changement de base. En effet, pour toute matrice A et tout matrice inversible

4
Chapter 1. Généralité sur l´algèbre des matrices

P de même ordre, on a:

tr(P AP −1 ) = tr(P −1 P A) = tr(A)

.
Définition 1.9. On appelle permutation d’un ensemble, une bijection de cet en-
semble dans lui-même. On note Sn le groupe (pour la loi de composition ◦) des
permutations de l’ensemble {1, ..., n} avec n ∈ N. La signature d’une permutation
σ ∈ Sn est le nombre, égal à 1 ou −1, défini par

σ(i) − σ(j)
ε(σ) = Π1≤i≤j≤n .
i−j

Définition 1.10. ( déterminant d’une matrice)


On appelle déterminant d’une matrice A d’ordre n le scalaire défini par la formule
de leibniz ∑
det(A) = ε(σ) Πni=1 aσ(i)i ,
σ∈Sn

où ε(σ) désigne la signature d’une permutation σ de Sn .

Par propriété des permutation, on a : det(AT ) = det(A), det(A∗ ) = det(A), pour


toute matrice A d’ordre n.
On peut voir le déterminant d’une matrice A d’ordre n comme une forme multi-
linéaire des n colonnes de cette matrice, det(A)=det(a1 , ...., an ) où les vecteurs aj
j = 1, ..., n désignent les colonnes de A. Ainsi, multiplier une colonne (ou une
ligne, puisque det(A)=det(AT )) de A par un scalaire α, multiplie le déterminant
par ce scalaire. On a notamment: det(αA)=αn det(A), ∀α ∈ K, ∀A ∈ Mn (K).
Cette forme est de plus alternée: échanger deux colonnes (ou deux lignes) de A en-
tre elles entraêne la multiplication de son déterminant par −1 et si deux colonnes
(ou deux ligne) sont égales ou plus généralement, si les colonnes(ou les lignes) de
A vérifient une relation non triviale de dèpendance linèaire, le déterminant de A
est nul. En revanche, ajouter à une colonne (resp.ligne) une combinaison linéaire
des autre colonnes (resp.lignes) ne modifie pas le déterminant.
Ces propriétés expliquent à elles seules le rôle essentiel que joue les déterminants
en algèbre linéaire.
On rapelle enfin, que le déterminant est un morphisme de groupes du groupe
linéaire des matrices inversibles de Mn (K) dans K∗ (muni de la multiplication).
Ainsi si A et B sont deux matrices d’ordre n, on a: det(AB) = det(BA) =
det(A)det(B) et si A inversible, det(A−1 ) = 1/det(A)
Corollaire 1.1. Désignons par δn−1 (i, j) le déterminant de la matrice carrée de
taille (n − 1) × (n − 1) extraite de A par suppression de la i − eme ligne et de la

5
Chapter 1. Généralité sur l´algèbre des matrices

j − eme colonne. Alors, pour tout i ∈ {1, ..., n}, on a


n
det(A) = (−1)i+j aij δn−1 (i, j)
j=1

Cette relation offre une premiére technique de calcul dun déterminant. Mais le
coût en temps de calcul dune telle méthode est rédhibitoire: de lordre de (n!). La
programmation de cette technique est alors fortement déconseillée dès lors que n
nest plus de lordre de lunité.

1.4. Inverse d’une matrice

Le but de cette section est de rappeler la notion de matrices carrées inversibles


pour la multiplication matricielle. Ces matrices inversibles ont plusieurs car-
actéerisations équivalentes:
Définition 1.11. ( inverse d’une matrice)
Soit A une matrice d’ordre n, On dit que A est inversible ou régulière s’il existe
une (unique) matrice notée A−1 , telle que AA−1 = A−1 A = In , (A−1 est alors
applée la matrice inverse de A).

Une matrice non inversible est dite singulière. Il ressort de cette définition qu’une
matrice A inversible est la matrice d’un endomorfisme bijectif. Par conséquent,
une matrice A d’ordre n est inversible si et seulement si rg(A) = n.
Si une matrice A est inversible, son inverse est évidemment inversible et (A−1 )−1 =
A. On rappelle par ailleurs que, si A et B sont deux matrices inversibles, on a les
égalités suivantes:

(AB)−1 = B −1 A−1 , (AT )−1 = (A−1 )T , (A∗ )−1 = (A−1 )∗

et
(αA)−1 = 1/αA−1 ∀α ∈ K∗
.
Proposition 1.1. [12]
Soit A une matrice carrée d’ordre n à coefficients dans un corps commutatif (K).
Les propositions suivantes sont équivalentes (on note X une matrice colonne à n
éléments dans K :

• A est inversible;

• le déterminant de A est non nul;

• A possède n pivots;

6
Chapter 1. Généralité sur l´algèbre des matrices

• 0 n’est pas valeur propre de A;


• le rang de A est égal à n;
• le système linéaire homogène AX = 0 a pour seule solution X = 0;
• pour tout b dans Mn,1 (K), le système linéaire AX = b a au plus une solution;
• pour tout b dans Mn,1 (K), le système linéaire AX = b a au moins une
solution;
• les colonnes de A, considérées comme des vecteurs de K n , sont linéairement
indépendantes;
• les colonnes de A, considérées comme des vecteurs de K n , engendrent K n ;
• l’endomorphisme canoniquement associé à A (cest-à-dire l’application linéaire
de K n dans lui-même qui a pour matrice A dans la base canonique) est in-
jectif;
• l’endomorphisme canoniquement associ à A est surjectif;
• la matrice A est inversible à gauche, c’est-à-dire qu’il existe une matrice B
carrée d’ordre n telle que BA = In ;
• la matrice A est inversible à droite, c’est-à-dire qu’il existe une matrice B
carrée d’ordre n telle que AB = In ;
• la transposée At de A est inversible;
• il existe un polynôme annulateur de A dont 0 n’est pas racine;
• 0 n’est pas racine du polynôme minimal de A ;
• A est équivalente à la matrice identit In d’ordre n.

1.5. Valeurs et vecteurs propres d’une matrice

Les valeurs propres d’une matrice A d’ordre n sont les n racines λi , i = 1, ...., n,
réelles ou complexes, distinctes ou confondues, du polynôme caractéristique p(λ) =
det(A − λIn ) associé à A. Le spectre d’une matrice A, noté σ(A), est l’ensemble
des valeurs propres de A. On rappelle les propriétés suivantes:


n ∏
n
tr(A) = λi , det(A) = λi
i=1 i=1

Par conséquent, la matrice A est singulière si au moins une de ses valeurs propres
est nulle. Enfin, le rayon spectral d’une matrice A est le nombre défini par:

ρ(A) = max1≤i≤n |λi |.

7
Chapter 1. Généralité sur l´algèbre des matrices

det(At − λIn ) = det(A − λIn )t = det(A − λIn ), d′ ou σ(At ) = σ(A)


À toute valeur propre λ d’une matrice A est associé au moins un vecteur non nul
v tel que Av = λv et appelé vecteur propre de la matrice A correspondant à la
valeur propre λ. Le sous-espace vectoriel constitué de la réunion de l’ensemble
des vecteurs propres associés à une valeur propre λ et du vecteur nul est appelé
sous-espace propre correspondant à la valeur propre λ. Il coı̈ncide par définition
avec Ker(A − λIn ) et sa dimension est n − rg(A − λIn ). On appelle cette dernière
multiplicité géométrique de λ et elle ne peut jamais être supérieure à la multiplicité
algébrique de λ, définie comme la multiplicité de λ en tant que racine du polynôme
caractéristique. Une valeur propre ayant une multiplicité géométrique inférieure à
sa multiplicité algébrique est dite défective.

1.6. Quelques matrices particuliéres

1.6.1. Matrice symètrique et hermitinnes

Notons Mn (R), l’espace vectoriel des matrices carrées d’ordre n.


Définition 1.12. Soit A ∈ Mn (R). On dit que la matrice A est:

(i) symétrique, si A = AT ,

(ii) antisymétrique si A = −AT ,

(iii) orthogonale si AT A = AAT = In .

(iv) semi-définie positive si X T AX ≥ 0, ∀ X ∈ R,

(v) définie positive si X T AX > 0, ∀ X ∈ R, avec X ̸= 0,


Définition 1.13. Soit A ∈ Mn (R). On dit que la matrice A est:

• hermitienne, si A = A∗ ,

• unitaire si A∗ A = AA∗ = In ,

• normale si A∗ A = AA∗ .

Les matrices diagonales interviennent à de nombreuses reprise en algèbre linéaire.


Elles vérifient des propriétés qui rendent leur manipulation particulièrement aisée
d’un point de vue calculatoire.
Définition 1.14. ( matrice diagonale)
Une matrice A d’ordre n est dite diagonale, si on a aij = 0, pour les couples
d’indices (i, j) ∈ 1, ..., n2 tels que i ̸= j
Lemme 1.2. [27]

8
Chapter 1. Généralité sur l´algèbre des matrices

• La somme et le produit de deux matrices diagonales sont des matrices diag-


onales.

• le déterminant d’une matrice diagonale est égal au produit de ses élèments


diagonaux.

• Une matrice diagonale A est donc inversible si et selement si tous ses élèments
diagonaux son non nuls et dans ce cas, son inverse est une matrice diago-
nale dont les élèments diagonaux sont les unverses des élèments diagonaux
correspondants de A.

Les matrices triangulaires forment une classe de matrices intervenant trés couram-
ment en algèbre linéaire numérique.
Définition 1.15. ( matrice triangulaire)
On dit qu’une matrice A d’ordre n est triangulaire supérieure (resp.inférieure) si
on a:
aij = 0, pour les couples d’indices (i, j) ∈ 1, ..., n2 tels que i > j(resp.i < j).

Une matrice à la fois triangulaire supérieure et inférieure est une matrice diagonale,
et que la matrice transposée d’une matrice triangulaire supérieure est une matrice
triangulaire inférieure, et vice versa(évident).
Lemme 1.3. [27] Soit A une matrice d’ordre n triangulaire supérieure (resp.
inférieure). Son déterminant est égal au produit de ses termes diagonaux et elle est
donc inversible si et seulement si ces derniers sont tous sont non nuls. Dans ce cas,
son inverse est aussi une matrice triangulaire supérieure (resp. inférieure) dont les
élments diagonaux sont les inverses des élments diagonaux de A. Soit B une autre
matrice d’ordre n triangulaire supérieure (resp. inférieure). La somme A + B et
le produit AB sont des matrices triangulaires supérieures (resp. inférieures) dont
les élments diagonaux sont respectivement la somme et le produit des élments di-
agonaux correspondants de A et B.

1.6.2. Matrice bande, Hessenberg

Une matrice bande est une matrice carrée dont les coefficients non nuls sont lo-
calisés dans une ”bande” autour de la diagonale principale. Plus précisement, on
a la définition suivante.
Définition 1.16. ( matrice bande)
Soit n un entier strictement positif, on dit qu’une matrice A de Mn (R), est une
matrice bande s’il existe des entiers positif p et q strictement inférieurs à n tels
que aij = 0, pour tous les couples d’entiers (i, j) ∈ 1, ..., n2 tels que i − j > p ou
j − i > q.
La largeur de bande de la matrice vaut p + q + 1, avec p élèments a priori non
nuls à gauche de la diagonale et q élèments à droite sur chaque ligne.

9
Chapter 1. Généralité sur l´algèbre des matrices

Définition 1.17. ( matrice à diagonale dominante) On dit qu’une matrice A


d’ordre n est àdiagonale dominante par lignes (resp.par colonnes) si:


n ∑
n
| aii |≥ | aij |, (resp. | aii |≥ | aji |), 1 ≤ i ≤ n.
j=1,j̸=i j=1

On dit que A est à diagonale strictement dominante (par lignes ou par colonnes
respectivement) si ces inégalités sont strictes. Les matrices à diagonale strictement
dominante possédent la particularité d’être inversibles, comme le montre le résultat
suivant.
Théoreme 1.1. [27] Soit A une matrice d’ordre n à diagonale strictement domi-
nante (par lignes ou par colonnes). Alors, A est inversible.
Définition 1.18. ( matrice échelonnée) Une matrice A de Mm,n (K) est dite
échelonnée ou en échelons s’il existe un entier r, 1 ≤ r ≤ min(m, n) et une suite
d’entiers 1 ≤ j1 ≤ j2 < .... < jr ≤ n tels que:

• aiji ̸= 0, pour 1 ≤ i ≤ r, et aij = 0 pour 1 ≤ i ≤ r et 1 ≤ j ≤ ji (i ≥ 2 si


j1 = 1), c’est-à-dire que les coefficients aiji , appelès pivots, sont les premiers
coefficients non nuls des r premiéres lignes.

• aij = 0 pour r < i ≤ m et 1 ≤ j ≤ n, c’est à dire que toutes les lignes après
les r premiéres sont nulles.
Exemple 1.1. La matrice
 
0 1 2 0 4
0 −5 7 3
 0 
 
0 0 0 6 0
0 0 0 0 0

est une matrice échelonne dont les pivots sont 1, -5 et 6.


On déduit immédiatement de la définition précédente que le rang d’une matrice
échelonnée est égal au nombre r de pivots. Dans un système linéire échelonné,
c’est-à-dire associé une matrice échelonnée, de m équations à n inconnues, les
inconnues xj1 , ..., xjr , sont dites principales et les n − r inconnues restantes sont
appelées secondaires.
Définition 1.19. ( matrice de Hessenberg) Une matrice carrée A, est dite une
matrice de:

(i) Hessenberg supérieure, si tous les éléments se trouvant en dessous de la


première sous-diagonale (i.e., la diagonale en dessous de la diagonale prin-
cipale) sont nuls,

(ii) Hessenberg inférieure, si tous les éléments situés au-dessus de la première

10
Chapter 1. Généralité sur l´algèbre des matrices

super-diagonale (i.e., la diagonale au-dessus de la diagonale principale) sont


nuls.

Ces matrices tirent leur nom du mathmaticien et ingnieur Karl Hessenberg.

Exemple 1.2. Les matrices


   
5 1 2 7 1 2 0 0
6 −5 7 2 −5 0
 2   7 
  et  
0 3 −2 6 3 −2 6 −1
0 0 5 −3 −4 5 0−3 4

sont des matrices de Hessenberg respectivement supérieure, inférieure.

1.7. Normes et produits scalaires

La notion de norme est particulièrement utile en algèbre linéaire numérique, nous


rappelons quelques définitions concernant les normes vectorielles sur Rn (ou Cn ),
et les normes matricielles définies sur Mn (R) (ou Mn (C)).
Définition 1.20. ( norme) Soit E un espace vectoriel sur le corps K, avec K = R
ou C. On dit qu’une application ∥.∥ de E dans R est une norme sur E si

(i) ∥v∥ ≥ 0, ∀v ∈ E, et ∥v∥ = 0 si et seulement si v = 0,

(ii) ∥αv∥ = |α|∥v∥, ∀α ∈ K, ∀α ∈ E,

(ii) ∥u + v∥ ≤ ∥u∥ + ∥v∥, ∀u, v ∈ E.


Définition 1.21. ( Produits scalaires et normes vectoriels) Considérons l’espace
vectoriel de dimension finie Kn sur le corps K, avec K = R ou C, n ∈ N∗ .
L’application ⟨·, ·⟩ : Kn × Kn → K définie par


n
⟨U, V ⟩ = V t U = U t V = ui vi , si K = R,
i=1


n
⟨U, V ⟩ = V ⋆ U = U ⋆ V = ui vi , si K = C,
i=1

est appelée produit scalaire canonique (et produit scalaire euclidien lorsque K = R).
On note La norme induite par ce produit scalaire, appelée norme euclidienne dans
le cas réel, est alors
√ ∑n
1
∥V ∥2 = ⟨V, V ⟩ = ( |vi |2 ) 2
i=1

11
Chapter 1. Généralité sur l´algèbre des matrices

D’autres normes couramment utilisées sont les normes:



n
∥v∥1 = |vi |,
i=1

et
∥v∥∞ = max |vi |.
1≤i≤n

Plus généralement, on a le résultat suivant.


Théoreme 1.2. [28, 2] Soit E un espace vectoriel sur R ou C, de dimension finie
n. Pour tout nombre réel p ≥ 1, l’application ∥ · ∥p définie par


n
1
∥v∥p = ( |vi |p ) p , ∀v ∈ E
i=1

est une norme.


Définition 1.22. ( norme matricielle) Une norme matricielle sur Mn (C) est une
application de Mn (C) dans R vérifiant les proprités d’une norme ainsi que la pro-
priété de sous-multiplicativité suivante:

∥AB∥ ≤ ∥A∥∥B∥, ∀ A, B ∈ Mn (C).

Exemple 1.3. L’application définie par:


v
u∑
u n √
∥A∥F = t |aij |2 = tr(AA⋆ ), ∀ A ∈ Mn (C),
i,j=1

est une norme matricielle, appelée norme de Frobenius.


Remarque 1.1. Les normes couramment utilisées, pour une matrice carrée A
d’ordre n sont

n ∑
n
∥A∥1 = max |aij |, et ∥A∥∞ = max |aij |.
1≤j≤n 1≤i≤n
i=1 j=1

12
2 Matrices Tridiagonales

Les matrices tridiagonales se rencontrent dans le calcul des valeurs et vecteurs


propres de matrices. Dans ce cas, une premiére étape consiste à mettre la matrice
donnée sous forme tridiagonale. Les matrices tridiagonales interviennent aussi
dans le calcul des splines cubiques et surtout dans la discrétisation d’équations
aux dérivées partielles.

2.1. Définitions et Propriétés

2.1.1. Matrices tridiagonales

Les matrices tridiagonales interviennent souvent en analyse numérique, d’où l’intérêt


d’avoir des algorithmes rapides pour les inverser ou calculer leurs valeurs pro-
pres.
Définition 2.1. Soit A = (aij )1≤i,j≤n une matrice dordre n, (A ∈ Mn (R)).
A est dite tridiagonale, si les seuls élements non nuls se trouvent sur la diagonale
ou adjacents à la diagonale, cest-à-dire aij = 0, pour |i − j| > 1. Autrement-dit,
c’est une matrice dont tous les coefficients qui ne sont ni sur la diagonale principale,
ni sur la diagonale juste au-dessus, ni sur la diagonale juste en dessous, sont nuls,
i.e. elle est sous-forme:
 
α1 β1 0 0 ··· 0
 
 γ1 α2 β2 0 ··· 0 
 
0 γ2 α3 β3 ··· 0 
 
A= . .. .. .. .. .. 
 .. . . . 
 . . 
 
0 0 ··· γn−2 αn−1 βn−1 
0 0 ··· 0 γn−1 αn

Remarque 2.1. Une matrice tridiagonale, est donc une matrice de Hessenberg à
la fois supérieure et inférieure.
Proposition 2.1. [4] Si une matrice réelle tridiagonale A vérifie ak,k+1 ×ak+1,k >
0 pour k = 1, ...., n (cest-à-dire si les signes de ses coefficients sont symétriques,
alors elle est semblable à une matrice hermitienne, et donc toutes ses valeurs
propres sont réelles.

13
Chapter 2. Matrices Tridiagonales

2.1.2. Matrices tridiagonales de Toeplitz

En algèbre linéaire, une matrice de Toeplitz (d’aprés Otto Toeplitz) ou matrice


à diagonales constantes est une matrice dont les coefficients sur une diagonale
descendant de gauche à droite sont les mêmes. Par exemple, la matrice suivante
est une matrice de Toeplitz:
 
a b c d e
 
f a b c d
 
A= g f a b c

 
h g f a b 
j h g f a

Définition 2.2. Une matrice tridiagonale A, est une matrice tridiagonale de


Toeplitz, si elle scrit sous la forme suivante:
 
a b 0 ... 0 0
 
c a b ... 0 0
 
0 c a ... 0 0
 
A = . . .. .. .. .. 
 .. .. . . .
 . 
 
0 0 0 ... a b
0 0 0 ... c a

Ces matrices interviennent par exemple, dans la théorie de la prédiction, les solu-
tions numériques de certaines équations différentielles, traitement du signal et de
limage, étude des processus gaussiens stationnaires.

2.2. Déterminant d’une matrice tridiagonale

Le déterminant d’une matrice carée, joue un rôle important dans le calcul matriciel
et la résolution des systèmes linéaires, il permet aussi de savoir si une matrice est
inversible ou pas. Nous allons dans cette section définir de façon numérique le
déterminant d’une matrice tridiagonale de Toeplitz puis en donner quelques pro-
priétés. Il s’agit donc d’un calcul élémentaire que l’on effectue sur les coefficients
de cette matrice, en explicitant les résultats sur des exemples.

Soient (αn )n≥1 , (βn )n≥2 et (γn )n≥2 trois suites de nombres réels (complexes). Con-
sidérons la matrice tridiagonale suivante:

14
§2.2. Déterminant d’une matrice tridiagonale

 
α1 β2 0 0 ··· 0
 
 γ2 α2 β3 0 ··· 0
 
0 γ3 α3 β4 ··· 0
 
An =  . .. .. .. .. .. 
 .. . . . . 
 . 
 
0 0 ··· γn−1 αn−1 βn 
0 0 ··· 0 γn αn
On pose D0 = 1, D1 = α1 et Dn = det(An ), ∀n ≥ 2.
En développant suivant la dernière colonne, on obtient la relation de récurrence:

∀n ≥ 3, Dn = αn Dn−1 − βn γn Dn−2

Comme D2 = α1 α2 − β2 γ2 , D1 = α1 et D0 = 1, la formule est encore valable pour


n = 2.
Exemple 2.1. Prenons αn = 2 et βn = γn = −1, ∀n ≥ 1. Soit donc le
déterminant:

2 −1 0 0 ··· 0


−1 2 −1 0 ··· 0

0 −1 2 −1 ··· 0

Dn = . .. .. .. .. .. (1)
.. . . .
. .

0 0 ··· −1 2 −1

0 0 ··· 0 −1 2

On a

2 −1 0 0 ··· 0 −1 −1 0 0 ··· 0


−1 2 −1 0 ··· 0 0 2 −1 0 ··· 0

0 −1 2 −1 ··· 0 0 −1 2 −1 ··· 0

Dn = . .. .. .. .. .. = 2Dn−1 + .. .. .. .. .. ..
.. . . . . . .
. . . . .

0 0 ··· −1 2 −1 0 0 ··· 0 2 −1

0 0 ··· 0 −1 2 0 0 ··· 0 −1 2

D’ou Dn = 2Dn−1 − Dn−2 , ∀n ≥ 3.


Notons que
 
( ) 2 −1 0
2 −1  
D1 = Det(2) = 2, D2 = det = 3, D3 = det −1 2 −1 = 4.
−1 2
0 −1 2

15
Chapter 2. Matrices Tridiagonales

On peut calculer Dn en foction de n par deux méthodes:

(i) En utilisant un calcul usuel: On a Dn = 2Dn−1 − Dn−2 , ∀n ≥ 3.


On écrit (1) sous la forme matricielle suivante:
( ) ( ) ( ) ( ) ( )
Dn 2 −1 Dn−1 D2 3
= , où X2 = = .
Dn−1 1 0 Dn−2 D1 2
Xn A Xn−1

Ceci implique Xn = AXn−1 = A2 Xn−2 = ... = An−2 X2


Maintenant, on calculent An−2 , avec
( )
2 −1
A=
1 0

– Polynôme caractéristique:

2 − x −1 1 − x −1 1 −1

PA (x) = = = (1 − x) = (1 − x)2
1 −x 1 − x −x 1 −x

Donc λ = 1 est une valeur propre double de la matrice A. Puisque


A ̸= λI, alors A n’est pas diagonalisable.

– Vecteur propre associé: Eλ = {(x, y) ∈ R2 /2x − y = x et x = y},


prenons v1 =(1,1).
Soit v2 = (a, b) ∈ R2 un vecteur quelconque tel que v1 , v2 est une base
R2 , il suffit de prendre alors v2 = (1, 0).
On pose: ( )
1 1
P = = [v1 v2 ].
1 0

Ceci implique
( )−1 ( )( )
−1 1 1 2 −1 1 1
P AP =
1 0 1 0 1 0

D’ou ( )( )( )
−1 0 1 2 −1 1 1
P AP =
1 −1 1 0 1 0
On obtient alors: ( )
−1 1 1
P AP = =T
0 1

On voit que T est une matrice triangulaire supérieure avec

16
§2.2. Déterminant d’une matrice tridiagonale

t11 = t22 = λ = 1. Puisque P −1 AP = T , alors A = P T P −1 .


D’où An = P T n P −1 .
On peut factoriser T sous la forme de Dunford suivante:
( ) ( )
1 0 0 1
T = + ,
0 1 0 0
D N

avec N 2 =0 et DN = N D. D’aprés la formule de Binôme, on a:


n
T n = (D + N )n = Cni Dn−i N i = Dn + nDn−1 N = I + nN
i=0

Il s’ensuit que
( ) ( ) ( )
n 1 0 0 1 1 n
T = +n = .
0 1 0 0 0 1

Par conséquent
( )( ) ( )
n n −1 1 1 1 n 0 1
A = PT P = = .
1 0 0 1 1 −1
( )( ) ( )
1 n+1 1 0 n + 1 −n
= = .
1 n −1 1 n 1−n
)(
Dn
Xn = = An−2 X2
Dn−1
( )( )
n−1 2−n 3
=
n−2 3−n 2

Finalement, Dn = 3(n − 1) + 2(2 − n) = n + 1.

(ii) En utilisant les solutions d’une suite récurrente d’ordre 2:


Léquation caractéristique de la suite récurrente Dn = 2Dn−1 − Dn−2 est
r2 − 2r + 1 = 0, qui adment une solution double r = 1, donc la solution
générale de cette suite dans ce cas est sous forme Dn = (a + bn)rn , en
utilisant les conditions initiales: D1 = 2 et D2 = 3, on obtient: a = b = 1,
d’où Dn = n + 1.

17
Chapter 2. Matrices Tridiagonales

2.2.1. Déterminant d’une matrice tridiagonale de Toeplitz

Dans cette partie, nous intéressons aux déterminants des matrices tridiagonales
de Toeplitz.
Dans [22, 24], les théoremes suivants ont été élaborés.
Théoreme 2.1. [22] Pour n ∈ N et a, b, c ∈ C, on a

a b 0 ... 0 0


c a b ... 0 0

0 c a ... 0 0

Dn = . . .. .. .. ..
.. .. .
. . .

0 0 0 ... a b

0 0 0 ... c a
 √ √

 (a + a2 − 4bc)n+1 − (a − a2 − 4bc)n+1

 √ si a2 ̸= 4bc
2n+1 a2 − 4bc
=



(n + 1)( a )n sinon
2

En posant b = c dans le théorème 2.1, on obtient le corrolaire suivant:


Corollaire 2.1. Pour n ∈ N et a, b ∈ C ,on a

a b 0 ... 0 0


b a b ... 0 0

0 b a ... 0 0

Dn = . . . . .. ..
.. .. .. ..
. .

0 0 0 ... a b

0 0 0 ... b a
 √ √

 (a + a2 − 4b2 )n+1 − (a − a2 − 4b2 )n+1

 √ si a2 ̸= 4b2
2n+1 a2 − 4b2
=



(n + 1)( a )n sinon
2
Remarque 2.2. Si on revient a l’exemple 2.1, en posant dans le corrolaire 2.1
a = 2, b = −1, et puisque a2 = 4b2 , alors Dn = (n + 1)( a2 )n = n + 1, et on
retrouvent les résultats précédents.

2.1

18
§2.2. Déterminant d’une matrice tridiagonale

2.2.2. Liens avec les nombres de Fibonacci

Nous rappelons d’abord la définition d’une suite récurrente d’ordre 2.


Définition 2.3. Soit (a, b) un couple de R × R∗ .
Une suite (un )n≥0 est récurrente linéaire d’ordre 2, si elle satisfait à la relation de
récurrence suivante:
∀n ∈ N, un+2 = aun+1 + bun

Notons U l’ensemble des suites (un )n≥0 vérifiant cette relation de recurrence.
Soit ∆ le discriminant de l’équation caractéristique x2 = ax + b. Trois cas sont à
distinguer:

(i) ∆ > 0.
L’équation caractéristique possède dans ce cas deux solution réelles distinctes
r1 et r2 et dans ce cas un appartient à U si et selement s’il existe (λ, µ) ∈ R⊭
tel que:
∀n ∈ N, un = λr1n + µr2n

(ii) ∆ = 0.
L’équation caractéristique possède une solution double notée r. Dans ce cas
un appartient à U si et selement s’il existe (λ, µ) ∈ R⊭ tel que:

∀n ∈ N, un = (λn + µ)rn

(iii) ∆ < 0.
L’équation caractéristique possède deux solution complex solution double
conjuguées w etw. Posons r = |w| et θ = argw. Dans ce cas un appartient
à U si et selement s’il existe (λ, µ) ∈ R⊭ tel que:

∀n ∈ N, un = λrn cos(nθ) + µrn sin(nθ)

Remarque 2.3. Dans les trois cas ci-dessus, le couple (λ, µ) est déterminé à
partir des valeurs des premiers termes de la suite (un )n≥0 .

Les nombres de Fibonacci sont les éléments de la suite des entiers positifs où chaque
terme est la somme des deux termes qui le précèdent. Elle commence généralement
par les termes 0 et 1 (resp. 1 et 1) et ses premiers termes sont

0, 1, 1, 2, 3, 5, 8, 13, 21, 34, 55, 89, 144, ....

(resp.
1, 1, 2, 3, 5, 8, 13, 21, 34, 55, 89, 144, ....)
Définition 2.4. ( suite de Fibonacci) La suite de Fibonacci, notée (Fn ), est la

19
Chapter 2. Matrices Tridiagonales

suite définie par:


Fn+2 = Fn+1 + Fn , ∀n ≥ 0 , (2.1)
avec les conditions initiales F0 = 0 et F1 = 1

La formule précédente nous permet détendu la suite de Fibonacci sur Z. En effet,


la récriture de la formule 2.5 sous la forme

Fn = Fn+2 − Fn+1 ,

nous permet détendre les termes de la suite de Fibonacci vers la gauche, cest-à-
dire de calculer les termes dindice négatif. Ainsi, on peut déduire le corrolaire
suivant:
Corollaire 2.2. Les termes d’indice négatif dans la suite de Fibonacci étendue
sont donnés par:
F−n = (−1)n+1 Fn , ∀n ≥ 0.

La suite de Fibonacci est une équation aux différences linéaire a coefficients con-
stantes homogène d’ordre 2.
Soit la suit de fibonacci

Fn+1 = Fn + Fn−1 , ∀n ≥ 1 , (2.2)

Léquation caractéristique de 2.2 est λ2 −λ−1 = 0, qui admet comme racines


√ √
1+ 5 1− 5
λ1 = , λ2 = .
2 2
La solution générale s’écrit donc:
√ √
1+ 5 n 1− 5 n
Fn = c1 ( ) + c2 ( ) .
2 2
√1 , −1

Utilisons les conditions initiales, on obtient c1 = 5
c2 = 5
, d’où
√ √
1 1+ 5 n 1 1− 5 n
Fn = √ ( ) −√ ( ) , (2.3)
5 2 5 2

Remarque 2.4. La formule 2.3 est dite la formule de Binet. Autrement dit

αn − β n
Fn = , n∈N, (2.4)
α−β
avec √ √
1+ 5 1− 5
α= , β= .
2 2
Définition 2.5. ( suite de Lucas) La suite de Lucas, notée (Ln ), est la suite

20
§2.2. Déterminant d’une matrice tridiagonale

définie par:
Ln+2 = Ln+1 + Ln , ∀n ≥ 0 , (2.5)
avec les conditions initiales L0 = 2 et L1 = 1 (ou L1 = 1 et L2 = 3.)

On démontre facilement par récurrence, la relation suivante entre les nombres de


Fibonacci et Lucas:

Ln = Fn+1 + Fn−1 , ∀n ∈ N.
En utilisant la suite de Fibonacci étendue , on constate d’une part que

L0 = F1 + F−1 = 2F1 = 2 et L1 = F2 + F0 = 1

Proposition 2.2. Les nombres de Fibonacci admettent la factorisation suivante:

Fn+m = Fn−1 Fm + Fn Fm+1 , (2.6)

Proof. Par récurrence sur m. Pour m = 1,

Fn+1 = Fn−1 + Fn = Fn−1 F1 + Fn F2 .

Supposons que la formule est vraie pour m ≤ k + 1. Par lhypothèse, il est vrais
que
Fn+k = Fn−1 Fk + Fn Fk+1 , et Fn+k+1 = Fn−1 Fk+1 + Fn Fk+2
On ajoute ces deux équations terme par terme, on obtient

Fn+k + Fn+k+1 = Fn−1 (Fk + Fk+1 ) + Fn (Fk+1 + Fk+2 ),

C’est-à-dire Fn+k+2 = Fn−1 Fk+2 + Fn Fk+3 . d’où le résultat.

Proposition 2.3. Les nombres de Fibonacci admettent la factorisation suivante:

Fn+2 + Fn−2 = 3Fn . (2.7)

Proof. On a

Fn+2 + Fn−2 = (Fn+1 + Fn ) + Fn−2 + (Fn−1 − Fn−1 )


= (Fn + Fn−1 ) + Fn + (Fn−2 + Fn−1 ) − Fn−1 )
= Fn + Fn−1 + Fn + Fn ) − Fn−1
= 3Fn .

∏n−1
Proposition 2.4. [9] F2n = k=1 (3 − 2 cos πk
n ), pour tout n ≥ 2.

21
Chapter 2. Matrices Tridiagonales

Exemple 2.2. Le déterminant de la matrice An suivante :


 
3 −1
 
−1 3 −1 
 
 . . . 
 .. .. .. 
 
 −1 3 −1
 
−1 3

est F2n+2

Proof. Par récurrence sur n. Pour n = 1, on a det(A1 ) = 3 = F4 , le résultat est


donc vrai.
Supposons que det(Ak ) = F2k+2 , pour tout k < n. On a

−1 −1


−1 3 −1

.. .. ..
det(An ) = 3 det(An−1 ) + . . .

−1 −1
3

−1 3

En utilisant la proposition 2.3, en endéduit que:

det(An ) = 3det(An−1 ) − det(An−2 ))


= 3F2(n−1)+2 − F2(n−2)+2
= 3F2n − F2n−2
= (F2n+2 + F2n−2 ) − F2n−2
= F2n+2 . .

D’où le résultat.

Remarque 2.5. Cahill et al. [8], a démontrer que le déterminant ne se change


pas si on remplace −1 par 1 dans la matrice An dans la matrice An

On peut citer autres exemples pour cette technique de calcul des déterminants en
utilisant les suites de Fibonacci et Luca. En effet, Strang [28] a démontrer que
les déterminants des matrices tridiagonales suivantes:
 
1 −1
 
1 1 −1 
 
 .. .. .. 
Bn =  . . . 
 
 1 −1
 1 
1 1

22
§2.2. Déterminant d’une matrice tridiagonale

et  
1 i
 
i 1 i 
 
 .. .. .. 
Cn =  . . . 
 
 i
 i 1 
i 1
sont respectivement Fn et Fn+1 , pour n ≥ 1.

Kilic and Tasci [20], a montré que le determinant de la matrice

 
−1 1
 
−1 −1 1 
 
 .. .. .. 
Gn =  . . . 
 
 −1 −1 1
 
−1 −1
est (−1)n Fn+1 .
N.D. Cahill et J.R. D’Errico [9], Ont montré que les déterminants des matri-
ces    √ 
1 0 8 6
  √ 
0 8 1   6 5 i 
   
 1 7 1   i 4 i 
   
 .. , .. 
 .   . 
 1 7   i 4 
   
 .. ..   .. .. 
 . . 1  . . i
1 7 i 4
et  √ 
13 − 5
 √ 
− 5 3 −1 
 
 −1 3 −1 
 
 .. 
 −1 . 
 3 
 
 .. .. 
 . . −1
−1 3
sont respectivement, F4k−2 , F3k+3 et F2k+5 .

23
Chapter 2. Matrices Tridiagonales

2.3. Valeurs et vecteurs propres d’une matrice tridi-


agonale de Toeplitz

Du point de vue théorique, le problème de la détermination des vecteurs propres


et valeurs propres dune matrice est presque aussi bien connu que la résolution des
systèmes linéaires. La physique fournit un grand nombre de problèmes équivalents
à la tridiagonalisation dune matrice symétrique ou hermitique. Dans cette par-
tie, on calcule d’une façon explicite les valeurs et vecteurs propres d’une matrice
tridiagonale, en se limitant essentiellement au cas des matrices tridiagonales de
Toeplitz.

2.3.1. Cas d’une matrice tridiagonale de Toeplitz symétrique

Considérons la matrice de Toeplitz A suivante


 
α β 0 ··· 0 0
 
β α β ··· 0 0
 
0 β α ··· 0 0
 
A = . .. .. .. .. .. 
 .. . . . .
 . 
 
0 0 0 ··· α β
0 0 0 ··· β α

Cette matrice apparaı̂t dans de nombreuses applications, On calcule dans un pre-


mier temps les valeurs propres de A.

On écrit A sous la forme:


   
1 0 0 ··· 0 0 0 1 0 ··· 0 0
   
0 1 0 ··· 0 0 1 0 1 ··· 0 0
   
0 0 1 ··· 0 0 0 1 0 ··· 0 0
   
A = α . . .. .. .. 
..  + β . .. .. .. .. ..  =α I +β T
 .. .. . . .  .. . . . .
 .  . 
   
0 0 0 ··· 1 0 0 0 0 ··· 0 1
0 0 0 ··· 0 1 0 0 0 ··· 1 0

Clairement, A et T ont les mêmes vecteurs propres et leurs valeurs propres respec-
tives sont liées par
λA = α + βλT .
Ainsi, il suffit de travailler avec la matrice simple T .
Le problème donc revient à calculer les valeurs propres de T , on cherche les réels

24
§2.3. Valeurs et vecteurs propres d’une matrice tridiagonale de Toeplitz

λT tels qu’il existe un vecteur X = (xi ) non nul de Rn , vérifiant:

T X = λT X . (2.8)

On écrit (2.8) sous la forme matricielle suivante:


    
0 1 0 ··· 0 0 x1 λx1
    
1 0 1 ··· 0 0  x2   λx2 
    
0 1 0 ··· 0 0    
   x3   λx3 
. .. .. .. .. ..   . = . 
 .. . . . .  .   . 
 .  .   . 
    
0 0 0 ··· 0 1 xn−1  λxn−1 
0 0 0 ··· 1 0 xn λxn
Ainsi

• i = 1: x2 − λT x1 = 0 ⇒ −λT x1 + x2 = 0

• i = 2: x1 − x3 − λT x2 = 0 ⇒ x1 − λT x2 + x3 = 0

• i = 3: x2 − x4 − λT x3 = 0 ⇒ x2 − λT x3 + x4 = 0

• i = n − 1: xn−2 + xn − λT xn−1 = 0 ⇒ xn−2 − λT xn−1 + xn = 0

• i = n: xn−1 + λxn = 0 ⇒ −λT xn + xn−1 = 0

Ainsi en posant x0 = xn+1 = 0, on obtient pour la suite finie (xi )i la relation de


récurrence d’ordre deux suivante:

xk−1 − λxk + xk+1 = 0, k = 1, 2, .., n (2.9)

Léquation caractéristique est donnée par:

r2 − λr + 1 = 0 (2.10)

On pose λ = 2c, le discriminant de (2.10) est ∆ = 4c2 − 4.

(i) Si ∆ > 0,
il est clair que c2 − 1 > 0 ⇒ |c| > 1 ⇒ c ∈] − ∞, 1[∪]1, ∞[.
Donc l’équation caractéristique admet deux solutions réelles opposées que
l’on note r1 et r2 données par:

r1 = c + c2 − 1

r2 = c − c2 − 1

25
Chapter 2. Matrices Tridiagonales

On remarque dans un premier temps que

r1 r2 = 1, r1 + r2 = 2c et r1 + r1−1 = r + r−1 = 2c

Dans ce cas, la solution générale de (2.8) est donnée par:

xk = γr1k + δr2−k , k = 1, .., n + 1 (2.11)

où les coefficients γ, δ sont fournis par les conditions xn+1 = x0 = 0. On


obtient alors
(i) x0 = 0 implique γ + δ = 0, d’où xk = γ(rk − r−k )
(i) xn+1 = 0 implique γ (rn+1 − r−(n+1) ) = 0, deux cas se présentent:
∗ si γ = 0, alors xk = 0, ∀k = 0, 1, ..., n + 1, ce qui est exclu!
̸ 0).
(car X =
∗ Donc rn+1 − r−(n+1) = 0, ce qui implique r2(n+1) = 1. En partic-
ulier, pour |r| = 1, on a alors |2c| ≤ |r| + |r|−1 = 2 ⇒ 2|c| ≤ 2 ⇒
|c| ≤ 1, i.e., −1 < c < 1 contradiction. Donc ce cas est impossible.
(ii) Si ∆ = 0, alors c2 − 1 = 0 ⇒ c = ±1, d’ou r1 = r2 = r = c. La solution
générale de (2.8) est donnée

xk = (γ + δk)rk , k = 1, .., n + 1 (2.12)

En utilisant les conditions initiales, nous avons alors deux cas:


(i) x0 = 0 implique γ = 0.
(ii) xn+1 = 0 implique (δ (n + 1))rn+1 = 0, d’ou δ = 0, par conséquent,
X = 0 (contradiction). Donc ce cas est impossible.
(iii) Si ∆ < 0, alors c2 − 1 < 0 ⇒ −1 < c < 1, dans ce cas nous avons deux
solutions complexes conjugées r1 et r2 données par:
√ √
r1 = c + i c2 − 1 et r2 = c − i c2 − 1
√ √ √
on a r = a2 + b2 exp (iθ), |r| = a2 + b2 = c2 + 1 − c2 = 1,
c
et cos (θ) = |r| = c ce qui donne

r1 = exp (i θ)

r2 = exp (−i θ).


La solution générale de (2.8) est donnée dans ce cas par:

xk = γr1k + δr2k = γ exp(i k θ) + δ exp(−i k θ)

26
§2.3. Valeurs et vecteurs propres d’une matrice tridiagonale de Toeplitz

En utilisant les conditions initiales, on obtient:

(i) x0 = 0 implique γ = −δ, d’ou

xk = γ (exp (i k θ) − exp (−i k θ)) = 2 i γ sin (k θ),

(i) xn+1 = 0 implique 2 i γ sin((n + 1)θ) = 0, deux cas se présentent:

∗ Si γ = 0, alors δ = 0, et par consequant X = 0, contradiction.



∗ Donc sin((n + 1)θ) = 0, ce qui ipmlique que θ = n+1


D’ou (λT )k = 2c = 2 cos ( n+1 )

Finalement, les valeurs propres de la matrice A sont donnés par


λk = α + 2 β cos ( ), k = 1, ...., n
n+1

Cherchons maintenant les vecteurs propres associés:


Nous avons xk = 2iγ sin ( n+1 ), pour chaque valeur propre λk , k = 1, ..., n, le
(k) (k) (k)
vecteur propre associé a cette valeur propre noté Vk = (v1 , v2 , ...., vn ), où
(k) kπ 1
vj = sin (j( n+1 )), j = 1, ..., n et k = 1, ..., n, en choisissant γ = 2i , c’est-à-
dire
kπ 2kπ nkπ
Vk = (sin ( ), sin ( ), ...., sin ( ))
n+1 n+1 n+1

2.3.2. Cas d’une Matrice tridiagonale de Toeplitz non symétrique

Soit A une matrice tridiagonale de Toeplitz d’ordre n ≥ 2 de la forme


 
α β 0 ··· 0 0
 
ξ α β ··· 0 0
 
0 ξ α ··· 0 0
 
A = . .. .. .. .. ..  ,
 .. . . . .
 . 
 
0 0 0 ··· α β
0 0 0 ··· ξ α
où α ∈ C et β, ξ ∈ R avec βξ > 0.

27
Chapter 2. Matrices Tridiagonales

On écrit A sous-forme A = αIn + βT , où


 
0 1 0 ··· 0 0
ξ ··· 0
β 0 1 0 
 
0 ξ
0 ··· 0 0
 β 
T =. .. .. .. .. .. 
 .. . . . .
 . 
 
0 0 0 ··· 0 1
0 0 0 ··· ξ
β 0

Comme le cas précident, nous avons λA = α + βλT , où λA désigne la valeur propre
associée á A, et λT désigne la valeur propre associée á T . Nous calculons d’abord
les valeurs proprse associées à T , puis on endéduit celle de A.
On cherche les réels λT tel qu’il existe X = (x1 , ..., xn ) ∈ Rn non nul, vérifiant:

T X = λT X

On a     
0 1 0 ··· 0 0 x1 λx1
ξ ··· 0    
β 0 1 0   x2   λx2 
    
0 ξ
0 ··· 0 0    
 β   x3   λx3 
. .. .. .. ..  
..   ..   .. 
 = 
 .. . . . .  .   . 
 . 
    
0 0 0 ··· 0 1 xn−1  λxn−1 
0 0 0 ··· ξ
β 0 xn λxn
• Pour i = 1, on a x2 − λT x1 = 0 ⇒ −λT x1 + x2 = 0

• Pour i = 2, on a ( βξ )x1 + x3 − λT x2 = 0 ⇒ ( βξ )x1 − λT x2 + x3 = 0

• Pour i = 3, on a ( βξ )x2 + x4 − λT x3 = 0 ⇒ ( βξ )x2 − λT x3 + x4 = 0

• Pour i = n−1, on a ( βξ )xn−2 +xn −λT xn−1 = 0 ⇒ ( βξ )xn−2 −λT xn−1 +xn = 0

• Pour i = n, on a ( βξ )xn−1 + λxn = 0 ⇒ −λT xn + ( βξ )xn−1 = 0

ξ
On pose β = d, et λT = 2c.

On introduit deux nouvelles variables x0 et xn+1 , tels que x0 = xn+1 = 0, pour


intégrer la première équation (i = 1) et la dernière équation (i = n) avec les mêmes
type que les autres équations.
Il s’ensuit que

• Pour i = 1, on a: dx0 − λT x1 + x2 = 0

28
§2.3. Valeurs et vecteurs propres d’une matrice tridiagonale de Toeplitz

• Pour i = 2, on a: dxn−1 − λT xn + xn+1 = 0


On obtient la relation générale de récurrence d’ordre deux suivante:

dxk−1 − 2cxk + xk+1 = 0, k = 1, ..., n (2.13)

Son équation caractéristique, est donnée par:

r2 − 2cr + d = 0. (2.14)

Le discriminant est ∆ = 4c2 − 4d. Nous distinguons trois cas possible:



(i) Si ∆ = 0, alors 4c2 − 4d = 0 ⇒ |c| = d, dans ce cas il exsiste une solution
double r1 = r2 = c, et la solution générale de léquation (2.13)est :

xk = (γ + δk)ck , k = 0, ..., n + 1

En utilisant les conditions initiales, on a


– x0 = 0 implique γ = 0.
– xn+1 = 0 implique δ(n + 1))cn+1 = 0, dans ce cas, puisque c ̸= 0, alors
δ = 0 et donc X = 0, cotradiction, il s’ensuit que ce cas est exclus!
√ √ √
(ii) Si ∆ > 0, alors 4c2 − 4d > 0 ⇒ |c| > d ⇒ c ∈] − ∞, − d[∪] d, ∞[
Il existe dans ce cas deux solutions distincts de l’équation caractéristique,
qui sont √ √
r1 = c + c2 − d et r2 = c − c2 − d,
avec
r1 r2 = d et r1 + r2 = 2c

Les solutions générales de (2.13) sont de la forme:

xk = γr1k + δr2−k , k = 0..n + 1,

avec γ et δ sont des constantes réels à déterminer a partir des conditions


initiales: x0 = xn+1 = 0.
– Pour x0 = 0, on a γ = −δ
−(n+1)
– Pour xn+1 = 0, on a γ(r1n+1 − r2 ) = 0.
∗ Si γ = 0, alors δ = 0 et donc X = 0 (contradiction).
−(n+1)
∗ Si r1n+1 − r2 = 0, alors r1n+1 − ( rd1 )−(n+1) = 0,
2(n+1) n+1

donc r1 √ = d , d’où r1 = d = r2 , puisque r1 + r2 = 2c, il
s’esuit que d = c, ce qui veut dire que ∆ = 0, donc on revient au
cas précident, par conséquant ce cas est exclus aussi.

29
Chapter 2. Matrices Tridiagonales

√ √
(iii) Si ∆ < 0, alors 4c2 −4d < 0, ce qui implique − d < c < d, par consequant,

l’équation caractérisitique
√ admet deux solutions complexes: r1 = c+i d − c2
et r2 = c − i d − c , avec
2

√ √ √
|r1 | = |r2 | = d et cos(θ) = c/r = c/ d, i.e., c = d cos(θ).

On cherche θ:
Les solutions générales de (2.13) sont de la forme:

xk = γ r1k cos(kθ) + δ r2k sin(kθ), k = 0, ..., n + 1,

avec γ et δ sont des constantes réels à déterminer a partir des conditions


initiales: x0 = xn+1 = 0.

– Pour x0 = 0, on a γ = 0

– Pour xn+1 = 0, on a δ r2n+1 sin ((n + 1)θ) = 0.


Puisque r2n+1 ̸== 0, alors sin((n + 1)θ) = 0, par conséquant
θ = kπ/n + 1. d’où
√ kπ
λT = 2c = 2( d cos( )).
n+1

Finalement, les valeurs propres de la matrice tridiagonale non symmetrique de


Toeplitz A sont données par:

ξ kπ
λk = α + 2β cos ( ), k = 1, ...., n
β n+1

En suivant la même procédure que celle du cas precident (Toeplitz symetrique), on


trouvent que pour chaque valeur propre λk , k = 1, ..., n, le vecteur
√ propre associé
(k) (k) (k) (k) ξ j kπ
a cette valeur propre noté Vk = (v1 , v2 , ...., vn ), où vj =( β) sin (j( n+1 )),
j = 1, ..., n et k = 1, ..., n, c’est-à-dire
√ √ √
ξ kπ ξ 2 2kπ ξ n nkπ
Vk = ( ) sin ( ), ( ) sin ( ), ...., ( ) sin ( ))
β n+1 β n+1 β n+1

30
§2.4. Inverse d’une matrice tridiagonale

2.4. Inverse d’une matrice tridiagonale

Nous exposons dans cette partie une méthode exacte, assez élégante, introduite
par M. El-Mikkawy et A. Karawia, dans [13], pour le calcul rapide de l’inverse de
matrices tridiagonales. En effet, c’est un travail qui est principalement consacré au
développement d’un algorithme qui ne s’effondrera jamais pour trouver l’inverse
de toute matrice tridiagonale non singulière.

Soit la matrice tridiagonale suivante:

 
d1 a1 ··· ··· ··· 0
 
 b2 d2 a2 ··· ··· 0 
 
0 b3 d3 a3 ··· 0 
 
T =. .. .. .. .. .. (1.1)
 .. . . . 
 . .
 
0 0 ··· bn−1 dn−1 an−1 
0 0 ··· 0 bn dn

Dans lequel tij = 0 pour | i − j |≥ 2.

2.4.1. Principaux résultats

Sur la base des résultats présentés dans [18], nous pouvons introduire deux vecteurs
α = (α0 , α1 , ..., αn ) et β = (β1 , β2 , ..., βn+ ), de dimensions n+1, comme suite:




1 , si i = 0
αi = d1 , si i = 1 . (2.15)


d α − bi ai−1 αi−2 , si i = 2, 3, ..., n
i i−1

et 


1 , si i = n + 1
βi = dn , si i = n . (2.16)


d β − bi+1 ai βi+2 , si i = n − 1, n − 2, ..., 1
i i+1

Les éléments des vecteurs α et β dans (2.15) et 2.16, sont précisément les
déterminants des sous-matrices de la matrice tridiagonale T . Pour cette matrice,
les résultats obtenus sont résumés dans le théorème suivant:
Théoreme 2.2. [21, 14] Pour la matrice T , les éléments suivants sont valides.

31
Chapter 2. Matrices Tridiagonales

(i) det (T ) = αn = β1 ,

(ii) T est non singulière si et seulement si αn ̸= 0,

(iii) T est non singulière si et seulement si β1 ̸= 0,

(iv) T possède une décomposition LU si et selement si αk ̸= 0, k = 1, 2, ..., n − 1,

(v) T défini positif si et seulement si αk > 0, k = 1, 2, ....., n.

(vi) T défini positif si et seulement si βk > 0, k = 1, 2, ....., n.

(vii) La matrice inverse T −1 = (uij )1≤i,j≤n , de la matrice T est donnée par


b2 a1 β3 −1
• u11 = (d1 − β2 ) ,
bn an−1 αn−2 −1
• unn = (dn − αn−1 ) ,

bi ai−1 αi−2 bi+1 ai βi+2 −1


• uii = (di − αi−1 − βi+1 ) ,

 ∏j−i

 j−i αi−1
(−1) ( k=1 aj−k ) αj−1 ujj , si i < j
uij = .

(−1)i−j (∏i−j b ) βi+1 u

, si i > j
k=1 j+k βj+1 jj

Remarque 2.6. detA = αn = β1

2.4.2. Exemples illustratifs

Exemple 2.3. Soit la matrice tridiagonale A d’ordre 3 définie par:


   
4 3 0 d1 a1 0
   
A = 2 3 1  =  b2 d2 a2 
0 1 2 0 b3 d3

Pour avvoir la matrice inversie A−1 , on calcule d’abord (α0 , α1 , α2 , α3 ) et


(β1 , β2 , β3 , β4 ).


 α0 =1


α = d1 = 4
1

 α2 = d2 α1 − b2 a1 α0 = 3(4) − 2(3)(1) = 6



α3 = d3 α2 − b3 a2 α1 = 2(6) − 1(1)(4) = 8

et

32
§2.4. Inverse d’une matrice tridiagonale



 β4 =1


β = d3 = 2
3

 β2 = d2 β3 − b3 a2 β4 = 3(2) − 1(1)(1) = 5



β1 = d1 β2 − b2 a1 β3 = 4(5) − 2(3)(2) = 8

A partir de (αi )0≤i≤3 et (βi )1≤i≤4 , on calcule A−1 comme suite:


A−1 = (uij ), avec:

b2 a1 β3 −1 2(3)(2) −1
• u11 = (d1 − β2 ) = (4 − 5 ) = 5/8

b3 a2 α1 −1 1(1)(4) −1
• u33 = (d3 − α2 ) = (2 − 6 ) = 3/4

b3 a2 β4 −1 2(3)(1) 1(1)(1) −1
• u22 = (d2 − b2 a1 α0
α1 − β3 ) = (3 − 4 − 2 ) =1

α1 U22 = (−1)(3)(1/4)(1) = −3/4


• u12 = (−1)1 (a1 ) α 0

• u13 = (−1)2 (a1 )(a1 ) α


α2 U33 = (1)(3)(1/6)(3/4) = 3/8
0

α2 U33 = (−1)(1)(4/6)(3/4) = −1/2


• u23 = (−1)1 (a2 ) α 1

• u21 = (−1)1 (b2 ) ββ32 U11 = (−1)(2)(2/5)(5/8) = −1/2

• u31 = (−1)2 (b2 )(b3 ) ββ42 U11 = (2)(1)(1/5)(5/8) = 1/4

• u32 = (−1)1 (b3 ) ββ43 U22 = (−1)(1)(1/2)(1) = −1/2

Donc:    
u11 u12 u13 5/8 −3/4 3/8
   
A−1 = u21 u22 u23  = −1/2 1 −1/2
u31 u32 u33 1/4 −1/2 3/4
Exemple 2.4. Soient (p, q) ∈ R∗ × R∗ , considérons la matrice tridiagonale T
d’ordre 4, donnée par:
   
1 1 0 0 d1 a1 0 0
1 −1 0 b 0
 1   2 d2 a2 
A= = 
0 −1 2 p  0 b3 d3 a3 
0 0 0 q 0 0 b4 d4

33
Chapter 2. Matrices Tridiagonales

On a det(A) = α4 , avec α4 = d4 α3 − b4 a3 α2 = −q, d’où T est inversible.


Donc la matrice inverse T −1 est donées par
 
−1 2 1 − pq
 
 2 −2 −1 p 
T −1 =  1 −1
q 
 0 0 

1
0 0 0 q

34
3 Tridiagonalisation d’une matrice
symétrique

La forme compacte qu’offre la matrice tridiagonale amène une réduction impor-


tante du nombre d’opérations arithmétiques lors du calcul des valeurs propres et
des vecteurs propres, ainsi que pour la résolution du système d’equations linéaires
AX = b.
De plus, les matrices symétriques, que l’on retrouve en abondance dans des appli-
cations en physique, mécanique, génie électrique etc., peuvent être réduites à une
forme tridiagonale et la méthode la plus efficace pour trouver toutes les valeurs
propres d’une matrice symétrique avec ou sans les vecteurs propres associés est la
tridiagonalisation de Householder.
La procédure de Householder se propose donc de transformer une matrice A
symétrique en une matrice tridiagonale par une série de transformations orthogo-
nales, ces transformations en matrice tridiagonale nécessite , grâce â l’algorithme
de householder, un nombre fini d’opérations. Dans ce chapitre, nous allons trans-
former une matrice symétrique en une matrice tridiagonale sans modifier les valeurs
propres et avoir des vecteurs propres equivalents entre les deux matrices.

3.1. Matrice de Householder

Définition 3.1. On appelle matrice (élémentaire) de Householder une matrice


H de la forme Hu = In − 2uuT , où u ∈ Rn est un vecteur unitaire c’est-à-dire de
norme √1 pour la norme associée au produit scalaire canonique sur Rn définie par
∥u∥ = ⟨u, u⟩, i.e., uT u = 1.
Par exemple, pour n = 3, on peut considérer le vecteur u = √16 (−1 1 2)T qui
vérifie bien ∥u∥ = 1. On obtient alors la matrice de Householder
 
2 1 2
1 
Hu =  1 2 −2
3
2 −2 −1

Par abus de langage, on considérera l’identité comme une matrice de Householder,


et l’on écrira In = H0 .
Définition 3.2. Une matrice A ∈ Mn×n (K) est dite orthogonale si elle est réelle,
i.e., K = R et si AAT = AT A = In .
Proposition 3.1. Toute matrice de Householder est:

35
Chapter 3. Tridiagonalisation d’une matrice symétrique

(i) symétrique
(ii) orthogonale

Proof.
(i) On a Hu = In − 2uuT , et

HuT = (In − 2uuT )T = (In )T − 2(uT )T uT = Hu .

(ii) On a
(Hu )T Hu = (In − 2uuT )T (In − 2uuT ) = (In − 2uuT )2 ,
D’ou
(Hu )T Hu = (In )2 − 4In uuT + 4u(uT u)uT ,
Puisque uT u = 1, alors
(Hu )T Hu = In .

Proposition 3.2. [6]


Pour tout vecteur u ∈ Rn tel que ∥u∥ = 1, on a: Hu u = −u.
De plus, si v ∈ Rn est orthogonal à u, i.e., ⟨u, v⟩ = 0, alors: Hu v = v.
Proposition 3.3. Soit x et y deux vecteurs de Rn tels que x ̸= y et ∥x∥ = ∥y∥.
Alors il existe un vecteur unitaire u ∈ Rn tel que Hu x = y.

Proof.
x−y
Il suffit de prendre u = ∥x−y∥ .

Proposition 3.4. Soient a, b ∈ Rn , deux vecteurs non nuls, il existe un vecteur


u ∈ Rn et un scalaire α ∈ R, tels que

Hu a = [I − 2uuT ]a = αb.

Proof.
a−αb
Il suffit de prendre u = 2uT a
.

Remarque 3.1.
la matrice Hu est associée à une transformation géometrique, qui est la symétrie
par rapport à l’hyperplan de Rn orthogonal au vecteur u. En effet, l’algorithme de
householder se comprend facilement à partir sa représentation géométrique dans
l’espace à trois dimensions. Soient un point M et un plan (p), contenant l’origine
(mais pas M ), et normal au vecteur unitaire ñ. On cherche à construire le point
M ′ qui se déduit de M par une symétrie orthogonale par rapport à (p). La droite

36
§3.2. Réduction à la forme tridiagonale (Householder)

passant par M et perpendiculaire à (p) perce ce plan en K, elle passe aussi par M ′ .
−−→
Le vecteur KM est parallèle a ñ, sa longueur est celle de la projection orthogonale
−−→ −−→ −−→
de OM sur ñ, autrement dit KM = (ñ OM )ñ.
−−−→ −−→
Par symétries, KM ′ est l’opposé de KM . On veut relier M ′ à M par:
−−−→′ −−→ −−−→′ −−→ −−→ −−→ −−→
OM = OM + M M = OM − 2kM = OM − 2(ñ.OM )ñ.

Il est clair que OM ′ = OM , la symétrie preservent les longueurs.


Lorsque on représente les vecteurs par des matrice colonne, les relations précédentes
deviennent
−−→ −−−→
OM = x et OM ′ = x′ ,
avec
x′ = x − 2(ñT x)ñ = x − 2ññT x = (I − 2ññT )x.
Ce raisonnement se généralise sans peine à l’espace à n dimensions.

3.2. Réduction à la forme tridiagonale (Householder)

Soit A = (aij )1≤i,j≤n une matrice symétrique d’ordre n, qu’on écrit sous la forme:

( )
a11 at1
où a1 ∈ Rn−1 et Ã1 ∈ Mn−1 (R).
a1 Ã1

Décrivons la première étape de la méthode de Householder.


Si a1 ̸= 0, alors il existe une matrice de Householder élémentaire H̃1 (symétrique
et orthogonale) dans Mn−1 (R) telle que l’on ait:

H̃1 a1 = αe(1) = (α, 0, 0, ..., 0)t ∈ Rn−1 , ou α ∈ R.

Soit H1 la matrice de Mn (R) définie par:

( )
1 O
H1 =
O H̃1
( )( )( )
1 O a11 at1 1 O
On a alors: H1T A H1 = T
O H̃1 = H̃1 a1 Ã1 O H̃1

D’où

37
Chapter 3. Tridiagonalisation d’une matrice symétrique

 
a11 α 0··· 0
 
 α 
 0 
H1 A H 1 =  H̃1 Ã1 H̃1 
 .. 
 . 
0

Notons A2 cette matrice: A2 = H1 AH1 . En notant A1 = A, et en suivant la


même démarche que ci-dessus, on détermine de proche en proche (n − 2) matrices
symétriques et orthogonales H1 , H2 , ..., Hn−2 de Mn (R), telles que les matrices
symétriques:

T
Ak = Hk−1 Ak−1 Hk−1 = (H1 H2 ...Hk−1 )T A(H1 H2 ...Hk−1 ), 2 ≤ k ≤ n − 1,

soient tridiagonales et semblables à la matrice A.


Le theoreme suivant récapitule cette procèdure de householder [25]
Théoreme 3.1. [25] Étant donnée une matrice symétrique A d’ordre n, il existe
une matrice orthogonale H, produit de (n − 2) matrices de Householder, telle que
la matrice T = H T AH soit tridiagonale et semblable à A.
Remarque 3.2. La matrice tridiagonale T a les propriétés suivantes:

(i) T est symétrique. En effet,

TT = (HT AH)T = HT AT H = HT AH = T

(ii) T admet les mêmes valeurs propres que A. En effet,

det(T − λIn ) = det((HT AHT ) − λIn ),

d’oú
det(T − λIn ) = det(HT (A − λIn )H).
On obtient alors

det(T − λIn ) = det HT det (A − λIn ) det H = det(A − λIn ).

(iii) Si z est un vecteur propre de T, alors Hz est un vecteur propre de A. En


effet,
(Tz = λz) ⇒ ((HT AH)z = λz) ⇒ (A(Hz) = λ(Hz)).

(iv) Si y ⋆ est une solution du système Ty = HT b, alors Hy ⋆ est une solution de


Ax = b. En effet,

(Ty ⋆ = HT b) ⇒ ((HT AH)y ⋆ = HT b)) ⇒ (A(Hy ⋆ ) = b).

38
§3.2. Réduction à la forme tridiagonale (Householder)

Il existe donc une relation entre les vecteurs propres d’une matrice symétrique A et
ceux de la matrice tridiagonale T obtenue par la méthode de Householder, d’autre
part les valeurs propres restent inchangées. Il existe aussi une relation entre la
solution du système Ax = b et celle du système Ty = HT b.
Si un problème contient une matrice symétrique, nous n’avons qu’à travailler avec
la matrice tridiagonale associée, et ensuite faire les transformations nécessaires.

Explicitement, une méthode plus simple d’avoir la matrice H, est celle introduite
dans [25]. En effet, soit A = (aij )1≤i,j≤n une matrice symétrique d’ordre n, lors
de la premiére étape, nous devons déterminer α et r comme suite:
v
u∑
u n 2
α = −sgn(a21 )t aj1 ;
j=2

r= 1/2(α2 − a21 α).

De α et r, onconstruit un vecteur v, de la façon suivante:


v1
 
 v2 
 
 v3 
v (1) =  
 .  où
 
 
 . 
vn

a21 − α ak1
v1 = 0, v2 = , et vk = , k = 3, 4, ..., n.
2r 2r
Aprés avoir calculé v, on construit la première matrice de Householder P1 comme
suite:
P1 = I − 2v (1) (v (1) )T , puis A2 = P1 A1 P1 , en posant A1 = A.
Nous répétons ce processus pour k = 2, 3, 4, ...., n − 2 comme suite:
v
u ∑
u n
α= −sgn(akk+1,k )t (akjk )2 ;
j=k+1

et

r= 1/2(α2 − akk+1,k α);
avec:
v1k = v2k = ......... = vkk = 0;

39
Chapter 3. Tridiagonalisation d’une matrice symétrique

et
k
akk+1,k − α
vk+1 = ;
2r
akjk
vjk = , pourj = k + 2, ....., n;
2r
la matrice Pk est donc
Pk = I − 2v (k) (v (k) )T ;
et
Ak+1 = Pk Ak Pk .

En continuant ainsi, la matrice tridiagonale symétrique est obtenue et bien formée.

Exemple 3.1. Dans cet exemple, la matrice donnée est transformée en une ma-
trice tridiagonale similaire A3 , en appliquant deux transformations de Householder.
 
4 1 −2 2
1 1
 2 0 
A = A1 =  
−2 0 3 −2
2 1 −2 −1
Premiere étape, nous avons:
 
(1)
V1
 (1) 
V2 
= 
T
P1 = I4 − 2V (1) V (1) , V (1) V (1) 
 3 
(1)
V4
(1)
oú V1 =0

et, V2 = a212r−α , V3 = a2r


(1) (1) (1) a41
31
, V4 = 2r .
On calcule les valeurs de α et r

v
u∑
u n 2
α = −sgn(a21 )t aj1
j=2


= a221 + a231 + a241

=− 1+4+4
= −3

r = 1/2(α2 − a21 α)

40
§3.2. Réduction à la forme tridiagonale (Householder)


2 (α − a21 α)
1 2
=

= 12 (9 + 3)

= 6

d’où,

(1) 4
V2 = √ = √2
2 6 6
(1) −2
√ −1

V3 = 2 6
= 6
(1) 2
V4 = √ = √1
2 6 6

Ainsi,  
0
 √2  ( )
 6
V (1) V (1) =  
T −1
√2 √ √1
√−1  0 6 6 6
 6
√1
6

   
0 0 0 0 0 0 0 0
0 −2/6   −1/3 1/3 
 4/6 2/6  0 2/3 
= = 
0 −2/6 1/6 −1/6 0 −1/3 1/6 −1/6
0 2/6 −1/6 1/6 0 1/3 −1/6 1/6
Revenons a P1 :
T
P1 = I4 − 2V (1) V (1)
   
1 0 0 0 0 0 0 0
0 0 0 −2/3 2/3 
 1 0   4/3 
P1 =  − 
0 0 1 0  0 −2/3 1/3 −1/3
0 0 0 1 0 2/3 −1/3 1/3
 
1 0 0 0
0 −1/3 2/3 −2/3
 
= 
0 2/3 2/3 1/3 
0 −2/3 1/3 2/3
Alors,
   
1 0 0 0 4 1 −2 2 1 0 0 0
0 −1/3 2/3 −2/3 1 1 0 −1/3 2/3 −2/3
  2 0  
A2 = P1 AP1 =    
0 2/3 2/3 1/3  −2 0 3 −2 0 2/3 2/3 1/3 
0 −2/3 1/3 2/3 2 1 −2 −1 0 −2/3 1/3 2/3

41
Chapter 3. Tridiagonalisation d’une matrice symétrique

On calcul ce produit:
  
4 1 −2 2 1 0 0 0
−3 −4/3  
−1 0 −1/3 2/3 −2/3
 10/3 
  
−3 5/3 4/3 −1 0 2/3 2/3 1/3 
0 −2/3 −1/3 −2 0 −2/3 1/3 2/3

 
4 −3 0 0
−3 4/3 
 10/3 1 
A2 =  
0 1 5/3 −4/3
0 4/3 −4/3 −1
Deuxième étape, on utilise A2 pour former:

 
(2)
V1
 (2) 
V2 
= 
T
P2 = I4 − 2V (2) V (2) , V (2) V (2) 
 3 
(2)
V4
(2) (2)
(2) (2) (2) a −α (2) a42
oú, V1 = V2 = 0, V3 = 322r et V4 = 2r .
On calcul les valeurs de α et r:
√∑ 2
n
α = −sgn(akk+1,k ) k
j=k+1 ajk
(2)

= −sgn(a√ 32 ) a232 + a242
= 9 + 16/9
= −5/3

r = √1/2(α2 − a32 α)
= 12 (α2 − a21 α)

= 12 (25/9 + 5/3)

= 2 5/3

4
(2) 1+5/3 (2)
d’ú, V3 = √ = √2 , V4 = 3
√ = √1
4 5 5 4 5 5
3 3

Alors,  
0
 
0
V (2) = 
 √2 
 5
√1
5

42
§3.2. Réduction à la forme tridiagonale (Householder)

 
0
 ( )
0
= 
T
V (1) V (1)  √2  0 0 √2
5
√1
5
 5
√1
5

 
0 0 0 0
0 0 
 0 0 
= 
0 0 4/5 2/5
0 0 2/5 1/5
On obtient:

    
1 0 0 0 0 0 0 0 1 0 0 0
0     0 
 1 0 0  0 0 0 0  0 1 0 
P2 =  −  
0 0 1 0 0 0 8/5 4/5 0 0 −3/5 −4/3
0 0 0 1 0 0 4/5 2/5 0 0 −4/5 3/5

A 3 = P2 A 2 P2
   
1 0 0 0 4 −3 0 0 1 0 0 0
0 0  −3 4/3  0 0 
 1 0  10/3 1  1 0 
=   
0 0 −3/5 −4/3  0 1 −5/3 −4/3 0 0 −3/5 −4/3
0 0 −4/5 3/5 0 4/3 4/3 −1 0 0 −4/5 3/5

 
4 −3 0 0
−3 −5/3 0 
 10/3 
A3 =  
0 −5/3 −33/25 68/75 
0 0 68/75 149/75
Comme on peut le constater, le résultat final est une matrice symétrique tridiago-
nale similaire à la matrice originale. le processus est terminé après deux étapes.
Remarque 3.3. La matrice symétrique A1 = A ∈ Rn×n est réduite à la ma-
trice tridiagonale (symétrique) An−1 , par (n − 2) transformations orthogonales en
utilisant un equivalent processus d’itérations introduit aussi dans [25], comme suite:

Ai+1 = PiT Ai Pi , i = 1, ........, n − 2;

où

43
Chapter 3. Tridiagonalisation d’une matrice symétrique

vi viT
Pi = I − , et hi = 1/2viT vi ;
hi
et ( ( ( ( (
i) i) i) i) i)
viT = [0, ..., 0, ai+1,i + sgn(ai+1,i )σi , ai+2,i , ai+3,i , ......., an,i ].

( ( (
i) i) i)
σi2 = (ai+1,i )2 + (ai+2,i )2 + ...... + (an,i )2 .

Exemple 3.2. Soient la matrice symétrique et le vecteur:


 
2 3 4 ( )
  3
A = 3 4 2 , c1 =
4
4 2 3

Alors
( ) ( )
3+5 8
σ12 = 9 + 16 = 25, v1 = =
4 4
et
h1 = 21 v1T v1 = 1
2 × 80 = 40.
Donc
( ) ( ) ( )
1 1 0 1 64 32 −3/5 −4/5
P1 = I2 − (v1 v1T ) = − =
h1 0 1 40 32 16 −4/5 3/5

 
1 0 0
 
P1 = 0 −3/5 −4/5
0 −4/5 3/5
et
   
1 0 0 2 3 4 1 0 0
   
A2 = 0 −3/5 −4/5 3 4 2 0 −3/5 −4/5
0 −4/5 3/5 4 2 3 0 −4/5 3/5
 
2 −5 0
 
= −5 132/25 26/25 = T
0 26/25 43/25
où T est tridiagonale.

44
§3.3. Décomposition LU d’une matrice tridiagonale

3.3. Décomposition LU d’une matrice tridiagonale

Les matrices tridiagonale sont trés faciles à factoriser par la méthode de Gauss,
si le système AX = F est écrite sous la forme générale (a1 = cn = 0 par conven-
tion)     
b1 c1 0 ··· 0 x1 f1
    
a2 b2 c2 ··· 0   x2   f2 
    
 .. .. .. .. ..   ..   .. 
. . . . .  .  =  . 
    
 0 ··· a bn−1 cn−1     
 n−1  xn−1  fn−1 
0 0 ··· an bn xn fn
La matrice A peut se décomposer sous la forme A = LU , avec les matrices

 
b∗1 0 0 ··· 0
 
a2 b∗2 0 ··· 0
 
. .. .. .. .. 
L =  .. . . . .
 
0 ··· b∗n−1 0
 an−1 
0 0 ··· an b∗n

et

 
1 c∗1 0 ··· 0 0
 
0 1 c∗2 ··· 0 0 
 
. .. .. .. .. .. 
U =  .. . . . . . 
 
0 ··· cn−1 

 0 0 1 
0 0 0 ··· 0 1

En identifiant les coefficients, nous obtenons les récurrences suivantes pour le calcul
des coefficients b∗ et c∗ :

 
 ∗  ∗ ∗

 b1 = b1 bk = bk − ak .ck−1
 k=2...n
et

 

c∗ = c /b c∗ = c /b∗
1 1 1 k k

Remarque 3.4. Observons que la factorisation LU est possible si les coefficients


b∗k sont non nuls , donc la matrice A doit être inversible .

45
Chapter 3. Tridiagonalisation d’une matrice symétrique

Le système peut être résolu maintenant en deux étapes:


AX = F ⇒ L(U X) = F sous forme LY = F , avec:




Y1 = f1 /b1
LY = f ⇒


Y = (f − a .Y ∗
k k k k−1 )/bk , k = 2, ..., n

et 


Xn = Yn
LU = Y ⇒


X = Y − c∗ .X
k k k+1 , k = (n − 1), ..., 1

46
Conclusion Générale

Dans ce mémoire, nous avons montré l’intérêt que présentent les matrices tridi-
agonales dans le calcul matriciel, notament dans le cas des matrices tridiagonales
de Toeplitz. Nous avons explicité d’une manière claire les valeurs et les vecteurs
propres de ce genre de matrices, ainsi que les formules des ces matrices inverses.
On a introduit aussi les liens existants entre les déterminants de ces matrices avec
les notions des nombres de Fibonacci et Lucas. Nous avons présenté la méthode
la plus effecace pour apprendre comment tridiagonaliser une matrice symétrique
par les transformations de Householder, et la décomposition LU de ces matrices
tridiagonales. En résumé, les recherches futures devront développer une approche
plus contextuelle de l’étude des liens entre toutes les méthodes de tridiagonalisa-
tions des matrices même non symétriques, en prenant en considération le coût de
chaque méthode.

47
Bibliography

[1] J.M. Arnaudiès et H. Fraysse. Cours de mathmatiques, Dunod, 1980.


[2] G. Allaire and S. M. Kaber. Algèbre linéaire numérique. Mathématiques pour
le deuxième cycle. Ellipses, 2002.
[3] R. Àlvarez-Nodarse, J. Petronilhoc, N.R. Quintero, On some tridiagonal k-
Toeplitz matrices: Algebraic and analytical aspects. Applications, Journal of
Computational and Applied Mathematics 184 (2005) 518-537
[4] Albrecht Böttcher et Sergei M. Grudsky, Spectral Properties of Banded
Toeplitz Matrices, SIAM, 2005, p. 35.
[5] W.W. Barrett, A theorem on inverses of tridiagonal matrices, Linear Algebra
Appl. 27 (1979) 211-217.
[6] J.C. Bajard et J.M. Muller. Calcul et arithmétique des ordinateurs. Infor-
matique et Systèmes d’Information, Hermes Science publications, Lavoisier,
2004.
[7] P. Concus. G. Meurant, On computing INV black precondtionings for the
conjugate gradient method. BIT v26 (1986) pp 493–504.
[8] N. D. Cahil, J. R. D’errico, D. A.Narayan, and J. Y. Narayan, Fibonacci
determinants, College Math. J., 33, No. 3 (2002), 221–225
[9] N.D. Cahill, J.R. D’errico and J.P. Spence. ”Factorizations of the Fibonacci
and Lucas Numbers.” The Fibonacci Quarterly 41.1 (2003): 13–19.
[10] P. G. Ciarlet. Introduction à l’analyse numérique matricielle et à
l’optimisation–cours et exercices corrigés. Mathématiques appliquées pour la
maı̂trise. Dunod, 1998.
[11] P. Concus, G.H. Golub. G. Meurant, Black preconditioning for the conjugate
gradient method. SIAM J. Sei. Stat. Comput. v6 nl (1985) pp220–252.
[12] David C. Lay, Linear Algebra and its Applications, Washington, Pearson,
2016, p. 114, 237, 277 et 423.
[13] M. El-Mikkawy, A. Karawia, Inversion of general tridiagonal matrices, Ap-
plied Mathematics Letters 19 (2006) 712-720.
[14] M.E.A. El-Mikkawy, A fast algorithm for evaluating nth order tridiagonal
determinants, J. Comput. Appl. Math. 166 (2004) 581-584.
[15] Gill, Phillip E., Walter Murray, and Margaret H. Wright. Numerical Linear
Algebra and Optimization. New York: Addison-Wesely, 1991.

49
General conclusions and outlook

[16] C.F. Fischer. R.A. Usmani, Properties of some tridiagonal matrices and their
application1 to boundary value problems. SIAM J. Numer. Anal. v6 nl (1969)
pp 127–141.
[17] G. H. Golub and C. F. Van Loan. Matrix computations. Johns Hopkins Uni-
versity Press, third edition, 1996.
[18] Y. Huang, W.F. Mccoll, Analytic inversion of general tridiagonal matrices, J.
Phys. A 30 (1997) 79197933.
[19] G.Y. Hu, R.F. OConnell, Analytical inversion of symmetric tridiagonal ma-
trices, J. Phys. A 29 (1996) 1511–1513.
[20] E. Kilic, D. Tasci, Negatively subscripted Fibonacci and Lucas numbers and
their complex factorizations, Ars Combin., 96, (2010), 275–288.
[21] G. Meurant, A review on the inverse of symmetric tridiagonal and block
tridiagonal matrices, SIAMJ. Matrix Anal. Appl. 13 (3) (1992) 707-728.
[22] Feng Qi, Ai-Qi Liu, Alternative proofs of some formulas for two tridiagonal
determinants. Acta Univ. Sapientiae, Mathematica, 10, 2 (2018) 287–297
[23] A. Quarteroni, R. Sacco, and F. Saleri. Méthodes numériques. Algorithmes,
analyse et applications. Springer, 2007.
[24] F. Qi, V. Čerňanová, Y. S. Semenov, Some tridiagonal determinants related
to central Delannoy numbers, the Chebyshev polynomials, and the Fibonacci
polynomials, Politehn. Univ. Bucharest Sci. Bull. Ser. A Appl. Math. Phys.
81 (2019), in press.
[25] Burden, Richard L., and J. Douglas Faires. Numerical Analysis. 8 th Edition.
Belmont: Thomson Books/Cole, 2005.
[26] T. Rivlin. Chebyshev Polynomials: From Approximation Theory to Algebra
and Number Theory. 2nd Edition, John Wiley. Sons, Inc. 1990.
[27] G. Strang. Introduction to Linear Algebra. 2nd Edition, Wellesley MA,
Wellesley- Cambridge, 1998.
[28] G. Strang, Linear algebra and its applications, Brooks/Cole, 3rd edition
(1988).
[29] G. Strang and K. Borre. Linear Algebra, Geodesy and GPS. Wellesley MA,
Wellesley- Cambridge, 1997, pp. 555–557.
[30] W. H. Press, S. A. Teukolsky, W. T. Vetterling, and B. P. Flannery, Numerical
Recipes in C, 2nd ed. Cambridge, UK: Press Syndicate of the University of
Cambridge, 1992.
[31] T. Yamamoto, Y. Ikebe, Inversion of band matrices, Linear Algebr. Appl. 24
(1979) 105-111.

50

Vous aimerez peut-être aussi