M Emoire de Master Matrices Tridiagonales: PR Esent e Par Marwa Fareh Et Sarra Messaadi
M Emoire de Master Matrices Tridiagonales: PR Esent e Par Marwa Fareh Et Sarra Messaadi
M Emoire de Master Matrices Tridiagonales: PR Esent e Par Marwa Fareh Et Sarra Messaadi
Mémoire de Master
Matrices tridiagonales
Présenté par
Marwa Fareh et Sarra Messaadi
The supervisors give the authorization to consult and to copy parts of this work
for personal use only.
Remerciements
Nous tenons en premier lieu à remercier Dieu de nous avoir donné le courage, la
patience et la volonté pour réaliser ce travail.
Nous tenons à exprimer nos remerciements au Dr, Kheniche Azzedine, pour avoir
dirigé ce mémoire, et pour ses précieux conseils, son aide, et son soutien scientique
et humain, qui nous a donné la patience et la volonté d’accomplir ce modeste travail.
Nos vifs remerciements, vont également aux membres du jury pour l’intérêt qu’ils
ont porté à notre mémoire en acceptant d’éxaminer notre travail. Nous adressons
aussi nos remerciemment à tout les enseignants de la filière de Mathémathique de
l’université de Guelma, qui nous a aidé tout au long de cette formation de Master.
Enfin, nous tenons également à remercier toutes les personnes qui ont participé de
près ou de loin à la réalisation de ce travail.
Guelma, juin 2019
MARWA FAREH ET SARRA MESSAADI
iii
Résumé
Ce mémoire de Master a pour but, de faire une étude algébrique sur les matrices
tridiagonales et plus particulièrement en ce qui concerne les matrices tridiagonales
de Toeplitz. En effet, aprés avoir introduit la notion d’une matrice bande (tridiago-
nale) et celle de Toeplitz, nous commençons par une étude sur les déterminants de
ce genre de matrices, et le lien de ces déterminants avec les nombres de Fibonacci.
Nous continuons a expliciter les valeurs et vecteurs propres ainsi que les formules
des matrices inverses de ces matrices. En outre, nous allons présenter la méthode
de Householder, pour la tridiagonalisation d’une matrice symétrique, avec des ex-
emples illustratifs, notons que ce mémoire n’a pas la prétention d’apporter de
nouveaux résultats, mais il présente quelques résultats obtenus dernières années
par diférents auteurs, dans des travaux cités en bibliographie.
iv
Abstract
The aim of this memory is to present the notion of tridiagonal matrices, we will
focus on the algebraic study of such matrices, and in particular the Toeplitz tridi-
agonale matrices. Indeed, after introducing the notion of the band matrix (tridi-
agonal) and that of Toeplitz, we start with a study of the determinant of such
matrices, and the links with the Fibonacci numbers, we continue to explain the
eigenvalues, eigenvectors and the formulas of the inverses matrices of a tridiagonal
matrix. Moreover, we will introduce the Householder’s method for tridiagonal-
ising a symmetric matrix, and we finish with some illustrative examples, note
that this memory does not pretend to bring new results, but it presents some
results obtained in recent years by different authors, in works cited in the bibliog-
raphy.
v
Sommaire
Remerciements iii
Introduction xi
2 Matrices Tridiagonales 13
2.1 Définitions et Propriétés . . . . . . . . . . . . . . . . . . . . . . . . 13
2.1.1 Matrices tridiagonales . . . . . . . . . . . . . . . . . . . . . 13
2.1.2 Matrices tridiagonales de Toeplitz . . . . . . . . . . . . . . 14
2.2 Déterminant d’une matrice tridiagonale . . . . . . . . . . . . . . . 14
2.2.1 Déterminant d’une matrice tridiagonale de Toeplitz . . . . 18
2.2.2 Liens avec les nombres de Fibonacci . . . . . . . . . . . . . 19
2.3 Valeurs et vecteurs propres d’une matrice tridiagonale de Toeplitz 24
2.3.1 Cas d’une matrice tridiagonale de Toeplitz symétrique . . . 24
2.3.2 Cas d’une Matrice tridiagonale de Toeplitz non symétrique 27
2.4 Inverse d’une matrice tridiagonale . . . . . . . . . . . . . . . . . . 31
2.4.1 Principaux résultats . . . . . . . . . . . . . . . . . . . . . . 31
2.4.2 Exemples illustratifs . . . . . . . . . . . . . . . . . . . . . . 32
General conclusions 47
Bibliography 48
vii
Liste des symboles
ix
Introduction
xi
le calcul rapide de l’inverse de matrices tridiagonales.
Le calcule des valeurs et vecteurs propres de matrices tridiagonales est l’un des
problèmes les plus importants en analyse numérique linéaire. Les techniques
requérant la connaissance du spectre de matrices sont utilisées dans des domaines
aussi variés que la mécanique quantique, lanalyse des structures, la théorie des
graphes, les modèles de léconomie et le classement des pages de la Toile informa-
tique par les moteurs de recherche.
On veut transformer une matrice symétrique en une matrice tridiagonale sans
modifier les valeurs propres et avoir des vecteurs propres equivalents entre les
deux matrices. Il existe plusieurs méthodes qui permettent une telle tridiagonal-
isation, mais ici nous nétudierons que celle de Householder (Alston Scott House-
holder, né le 5 mai 1904, à Rockford dans l’Illinois et mort le 4 juillet 1993, est un
mathématicien américain spécialiste de biomathématique et d’analyse numérique).
La méthode de Householder est une suite de transformations orthogonales [27, 28,
25, 15, 30]. Donc la matrice symétrique A1 = A ∈ Rn×n est réduite à la matrice
tridiagonale (symétrique) An−1 par (n − 2) transformations orthogonales:
Pour une matrice tridiagonale, nous avons expliciter dans ce mémoire les valeurs
et les vecteurs propres dans le cas où cette matrice est de Toeplitz [3], comme nous
avons aussi investigué quelques résultats sur les déterminants liés aux nombres de
Fibonacci[8, 9, 20, 24].
Ce mémoire n’a pas la prétention d’apporter de nouveaux résultats, mais il présente
en détails, quelques résultats obtenus dernières années par diférents auteurs, dans
des travaux cités en bibliographie.
Ce mémoire est organisé de la façon suivante :
Dans le premier chapitre, nous introduisons quelques outils théoriques utiles tout
au long de ce travail. Nous rappelons d’abord les définitions de quelques matri-
ces spéciales (hermitienne, orthogonale, decomposée en blocs, triangulaires, bande,
echelonnées, Hessenbergue), et quelques propriétés de ces matrices (trace, trans-
position, Déterminant, normes et produits scalaires).
Dans le deuxiéme chapitre, nous nous intéressons à l’étude des matrices tridiago-
nales, en particulier, les matrices tridiagonales de Toeplitz (d’aprés Otto Toeplitz)
et on introduit quelques propriétés liées à cette notion (déterminant, déterminants
liés au nombre de fibonacci, valeurs et vecteurs propres, inversion d’une matrice
tridiagonale).
Le troisième chapitre concerne l’étude de la méthode de Householder pour la tridi-
agonalisation d´une matrice symétrique ainsi que la décomposition LU de la ma-
trice tridiagonale résultante.
A la fin, nous présentons une conclusion générale avec quelques perspectives de ce
modeste travail de recherche.
xii
1 Généralité sur l´algèbre des matrices
Les matrices jouent un rôle fondamental en algèbre linéaire, où elles fournissent un
outil de calcul irremplaçable. L’objectif de ce chapitre, est de rappeler les bases du
calcul matriciel, qui seront utilisées dans les chapitres suivants. Nous nous plaçons
dans le corps K, en géneral R ou C.
Définition 1.1. Soient m et n deux entiers strictement positifs. On appelle ma-
trice à m lignes et n colones à coeficients dans un corps K, un ensemble A de
m × n scalaires aij , i = 1, ..., m, j = 1, ..., n noté (A)ij , présentés dans le tableau
rectangulaire suivant:
a11 a12 ··· a1n
a21 a22 ··· a2n
(A)ij =
.. .. .. ..
. . . .
an1 an2 ··· ann
1
Chapter 1. Généralité sur l´algèbre des matrices
telle que :
On appelle vecteur ligne (resp., vecteur colonne), une matrice n’ayant qu’une ligne
(resp., vecteur colonne).
Définition 1.2. ( sous-matrice)
Soit A une matrice de Mm,n (K). Soient
L’intérêt de telles dcompositions par blocs réside dans le fait que certaines opérations
définies sur les matrices, restent formellement les mêmes, les coefficients de la ma-
trice étant remplacés par ses sous-matrices.
On peut effectuer un certain nombre d’oprations simples sur les matrices. Nous
rappelons à présent quelques opération essontielles définies sur les matrices.
Définition 1.4. ( Égalité de deux matrices)
Soit A et B deux matrices de Mm,n (K). On dit que A égale à B si aij = bij , pour
i = 1, ..., m, j = 1, ..., n.
Définition 1.5. ( Somme de deux matrices) Soit A et B deux matrices de Mm,n (K).
On appelle somme des matrices A et B la matrice C de Mm,n (K), dont les coeffi-
2
Chapter 1. Généralité sur l´algèbre des matrices
cients sont:
Muni des deux dernière opérations, l’ensemble Mm,n (K) est un espace vectoriel sur
K. On appelle alors base canonique de Mm,n (K), l’ensemble des m×n matrices Ekl ,
k = 1, ..., m, l = 1, ..., n, de Mm,n (K) dont les élément sont définis par:
{
0 , si i ̸= k ou j ̸= l, 1 ≤ i ≤ m et 1 ≤ j ≤ n,
(Ekl )ij =
1 , si i = k et j = l, 1 ≤ i ≤ m et 1 ≤ j ≤ n.
In = (δij )1≤i,j≤n
avec δij le symbole de Kronecker:
{
1 , si i = j,
δij =
0 , si non.
Cette matrice est, par définition la seul matrice d’ordre n telle que AIn = In , A = A
pour toute matrice A d’ordre n.
Muni de la multiplication par un scalaire de la somme et de la produit de matrice
l’ensemble Mn (K) est une algèbre. Si A est une matrice d’ordre n et p un entier,
on définit la matrice Ap comme étant le produit de A par elle même répété p fois
3
Chapter 1. Généralité sur l´algèbre des matrices
en posant A◦ = In .
On rapelle enfin que l’on a
Notons que toutes ces opérations peuvent s’étendre au cas de matrices décomposées
par blocs, pourvu que la taille de chacun des blocs soit telle que les opérations
soient bien définies.
On a le résultat suivant:
Lemme 1.1. ( produit de matrices décomposées par blocs)
Soient A et B deux matrices de tailles compatibles pour effectuer le produit AB.
Si A admet une dècomposition en blocs (AIK )1≤I≤M, 1≤K≤N de formats respectifs
(rI , sK ) et B admet dècomposition compatibles en blocs (BKJ )1≤K≤M, 1≤J≤P de
formats respectifs (sK , tJ ), alors le produit C = AB peut aussi s’écrire comme une
matrice par blocs (CIJ )1≤I≤M,1≤J≤P , de formats respectifs (rI , tJ ) et donnés par:
∑
N
CIJ = AIK BKJ , 1 ≤ I ≤ M, 1 ≤ J ≤ P
K=1
∑
n
tr(A) = aii .
i=1
la seconde ayant comme conséquence le fait que la trace d’une matrice est invariant
par changement de base. En effet, pour toute matrice A et tout matrice inversible
4
Chapter 1. Généralité sur l´algèbre des matrices
P de même ordre, on a:
.
Définition 1.9. On appelle permutation d’un ensemble, une bijection de cet en-
semble dans lui-même. On note Sn le groupe (pour la loi de composition ◦) des
permutations de l’ensemble {1, ..., n} avec n ∈ N. La signature d’une permutation
σ ∈ Sn est le nombre, égal à 1 ou −1, défini par
σ(i) − σ(j)
ε(σ) = Π1≤i≤j≤n .
i−j
5
Chapter 1. Généralité sur l´algèbre des matrices
∑
n
det(A) = (−1)i+j aij δn−1 (i, j)
j=1
Cette relation offre une premiére technique de calcul dun déterminant. Mais le
coût en temps de calcul dune telle méthode est rédhibitoire: de lordre de (n!). La
programmation de cette technique est alors fortement déconseillée dès lors que n
nest plus de lordre de lunité.
Une matrice non inversible est dite singulière. Il ressort de cette définition qu’une
matrice A inversible est la matrice d’un endomorfisme bijectif. Par conséquent,
une matrice A d’ordre n est inversible si et seulement si rg(A) = n.
Si une matrice A est inversible, son inverse est évidemment inversible et (A−1 )−1 =
A. On rappelle par ailleurs que, si A et B sont deux matrices inversibles, on a les
égalités suivantes:
et
(αA)−1 = 1/αA−1 ∀α ∈ K∗
.
Proposition 1.1. [12]
Soit A une matrice carrée d’ordre n à coefficients dans un corps commutatif (K).
Les propositions suivantes sont équivalentes (on note X une matrice colonne à n
éléments dans K :
• A est inversible;
• A possède n pivots;
6
Chapter 1. Généralité sur l´algèbre des matrices
Les valeurs propres d’une matrice A d’ordre n sont les n racines λi , i = 1, ...., n,
réelles ou complexes, distinctes ou confondues, du polynôme caractéristique p(λ) =
det(A − λIn ) associé à A. Le spectre d’une matrice A, noté σ(A), est l’ensemble
des valeurs propres de A. On rappelle les propriétés suivantes:
∑
n ∏
n
tr(A) = λi , det(A) = λi
i=1 i=1
Par conséquent, la matrice A est singulière si au moins une de ses valeurs propres
est nulle. Enfin, le rayon spectral d’une matrice A est le nombre défini par:
7
Chapter 1. Généralité sur l´algèbre des matrices
(i) symétrique, si A = AT ,
• hermitienne, si A = A∗ ,
• unitaire si A∗ A = AA∗ = In ,
• normale si A∗ A = AA∗ .
8
Chapter 1. Généralité sur l´algèbre des matrices
• Une matrice diagonale A est donc inversible si et selement si tous ses élèments
diagonaux son non nuls et dans ce cas, son inverse est une matrice diago-
nale dont les élèments diagonaux sont les unverses des élèments diagonaux
correspondants de A.
Les matrices triangulaires forment une classe de matrices intervenant trés couram-
ment en algèbre linéaire numérique.
Définition 1.15. ( matrice triangulaire)
On dit qu’une matrice A d’ordre n est triangulaire supérieure (resp.inférieure) si
on a:
aij = 0, pour les couples d’indices (i, j) ∈ 1, ..., n2 tels que i > j(resp.i < j).
Une matrice à la fois triangulaire supérieure et inférieure est une matrice diagonale,
et que la matrice transposée d’une matrice triangulaire supérieure est une matrice
triangulaire inférieure, et vice versa(évident).
Lemme 1.3. [27] Soit A une matrice d’ordre n triangulaire supérieure (resp.
inférieure). Son déterminant est égal au produit de ses termes diagonaux et elle est
donc inversible si et seulement si ces derniers sont tous sont non nuls. Dans ce cas,
son inverse est aussi une matrice triangulaire supérieure (resp. inférieure) dont les
élments diagonaux sont les inverses des élments diagonaux de A. Soit B une autre
matrice d’ordre n triangulaire supérieure (resp. inférieure). La somme A + B et
le produit AB sont des matrices triangulaires supérieures (resp. inférieures) dont
les élments diagonaux sont respectivement la somme et le produit des élments di-
agonaux correspondants de A et B.
Une matrice bande est une matrice carrée dont les coefficients non nuls sont lo-
calisés dans une ”bande” autour de la diagonale principale. Plus précisement, on
a la définition suivante.
Définition 1.16. ( matrice bande)
Soit n un entier strictement positif, on dit qu’une matrice A de Mn (R), est une
matrice bande s’il existe des entiers positif p et q strictement inférieurs à n tels
que aij = 0, pour tous les couples d’entiers (i, j) ∈ 1, ..., n2 tels que i − j > p ou
j − i > q.
La largeur de bande de la matrice vaut p + q + 1, avec p élèments a priori non
nuls à gauche de la diagonale et q élèments à droite sur chaque ligne.
9
Chapter 1. Généralité sur l´algèbre des matrices
∑
n ∑
n
| aii |≥ | aij |, (resp. | aii |≥ | aji |), 1 ≤ i ≤ n.
j=1,j̸=i j=1
On dit que A est à diagonale strictement dominante (par lignes ou par colonnes
respectivement) si ces inégalités sont strictes. Les matrices à diagonale strictement
dominante possédent la particularité d’être inversibles, comme le montre le résultat
suivant.
Théoreme 1.1. [27] Soit A une matrice d’ordre n à diagonale strictement domi-
nante (par lignes ou par colonnes). Alors, A est inversible.
Définition 1.18. ( matrice échelonnée) Une matrice A de Mm,n (K) est dite
échelonnée ou en échelons s’il existe un entier r, 1 ≤ r ≤ min(m, n) et une suite
d’entiers 1 ≤ j1 ≤ j2 < .... < jr ≤ n tels que:
• aij = 0 pour r < i ≤ m et 1 ≤ j ≤ n, c’est à dire que toutes les lignes après
les r premiéres sont nulles.
Exemple 1.1. La matrice
0 1 2 0 4
0 −5 7 3
0
0 0 0 6 0
0 0 0 0 0
10
Chapter 1. Généralité sur l´algèbre des matrices
∑
n
⟨U, V ⟩ = V t U = U t V = ui vi , si K = R,
i=1
∑
n
⟨U, V ⟩ = V ⋆ U = U ⋆ V = ui vi , si K = C,
i=1
est appelée produit scalaire canonique (et produit scalaire euclidien lorsque K = R).
On note La norme induite par ce produit scalaire, appelée norme euclidienne dans
le cas réel, est alors
√ ∑n
1
∥V ∥2 = ⟨V, V ⟩ = ( |vi |2 ) 2
i=1
11
Chapter 1. Généralité sur l´algèbre des matrices
et
∥v∥∞ = max |vi |.
1≤i≤n
∑
n
1
∥v∥p = ( |vi |p ) p , ∀v ∈ E
i=1
12
2 Matrices Tridiagonales
Remarque 2.1. Une matrice tridiagonale, est donc une matrice de Hessenberg à
la fois supérieure et inférieure.
Proposition 2.1. [4] Si une matrice réelle tridiagonale A vérifie ak,k+1 ×ak+1,k >
0 pour k = 1, ...., n (cest-à-dire si les signes de ses coefficients sont symétriques,
alors elle est semblable à une matrice hermitienne, et donc toutes ses valeurs
propres sont réelles.
13
Chapter 2. Matrices Tridiagonales
Ces matrices interviennent par exemple, dans la théorie de la prédiction, les solu-
tions numériques de certaines équations différentielles, traitement du signal et de
limage, étude des processus gaussiens stationnaires.
Le déterminant d’une matrice carée, joue un rôle important dans le calcul matriciel
et la résolution des systèmes linéaires, il permet aussi de savoir si une matrice est
inversible ou pas. Nous allons dans cette section définir de façon numérique le
déterminant d’une matrice tridiagonale de Toeplitz puis en donner quelques pro-
priétés. Il s’agit donc d’un calcul élémentaire que l’on effectue sur les coefficients
de cette matrice, en explicitant les résultats sur des exemples.
Soient (αn )n≥1 , (βn )n≥2 et (γn )n≥2 trois suites de nombres réels (complexes). Con-
sidérons la matrice tridiagonale suivante:
14
§2.2. Déterminant d’une matrice tridiagonale
α1 β2 0 0 ··· 0
γ2 α2 β3 0 ··· 0
0 γ3 α3 β4 ··· 0
An = . .. .. .. .. ..
.. . . . .
.
0 0 ··· γn−1 αn−1 βn
0 0 ··· 0 γn αn
On pose D0 = 1, D1 = α1 et Dn = det(An ), ∀n ≥ 2.
En développant suivant la dernière colonne, on obtient la relation de récurrence:
∀n ≥ 3, Dn = αn Dn−1 − βn γn Dn−2
On a
2 −1 0 0 ··· 0 −1 −1 0 0 ··· 0
−1 2 −1 0 ··· 0 0 2 −1 0 ··· 0
0 −1 2 −1 ··· 0 0 −1 2 −1 ··· 0
Dn = . .. .. .. .. .. = 2Dn−1 + .. .. .. .. .. ..
.. . . . . . .
. . . . .
0 0 ··· −1 2 −1 0 0 ··· 0 2 −1
0 0 ··· 0 −1 2 0 0 ··· 0 −1 2
15
Chapter 2. Matrices Tridiagonales
– Polynôme caractéristique:
2 − x −1 1 − x −1 1 −1
PA (x) = = = (1 − x) = (1 − x)2
1 −x 1 − x −x 1 −x
Ceci implique
( )−1 ( )( )
−1 1 1 2 −1 1 1
P AP =
1 0 1 0 1 0
D’ou ( )( )( )
−1 0 1 2 −1 1 1
P AP =
1 −1 1 0 1 0
On obtient alors: ( )
−1 1 1
P AP = =T
0 1
16
§2.2. Déterminant d’une matrice tridiagonale
∑
n
T n = (D + N )n = Cni Dn−i N i = Dn + nDn−1 N = I + nN
i=0
Il s’ensuit que
( ) ( ) ( )
n 1 0 0 1 1 n
T = +n = .
0 1 0 0 0 1
Par conséquent
( )( ) ( )
n n −1 1 1 1 n 0 1
A = PT P = = .
1 0 0 1 1 −1
( )( ) ( )
1 n+1 1 0 n + 1 −n
= = .
1 n −1 1 n 1−n
)(
Dn
Xn = = An−2 X2
Dn−1
( )( )
n−1 2−n 3
=
n−2 3−n 2
17
Chapter 2. Matrices Tridiagonales
Dans cette partie, nous intéressons aux déterminants des matrices tridiagonales
de Toeplitz.
Dans [22, 24], les théoremes suivants ont été élaborés.
Théoreme 2.1. [22] Pour n ∈ N et a, b, c ∈ C, on a
a b 0 ... 0 0
c a b ... 0 0
0 c a ... 0 0
Dn = . . .. .. .. ..
.. .. .
. . .
0 0 0 ... a b
0 0 0 ... c a
√ √
(a + a2 − 4bc)n+1 − (a − a2 − 4bc)n+1
√ si a2 ̸= 4bc
2n+1 a2 − 4bc
=
(n + 1)( a )n sinon
2
2.1
18
§2.2. Déterminant d’une matrice tridiagonale
Notons U l’ensemble des suites (un )n≥0 vérifiant cette relation de recurrence.
Soit ∆ le discriminant de l’équation caractéristique x2 = ax + b. Trois cas sont à
distinguer:
(i) ∆ > 0.
L’équation caractéristique possède dans ce cas deux solution réelles distinctes
r1 et r2 et dans ce cas un appartient à U si et selement s’il existe (λ, µ) ∈ R⊭
tel que:
∀n ∈ N, un = λr1n + µr2n
(ii) ∆ = 0.
L’équation caractéristique possède une solution double notée r. Dans ce cas
un appartient à U si et selement s’il existe (λ, µ) ∈ R⊭ tel que:
∀n ∈ N, un = (λn + µ)rn
(iii) ∆ < 0.
L’équation caractéristique possède deux solution complex solution double
conjuguées w etw. Posons r = |w| et θ = argw. Dans ce cas un appartient
à U si et selement s’il existe (λ, µ) ∈ R⊭ tel que:
Remarque 2.3. Dans les trois cas ci-dessus, le couple (λ, µ) est déterminé à
partir des valeurs des premiers termes de la suite (un )n≥0 .
Les nombres de Fibonacci sont les éléments de la suite des entiers positifs où chaque
terme est la somme des deux termes qui le précèdent. Elle commence généralement
par les termes 0 et 1 (resp. 1 et 1) et ses premiers termes sont
(resp.
1, 1, 2, 3, 5, 8, 13, 21, 34, 55, 89, 144, ....)
Définition 2.4. ( suite de Fibonacci) La suite de Fibonacci, notée (Fn ), est la
19
Chapter 2. Matrices Tridiagonales
Fn = Fn+2 − Fn+1 ,
nous permet détendre les termes de la suite de Fibonacci vers la gauche, cest-à-
dire de calculer les termes dindice négatif. Ainsi, on peut déduire le corrolaire
suivant:
Corollaire 2.2. Les termes d’indice négatif dans la suite de Fibonacci étendue
sont donnés par:
F−n = (−1)n+1 Fn , ∀n ≥ 0.
La suite de Fibonacci est une équation aux différences linéaire a coefficients con-
stantes homogène d’ordre 2.
Soit la suit de fibonacci
Remarque 2.4. La formule 2.3 est dite la formule de Binet. Autrement dit
αn − β n
Fn = , n∈N, (2.4)
α−β
avec √ √
1+ 5 1− 5
α= , β= .
2 2
Définition 2.5. ( suite de Lucas) La suite de Lucas, notée (Ln ), est la suite
20
§2.2. Déterminant d’une matrice tridiagonale
définie par:
Ln+2 = Ln+1 + Ln , ∀n ≥ 0 , (2.5)
avec les conditions initiales L0 = 2 et L1 = 1 (ou L1 = 1 et L2 = 3.)
Ln = Fn+1 + Fn−1 , ∀n ∈ N.
En utilisant la suite de Fibonacci étendue , on constate d’une part que
L0 = F1 + F−1 = 2F1 = 2 et L1 = F2 + F0 = 1
Supposons que la formule est vraie pour m ≤ k + 1. Par lhypothèse, il est vrais
que
Fn+k = Fn−1 Fk + Fn Fk+1 , et Fn+k+1 = Fn−1 Fk+1 + Fn Fk+2
On ajoute ces deux équations terme par terme, on obtient
Proof. On a
∏n−1
Proposition 2.4. [9] F2n = k=1 (3 − 2 cos πk
n ), pour tout n ≥ 2.
21
Chapter 2. Matrices Tridiagonales
est F2n+2
D’où le résultat.
On peut citer autres exemples pour cette technique de calcul des déterminants en
utilisant les suites de Fibonacci et Luca. En effet, Strang [28] a démontrer que
les déterminants des matrices tridiagonales suivantes:
1 −1
1 1 −1
.. .. ..
Bn = . . .
1 −1
1
1 1
22
§2.2. Déterminant d’une matrice tridiagonale
et
1 i
i 1 i
.. .. ..
Cn = . . .
i
i 1
i 1
sont respectivement Fn et Fn+1 , pour n ≥ 1.
−1 1
−1 −1 1
.. .. ..
Gn = . . .
−1 −1 1
−1 −1
est (−1)n Fn+1 .
N.D. Cahill et J.R. D’Errico [9], Ont montré que les déterminants des matri-
ces √
1 0 8 6
√
0 8 1 6 5 i
1 7 1 i 4 i
.. , ..
. .
1 7 i 4
.. .. .. ..
. . 1 . . i
1 7 i 4
et √
13 − 5
√
− 5 3 −1
−1 3 −1
..
−1 .
3
.. ..
. . −1
−1 3
sont respectivement, F4k−2 , F3k+3 et F2k+5 .
23
Chapter 2. Matrices Tridiagonales
Clairement, A et T ont les mêmes vecteurs propres et leurs valeurs propres respec-
tives sont liées par
λA = α + βλT .
Ainsi, il suffit de travailler avec la matrice simple T .
Le problème donc revient à calculer les valeurs propres de T , on cherche les réels
24
§2.3. Valeurs et vecteurs propres d’une matrice tridiagonale de Toeplitz
T X = λT X . (2.8)
• i = 1: x2 − λT x1 = 0 ⇒ −λT x1 + x2 = 0
• i = 2: x1 − x3 − λT x2 = 0 ⇒ x1 − λT x2 + x3 = 0
• i = 3: x2 − x4 − λT x3 = 0 ⇒ x2 − λT x3 + x4 = 0
r2 − λr + 1 = 0 (2.10)
(i) Si ∆ > 0,
il est clair que c2 − 1 > 0 ⇒ |c| > 1 ⇒ c ∈] − ∞, 1[∪]1, ∞[.
Donc l’équation caractéristique admet deux solutions réelles opposées que
l’on note r1 et r2 données par:
√
r1 = c + c2 − 1
√
r2 = c − c2 − 1
25
Chapter 2. Matrices Tridiagonales
r1 r2 = 1, r1 + r2 = 2c et r1 + r1−1 = r + r−1 = 2c
r1 = exp (i θ)
26
§2.3. Valeurs et vecteurs propres d’une matrice tridiagonale de Toeplitz
kπ
D’ou (λT )k = 2c = 2 cos ( n+1 )
kπ
λk = α + 2 β cos ( ), k = 1, ...., n
n+1
kπ
Nous avons xk = 2iγ sin ( n+1 ), pour chaque valeur propre λk , k = 1, ..., n, le
(k) (k) (k)
vecteur propre associé a cette valeur propre noté Vk = (v1 , v2 , ...., vn ), où
(k) kπ 1
vj = sin (j( n+1 )), j = 1, ..., n et k = 1, ..., n, en choisissant γ = 2i , c’est-à-
dire
kπ 2kπ nkπ
Vk = (sin ( ), sin ( ), ...., sin ( ))
n+1 n+1 n+1
27
Chapter 2. Matrices Tridiagonales
Comme le cas précident, nous avons λA = α + βλT , où λA désigne la valeur propre
associée á A, et λT désigne la valeur propre associée á T . Nous calculons d’abord
les valeurs proprse associées à T , puis on endéduit celle de A.
On cherche les réels λT tel qu’il existe X = (x1 , ..., xn ) ∈ Rn non nul, vérifiant:
T X = λT X
On a
0 1 0 ··· 0 0 x1 λx1
ξ ··· 0
β 0 1 0 x2 λx2
0 ξ
0 ··· 0 0
β x3 λx3
. .. .. .. ..
.. .. ..
=
.. . . . . . .
.
0 0 0 ··· 0 1 xn−1 λxn−1
0 0 0 ··· ξ
β 0 xn λxn
• Pour i = 1, on a x2 − λT x1 = 0 ⇒ −λT x1 + x2 = 0
• Pour i = n−1, on a ( βξ )xn−2 +xn −λT xn−1 = 0 ⇒ ( βξ )xn−2 −λT xn−1 +xn = 0
ξ
On pose β = d, et λT = 2c.
• Pour i = 1, on a: dx0 − λT x1 + x2 = 0
28
§2.3. Valeurs et vecteurs propres d’une matrice tridiagonale de Toeplitz
r2 − 2cr + d = 0. (2.14)
xk = (γ + δk)ck , k = 0, ..., n + 1
29
Chapter 2. Matrices Tridiagonales
√ √
(iii) Si ∆ < 0, alors 4c2 −4d < 0, ce qui implique − d < c < d, par consequant,
√
l’équation caractérisitique
√ admet deux solutions complexes: r1 = c+i d − c2
et r2 = c − i d − c , avec
2
√ √ √
|r1 | = |r2 | = d et cos(θ) = c/r = c/ d, i.e., c = d cos(θ).
On cherche θ:
Les solutions générales de (2.13) sont de la forme:
– Pour x0 = 0, on a γ = 0
30
§2.4. Inverse d’une matrice tridiagonale
Nous exposons dans cette partie une méthode exacte, assez élégante, introduite
par M. El-Mikkawy et A. Karawia, dans [13], pour le calcul rapide de l’inverse de
matrices tridiagonales. En effet, c’est un travail qui est principalement consacré au
développement d’un algorithme qui ne s’effondrera jamais pour trouver l’inverse
de toute matrice tridiagonale non singulière.
d1 a1 ··· ··· ··· 0
b2 d2 a2 ··· ··· 0
0 b3 d3 a3 ··· 0
T =. .. .. .. .. .. (1.1)
.. . . .
. .
0 0 ··· bn−1 dn−1 an−1
0 0 ··· 0 bn dn
Sur la base des résultats présentés dans [18], nous pouvons introduire deux vecteurs
α = (α0 , α1 , ..., αn ) et β = (β1 , β2 , ..., βn+ ), de dimensions n+1, comme suite:
1 , si i = 0
αi = d1 , si i = 1 . (2.15)
d α − bi ai−1 αi−2 , si i = 2, 3, ..., n
i i−1
et
1 , si i = n + 1
βi = dn , si i = n . (2.16)
d β − bi+1 ai βi+2 , si i = n − 1, n − 2, ..., 1
i i+1
Les éléments des vecteurs α et β dans (2.15) et 2.16, sont précisément les
déterminants des sous-matrices de la matrice tridiagonale T . Pour cette matrice,
les résultats obtenus sont résumés dans le théorème suivant:
Théoreme 2.2. [21, 14] Pour la matrice T , les éléments suivants sont valides.
31
Chapter 2. Matrices Tridiagonales
(i) det (T ) = αn = β1 ,
∏j−i
j−i αi−1
(−1) ( k=1 aj−k ) αj−1 ujj , si i < j
uij = .
(−1)i−j (∏i−j b ) βi+1 u
, si i > j
k=1 j+k βj+1 jj
et
32
§2.4. Inverse d’une matrice tridiagonale
β4 =1
β = d3 = 2
3
β2 = d2 β3 − b3 a2 β4 = 3(2) − 1(1)(1) = 5
β1 = d1 β2 − b2 a1 β3 = 4(5) − 2(3)(2) = 8
b2 a1 β3 −1 2(3)(2) −1
• u11 = (d1 − β2 ) = (4 − 5 ) = 5/8
b3 a2 α1 −1 1(1)(4) −1
• u33 = (d3 − α2 ) = (2 − 6 ) = 3/4
b3 a2 β4 −1 2(3)(1) 1(1)(1) −1
• u22 = (d2 − b2 a1 α0
α1 − β3 ) = (3 − 4 − 2 ) =1
Donc:
u11 u12 u13 5/8 −3/4 3/8
A−1 = u21 u22 u23 = −1/2 1 −1/2
u31 u32 u33 1/4 −1/2 3/4
Exemple 2.4. Soient (p, q) ∈ R∗ × R∗ , considérons la matrice tridiagonale T
d’ordre 4, donnée par:
1 1 0 0 d1 a1 0 0
1 −1 0 b 0
1 2 d2 a2
A= =
0 −1 2 p 0 b3 d3 a3
0 0 0 q 0 0 b4 d4
33
Chapter 2. Matrices Tridiagonales
34
3 Tridiagonalisation d’une matrice
symétrique
35
Chapter 3. Tridiagonalisation d’une matrice symétrique
(i) symétrique
(ii) orthogonale
Proof.
(i) On a Hu = In − 2uuT , et
(ii) On a
(Hu )T Hu = (In − 2uuT )T (In − 2uuT ) = (In − 2uuT )2 ,
D’ou
(Hu )T Hu = (In )2 − 4In uuT + 4u(uT u)uT ,
Puisque uT u = 1, alors
(Hu )T Hu = In .
Proof.
x−y
Il suffit de prendre u = ∥x−y∥ .
Hu a = [I − 2uuT ]a = αb.
Proof.
a−αb
Il suffit de prendre u = 2uT a
.
Remarque 3.1.
la matrice Hu est associée à une transformation géometrique, qui est la symétrie
par rapport à l’hyperplan de Rn orthogonal au vecteur u. En effet, l’algorithme de
householder se comprend facilement à partir sa représentation géométrique dans
l’espace à trois dimensions. Soient un point M et un plan (p), contenant l’origine
(mais pas M ), et normal au vecteur unitaire ñ. On cherche à construire le point
M ′ qui se déduit de M par une symétrie orthogonale par rapport à (p). La droite
36
§3.2. Réduction à la forme tridiagonale (Householder)
passant par M et perpendiculaire à (p) perce ce plan en K, elle passe aussi par M ′ .
−−→
Le vecteur KM est parallèle a ñ, sa longueur est celle de la projection orthogonale
−−→ −−→ −−→
de OM sur ñ, autrement dit KM = (ñ OM )ñ.
−−−→ −−→
Par symétries, KM ′ est l’opposé de KM . On veut relier M ′ à M par:
−−−→′ −−→ −−−→′ −−→ −−→ −−→ −−→
OM = OM + M M = OM − 2kM = OM − 2(ñ.OM )ñ.
Soit A = (aij )1≤i,j≤n une matrice symétrique d’ordre n, qu’on écrit sous la forme:
( )
a11 at1
où a1 ∈ Rn−1 et Ã1 ∈ Mn−1 (R).
a1 Ã1
( )
1 O
H1 =
O H̃1
( )( )( )
1 O a11 at1 1 O
On a alors: H1T A H1 = T
O H̃1 = H̃1 a1 Ã1 O H̃1
D’où
37
Chapter 3. Tridiagonalisation d’une matrice symétrique
a11 α 0··· 0
α
0
H1 A H 1 = H̃1 Ã1 H̃1
..
.
0
T
Ak = Hk−1 Ak−1 Hk−1 = (H1 H2 ...Hk−1 )T A(H1 H2 ...Hk−1 ), 2 ≤ k ≤ n − 1,
TT = (HT AH)T = HT AT H = HT AH = T
d’oú
det(T − λIn ) = det(HT (A − λIn )H).
On obtient alors
38
§3.2. Réduction à la forme tridiagonale (Householder)
Il existe donc une relation entre les vecteurs propres d’une matrice symétrique A et
ceux de la matrice tridiagonale T obtenue par la méthode de Householder, d’autre
part les valeurs propres restent inchangées. Il existe aussi une relation entre la
solution du système Ax = b et celle du système Ty = HT b.
Si un problème contient une matrice symétrique, nous n’avons qu’à travailler avec
la matrice tridiagonale associée, et ensuite faire les transformations nécessaires.
Explicitement, une méthode plus simple d’avoir la matrice H, est celle introduite
dans [25]. En effet, soit A = (aij )1≤i,j≤n une matrice symétrique d’ordre n, lors
de la premiére étape, nous devons déterminer α et r comme suite:
v
u∑
u n 2
α = −sgn(a21 )t aj1 ;
j=2
√
r= 1/2(α2 − a21 α).
a21 − α ak1
v1 = 0, v2 = , et vk = , k = 3, 4, ..., n.
2r 2r
Aprés avoir calculé v, on construit la première matrice de Householder P1 comme
suite:
P1 = I − 2v (1) (v (1) )T , puis A2 = P1 A1 P1 , en posant A1 = A.
Nous répétons ce processus pour k = 2, 3, 4, ...., n − 2 comme suite:
v
u ∑
u n
α= −sgn(akk+1,k )t (akjk )2 ;
j=k+1
et
√
r= 1/2(α2 − akk+1,k α);
avec:
v1k = v2k = ......... = vkk = 0;
39
Chapter 3. Tridiagonalisation d’une matrice symétrique
et
k
akk+1,k − α
vk+1 = ;
2r
akjk
vjk = , pourj = k + 2, ....., n;
2r
la matrice Pk est donc
Pk = I − 2v (k) (v (k) )T ;
et
Ak+1 = Pk Ak Pk .
Exemple 3.1. Dans cet exemple, la matrice donnée est transformée en une ma-
trice tridiagonale similaire A3 , en appliquant deux transformations de Householder.
4 1 −2 2
1 1
2 0
A = A1 =
−2 0 3 −2
2 1 −2 −1
Premiere étape, nous avons:
(1)
V1
(1)
V2
=
T
P1 = I4 − 2V (1) V (1) , V (1) V (1)
3
(1)
V4
(1)
oú V1 =0
v
u∑
u n 2
α = −sgn(a21 )t aj1
j=2
√
= a221 + a231 + a241
√
=− 1+4+4
= −3
√
r = 1/2(α2 − a21 α)
40
§3.2. Réduction à la forme tridiagonale (Householder)
√
2 (α − a21 α)
1 2
=
√
= 12 (9 + 3)
√
= 6
d’où,
(1) 4
V2 = √ = √2
2 6 6
(1) −2
√ −1
√
V3 = 2 6
= 6
(1) 2
V4 = √ = √1
2 6 6
Ainsi,
0
√2 ( )
6
V (1) V (1) =
T −1
√2 √ √1
√−1 0 6 6 6
6
√1
6
0 0 0 0 0 0 0 0
0 −2/6 −1/3 1/3
4/6 2/6 0 2/3
= =
0 −2/6 1/6 −1/6 0 −1/3 1/6 −1/6
0 2/6 −1/6 1/6 0 1/3 −1/6 1/6
Revenons a P1 :
T
P1 = I4 − 2V (1) V (1)
1 0 0 0 0 0 0 0
0 0 0 −2/3 2/3
1 0 4/3
P1 = −
0 0 1 0 0 −2/3 1/3 −1/3
0 0 0 1 0 2/3 −1/3 1/3
1 0 0 0
0 −1/3 2/3 −2/3
=
0 2/3 2/3 1/3
0 −2/3 1/3 2/3
Alors,
1 0 0 0 4 1 −2 2 1 0 0 0
0 −1/3 2/3 −2/3 1 1 0 −1/3 2/3 −2/3
2 0
A2 = P1 AP1 =
0 2/3 2/3 1/3 −2 0 3 −2 0 2/3 2/3 1/3
0 −2/3 1/3 2/3 2 1 −2 −1 0 −2/3 1/3 2/3
41
Chapter 3. Tridiagonalisation d’une matrice symétrique
On calcul ce produit:
4 1 −2 2 1 0 0 0
−3 −4/3
−1 0 −1/3 2/3 −2/3
10/3
−3 5/3 4/3 −1 0 2/3 2/3 1/3
0 −2/3 −1/3 −2 0 −2/3 1/3 2/3
4 −3 0 0
−3 4/3
10/3 1
A2 =
0 1 5/3 −4/3
0 4/3 −4/3 −1
Deuxième étape, on utilise A2 pour former:
(2)
V1
(2)
V2
=
T
P2 = I4 − 2V (2) V (2) , V (2) V (2)
3
(2)
V4
(2) (2)
(2) (2) (2) a −α (2) a42
oú, V1 = V2 = 0, V3 = 322r et V4 = 2r .
On calcul les valeurs de α et r:
√∑ 2
n
α = −sgn(akk+1,k ) k
j=k+1 ajk
(2)
√
= −sgn(a√ 32 ) a232 + a242
= 9 + 16/9
= −5/3
√
r = √1/2(α2 − a32 α)
= 12 (α2 − a21 α)
√
= 12 (25/9 + 5/3)
√
= 2 5/3
4
(2) 1+5/3 (2)
d’ú, V3 = √ = √2 , V4 = 3
√ = √1
4 5 5 4 5 5
3 3
Alors,
0
0
V (2) =
√2
5
√1
5
42
§3.2. Réduction à la forme tridiagonale (Householder)
0
( )
0
=
T
V (1) V (1) √2 0 0 √2
5
√1
5
5
√1
5
0 0 0 0
0 0
0 0
=
0 0 4/5 2/5
0 0 2/5 1/5
On obtient:
1 0 0 0 0 0 0 0 1 0 0 0
0 0
1 0 0 0 0 0 0 0 1 0
P2 = −
0 0 1 0 0 0 8/5 4/5 0 0 −3/5 −4/3
0 0 0 1 0 0 4/5 2/5 0 0 −4/5 3/5
A 3 = P2 A 2 P2
1 0 0 0 4 −3 0 0 1 0 0 0
0 0 −3 4/3 0 0
1 0 10/3 1 1 0
=
0 0 −3/5 −4/3 0 1 −5/3 −4/3 0 0 −3/5 −4/3
0 0 −4/5 3/5 0 4/3 4/3 −1 0 0 −4/5 3/5
4 −3 0 0
−3 −5/3 0
10/3
A3 =
0 −5/3 −33/25 68/75
0 0 68/75 149/75
Comme on peut le constater, le résultat final est une matrice symétrique tridiago-
nale similaire à la matrice originale. le processus est terminé après deux étapes.
Remarque 3.3. La matrice symétrique A1 = A ∈ Rn×n est réduite à la ma-
trice tridiagonale (symétrique) An−1 , par (n − 2) transformations orthogonales en
utilisant un equivalent processus d’itérations introduit aussi dans [25], comme suite:
où
43
Chapter 3. Tridiagonalisation d’une matrice symétrique
vi viT
Pi = I − , et hi = 1/2viT vi ;
hi
et ( ( ( ( (
i) i) i) i) i)
viT = [0, ..., 0, ai+1,i + sgn(ai+1,i )σi , ai+2,i , ai+3,i , ......., an,i ].
( ( (
i) i) i)
σi2 = (ai+1,i )2 + (ai+2,i )2 + ...... + (an,i )2 .
Alors
( ) ( )
3+5 8
σ12 = 9 + 16 = 25, v1 = =
4 4
et
h1 = 21 v1T v1 = 1
2 × 80 = 40.
Donc
( ) ( ) ( )
1 1 0 1 64 32 −3/5 −4/5
P1 = I2 − (v1 v1T ) = − =
h1 0 1 40 32 16 −4/5 3/5
1 0 0
P1 = 0 −3/5 −4/5
0 −4/5 3/5
et
1 0 0 2 3 4 1 0 0
A2 = 0 −3/5 −4/5 3 4 2 0 −3/5 −4/5
0 −4/5 3/5 4 2 3 0 −4/5 3/5
2 −5 0
= −5 132/25 26/25 = T
0 26/25 43/25
où T est tridiagonale.
44
§3.3. Décomposition LU d’une matrice tridiagonale
Les matrices tridiagonale sont trés faciles à factoriser par la méthode de Gauss,
si le système AX = F est écrite sous la forme générale (a1 = cn = 0 par conven-
tion)
b1 c1 0 ··· 0 x1 f1
a2 b2 c2 ··· 0 x2 f2
.. .. .. .. .. .. ..
. . . . . . = .
0 ··· a bn−1 cn−1
n−1 xn−1 fn−1
0 0 ··· an bn xn fn
La matrice A peut se décomposer sous la forme A = LU , avec les matrices
b∗1 0 0 ··· 0
a2 b∗2 0 ··· 0
. .. .. .. ..
L = .. . . . .
0 ··· b∗n−1 0
an−1
0 0 ··· an b∗n
et
1 c∗1 0 ··· 0 0
0 1 c∗2 ··· 0 0
. .. .. .. .. ..
U = .. . . . . .
0 ··· cn−1
∗
0 0 1
0 0 0 ··· 0 1
En identifiant les coefficients, nous obtenons les récurrences suivantes pour le calcul
des coefficients b∗ et c∗ :
∗ ∗ ∗
b1 = b1 bk = bk − ak .ck−1
k=2...n
et
c∗ = c /b c∗ = c /b∗
1 1 1 k k
45
Chapter 3. Tridiagonalisation d’une matrice symétrique
et
Xn = Yn
LU = Y ⇒
X = Y − c∗ .X
k k k+1 , k = (n − 1), ..., 1
46
Conclusion Générale
Dans ce mémoire, nous avons montré l’intérêt que présentent les matrices tridi-
agonales dans le calcul matriciel, notament dans le cas des matrices tridiagonales
de Toeplitz. Nous avons explicité d’une manière claire les valeurs et les vecteurs
propres de ce genre de matrices, ainsi que les formules des ces matrices inverses.
On a introduit aussi les liens existants entre les déterminants de ces matrices avec
les notions des nombres de Fibonacci et Lucas. Nous avons présenté la méthode
la plus effecace pour apprendre comment tridiagonaliser une matrice symétrique
par les transformations de Householder, et la décomposition LU de ces matrices
tridiagonales. En résumé, les recherches futures devront développer une approche
plus contextuelle de l’étude des liens entre toutes les méthodes de tridiagonalisa-
tions des matrices même non symétriques, en prenant en considération le coût de
chaque méthode.
47
Bibliography
49
General conclusions and outlook
[16] C.F. Fischer. R.A. Usmani, Properties of some tridiagonal matrices and their
application1 to boundary value problems. SIAM J. Numer. Anal. v6 nl (1969)
pp 127–141.
[17] G. H. Golub and C. F. Van Loan. Matrix computations. Johns Hopkins Uni-
versity Press, third edition, 1996.
[18] Y. Huang, W.F. Mccoll, Analytic inversion of general tridiagonal matrices, J.
Phys. A 30 (1997) 79197933.
[19] G.Y. Hu, R.F. OConnell, Analytical inversion of symmetric tridiagonal ma-
trices, J. Phys. A 29 (1996) 1511–1513.
[20] E. Kilic, D. Tasci, Negatively subscripted Fibonacci and Lucas numbers and
their complex factorizations, Ars Combin., 96, (2010), 275–288.
[21] G. Meurant, A review on the inverse of symmetric tridiagonal and block
tridiagonal matrices, SIAMJ. Matrix Anal. Appl. 13 (3) (1992) 707-728.
[22] Feng Qi, Ai-Qi Liu, Alternative proofs of some formulas for two tridiagonal
determinants. Acta Univ. Sapientiae, Mathematica, 10, 2 (2018) 287–297
[23] A. Quarteroni, R. Sacco, and F. Saleri. Méthodes numériques. Algorithmes,
analyse et applications. Springer, 2007.
[24] F. Qi, V. Čerňanová, Y. S. Semenov, Some tridiagonal determinants related
to central Delannoy numbers, the Chebyshev polynomials, and the Fibonacci
polynomials, Politehn. Univ. Bucharest Sci. Bull. Ser. A Appl. Math. Phys.
81 (2019), in press.
[25] Burden, Richard L., and J. Douglas Faires. Numerical Analysis. 8 th Edition.
Belmont: Thomson Books/Cole, 2005.
[26] T. Rivlin. Chebyshev Polynomials: From Approximation Theory to Algebra
and Number Theory. 2nd Edition, John Wiley. Sons, Inc. 1990.
[27] G. Strang. Introduction to Linear Algebra. 2nd Edition, Wellesley MA,
Wellesley- Cambridge, 1998.
[28] G. Strang, Linear algebra and its applications, Brooks/Cole, 3rd edition
(1988).
[29] G. Strang and K. Borre. Linear Algebra, Geodesy and GPS. Wellesley MA,
Wellesley- Cambridge, 1997, pp. 555–557.
[30] W. H. Press, S. A. Teukolsky, W. T. Vetterling, and B. P. Flannery, Numerical
Recipes in C, 2nd ed. Cambridge, UK: Press Syndicate of the University of
Cambridge, 1992.
[31] T. Yamamoto, Y. Ikebe, Inversion of band matrices, Linear Algebr. Appl. 24
(1979) 105-111.
50