Matrix
Matrix
Facoltà di Ingegneria
Giuseppe De Cecco
Raffaele Vitolo
NOTE
DI
CALCOLO MATRICIALE
Introduzione 6
1 Le matrici 8
1.1 Premesse . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8
1.2 Norme sulle matrici . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11
1.3 Matrici a blocchi . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14
1.4 Forme canoniche delle matrici . . . . . . . . . . . . . . . . . . . . . . . 16
1.5 Matrici complesse . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19
1.6 Matrici definite positive . . . . . . . . . . . . . . . . . . . . . . . . . . 23
1.7 Invertibilità di una matrice . . . . . . . . . . . . . . . . . . . . . . . . 25
1.8 Diagonalizzazione simultanea di matrici . . . . . . . . . . . . . . . . . 26
1.9 Esercizi di riepilogo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27
2 Funzioni matriciali 30
2.1 Polinomi matriciali . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 30
2.2 Polinomi annullatori . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31
2.3 Polinomio minimo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33
2.4 Funzioni di matrici definite mediante serie di potenze . . . . . . . . . . 34
2.5 Proprietà dell’esponenziale di matrici . . . . . . . . . . . . . . . . . . . 36
2.6 Esponenziale di matrici ed equazioni differenziali . . . . . . . . . . . . 37
3
4
5 I sistemi lineari 80
5.1 Metodi di fattorizzazione: premesse . . . . . . . . . . . . . . . . . . . . 80
5.2 Trasformazioni sulle matrici . . . . . . . . . . . . . . . . . . . . . . . . 83
5.3 Matrici elementari . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 85
5.4 Fattorizzazione mediante matrici elementari . . . . . . . . . . . . . . . 87
5.5 Il metodo di Gauss . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 88
5.6 Caso particolare: le matrici tridiagonali . . . . . . . . . . . . . . . . . . 92
5.7 Il metodo di Gauss–Jordan . . . . . . . . . . . . . . . . . . . . . . . . 93
5.8 Il metodo di Householder . . . . . . . . . . . . . . . . . . . . . . . . . 95
5.9 Calcolo di basi ortonormali con il metodo QR . . . . . . . . . . . . . . 98
5.10 Il metodo di Givens . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 99
5.11 Il metodo di Cholesky . . . . . . . . . . . . . . . . . . . . . . . . . . . 101
5.12 Esercizi di riepilogo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 102
Appendice 144
A.1 Prodotti scalari hermitiani . . . . . . . . . . . . . . . . . . . . . . . . . 144
A.2 Elementi impropri e spazi proiettivi . . . . . . . . . . . . . . . . . . . . 147
A.3 Polinomio interpolatore . . . . . . . . . . . . . . . . . . . . . . . . . . 149
A.4 Polinomi di Bernstein . . . . . . . . . . . . . . . . . . . . . . . . . . . 151
A.5 Numeri modulari e crittografia . . . . . . . . . . . . . . . . . . . . . . 153
A.5.a Congruenze . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 153
A.5.b Applicazioni alla crittografia . . . . . . . . . . . . . . . . . . . . 155
Bibliografia 158
INTRODUZIONE
Queste note, in forma non ancora completa e definitiva, costituiscono il contenuto del
corso “Calcolo Matriciale” per la laurea specialistica in Ingegneria, Classe dell’Informa-
zione.
Le matrici, come tabelle per rappresentare in forma abbreviata le sostituzioni lineari
(oggi chiamate trasformazioni lineari) fecero la loro apparizione in matematica in lavori
di Gauss (1777-1855); il termine “matrice” (dal latino mater matris = ventre, il punto
di origine, la parte più importante) fu introdotto nel 1850 da J. Sylvester (1814-1897).
Questi e il suo amico A. Cayley (1821-1895) diedero notevoli contributi alla teoria delle
matrici e dei determinanti. Il concetto di determinante invece è più antico, risale a G.W.
Leibnitz (1678), mentre il vocabolo è dovuto a Gauss (1801).
La scelta degli argomenti per questo corso è stata dettata dalle più usuali applicazioni
delle matrici, ma le applicazioni possibili della matematica non sono prevedibili a priori.
Ad esempio J. Kepler ha usato dopo 1800 anni la teoria delle coniche elaborata da Apollo-
nio (III sec a. C.); il fisico A. Carnack e l’ingegnere G.N. Nounsfield nel 1979 ricevettero
il premio Nobel per la medicina per gli studi sulla TAC, che si basa sulla teoria della
trasformata di A. Radon, introdotta da questi nel 1917 per questioni legate alla Teoria
della Misura; la teoria dei numeri (una delle parti più ostiche della matematica) fu usata
da A. Turing, professore di matematica a Cambridge, per decifrare nel 1941 il codice
enigma usato dai Nazisti durante la II guerra mondiale; l’algebra astratta, in particolare
lo studio dei campi finiti, interviene in modo essenziale nella costruzione di tutti i sistemi
di sicurezza legati a trasmissione di dati, per esempio i codici correttori di errori.
Non vi è nulla di più pratico di una buona teoria osservava Boltzmann (1844–1906),
ma già secoli prima Leonardo (1452–1519), l’ingegnere per antonomasia del Rinascimento,
6
Introduzione 7
cosı̀ si esprimeva: Studia prima la scienzia, e poi segui la pratica nata da essa scienzia
. . . Quelli che s’innamoran di pratica senza scienzia son come ’l nocchier ch’entra in
navilio senza timone o bussola, che mai ha la certezza dove si vada.
Come si vede nella storia della matematica, anche l’interesse pratico può essere lo
stimolo per creare gli oggetti astratti, matematici, ai quali si rivolgerà l’attenzione, spesso
la contemplazione artistica. Ma la maggior parte dei risultati sono raggiunti, come diceva
C.G. Jacobi, per l’onore dello spirito umano.
Il “bisogno” derivante dal desiderio di comprendere la natura, il funzionamento delle
cose, ha agito come motore anche dell’inventiva matematica. E’ necessaria, perciò, una
maggiore collaborazione tra ingegneri e matematici, molti grandi ingegneri sono stati
anche grandi matematici e viceversa: Archimede, Erone, Lagrange, Fourier, Monge solo
per citarne alcuni.
Limitandoci ai lavori di Informatica e Teoria dei sistemi, più vicini agli interessi degli
specializzandi a cui sono rivolte queste dispense, possiamo dire che non c’è parte della
matematica che a priori possa venire esclusa e dichiarata che “non serve”.
Ci si imbatte cosı̀ in uno dei grandi misteri della matematica: come può una scienza
che sembra slegata dalla realtà avere strettissimi legami, quasi inaspettati, con la realtà
fisica? In una conferenza tenuta il 27 gennaio 1921, A. Einstein cosı̀ si esprimeva: A
questo punto si presenta un enigma che in tutte le età ha agitato le menti dei ricercatori:
come è possibile che le matematiche, le quali dopo tutto sono un prodotto del pensiero
umano, dipendente dall’esperienza, siano cosı̀ ammirevolmente adatte agli oggetti della
realtà?
La matematica non è una collezione di formule pronte per l’uso, ma è un’attività
creativa, intreccio tra tradizione e spirito innovativo. La parola ingegnere proviene da
“ingegno”, potenza creativa dello spirito umano, che costituisce la massima espressione
del talento e dell’intelligenza.
Ci auguriamo che i lettori ne tengano conto nell’esercizio della loro professione.
Giuseppe De Cecco
Raffaele Vitolo
LE MATRICI
1.1 Premesse
Le matrici sono molto utili in matematica, permettono di semplificare espressioni
considerando una tabella di numeri come un singolo ente. Alcuni esempi dimostrano il
vasto campo di applicazione delle matrici.
• Si è visto [16] che ogni sistema lineare si può scrivere con la notazione matriciale
come AX = B, dove A, X e B sono opportune matrici.
• Le matrici sono usate nei problemi di decisione, nei quali è necessario procedere ad
una scelta tra diversi modi di agire. Ad ogni relazione R ⊂ S × S si può associare
una matrice (matrice booleana), ponendo 1 se (a, b) ∈ R e 0 altrimenti. Se, ad
esempio, S = {a, b, c, d} ed R è la relazione schematizzata dalla figura,
a a
a b c d
b b
a 1 1 0 1
def
R = ⇒ b 0 1 0 0
c c
c 1 0 1 1
d 0 0 1 1
d d
• Sono largamente usate nella grafica al computer; infatti, ogni immagine è una
matrice di pixel con migliaia o milioni di righe e colonne.
8
1.1. Premesse 9
L’importanza della teoria delle matrici non si esaurisce, però, nella funzione di una
utile e semplice rappresentazione di fenomeni complessi, ma ha radici più profonde legate
alle strutture algebriche di cui le matrici possono dotarsi.
Ricordiamo, innanzitutto, che l’insieme Km,n delle matrici di m righe ed n colonne,
a coefficienti nel campo K, è uno spazio vettoriale rispetto alla somma di matrici ed al
prodotto di una matrice per uno scalare. Inoltre dim Km,n = m · n.
Alla nomenclatura già introdotta in [16] sulle matrici, è necessario aggiungere e gene-
ralizzare alcune definizioni.
Sia A = (aij ) ∈ Kn,n . Allora si dicono minori principali di A le sottomatrici
def
Ak =(aij )1≤i,j≤k per k = 1, . . . , n; (1.1.1)
graficamente,
A1
A2
A = An = .
...
An
Le nozioni di ‘matrice triangolare’ e ‘matrice diagonale’ sono estese a matrici rettan-
golari: se A ∈ Km,n allora
Il vettore (a11 , . . . , akk ), con k = min{m, n}, si dice diagonale principale di A. I vetto-
ri (a1,1+h , . . . , ak,k+h ), (a1+h,1 , . . . , ak+h,k )1 si dicono, rispettivamente, h-esima sopradia-
gonale ed h-esima sottodiagonale. Una matrice tridiagonale ha gli elementi al di fuo-
ri della diagonale, della prima sopradiagonale e della prima sottodiagonale nulli, ed è
simultaneamente di Hessenberg superiore ed inferiore.
Siano n > m, e λ1 , . . . , λm ∈ K. Allora la matrice diagonale A = (aij ) ∈ Kn,m tale che
aij = 0 se i %= j e aii = λi per i = 1, . . . , m si indica con diag(λ1 , . . . , λm ). La definizione
si ripete banalmente per il caso n < m.
1
Se c’è possibilità di equivoco, al posto di aij scriveremo ai,j .
10 Capitolo 1. Le matrici
Esercizio 1.1. Sia TUm,n l’insieme delle matrici triangolari superiori in Km,n . Dimo-
strare che TUm,n è un sottospazio vettoriale di Km,n , trovarne la dimensione ed una base.
Ripetere l’esercizio per l’insieme delle matrici triangolari inferiori TLm,n .
Una matrice A ∈ Kn,n si dice unipotente superiore (inferiore) se è triangolare superiore
(inferiore) e aii = 1 per i = 1, . . . , n.
Esercizio 1.2. Dimostrare che le matrici unipotenti costituiscono un sottogruppo di
GL(n, K). Dimostrare che non costituiscono un sottospazio vettoriale di K n,n .
Osservazione 1.1. Una matrice tridiagonale è detta anche matrice di Jacobi di
ordine n. Se
a1 b 1 0 . . . 0
c 1 a2 b 2 . . . 0
0 c 2 a3 . . . 0
Jn =
. . . . . . . . . . . . . . . . . . . . . .
. . . . . . . . . . . . . . . . bn−1
0 . . . . . . cn−1 an
si vede facilmente che
1, 1, 2, 3, 5, 8, 13, 21, . . .
indotta dal prodotto scalare g. Viceversa, non tutte le norme provengono da un prodotto
scalare, come si può dimostrare con esempi. Tuttavia, se vale l’identità del parallelogram-
ma
)"x + "y )2 + )"x − "y )2 = 2()"x)2 + )"y )2 ),
si può definire un prodotto scalare g ponendo
def 1
g("x, "y ) = ()"x + "y )2 − )"x)2 − )"y )2 ).
2
Si noti che la dimostrazione di quest’ultima affermazione non è banale.
Ora, si vogliono introdurre norme sullo spazio vettoriale Km,n . Come è noto, dim Km,n =
dim Kmn , quindi Km,n ∼ = Kmn . Un particolare isomorfismo, interessante per le applicazio-
ni, è quello indotto dall’ordine lessicografico
a11 · · · a1n
ϕ
. . . . . . . . . . . . . . -→ (a11 , . . . , a1n , . . . , am1 , . . . , amn ).
am1 · · · amn
Esercizio 1.3. Definita la circonferenza unitaria in R2 dotato della norma )·)p come
detta di submoltiplicatività.
Non tutte le norme di matrici soddisfano tale proprietà: ad esempio, le matrici
, -
1 1
A=B=
1 1
Basta considerare la matrice M avente come prima colonna X e le altre nulle, e porre per
definizione )X) = !M !.
Osservazione 1.4. La definizione 1.2 si estende in modo ovvio al caso di matrici
rettangolari A ∈ Cm,n valutando )"x) con la norma in Cn ed )A"x) con quella in Cm . !
2
Osservazione 1.5. In (Rn,n , g # ), dove g # è indotta dall’usuale prodotto scalare in Rn ,
l’espressione della disuguaglianza di Schwarz è
' (1/2 ' (1/2
) ) + + +
|g # (A, B)| ≤ g # (A, A) g # (B, B) ⇒ | aij bij | ≤ a2ij b2ij .
i,j i,j i,j
Ponendo B = Id si ha
' (1/2
+ √
| tr A| ≤ a2ij n,
i,j
14 Capitolo 1. Le matrici
dove Aij sono a loro volta matrici. Naturalmente, Ai1 , . . . , Air hanno lo stesso numero di
righe, mentre A1j , . . . , Asj hanno lo stesso numero di colonne.
Esempio 1.1.
1 2 −1 0 3 1
0 1 2 −1 0
0 , -
A11 A12 A13
A= 2 0 1 0 −1 0 , A=
A21 A23 A33
0 4 −1 0 0 0
3 0 0 1 0 0
dove
1 2 −1 0 3
A11 = 0 1 , A12 = 2 −1 0 , . . .
2 0 1 0 −1
Si osservi che, nel caso di un sistema lineare AX = B, la matrice completa risulta
.
essere la matrice a blocchi à = (A .. B).
Se Aij = O per i > j (i < j) allora A è detta matrice triangolare superiore (inferiore)
a blocchi .
Se Aij = O per i %= j allora A è detta matrice diagonale a blocchi .
Si dimostra facilmente che la moltiplicazione tra due matrici a blocchi è equivalente ad
una matrice i cui blocchi sono la moltiplicazione ‘righe di blocchi’ per ‘colonne di blocchi’.
Supponiamo, infatti, che una matrice A ∈ Km,n sia ripartita nella matrice riga delle sue
1.3. Matrici a blocchi 15
R1 C1# · · · R1 Cp#
AB = . . . . . . . . . . . . . . . . . .
Rm C1# · · · Rm Cp#
Esempio 1.2.
• Si consideri la matrice quadrata di ordine n + m cosı̀ definita
A ∈ Kn,n B ∈ Kn,m
, -
A B
M=
O C O ∈ Km,n C ∈ Km,m
16 Capitolo 1. Le matrici
infatti
, - ,, -, --
I O A B I O
det N = det N det = det ,
−D−1 C I C D −D−1 C I
A ∈ Kk,k B ∈ Kk,n−k
, -
B A B
MB (f ) = ,
O C O ∈ Kn−k,k C ∈ Kn−k,n−k
!
Naturalmente, A = MBB! (f |W ).
1.4. Forme canoniche delle matrici 17
Ovviamente, per quanto studiato sugli autovalori, gli autospazi sono sottospazi inva-
rianti rispetto ad f , ma non tutti i sottospazi invarianti sono autospazi rispetto ad un
qualche autovalore.
Inoltre, non è detto che V sia decomponibile in somma diretta di sottospazi propri
invarianti. Se questo succede, la matrice di f rispetto ad una base di vettori dei sottospazi
invarianti è una matrice diagonale a blocchi. Se, in particolare, V è somma diretta degli
autospazi (e quindi f è un endomorfismo semplice), allora i blocchi diagonali assumono
la forma Aii = λi I, quindi la matrice è diagonale.
2 2
Esempio
. 2 1 / 1.3. Sia f : R → R tale che la sua matrice rispetto alla base canonica sia
A = 0 2 . Provare che l’unico sottospazio di dimensione 1 invariante rispetto ad f è
l’autospazio V (2).
Il seguente teorema assicura l’esistenza di un’ampia classe di endomorfismi che am-
mettono una matrice triangolare.
Teorema 1.2. Sia f : V → V un endomorfismo di uno spazio vettoriale V su campo
K di dimensione n. Supponiamo che il polinomio caratteristico di f si decomponga in
fattori di primo grado in K. Allora esistono n + 1 sottospazi vettoriali V 0 , V1 ,. . . , Vn tali
che
1. f (Vh ) ⊂ Vh per h = 0, 1, 2, . . . , n;
2. dim Vh = h;
3. {"0} = V0 ⊂ V1 ⊂ · · · ⊂ Vn = V .
f ("e1 ) = t11"e1 ,
f ("e2 ) = t12"e1 + t22"e2 ,
...
f ("en ) = t1n"e1 + · · · + tnn"en ,
e quindi
t11 t12 . . . t1n
def 0 t22 . . . t2n
∆ = MBB (f ) =
. . . . . . . . . . . . . . . .
0 0 . . . tnn
è una matrice triangolare superiore. Ovviamente gli autovalori di ∆ sono tii .
18 Capitolo 1. Le matrici
Ãh = (B −1 AB)h = B −1 Ah B,
cioè ∆−1 è simile ad A−1 , ma l’inversa di una matrice triangolare si calcola facilmente. Si
noti che gli autovalori di ∆h sono le potenze h-esime degli autovalori di ∆. !
Come vedremo più avanti, si può dire di più sulle matrici su di un campo algebrica-
mente chiuso. Più precisamente proveremo il seguente teorema.
Teorema 1.4. Sia K un campo algebricamente chiuso. Ogni matrice A ∈ Kn,n è
simile ad una matrice J, detta forma di Jordan3 di A, avente le seguenti proprietà:
1. J è triangolare superiore;
1. A∗ ∗ = A
3. (AB)∗ = B ∗ A∗ ;
1. hermitiana se A∗ = A;
2. antihermitiana se A∗ = −A;
20 Capitolo 1. Le matrici
3. unitaria se AA∗ = A∗ A = I;
5. normale se AA∗ = A∗ A.
• A unitaria ⇒ | det A| = 1;
• Sia , - , -
−1 3 − i −1 3 + i
A= , A= ,
3 + i −2 3 − i −2
dunque A è hermitiana. Essendo det A = −8, A non è unitaria.
• Se α ∈ R, sia
eαi
, -
0
B= .
0 e−αi
Si pone
def
U (n, C) ={A ∈ Cn,n | A unitaria} ⊂ Cn,n .
Esercizio 1.5. Provare che U (n, C) è un gruppo rispetto al prodotto di matrici. È
l’analogo del gruppo O(n, R) del gruppo delle matrici ortogonali. Provare, inoltre, che
l’insieme delle matrici di fase costituisce un sottogruppo di U (n, C).
Le matrici unitarie vengono molto usate nell’analisi numerica per trasformare altre
matrici in modo da lasciare invariata la loro norma, cosı̀ da ridurre l’introduzione di errori
durante queste trasformazioni. La giustificazione matematica di questa affermazione sta
nella seguente proposizione.
Proposizione 1.2. Sia A ∈ Cm,n , e siano P ∈ U (m, C), Q ∈ U (n, C) matrici
unitarie. Allora
)P A)F = )A)F = )AQ)F
1.5. Matrici complesse 21
Esercizio 1.6.
)
• Provare che )A)F = tr (AA∗ ).
Il teorema 1.3 ammette una formulazione più specifica per quanto riguarda la base che
realizza la triangolarizzazione nel caso delle matrici complesse. La proprietà, data senza
dimostrazione, è espressa dal seguente teorema.
Teorema di Schur4 . Sia A ∈ Cn,n . Allora esiste una matrice unitaria U tale che
U ∗ AU = ∆,
risulta
λ1 B #
, -
∗ ∗
Z Q AQZ = ,
O D
da cui la tesi, ponendo U = QZ. QED
4
Issai Schur (1875–1941)
22 Capitolo 1. Le matrici
∆∗ = (U ∗ AU )∗ = U ∗ A∗ U = U ∗ AU = ∆.
U ∗ AU = D,
AA∗ = (U DU ∗ ) (U DU ∗ )∗ = U (DD∗ )U ∗ ,
A∗ A = (U DU ∗ )∗ (U DU ∗ ) = U (D ∗ D)U ∗ ,
ma DD∗ è una matrice diagonale i cui elementi diagonali sono |dii |2 , da cui la tesi.
Viceversa, per il teorema di Schur si ha ∆ = U ∗ AU , e da AA∗ = A∗ A si ha
∆∆∗ = U ∗ AU U ∗ A∗ U = U ∗ AA∗ U = U ∗ A∗ AU = ∆∗ ∆,
cioè ∆ è normale.
Utilizzando l’induzione sull’ordine n della matrice, si dimostra che ∆ è diagonale. Il
primo passo è ovvio. Posto ∆ = (tij ), ricordando che ∆ è triangolare superiore, risulta
per l’elemento di posto (1, 1) in ∆∆∗ = ∆∗ ∆
dunque , - , -
t11 O ∗ t11 O
∆= , ∆ = .
O ∆1 O ∆∗1
Essendo ∆∆∗ = ∆∗ ∆, si prova facilmente che anche ∆1 è normale, dunque diagonale per
l’ipotesi induttiva. Da questo si ha la tesi. QED
Il teorema spettrale I nel caso di una matrice simmetrica è detto anche “teorema
degli assi principali” per le applicazioni che esso ha nella diagonalizzazione delle forme
quadratiche, e quindi nella ricerca della forma canonica delle quadriche.
Osservazione 1.7. Gli endomorfismi simmetrici di spazi vettoriali euclidei reali sono
gli unici che si diagonalizzano con basi ortonormali. Infatti, se f : V → V è un en-
domorfismo simmetrico dello spazio vettoriale euclideo V e B è una base ortonormale,
allora
MBB (f ) = U T DU,
con D diagonale ed U ∈ O(n, R). Viceversa, se f è diagonalizzabile in R tramite basi
ortonormali, ossia MBB (f ) = U T DU , risulta
/T
(MBB (f ))T = U T DU = MBB (f ),
.
def 1 def 1
A = H + K, H = (A + A∗ ), K = (A − A∗ ), A∗ = H − K. (1.5.3)
2 2
dove H è hermitiana e K è antihermitiana. Gli autovalori di una matrice hermitiana sono
reali, gli autovalori di una matrice antihermitiana sono immaginari (verificarlo!). Se si
fanno corrispondere le matrici hermitiane ai numeri reali e le matrici antihermitiane ai
numeri immaginari, la scomposizione (1.5.3) corrisponde alla forma algebrica dei numeri
complessi: z = a + ib. Allora le matrici unitarie possono essere fatte corrispondere ai
numeri complessi di modulo 1. !
X ∗ AX = Y ∗ Ak Y,
det Ak > 0 k = 1, . . . , n.
Dimostrazione. Usando il precedente lemma, risulta (per induzione) che gli au-
tovalori di A sono tutti reali positivi, e quindi, poiché Ak è diagonalizzabile det Ak =
λ1 · · · λk > 0. QED
1. max{Q(X) | )X) ≤ 1} = λM ,
2. min{Q(X) | )X) ≤ 1} = λm .
implica
1+n 1 + n
|aii ||vi | = 1 aij vj 1 ≤ |aij ||vi |,
1 1
j=1 j=1
j%=i j%=i
C −1 AC = D, C −1 BC = D# ,
hi = dim V (λi ) = mi .
B"zi = µ"zi i = 1, . . . , r.
Soluzione. Si vede facilmente che AB = BA; si osservi che gli autovalori delle matrici sono gli
elementi sulla diagonale principale, e che risulta
1. det(I + XY ∗ ) = 1 + Y ∗ X;
2. se 1 + Y ∗ X %= 0, allora
XY ∗
(I + XY ∗ )−1 = I −
1 + Y ∗X
A−1 XY ∗ A−1
(A + XY ∗ )−1 = A−1 − .
1 + Y ∗ A−1 X
(Suggerimento: si usi l’esercizio precedente.ale)
X 2 − 2X + I = O.
Soluzione.
! " ! "
1 0 1 y
X= , ∀z ∈ R; X = , ∀y ∈ R;
z 1 0 1
1 − h −h2 /k
! "
X= , ∀h ∈ R, ∀k ∈ R ! {0}.
k 1+h
Esercizio 1.20. Stabilire per quali eventuali valori dei parametri a, b, c, d ∈ C sono
simili le matrici
a 1 b 1 −1 −1 + i
B= 0 i c , B # = i −i −i .
0 0 d −1 1 1+i
Soluzione. Condizione necessaria (ma non sufficiente) affinché B e B " siano simili è che PB (λ) =
PB ! (λ). Ora
FUNZIONI MATRICIALI
Se A ∈ Rm,m si pone
def
p(A) = an An + an−1 An−1 + · · · + a1 A + a0 I ∈ Rm,m .
Si osservi che p : Rm,m → Rm,m non è un endomorfismo, mentre a p(A) si può associare
l’endomorfismo
fp(A) : Rm → Rm , "x -→ p(A)"x.
Se A = diag(λ1 , . . . , λm ) è una matrice diagonale, allora Ah = diag(λh1 , . . . , λhm ) e
p(A) = diag(p(λ1 ), . . . , p(λm )). Quindi, in questo caso, se λi sono radici di p(x) = 0, allora
p(A) = O. Nel caso di matrici non diagonali, invece, le cose si complicano notevolmente.
Esempio 2.2. Sia
p(x) = x2 = 0.
Nei numeri reali l’unica soluzione è x = 0. Se X = xz yt , l’equazione p(X) = O ammette
. /
30
2.2. Polinomi annullatori 31
2
Dimostrazione. Sia A ∈ Rn,n , e si considerino le potenze I, A, A2 , . . . , An . Queste
n2 + 1 matrici sono dipendenti poiché dim Rn,n = n2 ; allora esiste una loro combinazione
lineare a coefficienti non tutti nulli che dà la matrice nulla
2 2 −1
an2 An + an2 −1 An + · · · + a1 A + a0 I = O.
QED
A = B −1 DB ⇒ Ak = B −1 Dk B,
p(A) = B −1 p(D)B.
dove
···
b0 = det A.
da cui
Osservazione 2.1. Dunque, per calcolare le potenze Ak , con k > n, basta conoscere
il polinomio caratteristico di A e le potenze A2 ,. . . An−1 (senza calcolare gli autovalori).
2.3. Polinomio minimo 33
1. µA (λ) è monico (cioè, il coefficiente del termine di grado massimo è uguale ad 1);
2. µA (A) = O;
Dimostrazione. Poiché PA (λ) = µA (λ)s(λ), ne segue che gli zeri di µA (λ) devono
essere zeri di PA (λ). Viceversa, ogni zero di PA (λ) è uno zero di µA (λ). Infatti, se λ̃ è
uno zero di PA (λ), allora
è detta esponenziale di A.
Si noti inoltre che Ak per k ≥ n, grazie al teorema di Cayley–Hamilton, è esprimibile
come combinazione lineare delle potenze Ah con h < n. Naturalmente, se A è una matrice
nilpotente di ordine h, quindi Ah = O, allora
h−1
+ Ak
etA = tk .
k=0
k!
Poiché la serie eA è rapidamente convergente, il metodo della serie è quello che viene
comunemente usato per il calcolo di eA con il computer.
Analogamente, si definiscono il seno ed il coseno di una qualsiasi matrice A:
∞
def
+ (−1)k
sin A = A2k+1 ,
k=0
(2k + 1)!
∞
def
+ (−1)k
cos A = A2k ,
k=0
(2k)!
mentre, se tutti gli autovalori λh di A soddisfano alla limitazione |λh | < 1, si può definire
∞
+
(I − A)−1 = Ak .
k=0
Esempio 2.4.
• Sia A = diag(λ1 , . . . , λn ). Allora Ak = diag(λk1 , . . . , λkn ), quindi
eA = diag(eλ1 , . . . , eλn ).
k k 1 k
.1 1/ . /
• Sia A = t 0 1 . Allora A = t 0 1 e
∞
(−1)k t2k+1 1 2k + 1
, - , -
+ sin t t cos t
sin A = = .
k=0
(2k + 1)! 0 1 0 sin t
. Allora A2 = I e si ha
.0 1/
• Sia A = 1 0
, -
tA cosh t sinh t
e = .
sinh t cosh t
Si noti che, se
A1
A2
A=
...
Ar
36 Capitolo 2. Funzioni matriciali
eA = B −1 e∆ B e det(eA ) = det(e∆ ).
Pertanto bisogna dimostrare la proprietà solo per il caso delle matrici triangolari. Questo
compito è lasciato al lettore. QED
, - , √ √ -
1 0 1/√2 1/ √2
D= , B= ,
0 −1 1/ 2 −1/ 2
Dunque
, √ √ -, -, √ √ - , -
A D −1 1/√2 1/ √2 e 0 1/√2 1/ √2 cosh 1 sinh 1
e = Be B = = .
1/ 2 −1/ 2 0 e−1 1/ 2 −1/ 2 sinh 1 cosh 1
X : R → Cn , X(t) = eAt C.
Se X è derivabile, si ha
dX
= AeAt C = AX.
dt
Pertanto, dato il sistema di equazioni differenziali ordinarie del primo ordine
dX
= AX, (2.6.2)
dt
un modo compatto per scrivere le soluzioni del sistema è
X(t) = eAt C,
con C ∈ Cn costante.
L’esponenziale di una matrice interviene in modo essenziale nello studio dei sistemi
di equazioni differenziali ordinarie a coefficienti costanti. Questi sistemi schematizzano
l’evoluzione di un sistema autonomo (ossia, non dipendente dal tempo in modo esplicito),
ed i problemi di stabilità delle loro soluzioni hanno particolare importanza nel campo
dell’Ingegneria, per esempio nell’Automatica [31].
Osservazione 2.4. Nei problemi di stabilità per le soluzioni dei sistemi di equazioni
differenziali lineari a coefficienti costanti è importante avere un criterio che stabilisca sotto
quali ipotesi sugli autovalori di A risulti
lim etA = O.
t→+∞
Posto C T = (c1 c2 ) si ha
Le orbite sono curve algebriche di ordine 4 aventi per asintoto le rette x = ±y. L’origine è un punto
singolare di equilibrio instabile. Si provi a disegnare la precedente famiglia di curve usando un programma
di calcolo numerico o simbolico.)
CAPITOLO 3
39
40 Capitolo 3. La forma canonica di Jordan
(j)
La matrice Nj è nilpotente di indice ki ed ovviamente commuta con λi I. Ovviamente
(j)
Nj ha come autovalore 0 con molteplicità ki . La matrice Nj è detta blocco nilpotente di
(j)
ordine ki .
Si noti che i blocchi elementari di solito vengono scritti secondo l’ordine decrescente.
(j)
Se f è semplice, allora Jλi = (λi ) ∈ K1,1 .
Da quanto precede si deduce facilmente come dovrà essere una base di Jordan. Sia λi
un autovalore di f di molteplicità algebrica mi . Una catena di Jordan per f di lunghezza
(j) (j)
ki , con 1 ≤ ki ≤ mi , è un insieme di vettori
(i) (i)
dove è stato posto "v0 = "0, quindi f ("v1 ) = λi"v1 .
Una base di Jordan per f è una base di V composta dall’unione di un certo numero
di catene di Jordan per f a due a due disgiunte. Una base di autovettori è una base di
Jordan composta di catene di Jordan di lunghezza 1. È ovvio che il concetto di base di
Jordan generalizza quello di base di autovettori.
Esempio 3.1. Si consideri la matrice
0 1 0 2
0 0 0 0
A=
0
.
3 0 −1
0 0 0 0
PA (λ) = λ4 ⇒ O = PA (A) = A4
Esercizio 3.1. Provare che una matrice A è nilpotente se e solo se ha come unico
autovalore λ = 0.
3.1. Gli endomorfismi nilpotenti e la loro forma canonica 41
Verrà ora dimostrato che un riordinamento di tutti i vettori sopra considerati fornisce
la base di Jordan cercata. Posto nh = dim(Ker th ), risulta
p1 = nk − nk−1 = n − nk−1
2 = nk−1 − nk−2 ≥ p1
p
···
pk−1 = n2 − n1 ≥ pk−1
pk = n1 ≥ pk−1
42 Capitolo 3. La forma canonica di Jordan
Se w" è un vettore di questa base, allora t(w)" ∈ Ker ti ! Ker ti−1 per un solo valore di i
tale che 1 ≤ i ≤ k. Dunque, ogni riga costituita da i vettori produce un blocco nilpotente
Ni nella matrice di t. Più in dettaglio, risultano
p1 blocchi di ordine k,
p2 − p1 blocchi di ordine k − 1,
···
pk − pk−1 blocchi di ordine 1.
Si ha
t("v1 ) = (2, −2, 1, 0, 0), t("v2 ) = (−10, 10, 0, 0, 10).
Siccome {t("v1 ), t("v2 )} ⊂ Ker t, si complementa questo insieme ad una base di Ker t
mediante, ad esempio, il vettore "v3 = (0, 0, 1, 0, 0). La base cercata è
Pf (A) = Pf (f ) = 0 ⇒ (f − λ1 Id)n = 0.
Posto
def
fi = f |E(λi ) : E(λi ) → E(λi ),
fi risulta essere un endomorfismo con un solo autovalore λi . Quindi
fi = ti + λi Id = ti + si ,
def def
avendo posto si = λi Id : E(λi ) → E(λi ) e ti = fi −λi Id. L’endomorfismo si è un endomor-
fismo semplice con il solo autovalore λi , l’endomorfismo ti è un endomorfismo nilpotente
con indice ki ≤ mi . È possibile estendere gli endomorfismi fi , ti , si ad endomorfismi dello
spazio V definendo fi , ti , si come le applicazioni nulle sui sottospazi E(λj ), per j %= i.
Risulta
f = f1 + · · · + fr = (t1 + · · · + tr ) + (s1 + · · · + sr ) = t + s,
3.3. Endomorfismi con più autovalori 45
def def
avendo posto t = t1 + · · · + tr ed s = s1 + · · · + sr . Si osservi che ts = st.
Si scelga ora come base B di V l’unione delle basi dei sottospazi E(λi ) rispetto a cui
ogni fi assume la forma canonica di Jordan. Rispetto alla base B, f è rappresentato
nella forma canonica di Jordan e la sua matrice è costituita da r blocchi disposti lungo la
diagonale di ordine m1 , . . . , mr relativi agli autovalori λ1 , . . . , λr ognuno dei quali contiene
almeno un blocco elementare di ordine k1 , . . . , kr .
Osservazione 3.1.
Si vede subito che PA (λ) = λ4 (cioè A è nilpotente) e che dim V (0) = 2. Dunque, ci
sono due blocchi elementari di Jordan. Poiché
n1 = dim(Ker f ) = 2, n2 = dim(Ker f 2 ) = 4,
46 Capitolo 3. La forma canonica di Jordan
si hanno
"v1 = (0, 1, 0, 0), "v2 = (0, 0, 0, 1), t("v1 ) = (1, 0, 3, 0), t("v2 ) = (2, 0, −1, 0).
risulta E(2) = L((1, 0, 0), (0, 0, 1)), e V = E(0) ⊕ E(2). Inoltre f 1 : E(0) → E(0) è
l’endomorfismo nullo ed f2 : E(2) → E(2) si scrive come f2 = t2 + 2 Id, ove t2 è nilpotente
di indice k2 ≤ m2 = 2. Indicata con B2 = {(1, 0, 0), (0, 0, 1)} la base di E(2) trovata, si
ha
f2 ((1, 0, 0)) = (3, 0, 1), f2 ((0, 0, 1)) = (−1, 0, 1),
dunque , - , -
3 −1 1 −1
MBB22 (f2 ) = A2 = , MBB22 (t2 ) = T2 = .
1 1 1 −1
3.4. Casi particolari 47
Poiché Ker t2 = L((1, 1)) e Ker t22 = R2 , t2 ha indice 2. Si prenda "v = (1, 0) ∈ Ker t22 !
Ker t2 . Una base B2# di E(2) è data da {"v , t2 ("v ) = (1, 1)}. Rispetto questa base si ha
, - , -
B2! # 0 1 B2! # 2 1
MB! (t2 ) = T2 = , MB! (f2 ) = A2 = .
2 0 0 2 0 2
In conclusione,
2 1 0 0 1 0 2 0 0
A ∼ A# = 0 2 0 = 0 0 0 + 0 2 0 = N + D.
0 0 0 0 0 0 0 0 0
Quali sono le matrici P tali che A# = P −1 AP ? Basta scrivere nella base canonica le
coordinate dei vettori della base B2# . Risulta "v = (1, 0, 0), e t2 ("v ) = (1, 0, 1). Insieme al
vettore (2, 1, 1) ∈ E(0) questi vettori costituiscono una base di Jordan per A. La matrice
del cambiamento di base (rispetto alla base canonica) è
1 1 2
P = 0 0 1 .
1 0 1
3.5 Riepilogo
Sia A ∈ Cn,n . I passi necessari per ottenere la forma canonica di Jordan sono i
seguenti.
Da quanto detto, segue un importante risultato. Si denoti con spec(A) l’insieme degli
autovalori di una matrice quadrata A.
Teorema 3.2. Due matrici A, B ∈ Cn,n sono simili se e solo se
1. spec(A) = spec(B);
2. rg(A − λI)k = rg(B − λI)k per ogni k ∈ N e per ogni λ ∈ spec(A) = spec(B)
3.6. Esponenziale di matrici e forma canonica di Jordan 49
eJ = eD eN .
Pertanto,
λ1 eλ1
D= .. ⇒ eD = ..
.
. .
λn eλn
N2 N k−1
eN = I + N + + ··· + .
2! (k − 1)!
eλ1 0
- , λ
e 1 eλ1
, - , -, -
N 1 1 D+N 1 1
e =I +N = , e = = .
0 1 0 eλ2 0 1 0 eλ2
Risulta
0 0 1
N 2 = 0 0 0 , N 3 = O.
0 0 0
50 Capitolo 3. La forma canonica di Jordan
Dunque
2 1 1 1/2
N
eN = I + N + = 0 1 1 ,
2
0 0 1
λ λ
e 1 eλ2 (eλ3 )/2
e 1 0 0 1 1 1/2
eD+N = 0 eλ2 0 0 1 1 = 0 eλ2 eλ2 .
0 0 eλ3 0 0 1 0 0 eλ3
La forma canonica di Jordan ed altre quantità sono state ricavate nell’esempio 3.4. Si
ha eA = P eJ P −1 , e
2 2 2
e 0 0 1 1 0 e e 0
!
eA = eD+N = 0 e2 0 0 1 0 = 0 e2 0
0 0 1 0 0 1 0 0 1
dunque
2e2 2 − 3e2 −e2
eA = 0 1 0
2 2
e 1 − 2e 0
3.7. Esercizi di riepilogo 51
1 1 0 0
Soluzione.
3. Ponendo h = 0, 1, 2, 3 si ha
La matrice associata ad f rispetto alla base {!v1 , !v2 , !v3 , !v4 } è proprio la forma di Jordan di A.
Soluzione. Poiché B 2 = B si ha
∞ ∞ ∞
& Bk & Bk & 1
eB = =I+ =I +( )B = I + (e − 1)B.
k! k! k!
k=0 k=1 k=1
!
52 Capitolo 3. La forma canonica di Jordan
1. I − A è invertibile.
2. (I − A)−1 = I + A + · · · + An .
Soluzione. Se A è nilpotente, esiste un indice q ≥ n tale che Aq = 0 (e Ah = 0 per h > q).
Quindi
I = I − Aq = (I + A + A2 + · · · + Aq−1 )(I − A) ⇒
(I − A)−1 = I + A + · · · + Aq−1 + Aq + · · · + An .
!
3.7. Esercizi di riepilogo 53
2. Calcolare sin π2 A4 .
. /
2. Calcolare eA .
Ora,
∞ ∞ ∞
& 1 & k & 1
= e; = = e,
k! k! (k − 1)!
k=0 k=0 k=1
quindi
eA = eA.
3. Gli autovalori di A sono λ = 1 con molteplicità algebrica 2. Determiniamo ora l’autospazio V (1),
dato dalle soluzioni dell’equazione
αx − αy = 0.
Ora, se α = 0 si ha V (1) = C2 e quindi A = I è diagonale; se α $= 0 si ha V (1) = {(x, x) | x ∈ C},
quindi dim V (1) = 1 ed A non è diagonalizzabile. In questo caso la forma di Jordan è
! "
1 1
J= .
0 1
Una base di Jordan è data da e!" 1 = (α, α), e!" 2 = (1, 0), quindi la matrice del cambiamento di base
è ! " ! "
α 1 −1 0 1/α
B= ⇒ B = .
α 0 1 −1
Si verifica facilmente che
A = BJB −1 .
!
CAPITOLO 4
9 #
x = ax + by + x0
y # = cx + dy + y0
P # = P T AT + B.
55
56 Capitolo 4. La geometria per la grafica al computer
1. Traslazione. P # = P + B. Qui A = I.
dove kx (risp. ky ) è il fattore di scala lungo l’asse x (risp. y). Per direzioni diverse
dalle direzioni degli assi coordinati, il fattore di scala varia. Se kx = ky si ha
una similitudine, usualmente detta ingrandimento se kx > 1 o rimpicciolimento se
0 < kx < 1. Si osservi che
, -, - , -
kx 0 1 0 kx 0
=
0 1 0 ky 0 ky
4.1. Le trasformazioni geometriche 2D 57
, -
cos ϕ − sin ϕ
R(ϕ) = .
sin ϕ cos ϕ
, -
cos ϕ sin ϕ
S(ϕ) = .
sin ϕ − cos ϕ
#
1 0 x0 x x + x0 x
#
P = T P = 0 1 y0
y = y + y0 = y #
0 0 1 1 1 1
#
kx 0 0 x kx x x
#
P = KP = 0 k y 0 y = ky y = y#
0 0 1 1 1 1
#
cos ϕ − sin ϕ 0 x x cos ϕ − y sin ϕ x
P # = R(ϕ)P = sin ϕ cos ϕ 0 y = x sin ϕ + y cos ϕ = y # !
0 0 1 1 1 1
Due trasformazioni usate frequentemente, che sono composizioni delle precedenti tra-
sformazioni, sono le seguenti.
58 Capitolo 4. La geometria per la grafica al computer
, -
1 tg α α
A= :
0 1
x
x# = ax, y # = by.
A(Φ(G)) = abA(G).
x# = xy + 1, y # = x.
Osservazione 4.6.
Dieci anni furono necessari ad Hamilton per rendersi conto che per effettuare questa gene-
ralizzazione sarebbe stato necessario usare uno spazio di dimensione 4 anziché uno spazio
di dimensione 3.
I quaternioni hano innumerevoli applicazioni in Matematica, Fisica ed Ingegneria.
Qui sarà descritta un’applicazione di particolare interesse ingegneristico che riguarda la
parametrizzazione del gruppo SO(3) delle rotazioni nello spazio euclideo 3D mediante
quaternioni unitari. Questa parametrizzazione permette di passare da una descrizione di
SO(3) mediante funzioni trigonometriche ad una descrizione che usa polinomi di secondo
grado. Il metodo permette una più agevole calcolabilità delle matrici di rotazione, ed è
usato in grafica 3D ovunque ci sia la necessità di calcolare un gran numero di matrici
di rotazione (per esempio quando si muove il punto di vista in una scena). Altri utilizzi
riguardano la robotica ed il controllo dei robot manipolatori [35].
I quaternioni possono essere introdotti equivalentemente in modo vettoriale o in modo
matriciale.
• : R 4 × R4 → R4
in questo modo: • è l’unica operazione, bilineare rispetto alla somma ed al prodotto per
scalari, distributiva a destra ed a sinistra, tale che
1 • 1 = 1, 1 • i = i = i • 1, 1 • j = j = j • 1, 1 • k = k = k • 1,
i • i = −1, j • j = −1, k • k = −1,
i • j = k, j • k = i, k • i = j,
j • i = −k, k • j = −i, i • k = −j.
q • (p + r) = q • p + q • r, (q + p) • r = q • r + p • r.
q = q0 1 + q1 i + q2 j + q3 k = q0 + "q .
1. q • q̄ = )q)2 ;
2. )p • q) = )p))q) = )q • p);
3. p + q = p̄ + q̄;
4. q • p = p̄ • q̄;
5. q −1 = q̄/)q)2 .
dove rc(x) = x + i0, ch(x + iy) = x + yi + 0j + 0k. Si noti che i precedenti morfismi
commutano anche con il modulo ed il coniugio.
Esempio 4.1. Siano q = 1 − 2j + k, p = −2 + i + 3k ∈ H. Allora il prodotto q • p tra
i due quaternioni vale
q • p = (1 − 2j + k) • (−2 + i + 3k)
= −2 + i + 3k + 4j − 2j • i − 6j • k − 2k + k • i + 3k • k
= −5 − 5i + 5j + 3k
64 Capitolo 4. La geometria per la grafica al computer
q = q0 + q1 i + q2 j + q3 k, p = p0 + p1 i + p2 j + p3 k.
1. Dimostrare che
2. Dimostrare che
Queste matrici sono usate in meccanica quantistica per formulare le equazioni di una
particella non relativistica dotata di spin.
Una base privilegiata di H̃ è {Id, I, J, K}, dove I = iσ3 , J = iσ2 , K = iσ1 .
Proposizione 4.2. Si ha il seguente isomorfismo tra H ed H̃:
H → H̃, q = q0 + q1 i + q2 j + q3 k -→ q0 Id + q1 I + q2 J + q3 K, (4.3.9)
o, equivalentemente
, -
q0 + iq1 q2 + iq3
H → H̃, (q0 , q1 , q2 , q3 ) -→ . (4.3.10)
−q2 + iq3 q0 − iq1
4.3. Quaternioni e rotazioni 3D 65
Per la dimostrazione basta verificare che la applicazione definita sopra trasforma l’o-
perazione • nell’operazione di prodotto tra matrici. Si confronti l’isomorfismo precedente
con l’isomorfismo (7.3.2) nel caso dei numeri complessi.
Esercizio 4.3. Si dimostri che se il seguente isomorfismo trasforma q in A, allora q̄
è trasformato nella matrice A∗ .
quindi il quaternione qq"v q −1 è immaginario. Per questo, esiste un vettore v"# = (x# , y # , z # )
tale che qv"! = qq"v q −1 , dunque la definizione è ben posta.
È facile verificare che l’applicazione CK(q) è lineare.
Si noti che det(q"v ) = x2 + y 2 + z 2 = x# 2 + y # 2 + z # 2 = det(qv"! ), per la regola di Binet
applicata al prodotto qq"v q −1 . Pertanto CK(q) è un’applicazione ortogonale. Rimane solo
da verificare che questa trasformazione abbia determinante 1. Scrivendo
x# i y# + z#i
, - , -, -, -
q0 + iq1 q2 + iq3 xi y + zi q0 − iq1 −q2 − iq3
=
−y # + z # i −x# i −q2 + iq3 q0 − iq1 −y + zi −xi q2 − iq3 q0 + iq1
66 Capitolo 4. La geometria per la grafica al computer
si ha
dove si ha q02 +q12 +q22 +q32 = 1. Si verifica (meglio con l’ausilio di un programma di calcolo
simbolico, come maxima, liberamente disponibile in http://maxima.sourceforge.net)
che il determinante di questa matrice è 1, che implica che la matrice è un elemento di
SO(3).
Richiedendo in (4.3.11) che la matrice sia uguale all’identità si ha che la parte imma-
ginaria del quaternione q si annulla e si ha q02 = 1, da cui si ottiene l’affermazione sul
nucleo di CK. QED
di tre angoli ϕ, θ, ψ rispetto a tre assi in successione. Più precisamente, si osservi che
ogni matrice di SO(3) è un’applicazione lineare che trasforma una base ortonormale data
{"ex , "ey , "ez } in un’altra base ortonormale {"e1 , "e2 , "e3 }. Quest’ultima può essere individuata
dalla seguente successione di trasformazioni ortogonali.
1. una prima trasformazione ortogonale che porta la base ortonormale {"ex , "ey , "ez } nella
base ortonormale {e"# x , e"# y , e"# z }. La trasformazione è una rotazione attorno all’asse
"ez (dunque "ez = e"# z ) di un angolo ϕ in modo tale che il trasformato e"# x dell’asse "ex
giaccia nel piano individuato da {"e1 , "e2 }. La matrice di questa trasformazione è
cos ϕ − sin ϕ 0
sin ϕ cos ϕ 0 ; (4.3.12)
0 0 1
2. una seconda trasformazione ortogonale che porta la base ortonormale {e"# x , e"# y , e"# z }
nella base ortonormale {e"## x , e"## y , e"## z }. La trasformazione è una rotazione intorno
all’asse e"# x (dunque e"# x = e"## x ) di un angolo θ in modo tale che il trasformato
e"## y dell’asse e"# y giaccia nel piano individuato da {"e1 , "e2 }. La matrice di questa
trasformazione è
1 0 0
0 cos θ − sin θ ; (4.3.13)
0 sin θ cos θ
3. una terza trasformazione ortogonale che porta la base ortonormale {e"## x , e"## y , e"## z }
nella base ortonormale {"e1 , "e2 , "e3 }. La trasformazione è una rotazione intorno al-
l’asse e"## z (dunque e"## z = "e3 ) che porta {e"## x , e"## y } a coincidere con {"e1 , "e2 }. La
matrice di questa trasformazione è
cos ψ − sin ψ 0
sin ψ cos ψ 0 . (4.3.14)
0 0 1
1. la rotazione del punto di vista (‘camera’) dalla posizione (ϕ, θ, ψ) alla posizione
(ϕ# , θ# , ψ # ) [37];
Esercizio 4.6. Trovare tre quaternioni corrispondenti alle tre rotazioni usate nella
parametrizzazione di SO(3) con gli angoli di Eulero.
Soluzione. Si può iniziare ricavando il quaternione qϕ indotto dalla rotazione (4.3.12). Ugua-
gliando le matrici (4.3.11) e (4.3.12) si ottengono 9 equazioni nelle 4 incognite q 0 , q1 , q2 , q3 , componenti
il quaternione qϕ . Delle 9, 4 sono
q1 q3 = ±q0 q2 , q2 q3 = ±q0 q1 ,
cos ϕ2 i sin ϕ2
! "
qϕ = ϕ ϕ . (4.3.19)
i sin 2 cos 2
4.4. Trasformazioni parallele e trasformazioni prospettiche 69
Per trovare la matrice di SO(3) corrispondente a q si utilizzi la matrice (4.3.11) sostituendo i valori
dei coefficienti di q.
Per trovare gli angoli di Eulero si può utilizzare la matrice di rotazione trovata sopra ed uguagliarla
alla (4.3.15). Ovviamente si possono subito trovare valori di θ utilizzando il tezo elemento della terza riga,
poi gli altri elementi usando la terza riga e la terza colonna. Verificare il risultato su tutti gli elementi.
Un procedimento alternativo può essere quello di usare le formule (4.3.16) e (4.3.17). !
Si noti che tutti i punti di r hanno come proiezione lo stesso punto P # . La proiezione è
detta ortografica se "u è perpendicolare allo schermo, altrimenti è detta obliqua.
Rappresentazioni di questo tipo sono familiari agli ingegneri, che spesso usano un
insieme di proiezioni ortografiche (sui piani coordinati), per esempio nelle proiezioni
planimetriche di tipo architettonico.
Analiticamente, si tratta di scrivere il cilindro che proietta l’oggetto su di un piano,
parallelamente alla direzione data.
Queste proiezioni, che danno informazioni precise sulle mutue distanze tra i punti non
appartenenti a rette parallele ad "u, non danno una vista realistica dell’oggetto.
Le proiezioni prospettiche forniscono, invece, il realismo, rendono l’immagine bidi-
mensionale come una fotografia; la grandezza degli oggetti dipende dalla distanza δ dal-
l’osservatore, che viene assimilato ad un punto, dal quale escono i raggi di luce riflessi
dall’oggetto.
Analiticamente, si tratta di scrivere il cono che proietta l’oggetto su di un piano
avente il vertice E nell’osservatore. Se l’osservatore si sposta all’infinito, il cono diventa
un cilindro e la proiezione prospettica diventa proiezione parallela.
Accanto a proiezioni prospettiche con un punto di fuga, ci sono proiezioni prospettiche
con 2 o 3 punti di fuga.
Nella proiezione centrale (con un punto di fuga), l’osservatore si trova su uno degli
assi coordinati, la direzione visuale è quella che va dall’osservatore al centro del sistema
di riferimento dell’oggetto, il piano di proiezione è spesso ortogonale a questa direzione.
La proiezione avviene in due passi:
1. si trasforma il sistema Oxyz nel quale è rappresentato l’oggetto nel sistema Ex e ye ze
dell’occhio dell’osservatore;
2. si trasforma quest’ultimo nel sistema del piano dello schermo xs ys .
Passo 1. 1. Si trasla il punto di vista nell’origine di xyz. Indicata con δ la distanza
dell’osservatore dall’oggetto, la traslazione è rappresentata dalla matrice
1 0 0 0
0 1 0 0
T = 0 0 1 −δ .
0 0 0 1
xe = x, ye = y, ze = δ − z.
Passo 2. Si procede alla proiezione sul piano dello schermo xs ys , ortogonale all’asse z,
avente distanza (focale) d dall’osservatore. Indichiamo con P la proiezione sul piano
xs zs dell’oggetto (punto).
4.4. Trasformazioni parallele e trasformazioni prospettiche 71
xs
xe P#
xs
E
zs
d
xs xe dxe dx
= ⇒ xs = = .
d ze ze δ−z
Allo stesso modo, nel piano yz si ha ys = dy/(δ − z). Tale proiezione si chiama
ad un punto di fuga, poiché il piano di proiezione è perpendicolare alla direzione
di vista e le rette parallele a x e quelle parallele ad y rimangono tali anche nella
proiezione, mentre le rette parallele a z convergono ad un punto (il cosiddetto punto
di fuga).
0 0 0 1
dxe dye
xs = , ys = .
ze ze
72 Capitolo 4. La geometria per la grafica al computer
Definizione 4.3. La curva (4.6.21) si dice curva di Bézier di grado 3 determinata dai
punti P0 , P1 , P2 , P3 ∈ R3 .
Proposizione 4.3. Le curve di Bézier di grado 3 risultano essere medie pesate dei
polinomi di Bernstein di grado 3 (paragrafo A.4).
Dimostrazione. Segue la definizione dei polinomi di Bernstein e dalle proprietà (1)
e (3) del lemma A.1. QED
Da questo fatto segue che le proprietà generali dei polinomi di Bernstein dànno inte-
ressanti proprietà delle curve di Bézier. Quindi, è bene generalizzare la definizione 4.3 ad
un numero arbitrario di punti per poi analizzare le proprietà generali di queste curve.
74 Capitolo 4. La geometria per la grafica al computer
P1
P3
P2
P0
def
Pi0 = Pi ,
def
Pir (t) =(1 − t)Pir−1 (t) + tPi+1
r−1
(t),
per r = 1, . . . , n, i = 0, . . . , n − r.
Osservazione 4.7. Una curva di Bézier di grado n non è piana, in generale, se n > 2.
r
+
Pir (t) = Pi+j Bjr (t).
j=0
4.6. Curve di Bézier 75
QED
Da questa relazione seguono una serie di proprietà delle curve di Bézier, di seguito
elencate. Sia P0n (t) una curva di Bézier.
1. Invarianza per affinità. Sia Φ : R3 → R3 una trasformazione affine, cioè Φ(X) =
AX + B, allora +
Φ(P0n (t)) = Φ(Pj )Bjn (t).
j
Infatti
+ +
Φ(Pj )Bjn (t) = (APj + B)Bjn (t)
j j
+
= A( Pj Bjn (t)) + B
j
n
= AP0 (t) + B
= Φ(P0n (t))
Pj Bjn (t) = n
Pn−j Bjn (1 − t).
4 4 4
2. Simmetria. j j Pn−j Bn−j (t) = j
n (b − u)n−j (u − a)j
, -
def
B̃jn (u) = .
j (b − a)n
5. Proprietà dell’inviluppo convesso. P0n (t) giace nell’inviluppo convesso dei pun-
ti P0 , . . . , Pn , dove per inviluppo convesso si intende l’insieme delle combinazioni
lineari +
P = k0 P0 + · · · + kn Pn , ki = 1.
i
P1 P12 P2
P01 P23
P0 P3
/Times-Roman findfont
40 scalefont
setfont
newpath
0 0 moveto
(O) false charpath
% stroke
{ [ 3 1 roll (moveto) ] == }
78 Capitolo 4. La geometria per la grafica al computer
{ [ 3 1 roll (lineto) ] == }
{ [ 7 1 roll (curveto) ] == }
{ [ (closepath) ] == }
pathforall
Esercizio 4.13. Si provi che il punto P0123 , definito nel procedimento descritto dalla
figura 4.3 giace nella curva di Bézier definita da P0 , P1 , P2 , P3 .
CAPITOLO 5
I SISTEMI LINEARI
Sia A = (aij ) ∈ Km,n e B ∈ Km,1 . Il problema di determinare gli X ∈ Kn,1 tali che
AX = B (5.0.1)
1. se m = n ed A è invertibile, allora
AX = B ⇒ X = A−1 B;
Il caso m > n può non essere preso in considerazione poiché in ogni sistema di questo
tipo ci sono sicuramente m − n equazioni che sono combinazioni lineari delle altre e
possono essere scartate.
80
5.1. Metodi di fattorizzazione: premesse 81
Ovviamente, gli elementi vengono ricavati nell’ordine znn , zn−1,n−1 , zn−1,n , . . . . Si può
dimostrare che il numero di operazioni che si effettuano è dell’ordine di n3 /6 [5].
Analogamente, un sistema con matrice triangolare superiore (inferiore) invertibile
può essere facilmente risolto ricorsivamente all’indietro (in avanti, con gli opportuni
cambiamenti) come segue:
bn
xn = ,
ann
...
' n
(
1 +
xi = bi − aij xj . (5.1.3)
aii j=i+1
A = CD ⇒ CDX = B ⇒ CY = B, DX = Y. (5.1.4)
3. la fattorizzazione LL∗ , dove L è una matrice triangolare inferiore con aii > 0 per
i = 1, . . . , n; essa è associata al metodo di Cholesky.
Il metodo di Gauss è stato applicato in [7] anche a matrici che non soddisfacevano
le ipotesi del precedente teorema. In realtà, vale il seguente risultato, che generalizza il
precedente.
Teorema 5.2. Sia A ∈ Cn,n . Allora, esiste una matrice di permutazione Π tale che
la matrice ΠA ammette una fattorizzazione LU.
Dimostrazione. L’affermazione sarà qui dimostrata solo per il caso in cui rg(A) =
n − 1. In questo caso è possibile dimostrare che esiste una matrice di permutazione Π
tale che ΠA soddisfa le ipotesi del teorema 5.1. Infatti, esiste sicuramente in A una
sottomatrice M # ∈ Cn−1,n−1 tale che det M # %= 0. Dunque, esiste una matrice di permu-
tazione Π# tale che (Π# A)n−1 = M # . Continuando, esiste una sottomatrice M ## ∈ Cn−2,n−2
5.2. Trasformazioni sulle matrici 83
di (Π# A)n−1 tale che det M ## %= 0: se questo non si verificasse, un qualunque sviluppo
di Laplace di det(Π# A)n−1 sarebbe uguale a 0. Ragionando come prima, ed applicando
induttivamente il ragionamento si ottiene la tesi. QED
Si noti che la fattorizzazione LU nel caso generale ha poco interesse per le osservazioni
fatte all’inizio di questo paragrafo (5.1.2).
Più in là (paragrafi 5.8 e 5.11) si dimostrerà, con metodi costruttivi, che la fattorizza-
zione QR esiste qualunque sia la matrice di partenza e che la fattorizzazione LL∗ esiste
ed è unica sotto certe ipotesi.
Per quanto riguarda l’unicità della fattorizzazione QR, se S ∈ Cn,n è diagonale ed
unitaria (si veda il paragrafo 1.5), allora
QR = QSS ∗ R,
Q# = QS, R# = S ∗ R.
Dimostrazione. Infatti, si ha
−1
Q∗ Q# = RR# ,
Corollario 5.1. Sia A ∈ Cn,n tale che det A %= 0. Allora esiste un’unica fattorizza-
zione QR A = QR tale che rii > 0.
Si noti che lo scambio di colonne di A è dato da AΠjj ! , dove Πjj ! è uno scambio di
righe.
2. La moltiplicazione di una riga per λ ∈ C ! {0} è data da Mi (λ)A, dove si pone
def
Mi (λ) = MCC (g), essendo
3. La sostituzione di una riga con una somma (teorema 5.4) è data da Sij (λ)A, dove
def
Sij (λ) = MCC (h), essendo
Definizione 5.1. Le matrici delle applicazioni lineari del tipo di f (5.2.5) sono dette
matrici di scambio. Il prodotto di matrici di scambio dà le matrici di permutazione.
Esempio 5.1.
1. Una matrice Πjj ! di scambio di righe ha l’espressione
1 ... 0 ... 0 ... 0
. . . . . . . . . . . . . . . . . . . . . . . . .
0 . . . 0 . . . 1 . . . 0
Πjj ! =
. . . . . . . . . . . . . . . . . . . . . . . . . ,
(5.2.8)
0 . . . 1 . . . 0 . . . 0
. . . . . . . . . . . . . . . . . . . . . . . . .
0 ... 0 ... 0 ... 1
5.3. Matrici elementari 85
3. Una matrice Sij (λ) di sostituzione di una riga con una somma ha la forma
1 ... 0 ........... 0
. . . . . . . . . . . . . . . . . . . . . . . . .
0 . . . 1 . . . . . . . . . . . 0
Sij (λ) =
. . . . . . . . . . . . . . . . . . . . . . . . .
(5.2.10)
0 . . . λ . . . 1 . . . 0
. . . . . . . . . . . . . . . . . . . . . . . . .
0 ... 0 ........... 1
realizzare la somma della prima riga moltiplicata per −2 con la terza calcolando la matrice
S31 (−2) ed eseguendo S31 (−2)A.
dove γ = σ + τ − στ (Y ∗ X).
La dimostrazione è lasciata al lettore. Tale proprietà afferma che il prodotto di matrici
elementari è una matrice elementare. Viceversa, è sempre possibile decomporre una
matrice elementare come prodotto di matrici elementari in più modi. Ad esempio, dato
γ ∈ C e scelto σ ∈ C tale che σ(Y ∗ X) %= 1, si ha
γ−σ
τ= .
1 − σ(Y ∗ X)
Naturalmente, se E(γ, X, Y ) è invertibile, lo sono anche i fattori.
Una conseguenza immediata della precedente proprietà è la seguente.
Proposizione 5.2. Una matrice elementare E(σ, X, Y ) ∈ En,n è invertibile se e solo
se σY ∗ X %= 1.
Dimostrazione. Per σ = 0 tutte le matrici elementari valgono I.
Per σ %= 0, se la condizione σY ∗ X %= 1 è soddisfatta, applicando la precedente proposi-
zione si trova un τ ∈ C tale che E(τ, X, Y ) = E(σ, X, Y )−1 . Viceversa, usando l’esercizio
1.12 si vede che le matrici E(σ, X, Y ) tali che σX ∗ Y = 1 hanno determinante nullo, quindi
non sono invertibili. QED
Proposizione 5.4. Le matrici delle trasformazioni descritte nel teorema 5.4 sono
matrici elementari.
Dimostrazione. Si ha:
2. Mi (λ) = E(1 − λ, Ei , Ei ), dove Ei è l’i-esimo elemento della base dello spazio dei
vettori colonna.
Per la proposizione 5.3, esiste una matrice elementare E (1) tale che
, (1) - , (2) -
(1) C C
E = ,
T O
Passo k. Sia
C (k) D(k)
, -
(k)
A = ,
O F (k)
con C (k) ∈ TUk−1,k−1 , D(k) ∈ Ck−1,n−k+1 , F (k) ∈ Cn−k+1,n−k+1 . Allora, per la
proposizione 5.3, esiste una matrice elementare Ẽ tale che
, -
(k) α T
ẼF = ,
O F (k+1)
88 Capitolo 5. I sistemi lineari
la matrice E (k) è una matrice elementare. Per rendersi conto di questo, si osservi
che, se Ẽ = E(σ, X̃, Ỹ ), si ha E (k) = E(σ, X, Y ), dove X = (O X̃)T ∈ Cn,1 ed
def
Y = (O Ỹ )T ∈ Cn,1 . Si ponga A(k+1) = E (k) A(k) ; si ottiene
, (k+1)
D(k+1)
-
(k+1) C
A = ,
O F (k+1)
seconda delle particolari matrici elementari scelte per realizzare l’algoritmo. Nei prossi-
mi paragrafi verranno introdotte due particolari classi di matrici elementari: le matrici
elementari di Gauss e le matrici elementari di Householder.
u1
..
.
u
E(σ, X, Ei )U = Ui = i .
0
.
..
0
5.5. Il metodo di Gauss 89
dunque
1 .................... 0
. . . . . . . . . . . . . . . . . . . . . . .
0 . . . 1 ... 0
E(σ, X, Ei ) =
0 . . . −u(i+1) /ui . . .
0
. . . . . . . . . . . . . . . . . . . . . . .
0 ... −un /ui ... 1
QED
Teorema 5.5. Sia A ∈ Cn,n . Se A soddisfa le ipotesi del teorema 5.1, allora l’unica
fattorizzazione LU si può ottenere mediante l’algoritmo descritto nel paragrafo 5.4, e
risulta
/−1 /−1
L = E (1) · · · E (n−1) U = A(n) .
. .
,
(k)
Dimostrazione. Si indichi con aij l’elemento generico della matrice A(k) . La ma-
90 Capitolo 5. I sistemi lineari
dove σ ed X sono tali che E(σ, X, Ek )Ck = (Ck )k (qui, Ck sta per la colonna k-esima di
A(k) , e (Ck )k è il vettore ottenuto da Ck come nella dimostrazione della proposizione 5.5).
(k)
Questo ha senso solo se akk %= 0. Per k = 1 questo è vero per ipotesi. Al passo k il minore
(k)
principale (A(k) )k di A(k) è tale che det(A(k) )k = det C (k) akk . Ma det(A(k) )k %= 0 poiché il
determinante delle matrici elementari di Gauss è 1 e
= det Ak ,
Osservazione 5.2. Si noti che la matrice L non è, in generale, una matrice ele-
mentare: le matrici E (k) ed E (k+1) sono elementari ma definite tramite coppie diverse di
vettori.
L’algoritmo presentato nel paragrafo 5.4 usato con le matrici elementari di Gauss
al fine di risolvere un sistema lineare AX = B prende il nome di metodo di Gauss.
Ovviamente, il metodo di Gauss è completato dalla risoluzione dei due sistemi triangolari
in cui è fattorizzato il sistema AX = B (paragrafo 5.1, equazione (5.1.4)). Di questi
sistemi triangolari, il sistema LY = B è risolto durante la fattorizzazione, applicando
l’algoritmo sopra descritto alla matrice completa (A|B), ed il sistema U X = Y può essere
agevolmente risolto con il metodo dato con l’equazione 5.1.3 (si veda l’esempio 5.3).
È possibile determinare il numero di operazioni compiute durante il metodo di Gauss:
esso è dell’ordine (asintotico) di n3 /3 [2].
Osservazione 5.3. Risulta
1 0 ................... 0
a(1) /a1 1 . . . . . . . . . . . . . . . . . . . 0
21 11
. . .
.. .. . . . . . . . . . . . . . . . . 0
.. .. ..
L= . . . 1 . . . 0
.
.. .. .. (k) (k)
. . . ak+1k /akk . . . 0
. .. .. .. ...
.. . . . 0
.. .. ..
(1) 1 (k) (k)
a /a n1 . .
11 a /a nk kk . 1
5.5. Il metodo di Gauss 91
Si noti che il prodotto delle matrici elementari di Gauss che formano L non è commutativo:
E (1) E (2) %= E (2) E (1) . !
Esempio 5.3. Si consideri il sistema lineare AX = B, dove
5 0 2 0 12
0 5 0 2 9
A=2 0 1 0 ,
B= 5 .
0 2 0 1 4
Dunque
1 0 0 0
0 1 0 0
L=
2/5 0
, U = A(4) = A(3) .
1 0
0 2/5 0 1
Il sistema U X = B (4) cosı̀ ottenuto si può risolvere “all’indietro” usando il metodo (5.1.3).
Osservazione 5.4. Il metodo di Gauss può essere applicato anche a più sistemi lineari
simultaneamente purché abbiano la stessa matrice incompleta. In questo caso si procede
come sopra, usando al posto del vettore B una matrice B ∈ Cn,s . Questo è utile nel caso
del calcolo dell’inversa, dove il termine noto prende la forma B = I [7]. !
n,n
Osservazione 5.5 (Metodo del pivot). Sia A ∈ C tale che det A %= 0. Allora
una fattorizzazione ΠA = LU è ottenibile modificando il metodo di Gauss come segue.
Al primo passo, esiste nella prima colonna di A un elemento non nullo; si scambi la
corrispondente riga con la prima riga di A e si applichi il primo passo del metodo di
Gauss. Al passo k si proceda allo stesso modo, operando gli scambi sempre sulla matrice
di partenza. !
Esempio 5.4. Si consideri la matrice
1 1 2
A = 2 2 −1 .
−1 1 1
92 Capitolo 5. I sistemi lineari
Si osserva subito che la matrice non soddisfa le ipotesi del teorema 5.1. Risulta:
1 0 0 1 1 2
E (1) = −2 1 0 , A(2) = 0 0 −5 .
1 0 1 0 2 3
Si noti che la matrice L è ottenuta scambiando i coefficienti relativi alle righe 2 e 3 nelle
corrispondenti matrici elementari.
Infine, si noti che scambiando le prime due righe di A si ottiene una matrice che
soddisfa le ipotesi del teorema 5.1. Tuttavia, la fattorizzazione LU ottenuta da Π 12 A è
diversa da quella precedente (verificarlo!).
Osservazione 5.6. Il metodo di Gauss può anche essere applicato a sistemi per i
quali la matrice incompleta è del tipo A ∈ Cm,n , con m ≥ n e rg(A) = n. In questo
caso, effettuando un ulteriore passo del metodo si arriva ad una matrice A(n+1) tale che
(A(n+1) )ij = 0 per i > j. Le righe n + 1, . . . , m di A(n+1) sono tutte nulle, quindi possono
essere scartate, e si ottiene la fattorizzazione LU della sottomatrice di A (o di una sua
permutazione secondo l’osservazione 5.5) contenente le prime n righe. !
Osservazione 5.7. Il metodo di Gauss può essere usato per calcolare il rango di una
matrice A ∈ Cm,n . Infatti, se al passo k si incontra una colonna nulla, si va al passo
successivo senza calcolare la matrice elementare relativa. Con un numero di passi uguale
od inferiore a min{m, n} si ottiene una matrice a scalini. !
Osservazione 5.8. Una variante molto nota del metodo di Gauss è il metodo del
massimo pivot parziale. Questo è una modifica del metodo di Gauss, e consiste nella
selezione, al passo k, della riga con l’elemento di massimo modulo in F (k) . Ovviamente
questo metodo consente di ottenere una matrice L tale che )L)∞ = 1. Per maggiori
informazioni sull’analisi dell’errore si consulti [5, 13, 22, 28, 29].
0 0 0 −2
Risulta, seguendo i calcoli della precedente dimostrazione,
1 0 0 0 1 2 0 0
3 1 0 0 0 −1 −3 0
L= 0 −4 1 0
, U =
0 0
.
2 0
0 0 0 1 0 0 0 −2
Proposizione 5.7. Sia U ∈ Cn,1 tale che ui %= 0 per un certo i ∈ {1, . . . , n}. Allora,
esiste un’unica matrice elementare E(σ, X, Ei ) tale che
0
..
.
u
E(σ, X, Ei )U = ui Ei = i .
0
.
..
0
(k) (k)
1 0 . . . −a1k /akk . . . 0
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
(k) (k)
0 . . . . . . −a /a . . . 0
k−1k kk
E (k) = 0 . . . . . . 1 . . . 0 .
0 . . . . . . −a(k) (k)
k+1k /akk . . . 0
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
(k) (k)
0 . . . . . . −ank /akk . . . 1
2 4 1
A = 4 1 0
−2 2 1
5.8. Il metodo di Householder 95
La matrice inversa si trova risolvendo il sistema diagonale con termine noto matriciale
(A(4) |B (4) ), ossia dividendo le righe per i coefficienti sulla diagonale di A(4) . Si ottiene
−1/4 −1/2 1/4
A−1 = 1 −1 −1 .
−5/2 3 7/2
Teorema 5.6. Dato X ∈ Cn,1 ! {O}, esiste una matrice elementare di Householder
P tale che P X = αE1 , con α ∈ C ! {0}.
Dimostrazione. Le quantità da determinare sono α e V .
1. Determinazione di α. Per il fatto che P è unitaria ed hermitiana devono essere
verificate, rispettivamente, le seguenti equazioni:
9
)P X) = )X) = |α|,
X ∗ P X ∈ R ⇒ X ∗ αE1 ∈ R ⇒ x1 α ∈ R.
risulta α = ±)X)θ.
2. Determinazione di V . Si ha
(k)
Indicata con Fc1 la prima colonna di F (k) , posto
0
..
.
0
(k) (k) (k) 1
V (k) θ ()Fc1(k)) + |akk |) ,
= β (k) = (k) (k) (k)
,
ak+1k )Fc1 )2 + )Fc1 )|akk |
..
.
(k)
ank
−1 −1
R = A(n) , Q = P (1) · · · P (n−1) = P (1) · · · P (n−1) .
QED
L’algoritmo presentato nel paragrafo 5.4 usato con le matrici elementari di House-
holder al fine di risolvere un sistema lineare AX = B prende il nome di metodo di
Householder. Valgono, per il metodo di Householder e relativamente alla soluzione del
sistema con la fattorizzazione QR, considerazioni simili a quanto detto per il metodo di
Gauss. Inoltre, valgono conclusioni simili a quelle delle osservazioni 5.4, 5.6, 5.7. Invece,
per quanto riguarda l’utilizzo di metodi del massimo pivot, si può dimostrare che il me-
todo di Householder non è influenzato dalla scelta di un elemento pivot con particolari
proprietà [5].
Si può dimostrare che il numero di operazioni effettuato per ottenere la fattorizzazione
QR è approssimabile (asintoticamente) da 2n3 /3 [2].
Esempio 5.7. Trovare la fattorizzazione QR della matrice
1 2 −1
A = 2 1 0 .
3 0 −1
∗
Si ha P (k) = I − β (k) V (k) V (k) . I calcoli verranno effettuati in maniera approssimata. Per
98 Capitolo 5. I sistemi lineari
k = 1 vale
4, 7417
θ(1) = 1, β (1) = 0, 056365, V (1) = 2 ,
3
−0, 26726 −0, 53452 −0, 80178
P (1) = −0, 53452 0, 77454 −0, 33819,
−0, 80178 −0, 33819 0, 49272
−3, 7417 −1, 0690 1, 0690
A(2) = P (1) A(1) = 0 −0, 29450 0, 87271 .
0 −1, 9418 0, 30906
Nella prima colonna di A(2) i valori nulli lo sono a meno di errori di arrotondamento.
Proseguendo:
0
θ(2) = −1, β (2) = 0, 22544, V (2) = −2.2585 ,
−1, 9418
1 0 0
P (2) = 0 −0, 14994 −0, 98869,
0 −0, 98869 0, 14995
−3.7417 −1.0690 1.0690
A(3) = P (2) A(2) = 0 1.9640 −0, 43643 .
0 0 −0, 81650
Dunque, R = A(3) e
−0, 26726 0, 87286 0, 40825
Q = −0, 53452 0, 21823 −0, 81649 .
−0, 80178 −0, 43644 0, 40825
dove ϕ ∈ R e ψ ∈ C, |ψ| = 1.
In altri termini Gij è la matrice
1 0 ................................ 0
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
0 . . . cos ϕ 0 . . . −ψ sin ϕ 0 . . . 0
def
Gij = . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . ,
0 . . . ψ sin ϕ 0 . . . cos ϕ 0 . . . 0
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
0 ..................................... 1
e nella quale gli altri elementi coincidono con gli elementi della matrice identità.
Le matrici di Givens sono unitarie, e generalizzano a Cn le matrici di rotazione di R2 .
Se U ∈ R2,2 è una matrice ortogonale, allora
si ha
(Gij A)ji = ψ sin ϕaii + cos ϕaji = 0.
QED
R = G34 G24 G23 G14 G13 G12 A, Q∗ = G34 G24 G23 G14 G13 G12 .
dove il secondo passaggio è dovuto al fatto che L è triangolare inferiore. Sarà risolta, ora,
l’equazione precedente per i ≥ j (poiché A è hermitiana). Dalle equazioni
si ricava direttamente
<
ljj = ajj − j−1 |ljk |2 , j = 1, . . . , n
4
k=1
2 3 (5.11.13)
l = 1 a − j−1 l l
4
, i = j + 1, . . . , n, j = 1, . . . , n − 1.
ij ljj ij k=1 ik jk
QED
L’algoritmo presentato nel precedente teorema può essere utilizzato al fine di risolvere
un sistema lineare AX = B; esso prende il nome di metodo di Cholesky.
Il numero di operazioni da eseguire per trovare la fattorizzazione LL∗ è approssimabile
da n3 /6 [2]. Esso è inferiore al metodo di Gauss, ma il metodo non è applicabile a tutte
le matrici.
Osservazione 5.10. Gli elementi della matrice L vengono trovati a partire da l 11
incrementando prima l’indice di riga e poi quello di colonna. Ad esempio, se n = 3,
l’ordine in cui sono ricavati gli elementi di L è il seguente:
1
2 4 . !
3 5 6
√
Osservazione
) 5.11. Dalla prima equazione in (5.11.12) si ottiene |ljk | ≤ aii , dun-
que )L)∞ ≤ )A)∞ . !
102 Capitolo 5. I sistemi lineari
Come prima cosa deve essere verificato il fatto che A è hermitiana e definita positiva.
Usando la dimostrazione del teorema 5.9 si ottiene
√ 1 1
l11 = a11 = 1, l21 =
(a21 ) = 1 − i, l31 = (a31 ) = −1
l11 l11
) ) 1
l22 = a22 − |l21 |2 = 6 − |1 − i|2 = 2, l32 = (a32 − l31 l21 ) = 1 + i,
l22
)
l33 = a33 − |l31 |2 − |l32 |2 = 3.
Risultato:
0 −1/2 1/4
A−1 = 1/2 1/2 0 .
0 1/2 1/4
Esercizio 5.5. Si trovi la fattorizzazione LU della seguente matrice, ricorrendo, se
necessario, al metodo del pivot
1 1 −1 0
2 −1 1 0
A= 1 −2 2 0 .
−1 1 1 2
1 2 0 −1
Si noti che, in questo caso, il metodo di Gauss–Jordan ed il metodo di Gauss procedono in modi
molto simili. Posto
−7/2 2 6 21/2
2 −1 −3 −5
X= −1/2 0
1 3/2
1/2 0 0 −1/2
si nota che X = (ΠB)−1 , da cui si ricava B −1 .
!
Esercizio 5.10. Si determinino gli autovalori e gli autovettori della matrice XY ∗ per
X, Y ∈ C ! {O}.
5.12. Esercizi di riepilogo 105
Soluzione. Si ha
(XY ∗ )Z = X(Y ∗ Z),
dove Y ∗ Z = Y · Z ∈ C. Pertanto la matrice XY ∗ ha rango 1 in quanto l’immagine è L(X), e ci sono gli
autovalori λ1 = Y ∗ X e λ2 = 0 Se λ1 $= λ2 , i corrispondenti autospazi sono
!
CAPITOLO 6
6.1 Premesse
Data una matrice hermitiana A ∈ Cn,n , si dice quoziente di Rayleigh rispetto ad un
vettore X ∈ Cn ! {O} l’espressione
def X ∗ AX
RA (X) = . (6.1.1)
X ∗X
Poiché gli autovalori di A sono numeri reali, essi si possono ordinare in modo non
crescente λ1 ≥ λ2 ≥ · · · ≥ λn . Un risultato dovuto a Courant e Fischer stabilisce che
λ1 = max{RA (X) | X ∈ Cn , X %= O}
λn = min{RA (X) | X ∈ Cn , X =
% O}
È possibile trovare facilmente autovalori di una matrice che sia un’espressione polino-
miale di un’altra matrice di cui siano noti gli autovalori.
Proposizione 6.2. Sia q(z) ∈ Cn [z] un polinomio. Sia A ∈ Cn,n , λ un autovalore di
A ed X un suo autovettore. Allora q(λ) è un autovalore di q(A).
106
6.2. Localizzazione degli autovalori 107
non si applicano direttamente, come si vedrà nel paragrafo 6.3. Una prima soluzione del
problema dela localizzazione degli autovalori è rappresentata dai teoremi di Gershgorin 1 .
Teorema 6.1 (Primo teorema di Gershgorin). Sia A ∈ Cn,n . Posto
n
def def
+
Ci ={z ∈ C | |z − aii | ≤ ri }, ri = |aij | (6.2.2)
j=1
j%=i
n
def
=
C= Ci , (6.2.3)
i=1
allora λk ∈ C per k = 1, . . . , n.
Analogamente, posto
n
def def
+
Di ={z ∈ C | |z − aii | ≤ ci }, ci = |aji | (6.2.4)
j=1
j%=i
n
def
=
D= Di , (6.2.5)
i=1
allora λk ∈ D per k = 1, . . . , n.
Dunque, λk ∈ C ∩ D per k = 1, . . . , n.
esiste una matrice Ap , detta matrice compagna di p(x), tale che PAp (x) = p(x); tale
matrice è cosı̀ definita:
0 1 0 ··· 0
0 0 1 ··· 0
def
Ap = . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
0 0 0 ··· 1
−a0 −a1 −a2 · · · −an−1
Nota 6.1. Un altro risultato di localizzione, meno fine dei precedenti, è costituito dal
teorema di Hirsch 7.7.
Esempio 6.1. Si consideri p(x) = x3 − 2x2 + x − 2 = 0. Allora M = max{2, 2, 3} = 3,
quindi le radici si trovano nel disco di raggio 3 del piano complesso. Infatti, con un
semplice calcolo si può verificare che le radici sono 2, i, −i.
Esercizio 6.1. Trovare le regioni del piano complesso in cui si possono trovare gli
autovalori della matrice
1 −1 2 3
0 3 −1 2
A= 0 0
.
0 0
1 2 1 5
Soluzione. Si ha
r1 = 6, r2 = 3, r3 = 0, r4 = 4, d1 = 1, d2 = 3, d3 = 4, d4 = 5.
I cerchi di Gershgorin
D4
D3
D2
D1
0 1 3 4
C2 C1 C4
(si noti che C2 = D2 ) si trovano tutti all’interno del cerchio {z ∈ C | |z| ≤ 9}. Dal primo teorema di
Gershgorin si ha una stima ancora più precisa: gli autovalori di A devono trovarsi nell’insieme
(C1 ∪ C4 ) ∩ (D3 ∪ D4 ).
Soluzione. Si ha
C1 = {z ∈ C | |z| ≤ 1} = C2 = D1 = D2 ,
C3 = {z ∈ C | |z − 3| = 0} = {3} = D3
C = C1 ∪ {3} = D1 ∪ {3} = D.
Per il secondo teorema di Gershgorin, C1 ∪ C2 contiene 2 autovalori (si verifica che sono λ = ±i), e C3
contiene un solo autovalore, necessariamente λ = 3.
C1 = C2 = D1 = D2
C3 = D3
3
Sia X ∈ Cn,n tale che A = XDX −1 , con D diagonale. Supponiamo che esista una
fattorizzazione LU di X −1 . Allora esiste una successione di matrici di fase {Sk }k∈N tale
che
dove risulta 2 3k
λi
lij λj i>j
(Dk LD−k )ij = 1 i=j
0 i<j
Pertanto si ha
−1
Q(k) = Hk−1 ∗
Hk = Φk−1 Pk−1 Pk Φ∗k ,
−1
R(k) = Uk Uk−1 −1 ∗
= Φk Tk RDR−1 Tk−1 Φk−1 .
Applicando il lemma 6.1 alla successione Pk Tk si ottengono matrici di fase Fk tali che
def
limk→+∞ Pk Fk = I, limk→+∞ Fk∗ Tk = I. Si ponga Sk = Φk Fk . Si ottiene la tesi con
def
T = RDR−1 . QED
Per ridurre il numero delle operazioni effettuate con il metodo QR, si effettua una
preliminare riduzione della matrice A, secondo l’algoritmo seguente. Esiste una matrice
di Householder Q tale che (QA)i1 = 0 per i > 2. Si ripete il metodo sulla seconda colonna
di QA, e cosı̀ via fino ad ottenere una matrice di Hessenberg superiore. È facile rendersi
conto del fatto che, se A è hermitiana, allora la matrice di Hessenberg superiore cosı̀
ottenuta è, in realtà, una matrice tridiagonale.
Altri metodi permettono di valutare il numero di iterazioni del metodo QR necessarie
ad ottenere una matrice triangolare con la precisione richiesta. Varianti del metodo
considerano l’utilizzo di matrici di Givens, ed anche matrici elementari di Gauss. Per
maggiori informazioni, si veda [5, 22].
CAPITOLO 7
DECOMPOSIZIONE AI VALORI
SINGOLARI ED APPLICAZIONI
7.1 Premesse
Si consideri una matrice A ∈ Cm,n . I seguenti teoremi caratterizzano le situazioni in
cui rg(A) = n o rg(A) = m.
Teorema 7.1. Sia A una matrice di Cm,n . Le seguenti affermazioni sono equivalenti.
1. AX = O ha l’unica soluzione X = O.
2. Le colonne di A sono linearmente indipendenti.
3. rg(A) = n.
4. A∗ A ∈ Cn,n è invertibile, quindi rg(A∗ A) = n.
Dimostrazione. Le equivalenze tra i primi tre punti sono già note [16].
(4) ⇒ (1) Se AX = O, allora A∗ AX = A∗ O = O e quindi l’unica soluzione è X = O
per la (4).
(1) ⇒ (4) Sia (A∗ A)X = O e poniamo AX = (y1 . . . ym )T . Allora |y1 |2 + · · · + |ym |2 =
(AX)∗ (AX) = X ∗ (A∗ AX) = O, dunque yi = 0 per i = 1, . . . , m, da cui AX = O e l’unica
soluzione X = O per la (1). Quindi (A∗ A)X = O implica X = O e rg (A∗ A) = n. QED
Teorema 7.2. Sia A una matrice di Cm,n . Le seguenti affermazioni sono equivalenti.
1. AX = B ammette soluzione per ogni B ∈ Cm .
2. Le colonne di A generano Cm .
3. rg(A) = m.
4. AA∗ ∈ Cm,m è invertibile, quindi rg(AA∗ ) = m.
Dimostrazione. Le equivalenze tra i primi tre punti sono già note. Si consideri (3)
⇔ (4). Posto C = A∗ ∈ Cn,m , l’equivalenza è dimostrata applicando il teorema precedente
alla matrice C per la quale rg C = rg A = m. QED
113
114 Capitolo 7. Decomposizione ai valori singolari ed applicazioni
Pi risulta un versore poiché )AQi )2 = σi2 . Si completi l’insieme ortonormale {Pi }i=1,...,r ad
una base ortonormale {Pi }i=1,...,m di Cm , e si ponga P = (P1 · · · Pm ). La matrice P è uni-
taria e risulta A = P ΣQ∗ . Infatti, P Σ = (σ1 P1 · · · σr Pr 0 · · · 0). e AQ = (AQ1 · · · AQn ) =
(σ1 P1 · · · σr Pr 0 · · · 0) da cui la tesi. QED
1 1
P1 = √ (1 1)T , P2 = √ (1 − 1)T ,
2 2
quindi
, - , - 1 −1 0
1 1 1 3 0 0 1
P =√ , Σ= , Q = √ 1 1 √0 .
2 1 −1 0 1 0 2 0 0 2
La decomposizione non è unica.
Osservazione 7.1.
f ("ui ) = σi"ui i = 1, . . . , r
f ("ui ) = 0 i = r + 1, . . . , n
y i = σi x i i = 1, . . . , r
yi = 0 i = r + 1, . . . , m
4. Si vede facilmente che A ed A∗ hanno gli stessi valori singolari non nulli:
Esercizio 7.2. Provare che i valori singolari di A−1 sono i reciproci di quelli di A.
Esercizio 7.3. Se A è una matrice quadrata, mostrare che | det A| è il prodotto dei
valori singolari di A.
7.3 Applicazioni
7.3.a Sistemi lineari generali
Si consideri il sistema lineare di m equazioni in n incognite (m ≥ n) espresso da
AX = B, con A ∈ Cm,n , X ∈ Cn,1 , B ∈ Cm,1 . Se A = P ΣQ∗ , ponendo
Y = Q∗ X, B̃ = P ∗ B,
σj yj = b̃j se j ≤ n e σj %= 0,
0yj = b̃j se j ≤ n e σj = 0,
0 = b̃j se j > n.
da cui
1 √
Y = √ (−3 − 1h 2)T , X = (−1 − 2h)T .
2
si pone
D−1 O
, -
+ def
Σ = ∈ Cn,m .
O O
118 Capitolo 7. Decomposizione ai valori singolari ed applicazioni
Inoltre,
A = A∗ ⇒ A+ = (A+ )∗ ,
A2 = A = A∗ ⇒ A+ = A,
A# = (A∗ A)−1 A∗ = A+ ,
A = P ΣQ∗ ∈ Cm,n
Ora
A+ B = Q(Σ+ P ∗ B) = QY,
def
avendo posto Y = Σ+ P ∗ B. Eseguendo i calcoli, ci si rende conto che la struttura di Σ+
fa sı̀ che Y ## = O. Dunque
X = A+ B ⇔ X = QY con Y ## = O.
Dunque, la pseudoinversa di una matrice può servire a trovare una soluzione di un sistema
lineare non quadrato, anche non compatibile (come si vedrà nel paragrafo 7.4). !
Esempio 7.4. Considerando l’esempio 7.2 si ha
X = A+ B = (−1 − 2)T
A = GR,
A = (P ΣP ∗ )(P Q∗ ).
120 Capitolo 7. Decomposizione ai valori singolari ed applicazioni
A = P Q∗ QΣQ∗
def )AX)2
!A !2 = sup , X ∈ Cn,1 .
X%=O )X)2
Teorema 7.6. Sia A ∈ Cm,n . Allora !A!2 è uguale al massimo valore singolare di
A, ossia )
!A!2 = σ1 = λ1 ,
dove λ1 è il massimo autovalore di A∗ A.
Dimostrazione. Sia A = P ΣQ∗ una decomposizione ai valori singolari, con Σ come
in (7.2.1). Essendo P unitaria si ha )P Y )2 = )Y )2 per ogni Y ∈ Cm,1 , quindi
Ma
)ΣZ)22 = σ12 |z1 |2 + · · · + σr2 |zr |2 ≤ σ12 (|z1 |2 + · · · + |zr |2 ),
L’espressione )ΣZ)22 raggiunge il suo massimo in Z = (1, 0, . . . , 0)T , pertanto
!A!22 = σ12 ,
122 Capitolo 7. Decomposizione ai valori singolari ed applicazioni
In altre parole, A∗ (B − AZ) è ortogonale ad ogni X ∈ Cn (quindi anche a sé stesso), per
cui
A∗ (B − AZ) = O ⇒ A∗ B = A∗ AZ.
QED
Dal teorema segue che ogni soluzione approssimata Z del sistema AX = B è una
soluzione esatta del sistema lineare
A∗ AY = A∗ B
e viceversa. Questo sistema è detto sistema di equazioni lineari normali. Perciò ci sarà
una sola soluzione approssimata se e solo se A∗ A è invertibile, cioè se rg A = n (per il
teorema 7.1).
Chiamasi soluzione ai minimi quadrati del sistema lineare AX = B ogni vettore
Z ∈ MinA (B) tale che
)Z) ≤ )X) ∀X ∈ MinA (B).
Indichiamo con W = L(R1 , . . . , Rm ) lo spazio delle righe della matrice A. Come è noto
(vedi Appendice),
W = L(C1∗ , . . . , Cm
∗
),
dove Ci∗ sono le colonne di A∗ . Vale il seguente notevole teorema [32].
Teorema 7.9. La soluzione ai minimi quadrati del sistema lineare AX = B è unica e
coincide con la proiezione XW su W di un qualunque vettore X appartenente a MinA (B).
Inoltre essa è data da A+ B.
124 Capitolo 7. Decomposizione ai valori singolari ed applicazioni
Esempio 7.5. Dati i punti P1 (0, 0), P2 (1, 2), P3 (3, 4), P4 (4, 6) (non allineati), si ricer-
ca la retta che approssima in media tali punti nel senso dei minimi quadrati. Se esistesse
una retta passante per i punti Pi (αi , βi ), i = 1, 2, 3, 4, di equazione y = a1 x + a0 , si
avrebbe
α1 a1 + a0 = β1 , α1 1 0 1 β1 0
α2 a1 + a0 = β2 , α2 1 1 1 β2 = 2 .
A= = , B =
α3 a1 + a0 = β3 , α3 1 3 1 β3 4
α4 a1 + a0 = β4 , α4 1 4 1 β4 6
Questo sistema non ha soluzioni perchè i punti non sono allineati. Si cerca il vettore
BU = a1 C1 + a0 C2 tale che (B − BU ) ⊥ C1 , C2 . Ora BU = (a0 , a1 + a0 , 3a1 + a0 , 4a1 + a0 )T ,
e 9 9
(B − BU ) · C1 = 0, 38 − 26a1 − 8a0 = 0,
⇒
(B − BU ) · C2 = 0 12 − 8a1 − 4a0 = 0,
da cui si ottiene la soluzione a1 = 7/5, a0 = 1/5 per cui la retta “ottimale” (nel senso dei
minimi quadrati) è y = 7/5x + 1/5.
Naturalmente l’esercizio si può risolvere anche trovando direttamente A+ B. Ora,
poiché rg A = 2 = n, A+ ha la seguente espressione:
, -
+ ∗ −1 ∗ 1 −4 −2 2 4
A = (A A) A = ,
20 13 9 1 −3
2. AA+ A = A e A+ AA+ = A+ .
CC + C = C.
and
CC + C = (CC + )C = P ΣQ∗ = C.
Esercizio 7.7. Se A è una matrice (hermitiana) definita positiva, mostrare che gli
autovalori di A sono i valori singolari di A.
2
Soluzione. Se A è hermitiana, ∗ ∗
√ allora A = A e quindi A A = A . Se λ è un autovalore per A,
allora λ2 è un autovalore per A∗ A e λ2 = |λ| = σ è un valore singolare per A. Ma A è definita positiva,
quindi λ > 0 e σ = λ. !
Quindi
A = P ΣQT ,
! " ! " ! "
1 2 −3 11/5 0 1 2 3
P =√ , Σ= , Q= √ .
13 3 2 0 2/5 13 3 −2
2. Sia !A! < 1. Si dimostri che la matrice I + A è invertibile e che vale la disugua-
glianza
1
!(I + A)−1 ! ≤ .
1 − !A!
Soluzione.
1. Risulta !Ak ! ≥ ρ(Ak ) = ρ(A)k (l’ultima uguaglianza viene dal teorema di Schur).
2. Poiché ρ(A) ≤ !A! risulta ρ(A) < 1. Ma supponendo che 0 sia un autovalore di I + A si
giunge ad una contraddizione (fornire i dettagli), dunque I + A è invertibile. Dalla relazione
(I + A)(I + A)−1 = I si ottiene la disuguaglianza
da cui la tesi.
!
CAPITOLO 8
MATRICI POLINOMIALI
In questo capitolo daremo le prime nozioni sulle matrici polinomiali, largamente usate
nello studio dei sistemi di controllo con più ingressi ed uscite.
8.1 Premesse
Definizione 8.1. Sia K un campo (in particolare K può essere uno dei campi Q, R,
C, Zp ).
Una matrice polinomiale A(z) è una matrice del tipo
A(z) = A0 + A1 z + · · · + Ah z h ,
cioè gli elementi della matrice A(z) sono polinomi in z, in simboli aij (z) ∈ K[z]. In altre
parole, vale l’isomorfismo canonico
A(z) = A0 + A1 z
, - , -
−1 0 1 1
A0 = , A1 = .
1 −1 1 1
Allora , -
z−1 z
A(z) = ∈ R[z]2,2 .
z+1 z−1
128
8.1. Premesse 129
Una matrice A(z) ∈ Kn,n [z] è singolare se il suo determinante è il polinomio nullo. In
caso contrario si dice non singolare.
Esempio 8.2.
• La matrice del precedente esempio è non singolare, poiché det A(z) = 1 − 3z non è
il polinomio nullo (anche se la matrice A(1/3) ha determinante nullo).
• La matrice , -
z−1 z+1
B(z) =
z−1 z+1
è ovviamente singolare: det B(z) = 0 identicamente (cioè per ogni z).
Una matrice A(z) ∈ K[z]m,n ha rango r se i determinanti dei suoi minori di ordine
r + 1 sono polinomi identicamente nulli, mentre esiste almeno un minore di ordine r con
determinante non identicamente nullo.
Indichiamo con Dk (z) il massimo comun divisore1 (monico) di tutti i determinanti dei
minori di ordine k di A(z). Si prova che Dk (z) divide Dk+1 (z), in simboli Dk (z) | Dk+1 (z).
I polinomi
Dk (z)
dk (z) = , k≥1 (8.1.1)
Dk−1 (z)
si chiamano fattori invarianti di A(z). Per definizione si pone D0 (z) = 1.
Esempio 8.3. Si consideri il seguente blocco di Jordan di ordine r
z − z0 1 0 ... 0
0 z − z0 1 . . . 0
A(z) = . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
0 ... 0 z − z0 1
0 ... 0 0 z − z0
Ẽi (z) ∈ K[z]p,p allora Ẽi (z)A(z) ∈ K[z]p,m è una matrice ottenuta da A(z) mediante
trasformazioni elementari sulle sue righe.
La relazione introdotta è una relazione d’equivalenza nell’insieme delle matrici K[z] p,m , che
viene cosı̀ suddivisa in classi di equivalenza in K[z]p,m / ∼. Come di consueto si desidera
trovare un rappresentante distinto per ogni classe di equivalenza che sia rappresentativo.
Il seguente teorema assicura l’esistenza di una matrice (rettangolare) di tipo diagonale in
ogni classe d’equivalenza.
Teorema 8.1 (Forma canonica di Smith). Ogni matrice A(z) ∈ K[z]p,m è equi-
valente ad una matrice D(z) ∈ K[z]p,m di tipo diagonale, dove
D1 (z) D2 (z)
d1 (z) = = 1, d2 (z) = = 1/3 − z,
D0 (z) D1 (z)
Dimostrazione.
1 ⇒ 2 Da U (z)U (z)−1 = I risulta det U (z) · det U (z)−1 = 1. Essendo gli unici elementi
invertibili in K[z] le costanti non nulle, si ha la tesi.
3 ⇒ 4 Essendo
Ek (z) · · · E1 (z)U (z)E1# (z) · · · Eh# (z) = Im ,
risulta
U (z) = E1 (z)−1 · · · Ek (z)−1 Eh# (z)−1 · · · E1# (z)−1 ,
da cui la conclusione poiché le inverse di matrici elementari sono elementari.
QED
Poiché ogni matrice A(z) è equivalente ad una matrice D(z) segue il corollario.
Corollario 8.1. Data una matrice A(z) ∈ K[z]p,m , esiste una coppia di matrici
unimodulari U (z) ∈ K[z]p,p e V (z) ∈ K[z]m,m tali che
0 0 0 1
CAPITOLO 9
In questo capitolo saranno approfonditi mediante esempi numerici alcuni temi della
teoria sviluppata in precedenza. Il programma usato è octave, che può essere liberamente
copiato dal sito http://www.octave.org/. In particolare è suggerita ai lettori un’analisi
del codice sorgente di octave per quanto riguarda gli argomenti trattati nel corso. Ci
si può rendere conto di come le librerie usate per implementare gli algoritmi presentati
vengano quasi tutte dal pacchetto lapack, reperibile in http://netlib.org.
Esempio 9.1. Scrivere una funzione che crei una matrice triangolare superiore di
numeri casuali compresi tra 0 e 100 di ordine n.
Soluzione.
function a=mat sup(n)
a=zeros(n);
for j=1:n
for i=1:j
a(i , j)=floor(100∗rand(1,1));
end
end
endfunction
Problema 9.1. Scrivere una funzione che crei una matrice tridiagonale di ordine n
che ha 2 sulla diagonale principale e −1 sulle altre.
Esempio 9.2. Scrivere una funzione di due variabili che risolva un sistema con
matrice triangolare superiore. Iniziare la funzione con un test sulle variabili.
Soluzione.
function x=tri sup(a,b)
% Controlla le dimensioni di a:
[n,m] = size(a);
if m˜= n
printf ( ’A non e’’ quadrata’)
return
end
for i=1:n
for j=1:i−1
134
135
if a(i , j ) ˜=0
printf ( ’A non e’’ triangolare superiore ’ )
return
end
end
end
% Controlla le dimensioni di b:
if length(b)˜= n
printf ( ’B non e’’ compatibile’)
return
end
% Risolve il sistema
x(n) = b(n)/a(n,n);
for i=n−1:−1:1
somma=b(i);
for j=i+1:n
somma = somma − a(i,j)∗x(j);
end
x(i ) = somma/a(i,i);
end
Esempio 9.3. Scrivere un programma che confronti la velocità del metodo di fatto-
rizzazione LU con il metodo di fattorizzazione QR usando matrici quadrate casuali di
dimensione sufficientemente grande.
Soluzione.
index=0;
for n=10:100:1000
index=index+1;
a=rand(n,n);
t0=cputime;
[ l ,u]=lu(a);
printf (” fattorizzazione LU per n=%d :”,n)
cputime−t0
t1=cputime;
[q,r]=qr(a);
printf (” fattorizzazione QR per n=%d :”,n)
cputime−t1
end
Esempio 9.4. Scrivere una funzione di due variabili (matrice incompleta e termine
noto) che risolva un sistema lineare a matrice quadrata con il metodo di eliminazione.
Alla fine, si usi la funzione ‘ tri sup ’.
Si applichi la funzione al sistema lineare AX = B dove
−2 4 −1 −1 12
4 −9 0 5 , B = −32 .
A= −4 5 −5 5 3
−8 8 −23 20 13
Soluzione.
function x=ris sistema(a,b)
%
n=size(a,1);
a=[a,b]
% Test per l ’ esistenza di un’ unica soluzione
%
for k=1:n−1,
rigaprimo=k;
p(k)=k;
if a(k,k) == 0
for i=k+1:n, % scelta pivot ( parziale )
if a(i ,k) != 0,
rigaprimo = i;
else
printf ( ’ Il sistema non ha un’unica soluzione, passo k=%d’,k)
return
end
end
end
%
if k != rigaprimo, % Eventuale scambio righe
for j=1:n+1,
tmp=a(k,j); a(k,j)=a(rigaprimo,j); a(rigaprimo,j)=tmp;
end
end
for i=k+1:n, % Calcolo dei moltiplicatori e eliminazione
aik=a(i,k)/a(k,k);
a(i ,k)=aik; % memorizza il moltiplicatore
for j=k+1:n+1,
a(i , j)=a(i, j)−aik∗a(k,j );
end
end
end
%
137
u = zeros(n);
for i=1:n
for j=i:n
u(i , j ) = a(i, j );
end
end
Esempio 9.7. Stimare numericamente l’andamento del rango della matrice di Hil-
bert.
Soluzione.
for n=1:100
a=hilb(n);
r(n)=rank(a)
end
r
Si osservi che, in teoria, la matrice di Hilbert è non singolare, ma il rango ‘percepito’ dal
programma è sensibilmente inferiore. È necessario, quindi, aumentare la precisione del
calcolo in dipendenza dal tipo di dato.
Problema 9.7. Chiamare la fattorizzazione LU di
1 2 3
A = 4 5 6 .
7 8 9
trovare la matrice Q(1) con la funzione dell’esercizio precedente. Dire se esiste una
fattorizzazione LL∗ di A. Trovare (se esiste) una fattorizzazione LL∗ di A∗ A.
Esempio 9.8. Calcolare il rango di una matrice usando il metodo QR.
Soluzione. Si usi la seguente tolleranza:
% Sintassi: r=rango(a,tol)
% tol: precisione di calcolo richiesta .
function r=rango(a,tol)
if nargin < 2
tol=eps∗norm(a,1);
140 Capitolo 9. Esperimenti numerici con octave
end
Si noti che la funzione ‘qr’ calcola le matrici Q ed R a meno di una permutazione Π
che organizza le righe di R in modo da avere gli elementi della diagonale decrescenti
in modulo. Si tenga conto del fatto che R sarà a scalini nel caso di rango inferiore al
massimo.
Esempio 9.9. Date le matrici
1 2 2
1 3 1
M = 2 1 , B = 3 ,
3 3 4
6 3 3
Esempio 9.10. Scrivere un programma che calcoli gli autovalori di una matrice
usando il metodo iterativo QR.
Soluzione. Bisogna creare la successione delle iterate QR. Non sono state studiate
le stime per la convergenza del metodo QR; si procede in maniera diretta.
function x=aval qr(a,iter)
% Controlla le dimensioni di a:
[n,m] = size(a);
if m != n
printf ( ’Bocciato :−)’)
return
end
%
x=zeros(n,1);
for i=1:iter
[q,r]=qr(a);
a=r∗q;
if norm(diag(a)−x)< eps
printf (”Tolleranza raggiunta al passo %d\n”,i)
return
end
x=diag(a);
end
endfunction
Problema 9.11. Usando il precedente programma, scrivere una funzione che calcoli
i valori singolari di una matrice non quadrata.
Esempio 9.11. Scrivere una funzione che calcoli i cerchi di Gershgorin per una data
matrice quadrata, per righe o per colonne, e li disegni.
Soluzione.
function [r,c]=gersh(a)
% Controlla le dimensioni di a:
[n,m] = size(a);
if m != n
printf ( ’Bocciato :−)’)
return
end
%
r=zeros(n,1);c=diag(a);
for i=1:n
r( i)=sqrt(a(i,:)∗a(i ,:)’−( abs(a(i, i )))ˆ 2);
end
hold on
t =(0:0.1:6.3)’; X=cos(t);Y=sin(t);
for i=1:n
142 Capitolo 9. Esperimenti numerici con octave
for tt=1:64
data(tt ,:) = [r( i)∗X(tt)+real(c(i)),r( i)∗Y(tt)+imag(c(i))];
end
gplot data
end
endfunction
Problema 9.12. Si può usare il procedimento seguente per la riduzione del tempo
di calcolo degli autovalori con il metodo seguente. Sia A ∈ Cn,n non singolare. Posto
A(1) = A, sia P1 ∈ Cn−1,n−1 la matrice elementare di Householder tale che
a21 α
a31 0
P1 .. = .. .
. .
an1 0
Si ponga ,-
1 O
(1) def
Q = .
O P1
∗
Allora, si dimostra facilmente che la matrice Q(1) A(1) Q(1) ha gli elementi della prima
colonna con indice di riga maggiore di 2 nulli. Iterando il procedimento, si ottiene una
(n−2)
matrice di Hessenberg superiore, ossia una matrice A(n−2) tale che aij = 0 se i > j + 1.
(n−2)
La matrice A ha, ovviamente, gli stessi autovalori della matrice di partenza.
Si noti che, se A è hermitiana, allora A(n−2) è hermitiana.
Dimostrare numericamente che il tempo necessario alla ricerca degli autovalori di
una matrice A è inferiore se questa è preventivamente ridotta in forma di Hessenberg
superiore.
Esempio 9.12. Questo esempio è stato fornito dal Prof. G. Ricci e dall’Ing. F.
Bandiera. Si tratta di trovare gli autovalori di una matrice C di segnali ed i corrispondenti
autovettori. Questi dati corrispondono rispettivamente agli utenti in un dato dominio
UMTS ed al loro segnale. La base teorica di questo esempio si trova in
Il programma. La parte interessante ai fini del corso di calcolo matriciale è quella
dove si calcolano gli autovalori della matrice C. SI noti che questo esempio è eseguito su
una matrice di codici data (CodiciGold31).
% Processing Gain
Q=31;
% Numero di utenti
K=15;
% Numero di intervalli di simbolo
% su cui valutare la matrice di correlazione campionaria
M=400;
% Rapporto segnale−rumore
SNR dB=10;
143
% segnali trasmessi
T=S∗A∗B;
% rumore termico
N=sqrt(Sigma quadro/2)∗(randn(Q,M)+sqrt(−1)∗randn(Q,M));
β: V × V → C
144
A.1. Prodotti scalari hermitiani 145
Definizione A.3. Si dice spazio vettoriale hermitiano uno spazio vettoriale complesso
dotato di un prodotto scalare hermitiano.
Buona parte dei risultati sugli spazi vettoriali euclidei valgono senza modifiche sugli
spazi vettoriali hermitiani. Lo studio della geometria di questi spazi permette di dare
un’impostazione geometrica a molti problemi di analisi.
Sia (V, β) uno spazio vettoriale hermitiano. Se B = {"e1 , . . . , "en } è una base di V ,
posto
def
aij = β("ei , "ej ) ∈ C, (i, j = 1, . . . , n),
si dice che la matrice A = (aij ) è la matrice associata a β tramite B. Si dimostra facilmente
che A è hermitiana. Le fomule per il cambiamento di base sono simili a quelle per le forme
bilineari reali.
Si definisce la norma di un vettore "v ∈ V rispetto a β ponendo
def
)
)"v )β = β("v , "v ) ≥ 0
rispetto a β.
Si dice che due vettori "u, "v ∈ V sono ortogonali se β("u, "v ) = 0, e si scrive "u ⊥β "v , o
anche "u ⊥ "v quando non esista possibilità di equivoco.
Valgono le disuguaglianze di Schwarz e di Minkowski:
da cui risulta λ̄i = β("x, "ei ). I coefficienti λi prendono il nome di coefficienti di Fourier .
Proposizione A.1 (Disuguaglianza di Bessel). Sia (V, β) uno spazio vettoriale
hermitiano, ed U ⊂ V un sottospazio. Se "x ∈ V , allora
)"x)β ≥ )"xU )β .
Dimostrazione. Infatti, "x = "xU + "xU ⊥ , dunque per il teorema di Pitagora )"x)2β =
)"xU )2β + )"xU ⊥ )2β ≥ )"xU )2β . QED
In modo analogo si vede che, se "y ∈ U , allora d("x, "y ) ≥ d("x, "xU ) dove d("x, "y ) = )"x−"y )β .
Dunque, il vettore "xU è il vettore di U avente minima distanza da x.
146 Appendice
V = Im f ∗ ⊕ Ker f, W = Im f ⊕ Ker f ∗ ,
Im f ∗ = (Ker f )⊥ , Im f = (Ker f ∗ )⊥
r̄ ∩ s̄ = P∞ ⇒ r " s,
r̄ ∩ s̄ = P0 ⇒ r incidente s.
Le direzioni nel piano sono ∞1 ; possiamo dire che esse costi- Figura A.3.
def
tuiscono la retta impropria r∞ (figura A.4). Posto π̄ = π ∪ r∞
considerando un altro piano σ può verificarsi:
π̄ ∩ σ̄ = r∞ ⇒ π " σ,
π̄ ∩ σ̄ = r0 ⇒ π incidente σ.
(x1 , x2 , x3 ) ∼ (x#1 , x#2 , x#3 ) ⇔ esiste k ∈ R ! {0} tale che (x1 , x2 , x3 ) = k(x#1 , x#2 , x#3 ).
In questa classificazione si prende come elemento di confronto la retta impropria e non una
retta propria poiché in un cambiamento di riferimento affine i punti impropri rimangono
A.3. Polinomio interpolatore 149
impropri (cioè hanno in entrambi i riferimenti la terza coordinata uguale a 0). Infatti, un
cambiamento di riferimento affine (subordinato da uno proiettivo) è espresso da
#
x1 = a11 x1 + a12 x2 + a13 x3 ,
x# = a21 x1 + a22 x2 + a23 x3 ,
#2
x3 = a33 x3 ,
P (αi ) = βi .
α0 α0n−1 · · · α0 1
n
A = α1n α1n−1 · · · α1 1 .
αnn αnn−1 · · · αn 1
y = a 0 + a 1 x + · · · + a n xn .
150 Appendice
Il teorema precedente, quindi, afferma che fissati nel piano n+1 punti (xi , yi ), con xi %= xj
se i %= j, allora esiste un’unica parabola di ordine n passante per i suddetti punti.
Si osservi che una funzione f (x) reale, derivabile n volte in un punto, ammette uno
sviluppo di Taylor di ordine n, ed è quindi approssimabile in un intorno del punto da una
parabola di ordine n.
Si consideri ora una funzione f : U ⊂ R2 → R. Essa, sotto condizioni di regolarità,
ammette uno sviluppo di Taylor del tipo
z − z0 = fx0 (x − x0 ) + fy0 (y − y0 ).
che, come è noto, in questo caso è non degenere. Più in particolare si ha:
1.
Σ̃ : z̃ = λ1 x̃2 + λ2 ỹ 2 ).
2
ove, per n = 0, si pone B00 (t) = 1, e si pone Bin (t) = 0 per i %∈ {0, . . . , n}.
Lemma A.1. I polinomi di Bernstein soddisfano le seguenti proprietà.
1. Bin (t) ≥ 0 per t ∈ [0, 1];
5. Bin (t) ha un solo massimo (anche relativo) in [0, 1], per t = i/n.
152 Appendice
Dimostrazione.
1. Banale.
.n/ . n
/
2. Immediata, tenendo conto dell’identità i
= n−i
.
4. Si usi l’identità , - , - , -
n n−1 n−1
= + .
i i i−1
QED
Dimostrazione. Infatti,
n
.n−i/ n .j /
.j−i
+ +
ti = ti ((1 − t) + t)n−i = n
/ Bjn (t) = .ni / Bjn (t) (A.4.3)
j=i j j=i i
in tal caso la matrice di passaggio tra {1, t, . . . , tn } e {Bjn } è la matrice (λij ) ∈ Rn+1,n+1
tale che per i, j = 1, . . . , n + 1
j−1
( i−1 ) j ≥ i
λij = (i−1)
n
0 altrimenti,
Esempio A.3. Si ha
Si noti che i polinomi soddisfano la proprietà relativa al loro massimo descritta sopra.
Inoltre, Bin (t) per i = 0, . . . , n sono tutti di grado n; quindi un polinomio di grado minore
od uguale ad n sarà combinazione lineare di polinomi di grado uguale ad n. Per esempio
13 2
3t + 5 = 5B02 (t) + B (t) + 8B22 (t).
2 1
A.5. Numeri modulari e crittografia 153
A.5.a Congruenze
Definizione A.5. Sia n ∈ Z ! {0}, e siano x, y ∈ Z. Diciamo che x ed y sono
congruenti modulo n (x ≡ y (mod n)) se x − y è un multiplo di n (ossia n | x − y).
Osservazione A.1. La congruenza modulo n coincide con la congruenza modulo −n,
quindi nel seguito considereremo solo congruenze con moduli positivi.
Se n = 1 allora tutti i numeri sono congruenti.
Esempio A.4.
Dimostrazione. Siano
x = q1 n + r1 , y = q 2 n + r2 .
Il viceversa della seconda proprietà non è valido: 14 ≡ 2 (mod 12) ma 7 %≡ 1 (mod 12).
Definizione A.7. Siano [x]n , [y]n ∈ Zn , ed α ∈ Z. Si definiscono le operazioni in Zn
Si può dimostrare facilmente che queste definizioni sono ben poste, cioè le definizioni
non dipendono dai rappresentanti.
Notiamo che la somma ed il prodotto di classi rendono (Zn , +, ·) un anello commutativo
con unità, detto anello delle classi di resti o anello dei numeri modulari.
A.5. Numeri modulari e crittografia 155
MESSAGGIO
MITTENTE −→ RICEVENTE
Il mittente vuole spedire un messaggio M al ricevente in condizioni di sicurezza. Per fare
ciò, il mittente codifica il messaggio M secondo procedimenti che vedremo in seguito,
trasformandolo in un messaggio N , e lo trasmette. Il ricevente lo decodifica ed ottiene il
messaggio M .
L’obiettivo di questo paragrafo è applicare la teoria degli anelli Zn al precedente
problema.
156 Appendice
Consideriamo Z26 , dove ogni classe di resto rappresenta una lettera in modo ovvio (ad
esempio, [1]26 = A, [2]26 = B, ecc.). Vogliamo trasmettere il messaggio “tanti auguri”.
Trasformiamo le lettere nei numeri corrispondenti
T A N T I X A U G U R I
20 1 14 20 9 24 1 21 7 21 18 9 (A.5.4)
−6 1 −12 −6 9 −2 1 −5 7 −5 −8 9
La terza stringa è stata ottenuta considerando i rappresentanti delle classi di resto aventi
modulo minimo.
Scegliamo un numero invertibile in Z26 , ad esempio 5 (infatti [5]−1 26 = [−5]26 poi-
ché [5]26 [−5]26 = [1]26 ) Moltiplicando la terza stringa di (A.5.4) per 5 (modulo 26) e
riconducendoci alle lettere si ottiene
22 5 18 22 19 16 5 1 9 1 12 19
(A.5.5)
V E R V S P E A I A L S
Il ricevente trasformerà l’ultima stringa nella stringa numerica corrispondente, poi otterrà
la stringa numerica corretta (cioè corrispondente al messaggio) moltiplicando tale stringa
per −5 (modulo 26). Infatti 22 · (−5) ≡ 20 (mod 26), che corrisponde a T, e cosı̀ via.
Ovviamente, questo codice è facilmente violabile perché ad ogni lettera del messaggio
corrisponde la stessa lettera del messaggio codificato. Per ogni linguaggio sono facilmente
reperibili le cosiddette analisi di frequenza, che dànno le percentuali di utilizzo di ogni
lettera dell’alfabeto in quel linguaggio. Con questi dati è possibile capire a quale lettera
corrisponda un dato simbolo nel messaggio codificato, conoscendo il linguaggio utilizzato.
Inoltre le chiavi possibili sono solo 12 (perché?).
, - , -
8 13 −1 −8 13
A= , det A = 1 e A = .
−5 −8 5 8
17 22 8 4 20 23 21 9 17 5 1 20
(A.5.6)
Q V H D T W U I Q E A T
1
Qui ϕ rappresenta l’indicatore di Eulero, ovvero la funzione che assegna ad ogni numero naturale
n ∈ N il numero dei numeri naturali 1 ≤ k < n che sono primi con n, ovvero tali che k ed n non hanno
divisori in comune. Ovviamente ϕ(p) = p − 1 se p è primo.
BIBLIOGRAFIA
[2] K. E. Atkinson: An introduction to numerical analysis, 2nd ed., J.Wiley & Sons, 1989.
[5] D. Bini, M. Capovani, O. Menchi: Metodi numerici per l’algebra lineare, Zanichelli,
1989.
◦
[6] A. Björck: Solving linear least square problems by Gram–Schmidt orthogonalization, BIT
7 (1967), 1–21.
[8] A. Caranti, S. Mattarei: Teoria dei numeri e crittografia, note del corso di A. Caranti,
Univ. di Trento, 2002 (reperibile in Internet).
158
Bibliografia 159
[16] G. De Cecco, R. Vitolo: Note di geometria ed algebra. Dispense del corso di Geometria
ed Algebra per la laurea di I livello della Facoltà di Ingegneria dell’Università di Lecce, URL:
http://poincare.unile.it/vitolo.
[17] G. Farin: Curves and Surfaces for Computer Aided Geometric Design, A Practical Guide,
Academic Press Inc.
[19] E. Fornasini, M. E. Valcher: Metodi e algoritmi per lo studio dei sistemi multivariabili
(Parte I), a.a. 1997/1998, Università di Padova.
[20] E. Francot, R. Vitolo: Note di teoria dei numeri, dispense per i corsi di laurea
teledidattici Net.T.Un.O., 2002. URL: http://www.nettuno.unile.it/
[22] G. H. Golub, C. F. Van Loan: Matrix Computations, Johs Hopkins Univ. Press, 3 rd
edition.
[24] W. Keith Nicholson: Algebra lineare (dalle applicazioni alla teoria), McGraw–Hill, 2002.
[26] N. Koblitz: A course in number theory and cryptography, 2nd ed., Springer 1994.
[27] A. K. Jain: Fundamentals of digital image processing, Englewood Cliffs, Prentice Hall,
1989.
[31] G. Ricci, M. E. Valcher: Segnali e sistemi, Ed. Libreria Progetto, Padova 2001.
[33] A. Sanini: Lezioni di Geometria, ed. Levrotto-Bella, Torino 1993; Esercizi di Geometria,
ed. Levrotto-Bella, Torino 1993.
[36] K. Sigmon: Matlab primer, 3rd ed., Dept. of Mathematics, Univ. of Florida, 1993. http:
//poincare.unile.it/vitolo/vitolo_files/didattica/calcmat/matlab.ps.gz
161
162 Indice analitico
reale, 45 triangolarizzabile, 18
Jordan, W., 93 tridiagonale, 9, 92, 112
unipotente, 10
Klein, F., 73 unitaria, 20, 146
maxima, 66
Laplace, P. L. metodi diretti, 80
regola di, 15 metodo
Leibnitz, G.W., 6 dei minimi quadrati, 122
localizzazione degli autovalori, 106 del massimo pivot, 92
del pivot, 91
Möbius, A.F., 73 di Cholesky, 101
matrice, 6, 8 di Gauss, 88
a blocchi, 14 di Householder, 95
diagonale, 14 Gauss–Jordan, 93
triangolare, 14 Givens, 99
aggiunta, 19 LL∗ , 101
antihermitiana, 19 per minimi quadrati, 125
compagna, 108 QR
complessa, 19 per basi orton., 98
coniugata, 19 per gli autovalori, 110
coseno di una, 35 per minimi quadrati, 125
definita positiva, 23 minore
di permutazione, 84 complementare, 15
di trasformazione, 56 principale, 9
di fase, 20 Monge, G., 72
di Hessenberg, 9, 112
di Pauli, 64 Newton, disuguaglianza di, 14
di scambio, 84 norma, 11, 145
diagonale, 9 del massimo, 12
elementare, 85 del tassista, 12
di Gauss, 89 di Frobenius, 11
di Gauss–Jordan, 94 di Manhattan, 12
di Householder, 95 euclidea, 11
esponenziale di una, 35–37 massima somma di colonna, 12
forma canonica, 16 massima somma di riga, 13
Givens, 99 naturale, 12
hermitiana, 19, 114 spettrale, 121
normale, 20 submoltiplicativa, 13
polinomiale, 128 numero di condizionamento, 110
elementare, 130
equivalenza, 131 piano proiettivo, 148
fattori invarianti, 129 Plücker, J., 73
forma canonica, 131 poligono di controllo, 76
rango, 129 polinomi
singolare, 129 di Bernstein, 74
unimodulare, 132 polinomio
pseudoinversa di una, 117 annullatore, 31
radice quadrata di una, 120 di Bernstein, 73, 151
seno di una, 35 interpolatore, 149
trasformazioni su una, 83 matriciale, 30
triangolare, 9 minimo, 33
inversa di una, 81 Poncelet, J.V., 72
Indice analitico 163