Reduccion Por Diagonalizacion
Reduccion Por Diagonalizacion
Reduccion Por Diagonalizacion
Definición.- Dada una matriz cuadrada A ∈ Kn×n , se define su espectro, y se denota por σ(A),
como el conjunto de todos los autovalores de A, es decir,
1
Álgebra I - Tema 9: Diagonalización 2
2. El polinomio caracterı́stico.
Por lo visto anteriormente, un escalar λ ∈ K es autovalor de una matriz A de orden n si y sólo si
dim (ker(λI − A)) ≥ 1, es decir, si r(λI − A) < n. Esta última condición equivale a su vez a que
det(λI − A) = 0,
que es una ecuación en la incógnita λ cuyas soluciones son precisamente los autovalores de A.
Si consideramos
λ − a11 −a12 · · · −a1n
−a21 λ − a22 · · · −a2n
χA (λ) := |λI − A| = ,
.. .. ... ..
. . .
−an1 −an2 · · · λ − ann
Observación.- Evaluando χ en el 0, obtenemos χ(0) = det(−A) = (−1)n det A; sabemos que χ(0)
es el término independiente de dicho polinomio, que coincidirá por tanto con el valor de (−1)n det A.
Definición.- Dada A ∈ Kn×n , se define su traza como trA = a11 + a22 + . . . + ann , es decir, la suma
de los elementos de su diagonal principal.
Álgebra I - Tema 9: Diagonalización 3
Demostración.- Sean A, B matrices cuadradas del mismo orden tales que B = P −1 AP para una
cierta matriz de paso P ; entonces
χB (λ) = |λI − B| = |λI − P −1 AP | = |P −1 λIP − P −1 AP | = |P −1 (λI − A)P | =
= |P −1 ||(λI − A)||P | = |P |−1 |(λI − A)||P | = |(λI − A)| = χA (λ).
Corolario.- Matrices semejantes entre sı́ tienen el mismo determinante y la misma traza.
3. Diagonalización.
Nuestro objetivo es, dada una matriz cuadrada A, encontrar, cuando sea posible, una matriz
diagonal semejante a A; esto es equivalente a encontrar una base de Kn en la que el endomorfismo
determinado por A se exprese de forma diagonal, es decir, los vectores de la base se transformen
mediante A en proporcionales a sı́ mismos; diagonalizar una matriz A equivale, por tanto, a encontrar
una base de vectores propios de A (y los correspondientes valores propios).
El primer resultado importante sobre diagonalización es que vectores propios asociados a
valores propios distintos son linealmente independientes, es decir:
Aplicándole a la combinación lineal anterior la matriz A − λk+1 I, y puesto que Auj = λj uj , se tiene
que
Xk+1 k+1
X Xk
0 = (A − λk+1 I) αj uj = αj (A − λk+1 I)uj = αj (λj − λk+1 )uj .
j=1 j=1 j=1
La hipótesis de inducción (el resultado cierto para k) nos dice que los vectores propios u1 , . . . , uk son
linealmente independientes, luego los escalares αj (λj −λk+1 ), j = 1, 2, . . . , k de la última combinación
lineal han de ser todos nulos. Pero, puesto que λk+1 es distinto de todos los restantes λj , esto implica
que αj = 0 para j = 1, 2, . . . , k. Por tanto, nos queda que αk+1 uk+1 = 0 que, al ser uk+1 no nulo,
nos permite concluir que también es αk+1 = 0. Ası́ pues, todos los coeficientes αj son forzosamente
nulos, lo que demuestra la independencia lineal de los uj .
con lo que
X
0 = −u + uj
j6=i
no puede tener ningún sumando no nulo, pues los sumandos no nulos darı́an una combinación lineal
de vectores propios asociados a valores propios distintos, y por tanto linealmente independientes,
igualada al vector nulo. Luego nuestro vector u de partida no puede ser otro que el nulo.
Definición.- Sea A ∈ Kn×n ; se dice que A es diagonalizable si es semejante a una matriz diagonal
con elementos en K, es decir,
dim(ker(A − λI)) ≤ m.
Si consideramos la matriz P de paso cuyas columnas son los vectores de dicha base, tenemos que
P −1 AP es una matriz de la forma
λ0 · · · 0
.. . . . ..
. . B
0 · · · λ0
à = ,
0 ··· 0
. . .
.. . . ..
C
0 ··· 0
en donde B y C son submatrices, siendo C cuadrada de orden n−p. Como el polinomio caracterı́stico
se conserva mediante semejanza, es χA = χà . Pero resulta evidente que
ii) Para todo autovalor λ de A, dim(ker(A − λI)) coincide con la multiplicidad algebraica de λ.
En particular: una matriz compleja es diagonalizable si y solo si para todo autovalor λ de A,
dim(ker(A − λI)) coincide con la multiplicidad algebraica de λ.
Una matriz real es diagonalizable (en R) si y sólo si todos sus autovalores son reales y, además,
para todos ellos se cumple la condición de la dimensión.
Observaciones: Todas las propiedades siguientes se enuncian para una matriz cuadrada de orden
Kn×n :
1. Si A es diagonalizable, entonces At también lo es (y la matriz de paso que la diagonaliza
es la inversa de la transpuesta de la de A).
En efecto, si P −1 AP = D diagonal, entonces
D = Dt = (P −1 AP )t = P t At (P −1 )t = P t At (P t )−1 .
diag(λ−1 −1
1 , . . . , λn ) = D
−1
= (P −1 AP )−1 = P −1 A−1 P.
ya que la primera columna de dicha matriz es el vector de coordenadas de Au1 respecto a la propia
base (u1 , . . . , un ).
Ahora podemos considerar la submatriz
a012 · · · a01n
à = ... .. .. ∈ C(n−1)×(n−1)
. .
a0n2 · · · a0nn
y aplicarle la hipótesis de inducción, es decir, que existe una matriz P̃ ∈ C(n−1)×(n−1) invertible tal
que T̃ = P̃ −1 ÃP̃ es triangular superior.
Si ahora consideramos la matriz invertible
1 0 ··· 0
0
Q = .. ∈ Cn×n ,
. P̃
0
λ1 0 ··· 0 λ1 0 · · · 0
0 0
= = .. = T,
.. −1
. P̃ ÃP̃ . T̃
0 0
es triangular superior. O lo que es lo mismo:
(P Q)−1 A(P Q) = Q−1 (P −1 AP )Q = T
luego nuestra matriz A de partida es semejante a una triangular superior.
Corolario.- Una matriz compañera es diagonalizable si y sólo si todos sus valores propios son
simples.
Proposición.- Dada una matriz A ∈ Kn×n , para cualquier polinomio p ∈ K[x] se cumple:
Si λ ∈ K es un valor propio de A , entonces, p(λ) es un valor propio de p(A).
Además, si v ∈ Kn es un vector propio de A asociado a λ, entonces es vector propio de p(A)
asociado a p(λ).
k k
!
X X
Demostración.- Av = λv ⇒ Aj v = λj v ⇒ aj A j v = aj λ j v.
j=0 j=0
Demostración.- Consideramos el polinomio p(z) − λ que, salvo un caso trivial, será no constante,
y por el teorema de factorización se podrá escribir como
k
Y
p(z) − λ = c (z − αj ),
j=1
y, tomando determinantes,
k
Y
n
det(p(A) − λI) = c det(A − αj I).
j=1
Ahora bien, el primer miembro es nulo por ser λ valor propio de p(A), de suerte que algún factor del
segundo miembro debe anularse también, es decir, det(A − αs I) = 0, lo que significa que αs es valor
propio de A. Pero este valor es raı́z del polinomio p(z) − λ, es decir, satisface que p(αs ) = λ.
Obsérvese que las filas (y columnas) de una tal matriz contienen permutaciones de los elementos
de la primera. Además, sobre la diagonal principal y cada lı́nea paralela a ella, todos los elementos
son iguales. Asimismo, los elementos de la lı́nea que ”comienza” en el (1, j) son iguales a los de la
lı́nea que ”termina” en el (j − 1, n) .
7.2.3. Propiedades de Sn .
Obsérvese que Sn es una matriz de permutación, concretamente la de la permutación que lleva
cada columna a la siguiente (llevando la última a la primera), es decir, rota las columnas hacia la
derecha.
Las potencias de Sn son matrices de permutación, Snk da la permutación que desplaza cada
columna k lugares hacia la derecha:
Sn2 = ( e3 | e4 | e5 | . . .| e1 | e2 ) ; Sn3 = ( e4 | e5 | e6 | . . .| e2 | e3 ) ; . . .
Ası́ pues, Snn = I, es decir, la permutación es de orden n.
También puede interpretarse, por supuesto, como matriz de permutación por filas (un lugar hacia
arriba).
Sn es, como todas las de permutación, una matriz ortogonal (es decir, Snt = Sn−1 .
Obsérvese, finalmente, que Sn es una matriz compañera asociada al polinomio (de grado n)
q (λ) = λn − 1, siendo éste, por tanto, su polinomio caracterı́stico.
Demostración.-
⇒
a1 a2 a3 · · · an
an
a1 a2 · · · an−1
Si A = an−1
an a1 · · · an−2 , se descompone fácilmente como
.. .. .. .. ..
. . . . .
a2 a3 a4 · · · a1
A = a1 I + a2 Sn + a3 Sn2 + . . . + an Snn−1 .
Álgebra I - Tema 9: Diagonalización 12
ker Sn − ξ k I = L 1, ξ k , ξ 2k , . . . , ξ n−k ,
Demostración.- Como ya sabemos que todos los valores propios λ1 , . . . , λp de A son ceros de mA ,
podemos escribir
mA (λ) = (λ − λ1 )r1 . . . (λ − λp )rp q(λ).
(La factorización anterior es posible en C[λ]). Supongamos que mA tiene algún cero λ0 que no es
valor propio: mA (λ) = (λ − λ1 )r1 . . . (λ − λp )rp (λ − λ0 )r(λ). Puesto que λ0 no es valor propio, es
(A − λ0 I) invertible, de donde
lo cual significa que (λ − λ1 )r1 . . . (λ − λp )rp r(λ) es un anulador de A de grado menor que el de mA ,
que es una contradicción.
Hemos concluido que los ceros del polinomio mı́nimo son los valores propios de la matriz,
pero ¿cuáles son sus multiplicidades? El teorema de Cayley-Hamilton nos da una cota para éstas, al
afirmar que, como máximo, son las mismas que en el polinomio caracterı́stico.
Demostración.- Sabemos que, sobre el cuerpo C, toda matriz cuadrada es semejante a una trian-
gular superior. También sabemos que matrices semejantes tienen el mismo polinomio caracterı́stico
y los mismos polinomios anuladores. Por todo ello, basta demostrar el teorema para matrices trian-
gulares superiores.
Para ello, procederemos por inducción en el orden n de la matriz. Para n = 1, el resultado es
trivial. Supongamos, pues, que es cierto para las matrices triangulares de orden n y sea Tn+1 una
matriz triangular superior de orden n + 1, que escribiremos de la forma
a ut
Tn+1 = ,
0 Tn
Álgebra I - Tema 9: Diagonalización 15
en donde a ∈ K, u ∈ Kn y Tn es una matriz del mismo tipo pero de orden n, cuyos elementos
diagonales (es decir, sus valores propios) denotamos por a1 , . . . , an .
El polinomio caracterı́stico de una tal matriz puede escribirse como
n
Y
χTn+1 (λ) = (a − λ)χTn (λ) = (a − λ) (aj − λ).
j=1
Demostración.-
Y ⇒ A tiene el mismo polinomio mı́nimo que D = P −1 AP, y obviamente
(λ − λj ) es un anulador de D.
λj ∈σ(A)
⇐ Sea mA = (λ − λ1 ) . . . (λ − λr ), con λi 6= λj si i 6= j. Consideramos los polinomios
mA (λ)
pj (λ) = , j = 1, . . . , r.
λ − λj
Estos polinomios son primos entre sı́ (m.c.d. (p1 , . . . , pr ) = 1) , de modo que, por la identidad de
Bézout generalizado, existen q1 , . . . , qn ∈ K [x] tales que
r
X
qj (λ)pj (λ) ≡ 1.
j=1
con lo que Kn = ker(A − λ1 I) ⊕ . . . ⊕ ker(A − λr I), lo que equivale a que A sea diagonalizable.