Reduccion Por Diagonalizacion

Descargar como pdf o txt
Descargar como pdf o txt
Está en la página 1de 17

Álgebra I - Curso 2005/06 - Grupos M1 y M2

Tema 9: REDUCCIÓN POR


SEMEJANZA DE UNA MATRIZ.
DIAGONALIZACIÓN
por Mario López Gómez

1. Valores y vectores propios.


Definición.- Dada una matriz cuadrada A ∈ Kn×n , se dice que λ ∈ K es un valor propio o
autovalor de A si existe algún vector no nulo u ∈ Kn tal que Au = λu.
El vector u anterior se dice vector propio o autovector de A, asociado al autovalor λ.
Ası́ pues, los vectores propios de una matriz A son aquellos vectores (no nulos) que se transforman
mediante A en proporcionales a sı́ mismos, siendo los valores propios las correspondientes constantes
de proporcionalidad.

Definición.- Dados un espacio vectorial E sobre K y f un endomorfismo de E, se define valor


propio o autovalor de f como aquel valor λ ∈ K para el cual existe algún v ∈ E, v 6= 0, tal que
f (v) = λv. Para cada valor propio λ, los vectores propios o autovectores asociados a λ son aquellos
v ∈ E tales que f (v) = λv (excluyendo el vector nulo).

Observación.- Si E es de dimensión finita y B es una base de E, λ es autovalor de f si y sólo si


lo es de la matriz de f respecto a B.
En esta asignatura restringiremos nuestro estudio casi exclusivamente a los valores y vectores
propios en espacios de dimensión finita, es decir, valores o vectores propios de matrices (recuérdese
que éstas han de ser necesariamente cuadradas). Todos los resultados que veamos para valores y
vectores propios de una matriz cuadrada, tendrán su traducción inmediata para endomorfismos en
dimensión finita.

Definición.- Dada una matriz cuadrada A ∈ Kn×n , se define su espectro, y se denota por σ(A),
como el conjunto de todos los autovalores de A, es decir,

σ(A) := {λ ∈ K : λ es autovalor de A}.

Idéntica definición se tiene para el espectro de un endomorfismo

1
Álgebra I - Tema 9: Diagonalización 2

Observación.- Au = λu ⇔ (A − λI)u = 0 ⇔ u ∈ ker(A − λI). Ası́ pues, dada una matriz


A ∈ Kn×n , el conjunto de los vectores propios asociados a un mismo valor propio λ, junto
con el vector nulo, es un subespacio vectorial de Kn .

Observación.- Una matriz A es invertible si y solo si 0 no es autovalor de A.

Definición.- Dada A ∈ Kn×n y λ autovalor de A, llamamos subespacio propio o subespacio


caracterı́stico de A asociado a λ al subespacio formado por todos los vectores propios asociados a
λ, además del vector nulo, es decir,
ker(A − λI) = {u ∈ Kn : Au = λu}.

2. El polinomio caracterı́stico.
Por lo visto anteriormente, un escalar λ ∈ K es autovalor de una matriz A de orden n si y sólo si
dim (ker(λI − A)) ≥ 1, es decir, si r(λI − A) < n. Esta última condición equivale a su vez a que
det(λI − A) = 0,
que es una ecuación en la incógnita λ cuyas soluciones son precisamente los autovalores de A.
Si consideramos


λ − a11 −a12 · · · −a1n

−a21 λ − a22 · · · −a2n
χA (λ) := |λI − A| = ,

.. .. ... ..

. . .

−an1 −an2 · · · λ − ann

observamos que el desarrollo de tal determinante nos da un polinomio en la indeterminada λ, cuyo


término de mayor grado, que se obtiene a partir del producto de los elementos de la diagonal, es λn ;
se trata, pues, de un polinomio mónico de grado igual al orden de la matriz.

Definición.- Dada A ∈ Kn×n , se llama polinomio caracterı́stico de A, y se denota por χA , al


polinomio con coeficientes en K, mónico de grado n, definido por
χA (λ) := |λI − A|,
cuyas raı́ces son los autovalores de A.

Observación.- Evaluando χ en el 0, obtenemos χ(0) = det(−A) = (−1)n det A; sabemos que χ(0)
es el término independiente de dicho polinomio, que coincidirá por tanto con el valor de (−1)n det A.

Definición.- Dada A ∈ Kn×n , se define su traza como trA = a11 + a22 + . . . + ann , es decir, la suma
de los elementos de su diagonal principal.
Álgebra I - Tema 9: Diagonalización 3

Observación.- El término de grado n − 1 de χA se obtiene también a partir del producto de todos


los elementos de la diagonal principal:
(λ − a11 )(λ − a22 ) . . . (λ − ann ) = λn − (a11 + a22 + . . . + ann )λn−1 + . . .
Se observa, pues, que el coeficiente de grado n − 1 de χA es el opuesto a la traza de A.

Proposición.- Matrices semejantes entre sı́ tienen el mismo polinomio caracterı́stico.

Demostración.- Sean A, B matrices cuadradas del mismo orden tales que B = P −1 AP para una
cierta matriz de paso P ; entonces
χB (λ) = |λI − B| = |λI − P −1 AP | = |P −1 λIP − P −1 AP | = |P −1 (λI − A)P | =
= |P −1 ||(λI − A)||P | = |P |−1 |(λI − A)||P | = |(λI − A)| = χA (λ).

Ası́ pues, el polinomio caracterı́stico es un dato intrı́nseco de cada endomorfismo, es decir, no


depende de la base concreta (de la expresión matricial concreta) en que el endomorfismo se representa.
Por lo visto anteriormente, también se conservan mediante semejanza la traza de la matriz y el
determinante, es decir:

Corolario.- Matrices semejantes entre sı́ tienen el mismo determinante y la misma traza.

Definición.- Dada A ∈ Kn×n , un autovalor λ de A se dice que es autovalor múltiple de orden m


(tiene multiplicidad m) si tiene multiplicidad m como raı́z de χA .

Nota.- La multiplicidad antes definida también se llama a veces multiplicidad algebraica de un


autovalor, mientras que dim(ker(A − λI)) se llama multiplicidad geométrica de λ.
Obsérvese que si A es una matriz real, puede tener algunos o todos sus autovalores complejos
no reales; si A es una matriz compleja de orden n, por el teorema de factorización en C tiene n
autovalores, contando sus multiplicidades.

Observación.- Si A ∈ Rn×n y λ es un autovalor de A, entonces su conjugado λ también lo es (y


de la misma multiplicidad). Ası́ pues, los autovalores complejos no reales de una matriz real
son conjugados dos a dos. En particular, toda matriz real y de orden impar tiene algún
autovalor real.

Observación.- Si A es una matriz real y λ un autovalor de A, entonces


Au = λu ⇔ Au = λu ⇔ Au = λu,
es decir, que el subespacio propio ker(A − λI) está formado por los conjugados de los vectores de
ker(A−λI). Por lo tanto, los subespacios propios ker(A−λI) y ker(A−λI) tienen la misma dimensión.
Álgebra I - Tema 9: Diagonalización 4

3. Diagonalización.
Nuestro objetivo es, dada una matriz cuadrada A, encontrar, cuando sea posible, una matriz
diagonal semejante a A; esto es equivalente a encontrar una base de Kn en la que el endomorfismo
determinado por A se exprese de forma diagonal, es decir, los vectores de la base se transformen
mediante A en proporcionales a sı́ mismos; diagonalizar una matriz A equivale, por tanto, a encontrar
una base de vectores propios de A (y los correspondientes valores propios).
El primer resultado importante sobre diagonalización es que vectores propios asociados a
valores propios distintos son linealmente independientes, es decir:

Proposición.- Sea A ∈ Kn×n , sean u1 , u2 , . . . , uk vectores propios de A asociados, respectivamente,


a los valores propios λ1 , λ2 , . . . , λk , siendo éstos distintos dos a dos. Entonces u1 , u2 , . . . , uk son li-
nealmente independientes.

Demostración.- Lo demostraremos por inducción en k, el número de valores propios distintos.


Para k = 1, el resultado es trivial. Supongamos que es cierto para k valores propios. Si tenemos ahora
k + 1 valores propios distintos, λ1 , . . . , λk+1 , cuyos vectores propios correspondientes son u1 , . . . , uk+1 ,
supongamos que, para unos escalares α1 , . . . , αk+1 ∈ K, se tiene que
k+1
X
αj uj = 0.
j=1

Aplicándole a la combinación lineal anterior la matriz A − λk+1 I, y puesto que Auj = λj uj , se tiene
que
Xk+1 k+1
X Xk
0 = (A − λk+1 I) αj uj = αj (A − λk+1 I)uj = αj (λj − λk+1 )uj .
j=1 j=1 j=1

La hipótesis de inducción (el resultado cierto para k) nos dice que los vectores propios u1 , . . . , uk son
linealmente independientes, luego los escalares αj (λj −λk+1 ), j = 1, 2, . . . , k de la última combinación
lineal han de ser todos nulos. Pero, puesto que λk+1 es distinto de todos los restantes λj , esto implica
que αj = 0 para j = 1, 2, . . . , k. Por tanto, nos queda que αk+1 uk+1 = 0 que, al ser uk+1 no nulo,
nos permite concluir que también es αk+1 = 0. Ası́ pues, todos los coeficientes αj son forzosamente
nulos, lo que demuestra la independencia lineal de los uj .

Corolario.- Los subespacios propios de una matriz dan suma directa.

Demostración.- Sean λ1 , . . . , λk valores propios de una misma matriz


X A, distintos dos a dos. Para
cada i ∈ {1, 2, . . . , k}, consideramos el subespacio ker(A − λi I) ∩ ker(A − λj I), y tenemos que
j6=i
comprobar que este subespacio se reduce al nulo.
X X
Sea un vector u ∈ ker(A − λi I) ∩ ker(A − λj I); por pertenecer a ker(A − λj I), se podrá ex-
j6=i j6=i
X
presar como uj , en donde uj ∈ ker(A − λj I) para cada j 6= i; pero, por otro lado u ∈ ker(A − λi I),
j6=i
Álgebra I - Tema 9: Diagonalización 5

con lo que
X
0 = −u + uj
j6=i

no puede tener ningún sumando no nulo, pues los sumandos no nulos darı́an una combinación lineal
de vectores propios asociados a valores propios distintos, y por tanto linealmente independientes,
igualada al vector nulo. Luego nuestro vector u de partida no puede ser otro que el nulo.

Definición.- Sea A ∈ Kn×n ; se dice que A es diagonalizable si es semejante a una matriz diagonal
con elementos en K, es decir,

∃P ∈ Kn×n invertible tal que P −1 AP = diag(λ1 , . . . , λn ).

Observación.- Los elementos λj de la expresión anterior son forzosamente autovalores de A, mien-


tras que las columnas de la matriz P son autovectores a ellos asociados.

Observación.- Si A ∈ Kn×n tiene n autovalores distintos, entonces es diagonalizable.

Observación.- A ∈ Kn×n es diagonalizable si y solo si existe una base de autovectores de A, lo cual


es equivalente a que la suma de las dimensiones de los subespacios propios de A sea como mı́nimo
n; pero el importante resultado que enunciamos a continuación nos dice que estas dimensiones no
pueden sumar más de n.

Teorema.- Sea A ∈ Kn×n y sea λ ∈ K un autovalor de A de multiplicidad m. Entonces

dim(ker(A − λI)) ≤ m.

Es decir, que la multiplicidad geométrica de un autovalor no puede exceder de su multiplicidad


algebraica.

Demostración.- Consideramos un autovalor λ0 de una matriz A ∈ Kn×n ; llamamos p = dim(ker(A−


λI)), y vamos a ver que λ0 es raı́z de χA de multiplicidad mayor o igual que p.
Tenemos, pues, p vectores propios u1 , . . . , up linealmente independientes, asociados a λ. Por el
teorema de ampliación de la base podemos ampliar ese sistema libre con n−p vectores hasta completar
una base de Kn , digamos
B = (u1 , . . . , un ).
Álgebra I - Tema 9: Diagonalización 6

Si consideramos la matriz P de paso cuyas columnas son los vectores de dicha base, tenemos que
P −1 AP es una matriz de la forma
λ0 · · · 0
 
 .. . . . ..
 . . B 

 0 · · · λ0
 
à =  ,

 0 ··· 0 
 . . .
 .. . . ..

C 
0 ··· 0

en donde B y C son submatrices, siendo C cuadrada de orden n−p. Como el polinomio caracterı́stico
se conserva mediante semejanza, es χA = χà . Pero resulta evidente que

χà (λ) = det(λI − Ã) = (λ − λ0 )p det(λI − C) = (λ − λ0 )p χC (λ),

con lo que queda claro que λ0 tiene como mı́nimo multiplicidad p.

Corolario.- Caracterización de las matrices diagonalizables.


Sea A ∈ K×n ; A es diagonalizable (en K) si y solo si se satisfacen:
i) χA tiene, contando sus multiplicidades, n raı́ces en K.

ii) Para todo autovalor λ de A, dim(ker(A − λI)) coincide con la multiplicidad algebraica de λ.
En particular: una matriz compleja es diagonalizable si y solo si para todo autovalor λ de A,
dim(ker(A − λI)) coincide con la multiplicidad algebraica de λ.
Una matriz real es diagonalizable (en R) si y sólo si todos sus autovalores son reales y, además,
para todos ellos se cumple la condición de la dimensión.

Observaciones: Todas las propiedades siguientes se enuncian para una matriz cuadrada de orden
Kn×n :
1. Si A es diagonalizable, entonces At también lo es (y la matriz de paso que la diagonaliza
es la inversa de la transpuesta de la de A).
En efecto, si P −1 AP = D diagonal, entonces

D = Dt = (P −1 AP )t = P t At (P −1 )t = P t At (P t )−1 .

2. Si A es diagonalizable e invertible, entonces A−1 también es diagonalizable (y la


matriz de paso que la diagonaliza es la misma que la de A)..
En efecto, si P −1 AP = D = diag(λ1 , . . . , λn ) con todos los λj no nulos, entonces

diag(λ−1 −1
1 , . . . , λn ) = D
−1
= (P −1 AP )−1 = P −1 A−1 P.

3. Si A es diagonalizable, entonces cualquier potencia de A también lo es (y la matriz


que la diagonaliza es la misma).
En efecto, P −1 AP = D = diag(λ1 , . . . , λn ) implica que

diag(λk1 , . . . , λkn ) = Dk = (P −1 AP )k = (P −1 AP )(P −1 AP ) · · · (P −1 AP ) = P −1 Ak P.


Álgebra I - Tema 9: Diagonalización 7

4. Reducción por semejanza de una matriz a forma trian-


gular.
Teorema.- Toda matriz cuadrada compleja es semejante a una triangular superior.

Demostración.- Razonaremos por inducción sobre el orden n de la matriz. Para n = 1 es trivial-


mente cierto. Supongamos que el resultado es válido para n − 1.
Sea A ∈ Cn×n ,  
a11 a12 · · · a1n
 a21 a22 · · · a2n 
A =  .. ..  .
 
.. ...
 . . . 
an1 an2 · · · ann
Por el teorema fundamental del Álgebra, χA tiene alguna raı́z, es decir, existe algún valor propio
de A, digamos λ1 ∈ C. Sea u1 ∈ Cn un vector propio no nulo asociado a λ1 . Por el teorema de
ampliación de la base, existen u2 , . . . , un ∈ Cn tales que B = (u1 , u2 , . . . , un ) es una base de Cn .
Sea P la matriz de paso de la canónica a esta base, es decir, la matriz cuyas columnas son
los n vectores u1 , . . . , un . La matriz P −1 AP , semejante a A, que es la que expresa en la base B el
endomorfismo de A, es de la forma
 
λ1 a012 · · · a01n
 0 a0 · · · a0 
21 2n 
P −1 AP =  .. ..  ,

.. ...
 . . . 
0 0
0 an2 · · · ann

ya que la primera columna de dicha matriz es el vector de coordenadas de Au1 respecto a la propia
base (u1 , . . . , un ).
Ahora podemos considerar la submatriz
 
a012 · · · a01n
à =  ... .. ..  ∈ C(n−1)×(n−1)

. . 
a0n2 · · · a0nn

y aplicarle la hipótesis de inducción, es decir, que existe una matriz P̃ ∈ C(n−1)×(n−1) invertible tal
que T̃ = P̃ −1 ÃP̃ es triangular superior.
Si ahora consideramos la matriz invertible
 
1 0 ··· 0
 0 
Q =  ..  ∈ Cn×n ,
 
 . P̃ 
0

es fácil ver multiplicando por cajas que el producto


 −1   
1 0 ··· 0 λ1 a012 · · · a01n 1 0 ··· 0
 0   0  0 
=
    
 ..   ..  ..
 . P̃   . Ã  . P̃ 
0 0 0
Álgebra I - Tema 9: Diagonalización 8

   
λ1 0 ··· 0 λ1 0 · · · 0
 0   0 
=  =  ..  = T,
   
.. −1
 . P̃ ÃP̃   . T̃ 
0 0
es triangular superior. O lo que es lo mismo:
(P Q)−1 A(P Q) = Q−1 (P −1 AP )Q = T
luego nuestra matriz A de partida es semejante a una triangular superior.

5. Nociones sobre la forma canónica de Jordan.


Cuando una matriz A ∈ Cn×n no sea diagonalizable, intentaremos expresar el endomorfismo de
A de la forma más sencilla posible; podrá encontrarse una base de Cn en la que el endomorfismo se
represente mediante una matriz que solamente tendrá elementos no nulos en la diagonal principal y
en la lı́nea inmediatamente superior a ésta, cuyos elementos sólo podrán ser unos y ceros.
En particular, será una matriz diagonal por bloques, siendo estos bloques de la forma
 
λ0 1

 λ0 1 


 λ 0



 . . .


 
 λ0 1 
λ0
en donde λ0 es un autovalor de A.
Un caso particular es el bloque de orden 1, en que sólo aparece el autovalor en la diagonal. Puede
haber varios bloques asociados a un mismo autovalor, y cada autovalor debe aparecer en la diagonal
un número de veces igual a su orden de multiplicidad. Este número de veces coincide con la suma de
los órdenes de los bloques asociados a dicho autovalor.
El número de unos “encima”de λ0 es la diferencia entre su orden de multiplicidad y dim(ker(A −
λ0 I)). Obsérvese que este número coincide con la suma de los órdenes de los bloques asociados a λ0
menos el número de dichos bloques.
El vector de la nueva base asociado a la primera columna de cada bloque es un vector propio
(Auj = λ0 uj ). Los restantes vectores uj verifican
Auj = uj−1 + λ0 uj ,
cada uno se transforma en combinación lineal del anterior y de sı́ mismo. Cada bloque nos da, pues,
una cadena de vectores de la base ası́ relacionados, el primero de los cuales es un vector propio. El
subespacio engendrado por todos ellos es invariante mediante A.
Una matriz semejante a A con las propiedades dichas se denomina forma canónica de Jordan
de A, y es única salvo el orden de los bloques. Obviamente, si A es diagonalizable, su forma canónica
de Jordan es la diagonal semejante a A.

6. Matriz asociada a un polinomio.


Definición.- Sea P un polinomio mónico de grado n,
P (x) = a0 + a1 x + . . . + an−1 xn−1 + xn .
Álgebra I - Tema 9: Diagonalización 9

Se define su matriz compañera como


 
0 1 0 ··· 0 0
 0
 0 1 ··· 0 0 

 0 0 0 ··· 0 0 
.
 
 .. .. .. .. .. ..
 . . . . . . 
 
 0 0 0 ··· 0 1 
−a0 −a1 −a2 · · · −an−2 −an−1

Proposición.- Para cada polinomio P , el polinomio caracterı́stico de la matriz compañera de P es


el propio P .

Demostración.- Véase el ejercicio 9.5 de la colección.

Ası́ pues, todo polinomio mónico es el polinomio caracterı́stico de alguna matriz.

Proposición.- Si C es una matriz compañera y λ0 es un valor propio de C, entonces dim(ker(C −


λ0 I)) = 1.

Demostración.- Si C es de orden n, C − λ0 I tiene al menos n − 1 columnas linealmente indepen-


dientes, debido a los unos y ceros por encima de la diagonal. Luego r(C − λ0 I) = n − 1.

Corolario.- Una matriz compañera es diagonalizable si y sólo si todos sus valores propios son
simples.

7. Polinomios anuladores. El polinomio mı́nimo.


7.1. Evaluación de un polinomio en una matriz.
7.1.1. Definición y propiedades.
Una matriz cuadrada A con elementos en un cuerpo K, admite la potenciación para cualquier
exponente natural (definiendo A0 = I). De este modo, dado cualquier polinomio p(x) = a0 + a1 x +
a2 x2 + . . . + ak xk ∈ K [x] , podemos definir
p(A) := a0 I + a1 A + a2 A2 + . . . + ak Ak ,
que es otra matriz cuadrada del mismo orden que A.
Por las propiedades distributivas del producto de matrices respecto a la suma, y del producto de
escalar por matriz respecto a la suma de matrices, tenemos que, si p, q ∈ K [x],
(p + q) (A) = p(A) + q(A);
(pq) (A) = p(A)q(A),
de modo que podemos tratar los polinomios evaluados en matrices como si estuvieran evaluados en
escalares.
Obsérvese, además, que cualesquiera dos matrices de la forma p(A), q(A) conmutan.
Álgebra I - Tema 9: Diagonalización 10

7.1.2. Valores propios de una matriz polinomial.

Proposición.- Dada una matriz A ∈ Kn×n , para cualquier polinomio p ∈ K[x] se cumple:
Si λ ∈ K es un valor propio de A , entonces, p(λ) es un valor propio de p(A).
Además, si v ∈ Kn es un vector propio de A asociado a λ, entonces es vector propio de p(A)
asociado a p(λ).

k k
!
X X
Demostración.- Av = λv ⇒ Aj v = λj v ⇒ aj A j v = aj λ j v.
j=0 j=0

Además, cuando el cuerpo es C, se tiene el siguiente recı́proco:

Proposición.- A ∈ Cn×n , p ∈ C[x]; si λ ∈ C es un valor propio de p(A), entonces existe α ∈ C tal


que p(α) = λ.

Demostración.- Consideramos el polinomio p(z) − λ que, salvo un caso trivial, será no constante,
y por el teorema de factorización se podrá escribir como
k
Y
p(z) − λ = c (z − αj ),
j=1

con c 6= 0 y los αj números complejos.


Evaluando el polinomio anterior en la matriz A, obtenemos
k
Y
p(A) − λI = c (A − αj I),
j=1

y, tomando determinantes,
k
Y
n
det(p(A) − λI) = c det(A − αj I).
j=1

Ahora bien, el primer miembro es nulo por ser λ valor propio de p(A), de suerte que algún factor del
segundo miembro debe anularse también, es decir, det(A − αs I) = 0, lo que significa que αs es valor
propio de A. Pero este valor es raı́z del polinomio p(z) − λ, es decir, satisface que p(αs ) = λ.

7.2. Ejemplo: las matrices circulantes.


7.2.1. Definición de matriz circulante.
Dado un número natural n y un vector a = (a1 , a2 , . . . .an ) , se define la matriz circulante
asociada Cn como  
a1 a2 a3 · · · an
 an a1 a2 · · · an−1 
 
Cn (a) =  an−1 an a1 · · · an−2 .
 
 .. .. .. . . .. 
 . . . . . 
a2 a3 a4 · · · a1
Álgebra I - Tema 9: Diagonalización 11

Obsérvese que las filas (y columnas) de una tal matriz contienen permutaciones de los elementos
de la primera. Además, sobre la diagonal principal y cada lı́nea paralela a ella, todos los elementos
son iguales. Asimismo, los elementos de la lı́nea que ”comienza” en el (1, j) son iguales a los de la
lı́nea que ”termina” en el (j − 1, n) .

7.2.2. La matriz circulante Sn .


Cuando, fijado n, consideramos el vector e2 (segundo vector canónico), la matriz circulante aso-
ciada se llama Sn :
 
0 1 0 0 ··· 0 0
 0 0 1 0 ··· 0 0 
 
 0 0 0 1 ··· 0 0 
 
Sn = ( e2 | e3 | e4 | . . .| en | e1 ) =  0 0 0 0 · · · 0 0 
 
 .. .. .. .. . . .. .. 
 . . . . . . . 
 
 0 0 0 0 ··· 0 1 
1 0 0 0 ··· 0 0

7.2.3. Propiedades de Sn .
Obsérvese que Sn es una matriz de permutación, concretamente la de la permutación que lleva
cada columna a la siguiente (llevando la última a la primera), es decir, rota las columnas hacia la
derecha.
Las potencias de Sn son matrices de permutación, Snk da la permutación que desplaza cada
columna k lugares hacia la derecha:
Sn2 = ( e3 | e4 | e5 | . . .| e1 | e2 ) ; Sn3 = ( e4 | e5 | e6 | . . .| e2 | e3 ) ; . . .
Ası́ pues, Snn = I, es decir, la permutación es de orden n.
También puede interpretarse, por supuesto, como matriz de permutación por filas (un lugar hacia
arriba).
Sn es, como todas las de permutación, una matriz ortogonal (es decir, Snt = Sn−1 .
Obsérvese, finalmente, que Sn es una matriz compañera asociada al polinomio (de grado n)
q (λ) = λn − 1, siendo éste, por tanto, su polinomio caracterı́stico.

7.2.4. Caracterización de las matrices circulantes.


Una matriz cuadrada de orden n es circulante si y sólo si es resultado de evaluar un polinomio
en Sn , es decir:
A ∈ Kn×n ; A es circulante ⇔ ∃p ∈ K [x] tal que p(Sn ) = A.

Demostración.-
 ⇒ 
a1 a2 a3 · · · an
 an
 a1 a2 · · · an−1 

Si A =  an−1
 an a1 · · · an−2  , se descompone fácilmente como

 .. .. .. .. .. 
 . . . . . 
a2 a3 a4 · · · a1

A = a1 I + a2 Sn + a3 Sn2 + . . . + an Snn−1 .
Álgebra I - Tema 9: Diagonalización 12

⇐ Sea un polinomio q (λ) = b0 + b1 λ + . . . + bm λm . Para k ≥ n, k = nl + r, con 0 ≤ r ≤ n − 1,


se tiene que Ak = Ar , de modo que
 
b00 b01 b02 · · · b0n−1
 b0 0 0
· · · b0n−2
 n−1 b0 b1


 0 0 0
· · · b0n−3
q(A) = b00 I + b01 A + . . . + b0n−1 An−1 =  bn−2 bn−1 b0 =

 .. .. .. .. .. 
 . . . . . 
b01 b02 b03 · · · b00
= Cn b00 , b01 , . . . , b0n−1 .


7.2.5. Valores y vectores propios de la matriz Sn .


Como se ha visto antes, el polinomio caracterı́stico de Sn es λn − 1, de modo que los valores
propios de esta matriz son las raı́ces n-ésimas de la unidad, a saber:

λk = ξ k , k = 0, 1, . . . , n − 1, siendo ξ = ei n .
Al tener n valores propios distintos, Sn es, evidentemente, diagonalizable.
Nota: Al ser una matriz ortogonal, lo cual es un caso particular de matriz normal (concepto
que se estudiará en Álgebra II), Sn será diagonalizable unitariamente, es decir, a través de una
matriz de paso unitaria (extensión al campo complejo del concepto de matriz ortogonal).
Todos los valores propios tienen módulo unidad.
Los vectores propios de una matriz compañera vienen dados por las columnas de la matriz de
Vandermonde construida a partir de los valores propios, es decir:

ker Sn − ξ k I = L 1, ξ k , ξ 2k , . . . , ξ n−k ,
  

obteniéndose la matriz de paso:


 
1 1 1 1 ··· 1

 1 ξ ξ2 ξ3 ··· ξ n−1 

P =
 1 ξ2 ξ4 ξ6 · · · ξ n−2 ,

 .. .. .. .. .. .. 
 . . . . . . 
1 ξ n−1 ξ n−2 ξ n−3 ··· ξ
llamada matriz de Fourier de orden n.
Ası́, P −1 Sn P = P̄ t Sn P =diag(1, ξ, ξ 2 , . . . , ξ n−1 ).

7.2.6. Valores y vectores propios de una matriz circulante.


Como
n n
X X j
Cn (a) = aj Snj = aj P diag(1, ξ, ξ 2 , . . . , ξ n−1 )P −1 =
j=1 j=1
Xn
= aj P diag(1, ξ, ξ 2 , . . . , ξ n−1 )j P −1 =
j=1
n
!
X
= P aj diag(1, ξ j , ξ 2j , . . . , ξ n−j ) P −1 =
j=1
n n n
!
X X X
= P diag aj , aj ξ j , . . . , aj ξ n−j P −1 ,
j=1 j=1 j=1
Álgebra I - Tema 9: Diagonalización 13

queda claro que los valores propios de Cn (a) son


n
X
λk = aj ξ kj ; k = 0, 1, . . . , n − 1.
j=1

Ası́, toda matriz circulante es diagonalizable, y la matriz de paso es la matriz de Fourier.

7.3. Polinomios anuladores de una matriz.


Dada A ∈ Kn×n , diremos que un polinomio q ∈ K [x] es un anulador de A si q(A) = 0 (matriz
nula).
Como el espacio Kn×n tiene dimensión n2 , es obvio que, si k ≥ n2 , las matrices I, A, A2 , . . . , Ak
serán linealmente dependientes cualquiera que sea la matriz A ∈ Kn×n .
Ası́, existirá algún polinomio no nulo q, de grado menor o igual que n2 , anulador de A. (Más
adelante veremos que, de hecho, el propio polinomio caracterı́stico de la matriz, que tiene grado n,
es un anulador).

7.3.1. Propiedades de los polinomios anuladores.


En lo que sigue, suponemos fijada la matriz A.
El polinomio nulo es un anulador. La suma de anuladores, el producto de anuladores y el producto
de un escalar por un anulador, son anuladores. Ası́, el conjunto de anuladores tiene las estructuras
de subanillo y subespacio vectorial de K [x] . (Esto puede expresarse diciendo que es una subálgebra
del álgebra K [x]).
Además, si multiplicamos un anulador por un polinomio cualquiera, obtenemos un
anulador (esto se puede expresar diciendo que el conjunto de anuladores de A es un ideal del anillo
K [x]).
Matrices semejantes tienen los mismos polinomios anuladores: en efecto, si
B = P −1 AP, ∀q ∈ K [x] , q(B) = P −1 q(A)P.

7.4. El polinomio mı́nimo.


7.4.1. Definición de polinomio mı́nimo.
Como existen anuladores no nulos de grado menor o igual que n2 , existirá entre ellos alguno de
grado mı́nimo, y mónico. Éste será el polinomio mı́nimo de la matriz A, que denotaremos
por mA .
El polinomio mı́nimo es único. En efecto, si existieran dos polinomios mı́nimos distintos mA
y m0A , ambos tendrı́an que ser del mismo grado, digamos r. Pero entonces, su diferencia mA − m0A
serı́a un polinomio anulador de A, no nulo y de grado menor que r, contradiciendo la hipótesis de
que mA y m0A fueran polinomios mı́nimos.
El polinomio mı́nimo genera todos los anuladores, es decir:

Si p(A) = 0, entonces p(x) = q(x)mA (x), para algún q ∈ K [x] .


En efecto, puesto que el grado de p ha de ser mayor o igual que el de mA , podemos efectuar la división
euclı́dea p(x) = q(x)mA (x)+r(x), siendo gr(r) < gr(mA ). Pero como r(x) = p(x)−q(x)mA (x) también
es un anulador, no puede ser más que r(x) ≡ 0.
Álgebra I - Tema 9: Diagonalización 14

7.4.2. Los ceros del polinomio mı́nimo.

Proposición.- Todo valor propio de A es un cero del polinomio mı́nimo.

Demostración.- Si λ0 es valor propio y v0 un vector propio asociado a él se tiene que

mA (λ0 ) v0 = mA (A)v0 = 0v0 = 0,

de donde se deduce, puesto que v0 es no nulo, que mA (λ0 ) = 0.

Proposición.- Todo cero de mA es valor propio de A.

Demostración.- Como ya sabemos que todos los valores propios λ1 , . . . , λp de A son ceros de mA ,
podemos escribir
mA (λ) = (λ − λ1 )r1 . . . (λ − λp )rp q(λ).
(La factorización anterior es posible en C[λ]). Supongamos que mA tiene algún cero λ0 que no es
valor propio: mA (λ) = (λ − λ1 )r1 . . . (λ − λp )rp (λ − λ0 )r(λ). Puesto que λ0 no es valor propio, es
(A − λ0 I) invertible, de donde

0 = (A − λ0 I)−1 mA (A) = (A − λ1 I)r1 . . . (A − λp I)rp r(A),

lo cual significa que (λ − λ1 )r1 . . . (λ − λp )rp r(λ) es un anulador de A de grado menor que el de mA ,
que es una contradicción.
Hemos concluido que los ceros del polinomio mı́nimo son los valores propios de la matriz,
pero ¿cuáles son sus multiplicidades? El teorema de Cayley-Hamilton nos da una cota para éstas, al
afirmar que, como máximo, son las mismas que en el polinomio caracterı́stico.

7.5. El teorema de Cayley-Hamilton.


Teorema.- (de Cayley-Hamilton)
El polinomio mı́nimo de A divide al polinomio caracterı́stico de A.
O, equivalentemente:
El polinomio caracterı́stico de A es un anulador de A.

Demostración.- Sabemos que, sobre el cuerpo C, toda matriz cuadrada es semejante a una trian-
gular superior. También sabemos que matrices semejantes tienen el mismo polinomio caracterı́stico
y los mismos polinomios anuladores. Por todo ello, basta demostrar el teorema para matrices trian-
gulares superiores.
Para ello, procederemos por inducción en el orden n de la matriz. Para n = 1, el resultado es
trivial. Supongamos, pues, que es cierto para las matrices triangulares de orden n y sea Tn+1 una
matriz triangular superior de orden n + 1, que escribiremos de la forma
 
a ut
Tn+1 = ,
0 Tn
Álgebra I - Tema 9: Diagonalización 15

en donde a ∈ K, u ∈ Kn y Tn es una matriz del mismo tipo pero de orden n, cuyos elementos
diagonales (es decir, sus valores propios) denotamos por a1 , . . . , an .
El polinomio caracterı́stico de una tal matriz puede escribirse como
n
Y
χTn+1 (λ) = (a − λ)χTn (λ) = (a − λ) (aj − λ).
j=1

Evaluando el polinomio anterior en la matriz Tn+1 ,


n
Y
χTn+1 (Tn+1 ) = (aIn+1 − Tn+1 )χTn (Tn+1 ) = (aIn+1 − Tn+1 ) (aj In+1 − Tn+1 ),
j=1

que es la expresión que queremos ver que se anula.


La primera matriz de este producto se escribe como
 
0 −ut
aIn+1 − Tn+1 =
0 aIn − Tn

Cada uno de los restantes factores del producto anterior es de la forma


 
aj − a −ut
aj In+1 − Tn+1 = ,
0 aj In − Tn

de modo que el producto de todos ellos se puede escribir como



Yk 
(aj − a) vt
 k   k 
  Y Y
 j=1  
= (aj − a) vt (aj − a) v t 
= ,
  
 k
Y  j=1
  j=1
0 (aj In − Tn ) 0 χTn (Tn ) 0 O
 
j=1

en donde se ha aplicado la hipótesis de inducción para obtener la última igualdad.


Por lo tanto, al multiplicar finalmente
 k 
Y
(aj − a) v t 
 
0 −ut
,

0 aIn − Tn
 j=1
0 O

obtenemos la matriz nula, como querı́amos.

7.6. Caracterización de las matrices diagonalizables en términos de los


ceros del polinomio mı́nimo.
Teorema.- Sea A ∈ Cn×n ; A es diagonalizable si y sólo si todos los ceros de mA son
simples.
Álgebra I - Tema 9: Diagonalización 16

Demostración.-
Y ⇒ A tiene el mismo polinomio mı́nimo que D = P −1 AP, y obviamente
(λ − λj ) es un anulador de D.
λj ∈σ(A)
⇐ Sea mA = (λ − λ1 ) . . . (λ − λr ), con λi 6= λj si i 6= j. Consideramos los polinomios

mA (λ)
pj (λ) = , j = 1, . . . , r.
λ − λj

Estos polinomios son primos entre sı́ (m.c.d. (p1 , . . . , pr ) = 1) , de modo que, por la identidad de
Bézout generalizado, existen q1 , . . . , qn ∈ K [x] tales que
r
X
qj (λ)pj (λ) ≡ 1.
j=1

Evaluando el polinomio anterior en A, tenemos que


r
X
qj (A)pj (A) = I,
j=1

lo cual quiere decir que, para todo v ∈ Kn ,


r
X
qj (A)pj (A)v = v.
j=1

Ahora, llamando vj = qj (A)pj (A)v, se tiene que

(A − λj I)vj = qj (A)pj (A)(A − λj I)v =qj (A)mA (A)v = 0,

es decir, que vj ∈ ker(A − λj I).


Hemos concluido que todo v ∈ Kn se descompone como

v = v1 + . . . + vr , con vj ∈ ker(A − λj I),

con lo que Kn = ker(A − λ1 I) ⊕ . . . ⊕ ker(A − λr I), lo que equivale a que A sea diagonalizable.

8. Cálculo del polinomio mı́nimo.


8.1. Cálculo a partir del polinomio caracterı́stico.
r
Y
Dado el polinomio caracterı́stico pA (λ) = (λ − λj )sj , sabemos que el polinomio mı́nimo será de
j=1
r
Y
la forma mA (λ) = (λ − λj )rj con 1 ≤ rj ≤ sj . Por lo tanto, basta con ir probando con todos los
j=1
polinomios de esta forma, en orden creciente de grado, hasta encontrar uno que sea anulador de A.
Álgebra I - Tema 9: Diagonalización 17

8.2. Cálculo a partir de la forma canónica de Jordan.


Si se conoce la forma canónica de Jordan de A, podemos calcular fácilmente su polinomio mı́nimo,
que coincide con el de A.
Está claro que el polinomio mı́nimo de un bloque de Jordan del tipo
 
λ0 1

 λ0 1 


 λ0 


 . . .


 
 λ0 1 
λ0

es precisamente (λ − λ0 )s , siendo s el orden del bloque. Si existen varios bloques asociados a un


mismo valor propio, y tomamos el polinomio mı́nimo del mayor de ellos, ese polinomio es anulador
de todos ellos y, consecuentemente, el polinomio mı́nimo de toda la “submatriz asociada a λ0 ”; por
ejemplo:  
2

 2 1 


 0 2 


 2 1 


 0 2 


 2 1 0 

 0 2 1 
0 0 2
tiene como polinomio mı́nimo (λ − 2)3 .
Si este procedimiento lo repetimos para las cajas asociadas a cada uno de los valores propios, y
multiplicamos todos los polinomios mı́nimos obtenidos, habremos hallado el polinomio mı́nimo de A.

También podría gustarte