Algebra Capitulo 05 Diagonalizacion
Algebra Capitulo 05 Diagonalizacion
Algebra Capitulo 05 Diagonalizacion
Diagonalización de matrices
_________________________________________________________________________________________________________________
Definición 1 Sea ! una matriz " $ ". Se dice que el escalar % es un valor propio (o autovalor) de ! si existe
un vector &, no nulo, tal que:
'& = )&
Y se dice que ese vector & es un vector propio (o autovector) de ! asociado al valor propio
%.
Nota. El vector cero no se admite como vector propio. Si admitiéramos como vector propio
al vector cero, la definición carecería de sentido, ya que !* = %* es cierto para todo valor
real de %. Como valor propio % = 0 sí es posible.
Subespacios propios
Si % es un valor propio de !, una matriz de " $ " , y & es un vector propio asociado a %, todo
múltiplo escalar no nulo de & es también vector propio de ! asociado a %.
Esto puede probarse llamando , al escalar no nulo, sin más que hacer:
Además, si &! , &" son vectores propios asociados a un mismo valor propio %, su suma es
también vector propio asociado a %, porque:
_______________________________________________________________________________________________
© Ignacio García-Juliá · Ricardo Visiers Bañón · 2020 1
Álgebra 5..Valores propios. Diagonalización de matrices
_________________________________________________________________________________________________________________
Para calcular los valores y vectores propios de una matriz !, de tamaño " $ ", sea 2# la ma-
triz identidad " $ ". La ecuación !& = %&, escrita en la forma %2# & = !&, produce la ecuación
vectorial:
(%2 − !)& = *
Este sistema homogéneo de ecuaciones tiene soluciones no nulas si, y sólo si, la matriz de
coeficientes (%2 − !) es no invertible, esto es, si y sólo si, el determinante de (%2 − !) es cero.
Este resultado se enuncia en el siguiente teorema:
Ejemplo 1. Hallar los valores propios y los correspondientes vectores propios para la matriz
2 −12
!=9 =
1 −5
Solución
_______________________________________________________________________________________________
© Ignacio García-Juliá · Ricardo Visiers Bañón · 2020 2
Álgebra 5..Valores propios. Diagonalización de matrices
_________________________________________________________________________________________________________________
|%2 − !| = >% − 2 12
> = (% − 2)(% + 5)— 12 = %" + 3% − 10 + 12 = %" + 3% + 2
−1 % + 5
%" + 3% + 2 = (% + 1)(% + 2)
(%2 − !)& = *
−1 − 2 12 −2 12
(−1)2 − ! = 9 ==9 =
−1 −1 + 5 −1 4
1 −4
9 =
0 0
Por tanto $! − 4$" = 0. Haciendo $" = B, concluimos que todo vector propio asociado a %! =
−1 es de la forma:
$! 4B 4
& = 9$ = = 9 = = B 9 = , B ≠ 0
" B 1
−2 − 2 12 −4 12 1 −3
(−2)2 − ! = 9 ==9 =⟶9 =
−1 −2 + 5 −1 3 0 0
Haciendo $" = B, concluimos que todo vector propio asociado a %" = −2 es de la forma:
$! 3B 3
& = 9$ = = 9 = = B 9 = , B ≠ 0
" B 1
§
Los sistemas homogéneos que aparecen al buscar vectores propios siempre se reduce, me-
diante operaciones elementales por filas, a una matriz con al menos una fila de ceros, ya
que el sistema debe tener soluciones no triviales.
_______________________________________________________________________________________________
© Ignacio García-Juliá · Ricardo Visiers Bañón · 2020 3
Álgebra 5..Valores propios. Diagonalización de matrices
_________________________________________________________________________________________________________________
Calcular los valores propios de una matriz suele ser difícil, porque requiere factorizar un
polinomio de grado ". Ahora bien, una vez encontrado un valor propio, el cálculo de los
vectores propios asociados es un ejercicio sencillo, de aplicación de la reducción de Gauss-
Jordan.
Ejemplo 2. Hallar los valores propios y los vectores propios de la matriz del ejemplo 1 con MATLAB
Solución
2 −12
!=9 =
1 −5
clc, clear
A = [2 -12;
1 -5]
[V, D] = eig(A)
%{
V =
0.9701 0.9487
0.2425 0.3162
D =
-1.0000 0
0 -2.0000
%}
¿Por qué se obtienen unos resultados distintos a los obtenidos en el ejemplo 1? Realmente
son los mismos resultados, pero necesitan una explicación adicional. Empecemos con la
matriz D. Esta es una matriz diagonal que recoge los autovalores de la matriz A (en nuestro
caso, l = -1 y l = -2). La matriz V nos da los autovectores leídos por columnas. MATLAB
nos proporciona estos valores normalizados, es decir, el valor de las componentes dividida
por la distancia euclídea o norma del vector. Esta se define, para un vector v = (x, y) como
‖F‖ = G$ " + H " . En nuestro caso, el primer vector es (4, 1), y su norma √4" + 1" = √17. Por
' !
tanto el autovector normalizado es K , L = (0.9701, 0.2425). El otro autovector o vector
√!) √!)
* !
propio sería K , L = (0.9487, 0.3162).
√!% √!%
2 1 0
! = O0 2 0P
0 0 2
_______________________________________________________________________________________________
© Ignacio García-Juliá · Ricardo Visiers Bañón · 2020 4
Álgebra 5..Valores propios. Diagonalización de matrices
_________________________________________________________________________________________________________________
Solución
%−2 1 0
|%2 − !| = Q 0 %−2 0 Q = (% − 2)*
0 0 %−2
Así pues, el único valor propio es % = 2. Para hallar los vectores propios asociados, resolve-
mos el sistema homogéneo (22 − !)& = *.
0 −1 0
22 − ! = O0 0 0P
0 0 0
Esto implica que $" = 0. Usando los parámetros $! = R y $* = B, vemos que los vectores
propios son de la forma:
$! R 1 0
& = O$" P = S0T = R O0P + B O0P , R, B "U RVWXYBá"[\W["B[ "XYUR
$* B 0 1
_______________________________________________________________________________________________
© Ignacio García-Juliá · Ricardo Visiers Bañón · 2020 5
Álgebra 5..Valores propios. Diagonalización de matrices
_________________________________________________________________________________________________________________
Solución
clc, clear
A = [2 1 0;
0 2 0;
0 0 2]
[V, D] = eig(A)
%{
V =
1 -1 0
0 0 0
0 0 1
D =
2 0 0
0 2 0
0 0 2
%}
% Para ver si los vectores de V son linealmente independientes...
¨
Ejemplo 5. Hallar los valores propios de:
1 0 0 0
0 1 5 −10
!=^ _
1 0 2 0
1 0 0 3
Solución
Por tanto, la ecuación característica es (% − 1)" (% − 2)(% − 3) = 0, luego ! tiene como valo-
res propios %! = 1, %" = 2 y %* = 3, siendo %! de multiplicidad 2.
Podemos hallar una base del subespacio propio asociado a %! = 1 como sigue:
0 0 0 0 1 0 0 2
0 0 −5 10 0 0 1 −2
12 − ! = ^ _⟶^ _
−1 0 −1 0 0 0 0 0
−1 0 0 −2 0 0 0 0
_______________________________________________________________________________________________
© Ignacio García-Juliá · Ricardo Visiers Bañón · 2020 6
Álgebra 5..Valores propios. Diagonalización de matrices
_________________________________________________________________________________________________________________
$! −2B 0 −2
$" R 1 0
& = ^$ _ = ^ _ = a^ _ + B^ _
* 2B 0 2
$' B 0 1
Por consiguiente, una base del subespacio propio de %! = 1 viene dada por:
Para los subespacios propios de %" = 2 y %* = 3, se obtienen, de manera análoga, las bases:
syms t s
M = [1 0 0 0;
0 1 5 -10;
1 0 2 0;
1 0 0 3]
vp11 = vp(1,1)*eye(4) - M;
vp22 = vp(2,2)*eye(4) - M;
vp33 = vp(3,3)*eye(4) - M;
vp44 = vp(4,4)*eye(4) - M;
% Observamos que vp11 y vp44 son iguales. Calcularemos solo una vez
GJ11 = rref(vp11);
GJ22 = rref(vp22);
GJ33 = rref(vp33);
BaseLambda3 = t*[0 -5 0 1]
% Para GJ33, x3 = t
BaseLambda2 = t*[0 5 1 0]
_______________________________________________________________________________________________
© Ignacio García-Juliá · Ricardo Visiers Bañón · 2020 7
Álgebra 5..Valores propios. Diagonalización de matrices
_________________________________________________________________________________________________________________
Para seguir bien este problema, es conveniente quitar los signos «;» de detrás de cada
cálculo de vp y GJ para presentar los resultados obtenidos en cada paso.
¨
Teorema 2 Si ! es una matriz " $ " triangular, sus valores propios son los elementos de la diagonal
principal.
Obsérvese que de igual forma podríamos definir que existe una matriz cuadrada inverti-
ble de orden ", e tal que ! = e$! be, bastaría tomar e = f$! , esto motiva que se diga que
A y B son semejantes (sin hacer distinción entre ellas)
Teorema 3 Si ! y b son matrices " $ " semejantes, tienen los mismos valores propios.
Demostración
Puesto que ! y b son semejantes, existe una matriz invertible f tal que b = f$! !f. Por las
propiedades de los determinantes:
|%2 − b| = |%2 − f$! !f| = |f$! %2f − f$! !f| = |f$! (%2 − !)f| = |f$! ||%2 − !||f| =
= |f$! ||f||%2 − !| = |f$! f||%2 − !| = |%2 − !|
Al tener ! y b el mismo polinomio característico, tienen los mismos valores propios.
Advertencias:
Nótese que el teorema se verifica en una dirección, es decir, el hecho de que dos matrices
tengan los mismos valores propios no quiere decir que sean semejantes.
Puede verificarse con las matrices:
2 1 2 0
!=9 =yb=9 =
0 2 0 2
Semejanza no es lo mismo que equivalencia por filas. Si A es equivalente por filas a B, en-
tonces b = g! para alguna matriz E invertible. En general las operaciones por filas en una
matriz modifican los valores propios.
Matriz semejante
Propiedad
_______________________________________________________________________________________________
© Ignacio García-Juliá · Ricardo Visiers Bañón · 2020 8
Álgebra 5..Valores propios. Diagonalización de matrices
_________________________________________________________________________________________________________________
5.2 Diagonalización
f$! !f
Demostración
Supongamos que ! es diagonalizable. En tal caso, existe una matriz invertible f tal que h =
f$! !f, es diagonal. Denotando los elementos diagonales de h por %! , %" , … , %# y los vectores
columna de f por j! , j" , … , j# , se tiene:
%! 0 ⋯ 0
0 %" ⋯ 0
[fh] = [j! ⋮ j" ⋮ ⋯ ⋮ j# ] ^ _ = [%! j! ⋮ %" j" ⋮ ⋯ ⋮ %# j# ]
⋮ ⋮ ⋮ ⋮
0 0 ⋯ %#
en otras palabras, !j& = %& j& para cada vector columna j& . Así pues, los vectores columna
j& son vectores propios de !. Además, al ser f invertible, sus vectores columna son lineal-
mente independientes. Por tanto ! tiene " vectores propios linealmente independientes.
Recíprocamente, supongamos que ! tiene " vectores propios linealmente independientes
j! , j" , … , j# con valores propios correspondientes %! , %" , … , %# . Sea f la matriz cuyas colum-
nas son esos " vectores propios, es decir, f = [j! ⋮ j" ⋮ ⋯ ⋮ j# ]. Como cada vector j& es vec-
tor propio de !, se tiene !j& = %& j& , así que:
%! 0 ⋯ 0
0 %" ⋯ 0
!f = [j! ⋮ j" ⋮ ⋯ ⋮ j# ] ^ _ = fh
⋮ ⋮ ⋮ ⋮
0 0 ⋯ %#
_______________________________________________________________________________________________
© Ignacio García-Juliá · Ricardo Visiers Bañón · 2020 9
Álgebra 5..Valores propios. Diagonalización de matrices
_________________________________________________________________________________________________________________
Finalmente, puesto que los vectores j! , j" , … , j# , son linealmente independientes, f es in-
vertible, y podemos escribir la ecuación !f = fh como f$! !f = h, lo que significa que !
es diagonalizable.
Consecuencia del teorema anterior es que para que una matriz sea diagonalizable la multi-
plicidad de cada autovalor (multiplicidad aritmética) debe coincidir con la dimensión del
subespacio propio asociado (multiplicidad geométrica)
Solución
% − 1 −1 −1
|%2 − !| = Q 1 %−3 1 Q = (% − 2)(% + 2)(% − 3)
−3 1 %+1
luego los valores propios de ! son %! = 2, %" = −2, y %* = 3. Usando estos valores propios,
se obtienen, para cada caso, la forma escalonada reducida y los vectores propios asociados:
1 1 1 1 0 1 −1
22 − ! = O−1 −1 −1P ⟶ O0 1 0P ⟶ F[,BUo poUpVU: O 0 P
3 −1 3 0 0 0 1
−3 1 1 1 0 −1/4 1
−22 − ! = O−1 −5 −1P ⟶ O0 1 1/4 P ⟶ F[,BUo poUpVU: O−1P
3 −1 −1 0 0 0 4
2 1 1 1 0 1 −1
32 − ! = O−1 0 −1P ⟶ O0 1 −1P ⟶ F[,BUo poUpVU: O 1 P
3 −1 4 0 0 0 1
_______________________________________________________________________________________________
© Ignacio García-Juliá · Ricardo Visiers Bañón · 2020 10
Álgebra 5..Valores propios. Diagonalización de matrices
_________________________________________________________________________________________________________________
Formamos la matriz f que tiene por columnas los vectores propios obtenidos:
−1 1 −1
f = O 0 −1 1 P
1 4 1
Esta matriz es no singular, de modo que los vectores propios son linealmente independien-
tes y ! es diagonalizable. La inversa de f es:
−1 −1 0
f$! = O1/5 0 1/5P
1/5 1 1/5
Luego:
2 0 0
f$! !f = O0 −2 0P
0 0 3
§
Ejemplo 8. Probar que la matriz:
1 0 0 0
0 1 5 −10
!=^ _
1 0 2 0
1 0 0 3
es diagonalizable y hallar una matriz f tal que f$! !f sea diagonal usando MATLAB.
clc, clear
A = [1 0 0 0;
0 1 5 -10;
1 0 2 0;
1 0 0 3]
¨
Teorema 5 . Condición suficiente para la diagonalización
Si ! es una matriz " $ " con " valores propios distintos, los vectores propios asociados son
linealmente independientes y ! es diagonalizable
Demostración
Sean %! , %" , … , %# los " valores propios distintos de ! y &! , &" , … , &# los vectores propios aso-
ciados. Para empezar, supongamos que estos vectores propios fueran linealmente depen-
dientes. Además tomemos los vectores propios ordenados de manera que los W primeros
sean linealmente independientes, pero los W + 1 primeros sean linealmente dependientes,
donde W < ".
Entonces &-,! se puede escribir como combinación lineal de los primeros W vectores pro-
pios:
_______________________________________________________________________________________________
© Ignacio García-Juliá · Ricardo Visiers Bañón · 2020 11
Álgebra 5..Valores propios. Diagonalización de matrices
_________________________________________________________________________________________________________________
donde no todos los ,& son cero. Aplicando a ambos lados de la igualdad la matriz ! resulta:
!&-,! = !,! &! + !," &" + ⋯ + !,- &- ⟹ %-,! &-,! = %! ,! &! + %" ," &" + ⋯ + %- ,- &- (2)
%-,! &-,! = ,! %-,! &! + ," %-,! &" + ⋯ + ,- %-,! &- (3)
que al ser linealmente independientes los W primeros vectores propios, permite concluir
que todos los coeficientes de esta ecuación son cero, esto es:
Como todos los valores propios son distintos, se sigue que ,& = 0, V = 1, 2, … , W. Pero este
resultado contradice nuestra hipótesis de que &-,! se puede escribir como combinación
lineal de los W primeros vectores propios. Por tanto, el conjunto de los vectores propios es
linealmente independiente y, por el teorema anterior, ! es diagonalizable.
Nota. La condición del teorema anterior es suficiente, pero no necesaria, para que la matriz
sea diagonalizable. En otras palabras, los valores propios de una matriz diagonalizable no
tienen por qué ser todos distintos.
Teorema 6 Sea ! una matriz de orden " con p < " autovalores distintos %! , %" , … , %.
a) Para 1 ≤ ] ≤ p, la dimensión del espacio propio %+ (multiplicidad geométrica) es
menor o igual que la multiplicidad del valor propio (multiplicidad aritmética).
b) La matriz ! es diagonalizable si y solo si:
i. Se factoriza completamente el polinomio característico en factores lineales
ii. La dimensión del espacio propio para cada %+ es igual a la multiplicidad
de %+
c) Si ! es diagonalizable, y b+ es una base para el espacio propio asociado a %+ para
cada ], entonces el conjunto de vectores resultante de unir las bases b! , b" , … , b.
forma una base de vectores propios para ℝ# .
_______________________________________________________________________________________________
© Ignacio García-Juliá · Ricardo Visiers Bañón · 2020 12
Álgebra 5..Valores propios. Diagonalización de matrices
_________________________________________________________________________________________________________________
1. La traza de una matriz es un invariante por semejanza, por lo tanto, una vez calcu-
lados los autovalores podemos comprobar que su suma es igual a la traza de la
matriz.
2. Si todos los autovalores obtenidos tienen multiplicidad uno, entonces la matriz es
diagonalizable.
3. Para evitar calcular inversas una vez obtenidas h y f en lugar de calcular f$! !f =
h podemos calcular fh = !f.
4. Una matriz y su traspuesta tienen los mismos autovalores.
5. Si % es autovalor de una matriz !, ]% será autovalor de la matriz ]!
6. Si % es autovalor de una matriz !, y ] un escalar cualquiera, entonces (% − ]) será
un autovalor de la matriz (! − ]2).
7. Si % es un autovalor de la matriz !, entonces 1/% es un autovalor de la matriz !$!
8. !# = fh# f$! , es decir, si ! es diagonalizable, es fácil obtener cualquier potencia
de !
5.3.1.1 Definiciones
Su longitud (también llamada norma o 2-norma), denotada por ‖v‖, se define como:
/
El vector x = ‖1‖ tiene longitud 1 y la misma dirección de v. Este vector x se llama vector
unitario en la dirección de F.
x · v = X! · F! + X" · F" + ⋯ + X# · F#
_______________________________________________________________________________________________
© Ignacio García-Juliá · Ricardo Visiers Bañón · 2020 13
Álgebra 5..Valores propios. Diagonalización de matrices
_________________________________________________________________________________________________________________
Corolario
Sean { = {x! , x" , … , x# } una base ortogonal para ℝ# y v un vector cualquiera de ℝ# , enton-
ces:
v = ,! x! + ," x! , + ⋯ + ,2 x#
Donde:
v · x&
,& =
x& · x&
Solución
v = ,! x! + ," x" + ,* x*
donde:
,! = v · x! = 1,
," = v · x" = 0,
,* = v · x* = 7
con lo cual:
v = x! + 7x*
_______________________________________________________________________________________________
© Ignacio García-Juliá · Ricardo Visiers Bañón · 2020 14
Álgebra 5..Valores propios. Diagonalización de matrices
_________________________________________________________________________________________________________________
}! = v!
v" · }!
}" = v" − }
}! · }! !
v* · }! v* · }"
}* = v* − } − }
}! · }! ! }" · }" "
⋮
v# · }! v# · }" v# · }#$!
}# = v# − } − } − ⋯− }
}! · }! ! }" · }" " }#$! · }#$! #$!
5
Llamando x& = ‖5!‖, el conjunto b′′ = {x! , x" , … , x# } es una base ortonormal de |.
!
Primer paso: 5% = #%
_______________________________________________________________________________________________
© Ignacio García-Juliá · Ricardo Visiers Bañón · 2020 15
Álgebra 5..Valores propios. Diagonalización de matrices
_________________________________________________________________________________________________________________
Segundo paso:
#& · 5%
5& = #& − 5
5% · 5% %
Tercer paso:
## · 5% ## · 5&
5# = ## − 5 − 5
5% · 5% % 5& · 5& &
Solución
Tomamos:
}! = v! = (1, 1)
v" · }! 1 1 1
}" = v" − }! = (0, 1) − (1, 1) = •− , Ä
}! · }! 2 2 2
El conjunto b4 = {}! , }" } es una base ortogonal de ℝ" . Normalizando cada vector de b4
obtenemos:
}! 1 √2 √2
x! = = (1, 1) = Å , Ç
‖}! ‖ √2 2 2
}" 1 1 1 √2 √2
x" = = •− , Ä = Å− , Ç
‖}" ‖ 1É 2 2 2 2
√2
_______________________________________________________________________________________________
© Ignacio García-Juliá · Ricardo Visiers Bañón · 2020 16
Álgebra 5..Valores propios. Diagonalización de matrices
_________________________________________________________________________________________________________________
Ejemplo 11. Aplicar el método de ortonormalización de Gram-Schmidt a la siguiente base de ℝ" :
b = {(1, 1), (0, 1)}
Solución
v1 = [1 1]
v2 = [0 1]
w1 = v1;
u1 = w1/norm(w1)
u2 = w2/norm(w2)
% Existe una forma directa de hacer esto con MATLAB: Función orth()
% Debemos crear una matriz A con los vectores v1 y v2 POR COLUMNAS.
A = [1 0;
1 1]
A = sym(A);
% Calculamos la ortonormalización de A:
B = orth(A)
Matrices simétricas
1. ! es diagonalizable
2. Todos los valores propios de ! son reales
3. Si % es un valor propio de ! de multiplicidad ], hay ] vectores propios de ! asocia-
dos a % y linealmente independientes. En otras palabras, el subespacio propio de %
tiene dimensión ].
Este teorema se conoce como teorema espectral real, y el conjunto de todos los valores pro-
pios de ! se llama el espectro de !.
1 −2 0 0
−2 1 0 0
!=^ _
0 0 1 −2
0 0 −2 1
Solución
%−1 2 0 0
2 % − 1 0 0
|%2 − !| = ^ _ = (% + 1)" + (% − 3)"
0 0 %−1 2
0 0 2 %−1
Así pues, los valores propios de ! son %! = −1 y %" = 3. como ambos tienen multiplicidad
2, sabemos que sus correspondientes subespacios propios tienen dimensión 2.
En concreto, el subespacio propio de %! = −1 admite como base b! = {(1, 1, 0, 0), (0, 0, 1, 1)}
y el subespacio propio de %" = 3 admite como base b" = {(1, −1, 0, 0), (0, 0, 1, −1)}.
§
Matrices ortogonales
Una matriz cuadrada f se dice que es ortogonal si, y sólo si, es invertible y f$! = f6 .
Demostración
Supongamos que los vectores columna de f forman un conjunto ortonormal:
_______________________________________________________________________________________________
© Ignacio García-Juliá · Ricardo Visiers Bañón · 2020 18
Álgebra 5..Valores propios. Diagonalización de matrices
_________________________________________________________________________________________________________________
p!! p!" ⋯ p!#
p"! p"" ⋯ p"#
f = [j! ⋮ j" ⋮ ⋯ ⋮ j# ] = ^ ⋮ ⋮ ⋯ ⋮ _
p#! p#" ⋯ p##
j! · j! j! · j" ⋯ j! · j#
j" · j! j" · j" ⋯ j" · j#
=^ ⋮ ⋮ ⋯ ⋮ _ (1)
j# · j! j# · j" ⋯ j# · j#
Por lo tanto, la matriz compuesta por los productos escalares (1) es:
1 0 ⋯ 0
0 1 ⋯ 0
f6 f = ^ _ = 2#
⋮ ⋮ ⋯ ⋮
0 0 ⋯ 1
Solución
1 2 2 1 −2 −2É
⎡ ⎤ ⎡3 É
√5
⎤
3√5⎥
⎢ 3 3 3 ⎢
⎥ ⎢2 1 0 0
⎥
ff6 = ⎢ −2É 1É 0 ⎥⎢ 1É −4É
⎥ = O0 1 0P = 2*
⎢ √5 √5 ⎥ ⎢3 √5 3√5⎥ 0 0 1
⎢−2 −4 5 ⎥ ⎢2 ⎥
⎣ É3√5 É É 0 5É
3√5 3√5⎦ ⎣3 3√5 ⎦
_______________________________________________________________________________________________
© Ignacio García-Juliá · Ricardo Visiers Bañón · 2020 19
Álgebra 5..Valores propios. Diagonalización de matrices
_________________________________________________________________________________________________________________
Además, denotando:
1/3 2/3
⎡ −2 ⎤ ⎡ 1 ⎤ 2/3
j!9 ⎢⎢ É√5 ⎥⎥, j"9 ⎢⎢ É√5 ⎥⎥ , y j*9 ã 0 å
5É
⎢−2É ⎥ ⎢−4É ⎥ 3√5
⎣ 3√5 ⎦ ⎣ 3√5 ⎦
se tiene:
j! · j" = j! · j* = j" · j* = 0
y
‖j! ‖ = ‖j" ‖ = ‖j* ‖ = 1
En consecuencia {j! , j" , j* } es un conjunto ortonormal, tal como afirma el teorema anterior.
§
Ejemplo 14. Repetir el ejemplo anterior haciendo uso de MATLAB
Solución
clc, clear
R = round(P * P')
p1 = P(:, 1)';
p2 = P(:, 2)';
p3 = P(:, 3)';
e1 = round(dot(p1, p2));
e2 = round(dot(p1, p3));
e3 = round(dot(p2, p3));
if e1 == 0 && e2 == 0 && e3 == 0
display('Los tres vectores columna de P son ortogonales')
end
n1 = norm(p1);
n2 = norm(p2);
n3 = norm(p3);
if n1 == 1 && n2 == 1 && n3 == 1
display('Además, los tres vectores columna de P son ortonormales')
end
_______________________________________________________________________________________________
© Ignacio García-Juliá · Ricardo Visiers Bañón · 2020 20
Álgebra 5..Valores propios. Diagonalización de matrices
_________________________________________________________________________________________________________________
Sea ! una matriz simétrica de tamaño " $ ". Si %! y %" son autovalores distintos de !, en-
tonces sus autovectores correspondientes &! y &" son ortogonales.
Demostración
Sean %! y %" dos valores propios distintos de !, con vectores propios asociados &! y &" . Eso
significa que:
Para demostrar el teorema usaremos la siguiente forma matricial del producto escalar:
$"!
$
&! · &" = [$!! $!" ⋯ $!# ] · ^ "" _ = ç!6 ç"
⋮
$"#
Ahora podemos escribir:
%! (&! · &" ) = (%! &! ) · &" = (!&! ) · &" = (!&! ): ç" = (ç!6 !6 )ç" = (ç!6 !)ç" = ç!6 (!ç" )
Eso implica que (%! − %" )(&! · &" ) = 0. Y como %! ≠ %" , concluimos que &! · &" = 0. Por
tanto &! y &" son ortogonales.
Solución
|%2 − !| = 9% − 3 −1 = = (% − 2)(% − 4)
−1 % − 3
R
&! = 9 =, R≠0
−R
_______________________________________________________________________________________________
© Ignacio García-Juliá · Ricardo Visiers Bañón · 2020 21
Álgebra 5..Valores propios. Diagonalización de matrices
_________________________________________________________________________________________________________________
B
&" = 9 = , B≠0
B
Por tanto:
R B
&! · &" = 9 = 9 = = RB − RB = 0
−R B
Diagonalización ortogonal
Una matriz ! es ortogonalmente diagonalizable si existe una matriz ortogonal f tal que
f$! !f = h es diagonal. Las matrices con esa propiedad son precisamente las simétricas, tal
como establece le siguiente teorema.
! = fhf$! = fhf6
_______________________________________________________________________________________________
© Ignacio García-Juliá · Ricardo Visiers Bañón · 2020 22
Álgebra 5..Valores propios. Diagonalización de matrices
_________________________________________________________________________________________________________________
Sea ! una matriz " $ " simétrica. El proceso de diagonalización ortogonal de ! es el si-
guiente:
1. Calcular sus valores propios y la multiplicidad de cada uno de ellos.
2. Para cada valor propio de multiplicidad 1, tomar un vector propio unitario (Hallar
cualquier vector propio y normalizarlo).
3. Para cada valor propio de multiplicidad ] ≥ 2, hallar ] vectores propios lineal-
mente independientes (siempre es posible). Si este conjunto no es ortonormal, apli-
carle el método de Gram-Schmidt.
4. Los pasos 2 y 3 producen finalmente un conjunto ortonormal de " vectores propios.
Formar una matriz f que tenga por columnas a esos " vectores propios. La matriz
f$! !f = f6 !f = h será diagonal. (Los elementos de la diagonal principal de h se-
rán los valores propios de !.
2 2 −2
! = O 2 −1 4 P
−2 4 −1
Solución
|%2 − !| = (% − 3)" (% + 6)
v! 1 2 2
x! = = • ,− , Ä
‖v! ‖ 3 3 3
Nótese que v! es ortogonal a v" y v* . Sin embargo v" y v* no son ortogonales entre sí. Para
encontrar dos vectores propios ortonormalizados asociados a %" usamos el método de
Gram-Schmidt:
v* · }" 2 4
}* = v* − • Ä } = •− , , 1Ä
}" · }" " 5 5
_______________________________________________________________________________________________
© Ignacio García-Juliá · Ricardo Visiers Bañón · 2020 23
Álgebra 5..Valores propios. Diagonalización de matrices
_________________________________________________________________________________________________________________
}" 2 1
x" = =• , , 0Ä
‖}" ‖ √5 √5
}* −2 4 5
x* = =• , , Ä
‖}* ‖ 3√5 3√5 3√5
1 2 −2É
⎡ É ⎤
⎢3 √5 3√5⎥
⎢−2 1 4É ⎥
f=⎢ É ⎥
3 √5 3√5
⎢ ⎥
⎢ 2 5É ⎥
0
⎣3 3√5 ⎦
−6 0 0
Es fácil comprobar que f$! !f = f6 !f = O 0 3 0P
0 0 3
§
Ejemplo 17. Hallar la matriz ortogonal f que diagonalice:
2 2 −2
! = O 2 −1 4 P
−2 4 −1
Utilizando MATLAB.
Solución
_______________________________________________________________________________________________
© Ignacio García-Juliá · Ricardo Visiers Bañón · 2020 24
Álgebra 5..Valores propios. Diagonalización de matrices
_________________________________________________________________________________________________________________
clc, clear
syms lambda
A = [ 2 2 -2;
2 -1 4;
-2 4 -1]
A = sym(A);
factor(P)
% v2 y v3 no son ortogonales:
v2 = V(:, 2);
v3 = V(:, 3);
pe = dot(v2, v3);
if pe ~= 0
display('v2 y v3 no son ortogonales')
end
% Ortonormalización de Gram-Schmidt
w2 = v2;
w3 = v3 - (dot(v3, w2)/dot(w2, w2))*w2;
u1 = V(:, 1);
u2 = w2/norm(w2);
u3 = w3/norm(w3);
% Matriz P:
P = [u1 u2 u3]
5.4 Factorización QR
Si ! es una matriz de W $ " con columnas linealmente independientes (lo que requiere que
W ≥ "), entonces, la aplicación del proceso de Gram-Schmidt a dichas columnas produce
una factorización de ! muy útil que consiste en el producto de una matriz Q con columnas
ortonormales y una matriz triangular superior R denominada factorización QR.
Para ver cómo surge la factorización QR, sean x; , . . . , x2 las columnas (linealmente indepen-
dientes) de ! las cuales forman una base del espacio de columnas de ! , mediante el proceso
Gram-Schmidt podemos obtener una base ortonormal }! , . . . , }2 de vectores ortonormales
para el espacio generado por las columnas de ! . Recordemos cómo se obtiene esta base.
Primero construimos una base ortogonal v! , . . . , v2 como sigue:
v! = x!
Por último:
1
}& = ‖1!‖ para V = 1, 2, 3, … , ". Ahora cada uno de los vectores x& se escribe como una com-
!
binación lineal de los vectores }:
ê["(v; , . . . , v3 ) = ê["(}! , . . . , }3 )
Como }< es ortogonal a ê["(}! , . . . , }3 ) para Ñ > V, es ortogonal a x& . Por lo tanto o7& = 0 para
Ñ > V.
o!7
o"7
í< = ^ ⋮ _
o#7
_______________________________________________________________________________________________
© Ignacio García-Juliá · Ricardo Visiers Bañón · 2020 26
Álgebra 5..Valores propios. Diagonalización de matrices
_________________________________________________________________________________________________________________
Sea & una solución del sistema lineal ì& = *. Al multiplicar esta ecuación por e a la iz-
quierda, tenemos:
$! x! + $" x" + ⋯ $# x# = *
donde $! , $" , … , $# son las coordenadas del vector &. Como las columnas de ! son lineal-
mente independientes,
$! = $" = ⋯ = $# = 0
de modo que & debe ser el vector nulo, por lo que la matriz R es no singular.
Teorema 11 Sea ! una matriz de W x " con columnas linealmente independientes. Entonces ! puede
factorizarse como ! = eì, donde e es una matriz de W x " con columnas ortonormales y ì
es una matriz triangular superior invertible.
Procedimiento
Dada una matriz ! de W x " con columnas linealmente independientes (o\"êU (!) = "):
1. Obtener una base ortonormal de ,UY(!) mediante el método de Gram-Schmidt.
Los vectores obtenidos forman las columnas de la matriz e.
2. Calcular R . Para ello podemos proceder de dos modos:
a. Mediante: e6 ! = e6 eì = 2ì = ì, es decir, ì = e6 !
b. Calculando los elementos o7& = x& · }<
Comentarios
• Puede hacer arreglos para que las entradas diagonales de ì sean positivas. Si cual-
quier o&& < 0, simplemente sustituya ñ& por −ñ& y o&& por −o&& .
• El requisito de que ! tenga columnas linealmente independientes es necesario. Para
probar esto, suponga que ! es una matriz de W x " que tiene una factorización eì.
Entonces, dado que ì es invertible, se tiene e = !ì$! . Por tanto, o\"êU(e) =
o\"êU(!). Pero o\"êU(e) = ", pues sus columnas son ortonormales y, en
_______________________________________________________________________________________________
© Ignacio García-Juliá · Ricardo Visiers Bañón · 2020 27
Álgebra 5..Valores propios. Diagonalización de matrices
_________________________________________________________________________________________________________________
de modo que:
Sabemos que ! = eì para alguna matriz triangular superior ì. Para encontrar ì, use el
hecho de que e tiene columnas ortonormales y, en consecuencia, e6 e = 2. Por tanto:
e6 ! = e6 eì = 2ì = ì
o7& = x& · }7
1 1 1 1
o!! = x! · }! = (1, −1, −1, 1) · • , − , − , Ä = 1 + 1 + 1 + 1 = 2
2 2 2 2
_______________________________________________________________________________________________
© Ignacio García-Juliá · Ricardo Visiers Bañón · 2020 28
Álgebra 5..Valores propios. Diagonalización de matrices
_________________________________________________________________________________________________________________
1 1 1 1 1 1
o!" = x" · }! = (2, 1, 0, 1) · • , − , − , Ä = 1 − + 0 + = 1
2 2 2 2 2 2
1 1 1 1 1 1
o!* = x* · }! = (2, 2, 1, 2) · • , − , − , Ä = 1 − 1 − + 1 =
2 2 2 2 2 2
√6 √6 √6 2√6 √6 2√6 √6
o** = x* · }* = (2, 2, 1, 2) · Å− , 0, , Ç=− +0+ + =
6 6 3 6 6 3 2
§
Ejemplo 19. Encontrar la factorización QR de la matriz del ejemplo anterior usando MATLAB
Solución
% El algoritmo de factorización QR en MATLAB es distinto para el
% cálculo numérico que para el cálculo simbólico. Aunque los resultados
% que presenta son correctos, difieren entre sí. Aquí usaremos el
% algoritmo del cálculo simbólico para que los resultados coincidan
% con la resolución del ejemplo 17.
clc, clear
A = [1 2 2;
-1 1 2;
-1 0 1;
1 1 2]
[Q R] = qr(A)
%{
Q =
[ 1/2, (3*5^(1/2))/10, -(2^(1/2)*3^(1/2))/6, (2^(1/2)*15^(1/2))/15]
[-1/2, (3*5^(1/2))/10, 0, -(2^(1/2)*15^(1/2))/10]
[-1/2, 5^(1/2)/10, (2^(1/2)*3^(1/2))/6, (2*2^(1/2)*15^(1/2))/15]
[ 1/2, 5^(1/2)/10, (2^(1/2)*3^(1/2))/3, -(2^(1/2)*15^(1/2))/30]
R =
[ 2, 1, 1/2]
[ 0, 5^(1/2), (3*5^(1/2))/2]
[ 0, 0, (2^(1/2)*3^(1/2))/2]
[ 0, 0, 0]
%}
_______________________________________________________________________________________________
© Ignacio García-Juliá · Ricardo Visiers Bañón · 2020 29