Algebra Capitulo 05 Diagonalizacion

Descargar como pdf o txt
Descargar como pdf o txt
Está en la página 1de 29

Álgebra 5..Valores propios.

Diagonalización de matrices
_________________________________________________________________________________________________________________

5 Valores propios. Diagonalización de matrices


1 1
2 1
3 1
4 1
5 Valores propios. Diagonalización de matrices .................................................................................... 1
5.1 Valores y vectores propios ................................................................................................................ 1
Subespacios propios ................................................................................................................ 1
Cálculo de valores y vectores propios .................................................................................. 2
Invariancia del polinomio característico............................................................................... 8
5.2 Diagonalización .................................................................................................................................. 9
5.3 Matrices simétricas y diagonalización ortogonal......................................................................... 13
Espacios con producto escalar ............................................................................................. 13
Matrices simétricas ................................................................................................................ 17
Matrices ortogonales.............................................................................................................. 18
Propiedad de las matrices simétricas .................................................................................. 21
Diagonalización ortogonal.................................................................................................... 22
Diagonalización ortogonal de matrices simétricas ........................................................... 22
5.4 Factorización QR ............................................................................................................................... 25

5.1 Valores y vectores propios

Definición 1 Sea ! una matriz " $ ". Se dice que el escalar % es un valor propio (o autovalor) de ! si existe
un vector &, no nulo, tal que:
'& = )&
Y se dice que ese vector & es un vector propio (o autovector) de ! asociado al valor propio
%.

Nota. El vector cero no se admite como vector propio. Si admitiéramos como vector propio
al vector cero, la definición carecería de sentido, ya que !* = %* es cierto para todo valor
real de %. Como valor propio % = 0 sí es posible.

Subespacios propios

Si % es un valor propio de !, una matriz de " $ " , y & es un vector propio asociado a %, todo
múltiplo escalar no nulo de & es también vector propio de ! asociado a %.
Esto puede probarse llamando , al escalar no nulo, sin más que hacer:

!(,&) = ,(!&) = ,(%&) = %(,&)

Además, si &! , &" son vectores propios asociados a un mismo valor propio %, su suma es
también vector propio asociado a %, porque:

!(&! + &" ) = !&! + !&" = %&! + %&" = %(&! + &" )

_______________________________________________________________________________________________
© Ignacio García-Juliá · Ricardo Visiers Bañón · 2020 1
Álgebra 5..Valores propios. Diagonalización de matrices
_________________________________________________________________________________________________________________

En otras palabras, el conjunto de vectores propios de ! asociados a un valor propio dado %,


junto con el vector cero, es un subespacio de ℝ# , denominado subespacio propio de %.

Cálculo de valores y vectores propios

Para calcular los valores y vectores propios de una matriz !, de tamaño " $ ", sea 2# la ma-
triz identidad " $ ". La ecuación !& = %&, escrita en la forma %2# & = !&, produce la ecuación
vectorial:
(%2 − !)& = *

Este sistema homogéneo de ecuaciones tiene soluciones no nulas si, y sólo si, la matriz de
coeficientes (%2 − !) es no invertible, esto es, si y sólo si, el determinante de (%2 − !) es cero.
Este resultado se enuncia en el siguiente teorema:

Teorema 1 Sea ! una matriz " $ ".


1. Un escalar % es valor propio de ! si, y sólo si
det(%2 − !) = 0
2. Los vectores propios de ! asociados a % son las soluciones no nulas de:
(%2 − !)& = *

La ecuación det(%2 − !) = 0 se llama ecuación característica de !. Si se desarrolla en forma


de polinomio:

|%2 − !| = %# + ,#$! %#$! + ⋯ + ,! % + ,%

se llama polinomio característico de !.


Esta definición nos dice que los valores propios de una matriz ! son las raíces del polinomio
característico de !. Si ! es " $ ", su polinomio característico es de grado ", de lo que se
concluye que ! tiene, a lo sumo, " valores propios distintos.
Nota. El teorema fundamental del Álgebra afirma que en polinomio de grado " tiene exac-
tamente " raíces. Sin embargo estas " raíces incluyen tanto raíces repetidas como posibles
raíces complejas. Nosotros sólo nos ocuparemos de las raíces reales de los polinomios ca-
racterísticos, es decir, de los valores propios reales.

Ejemplo 1. Hallar los valores propios y los correspondientes vectores propios para la matriz

2 −12
!=9 =
1 −5

Solución

El polinomio característico de ! es:

_______________________________________________________________________________________________
© Ignacio García-Juliá · Ricardo Visiers Bañón · 2020 2
Álgebra 5..Valores propios. Diagonalización de matrices
_________________________________________________________________________________________________________________

|%2 − !| = >% − 2 12
> = (% − 2)(% + 5)— 12 = %" + 3% − 10 + 12 = %" + 3% + 2
−1 % + 5

Igualando el polinomio a cero, obtenemos las dos raíces:

%" + 3% + 2 = (% + 1)(% + 2)

es decir, los dos valores propios son %! = −1 y %" = −2.


Para hallar los vectores propios asociados, usamos eliminación de Gauss-Jordan con el fin
de resolver el sistema lineal homogéneo

(%2 − !)& = *

dos veces, primero para % = %! = −1 y después para % = %" = −2.

Para % = %! = −1 la matriz de coeficientes es:

−1 − 2 12 −2 12
(−1)2 − ! = 9 ==9 =
−1 −1 + 5 −1 4

que se reduce por filas a:

1 −4
9 =
0 0

Por tanto $! − 4$" = 0. Haciendo $" = B, concluimos que todo vector propio asociado a %! =
−1 es de la forma:

$! 4B 4
& = 9$ = = 9 = = B 9 = , B ≠ 0
" B 1

Para % = %" = −2, se tiene:

−2 − 2 12 −4 12 1 −3
(−2)2 − ! = 9 ==9 =⟶9 =
−1 −2 + 5 −1 3 0 0

Haciendo $" = B, concluimos que todo vector propio asociado a %" = −2 es de la forma:

$! 3B 3
& = 9$ = = 9 = = B 9 = , B ≠ 0
" B 1
§
Los sistemas homogéneos que aparecen al buscar vectores propios siempre se reduce, me-
diante operaciones elementales por filas, a una matriz con al menos una fila de ceros, ya
que el sistema debe tener soluciones no triviales.

Procedimiento de cálculo de valores propios

_______________________________________________________________________________________________
© Ignacio García-Juliá · Ricardo Visiers Bañón · 2020 3
Álgebra 5..Valores propios. Diagonalización de matrices
_________________________________________________________________________________________________________________

Sea ! una matriz " $ ".


1. Escribir la ecuación característica det(%2 − !) = 0, que será una ecuación polinó-
mica de grado " en la variable %.
2. Hallar las raíces reales de la ecuación característica. Esos son los valores propios de
!.
3. Para cada valor propio %& , hallar los vectores propios asociados, resolviendo el sis-
tema homogéneo (%& 2 − !)& = *. Esto exige reducir por filas una matriz " $ ". La
matriz escalonada resultantes debe tener, al menos, una fila de ceros.

Calcular los valores propios de una matriz suele ser difícil, porque requiere factorizar un
polinomio de grado ". Ahora bien, una vez encontrado un valor propio, el cálculo de los
vectores propios asociados es un ejercicio sencillo, de aplicación de la reducción de Gauss-
Jordan.
Ejemplo 2. Hallar los valores propios y los vectores propios de la matriz del ejemplo 1 con MATLAB
Solución
2 −12
!=9 =
1 −5

clc, clear

A = [2 -12;
1 -5]

[V, D] = eig(A)

%{
V =
0.9701 0.9487
0.2425 0.3162

D =
-1.0000 0
0 -2.0000
%}

¿Por qué se obtienen unos resultados distintos a los obtenidos en el ejemplo 1? Realmente
son los mismos resultados, pero necesitan una explicación adicional. Empecemos con la
matriz D. Esta es una matriz diagonal que recoge los autovalores de la matriz A (en nuestro
caso, l = -1 y l = -2). La matriz V nos da los autovectores leídos por columnas. MATLAB
nos proporciona estos valores normalizados, es decir, el valor de las componentes dividida
por la distancia euclídea o norma del vector. Esta se define, para un vector v = (x, y) como
‖F‖ = G$ " + H " . En nuestro caso, el primer vector es (4, 1), y su norma √4" + 1" = √17. Por
' !
tanto el autovector normalizado es K , L = (0.9701, 0.2425). El otro autovector o vector
√!) √!)
* !
propio sería K , L = (0.9487, 0.3162).
√!% √!%

Ejemplo 3. Hallar los valores y vectores propios de:

2 1 0
! = O0 2 0P
0 0 2

_______________________________________________________________________________________________
© Ignacio García-Juliá · Ricardo Visiers Bañón · 2020 4
Álgebra 5..Valores propios. Diagonalización de matrices
_________________________________________________________________________________________________________________

Hallar la dimensión del subespacio propio asociado a cada valor propio.

Solución

El polinomio característico de ! es:

%−2 1 0
|%2 − !| = Q 0 %−2 0 Q = (% − 2)*
0 0 %−2

Por tanto la ecuación característica es (% − 2)* = 0

Así pues, el único valor propio es % = 2. Para hallar los vectores propios asociados, resolve-
mos el sistema homogéneo (22 − !)& = *.

0 −1 0
22 − ! = O0 0 0P
0 0 0

Esto implica que $" = 0. Usando los parámetros $! = R y $* = B, vemos que los vectores
propios son de la forma:

$! R 1 0
& = O$" P = S0T = R O0P + B O0P , R, B "U RVWXYBá"[\W["B[ "XYUR
$* B 0 1

Como % = 2 tiene dos vectores propios linealmente independientes, la dimensión de su


subespacio propio es 2.
§
Si un valor propio %! es raíz múltiple (] veces) del polinomio característico, se dice que %!
tiene multiplicidad ]. Eso significa que (% − %! )+ es un factor del polinomio característico,
pero que (% − %! )+,! no lo es.
Siempre ocurre que la multiplicidad de un valor propio es mayor o igual que la dimensión
de su subespacio propio.
Ejemplo 4. Repetir el problema 3 con MATLAB

_______________________________________________________________________________________________
© Ignacio García-Juliá · Ricardo Visiers Bañón · 2020 5
Álgebra 5..Valores propios. Diagonalización de matrices
_________________________________________________________________________________________________________________

Solución
clc, clear

A = [2 1 0;
0 2 0;
0 0 2]

[V, D] = eig(A)

%{
V =
1 -1 0
0 0 0
0 0 1
D =
2 0 0
0 2 0
0 0 2
%}
% Para ver si los vectores de V son linealmente independientes...

rangoV = rank(V) % y devuelve 2. Por tanto, hay un vector que es una


% combinación lineal (columna 2 = -1 *columna 1)

% los vectores propios serán entonces:

v1 = V(:, 1)' % Y la dimensión del subespacio propio


V2 = V(:, 3)' % asociado a cada valor propio será 2

¨
Ejemplo 5. Hallar los valores propios de:

1 0 0 0
0 1 5 −10
!=^ _
1 0 2 0
1 0 0 3

y una base de cada uno de los subespacios propios.

Solución

El polinomio característico de ! es:


%−1 0 0 0
0 % − 1 −5 10
|%2 − !| = ` ` = (% − 1)" (% − 2)(% − 3)
−1 0 %−2 0
−1 0 0 %−3

Por tanto, la ecuación característica es (% − 1)" (% − 2)(% − 3) = 0, luego ! tiene como valo-
res propios %! = 1, %" = 2 y %* = 3, siendo %! de multiplicidad 2.

Podemos hallar una base del subespacio propio asociado a %! = 1 como sigue:

0 0 0 0 1 0 0 2
0 0 −5 10 0 0 1 −2
12 − ! = ^ _⟶^ _
−1 0 −1 0 0 0 0 0
−1 0 0 −2 0 0 0 0

_______________________________________________________________________________________________
© Ignacio García-Juliá · Ricardo Visiers Bañón · 2020 6
Álgebra 5..Valores propios. Diagonalización de matrices
_________________________________________________________________________________________________________________

Haciendo $" = R y $' = B, obtenemos:

$! −2B 0 −2
$" R 1 0
& = ^$ _ = ^ _ = a^ _ + B^ _
* 2B 0 2
$' B 0 1

Por consiguiente, una base del subespacio propio de %! = 1 viene dada por:

b! = {(0, 1, 0, 0), (−2, 0, 2, 1)}

Para los subespacios propios de %" = 2 y %* = 3, se obtienen, de manera análoga, las bases:

b" = {(0, 5, 1, 0)}


b* = {(0, −5, 0, 1)}
§
Ejemplo 6. Repetir el ejemplo anterior utilizando MATLAB
Solución
clc, clear

syms t s

M = [1 0 0 0;
0 1 5 -10;
1 0 2 0;
1 0 0 3]

% Calculamos solo los autovalores. Los autovectores no son necesarios

[~, vp] = eig(M)

% Calculamos (lambda*I – M) para cada uno de los autovalores:

vp11 = vp(1,1)*eye(4) - M;
vp22 = vp(2,2)*eye(4) - M;
vp33 = vp(3,3)*eye(4) - M;
vp44 = vp(4,4)*eye(4) - M;

% Observamos que vp11 y vp44 son iguales. Calcularemos solo una vez

% Reducción por Gauss-Jordan:

GJ11 = rref(vp11);
GJ22 = rref(vp22);
GJ33 = rref(vp33);

% Para GJ11, hacemos x2 = s y x4 = t

BaseLambda1 = s*[0 1 0 0] + t*[-2 0 2 1]

% Para GJ22, x1 = x3 = 0. x2 + 5x4 = 0 y hacemos x4 = t

BaseLambda3 = t*[0 -5 0 1]

% Para GJ33, x3 = t

BaseLambda2 = t*[0 5 1 0]

_______________________________________________________________________________________________
© Ignacio García-Juliá · Ricardo Visiers Bañón · 2020 7
Álgebra 5..Valores propios. Diagonalización de matrices
_________________________________________________________________________________________________________________

Para seguir bien este problema, es conveniente quitar los signos «;» de detrás de cada
cálculo de vp y GJ para presentar los resultados obtenidos en cada paso.
¨
Teorema 2 Si ! es una matriz " $ " triangular, sus valores propios son los elementos de la diagonal
principal.

Invariancia del polinomio característico

Obsérvese que de igual forma podríamos definir que existe una matriz cuadrada inverti-
ble de orden ", e tal que ! = e$! be, bastaría tomar e = f$! , esto motiva que se diga que
A y B son semejantes (sin hacer distinción entre ellas)

Teorema 3 Si ! y b son matrices " $ " semejantes, tienen los mismos valores propios.

Demostración
Puesto que ! y b son semejantes, existe una matriz invertible f tal que b = f$! !f. Por las
propiedades de los determinantes:

|%2 − b| = |%2 − f$! !f| = |f$! %2f − f$! !f| = |f$! (%2 − !)f| = |f$! ||%2 − !||f| =
= |f$! ||f||%2 − !| = |f$! f||%2 − !| = |%2 − !|
Al tener ! y b el mismo polinomio característico, tienen los mismos valores propios.

Advertencias:
Nótese que el teorema se verifica en una dirección, es decir, el hecho de que dos matrices
tengan los mismos valores propios no quiere decir que sean semejantes.
Puede verificarse con las matrices:
2 1 2 0
!=9 =yb=9 =
0 2 0 2
Semejanza no es lo mismo que equivalencia por filas. Si A es equivalente por filas a B, en-
tonces b = g! para alguna matriz E invertible. En general las operaciones por filas en una
matriz modifican los valores propios.

Matriz semejante
Propiedad

Determinante Matrices semejantes tienen el mismo determinante


Existencia de in- Si una matriz B invertible es semejante a otra A, entonces A
versa también es invertible
Rango Matrices semejantes tienen el mismo rango
Nulidad Matrices semejantes tienen la misma nulidad
Traza Matrices semejantes tienen la misma traza (suma de los ele-
mentos de la diagonal principal)
Polinomio carac- Matrices semejantes tienen el mismo polinomio característico
terístico
Autovalores Matrices semejantes tienen los mismos autovalores

_______________________________________________________________________________________________
© Ignacio García-Juliá · Ricardo Visiers Bañón · 2020 8
Álgebra 5..Valores propios. Diagonalización de matrices
_________________________________________________________________________________________________________________

Dimensión de Subespacios propios asociados a los mismos autovalores de


subespacios pro- matrices semejantes, tienen la misma dimensión
pios

5.2 Diagonalización

Definición 2 Matriz diagonalizable


Se dice que una matriz ! de tamaño " $ " es diagonalizable si es semejante a una matriz
diagonal. Es decir, ! es diagonalizable si existe una matriz invertible f tal que:

f$! !f

es una matriz diagonal.

Teorema 4 Criterio de diagonalización


! es una matriz " $ " diagonalizable si, y sólo si, tiene " vectores propios linealmente inde-
pendientes.

Demostración
Supongamos que ! es diagonalizable. En tal caso, existe una matriz invertible f tal que h =
f$! !f, es diagonal. Denotando los elementos diagonales de h por %! , %" , … , %# y los vectores
columna de f por j! , j" , … , j# , se tiene:

%! 0 ⋯ 0
0 %" ⋯ 0
[fh] = [j! ⋮ j" ⋮ ⋯ ⋮ j# ] ^ _ = [%! j! ⋮ %" j" ⋮ ⋯ ⋮ %# j# ]
⋮ ⋮ ⋮ ⋮
0 0 ⋯ %#

De f$! !f = h se sigue !f = fh, lo cual implica que:

[!j! ⋮ !j" ⋮ ⋯ ⋮ !j# ] = [%! j! ⋮ %" j" ⋮ ⋯ ⋮ %# j# ]

en otras palabras, !j& = %& j& para cada vector columna j& . Así pues, los vectores columna
j& son vectores propios de !. Además, al ser f invertible, sus vectores columna son lineal-
mente independientes. Por tanto ! tiene " vectores propios linealmente independientes.
Recíprocamente, supongamos que ! tiene " vectores propios linealmente independientes
j! , j" , … , j# con valores propios correspondientes %! , %" , … , %# . Sea f la matriz cuyas colum-
nas son esos " vectores propios, es decir, f = [j! ⋮ j" ⋮ ⋯ ⋮ j# ]. Como cada vector j& es vec-
tor propio de !, se tiene !j& = %& j& , así que:

%! 0 ⋯ 0
0 %" ⋯ 0
!f = [j! ⋮ j" ⋮ ⋯ ⋮ j# ] ^ _ = fh
⋮ ⋮ ⋮ ⋮
0 0 ⋯ %#

_______________________________________________________________________________________________
© Ignacio García-Juliá · Ricardo Visiers Bañón · 2020 9
Álgebra 5..Valores propios. Diagonalización de matrices
_________________________________________________________________________________________________________________

Finalmente, puesto que los vectores j! , j" , … , j# , son linealmente independientes, f es in-
vertible, y podemos escribir la ecuación !f = fh como f$! !f = h, lo que significa que !
es diagonalizable.

Consecuencia del teorema anterior es que para que una matriz sea diagonalizable la multi-
plicidad de cada autovalor (multiplicidad aritmética) debe coincidir con la dimensión del
subespacio propio asociado (multiplicidad geométrica)

Procedimiento para la diagonalización de una matriz n & n


Sea ! una matriz " $ ".
1. Hallar " vectores propios linealmente independientes j! , j" , … , j# de ! asociados
a los valores propios %! , %" , … , %# . Si no existen " vectores propios linealmente inde-
pendientes, ! no es diagonalizable.
2. Si ! tiene " vectores propios linealmente independientes, sea f la matriz " $ " for-
mada por esos vectores propios como columnas, o sea:
f = [j! ⋮ j" ⋮ ⋯ ⋮ j# ]
$!
3. La matriz diagonal h = f !f tendrá los valores propios %! , %" , … , %# en su diagonal
principal (y ceros fuera de esa diagonal). El orden de los vectores propios determina
el orden en que aparecen los valores propios en la diagonal de h.

Ejemplo 7. Probar que la matriz:


1 −1 −1
!=O 1 3 1P
−3 1 −1

es diagonalizable y hallar una matriz f tal que f$! !f sea diagonal.

Solución

El polinomio característico de ! es:

% − 1 −1 −1
|%2 − !| = Q 1 %−3 1 Q = (% − 2)(% + 2)(% − 3)
−3 1 %+1

luego los valores propios de ! son %! = 2, %" = −2, y %* = 3. Usando estos valores propios,
se obtienen, para cada caso, la forma escalonada reducida y los vectores propios asociados:

1 1 1 1 0 1 −1
22 − ! = O−1 −1 −1P ⟶ O0 1 0P ⟶ F[,BUo poUpVU: O 0 P
3 −1 3 0 0 0 1
−3 1 1 1 0 −1/4 1
−22 − ! = O−1 −5 −1P ⟶ O0 1 1/4 P ⟶ F[,BUo poUpVU: O−1P
3 −1 −1 0 0 0 4
2 1 1 1 0 1 −1
32 − ! = O−1 0 −1P ⟶ O0 1 −1P ⟶ F[,BUo poUpVU: O 1 P
3 −1 4 0 0 0 1

_______________________________________________________________________________________________
© Ignacio García-Juliá · Ricardo Visiers Bañón · 2020 10
Álgebra 5..Valores propios. Diagonalización de matrices
_________________________________________________________________________________________________________________

Formamos la matriz f que tiene por columnas los vectores propios obtenidos:

−1 1 −1
f = O 0 −1 1 P
1 4 1

Esta matriz es no singular, de modo que los vectores propios son linealmente independien-
tes y ! es diagonalizable. La inversa de f es:
−1 −1 0
f$! = O1/5 0 1/5P
1/5 1 1/5
Luego:
2 0 0
f$! !f = O0 −2 0P
0 0 3

§
Ejemplo 8. Probar que la matriz:
1 0 0 0
0 1 5 −10
!=^ _
1 0 2 0
1 0 0 3

es diagonalizable y hallar una matriz f tal que f$! !f sea diagonal usando MATLAB.
clc, clear

A = [1 0 0 0;
0 1 5 -10;
1 0 2 0;
1 0 0 3]

[P, ~] = eig(A) % Obtenemos la matriz de autovectores

Pinv = round(inv(P)) % Inversa de la matriz de autovectores

D = round(Pinv*A*P). % P-1*A*P es una matriz diagonal (los autovalores)

¨
Teorema 5 . Condición suficiente para la diagonalización
Si ! es una matriz " $ " con " valores propios distintos, los vectores propios asociados son
linealmente independientes y ! es diagonalizable

Demostración
Sean %! , %" , … , %# los " valores propios distintos de ! y &! , &" , … , &# los vectores propios aso-
ciados. Para empezar, supongamos que estos vectores propios fueran linealmente depen-
dientes. Además tomemos los vectores propios ordenados de manera que los W primeros
sean linealmente independientes, pero los W + 1 primeros sean linealmente dependientes,
donde W < ".
Entonces &-,! se puede escribir como combinación lineal de los primeros W vectores pro-
pios:

_______________________________________________________________________________________________
© Ignacio García-Juliá · Ricardo Visiers Bañón · 2020 11
Álgebra 5..Valores propios. Diagonalización de matrices
_________________________________________________________________________________________________________________

&-,! = ,! &! + ," &" + ⋯ + ,- &- (1)

donde no todos los ,& son cero. Aplicando a ambos lados de la igualdad la matriz ! resulta:

!&-,! = !,! &! + !," &" + ⋯ + !,- &- ⟹ %-,! &-,! = %! ,! &! + %" ," &" + ⋯ + %- ,- &- (2)

Mientras que multiplicando la ecuación (1) por %-,! , se obtiene:

%-,! &-,! = ,! %-,! &! + ," %-,! &" + ⋯ + ,- %-,! &- (3)

restando (2)-(3), obtenemos:

,! (%-,! − %! )&! + ," (%-,! − %" )&" + ⋯ + ,- (%-,! − %- )&- = *

que al ser linealmente independientes los W primeros vectores propios, permite concluir
que todos los coeficientes de esta ecuación son cero, esto es:

,! (%-,! − %! ) = ," (%-,! − %" ) = ⋯ = ,- (%-,! − %- ) = 0

Como todos los valores propios son distintos, se sigue que ,& = 0, V = 1, 2, … , W. Pero este
resultado contradice nuestra hipótesis de que &-,! se puede escribir como combinación
lineal de los W primeros vectores propios. Por tanto, el conjunto de los vectores propios es
linealmente independiente y, por el teorema anterior, ! es diagonalizable.
Nota. La condición del teorema anterior es suficiente, pero no necesaria, para que la matriz
sea diagonalizable. En otras palabras, los valores propios de una matriz diagonalizable no
tienen por qué ser todos distintos.

Matrices cuyos valores propios no son diferentes


Cuando ! es diagonalizable, pero tiene menos de " valores propios diferentes, sigue siendo
posible construir f en una forma que la hace automáticamente invertible, como lo demues-
tra el siguiente teorema

Teorema 6 Sea ! una matriz de orden " con p < " autovalores distintos %! , %" , … , %.
a) Para 1 ≤ ] ≤ p, la dimensión del espacio propio %+ (multiplicidad geométrica) es
menor o igual que la multiplicidad del valor propio (multiplicidad aritmética).
b) La matriz ! es diagonalizable si y solo si:
i. Se factoriza completamente el polinomio característico en factores lineales
ii. La dimensión del espacio propio para cada %+ es igual a la multiplicidad
de %+
c) Si ! es diagonalizable, y b+ es una base para el espacio propio asociado a %+ para
cada ], entonces el conjunto de vectores resultante de unir las bases b! , b" , … , b.
forma una base de vectores propios para ℝ# .

Algunas propiedades a tener en cuenta

_______________________________________________________________________________________________
© Ignacio García-Juliá · Ricardo Visiers Bañón · 2020 12
Álgebra 5..Valores propios. Diagonalización de matrices
_________________________________________________________________________________________________________________

1. La traza de una matriz es un invariante por semejanza, por lo tanto, una vez calcu-
lados los autovalores podemos comprobar que su suma es igual a la traza de la
matriz.
2. Si todos los autovalores obtenidos tienen multiplicidad uno, entonces la matriz es
diagonalizable.
3. Para evitar calcular inversas una vez obtenidas h y f en lugar de calcular f$! !f =
h podemos calcular fh = !f.
4. Una matriz y su traspuesta tienen los mismos autovalores.
5. Si % es autovalor de una matriz !, ]% será autovalor de la matriz ]!
6. Si % es autovalor de una matriz !, y ] un escalar cualquiera, entonces (% − ]) será
un autovalor de la matriz (! − ]2).
7. Si % es un autovalor de la matriz !, entonces 1/% es un autovalor de la matriz !$!
8. !# = fh# f$! , es decir, si ! es diagonalizable, es fácil obtener cualquier potencia
de !

5.3 Matrices simétricas y diagonalización ortogonal

Espacios con producto escalar

5.3.1.1 Definiciones

A continuación, se relacionan una serie de definiciones relativas al espacio vectorial ℝ# do-


tado de un producto escalar, con el fin de aclarar algunos conceptos necesarios para el si-
guiente apartado. El lector puede consultar cualquier libro de Álgebra básica para obtener
las demostraciones de las proposiciones presentadas, así como profundizar en las propie-
dades de los espacios vectoriales euclídeos (con producto escalar).

Si v = (F! , F" , … . , F# ) es un vector de ℝ# :

Su longitud (también llamada norma o 2-norma), denotada por ‖v‖, se define como:

‖v‖ = wF!" + F"" + ⋯ + F#"

/
El vector x = ‖1‖ tiene longitud 1 y la misma dirección de v. Este vector x se llama vector
unitario en la dirección de F.

La distancia entre dos vectores x y v de ℝ# es: y(x, v) = ‖x − v‖

El producto escalar de x = (X! , X" , … , X# ) y v = (F! , F" , … , F# ) es la cantidad escalar:

x · v = X! · F! + X" · F" + ⋯ + X# · F#

_______________________________________________________________________________________________
© Ignacio García-Juliá · Ricardo Visiers Bañón · 2020 13
Álgebra 5..Valores propios. Diagonalización de matrices
_________________________________________________________________________________________________________________

Dos vectores x y v de ℝ# son ortogonales si x · v = 0

5.3.1.2 Conjuntos ortogonales

Un conjunto { de vectores de un espacio | con un producto escalar es ortogonal si todo par


de vectores en { es ortogonal. Si, además, cada uno de los vectores de { es unitario, se dice
que { es ortonormal.

Los conjuntos ortogonales son linealmente independientes


Sea { = {v! , v" , … , v# } un conjunto de vectores en un espacio con producto escalar. Si { es
ortogonal, entonces es linealmente independiente.
Si | es un espacio vectorial con producto escalar de dimensión ", cualquier conjunto orto-
gonal de " vectores no nulos, es una base de |.

Teorema 7 Un conjunto ortonormal de vectores de ℝ# es linealmente independiente, por lo tanto todo


conjunto ortonormal de n vectores de ℝ# es una base para ℝ# .
Ahora bien, si { = {x! , x" , … , x# } es una base ortonormal para ℝ# y v un vector cualquiera
de ℝ# , entonces:
v = ,! x! + ," x! , + ⋯ + ,2 x#
Donde: ,3 = v · x3 (1 ≤ V ≤ ")

Corolario
Sean { = {x! , x" , … , x# } una base ortogonal para ℝ# y v un vector cualquiera de ℝ# , enton-
ces:
v = ,! x! + ," x! , + ⋯ + ,2 x#
Donde:
v · x&
,& =
x& · x&

Ejemplo 9. Sea { = {x! , x" , x* } una base ortonormal de ℝ* , donde:


" ! " " ! " ! " "
x! = K* , − * , *L, x" = K* , * , − *L, x* = K* , * , *L
Escribir el vector v = (3, 4, 5) como combinación lineal de los vectores de {

Solución
v = ,! x! + ," x" + ,* x*
donde:
,! = v · x! = 1,
," = v · x" = 0,
,* = v · x* = 7
con lo cual:
v = x! + 7x*

5.3.1.3 Método de normalización de Gram-Schmidt

Sea b = {v! , v" , … , v# } una base de un espacio | con producto escalar.


Sea b4 = {}! , }" , … . , }# }, donde los }& vienen dados por:

_______________________________________________________________________________________________
© Ignacio García-Juliá · Ricardo Visiers Bañón · 2020 14
Álgebra 5..Valores propios. Diagonalización de matrices
_________________________________________________________________________________________________________________

}! = v!
v" · }!
}" = v" − }
}! · }! !
v* · }! v* · }"
}* = v* − } − }
}! · }! ! }" · }" "


v# · }! v# · }" v# · }#$!
}# = v# − } − } − ⋯− }
}! · }! ! }" · }" " }#$! · }#$! #$!

Entonces b′ es una base ortogonal de |.

5
Llamando x& = ‖5!‖, el conjunto b′′ = {x! , x" , … , x# } es una base ortonormal de |.
!

5.3.1.4 Interpretación geométrica del método de normalización de Gram-Schmidt


Partiendo de la definición de producto escalar de dos vectores se expresa mediante:
! · # = |!| |#| '() *

De la figura se deduce que:


! · # = |!| |#| '() * = |!| +,(-!
!·# |!| +,(-! +,(-!
!= != !
!·! |!|" |!|
Aplicándolo al proceso de Gram-Schmidt se observa la interpretación geométrica de los diferentes
pasos (en el caso de una base de ℝ# ).
Partiendo de una base cualquierade vectores de ℝ$ no ortogonales 1 = {#% , #& , ## }

Primer paso: 5% = #%

_______________________________________________________________________________________________
© Ignacio García-Juliá · Ricardo Visiers Bañón · 2020 15
Álgebra 5..Valores propios. Diagonalización de matrices
_________________________________________________________________________________________________________________
Segundo paso:
#& · 5%
5& = #& − 5
5% · 5% %

Tercer paso:
## · 5% ## · 5&
5# = ## − 5 − 5
5% · 5% % 5& · 5& &

Ejemplo 10. Aplicar el método de ortonormalización de Gram-Schmidt a la siguiente base de ℝ" :


b = {(1, 1), (0, 1)}

Solución

Tomamos:
}! = v! = (1, 1)
v" · }! 1 1 1
}" = v" − }! = (0, 1) − (1, 1) = •− , Ä
}! · }! 2 2 2

El conjunto b4 = {}! , }" } es una base ortogonal de ℝ" . Normalizando cada vector de b4
obtenemos:

}! 1 √2 √2
x! = = (1, 1) = Å , Ç
‖}! ‖ √2 2 2
}" 1 1 1 √2 √2
x" = = •− , Ä = Å− , Ç
‖}" ‖ 1É 2 2 2 2
√2

Por tanto, b′′ = {x! , x" } es una base ortonormal de ℝ" .


§

_______________________________________________________________________________________________
© Ignacio García-Juliá · Ricardo Visiers Bañón · 2020 16
Álgebra 5..Valores propios. Diagonalización de matrices
_________________________________________________________________________________________________________________
Ejemplo 11. Aplicar el método de ortonormalización de Gram-Schmidt a la siguiente base de ℝ" :
b = {(1, 1), (0, 1)}

Solución
v1 = [1 1]

v2 = [0 1]

w1 = v1;

% La función dot() realiza el producto escalar de dos vectores

w2 = v2 - (dot(v2, w1)/dot(w1, w1))*w1

% {w1, w2} es una base ortogonal de R2.

% Normalizamos ambos vectores. Usamos la función norm() para calcular


% la norma o distancia de los vectores.

u1 = w1/norm(w1)

u2 = w2/norm(w2)

% {u1, u2} es una base ortonormal de R2.

% Existe una forma directa de hacer esto con MATLAB: Función orth()
% Debemos crear una matriz A con los vectores v1 y v2 POR COLUMNAS.

A = [1 0;
1 1]

% Declaramos simbólica la matriz A:

A = sym(A);

% Calculamos la ortonormalización de A:

B = orth(A)

%Cuyo resultado es:


%{
B =
[ 2^(1/2)/2, -2^(1/2)/2]
[ 2^(1/2)/2, 2^(1/2)/2]
Ojo: la base ortonormal es devuelta por columnas.
u1 = (2^(1/2)/2, 2^(1/2)/2)
u2 = (-2^(1/2)/2, 2^(1/2)/2)
%}

Matrices simétricas

Recordemos que una matriz cuadrada ! es simétrica si es igual a su traspuesta: ! = !6 .

Teorema 8 Sea ! una matriz " $ " simétrica. Entonces:


_______________________________________________________________________________________________
© Ignacio García-Juliá · Ricardo Visiers Bañón · 2020 17
Álgebra 5..Valores propios. Diagonalización de matrices
_________________________________________________________________________________________________________________

1. ! es diagonalizable
2. Todos los valores propios de ! son reales
3. Si % es un valor propio de ! de multiplicidad ], hay ] vectores propios de ! asocia-
dos a % y linealmente independientes. En otras palabras, el subespacio propio de %
tiene dimensión ].

Este teorema se conoce como teorema espectral real, y el conjunto de todos los valores pro-
pios de ! se llama el espectro de !.

Ejemplo 12. Hallar los valores propios de la matriz simétrica:

1 −2 0 0
−2 1 0 0
!=^ _
0 0 1 −2
0 0 −2 1

y determinar las dimensiones de los subespacios propios correspondientes.

Solución

El polinomio característico de ! viene dado por:

%−1 2 0 0
2 % − 1 0 0
|%2 − !| = ^ _ = (% + 1)" + (% − 3)"
0 0 %−1 2
0 0 2 %−1

Así pues, los valores propios de ! son %! = −1 y %" = 3. como ambos tienen multiplicidad
2, sabemos que sus correspondientes subespacios propios tienen dimensión 2.

En concreto, el subespacio propio de %! = −1 admite como base b! = {(1, 1, 0, 0), (0, 0, 1, 1)}
y el subespacio propio de %" = 3 admite como base b" = {(1, −1, 0, 0), (0, 0, 1, −1)}.
§

Matrices ortogonales

Una matriz cuadrada f se dice que es ortogonal si, y sólo si, es invertible y f$! = f6 .

Teorema 9 Propiedad de las matrices ortogonales


Una matriz cuadrada f es ortogonal si, y sólo si, sus vectores columna forman un conjunto
ortonormal

Demostración
Supongamos que los vectores columna de f forman un conjunto ortonormal:

_______________________________________________________________________________________________
© Ignacio García-Juliá · Ricardo Visiers Bañón · 2020 18
Álgebra 5..Valores propios. Diagonalización de matrices
_________________________________________________________________________________________________________________
p!! p!" ⋯ p!#
p"! p"" ⋯ p"#
f = [j! ⋮ j" ⋮ ⋯ ⋮ j# ] = ^ ⋮ ⋮ ⋯ ⋮ _
p#! p#" ⋯ p##

Entonces el producto f6 f tiene la forma:

p!! p"! ⋯ p#! p!! p!" ⋯ p!#


6
p!" p"" ⋯ p#" p"! p"" ⋯ p"#
f f=^ ⋮ ⋮ ⋯ ⋮ _^ ⋮ ⋮ ⋯ ⋮ _=
p!# p"# ⋯ p## p#! p#" ⋯ p##

j! · j! j! · j" ⋯ j! · j#
j" · j! j" · j" ⋯ j" · j#
=^ ⋮ ⋮ ⋯ ⋮ _ (1)
j# · j! j# · j" ⋯ j# · j#

Como el conjunto {j! , j" , … . , j# } es ortonormal, se tiene:

j& · j7 = 0, V ≠ Ñ y j& · j& = ‖j& ‖8 = 1

Por lo tanto, la matriz compuesta por los productos escalares (1) es:

1 0 ⋯ 0
0 1 ⋯ 0
f6 f = ^ _ = 2#
⋮ ⋮ ⋯ ⋮
0 0 ⋯ 1

Esto implica que f6 = f$! , luego f es ortogonal.


Recíprocamente, si f es ortogonal, podemos invertir los pasos del razonamiento anterior
para demostrar que los vectores columna de f forman un conjunto ortogonal.

Ejemplo 13. Probar que la matriz:


1/3 2/3 2/3
⎡ −2 1 ⎤
0 ⎥
f = ⎢⎢ É√5 É
√5 ⎥
⎢−2É −4É 5É ⎥
⎣ 3√5 3√5 3√5⎦

es ortogonal verificando que f6 f = 2. A continuación, demostrar que los vectores columna


de f forman un conjunto ortonormal.

Solución

1 2 2 1 −2 −2É
⎡ ⎤ ⎡3 É
√5

3√5⎥
⎢ 3 3 3 ⎢
⎥ ⎢2 1 0 0

ff6 = ⎢ −2É 1É 0 ⎥⎢ 1É −4É
⎥ = O0 1 0P = 2*
⎢ √5 √5 ⎥ ⎢3 √5 3√5⎥ 0 0 1
⎢−2 −4 5 ⎥ ⎢2 ⎥
⎣ É3√5 É É 0 5É
3√5 3√5⎦ ⎣3 3√5 ⎦

_______________________________________________________________________________________________
© Ignacio García-Juliá · Ricardo Visiers Bañón · 2020 19
Álgebra 5..Valores propios. Diagonalización de matrices
_________________________________________________________________________________________________________________

Se sigue que f6 = f$! , luego f es ortogonal.

Además, denotando:

1/3 2/3
⎡ −2 ⎤ ⎡ 1 ⎤ 2/3
j!9 ⎢⎢ É√5 ⎥⎥, j"9 ⎢⎢ É√5 ⎥⎥ , y j*9 ã 0 å

⎢−2É ⎥ ⎢−4É ⎥ 3√5
⎣ 3√5 ⎦ ⎣ 3√5 ⎦

se tiene:
j! · j" = j! · j* = j" · j* = 0
y
‖j! ‖ = ‖j" ‖ = ‖j* ‖ = 1

En consecuencia {j! , j" , j* } es un conjunto ortonormal, tal como afirma el teorema anterior.
§
Ejemplo 14. Repetir el ejemplo anterior haciendo uso de MATLAB

Solución
clc, clear

format long % Formato para dar más precisión a los resultados

P = [ 1/3 2/3 2/3;


-2/sqrt(5) 1/sqrt(5) 0;
-2/(3*sqrt(5)) -4/(3*sqrt(5)) 5/(3*sqrt(5))]

R = round(P * P')

p1 = P(:, 1)';
p2 = P(:, 2)';
p3 = P(:, 3)';

e1 = round(dot(p1, p2));
e2 = round(dot(p1, p3));
e3 = round(dot(p2, p3));

if e1 == 0 && e2 == 0 && e3 == 0
display('Los tres vectores columna de P son ortogonales')
end

n1 = norm(p1);
n2 = norm(p2);
n3 = norm(p3);

if n1 == 1 && n2 == 1 && n3 == 1
display('Además, los tres vectores columna de P son ortonormales')
end

format % Restituye los valores de formato por defecto

_______________________________________________________________________________________________
© Ignacio García-Juliá · Ricardo Visiers Bañón · 2020 20
Álgebra 5..Valores propios. Diagonalización de matrices
_________________________________________________________________________________________________________________

Propiedad de las matrices simétricas

Sea ! una matriz simétrica de tamaño " $ ". Si %! y %" son autovalores distintos de !, en-
tonces sus autovectores correspondientes &! y &" son ortogonales.

Demostración
Sean %! y %" dos valores propios distintos de !, con vectores propios asociados &! y &" . Eso
significa que:

!&! = %! &! y !&" = %" &"

Para demostrar el teorema usaremos la siguiente forma matricial del producto escalar:

$"!
$
&! · &" = [$!! $!" ⋯ $!# ] · ^ "" _ = ç!6 ç"

$"#
Ahora podemos escribir:

%! (&! · &" ) = (%! &! ) · &" = (!&! ) · &" = (!&! ): ç" = (ç!6 !6 )ç" = (ç!6 !)ç" = ç!6 (!ç" )

= ç!6 (%" ç" ) = &! · (%" &" ) = %" (&! · &" )

Eso implica que (%! − %" )(&! · &" ) = 0. Y como %! ≠ %" , concluimos que &! · &" = 0. Por
tanto &! y &" son ortogonales.

Ejemplo 15. Probar que dos vectores propios cualesquiera de la matriz:


3 1
!=9
=
1 3
asociados a dos valores propios distintos son ortogonales.

Solución

El polinomio característico de ! es:

|%2 − !| = 9% − 3 −1 = = (% − 2)(% − 4)
−1 % − 3

luego los valores propios de ! son %! = 2 y %" = 4.

Todo vector propio asociado a %! = 2 es de la forma:

R
&! = 9 =, R≠0
−R

_______________________________________________________________________________________________
© Ignacio García-Juliá · Ricardo Visiers Bañón · 2020 21
Álgebra 5..Valores propios. Diagonalización de matrices
_________________________________________________________________________________________________________________

y todo vector propio asociado a %" = 4 es de la forma:

B
&" = 9 = , B≠0
B

Por tanto:
R B
&! · &" = 9 = 9 = = RB − RB = 0
−R B

de donde se deduce que &! y &" son ortogonales.


§

Diagonalización ortogonal

Una matriz ! es ortogonalmente diagonalizable si existe una matriz ortogonal f tal que
f$! !f = h es diagonal. Las matrices con esa propiedad son precisamente las simétricas, tal
como establece le siguiente teorema.

Teorema 10 Teorema fundamental de las matrices simétricas


Una matriz " $ " es ortogonalmente diagonalizable si, y sólo si, es simétrica.

a) La demostración en una dirección es sencilla. Si ! es ortogonalmente diagonaliza-


ble, existe una matriz ortogonal f tal que f$! !f = h es diagonal. Y al ser f$! = f6 ,
se tiene:

! = fhf$! = fhf6

lo cual implica que:

!6 = (fhf6 )6 = (f6 )6 h6 f6 = fhf6 = !

por tanto ! es simétrica.

b) Supongamos que ! es simétrica y tiene un valor propio % de multiplicidad ], debe


tener ] vectores linealmente independientes (Teorema 8) Usando el método de
Gram-Schmidt podemos formar con ellos una base ortonormal del subespacio pro-
pio de %. Repetimos este proceso para cada uno de los valores propios de !. La
colección resultante de vectores propios es ortogonal (5.3.4) y, por tanto, ortonor-
mal por construcción.
Sea ahora f la matriz que tiene por columnas esos " vectores propios ortonormales.
Por 5.3.4 f es una matriz ortogonal. Finalmente, por el criterio de diagonalización,
concluimos que f$! !f es diagonal. Por tanto ! es ortogonalmente diagonalizable.

Diagonalización ortogonal de matrices simétricas

_______________________________________________________________________________________________
© Ignacio García-Juliá · Ricardo Visiers Bañón · 2020 22
Álgebra 5..Valores propios. Diagonalización de matrices
_________________________________________________________________________________________________________________

Sea ! una matriz " $ " simétrica. El proceso de diagonalización ortogonal de ! es el si-
guiente:
1. Calcular sus valores propios y la multiplicidad de cada uno de ellos.
2. Para cada valor propio de multiplicidad 1, tomar un vector propio unitario (Hallar
cualquier vector propio y normalizarlo).
3. Para cada valor propio de multiplicidad ] ≥ 2, hallar ] vectores propios lineal-
mente independientes (siempre es posible). Si este conjunto no es ortonormal, apli-
carle el método de Gram-Schmidt.
4. Los pasos 2 y 3 producen finalmente un conjunto ortonormal de " vectores propios.
Formar una matriz f que tenga por columnas a esos " vectores propios. La matriz
f$! !f = f6 !f = h será diagonal. (Los elementos de la diagonal principal de h se-
rán los valores propios de !.

Ejemplo 16. Hallar la matriz ortogonal f que diagonalice:

2 2 −2
! = O 2 −1 4 P
−2 4 −1

Solución

1. El polinomio característico de ! es:

|%2 − !| = (% − 3)" (% + 6)

da como valores propios %! = −6 con multiplicidad 1, y %" = 3 con multiplicidad 2.

2. Un vector propio asociado a %! es v! = (1, −2, 2) que, normalizado, se convierte en:

v! 1 2 2
x! = = • ,− , Ä
‖v! ‖ 3 3 3

3. Dos vectores propios asociados a %" son v" = (2, 1, 0) y v* = (−2, 0, 1)

Nótese que v! es ortogonal a v" y v* . Sin embargo v" y v* no son ortogonales entre sí. Para
encontrar dos vectores propios ortonormalizados asociados a %" usamos el método de
Gram-Schmidt:

}" = v" = (2, 1, 0)

v* · }" 2 4
}* = v* − • Ä } = •− , , 1Ä
}" · }" " 5 5

Estos vectores normalizados, pasan a ser:

_______________________________________________________________________________________________
© Ignacio García-Juliá · Ricardo Visiers Bañón · 2020 23
Álgebra 5..Valores propios. Diagonalización de matrices
_________________________________________________________________________________________________________________

}" 2 1
x" = =• , , 0Ä
‖}" ‖ √5 √5

}* −2 4 5
x* = =• , , Ä
‖}* ‖ 3√5 3√5 3√5

4. La matriz f tiene por columnas los vectores x! , x" , x* :

1 2 −2É
⎡ É ⎤
⎢3 √5 3√5⎥
⎢−2 1 4É ⎥
f=⎢ É ⎥
3 √5 3√5
⎢ ⎥
⎢ 2 5É ⎥
0
⎣3 3√5 ⎦

−6 0 0
Es fácil comprobar que f$! !f = f6 !f = O 0 3 0P
0 0 3
§
Ejemplo 17. Hallar la matriz ortogonal f que diagonalice:

2 2 −2
! = O 2 −1 4 P
−2 4 −1
Utilizando MATLAB.

Solución

_______________________________________________________________________________________________
© Ignacio García-Juliá · Ricardo Visiers Bañón · 2020 24
Álgebra 5..Valores propios. Diagonalización de matrices
_________________________________________________________________________________________________________________

clc, clear

syms lambda

A = [ 2 2 -2;
2 -1 4;
-2 4 -1]

A = sym(A);

P = det(lambda*eye(3)- A); % Calculamos el polinomio característico

lambda = solve(P==0); % Valores de lambda

factor(P)

[V, ~] = eig(A) % Matriz de autovectores

% v2 y v3 no son ortogonales:

v2 = V(:, 2);
v3 = V(:, 3);

pe = dot(v2, v3);

if pe ~= 0
display('v2 y v3 no son ortogonales')
end

% Ortonormalización de Gram-Schmidt

w2 = v2;
w3 = v3 - (dot(v3, w2)/dot(w2, w2))*w2;

u1 = V(:, 1);
u2 = w2/norm(w2);
u3 = w3/norm(w3);

% Matriz P:

P = [u1 u2 u3]

5.4 Factorización QR

Si ! es una matriz de W $ " con columnas linealmente independientes (lo que requiere que
W ≥ "), entonces, la aplicación del proceso de Gram-Schmidt a dichas columnas produce
una factorización de ! muy útil que consiste en el producto de una matriz Q con columnas
ortonormales y una matriz triangular superior R denominada factorización QR.

Para ver cómo surge la factorización QR, sean x; , . . . , x2 las columnas (linealmente indepen-
dientes) de ! las cuales forman una base del espacio de columnas de ! , mediante el proceso
Gram-Schmidt podemos obtener una base ortonormal }! , . . . , }2 de vectores ortonormales
para el espacio generado por las columnas de ! . Recordemos cómo se obtiene esta base.
Primero construimos una base ortogonal v! , . . . , v2 como sigue:

v! = x!

y luego para V = 2, 3, … , " tenemos:


_______________________________________________________________________________________________
© Ignacio García-Juliá · Ricardo Visiers Bañón · 2020 25
Álgebra 5..Valores propios. Diagonalización de matrices
_________________________________________________________________________________________________________________

x& · v! x& · v" x& · v#$!


v& = x& − v! − v" − ⋯ − v (1)
v! · v! v" · v" v&$! · v&$! &$!

Por último:

1
}& = ‖1!‖ para V = 1, 2, 3, … , ". Ahora cada uno de los vectores x& se escribe como una com-
!
binación lineal de los vectores }:

x! = o!! }! + o"! }" + ⋯ + o#! }#


x" = o!" }! + o"" }" + ⋯ + o#" }#
⋮ (2)
x# = o!# }! + o"# }" + ⋯ + o## }#

Donde o7& = x& · }< (ver 5.3.1.2)

Además, se observa a partir de (1) que x& están en

ê["(v; , . . . , v3 ) = ê["(}! , . . . , }3 )

Como }< es ortogonal a ê["(}! , . . . , }3 ) para Ñ > V, es ortogonal a x& . Por lo tanto o7& = 0 para
Ñ > V.

Sea e la matriz cuyas columnas son }! , . . . , }< . Sea:

o!7
o"7
í< = ^ ⋮ _
o#7

Entonces, las ecuaciones en (2) pueden escribirse en forma matricial como:

! = [x! x" ⋯ x# ] = [eí! eí" ⋯ eí# ] = eì

Donde ì es la matriz cuyas columnas son í! , í" , … , í# . En consecuencia:

o!! o!" ⋯ o!#


0 o"" ⋯ o"#
ì=^ ⋮ ⋮ ⋱ ⋮ _
0 0 ⋯ o##

A continuación, demostremos que ì es no singular.

_______________________________________________________________________________________________
© Ignacio García-Juliá · Ricardo Visiers Bañón · 2020 26
Álgebra 5..Valores propios. Diagonalización de matrices
_________________________________________________________________________________________________________________

Sea & una solución del sistema lineal ì& = *. Al multiplicar esta ecuación por e a la iz-
quierda, tenemos:

e(ì&) = (eì)& = !& = e* = *

Como sabemos el sistema homogéneo !& = * puede escribirse como:

$! x! + $" x" + ⋯ $# x# = *

donde $! , $" , … , $# son las coordenadas del vector &. Como las columnas de ! son lineal-
mente independientes,

$! = $" = ⋯ = $# = 0

de modo que & debe ser el vector nulo, por lo que la matriz R es no singular.

Claramente, la matriz e tiene columnas ortonormales. También los elementos de la diago-


nal principal de ì son todos distintos de cero. Para ver esto, observe que si o&& = 0, entonces
ï3 es una combinación lineal de ñ! , . . . , ñ3$; y, por tanto, está en ó&$! . Pero entonces ï3 sería
una combinación lineal de ï; , . . . , ï3$; , lo que es imposible, pues ï; , . . . , ï3 son linealmente
independientes. Se concluye que o&& ≠ 0 para V = 1, … ". Dado que ì es triangular superior,
debe ser invertible.
Acaba de probarse el siguiente:

Teorema 11 Sea ! una matriz de W x " con columnas linealmente independientes. Entonces ! puede
factorizarse como ! = eì, donde e es una matriz de W x " con columnas ortonormales y ì
es una matriz triangular superior invertible.

Procedimiento
Dada una matriz ! de W x " con columnas linealmente independientes (o\"êU (!) = "):
1. Obtener una base ortonormal de ,UY(!) mediante el método de Gram-Schmidt.
Los vectores obtenidos forman las columnas de la matriz e.
2. Calcular R . Para ello podemos proceder de dos modos:
a. Mediante: e6 ! = e6 eì = 2ì = ì, es decir, ì = e6 !
b. Calculando los elementos o7& = x& · }<

Comentarios
• Puede hacer arreglos para que las entradas diagonales de ì sean positivas. Si cual-
quier o&& < 0, simplemente sustituya ñ& por −ñ& y o&& por −o&& .
• El requisito de que ! tenga columnas linealmente independientes es necesario. Para
probar esto, suponga que ! es una matriz de W x " que tiene una factorización eì.
Entonces, dado que ì es invertible, se tiene e = !ì$! . Por tanto, o\"êU(e) =
o\"êU(!). Pero o\"êU(e) = ", pues sus columnas son ortonormales y, en

_______________________________________________________________________________________________
© Ignacio García-Juliá · Ricardo Visiers Bañón · 2020 27
Álgebra 5..Valores propios. Diagonalización de matrices
_________________________________________________________________________________________________________________

consecuencia, linealmente independientes. De modo que o\"êU(!) = " también,


y en consecuencia las columnas de ! son linealmente independientes por el teorema
fundamental.
• La factorización eì puede extenderse a matrices arbitrarias en una forma ligera-
mente modificada. Si ! es de W x ", se puede encontrar una secuencia de matrices
ortogonales e! , . . . , e-$! tales que e-$! · … · e" · e! · ! es una matriz triangular su-
perior ì de W x ". Entonces ! = eì, donde e = (e-$! · … · e" · e! )$! es una matriz
ortogonal.

Ejemplo 18. Encontrar la factorización QR de la matriz:


1 2 2
−1 1 2
!=^ _
−1 0 1
1 1 2
Solución

La base ortonormal para ,UY(!) producida por el proceso de Gram-Schmidt es:

1/2 ⎡3√5/10⎤ ⎡−√6/6⎤


ñ! = ^
−1/2 ⎢3√5/10⎥
_, ñ" = ⎢ ⎢ 0 ⎥
−1/2 ⎥ , ñ* = ⎢ √6/6 ⎥
⎢ √5/10 ⎥ ⎢ ⎥
1/2 ⎣ √6/3 ⎦
⎣ √5/10 ⎦

de modo que:

⎡ 1/2 3√5/10 −√6/6⎤


⎢−1/2 3√5/10 0 ⎥
e = [ñ! ñ" ñ* ] · ⎢ ⎥
⎢ −1/2 √5/10 √6/6 ⎥
⎣ 1/2 √5/10 √6/3 ⎦

Sabemos que ! = eì para alguna matriz triangular superior ì. Para encontrar ì, use el
hecho de que e tiene columnas ortonormales y, en consecuencia, e6 e = 2. Por tanto:

e6 ! = e6 eì = 2ì = ì

Por tanto, calculamos ì:

1/2 −1/2 −1/21 1/2 2 2 2 1 1/2


⎡ ⎤
−1 1 2 ⎢0 √5 3√5/2⎥
ì = e6 ! = ã3√5/10 3√5/10 √5/10 √5/10å · ^ _=
−1 0 1 ⎢0 0 √6⁄2 ⎥
−√6/6 0 √6/6 √6/3 1 1 2 ⎣0 0 0 ⎦

También podemos calcular los elementos de la matriz ì mediante:

o7& = x& · }7

1 1 1 1
o!! = x! · }! = (1, −1, −1, 1) · • , − , − , Ä = 1 + 1 + 1 + 1 = 2
2 2 2 2

_______________________________________________________________________________________________
© Ignacio García-Juliá · Ricardo Visiers Bañón · 2020 28
Álgebra 5..Valores propios. Diagonalización de matrices
_________________________________________________________________________________________________________________
1 1 1 1 1 1
o!" = x" · }! = (2, 1, 0, 1) · • , − , − , Ä = 1 − + 0 + = 1
2 2 2 2 2 2

1 1 1 1 1 1
o!* = x* · }! = (2, 2, 1, 2) · • , − , − , Ä = 1 − 1 − + 1 =
2 2 2 2 2 2

3√5 3√5 √5 √5 6√5 3√5 √5


o"" = x" · }" = (2, 1, 0, 1) · Å , , , Ç= + +0+ = √5
10 10 10 10 10 10 10

3√5 3√5 √5 √5 6√5 6√5 √5 2√5 3√5


o"* = x* · }" = (2, 2, 1, 2) · Å , , , Ç= + + + =
10 10 10 10 10 10 10 10 2

√6 √6 √6 2√6 √6 2√6 √6
o** = x* · }* = (2, 2, 1, 2) · Å− , 0, , Ç=− +0+ + =
6 6 3 6 6 3 2

§
Ejemplo 19. Encontrar la factorización QR de la matriz del ejemplo anterior usando MATLAB

Solución
% El algoritmo de factorización QR en MATLAB es distinto para el
% cálculo numérico que para el cálculo simbólico. Aunque los resultados
% que presenta son correctos, difieren entre sí. Aquí usaremos el
% algoritmo del cálculo simbólico para que los resultados coincidan
% con la resolución del ejemplo 17.

clc, clear

A = [1 2 2;
-1 1 2;
-1 0 1;
1 1 2]

A = sym(A); % Declaramos la matriz A como simbólica

[Q R] = qr(A)

%{
Q =
[ 1/2, (3*5^(1/2))/10, -(2^(1/2)*3^(1/2))/6, (2^(1/2)*15^(1/2))/15]
[-1/2, (3*5^(1/2))/10, 0, -(2^(1/2)*15^(1/2))/10]
[-1/2, 5^(1/2)/10, (2^(1/2)*3^(1/2))/6, (2*2^(1/2)*15^(1/2))/15]
[ 1/2, 5^(1/2)/10, (2^(1/2)*3^(1/2))/3, -(2^(1/2)*15^(1/2))/30]

R =
[ 2, 1, 1/2]
[ 0, 5^(1/2), (3*5^(1/2))/2]
[ 0, 0, (2^(1/2)*3^(1/2))/2]
[ 0, 0, 0]
%}

_______________________________________________________________________________________________
© Ignacio García-Juliá · Ricardo Visiers Bañón · 2020 29

También podría gustarte