Valores y Vectores Característicos
Valores y Vectores Característicos
Valores y Vectores Característicos
Tv =v (1)
Esta definición es válida si A tiene componentes complejas; pero como las matrices que se
manejarán tienen, en su mayoría, componentes reales, la definición es suficiente para nuestros
propósitos.
Nota. La palabra “eigen” es la palabra alemana para “propio”. Los eigenvalores también se llaman
valores propios o valores característicos y los eigenvectores reciben el nombre de vectores propios
o vectores característicos.
Sea A = 10 -18-11
Entonces
A 2 = 10 -18 2 = 2 1 6 -11 1 1
En álgebra lineal, los vectores propios, autovectores o eigenvectores de un operador lineal son los
vectores no nulos que, cuando son transformados por el operador, dan lugar a un múltiplo escalar
de sí mismos, con lo que no cambian su dirección. Este escalar recibe el nombre valor propio,
autovalor, valor característico o eigenvalor. A menudo, una transformación queda completamente
determinada por sus vectores propios y valores propios. Un espacio propio, autoespacio o
eigenespacio es el conjunto de vectores propios con un valor propio común.
Los vectores propios de las transformaciones lineales son vectores que, o no se ven afectados por
la transformación o se ven multiplicados por un escalar que no varía su dirección.
El valor propio de un vector propio es el factor de escala por el que ha sido multiplicado.
Un espacio propio es un espacio formado por todos los vectores propios del mismo valor propio,
además del vector nulo, que no es un vector propio.
Por ejemplo, un vector propio de una rotación en tres dimensiones es un vector situado en el eje de
rotación sobre el cual se realiza la rotación. El valor propio correspondiente es 1 y el espacio propio
contiene a todos los vectores paralelos al eje. Como es un espacio de una dimensión, su
multiplicidad geométrica es uno. Es el único valor propio del espectro (de esta rotación) que es un
número real.
entonces decimos que v es un vector propio del operador A, y su valor propio asociado es c.
Observe que si v es un vector propio con el valor propio c entonces cualquier múltiplo diferente de
cero de v es también un vector propio con el valor propio c. De hecho, todos los vectores propios
con el valor propio asociado c junto con 0, forman un subespacio de V, el espacio propio para el
valor propio c.
Considérese la diferenciación con respecto a t. Sus funciones propias h(t) obedecen a la ecuación
de valor propio:
donde es el valor propio asociado con la función. Una función en el tiempo es constante si = 0,
crece proporcionalmente a sí misma si es positiva, y decrece proporcionalmente a sí misma si es
negativa. Por ejemplo, una población ideal de conejos engendra con más frecuencia a medida que
hay más conejos, y por tanto satisface la ecuación para lambda positivo.
La solución a la ecuación de valor propio es g(t) = exp(t), la función exponencial; pues esa función
es una función propia del operador diferencial d/dt con el valor propio . Si es negativa, la evolución
de g se denomina decaimiento exponencial; si es positiva se denomina crecimiento exponencial. El
valor de puede ser cualquier número complejo. El espectro de d/dt es entonces el plano complejo
en su totalidad. En este ejemplo el espacio vectorial en el que actúa d/dt es el espacio de las
funciones derivables de una variable. Este espacio tiene una dimensión infinita (pues no es posible
expresar cada función diferenciable como combinación lineal de un número finito de funciones
base). No obstante, el espacio propio asociado a un valor propio determinado es unidimensional.
Es el conjunto de todas las funciones g(t) = Aexp(t), donde A es una constante arbitraria, la
población inicial en t=0.
Valor propio
Se dice que el número , real l o complejo, es un valor propio A si existe un vector no nulo u, real o
complejo tal que Au = u, es decir (A " I )u = 0
Teorema 3 Dos matrices semejantes tienen el mismo polinomio característico y, por consiguiente,
los mismos valores propios.
Definición 4 Una matriz A se dice diagonalizable (por semejanza) si es semejante a una matriz
diagonal.
Teorema 5 La suma de los valores propios de una matriz A es igual a la traza de la matriz, es decir,
1 + 2 + · · · + n =aii.
Teorema 6 El producto de los valores propios de una matriz A es igual al determinante de la matriz.
Teorema 7 Los valores propios de una matriz triangular son los coeficientes de su diagonal
principal.
Teorema 8 Una matriz A es singular si y solo si tiene un valor propio igual a cero.
Teorema 9 Si los valores propios de una matriz A son i, 0 " i " n, los valores propios de la matriz A "
I son i " , 0 " i " n.
Teorema 10 Los valores propios de las potencias de una matriz A son las correspondientes
potencias; los vectores propios son los mismos.
Vector propio
En general, el polinomio que resulta de desarrollar |A "I |, cuyos ceros son precisamente los valores
propios de A, se denomina polinomio característico.
Ecuación característica de A.
Si se quiere calcular los valores propios de una matriz dada y ésta es pequeña, se puede calcular
simbólicamente usando el polinomio característico. Sin embargo, a menudo resulta imposible para
matrices extensas, caso en el que se debe usar un método numérico.
Cálculo simbólico
Una herramienta importante para encontrar valores propios de matrices cuadradas es el polinomio
característico: decir que es un valor propio de A es equivalente a decir que el sistema de
ecuaciones lineales (A - I) v = 0 (donde I es la matriz identidad) tiene una solución no nula v (un
vector propio), y de esta forma es equivalente al determinante:
La función p() = det(A - I) es un polinomio de pues los determinante se definen como sumas de
productos. Éste es el polinomio característico de A: los valores propios de una matriz son los ceros
de su polinomio característico.
Todos los valores propios de una matriz A pueden calcularse resolviendo la ecuación pA() = 0.
Si A es una matriz n×n, entonces pA tiene grado n y A tiene al menos n valores propios.
El teorema fundamental del álgebra dice que esta ecuación tiene exactamente n raíces (ceros),
teniendo en cuenta su multiplicidad. Todos los polinomios reales de grado impar tienen un número
real como raíz, así que para n impar toda matriz real tiene al menos valor propio real. En el caso de
las matrices reales, para n par e impar, los valores propios no reales son pares conjugados.
Una vez que se conocen los valores propios , los vectores propios se pueden hallar resolviendo:
Un ejemplo de matriz sin valores propios reales es la rotación de 90 grados en el sentido de las
manecillas del reloj:
cuyo polinomio característico es 2 + 1 y sus valores propios son el par de conjugados complejos i,
-i. Los vectores propios asociados tampoco son reales.
Cálculo numérico
En la práctica, los valores propios de las matrices extensas no se calculan usando el polinomio
característico. Calcular el polinomio resulta muy costoso, y extraer las raíces exactas de un
polinomio de grado alto puede ser difícil de calcular y expresar: el teorema de Abel-Ruffini implica
que las raíces de los polinomios de grado alto (5 o superior) no pueden expresarse usándose
simplemente raíces enésimas. Existen algoritmos eficientes para aproximar raíces de polinomios,
pero pequeños errores en la estimación de los valores propios pueden dar lugar a errores grandes
en los vectores propios. En consecuencia, los algoritmos generales para encontrar vectores
propios y valores propios son iterativos. La manera más fácil es el método de las potencias: se
escoge un vector aleatorio v y se calcula una secuencia de vectores unitarios:
Esta secuencia casi siempre convergerá a un vector propio correspondiente al mayor valor propio.
Este algoritmo es sencillo, pero no demasiado útil aisladamente. Sin embargo, hay métodos más
populares, como la descomposición QR, que se basan en él
Los valores propios de B = C"1AC son los mismos de A. Si x es el vector propio asociado a ,
entonces Cx es un vector propio de B asociado a .
Para estudiar una matriz suele ser conveniente expresarla de forma lo más sencilla posible.
Diagonalizar una matriz A es precisamente eso: escribirla de manera simple encontrando una
matriz invertible P y una diagonal D (si se puede) tales que
A = P D P-1
Puede que esto, al principio, no parezca más simple de lo que ya era A directamente. Sin embargo,
lo es desde muchos puntos de vista. Dado que las matrices suelen usarse para representar
aplicaciones lineales, la expresión anterior puede verse como un cambio de base de la aplicación
representada por A; entonces, esta forma de escribirlo dice: hay una base en la que la aplicación
lineal A tiene una forma muy simple (diagonal). Esto es útil, por ejemplo, para clasificar una
aplicación lineal y estudiar sus propiedades. Las matrices se usan para representar otras cosas
como cónicas, cuadricas o formas bilineales, y en estos casos también resulta útil esta forma de
expresarlas.
La relación anterior entre las matrices A y D es importante y aparece en muchos contextos, así que
tiene nombre propio:
Cuando dos matrices cuadradas A y B verifican que A = P B P-1 para cierta, matriz cuadrada P
(invertible, claro) decimos que A y B son semejantes.
Una matriz es diagonalizable cuando se puede diagonalizar; es decir, cuando podemos encontrar
una matriz diagonal y una invertible de forma que la matriz se escriba como dijimos antes. Dicho de
otra forma: una matriz es diagonalizable cuando es semejante a una matriz diagonal. En estas
prácticas sólo consideraremos como diagonalizables las matrices que sean semejantes a una
matriz diagonal real. Entonces, más exactamente: una matriz es diagonalizable cuando es
semejante a una matriz diagonal real.
Si conseguimos escribir una matriz A como A = P D P-1, entonces podemos poner también A P = P
D. Si D es diagonal y nos fijamos en la columna i de esta última igualdad lo que tenemos es que A
xi = li xi (donde xi es la columna i de A y li es el número en el lugar i de la diagonal de D). Esto nos
dice que para diagonalizar una matriz nos hace falta conocer los vectores a los que les pase algo
así. Estos vectores también tienen nombre:
Es fácil ver que diagonalizar una matriz A de tamaño n×n es lo mismo que encontrar n vectores
propios linealmente independientes asociados a valores propios reales, ya que entonces podemos
ponerlos por columnas y conseguir así la matriz P (puedes comprobar que entonces se cumple la
relación que buscamos). Entonces, para diagonalizar una matriz lo que tenemos que hacer es
buscar n vectores propios suyos linealmente independientes asociados a valores propios reales.
Sea
1.5 Diagonalización de matrices simétricas, diagonalización ortogonal
Si D es la matriz diagonal cuyos elementos diagonales son los valores propios de A, entonces
existe una matriz ortogonal Q tal que D = Q"1AQ = QtAQ.
Asimismo, existen n vectores propios de A que forman un conjunto ortonormal, y coinciden con las
columnas de la matriz ortogonal Q.
Para estudiar una matriz suele ser conveniente expresarla de forma lo más sencilla posible.
Diagonalizar una matriz A es precisamente eso: escribirla de manera simple encontrando una
matriz invertible P y una diagonal D (si se puede) tales que A = P D P-1 La matriz P se llama matriz
de paso. Matriz diagonalizable: Una matriz n x n es diagonolazible si existe una matriz diagonal D
tal que A es semejante a D. Observación: Si D es una matriz diagonal, entonces los valores propios
son sus componentes en la diagonal. Si A es semejante a D, entonces Ay D tiene los mismos
valores propios. Uniendo estos dos hechos se observa que si A es diagonaliizable, entonces A es
semejante a una matriz diagonal cuyas componentes en la diagonal son los valores propios de A.
El siguiente teorema establece cuando una matriz es diagonalizable. TEOREMA: Una matriz A de
n x n es diagonalizable si y solo si tiene n vectores propios linealmente independientes. En tal caso,
la matriz diagonal D semejante a A esta dada por
10…0
020…0
003…0
D=....
000…n
Donde 1, 2,….. , n son los valore propios de A. Si C es una matriz cuyas columnas son vectores
propios linealmente independientes de A, entonces D = C-1AC Una matriz diremos que es
ortogonal si su transpuesta coincide con su inversa.
Si P= (u1|u2|…|un) resulta que decir que P es ortogonal, es equivalente a decir que los vectores
{u1, u2,…, un} son ortonormales (respecto al producto escalar habitual) Para las matrices reales y
simétricas podemos dar una diagonalización donde la matriz de paso es ortogonal. Esto es lo que
se entiende por diagonalización ortogonal.
Diagonalización ortogonal
Si
son ortonormales (respecto al producto escalar habitual) Para las matrices reales y simétricas
podemos dar una diagonalización donde la matriz de paso es ortogonal. Esto es lo que se entiende
por diagonalización ortogonal.
Una forma cuadrática es una aplicación del espacio vectorial E en el cuerpo K, que cumple las
siguientes condiciones equivalentes: a) Existe una forma bilineal simétrica f de ExE en el cuerpo K
tal que (x) = f(x,x). A f se le llama forma polar de . b) (lx) = l2x, . Además f(x,y) = ((x + y) " (x) " (y)) /
2 es una forma bilineal simétrica definida en ExE y con valores en K. A se la llama forma
cuadrática asociada a f. Cuando se dice que la forma cuadrática es real. A veces a las formas
cuadráticas definidas positivas se las denomina métricas. Formas cuadráticas Una forma
cuadrática en R3 es cualquier conjunto de puntos xT=(x1,x2,x3) que satisface una ecuación del
tipo: xTAx=r, (1) donde A es una matriz simétrica de 3x3 a coeficientes reales y r es un número
real. Vía una rotación del espacio dada por y=PTx donde yT=(y1,y2,y3) y P es una matriz unitaria
de 3x3 a coeficientes reales, se puede expresar una forma cuadrática arbitraria con respecto a un
vector y de manera que: yTDy=r, (2) donde D es una matriz diagonal de 3x3 a coeficientes reales.
¿Porqué siempre pueden encontrarse P y D con las propiedades requeridas? ¿Por qué P
representa una rotación del espacio? Vía un re-escalamiento adicional dado por z=D'y donde
zT=(z1,z2,z3) y D' es una matriz diagonal de 3x3 a coeficientes reales no-negativos, se puede
expresar la última ecuación obtenida con respecto el vector z de manera que quede representada
por una ecuación del tipo: zTJz=r, (3) donde J es una matriz diagonal de 3x3 que sólo puede
contener en su diagonal valores que están en {"1,0,1}.
Una forma cuadrática es una aplicación del espacio vectorial E en el cuerpo K, que cumple las
siguientes condiciones equivalentes:
a) Existe una forma bilineal simétrica f de ExE en el cuerpo K tal que (x)=f(x,x). A f se le llama
forma polar de .
b) (lx) = l2x,
Además f(x,y) = ((x + y) " (x) " (y)) / 2 es una forma bilineal simétrica definida en ExE y con valores
en K. A se la llama forma cuadrática asociada a f.
Cuando
se dice que la forma cuadrática es real. A veces a las formas cuadráticas definidas positivas se las
denomina métricas.
Entre las diversas demostraciones del teorema hemos encontrado en R. Bellman (1965) una
puramente algebraica, que es la que detallamos, con algún matiz, en nuestro trabajo.
El interés de la demostración radica en la utilidad que puede tener para nuestros alumnos de
primer curso, la exposición de un desarrollo lógico basado en sus conocimientos básicos de cálculo
matricial. También es inmediato y puede ser igualmente útil calcular, a partir del teorema, la inversa
de A, cuando A sea no singular.
Sea p() = ( " 1) n n+ cn"1 n"1+ cn"2 n"2+ ... + c2 2 + c1 + c0 el polinomio característico de una
matriz A de orden n. Entonces p(A) = ( " 1) nn + cn"1 n"1 + cn"2 An"2 + ... + c1 A + c0 I es la matriz
nula. Es decir, cada matriz cuadrada A satisface su ecuación característica p(A) = 0.
Nota: A es una matriz de orden n con elementos en un cuerpo K; por tanto, los coeficientes ci del
polinomio característico det( " ) pertenecen a dicho cuerpo K.
Demostración
donde Adj(A " I) t es la matriz transpuesta de la matriz de los adjuntos de los elementos respectivos
de la matriz A " I y p() = det( " ) es el polinomio característico de la matriz A.
Si denotamos B() = Adj(A " I)t, entonces B() es una matriz polinómica en , de grado n"1, que se
puede escribir como:
donde cada i es una matriz de orden n, con elementos en el cuerpo K. Entonces el producto (A " I)
B() vale:
(A " I) B() = (A " I )(n"1 n"1+ n"2 n"2+ ... + 2 2 + 1 + 0) = " Bn"1 n + (n"1 " n"2) n"1+(n"2 " n"3)
n"2+ ... + (2 " 1) 2 + (1 " 0) + 0
Luego, igualando las matrices polinómicas, con elementos en el dominio K(), (A " I) B() = p() I, se
deduce que:
AB2 " 1= c2 I
1 " 0= c1 I
0 = c0 I
Si vamos sustituyendo cada matriz Bi en la siguiente ecuación hasta llegar a la penúltima resulta:
Por tanto, ( " 1) n An + cn"1 An"1 + cn"2 An"2 + ...+ c2 A2 + c1 A + c0 I = 0. Es decir, p(A) = 0 c.q.d.
1.8 Aplicaciones
Los valores y vectores característicos tienen muchas aplicaciones en la tanto en el ramo de las
matemáticas como física, mencionaremos algunos temas en donde también se pueden emplear:
Orbitales moleculares, Análisis factorial, Tensor de inercia, Tensor de tensión y Valores propios de
un grafo, En ecuaciones lineales, matrices, etc.
- Ecuaciones diferenciales
- Diagonalización de matrices
:
INSTITUTO TECNOLOGICO SUPERIOR
DE MISANTLA
ING. BIOQUIMICA
MATEMATICAS IV
Unidad 4:
INVESTIGACION DE LA
UNIDAD No 6
ALUMNO:
10 /12/10