Algebra

Descargar como docx, pdf o txt
Descargar como docx, pdf o txt
Está en la página 1de 25

Unidad 4.

Transformaciones lineales

4.1. DEFINICIN TRANSFORMACIN LINEAL Y SUS PROPIEDADES


Se denomina transformacin lineal, funcin lineal o aplicacin lineal a toda aplicacin cuyo dominio y codominio sean espacios vectoriales y se cumplan las siguientes condiciones: Transformacin lineal: Sean V y W espacios vectoriales reales. Una transformacin lineal T de V en W es una funcin que asigna a cada vector v V un vector nico Tv W y que satisface, para cada u y v en V y cada escalar , 1. T (u+v)= Tu+Tv 2. T(v)= Tv, donde es un escalar. Tres notas sobre notacin. 1. Se escribe T: V W para indicar que T toma el espacio vectorial real V y lo lleva al espacio vectorial real W; esto es, T es una funcin con V como su dominio y un subconjunto de W como su imagen. 2. Se escriben indistintamente Tv y T (v). denotan lo mismo; las dos fases se leen T de v. eso es anlogo a la notacin funcional f(x), que se lee f de x. 3. Muchas de las definiciones y teoremas se cumplen tambin para los espacios vectoriales complejos (espacios vectoriales en donde los escalares son nmeros complejos).

Terminologa: las transformaciones lineales con frecuencia se llaman operadores lineales. Nota: No toda transformacin que se ve lineal es en realidad lineal. Por ejemplo, defina T: RR por Tx= 2x + 3. Entonces la grafica de {(x, Tx): x R} es una lnea recta en el plano xy; pero T no es lineal porque T(x+ y) = 2(x +y) + 3 = 2x + 2y + 3y Tx + ty = (2x+3) + (2y+3) = 2x + 2y + 6. Las nicas transformaciones lineales de R en R son funciones de la forma f (x) = mx para algn nmero real m. as, entre todas las funciones cuyas graficas son rectas, las nicas que son lineales son aquellas que pasan por el origen. En algebra y calculo una funcin lineal con dominio R esta definida como una funcin que tiene la forma f (x) = mx + b. asi, se puede decir que una funcin lineal es una transformacin de R en R si y solo si b (la ordenada al origen) es cero.

Definicin
Se denomina aplicacin lineal, funcin lineal o transformacin lineal a toda aplicacin cuyo dominio y codominio sean espacios vectoriales que cumpla la siguiente definicin: Sean V y W espacios vectoriales sobre el mismo espacio o campo K, y T una funcin de V en W. T es una transformacin lineal si para todo par de vectores u y v pertenecientes a V y para todo escalar k perteneciente a K, se satisface que: 1. 2.

donde k es un escalar.

Ejemplos
Transformacin lineal identidad

Homotecias
con Si k > 1 se denominan dilataciones Si k < 1 se denominan contracciones Ver artculo sobre Homotecias

Propiedades de las transformaciones lineales


Sean que: Si y espacios vectoriales sobre (donde representa el cuerpo) se satisface

es lineal, se define el ncleo y la imagen de T de la siguiente manera:

Es decir que el ncleo de una transformacin lineal est formado por el conjunto de todos los vectores del dominio que tienen por imagen al vector nulo del codominio. El ncleo de toda transformacin lineal es un subespacio del dominio: 1. 2. Dados dado que

3. Dados

Se denomina nulidad a la dimensin del ncleo. O sea que la imagen de una transformacin lineal est formada por el conjunto de todos los vectores del codominio que son imgenes de al menos algn vector del dominio.

La imagen de toda transformacin lineal es un subespacio del codominio. El rango de una transformacin lineal es la dimensin de la imagen.

una funcin lineal es la correspondencia

Teorema fundamental de las transformaciones lineales

Sea B = {v1,v2,v3,...vn} base de V y C = {w1, w2, w3,...wn} un conjunto de n vectores de W no necesariamente distintos, entonces existe una nica transformacin lineal T: V W que satisface:

Clasificacin de las transformaciones lineales


1. Monomorfismo: Si ncleo es el vector nulo. 2. Epimorfismo: Si 3. Isomorfismo: Si es inyectiva, o sea si el nico elemento del es sobreyectiva (suryectiva). es biyectiva (inyectiva y suryectiva)

4.2. Imagen y ncleo de una transformacin lineal


Kernel o Ncleo Sea , denotado por una transformacin lineal. Se define el Kernel o Ncleo de la transformacin lineal al conjunto de las preimgenes del vector nulo, es decir

Ejemplo Hallar el conjunto de las preimgenes del vector nulo para la transformacin lineal

Solucin: Necesitamos determinar los vectores de tales que

Evaluando

es decir,

luego, utilizando la matriz asociada al sistema, obtenemos

por lo tanto,

con lo cual, (x;y;z) = (0;-(1/3)z;z) = z(0;-(1/3);1) As el conjunto de las preimgenes del vector nulo es el subespacio

Note que el resolver un sistema de ecuaciones lineales equivale a encontrar las preimgenes de un vector para una transformacin lineal dada.

1 -Ejemplo Determinar el kernel de la siguiente transformacin lineal

Solucin: Como tenemos que

Reemplazando Imagen o Recorrido Recordemos la definicin de recorrido.

Definicin Se define la Imagen o Recorrido de una transformacin lineal , esto es como el conjunto de los vectores que tienen al menos una preimagen.

2-.Ejemplo Dada la transformacin lineal

Determinar la imagen de Solucin: Si recordamos el proceso que usamos en el clculo en una variable, determinemos cuales vectores tienen preimagen.

Para ello, sean tales que T(x;y;z) = (a;b;c) (2x-y+z;x-y+z;x) = (a;b;c) Igualando coordenadas tenemos el siguiente sistema

Ahora, resolvamos el sistema buscando la matriz asociada a l, y determinando su escalonada

luego, un vector tiene preimagen si y slo si el sistema el sistema es consistente (no necesitamos que la solucin sea nica), lo cual es equivalente a escribir

Por lo tanto, Im(T) = {(a;b;c) /((x;y;z) ((T(x;y;z)=(a;b;c)) = {(a;b;c) /a-b-c=0} = <(1;1;0);(1;0;1)>:

4.3. Matriz asociada a una transformacin lineal con respecto a una base dada.
Segn la teora de Brevis-Devaud. Una matriz asociada es la matriz formada por las coordenadas de los elementos de una base. Dada T: V W, con B = {v1, v2, v3, ..., vn} y C = {w1, w2, w3, ..., wp} bases de V y W respectivamente, llamamos coordenadas de v1 en base C, al vector formado por los coeficientes de los elementos de C que usamos para llegar al transformado de v1. T(v1) = a1.w1 + a2.w2 + ... + ap.wp Entonces: coordC(v1) = (a1, a2,..., ap) Y la matriz asociada a T, en las bases B y C, es la matriz res/sub>(v2), ..., coordC(vn))

4.4. cambio de base y matriz asociada


Matriz Cambio de Base Un caso particular lo tenemos cuando la transformacin lineal es la funcin identidad de un K-espacio vectorial U; con una base B, en U con otra base C, en este caso se denomina matriz cambio de base a la matriz asociada a la transformacin lineal Id U , es decir, sea U un K-espacio vectorial de dimensin fininita y B, C bases de U. La transformacin lineal identidad Id : U U u u tiene asociada su matriz en las bases B y C denotada por [ Id]CB

Coordenadas y cambio de base: Siendo B={ v1, v2, ..., vn} una base de un espacio vectorial y x un vector en V que representndose como combinacin lineal ( x = c1v1 + c2v2 + ... + cnvn ) siendo los escalares c. Se denomina como coordenadas x con respecto B en el vector Rn denotado as xB = ( c1, c2, ..., cn ). Cambio de base. Partiendo de una base B a una base B' se tiene que hacer una multiplicacin por una matriz p-1 y esta la obtenemos sacando la inversa de la base B esto seria P-1 y multiplicando P-1 por B obtenemos B' y viserversa.

unidad 5: vectores y valores propios

5.1. definicin de Vector propio y valor propio


Vector propio: En lgebra lineal, los vectores propios, autovectores o eigenvectores de un operador lineal son los vectores no nulos que, cuando son transformados por el operador, dan lugar a un mltiplo escalar de s mismos, con lo que no cambian su direccin. Valor propio: Este escalar recibe el nombre valor propio, autovalor, valor caracterstico o eigenvalor. A menudo, una transformacin queda completamente determinada por sus vectores propios y valores propios. Un espacio propio, autoespacio o eigenespacio es el conjunto de vectores propios con un valor propio comn. La palabra alemana eigen, que se traduce en espaol como propio se us por primera vez en este contexto por David Hilbert en 1904 (aunque Helmholtz la us previamente con un significado parecido). Eigen se ha traducido tambin como inherente, caracterstico o el prefijo auto-, donde se aprecia el nfasis en la importancia de los valores propios para definir la naturaleza nica de una determinada transformacin lineal. Las denominaciones vector y valor caractersticos tambin se utilizan habitualmente.

Definiciones

Las transformaciones lineales del espacio como la rotacin, la reflexin, el ensanchamiento, o cualquier combinacin de las anteriores; en esta lista podran incluirse otras transformaciones pueden interpretarse mediante el efecto que producen en los vectores. Los vectores pueden visualizarse como flechas de una cierta longitud apuntando en una direccin y sentido determinados.

Los vectores propios de las transformaciones lineales son vectores que, o no se ven afectados por la transformacin o se ven multiplicados por un escalar, y por tanto no varan su direccin.1 El valor propio de un vector propio es el factor de escala por el que ha sido multiplicado. Un espacio propio es un espacio formado por todos los vectores propios del mismo valor propio, adems del vector nulo, que no es un vector propio. La multiplicidad geomtrica de un valor propio es la dimensin del espacio propio asociado. El espectro de una transformacin en espacios vectoriales finitos es el conjunto de todos sus valores propios.

Por ejemplo, un vector propio de una rotacin en tres dimensiones es un vector situado en el eje de rotacin sobre el cual se realiza la rotacin. El valor propio correspondiente

es 1 y el espacio propio contiene a todos los vectores paralelos al eje. Como es un espacio de una dimensin, su multiplicidad geomtrica es uno. Es el nico valor propio del espectro (de esta rotacin) que es un nmero real. Formalmente, se definen los vectores propios y valores propios de la siguiente manera: Si A: V V es un operador lineal en un cierto espacio vectorial V, v es un vector diferente de cero en V y c es un escalar tales que

entonces decimos que v es un vector propio del operador A, y su valor propio asociado es c. Observe que si v es un vector propio con el valor propio c entonces cualquier mltiplo diferente de cero de v es tambin un vector propio con el valor propio c. De hecho, todos los vectores propios con el valor propio asociado c junto con 0, forman un subespacio de V, el espacio propio para el valor propio c. Observe adems que un espacio propio Z es un subespacio invariante de A, es decir dado w un vector en Z, el vector Aw tambin pertenece a Z.
Ecuacin del valor propio o autovalor

Matemticamente, v es un vector propio y el valor propio correspondiente de una transformacin T si verifica la ecuacin:

donde T(v) es el vector obtenido al aplicar la transformacin T a v. Supngase que T es una transformacin lineal (lo que significa que para todos los escalares a, b, y los vectores v, w). Considrese una base en ese espacio vectorial. Entonces, T y v pueden representarse en relacin a esa base mediante una matriz AT y un vector columna vun vector vertical unidimensional. La ecuacin de valor propio en esta representacin matricial se representa de la siguiente forma:

donde la yuxtaposicin es un producto de matrices. Dado que en esta circunstancia la transformacin T y su representacin matricial AT son equivalentes, a menudo podemos emplear slo T para la representacin matricial y la transformacin. Esto es equivalente a un conjunto de n combinaciones lineales, donde n es el nmero de vectores de la base. En esta ecuacin, tanto el autovalor y las n componentes de v son desconocidos. Sin embargo, a veces es poco natural o incluso imposible escribir la ecuacin de autovector en forma matricial. Esto ocurre, por ejemplo, cuando el espacio vectorial es de dimensin infinita, como por ejemplo en el caso de la cuerda mostrada anteriormente. Dependiendo de la naturaleza de la transformacin T y el espacio al que se aplica, puede ser ventajoso representar la ecuacin de autovalor como un conjunto de ecuaciones diferenciales, donde los autovectores reciben a menudo el nombre de autofunciones del operador diferencial que representa a T. Por ejemplo, la derivacin misma es una

transformacin lineal, ya que (si f(t) y g(t) son funciones derivables y a y b son constantes)

Considrese la diferenciacin con respecto a t. Sus autofunciones h(t) obedecen a la ecuacin de autovalor:

, donde es el autovalor asociado con la funcin. Una funcin en el tiempo es constante si = 0, crece proporcionalmente a s misma si es negativa. Por ejemplo, una poblacin ideal de conejos engendra con ms frecuencia a medida que hay ms conejos, y por tanto satisface la ecuacin para lambda positivo. La solucin a la ecuacin de valor propio es g(t) = exp(t), la funcin exponencial; pues esa funcin es una funcin propia del operador diferencial d/dt con el valor propio . Si es negativa, la evolucin de g se denomina decaimiento exponencial; si es positiva se denomina crecimiento exponencial. El valor de puede ser cualquier nmero complejo. El espectro de d/dt es entonces el plano complejo en su totalidad. En este ejemplo el espacio vectorial en el que acta d/dt es el espacio de las funciones derivables de una variable. Este espacio tiene una dimensin infinita (pues no es posible expresar cada funcin diferenciable como combinacin lineal de un nmero finito de funciones base). No obstante, el espacio propio asociado a un valor propio determinado es unidimensional. Es el conjunto de todas las funciones g(t) = Aexp(t), donde A es una constante arbitraria, la poblacin inicial en t=0.

Teorema espectral

El teorema espectral muestra la importancia de los valores propios y vectores propios para caracterizar una transformacin lineal de forma nica. En su versin ms simple, el teorema espectral establece que, bajo unas condiciones determinadas, una transformacin lineal de un vector puede expresarse como la combinacin lineal de los vectores propios con coeficientes de valor igual a los valores propios por el producto escalar de los vectores propios por el vector al que se aplica la transformacin, lo que puede escribirse como:

donde y representan a los vectores propios y valores propios de . El caso ms simple en el que tiene validez el teorema es cuando la transformacin lineal viene dada por una matriz simtrica real o una matriz hermtica compleja.

Si se define la ensima potencia de una transformacin como el resultado de aplicarla n veces sucesivas, se puede definir tambin el polinomio de las transformaciones. Una versin ms general del teorema es que cualquier polinomio P de es igual a:

El teorema puede extenderse a otras funciones o transformaciones tales como funciones analticas, siendo el caso ms general las funciones de Borel.

Espacios de dimensin infinita

Si el espacio vectorial es de dimensin infinita, la nocin de valores propios puede generalizarse al concepto de espectro. El espectro es el conjunto de escalares para el que , no est definido, esto es, tal que T Id no tiene inversa acotada.

Si es un valor propio de T, est en el espectro de T. En general, el recproco no es verdadero. Hay operadores en los espacios de Hilbert o Banach que no tienen vectores propios. Por ejemplo, tmese un desplazamiento bilateral en el espacio de Hilbert ; ningn vector propio potencial puede ser cuadrado-sumable, as que no existe ninguno. Sin embargo, cualquier operador lineal acotado en un espacio de Banach V tiene espectro no vaco. El espectro (T) del operador T V V se define como no es invertible Entonces (T) es un conjunto compacto de nmeros complejos, y es no vaco. Cuando T es un operador compacto (y en particular cuando T es un operador entre espacios finitodimensionales como arriba), el espectro de T es igual que el conjunto de sus valores propios. En espacios de dimensin infinita, el espectro de un operador acotado es siempre no vaco, lo que tambin se cumple para operadores adjuntos propios no acotados. A travs de su medida espectral, el espectro de cualquier operador adjunto propio, acotado o no, puede descomponerse en sus partes absolutamente continua, discreta, y singular. El crecimiento exponencial proporciona un ejemplo de un espectro continuo, como en el caso anterior de la cuerda vibrante. El tomo de hidrgeno es un ejemplo en el que aparecen ambos tipos de espectro. El estado ligado del tomo de hidrgeno corresponde a la parte discreta del espectro, mientras que el proceso de ionizacin queda descrito por la parte continua.

Aplicaciones

Ecuacin de Schrdinger

La funcin de onda asociada a los estados ligados de un electrn en un tomo de hidrgeno puede verse como los vectores propios del tomo de hidrgeno hamiltoniano as como al operador momento angular. Est asociada a los valores propios interpretados como sus energas (incrementndose segn n=1,2,3,...) y al momento angular (incrementndose segn s,p,d,...). Aqu se muestra el cuadrado del valor absoluto de las funciones de onda. Las reas ms iluminadas corresponden a densidades de probabilidad ms altas para una posicin. El centro de cada figura es el ncleo atmico, un protn. Un ejemplo de una ecuacin de valor propio donde la transformacin se representa en trminos de un operador diferencial es la ecuacin de Schrdinger independiente del tiempo de la mecnica cuntica:

Donde H, el Hamiltoniano, es un operador diferencial de segundo orden y E la funcin de onda, es una de las funciones propias correspondientes al valor propio E, interpretado como la energa. Sin embargo, en caso de que slo se busquen soluciones para los estados ligados de la ecuacin de Schrdinger, como suele ser el caso en qumica cuntica, se buscar E en el espacio de las funciones de cuadrado integrable. Dado que este espacio es un espacio de Hilbert, con un producto escalar bien definido, podemos introducir una base en la que se puede representar E y H como un vector unidimensional y una matriz respectivamente. Esto permite representar la ecuacin de Schrdinger en forma matricial. La notacin bra-ket, utilizada a menudo en este contexto, pone nfasis en la diferencia entre el vector o estado y su representacin, la funcin E. En este contexto se escribe la ecuacin de Schrdinger

y se llama a un estado propio de H (que a veces se representa como en algunos libros de texto) que puede interpretarse como una transformacin en lugar de una representacin particular en trminos de operadores diferenciales. En la ecuacin expuesta, se interpreta como el vector obtenido por aplicacin de la transformacin H a .

5.2. polinomio caracterstico.


En lgebra lineal, se asocia un polinomio a cada matriz cuadrada llamado polinomio caracterstico. Dicho polinomio contiene una gran cantidad de informacin sobre la matriz, los ms significativos son los valores propios, su determinante y su traza.

Motivacin

Dada una matriz cuadrada A, queremos encontrar un polinomio cuyas races son precisamente los valores propios de A. Para una matriz diagonal A, el polinomio caracterstico es fcil de definir: si los elementos de la diagonal son xi para i = 1..N, el polinomio caracterstico en la indeterminada t es

El polinomio tiene esta forma ya que los elementos de la diagonal de una matriz diagonal coinciden con sus valores propios. Para una matriz A genrica, se puede proceder de la siguiente forma: Si es un valor propio de A, entonces existe un vector propio v0 tal que

(donde I es la matriz identidad). Como que v es no nulo, la matriz I A es singular, que a su vez significa que su determinante es 0. Acabamos de ver que las races de la funcin determinante(A-t I) son los valores propios de A. Como que dicha funcin es un polinomio en t, ya est.

Definicin formal

Sea K un cuerpo (podemos imaginar K como el cuerpo de los reales o de los complejos) y una matriz cuadrada A n-dimensional sobre K. El polinomio caracterstico de A, denotado por pA(t), es el polinomio definido por:

donde I denota la matriz identidad n-por-n. Algunos autores definen el polinomio caracterstico como det(t I-A); la diferencia es inmaterial puesto que los dos polinomios nicamente se diferencian por su signo.

3-Ejemplos
Supongamos que queremos encontrar el polinomio caracterstico de la matriz

Debemos calcular el determinante de

dicho determinante es

Finalmente hemos obtenido el polinomio caracterstico de A.

Propiedades

El polinomio pA(t) es de grado n y su coeficiente principal es 1n. El hecho ms importante sobre el polinomio caracterstico ya fue mencionado en el pargrafo de motivacin: los valores propios de A son precisamente las races de pA(t). El coeficiente constante pA(0) es igual a (1)n veces el determinante de A, y el coeficiente de t n 1 es igual a -tr(A), la traza de A. Para una matriz A de 22, el polinomio caracterstico se puede expresar como: t 2 tr(A)t + det(A). Todos los polinomios reales de grado impar tienen al menos un nmero real como raz, as que para todo n impar, toda matriz real tiene al menos un valor propio real. La mayora de los polinomios reales de grado par no tienen races reales, pero el teorema fundamental del lgebra dice que todo polinomio de grado n tiene n races complejas, contadas con sus multiplicidades. Las races no reales de polinomios reales, por tanto valores propios no reales, aparecen en pares conjugados. El teorema de Cayley-Hamilton dice que si reemplazamos t por A en la expresin de pA(t) obtenemos la matriz nula: pA(A) = 0. Es decir, toda matriz satisface su propio polinomio caracterstico. Como consecuencia de este hecho, se puede demostrar que el polinomio mnimo de A divide el polinomio caracterstico de A. Dos matrices semejantes tienen el mismo polinomio caracterstico. El recproco no es cierto en general: dos matrices con el mismo polinomio caracterstico no tienen porque ser semejantes. La matriz A y su transpuesta tienen el mismo polinomio caracterstico. A es semejante a una matriz triangular si y solo si su polinomio caracterstico puede ser completamente factorizado en factores lineales sobre K. De hecho, A es incluso semejante a una matriz en forma cannica de Jordan.

5.3. calculo del vector propio correspondiente a un valor propio.


Clculo de valores propios y vectores propios de matrices
Si se quiere calcular los valores propios de una matriz dada y sta es pequea, se puede calcular simblicamente usando el polinomio caracterstico. Sin embargo, a menudo resulta imposible para matrices extensas, caso en el que se debe usar un mtodo numrico.
[editar] Clculo simblico Encontrando valores propios

Una herramienta importante para encontrar valores propios de matrices cuadradas es el polinomio caracterstico: decir que es un valor propio de A es equivalente a decir que el sistema de ecuaciones lineales A v = v --> A v - v = 0 (Factorizando por v queda) (A - I) v = 0 (donde I es la matriz identidad) tiene una solucin no nula v (un vector propio), y de esta forma es equivalente al determinante:

La funcin p() = det(A - I) es un polinomio de pues los determinante se definen como sumas de productos. ste es el polinomio caracterstico de A: los valores propios de una matriz son los ceros de su polinomio caracterstico. Todos los valores propios de una matriz A pueden calcularse resolviendo la ecuacin pA() = 0. Si A es una matriz nn, entonces pA tiene grado n y A tiene como mximo n valores propios. El teorema fundamental del lgebra dice que esta ecuacin tiene exactamente n races (ceros), teniendo en cuenta su multiplicidad. Todos los polinomios reales de grado impar tienen un nmero real como raz, as que para n impar toda matriz real tiene al menos valor propio real. En el caso de las matrices reales, para n par e impar, los valores propios no reales son pares conjugados.
Encontrando vectores propios

Una vez que se conocen los valores propios , los vectores propios se pueden hallar resolviendo el sistema de ecuaciones homogneo:

Una forma ms sencilla de obtener vectores propios sin resolver un sistema de ecuaciones lineales se basa en el teorema de Cayley-Hamilton que establece que cada

matriz cuadrada satisface su propio polinomio caracterstico. As, si 1,2,...,n son los valores propios de A se cumple que

por lo que los vectores columna de (A 2I)...(A nI) son vectores propios de 1.
Ejemplo de matriz sin valores propios reales

Un ejemplo de matriz sin valores propios reales es la rotacin de 90 grados en el sentido de las manecillas del reloj:

cuyo polinomio caracterstico es 2 1 y sus valores propios son el par de conjugados complejos i, -i. Los vectores propios asociados tampoco son reales.

4-Ejemplo calculo de vector propio respecto de un valor propio


Considrese la matriz

que representa un operador lineal R R. Si se desea computar todos los valores propios de A, se podra empezar determinando el polinomio caracterstico:

y porque p(x) = - (x - 2)(x - 1)(x + 1) se ve que los valores propios de A son 2, 1 y -1. El teorema de Cayley-Hamilton establece que cada matriz cuadrada satisface su propio polinomio caracterstico. Es decir

Efectivamente, para el caso del valor propio 2, se puede comprobar que

de donde (1, 1, -1) es un vector propio asociado a 2.

[editar] Clculo numrico

En la prctica, los valores propios de las matrices extensas no se calculan usando el polinomio caracterstico. Calcular el polinomio resulta muy costoso, y extraer las races exactas de un polinomio de grado alto puede ser difcil de calcular y expresar: el teorema de Abel-Ruffini implica que las races de los polinomios de grado alto (5 o superior) no pueden expresarse usndose simplemente races ensimas. Existen algoritmos eficientes para aproximar races de polinomios, pero pequeos errores en la estimacin de los valores propios pueden dar lugar a errores grandes en los vectores propios. En consecuencia, los algoritmos generales para encontrar vectores propios y valores propios son iterativos. La manera ms fcil es el mtodo de las potencias: se escoge un vector aleatorio v y se calcula una secuencia de vectores unitarios:

, ...

Esta sucesin casi siempre converger a un vector propio correspondiente al mayor valor propio. Este algoritmo es sencillo, pero no demasiado til aisladamente. Sin embargo, hay mtodos ms populares, como la descomposicin QR, que se basan en l.

[editar] Propiedades
[editar] Multiplicidad algebraica

La multiplicidad algebraica de un valor propio de A es el orden de como cero del polinomio caracterstico de A; en otras, palabras, si es una de las races del polinomio, es el nmero de factores (t ) en el polinomio caracterstico tras la factorizacin. Una matriz nn tiene n valores propios, contados de acuerdo con su multiplicidad algebraica, ya que su polinomio caracterstico tiene grado n. Un valor propio de multiplicidad algebraica 1 recibe el nombre de "valor propio simple". Por ejemplo, se pueden encontrar exposiciones como la siguiente en artculos de teora de matrices:
"los valores propios de una matriz A son 4,4,3,3,3,2,2,1,"

lo que significa que la multiplicidad algebraica de 4 es dos, la de 3 es tres, la de 2 es dos y la de 1 es uno. Se emplea este estilo porque la multiplicidad algebraica es la clave de muchas demostraciones matemticas en teora de matrices. Multiplicidad geometrica Anteriormente se ha definido la multiplicidad geomtrica de un vector propio como la dimensin del espacio propio asociado, o el ncleo (espacio propio de los vectores propios del valor propio nulo) de I - A. La multiplicidad algebraica tambin puede entenderse como una dimensin: es la dimensin del espacio propio generalizado (1er sentido) asociado, que es el ncleo de la matriz (I - A)k para k suficientemente grande. Es decir, es el espacio de los vectores propios generalizados (1er sentido), donde un vector propio generalizado es cualquier vector que toma valor 0 s I - A se aplica suficientes veces en sucesin. Cualquier vector propio es un vector propio generalizado, as que cualquier espacio propio est contenido en el espacio propio generalizado asociado. Esto proporciona una demostracin simple de que la multiplicidad geomtrica es siempre menor o igual a la algebraica. El primer sentido no debe de confundirse con el problema de valores propios generalizados tal y como se muestra ms adelante. Por ejemplo:

Slo tiene un valor propio = 1. El polinomio caracterstico es ( 1)2, as que este valor propio tiene multiplicidad algebraica 2. Sin embargo, el espacio propio asociado es el eje, que normalmente recibe el nombre de eje x, generado por el vector unitario , as que la multiplicidad geomtrica es 1. Los vectores propios generalizados pueden usarse para calcular la forma normal de Jordan de una matriz (comentado ms adelante). El hecho de que los bloques de Jordan en general no son diagonales sino nilpotentes est directamente relacionado con la distincin entre vectores propios y vectores propios generalizados.
[editar] Teoremas de descomposicin para matrices generales

El teorema de descomposicin es una versin del teorema espectral en una clase concreta de matrices. Este teorema se explica normalmente en trminos de transformacin coordinada. Si U es una matriz invertible, puede verse como una transformacin entre un sistema de coordenadas a otro, donde las columnas de U son las componentes de la nueva base de vectores expresados en trminos de la base anterior. En este nuevo sistema las coordenadas del vector v se representan por v', que puede obtenerse mediante la relacin v' = Uv y, por otra parte, se tiene v = U 1v'. Aplicando sucesivamente v' = Uv, w' = Uw y U 1U = I, a la relacin Av = w proporciona A'v' = w' con A' = UAU 1, la representacin de A en la nueva base. En esta situacin, se dice que las matrices A y A' son semejantes.

El teorema de descomposicin declara que, si se eligen como columnas de U 1 n vectores propios linealmente independientes de A, la nueva matriz A' = UAU 1 es diagonal y sus elementos en la diagonal son los valores propios de A. Si esto es posible, entonces A es una matriz diagonalizable. Un ejemplo de una matriz no diagonalizable es la matriz A ya mostrada:

Hay muchas generalizaciones de esta descomposicin que pueden tratar con el caso no diagonalizable, diseadas con diferentes propsitos:

la descomposicin de Schur declara que toda matriz es equivalente a una matriz triangular. la descomposicin en valores singulares, A = UV * donde es diagonal con U y V matrices unitarias, los elementos de la diagonal de A = UV * no son negativos y reciben el nombre de valores singulares de A. Esta descomposicin tambin puede hacerse en matrices no cuadradas. la forma normal de Jordan, donde A = XX 1 y no es diagonal sino diagonal por bloques. El nmero y tamao de los bloques de Jordan estn determinados por las multiplicidades geomtrica y algebraica de los valores propios. La descomposicin de Jordan es un resultado fundamental. A partir de ella se puede deducir inmediatamente que una matriz cuadrada est descrita completamente por sus valores propios, incluyendo la multiplicidad. Esto muestra matemticamente el importante papel que desempean los valores propios en el estudio de matrices. como consecuencia inmediata de la descomposicin de Jordan, cualquier matriz A puede escribirse de forma nica como A=S + N donde S es diagonalizable, N es nilpotente (por ejemplo, tal que Nq=0 para un cierto q), y S cumple la propiedad conmutativa del producto (SN=NS).

[editar] Otras propiedades de los valores propios

El espectro es invariante bajo transformaciones semejantes: las matrices A y P-1AP tienen los mismos valores propios para cualquier matriz A y cualquier matriz invertible P. El espectro es tambin invariante a la trasposicin de las matrices: A y A T tienen los mismos valores propios. Dado que una transformacin lineal en espacios de dimensiones finitas es biyectiva si y slo si es inyectiva, una matriz es invertible si y slo si cero no es un valor propio de la matriz. Otras consecuencias de la descomposicin de Jordan son:

una matriz es matriz diagonalizable si y slo si las multiplicidades geomtrica y algebraica coinciden para todos sus valores propios. En particular una matriz nn que tiene n valores propios diferentes es siempre diagonalizable; Dado que la traza, o la suma de elementos de la diagonal principal de una matriz se preserva en la equivalencia unitaria, la forma normal de Jordan constata que es igual a la suma de sus valores propios.

De forma similar, dado que los valores propios de una matriz triangular son las entradas de la diagonal principal su determinante es igual al producto de los valores propios (contados de acuerdo con su multiplicidad algebraica).

Algunos ejemplos de la localizacin del espectro de ciertas subclases de matrices normales son:

Todos los valores propios de una matriz hermtica (A = A*) son reales. Adems, todos los valores propios de una matriz definida positiva son positivos; Todos los valores propios de una matriz antihermtica (A = A*) son imaginarios puros; Todos los valores propios de una matriz unitaria (A-1 = A*) tienen valor absoluto uno;

Si A es una matriz mn con m n, y B es una matriz nm, entonces BA tiene los mismos valores propios de AB ms n m valores propios nulos. A cada matriz se le puede asociar una norma vectorial, que depende de la norma de su dominio, el operador norma de una matriz cuadrada es una cota superior del mdulo de sus valores propios, y por tanto de su radio espectral. Esta norma est directamente relacionada con el mtodo de las potencias para calcular el valor propio de mayor mdulo. Para matrices normales, el operador norma (la norma eucldea) es el mayor mdulo entre de sus valores propios.

[editar] Vector propio conjugado


Un vector propio conjugado es un vector que tras la transformacin pasa a ser un mltiple escalar de su conjugado, donde el escalar recibe el nombre de valor propio conjugado de la transformacin lineal. Los vectores propios y valores propios conjugados representan esencialmente la misma informacin y significado que los vectores propios y valores propios, pero aparecen cuando se utiliza un sistema de coordenadas alternativo. La ecuacin correspondiente es:

Por ejemplo, en teora de electromagnetismo disperso, la transformacin lineal A representa la accin efectuada por el objeto dispersor, y los vectores propios representan los estados de polarizacin de la onda electromagntica. En ptica, el sistema coordenado se define a partir del punto de vista de la onda, y lleva a una ecuacin de valor propio regular, mientras que en radar, el sistema coordenado se define desde el punto de vista del radar, y da lugar a una ecuacin de valor propio conjugado.

[editar] Problema de valor propio generalizado


Un problema de valor propio generalizado (2 sentido) es de la forma

donde A y B son matrices. Los valores propios generalizados (2 sentido) pueden obtenerse resolviendo la ecuacin

El conjunto de matrices de la forma A B, donde es un nmero complejo, recibe el nombre de lpiz si B es invertible, entonces el problema original puede escribirse en la forma

que es un problema de valores propios estndar. Sin embargo, en la mayora de situaciones es preferible no realizar la inversin, y resolver el problema de valor propio generalizado con la configuracin original. Si A y B son matrices simtricas con entradas reales, entonces los valores propios son reales. Esto se aprecia tan fcilmente a partir de la segunda formulacin equivalente, pues la matriz B 1A no es necesariamente simtrica si A y B lo son. La aplicacin de moleculares orbitales expuesta ms adelante proporciona un ejemplo de este caso.

[editar] Entradas de un anillo


En una matriz cuadrada A con entradas de un anillo, recibe el nombre de valor propio por la derecha si existe un vector columna x tal que Ax=x, o un valor propio por la izquierda si existe un vector fila no nulo y tal que yA=y. Si el anillo es conmutativo, los valores propios por la izquierda son iguales a los valores propios por la derecha y se les llama simplemente valores propios.

5.4. diagonalizacion. Matices simtricas y ortogonales.

Diagonalizacin de matrices
. Qu es diagonalizar una matriz?
Para estudiar una matriz suele ser conveniente expresarla de forma lo ms sencilla posible. Diagonalizar una matriz A es precisamente eso: escribirla de manera simple encontrando una matriz invertible P y una diagonal D (si se puede) tales que A = P D P-1 La matriz P se llama matriz de paso. Puede que esto, al principio, no parezca ms simple de lo que ya era A directamente. Sin embargo, lo es desde muchos puntos de vista. Dado que las matrices suelen usarse para representar aplicaciones lineales, la expresin anterior puede verse como un cambio de base de la aplicacin representada por A; entonces, esta forma de escribirlo dice: hay una base en la que la aplicacin lineal A tiene una forma muy simple (diagonal). Esto es til, por ejemplo, para clasificar una aplicacin lineal y estudiar sus propiedades. Las matrices se usan para representar otras cosas como cnicas, cudricas o formas bilineales, y en estos casos tambin resulta til esta forma de expresarlas. La relacin anterior entre las matrices A y D es importante y aparece en muchos contextos, as que tiene nombre propio:

Cuando dos matrices cuadradas A y B verifican que A = P B P-1 para ciertamatriz cuadrada P (invertible, claro) decimos que A y B son semejantes.

Una matriz es diagonalizable cuando se puede diagonalizar; es decir, cuando podemos encontrar una matriz diagonal y una invertible de forma que la matriz se escriba como dijimos antes. Dicho de otra forma: una matriz es diagonalizable cuando es semejante a una matriz diagonal. En estas prcticas slo consideraremos como diagonalizables las matrices que sean semejantes a una matriz diagonal real. Entonces, ms exactamente: una matriz es diagonalizable cuando es semejante a una matriz diagonal real.

. Cundo y cmo podemos diagonalizar una matriz?


Si conseguimos escribir una matriz A como A = P D P-1, entonces podemos poner tambin A P = P D. Si D es diagonal y nos fijamos en la columna i de esta ltima igualdad lo que tenemos es que A xi = li xi (donde xi es la columna i de A y li es el nmero en el lugar i de la diagonal de D). Esto nos dice que para diagonalizar una matriz nos hace falta conocer los vectores a los que les pase algo as. Estos vectores tambin tienen nombre: diagonalizacion.nb 1

Si un nmero l y un vector no nulo x verifican la relacin A x = l x diremos que l es un valor propio o autovalor de la matriz A y que x es un vector propio o autovector de A asociado al valor propio l.
Es fcil ver que diagonalizar una matriz A de tamao nn es lo mismo que encontrar n vectores propios linealmente independientes asociados a valores propios reales, ya que entonces podemos ponerlos por columnas y conseguir as la matriz P (puedes comprobar que entonces se cumple la relacin que buscamos). Entonces, para diagonalizar una matriz lo que tenemos que hacer es buscar n vectores propios suyos linealmente independientes asociados a valores propios reales.

Matrices simtricas
Se dice que una matriz real es simtrica, si AT = A; y que es antisimtrica, si AT = - A. Ejemplo: Consideremos las siguientes matrices:
2 A= -3 5 -3 6 7 5 7 -8

0 B= -3 4

3 0 -5

-4 5 0

1 C= 0

0 1

0 0

Podemos observar que los elementos simtricos de A son iguales, o que AT = A. Siendo as, A es simtrica. Para B los elementos simtricos son opuestos entre s, de este modo B es antisimtrica. A simple vista, C no es cuadrada; en consecuencia, no es ni simtrica ni antisimtrica.

Una matriz de

elementos:

es simtrica, si es una matriz cuadrada (m = n) y aij = aji para todo i distinto de j con i, j =1,2,3,4,...,n. Ntese que la simetra es respecto a la diagonal principal. Ejemplo para n = 3:

A es tambin la matriz traspuesta de s misma: At = A. Esta ltima igualdad es una definicin alternativa de matriz simtrica. Las matrices simtricas son un caso particular de las matrices hermticas. Propiedades Uno de los teoremas bsicos que concierne este tipo de matrices es el teorema espectral de dimensin finita, que dice que toda matriz simtrica cuyos elementos sean reales es diagonalizable. En particular, es semejante a una matriz ortogonal.

Matrices ortogonales

Se dice que una matriz real A es ortogonal, si AA T = AT A = I. Se observa que una matriz ortogonal A es necesariamente cuadrada e invertible, con inversa A 1 = AT. Consideremos una matriz 3 x 3 arbitraria:
a1 A= b1 c1 a2 b2 c2 a3 b3 c3

Si A es ortogonal, entonces:
a1 A.AT = b1 c1 a2 b2 c2 a3 b3 c3 . a1 a2 a3 b1 b2 b3 c1 c2 c3 = 1 0 0 0 1 0 0 0 1 =I

Una matriz ortogonal es un matriz cuya matriz inversa coincide con su matriz traspuesta. El conjunto de matrices ortogonales constituyen una representacin lineal del grupo ortogonal . Geomtricamente las matrices ortogonales representan transformaciones isomtricas en espacios vectoriales reales1 (o ms exactamente espacios de Hilbert reales) llamadas justamente, transformaciones ortogonales. Estas transformaciones son isomorfismos internos del espacio vectorial en cuestin. En el caso real dichas transformciones pueden ser rotaciones, reflexiones especulares o inversiones y son usadas extensivamente en computacin grfica. Por sus propiedades, tambin son usadas para el estudio de ciertos fibrados y en fsica se las usa en el estudio del movimiento de cuerpos rgidos y en la formulacin de ciertas teoras de campos.

Definicin
Sea n un nmero natural y sea A una matriz cuadrada n por n, con entradas reales. Se dice que la matriz es ortogonal si:

donde

representa la matriz traspuesta de

e representa la matriz identidad.

5.-Ejemplos
Supongamos que la matriz de nmeros reales

es ortogonal y su determinante es +1 -1. Su transpuesta es igual a su inversa

de modo que d = a y c = b y la matriz M es de la forma

Finalmente,

As que los nmeros a y b satisfacen adems la propiedad que la suma de sus cuadrados vale 1. Por lo tanto, existe un nmero real para el cual

Concluimos que: toda matriz ortogonal de SO(2) puede escribirse como

con real.

Caracterizacin
Sea A una matriz ortogonal n por n. Sean , , los n vectores fila de la matriz. En trmino de estos vectores, es muy fcil expresar los elementos de la matriz que resulta de multiplicar A por su transpuesta:

De modo que los vectores fila de una matriz ortogonal forman un conjunto de n vectores ortonormales. Puesto que la ecuacin

tambin se verifica, tenemos que los vectores columna de la matriz A tambin forman un conjunto ortonormal de vectores. Como el recproco de todo esto tambin es cierto, tenemos Una matriz real A es ortogonal si y slo si sus vectores filas o vectores columna son cada uno un conjunto ortonormal de vectores. Es en este sentido que se dice que se ha hecho una caracterizacin de las matrices ortogonales. Dada una matriz, basta verificar esta propiedad entre sus vectores fila y columna para determinar si dicha matriz es o no ortogonal.

Propiedades

De la definicin, es inmediato que si una matriz es ortogonal, la matriz es no singular o invertible y su transpuesta coincide con su inversa El determinante de una matriz ortogonal A es +1 -1. En efecto, de las propiedades del determinante tenemos

y por tanto,

El conjunto de matrices nxn ortogonales, junto con la operacin de producto de matrices es un grupo llamado grupo ortogonal O(n). Supongamos que A y B son matrices ortogonales y sea C igual al producto de A por B. Usando las propiedades del producto de matrices, tenemos

y as, el producto de matrices ortogonales es una matriz ortogonal.

En teora de grupos, al grupo de matrices ortogonales n por n con coeficientes en el cuerpo se denomina grupo ortogonal de dimensin n y se representa con . En particular el subgrupo formado por las matrices ortogonales de determinante +1, se llama grupo especial ortogonal y se le representa con . Entre las matrices ortogonales se encuentran las matrices de rotacin y las de permutacin. Cuando el cuerpo es el de los reales entonces se escribe simplemente y .

También podría gustarte