Ir al contenido

Factorización LU

De Wikipedia, la enciclopedia libre

En el álgebra lineal, la factorización o descomposición LU (del inglés Lower-Upper) es una forma de factorización de una matriz como el producto de una matriz triangular inferior y una superior. Debido a la inestabilidad de este método, deben tenerse en cuenta algunos casos especiales, por ejemplo, si uno o varios elementos de la diagonal principal de la matriz a factorizar es cero, es necesario premultiplicar la matriz por una o varias matrices elementales de permutación. Existe un segundo método llamado factorización o con pivote. Esta descomposición se usa en el análisis numérico para resolver sistemas de ecuaciones (más eficientemente) o encontrar las matrices inversas.

Definiciones

[editar]

Sea una matriz invertible (si no lo fuera, entonces la descomposición podría no ser única). Tenemos que

,

donde y son matrices inferiores y superiores triangulares respectivamente.

Para matrices , esto es.


Por otro lado la descomposición PLU tiene esta forma:

Con matrices triangulares inferiores, matrices de permutación y una matriz triangular superior.

Para determinar tenemos que

y cada está dado por:

=

Esto se debe a que es igual a , pero con los elementos de la subdiagonal permutados.

Otra forma de ver este tipo de factorización es: . Recordando que las matrices de permutación. La matriz permutación es invertible y su inversa es su traspuesta

Unidad

[editar]

Las matrices y , donde L es una matriz triangular inferior con unos en la diagonal y U es una matriz triangular superior, son únicas, si la matriz no es singular. En caso contrario pueden no ser únicas.

Demostración:

Dada la matriz , tenemos que y . Recordemos que son invertibles por tener el determinante distinto de cero entonces:

, y también Entonces es una matriz triangular inferior, con unos en la diagonal y es triangular superior (recordando que el producto matricial de triangulares superiores/inferiores es triangular superior/inferior). La única matriz que cumple estas dos propiedades es la identidad. Por lo tanto:

y .

Con lo cual se concluye que y

Algoritmos

[editar]

La factorización es básicamente una forma modificada de la eliminación gaussiana. Transformamos la matriz en una matriz triangular superior anulando los elementos debajo de la diagonal. Entonces,

,

donde son matrices elementales, que representan los distintos pasos de la eliminación. Luego recordando que la inversa de una matriz elemental, es otra matriz elemental tenemos que

.

Llamamos a una matriz triangular inferior.

Aplicaciones

[editar]

Resolviendo sistemas de álgebra lineal

[editar]

Dada la ecuación matricial .

Queremos la solución para un determinando y . Los pasos son los siguientes:

  1. Primero, resolvemos para .
  2. Segundo, resolvemos para .

Nótese que ya tenemos las matrices y . La ventaja de este método es que es computacionalmente eficiente, porque podemos elegir el vector b que nos parezca y no tenemos que volver a hacer la eliminación de Gauss cada vez.

Factorización LU con pivoteo
[editar]

Al utilizar la técnica de triangulación de Gauss para obtener la descomposición L-U de una matriz A podemos encontrarnos con el mismo problema de encontrar un coeficiente en la diagonal que sea 0 o un mal condicionamiento. Podemos entonces utilizar la misma técnica de pivotación : buscar el siguiente elemento en la columna que sea distinto de 0 o, mejor aún, el de mayor valor absoluto.

Pero una vez obtenida la descomposición , si queremos aplicarla a resolver un sistema de ecuaciones, tendremos que tener en cuenta la “historia” o registro de las pivotaciones efectuadas para aplicar al vector de términos independientes.

Esto se realiza mediante la matriz de permutación , que consiste en efectuar sobre la matriz identidad, las mismas permutaciones de filas que se vayan efectuando sobre la matriz que se está triangulando por Gauss.

Al mismo tiempo se efectúan las mismas permutaciones sobre los elementos subdiagonal de la matriz L.

Así, si tenemos, por ejemplo, el sistema:

y y son las matrices obtenidas de la matriz como descomposición por triangulación de Gauss con pivotaciones recogidas en la matriz de permutación , es fácil comprobar que

Por tanto los procesos de sustitución descendente y ascendente los aplicamos a :

  1. Primero, resolvemos para
  2. Segundo, resolvemos para

Matriz Inversa

[editar]

Las matrices y pueden ser usadas para calcular la matriz inversa mediante:

.

Algunas implementaciones que invierten matrices usan este método.

Determinante de una matriz

[editar]

Las matrices y pueden ser usadas para calcular el determinante de la matriz muy eficientemente porque y los determinantes de matrices triangulares son simplemente el producto de los elementos de sus diagonales. En particular, si es una matriz triangular en cuya diagonal todos los elementos son uno, entonces:

La misma aproximación al problema puede ser usada para factorizaciones LUP en las que aparece matrices de permutación, pues el determinante de una matriz de permutación es, donde es el número de permutaciones de filas en la descomposición.