Aplicaciones Metodos

Descargar como docx, pdf o txt
Descargar como docx, pdf o txt
Está en la página 1de 5

PARA EL PDF

FACTORIZACION LU

APLICACIONES DEL MÉTODO

4.1 Resolución de un sistema lineal

La aplicación más directa de la factorización LU es la resolución de sistemas lineales. Al


transformar la matriz del sistema en un producto de matrices triangulares, el sistema de
ecuaciones puede transformarse en dos sistemas triangulares, que son muy sencillos de
resolver en un ordenador usando el algoritmo de sustitución hacia atrás.

Si tenemos el sistema de ecuaciones Ax=b, podemos cambiarlo por LUx=b. Pero Ux será
también un vector columna, por lo que nos queda por un lado que Ly=b, y por otro que
Ux=y. Ambos son sistemas triangulares. Resolvemos el primero para obtener y, y a
continuación el segundo para obtener la solución buscada x

4.2 Resolución de varios sistemas lineales

En ocasiones podemos tener varios sistemas lineales en los que la matriz del sistema A es
siempre la misma, y en los que el vector de términos independiente bk   k ∈ [1,M]es
diferente para cada sistema.

Los métodos exactos para resolver sistemas numéricamente realizan del orden de N3
operaciones para resolver un sistema, donde N es el orden de la matriz A. Por tanto, para
resolver M sistemas necesitaríamos MN3 operaciones en total. El método de Doolittle
también necesita N3 operaciones para obtener los factores. Pero la resolución de sistemas
lineales solo necesita del orden de N2 operaciones.

Por tanto, si usamos la factorización de LU para obtener los factores de la matriz A, una vez
hallados, podremos resolver cada uno de los sistemas triangulares siguientes:

1. Lyk=bk
2. Uxk=yk

En total se necesitarán N3+2MN2 operaciones para resolver los M sistemas. Si M es


grande, esta opción conlleva muchas menos operaciones que MN3.

4.3 Cálculo de la matriz inversa

El cálculo de la matriz inversa es similar al caso anterior de resolver varios sistemas lineales
con la misma matriz del sistema A. En este caso, los vectores de términos independientes son
cada una de las columnas de la matriz inversa ik. Cada una de las soluciones xk obtenidas de
esta manera es la columna correspondiente de la matriz inversa de A.

MÉTODO DE JACOBI

APLICACIÓN DEL MÉTODO

El método de Jacobi permite hallar las aproximaciones a una solución de sistemas de


ecuaciones lineales, utilizando los valores iniciales para la primera aproximación, luego los
de la primera para la segunda y así sucesivamente; en este método el cálculo de cada variable
es independiente por lo tanto ninguna variable depende de la otra.

El procedimiento a seguir para la aplicación del método es el siguiente:

 Se debe introducir unas aproximaciones iniciales, la matriz de coeficientes, el vector


de términos independientes, una tolerancia y un número total de iteraciones. 
 Se toman las aproximaciones iniciales para hallar las nuevas aproximaciones,
teniendo en cuenta el fundamento del método. 
 En cada paso, es posible calcular el error, que es este caso está definido en normas
(las cuales son infinitas).
 Para la finalización de los programas se tiene en cuenta, si el programa sobrepasa el
número de iteraciones, o si el error es menor del propuesto al principio; una vez
ocurra alguna de estas dos situaciones, la última iteración tendrá las aproximaciones a
la solución del sistema de ecuaciones estudiado.

METODO DE GAUSS-SEIDEL

APLICACIÓNES DEL MÉTODO

El método de Gauss-Seidel no se limita únicamente a sistema de ecuaciones lineales 2×2.


Puede generalizar el procedimiento para resolver un sistema lineal de n ecuaciones con n
incógnitas, el cual se representa matricialmente así:

AX=b

Donde A es una matriz n x n, mientras X es el vector n componentes de las n variables a ser


calculadas; y b es un vector que contiene los valores de los términos independientes.
Para generalizar la secuencia de iteraciones aplicadas en el caso ilustrativo a un sistema n x n,
del que quiere calcularse la variable Xi, se aplicará la siguiente fórmula:

En esta ecuación:

– k es el índice para el valor obtenido en la iteración k.

-k+1 indica el nuevo valor en la siguiente.

El número final de iteraciones queda determinado cuando el valor obtenido en la iteración


k+1 difiere del obtenido inmediatamente antes, en una cantidad ε que es justamente la
precisión deseada.

Bibliografía

MateWiki. (02 de Octubre de 2013). Obtenido de MateWiki:


https://mat.caminos.upm.es/wiki/Factorizaci%C3%B3n_de_Doolittle

Sites. (13 de Diciembre de 2015). Obtenido de Sites:


https://sites.google.com/site/pn20111/metodos-para-la-solucion-de-sistemas-de-
ecuaciones-e-interpolacion/5-metodos-iterativos/5-2-metodo-de-jacobi

Zapata, L. F. (12 de Mayo de 2018). lidefer. Obtenido de lidefer: https://www.lifeder.com/metodo-


de-gauss-seidel/#Aplicaciones

PARA EL PREZI
Resolución de un sistema lineal
La aplicación más directa de la factorización LU es la resolución de sistemas lineales. Al
transformar la matriz del sistema en un producto de matrices triangulares, el sistema de
ecuaciones puede transformarse en dos sistemas triangulares, que son muy sencillos de
resolver en un ordenador usando el algoritmo de sustitución hacia atrás.

4.2 Resolución de varios sistemas lineales

Los métodos exactos para resolver sistemas numéricamente realizan del orden de N3
operaciones para resolver un sistema, donde N es el orden de la matriz A. Por tanto, para
resolver M sistemas necesitaríamos MN3 operaciones en total. El método de Doolittle
también necesita N3 operaciones para obtener los factores. Pero la resolución de sistemas
lineales solo necesita del orden de N2 operaciones.

4.3 Cálculo de la matriz inversa

En este caso, los vectores de términos independientes son cada una de las columnas de la
matriz inversa ik. Cada una de las soluciones xk obtenidas de esta manera es la columna
correspondiente de la matriz inversa de A.

MÉTODO DE JACOBI

APLICACIÓN DEL MÉTODO

El método de Jacobi permite hallar las aproximaciones a una solución de sistemas de


ecuaciones lineales, utilizando los valores iniciales para la primera aproximación, luego los
de la primera para la segunda y así sucesivamente; en este método el cálculo de cada variable
es independiente por lo tanto ninguna variable depende de la otra.

METODO DE GAUSS-SEIDEL

APLICACIÓNES DEL MÉTODO

Puede generalizar el procedimiento para resolver un sistema lineal de n ecuaciones con n


incógnitas, el cual se representa matricialmente así:

AX=b

Donde A es una matriz n x n, mientras X es el vector n componentes de las n variables a ser


calculadas; y b es un vector que contiene los valores de los términos independientes.

También podría gustarte