Sistema de ecuacións lineais
En matemáticas, un sistema de ecuacións lineais (ou sistema linear) é unha colección de ecuacións lineais que levan o mesmo conxunto de variables. Por exemplo,
é un sistema de tres ecuacións das tres variables , e . Unha solución a un sistema lineal é unha asignación de números ás variables de xeito que tódalas ecuacións sexan simultaneamente satisfeitas. Unha solución ao sistema anterior é dada por
xa que fai que as tres ecuacións sexan válidas.
En matemáticas, a teoría de sistemais lineais é unha rama da álxebra lineal, unha materia fundamental das matemáticas modernas. Os algoritmos computacionais para atopar solucións son unha parte importante da álxebra lineal numérica e, tales métodos, xogan un rol moi importante na enxeñería, a física, a química, a informática e as ciencias económicas. Adoito, un sistema de ecuacións non lineais pódese aproximar por un sistema lineal (ver linealización), unha técnica útil para facer un modelo matemático ou unha simulación computerizada dun sistema relativamente complexo.
Exemplo elemental
[editar | editar a fonte]Un dos tipos máis sinxelos de sistema linear implica dúas ecuacións e dúas variábeis:
Un método para resolver un sistema deste tipo é o seguinte. Primeiro, resolva a ecuación superior para en función de (o que usualmente se chama despexar ou resolver a ):
Agora substitúa esta expresión por x na ecuación inferior:
Isto dá como resultado unha única ecuación que inclúe só a variábel . Ao resolver temos , e substituíndo isto de novo na ecuación con obtemos .
Forma xeral
[editar | editar a fonte]Un sistema xeral de m ecuacións lineares con n incógnitas e os coeficientes, de cada ecuación e cada incógnita, pódese escribir como
onde son as incógnitas, son os coeficientes do sistema e son os termos constantes.[1]
Ecuación vectorial
[editar | editar a fonte]Unha visión moi útil é que cada incógnita é un peso para un vector columna nunha combinación linear.
Ecuación matricial
[editar | editar a fonte]A ecuación vectorial é equivalente a unha ecuación matricial da forma
onde A é unha matriz de dimensión m×n, x é un vector columna con n coeficientes e b é un vector columna con m coeficientes.[2]
Agora poderemos relacionar conceptos do sistema coas matrices como o rango da matriz.
Conxunto de solucións
[editar | editar a fonte]Unha solución] dun sistema linear é unha asignación de valores ás variábeis x1, x 2, ..., xn de forma que se cumpre para cada unha das ecuacións. O conxunto de todas as posíbeis solucións chámase conxunto de solucións.[3]
Un sistema linear pode comportarse de calquera das tres formas seguintes:
- O sistema ten infinitas solucións.
- O sistema ten unha solución única.
- O sistema non ten "ningunha solución".
Interpretación xeométrica
[editar | editar a fonte]Para un sistema que inclúe dúas variábeis (x e y), cada ecuación linear determina unha recta no plano xy. Dado que unha solución dun sistema linear debe satisfacer todas as ecuacións, o conxunto solución é a intersección destas rectas e, polo tanto, é unha recta (cando as rectas son coincidentes), un só punto (cando as rectas se cruzan) ou o conxunto baleiro (cando as rectas son paralelas).
Para tres variábeis, cada ecuación linear determina un plano no espazo tridimensional, e o conxunto de solucións é a intersección destes planos. De modo parecido que en dúas dimensións, con máis combinacións de posibilidades, os planos poden coincidir, seren paralelos ou intersecar nun punto ou nunha recta.
Para n variábeis a interpretación sería dentro dun hiperplano.
Comportamento xenérico
[editar | editar a fonte]En xeral, o comportamento dun sistema linear está determinado pola relación entre o número de ecuacións e o número de incógnitas.
- Un sistema con menos ecuacións que incógnitas ten infinitas solucións, pero pode que non teña solución. Este sistema coñécese como sistema indeterminado.
- Un sistema co mesmo número de ecuacións e incógnitas ten unha solución única.
- En xeral, un sistema con máis ecuacións que incógnitas non ten solución. Este sistema tamén se coñece como sistema sobredeterminado.
No primeiro caso, a dimensión do conxunto de solucións é, en xeral, igual a n − m, onde n é o número de variábeis e m é o número de ecuacións.
Un sistema de ecuacións lineares compórtase de forma diferente ao caso xeral se as ecuacións son dependentes linearmente, ou se é inconsistente e non ten máis ecuacións que incógnitas.
Propiedades
[editar | editar a fonte]Independencia
[editar | editar a fonte]As ecuacións dun sistema linear son independentes se ningunha das ecuacións se pode derivar alxébricamente das outras. Cando as ecuacións son independentes, cada ecuación contén nova información sobre as variábeis, e ao eliminar calquera das ecuacións aumenta o tamaño do conxunto de solucións.
Por exemplo, as ecuacións
non son independentes: son a mesma ecuación cando se escalan cun factor de dous e producirían gráficos idénticos. Este é un exemplo de equivalencia nun sistema de ecuacións lineares.
Para un exemplo máis complicado, as ecuacións
non son independentes, porque a terceira ecuación é a suma das outras dúas. De feito, calquera destas ecuacións pódese derivar das outras dúas, e calquera das ecuacións pódese eliminar sen afectar ao conxunto de solucións. As gráficas destas ecuacións son tres rectas que se cortan nun só punto.
Consistencia
[editar | editar a fonte]Un sistema linear é inconsistente se non ten solución e no caso contrario, dise que é consistente.[4] Cando o sistema é inconsistente, é posíbel derivar unha contradición das ecuacións, que sempre pode reescribirse como a declaración 0 = 1.
Por exemplo, as ecuacións
son inconsistentes. De feito, restando a primeira ecuación da segunda e multiplicando os dous lados do resultado por 1/6, obtemos 0 = 1. As gráficas destas ecuacións no plano xy son un par de liñas paralelas.
É posíbel que tres ecuacións lineares sexan inconsistentes, aínda que dúas calquera delas sexan consistentes xuntas. Por exemplo, as ecuacións
son inconsistentes. Sumando as dúas primeiras ecuacións temos 3x + 2y = 2, que se pode restar da terceira ecuación para obter 0 = 1. Dúas destas ecuacións teñen unha solución común. O mesmo fenómeno pode ocorrer para calquera número de ecuacións.
En xeral, as inconsistencias ocorren se os lados esquerdos das ecuacións dun sistema son linearmente dependentes e os termos constantes non satisfán a relación de dependencia. Un sistema de ecuacións cuxos lados esquerdos son linearmente independentes sempre é consistente.
Dito doutro xeito, segundo o teorema de Rouché–Capelli, calquera sistema de ecuacións (sobredeterminado ou non) é inconsistente se o rango da matriz aumentada é maior que o rango da matriz de coeficientes. Se, pola contra, os rangos destas dúas matrices son iguais, o sistema debe ter polo menos unha solución. A solución é única se e só se o rango é igual ao número de variábeis. En caso contrario, a solución xeral ten k parámetros libres onde k é a diferenza entre o número de variábeis e o rango; daí que en tal caso exista unha infinidade de solucións.
Os sistemas de ecuacións pódense clasificar segundo o número de solucións que poden presentar. Segundo este caso, pódense presentar os seguintes casos:
- Sistema compatíbel ou posíbel se ten solución, neste caso tamén se pode distinguir entre:
- Sistema compatíbel determinado ou posíbel determinado cando tes unha única solución.
- Sistema compatíbel indeterminado ou posíbel indeterminado cando admite un conxunto infinito de solucións.
- Sistema incompatíbel ou imposíbel se non hai solución.
Un sistema é compatíbel determinado .
Equivalencia
[editar | editar a fonte]Dous sistemas lineares que usan o mesmo conxunto de variábeis son equivalentes se cada unha das ecuacións do segundo sistema se pode derivar alxébricamente a partir das ecuacións do primeiro sistema, e viceversa. Dous sistemas son equivalentes se ambos os dous son inconsistentes ou cada ecuación de cada un deles é unha combinación linear das ecuacións do outro. Por tano dous sistemas lineares son equivalentes se e só se teñen o mesmo conxunto de solucións.
Resolver un sistema linear
[editar | editar a fonte]Eliminación de variábeis
[editar | editar a fonte]O método máis elemental para resolver un sistema de ecuacións lineares é eliminar varias variábeis. Este método pódese describir do seguinte xeito:
- Na primeira ecuación, resolva unha das variábeis en función das outras.
- Substitúa esta expresión nas ecuacións restantes. Isto dá un sistema de ecuacións cunha ecuación e unha incógnita menos.
- Repita os pasos 1 e 2 ata que o sistema se reduza a unha única ecuación linear.
- Resolva esta ecuación
- Percorra cara atrás as ecuacións substituíndo os valores conseguidos ata atopar a solución completa.
Por exemplo, considere o seguinte sistema:
Resolvendo a primeira ecuación para temos , e metendo ese resultado na segunda e terceira ecuación obtemos
que ao simplificar fica como
Xa que a parte esquerda destas dúas ecuacións (LHS en inglés) é igual a y, ao igualar as partes dereitas das ecuacións (RHS en inglés) temos unha ecuación cunha única incógnita. Agora temos:
Imos cara atrás e substituímos z = 2 na segunda ou terceira ecuación dá y = 8, e os valores de y e z na primeira ecuación producen x = - 15. Polo tanto, o conxunto de solucións é o terna ordenada .
Redución de filas
[editar | editar a fonte]- Artigo principal: Eliminación de Gauss.
Na redución de filas (tamén coñecida como eliminación de Gauss), o sistema linear represéntase como unha matriz aumentada[5]
A continuación, esta matriz modifícase usando operacións elementais de filas ata alcanzar a forma escalonada de filas reducida. Hai tres tipos de operacións elementais de filas: [5]
- Tipo 1: troca as posicións de dúas filas.
- Tipo 2: Multiplica unha fila por un escalar (número) distinto de cero.
- Tipo 3: Suma ou resta a unha fila outra fila multiplicada por un escalar.
Dado que estas operacións son reversíbeis, a matriz aumentada producida sempre representa un sistema linear que é equivalente ao orixinal.
Existen varios algoritmos específicos para reducir por filas unha matriz aumentada, o máis sinxelo é a eliminación de Gauss (ou Gauss-Jordan). O seguinte cálculo mostra a eliminación de Gauss-Jordan aplicada á matriz anterior:
A última matriz está en forma de escalón de fila reducida e representa o sistema . Unha comparación co exemplo da sección anterior sobre a eliminación alxébrica de variábeis mostra que estes dous métodos son de feito iguais; a diferenza radica en como se escriben os cálculos.
Regra de Cramer
[editar | editar a fonte]- Artigo principal: Regra de Cramer.
A regra de Cramer é unha fórmula explícita para a solución dun sistema de ecuacións lineares, con cada variábel dada por un cociente de dous determinantes. Seguindo co exemplo deste artigo:
Para cada variábel, o denominador é o determinante da matriz de coeficientes, mentres que o numerador é o determinante dunha matriz na que unha columna foi substituída polo vector de termos constantes.
Aínda que a regra de Cramer é importante teoricamente, ten pouco valor práctico para matrices grandes, xa que o cálculo de grandes determinantes é un bocadiño engorroso.
Solución matricial
[editar | editar a fonte]Se o sistema de ecuacións se expresa na forma matricial , o conxunto de solucións enteiro tamén se pode expresar en forma matricial. Se a matriz A é cadrada (ten m filas e n=m columnas) e ten rango completo (todas as filas m son independentes), entón o sistema ten unha solución única dada por
onde é a inversa de A. De forma máis xeral, independentemente de se m=n ou non e independentemente do rango de A, todas as solucións (se as existen) danse usando a inversa de Moore–Penrose de A, denotada como , como segue:
onde é un vector de parámetros libres que abrangue todos os posíbeis vectores de dimensión .
Outros métodos
[editar | editar a fonte]- Artigo principal: Solución numérica de sistemas lineares.
Aínda que os sistemas de tres ou catro ecuacións pódense resolver facilmente a man, as computadoras úsanse a miúdo para sistemas máis grandes. O algoritmo estándar para resolver un sistema de ecuacións lineares baséase na eliminación de Gauss con algunhas modificacións. En primeiro lugar, é esencial evitar a división por números pequenos, o que pode levar a resultados inexactos. Isto pódese facer reordenando as ecuacións se é necesario, un proceso coñecido como pivotación. En segundo lugar, o algoritmo non fai exactamente a eliminación de Gauss, mais calcula a descomposición LU da matriz A.
Se a matriz A ten algunha estrutura especial, esta pode ser usada para obter algoritmos máis rápidos ou precisos. Por exemplo, os sistemas cunha matriz simétrica definida positiva pódense resolver dúas veces máis rápido coa descomposición de Cholesky. A recursividade de Levinson é un método rápido para matrices de Toeplitz. Tamén existen métodos especiais para matrices con moitos elementos cero (as chamadas matrices dispersas), que aparecen a miúdo nas aplicacións.
Adoita adoptarse un enfoque completamente diferente para sistemas moi grandes, que doutro xeito levarían demasiado tempo ou memoria. A idea é comezar cunha aproximación inicial á solución (que non ten por que ser precisa en absoluto), e mudar esta aproximación en varios pasos para achegala á verdadeira solución. Unha vez que a aproximación é suficientemente precisa, esta é a solución do sistema. Isto son os métodos iterativos. Para algunhas matrices dispersas, a introdución da aleatoriedade mellora a velocidade dos métodos iterativos.[6] Un exemplo de método iterativo é o método de Jacobi, onde a matriz divídese na súa compoñente diagonal e a súa compoñente non diagonal . Unha suposición inicial úsase ao comezo do algoritmo. Cada iteración posterior calcúlase mediante a ecuación iterativa:
- .
Cando a diferenza entre e é suficientemente pequena, o algoritmo dise que converxe na solución.[7]
Sistemas homoxéneos
[editar | editar a fonte]Un sistema de ecuacións lineares é homoxéneo se todos os termos constantes son cero:
Un sistema homoxéneo equivale a unha ecuación matricial da forma
onde A é unha matriz m × n, x é un vector columna con n coeficientes e 0 é o vector cero con m coeficientes.
Conxunto de solucións homoxéneas
[editar | editar a fonte]Todo sistema homoxéneo ten polo menos unha solución, coñecida como solución cero (ou trivial), que se obtén asignando o valor de cero a cada unha das variábeis. Se o sistema ten unha matriz non singular (det(A) ≠ 0), entón tamén é a única solución. Se o sistema ten unha matriz singular entón hai un conxunto de solucións cun número infinito de solucións. Este conxunto de solucións ten as seguintes propiedades adicionais:
- Se u e v son dous vectores que representan solucións a un sistema homoxéneo, entón a suma vectorial u + v tamén é unha solución para o sistema.
- Se u é un vector que representa unha solución a un sistema homoxéneo, e r é calquera escalar, entón r u tamén é unha solución do sistema.
Estas son exactamente as propiedades necesarias para que o conxunto de solucións sexa un subespazo linear de Rn. En particular, o conxunto de solucións para un sistema homoxéneo é o mesmo que o espazo nulo da matriz A correspondente.
Relación con sistemas non homoxéneos
[editar | editar a fonte]Existe unha estreita relación entre as solucións dun sistema linear e as solucións do sistema homoxéneo correspondente:
Especificamente, se p é algunha solución específica para o sistema linear , entón a totalidade do conxunto de solucións pódese describir como
Xeometricamente, isto di que o conxunto de solucións de Ax = b' é unha translación do conxunto de solucións para Ax = 0. En concreto, o plano para o primeiro sistema pódese obter trasladando o subespazo linear do sistema homoxéneo polo vector p.
Este razoamento só se aplica se o sistema Ax = b ten polo menos unha solución. Isto ocorre se e só se o vector b reside na imaxe da transformación linear A.
Notas
[editar | editar a fonte]- ↑ Beauregard & Fraleigh (1973), p. 65.
- ↑ Beauregard & Fraleigh (1973), pp. 65–66.
- ↑ "Systems of Linear Equations" (PDF). math.berkeley.edu.
- ↑ Whitelaw (1991), p. google.com/books?id=6M_kDzA7-qIC&pg=PA70 70.
- ↑ 5,0 5,1 Beauregard & Fraleigh (1973), p. 68.
- ↑ Hartnett, Kevin (8 de marzo , 2021). "O novo algoritmo rompe o límite de velocidade para resolver ecuacións lineares". Consultado o 9 de marzo de 2021.
- ↑ "Método Jacobi".
Véxase tamén
[editar | editar a fonte]Bibliografía
[editar | editar a fonte]- Anton, Howard (1987). Elementary Linear Algebra (5th ed.). New York: Wiley. ISBN 0-471-84819-0.
- Beauregard, Raymond A.; Fraleigh, John B. (1973). A First Course In Linear Algebra: with Optional Introduction to Groups, Rings, and Fields. Boston: Houghton Mifflin Company. ISBN 0-395-14017-X.
- Burden, Richard L.; Faires, J. Douglas (1993). Numerical Analysis (5th ed.). Boston: Prindle, Weber and Schmidt. ISBN 0-534-93219-3.
- Cullen, Charles G. (1990). Matrices and Linear Transformations. MA: Dover. ISBN 978-0-486-66328-9.
- Golub, Gene H.; Van Loan, Charles F. (1996). Matrix Computations (3rd ed.). Baltimore: Johns Hopkins University Press. ISBN 0-8018-5414-8.
- Harper, Charlie (1976). Introduction to Mathematical Physics. New Jersey: Prentice-Hall. ISBN 0-13-487538-9.
- Harrow, Aram W.; Hassidim, Avinatan; Lloyd, Seth (2009). Quantum Algorithm for Linear Systems of Equations. Physical Review Letters 103. p. 150502. Bibcode:2009PhRvL.103o0502H. PMID 19905613. arXiv:0811.3171. doi:10.1103/PhysRevLett.103.150502.
- Sterling, Mary J. (2009). Linear Algebra for Dummies. Indianapolis, Indiana: Wiley. ISBN 978-0-470-43090-3.
- Whitelaw, T. A. (1991). Introduction to Linear Algebra (2nd ed.). CRC Press. ISBN 0-7514-0159-5.