Proyecto de Algebra Lineal
Proyecto de Algebra Lineal
Proyecto de Algebra Lineal
Carrera
Ing. Electricidad
Facultad
Maestra
Tema
Defensa del trabajo autónomo en base los temas del segundo parcial resolución
de problemas con Gauss Jordán, espacios vectoriales, espacios vectoriales con
productos interiores, vectores lineales y coordenados dependencia e
independencia, valores propios y vectores propios,
Introducción
En el presente trabajo de investigación se abordará el tema como resolución de problemas con Gauss-
Jordán, espacios vectoriales, espacios vectoriales con productos interiores, vectores lineales y
coordenados dependencia e independencia, valores propios y vectores propios y además las
aplicaciones de las mismas dentro de la ingeniería Eléctrica. - Las cuales son de gran relevancia en la
carrera, ya que se utiliza para la representación de diferentes tipos de números reales y obtener
información que es sumamente importante para realizar en un circuito cálculos en base esa
representación.
Objetivo General
Analizar el concepto, las propiedades y la aplicación de resolución de problemas con Gauss Jordán,
espacios vectoriales, espacios vectoriales con productos interiores, vectores lineales y coordenados
dependencia e independencia, valores propios y vectores propios en el campo de la Ingeniería Eléctrica,
conociendo sus beneficios dentro de los diversos usos que se les da al espacio vectorial, espacios
vectoriales con productos interiores, valores y vectores propios, dependencia e independencia de
vectores, vectores lineales y coordenados en el campo antes mencionado.
Objetivos específicos
Conocer las propiedades de resolución de problemas con Gauss Jordán, espacios vectoriales, espacios
vectoriales con productos interiores, vectores lineales y coordenados dependencia e independencia,
valores propios y vectores propios
Analizar la importancia y los beneficios de la resolución de problemas con Gauss Jordán, espacios
vectoriales, espacios vectoriales con productos interiores, vectores lineales y coordenados dependencia
e independencia, valores propios y vectores propios
Resolución de problemas por Gauss Jordán
El Método de Gauss – Jordán o también llamado eliminación de Gauss – Jordán, es un método por el
cual pueden resolverse sistemas de ecuaciones lineales con n números de variables, encontrar matrices
y matrices inversas, en este caso desarrollaremos la primera aplicación mencionada.
Para resolver sistemas de ecuaciones lineales aplicando este método, se debe en primer lugar anotar los
coeficientes de las variables del sistema de ecuaciones lineales en su notación matricial:
Una vez hecho esto, a continuación, se procede a convertir dicha matriz en una matriz identidad, es
decir una matriz equivalente a la original, la cual es de la forma
Esto se logra aplicando a las distintas filas y columnas de las matrices simples operaciones de suma,
resta, multiplicación y división; teniendo en cuenta que una operación se aplicara a todos los elementos
de la fila o de la columna, sea el caso.
Obsérvese que en dicha matriz identidad no aparecen los términos independientes, esto se debe a que
cuando nuestra matriz original alcance la forma de la matriz identidad, dichos términos resultaran ser
la solución del sistema y verificaran la igualdad para cada una de las variables, correspondiéndose de
la siguiente forma:
d1 = x
d2 = y
d3 = z
Ahora que están sentadas las bases, podemos explicar paso a paso la resolución de sistemas de
ecuaciones lineales por medio de este método
Aplicaciones
En la vida cotidiana el concepto de matrices es de gran relevancia ya que usamos eel mismo concepto
para contener y almacenar datos
En relación con mi especialidad se aplica para el análisis de estructuras, llevar a cabo un proyecto
sistematizado, una mejora del perfil técnico y almacenar información óptica de los diseños
Espacios vectoriales
Un espacio vectorial es una estructura algebraica creada a partir de un conjunto no vacío, una operación
interna (llamada suma, definida para los elementos del conjunto) y una operación externa (llamada
producto por un escalar, definida entre dicho conjunto y otro conjunto, con estructura de cuerpo), con
10 propiedades fundamentales.
A los elementos de un espacio vectorial se les llama vectores y a los elementos del cuerpo, escalares.
La primera formulación moderna y axiomática se debe a Giuseppe Peano, a finales del siglo XIX. Los
siguientes avances en la teoría de espacios vectoriales provienen del análisis funcional, principalmente
de espacios de funciones. Los problemas de Análisis funcional requerían resolver problemas sobre la
convergencia. Esto se hizo dotando a los espacios vectoriales de una adecuada topología, permitiendo
tener en cuenta cuestiones de proximidad y continuidad. Estos espacios vectoriales topológicos, en
particular los espacios de Banach y los espacios de Hilbert tienen una teoría más rica y elaborada.
Notación
Axiomas
U+v∈ V
2. la suma es conmutativa:
U + v=v + u
3. la suma es asociativa
:(u + v) + w = u + (v + w) = u + v + w
∃ 0 ∈ V |v + 0 = v,∀ v ∈ V
∀ v ∈ V , ∃ v ∈ V |v + v′ = 0, se escribe v = (−v),
C v ∈V
7. distributivita I ley:
c(u + v) = cu+cv,
8. distributivita II segunda:
(c + d)v = cv+dv,
9) Asociatividad mixta:
α · (β · u) = (α · β) · u = β · (α · u)
1·u=u
Aplicaciones:
En mi carrera tiene como relación el realizar un estudio de modelización por medio de la teoria de
elementos finitos o modelización por medios continuos, por ejemplo, son espacios vectoriales los
campos eléctricos y electromagnéticos
Producto interno
Un producto interno sobre un espacio vectorial V es una operación que asigna a cada par de vectores
u y v en V un número real <u, v>.
Un producto interior sobre V es una función que asocia un número real ‹u, v› con cada par de vectores
u y v cumple los siguientes axiomas:
Propiedades
1) (v, v) ≥ 0
2) (v, v) = 0 si y sólo si v = 0.
3) (u, v +w) = (u, v)+ (u, w)
4) (u + v, w) = (u, w)+(v, w)
5) (u, v) = (v, u)
6) (αu, v) = α(u, v)
7) (u, αv) = α(u, v)
Dado un conjunto finito de vectores v1, v2, …, v3 se dice que estos vectores son linealmente
independientes si dada la ecuación:
esta se satisface únicamente cuando a1, a2, …, a3 son todos cero. En caso contrario, se dice que son
linealmente dependientes.
el símbolo a la derecha del signo igual no es cero, sino que simboliza al vector nulo 0. El conjunto de
vectores nulos forma la matriz nula. Si tales números no existen, entonces los vectores son
linealmente independientes. La definición anterior también puede extenderse a un conjunto infinito de
vectores, concretamente un conjunto cualquiera de vectores es linealmente dependiente si contiene un
conjunto finito que sea linealmente dependiente.
Esta idea es importante porque los conjuntos de vectores que son linealmente independientes, generan
un espacio vectorial y forman una base para dicho espacio. Entre las propiedades de los vectores
linealmente dependientes e independientes encontramos:
Significado geométrico
Tres vectores son independientes si y solo si no están contenidos en el mismo plano vectorial,
o sea si ninguno de ellos es una combinación lineal de los otros dos (en cuyo caso estaría en
el plano generado por estos vectores) en otras palabras este debe generar un volumen.
incógnitas, al igual que en el espacio de dos dimensiones nos referimos a los pares ordenados como
puntos del espacio de dos dimensiones nos referimos a las n-tuplas ordenadas como puntos en el espacio
de n dimensiones
vectores coordenados y algunas de sus propiedades. Los vectores coordenados constituyen la
base para mostrar que los espacios vectoriales que hemos estudiado, matrices, polinomios,
entre otros son “equivalentes” a los espacios vectoriales Rn, para un valor apropiado de n
un espacio vectorial V sobre un campo K y una base, B= {~v1, ~v2, . . . , ~vn}de V. Entonces,
todo vector ~v ∈ V puede representarse como
~v=a1~v1+a2~v2+. . .+an~vn,
Los conjuntos de números reales x = (x1,…, x2) y Y = (v1,…, y2) son iguales si.
x1 = y1, x2 = Y2,.., xn = yn
Aplicaciones:
Vectores propios
O auto vectores de un operador lineal son los vectores no nulos, cuando son transformados por el
operador, dan lugar a un múltiplo escalar de sí mismos, con lo que no cambian su dirección que
dependen enteramente de los valores propios ya que estos le dan valores de su correspondencia.
Valores propios
autovalor o valor característico. A menudo, una transformación queda completamente determinada por
sus vectores propios y valores propios. Un espacio propio, auto espacio o subespacio fundamental
asociado al valor propio
Definiendo que los vectores propios y valores propios de la siguiente manera: Sea A: V → V
un operador lineal en un cierto K-espacio vectorial V y v un vector no nulo en V. Si existe un
escalar c tal que
Av = cv, v ≠ 0, c pertenece a K,
que si v es un vector propio con el valor propio c entonces cualquier múltiplo diferente de cero de v es
también un vector propio con el valor propio c.
Casos especiales
para las transformaciones lineales del espacio de dos dimensiones R2, los vectores propios son:
rotación: ningún vector propio de valores reales (existen en cambio pares valor propio, vector
propio complejos).
reflexión: los vectores propios son perpendiculares y paralelos al eje de simetría, los valores
propios son -1 y 1, respectivamente.
escalado uniforme: todos los vectores son vectores propios, y el valor propio es el factor de
escala.
proyección sobre una recta: los vectores propios con el valor propio 1 son paralelos a la línea,
vectores propios con el valor propio 0 son perpendiculares a la dirección de la proyección
T(vA) = A vA
Matricialmente
AT vA = A vA
a veces es poco natural o incluso imposible escribir la ecuación de valor propio en forma matricial,
ocurre cuando el espacio vectorial es de dimensión infinita
Teorema espectral
El teorema espectral muestra la importancia de los valores propios y vectores propios para
caracterizar una transformación lineal de forma única. En su versión más simple, el teorema espectral
establece que, bajo unas condiciones determinadas, una transformación lineal puede expresarse como
la combinación lineal de los vectores propios con coeficientes de valor igual a los valores propios por
el producto escalar de los vectores propios por el vector al que se aplica la transformación, lo que
puede escribirse como:
Donde v1,v2 … y A1,A2,….. Representan a los vectores propios y valores propios y vectores propios
de T.
Cálculo
Si se quiere calcular los valores propios de una matriz dada y ésta es pequeña, se puede calcular
simbólicamente usando el polinomio característico. Sin embargo, a menudo resulta imposible para
matrices extensas, caso en el que se debe usar un método numérico.
Calculo simbólico
Una herramienta importante para encontrar valores propios de matrices cuadradas es el polinomio
característico: decir que λ es un valor propio de A es equivalente a decir que el sistema de ecuaciones
lineales A v = λ v → A v - λ v = 0 (factorizando por v queda) (A - λI) v = 0 (donde I es la matriz
identidad) tiene una solución no nula v (un vector propio), y de esta forma es equivalente al
determinante:
Det(A - AI ) = 0
La función p(λ) = det(A - λI) es un polinomio de λ pues los determinantes se definen como sumas de
productos. Éste es el polinomio característico de A: los valores propios de una matriz son los ceros de
su polinomio característico.
El teorema fundamental del álgebra dice que esta ecuación tiene exactamente n raíces (ceros),
teniendo en cuenta su multiplicidad. Todos los polinomios reales de grado impar tienen un número
real como raíz, así que para n impar toda matriz real tiene al menos valor propio real. En el caso de las
matrices reales, para n par e impar, los valores propios no reales son pares conjugados.
Cálculo de los vectores propios
Una vez que se conocen los valores propios λ, los vectores propios se pueden hallar resolviendo el
sistema de ecuaciones homogéneo:
(A – AI ) v = 0
Una forma más sencilla de obtener vectores propios sin resolver un sistema de ecuaciones lineales se
basa en el teorema de Cayley-Hamilton que establece que cada matriz cuadrada satisface su propio
polinomio característico. Así, si A1 ,A2,…....,An se cumple que
(A – A1I)
(A – A1I)
Calculo numérico
En la práctica, los valores propios de las matrices extensas no se calculan usando el polinomio
característico. Calcular el polinomio resulta muy costoso, y extraer las raíces exactas de un polinomio
de grado alto puede ser difícil de calcular y expresar: el teorema de Abel-Ruffini implica que las
raíces de los polinomios de grado alto (5 o superior) no pueden expresarse usándose simplemente
raíces enésimas. Existen algoritmos eficientes para aproximar raíces de polinomios, pero pequeños
errores en la estimación de los valores propios pueden dar lugar a errores grandes en los vectores
propios
Propiedades
Multiplicidad algebraica
Por ejemplo, se pueden encontrar exposiciones como la siguiente en artículos de teoría de matrices: