Proyecto de Algebra Lineal

Descargar como docx, pdf o txt
Descargar como docx, pdf o txt
Está en la página 1de 16

Universidad Técnica de Esmeraldas Luis Vargas Torres

Carrera

Ing. Electricidad

Facultad

Facultad de Ingenierías y Tecnología (FAC.I)

Nombres de los estudiantes

Bone Holguín Anthony Jalmar

Maestra

Msc. Marisol Morales

Tema

Defensa del trabajo autónomo en base los temas del segundo parcial resolución
de problemas con Gauss Jordán, espacios vectoriales, espacios vectoriales con
productos interiores, vectores lineales y coordenados dependencia e
independencia, valores propios y vectores propios,
Introducción
En el presente trabajo de investigación se abordará el tema como resolución de problemas con Gauss-
Jordán, espacios vectoriales, espacios vectoriales con productos interiores, vectores lineales y
coordenados dependencia e independencia, valores propios y vectores propios y además las
aplicaciones de las mismas dentro de la ingeniería Eléctrica. - Las cuales son de gran relevancia en la
carrera, ya que se utiliza para la representación de diferentes tipos de números reales y obtener
información que es sumamente importante para realizar en un circuito cálculos en base esa
representación.

Objetivo General
Analizar el concepto, las propiedades y la aplicación de resolución de problemas con Gauss Jordán,
espacios vectoriales, espacios vectoriales con productos interiores, vectores lineales y coordenados
dependencia e independencia, valores propios y vectores propios en el campo de la Ingeniería Eléctrica,
conociendo sus beneficios dentro de los diversos usos que se les da al espacio vectorial, espacios
vectoriales con productos interiores, valores y vectores propios, dependencia e independencia de
vectores, vectores lineales y coordenados en el campo antes mencionado.

Objetivos específicos

Conocer las propiedades de resolución de problemas con Gauss Jordán, espacios vectoriales, espacios
vectoriales con productos interiores, vectores lineales y coordenados dependencia e independencia,
valores propios y vectores propios

Realizar ejercicios aplicados en la Ingeniería de Electricidad

Analizar la importancia y los beneficios de la resolución de problemas con Gauss Jordán, espacios
vectoriales, espacios vectoriales con productos interiores, vectores lineales y coordenados dependencia
e independencia, valores propios y vectores propios
Resolución de problemas por Gauss Jordán
El Método de Gauss – Jordán o también llamado eliminación de Gauss – Jordán, es un método por el
cual pueden resolverse sistemas de ecuaciones lineales con n números de variables, encontrar matrices
y matrices inversas, en este caso desarrollaremos la primera aplicación mencionada.

Para resolver sistemas de ecuaciones lineales aplicando este método, se debe en primer lugar anotar los
coeficientes de las variables del sistema de ecuaciones lineales en su notación matricial:

Entonces, anotando como matriz (también llamada matriz aumentada)

Una vez hecho esto, a continuación, se procede a convertir dicha matriz en una matriz identidad, es
decir una matriz equivalente a la original, la cual es de la forma
Esto se logra aplicando a las distintas filas y columnas de las matrices simples operaciones de suma,
resta, multiplicación y división; teniendo en cuenta que una operación se aplicara a todos los elementos
de la fila o de la columna, sea el caso.

Obsérvese que en dicha matriz identidad no aparecen los términos independientes, esto se debe a que
cuando nuestra matriz original alcance la forma de la matriz identidad, dichos términos resultaran ser
la solución del sistema y verificaran la igualdad para cada una de las variables, correspondiéndose de
la siguiente forma:

 d1 = x
 d2 = y
 d3 = z

Ahora que están sentadas las bases, podemos explicar paso a paso la resolución de sistemas de
ecuaciones lineales por medio de este método

Aplicaciones
En la vida cotidiana el concepto de matrices es de gran relevancia ya que usamos eel mismo concepto
para contener y almacenar datos
En relación con mi especialidad se aplica para el análisis de estructuras, llevar a cabo un proyecto
sistematizado, una mejora del perfil técnico y almacenar información óptica de los diseños

Espacios vectoriales
Un espacio vectorial es una estructura algebraica creada a partir de un conjunto no vacío, una operación
interna (llamada suma, definida para los elementos del conjunto) y una operación externa (llamada
producto por un escalar, definida entre dicho conjunto y otro conjunto, con estructura de cuerpo), con
10 propiedades fundamentales.

A los elementos de un espacio vectorial se les llama vectores y a los elementos del cuerpo, escalares.
La primera formulación moderna y axiomática se debe a Giuseppe Peano, a finales del siglo XIX. Los
siguientes avances en la teoría de espacios vectoriales provienen del análisis funcional, principalmente
de espacios de funciones. Los problemas de Análisis funcional requerían resolver problemas sobre la
convergencia. Esto se hizo dotando a los espacios vectoriales de una adecuada topología, permitiendo
tener en cuenta cuestiones de proximidad y continuidad. Estos espacios vectoriales topológicos, en
particular los espacios de Banach y los espacios de Hilbert tienen una teoría más rica y elaborada.

Notación
Axiomas

1. la suma es una operación interna:

U+v∈ V
2. la suma es conmutativa:

U + v=v + u

3. la suma es asociativa

:(u + v) + w = u + (v + w) = u + v + w

4. elemento neutro de la suma:

∃ 0 ∈ V |v + 0 = v,∀ v ∈ V

5.elemento inverso en la suma:

∀ v ∈ V , ∃ v ∈ V |v + v′ = 0, se escribe v = (−v),

6. la multiplicación por un escalar produce un vector:

C v ∈V

7. distributivita I ley:

c(u + v) = cu+cv,

8. distributivita II segunda:

(c + d)v = cv+dv,

9) Asociatividad mixta:

Si α y β son cualquier par de escalares y u es cualquier vector de V entonces

α · (β · u) = (α · β) · u = β · (α · u)

10) Identidad: Si u es cualquier vector de V, entonces

1·u=u

Aplicaciones:

En mi carrera tiene como relación el realizar un estudio de modelización por medio de la teoria de
elementos finitos o modelización por medios continuos, por ejemplo, son espacios vectoriales los
campos eléctricos y electromagnéticos

En la vida cotidiana es todo espacio por donde se mueve un objeto.


Espacio vectorial con producto interior

Producto interno

Un producto interno sobre un espacio vectorial V es una operación que asigna a cada par de vectores
u y v en V un número real <u, v>.
Un producto interior sobre V es una función que asocia un número real ‹u, v› con cada par de vectores
u y v cumple los siguientes axiomas:
Propiedades

1) (v, v) ≥ 0
2) (v, v) = 0 si y sólo si v = 0.
3) (u, v +w) = (u, v)+ (u, w)
4) (u + v, w) = (u, w)+(v, w)
5) (u, v) = (v, u)
6) (αu, v) = α(u, v)
7) (u, αv) = α(u, v)

Espacios con producto interior


El producto interior euclidiano es solo uno más de los productos internos que se tiene que definir en Rn
Para distinguir entre el producto interno normal y otros posibles productos internos se usa la siguiente
notación.

u ●v = producto punto (producto interior euclidiano para Rn)

‹u, v› = producto interno general para espacio vectorial V.

Propiedades de los productos interiores


1. ‹0, v› = ‹v, 0› = 0
2. ‹u + v, w› = ‹u, w› + ‹v, w›
3. ‹u, cv› = c ‹u, v›.

Vectores lineales dependientes e independientes


En álgebra lineal, un conjunto de vectores es linealmente independiente si ninguno de ellos puede ser
escrito con una combinación lineal de los restantes. Por ejemplo, en R3, el conjunto de vectores (1, 0,
0), (0, 1, 0) y (0, 0, 1) es linealmente independiente, mientras que (2, −1, 1), (1, 0, 1) y (3, −1, 2) no lo
es, ya que el tercero es la suma de los dos primeros.

Dado un conjunto finito de vectores v1, v2, …, v3 se dice que estos vectores son linealmente
independientes si dada la ecuación:

A1v1 + a2v2 +…. + anvn = 0

esta se satisface únicamente cuando a1, a2, …, a3 son todos cero. En caso contrario, se dice que son
linealmente dependientes.

el símbolo a la derecha del signo igual no es cero, sino que simboliza al vector nulo 0. El conjunto de
vectores nulos forma la matriz nula. Si tales números no existen, entonces los vectores son
linealmente independientes. La definición anterior también puede extenderse a un conjunto infinito de
vectores, concretamente un conjunto cualquiera de vectores es linealmente dependiente si contiene un
conjunto finito que sea linealmente dependiente.

Esta idea es importante porque los conjuntos de vectores que son linealmente independientes, generan
un espacio vectorial y forman una base para dicho espacio. Entre las propiedades de los vectores
linealmente dependientes e independientes encontramos:

1. Un conjunto de vectores es linealmente dependiente si y solamente si alguno de los vectores


es combinación lineal de los demás.
2. Si un conjunto de vectores es linealmente independiente, cualquier subconjunto suyo también
lo es.
3. Si un conjunto de vectores es linealmente dependiente, también lo es todo conjunto que lo
contenga

Significado geométrico

Geométricamente, dos vectores son independientes si no tienen la misma dirección. Esta


definición supone que el vector nulo tiene todas las direcciones, en otras palabras este debe
generar un área.

Tres vectores son independientes si y solo si no están contenidos en el mismo plano vectorial,
o sea si ninguno de ellos es una combinación lineal de los otros dos (en cuyo caso estaría en
el plano generado por estos vectores) en otras palabras este debe generar un volumen.

El espacio generado por un sistema de vectores es el conjunto de todas las combinaciones


lineales de estos vectores. Es un espacio vectorial. El espacio generado por un vector no nulo
es la recta vectorial dirigido por este vector. El espacio generado por dos vectores
independientes es el plano que los contiene. Resulta fácil comprobar que el espacio generado
por un sistema de vectores es el menor (por la inclusión) espacio vectorial que los contiene a
todos. Se le denomina vect A, donde A es el sistema de vectores. Si n vectores son
independientes, el espacio generado es de dimensión n (dimensión en el sentido usual: 0 para
un punto, 1 para una recta, 2 para un plano...).

En el espacio tridimensional usual:

 u y j son dependientes por tener la misma dirección.


 u y v son independientes y definen el plano P.
 u, v y w son dependientes por estar los tres contenidos en el mismo plano.
 u, v y k son independientes por serlo u y v entre sí y no ser k una combinación lineal
de ellos o, lo que es lo mismo, por no pertenecer al plano P. Los tres vectores definen
el espacio tridimensional.
 Los vectores o (vector nulo, cuyas componentes son iguales a cero) y k son
independientes ya que o = 0 ·k

Vectores coordenados dependencia e independencia


Un número real puede ser representado como un punto de una línea recta, una pareja de números reales
puede ser representado por un punto en el plano y una terna de números reales puede ser representado
por un punto en el espacio. Aunque no se pueda dar una representación geométrica de las n-tuplas
ordenadas existen interpretaciones útiles para ellas. Por ejemplo como solución de un sistema de
ecuaciones lineales de n

incógnitas, al igual que en el espacio de dos dimensiones nos referimos a los pares ordenados como
puntos del espacio de dos dimensiones nos referimos a las n-tuplas ordenadas como puntos en el espacio
de n dimensiones
vectores coordenados y algunas de sus propiedades. Los vectores coordenados constituyen la
base para mostrar que los espacios vectoriales que hemos estudiado, matrices, polinomios,
entre otros son “equivalentes” a los espacios vectoriales Rn, para un valor apropiado de n

un espacio vectorial V sobre un campo K y una base, B= {~v1, ~v2, . . . , ~vn}de V. Entonces,
todo vector ~v ∈ V puede representarse como

~v=a1~v1+a2~v2+. . .+an~vn,

donde los escalares son ́únicos.


Un conjunto de números reales se denota por (x1,x2,,…, xn) donde cada xi es un número real.

Los conjuntos de números reales x = (x1,…, x2) y Y = (v1,…, y2) son iguales si.

x1 = y1, x2 = Y2,.., xn = yn

Aplicaciones:

En mi carrera aplicamos la utilización de vectores coordenados para poder representar la potencia


compuesta de un circuito eléctrico con corriente alterna o continua en un dispositivo.

En la vida cotidiana lo usamos para colocar algún objeto en un determinado espacio.


Vectores propios y valores propios
Las transformaciones lineales del espacio como la rotación, la reflexión, el ensanchamiento, o cualquier
combinación de las anteriores; en esta lista podrían incluirse otras transformaciones— pueden
interpretarse mediante el efecto que producen en los vectores. Los vectores pueden visualizarse como
flechas de una cierta longitud apuntando en una dirección y sentido determinados.

 La multiplicidad geométrica de un valor propio es la dimensión del espacio propio asociado.


 El espectro de una transformación en espacios vectoriales finitos es el conjunto de todos sus
valores propios.

Vectores propios

O auto vectores de un operador lineal son los vectores no nulos, cuando son transformados por el
operador, dan lugar a un múltiplo escalar de sí mismos, con lo que no cambian su dirección que
dependen enteramente de los valores propios ya que estos le dan valores de su correspondencia.

Valores propios

autovalor o valor característico. A menudo, una transformación queda completamente determinada por
sus vectores propios y valores propios. Un espacio propio, auto espacio o subespacio fundamental
asociado al valor propio

Definiendo que los vectores propios y valores propios de la siguiente manera: Sea A: V → V
un operador lineal en un cierto K-espacio vectorial V y v un vector no nulo en V. Si existe un
escalar c tal que

Av = cv, v ≠ 0, c pertenece a K,

Por lo tanto, v es un vector propio del operador A, y su valor propio asociado es c.

que si v es un vector propio con el valor propio c entonces cualquier múltiplo diferente de cero de v es
también un vector propio con el valor propio c.
Casos especiales

para las transformaciones lineales del espacio de dos dimensiones R2, los vectores propios son:

 rotación: ningún vector propio de valores reales (existen en cambio pares valor propio, vector
propio complejos).
 reflexión: los vectores propios son perpendiculares y paralelos al eje de simetría, los valores
propios son -1 y 1, respectivamente.
 escalado uniforme: todos los vectores son vectores propios, y el valor propio es el factor de
escala.
 proyección sobre una recta: los vectores propios con el valor propio 1 son paralelos a la línea,
vectores propios con el valor propio 0 son perpendiculares a la dirección de la proyección

Ecuación del valor propio

Matemáticamente, vλ es un vector propio y λ el valor propio correspondiente de una transformación T


si verifica la ecuación:

T(vA) = A vA

Donde T (vA) es el vetor obtenido al aplicar la tranformacin T a V A.

Matricialmente

AT vA = A vA

donde la posición es un producto de matrices. Dado que en esta circunstancia la transformación T y su


representación matricial AT son equivalentes, a menudo podemos emplear sólo T para la representación
matricial y la transformación.

Esto es equivalente a un conjunto de n combinaciones lineales, donde n es el número de vectores de la


base.

a veces es poco natural o incluso imposible escribir la ecuación de valor propio en forma matricial,
ocurre cuando el espacio vectorial es de dimensión infinita
Teorema espectral

El teorema espectral muestra la importancia de los valores propios y vectores propios para
caracterizar una transformación lineal de forma única. En su versión más simple, el teorema espectral
establece que, bajo unas condiciones determinadas, una transformación lineal puede expresarse como
la combinación lineal de los vectores propios con coeficientes de valor igual a los valores propios por
el producto escalar de los vectores propios por el vector al que se aplica la transformación, lo que
puede escribirse como:

T(v) = A1 (v1 * v)v1 + A2 (v2 *v)v2 + …

Donde v1,v2 … y A1,A2,….. Representan a los vectores propios y valores propios y vectores propios
de T.

Vectores propios y valores propios de matrices

Cálculo

Si se quiere calcular los valores propios de una matriz dada y ésta es pequeña, se puede calcular
simbólicamente usando el polinomio característico. Sin embargo, a menudo resulta imposible para
matrices extensas, caso en el que se debe usar un método numérico.

Calculo simbólico

Cálculo de los valores propios

Una herramienta importante para encontrar valores propios de matrices cuadradas es el polinomio
característico: decir que λ es un valor propio de A es equivalente a decir que el sistema de ecuaciones
lineales A v = λ v → A v - λ v = 0 (factorizando por v queda) (A - λI) v = 0 (donde I es la matriz
identidad) tiene una solución no nula v (un vector propio), y de esta forma es equivalente al
determinante:

Det(A - AI ) = 0

La función p(λ) = det(A - λI) es un polinomio de λ pues los determinantes se definen como sumas de
productos. Éste es el polinomio característico de A: los valores propios de una matriz son los ceros de
su polinomio característico.

El teorema fundamental del álgebra dice que esta ecuación tiene exactamente n raíces (ceros),
teniendo en cuenta su multiplicidad. Todos los polinomios reales de grado impar tienen un número
real como raíz, así que para n impar toda matriz real tiene al menos valor propio real. En el caso de las
matrices reales, para n par e impar, los valores propios no reales son pares conjugados.
Cálculo de los vectores propios

Una vez que se conocen los valores propios λ, los vectores propios se pueden hallar resolviendo el
sistema de ecuaciones homogéneo:

(A – AI ) v = 0

Una forma más sencilla de obtener vectores propios sin resolver un sistema de ecuaciones lineales se
basa en el teorema de Cayley-Hamilton que establece que cada matriz cuadrada satisface su propio
polinomio característico. Así, si A1 ,A2,…....,An se cumple que

(A – A1I)

(A – A1I)

Calculo numérico

En la práctica, los valores propios de las matrices extensas no se calculan usando el polinomio
característico. Calcular el polinomio resulta muy costoso, y extraer las raíces exactas de un polinomio
de grado alto puede ser difícil de calcular y expresar: el teorema de Abel-Ruffini implica que las
raíces de los polinomios de grado alto (5 o superior) no pueden expresarse usándose simplemente
raíces enésimas. Existen algoritmos eficientes para aproximar raíces de polinomios, pero pequeños
errores en la estimación de los valores propios pueden dar lugar a errores grandes en los vectores
propios
Propiedades

Multiplicidad algebraica

La multiplicidad algebraica de un valor propio λ de A es el orden de λ como cero del polinomio


característico de A; en otras palabras, si λ es una de las raíces del polinomio, es el número de factores
(t − λ) en el polinomio característico tras la factorización. Una matriz n×n, con entradas complejas,
tiene n valores propios, contados de acuerdo con su multiplicidad algebraica, ya que su polinomio
característico tiene grado n.

Un valor propio de multiplicidad algebraica 1 recibe el nombre de "valor propio simple".

Por ejemplo, se pueden encontrar exposiciones como la siguiente en artículos de teoría de matrices:

"los valores propios de una matriz A son 4,4,3,3,3,2,2,1,"

lo que significa que la multiplicidad algebraica de 4 es dos, la de 3 es tres, la de 2 es dos y la de 1 es


uno. Se emplea este estilo porque la multiplicidad algebraica es la clave de muchas demostraciones
matemáticas en teoría de matrices.

También podría gustarte