Unidad IV PDF

Descargar como pdf o txt
Descargar como pdf o txt
Está en la página 1de 11

Unidad IV

Espacios vectoriales.

En álgebra abstracta, un espacio vectorial es una estructura algebraica creada a


partir de un conjunto no vacío, una operación interna (llamada suma, definida para
los elementos del conjunto) y una operación externa (llamada producto por un
escalar, definida entre dicho conjunto y otro conjunto, con estructura de cuerpo ),
con 8 propiedades fundamentales.
A los elementos de un espacio vectorial se les llama vectores y a los elementos
del cuerpo, escalares.

4.1 Definición de espacio vectorial.


Sean K un cuerpo dado y V un conjunto no vacio, con reglas de suma y producto
por escalar que asigna a cada par u, vϵV una suma u+vϵV y a cada par uϵV, kϵK
un producto kuϵV. V recibe el nombre de espacio vectorial sobre K (y los
elementos de V se llaman vectores) si satisfacen los siguientes axiomas.

[A1] para toda terna de vectores u, v, wϵV, (u+v)+w=u+(v+w).


[A2] existe un vector en V, denotado por 0 y denominado el vector cero, tal que
u+0=u para todo vector uϵV.
[A3] para todo vector uϵV existe un único vector en V, denotado por –u, tal que
u+(-u)=0.
[A4] para todo par de vectores u, vϵV, u+v=v+u.
[M1] para todo escalar kϵK y todo par de vectores u, vϵV, k(u+v)=ku+kv.
[M2] para todo par de escalares a, bϵK y todo vector uϵV, (a+b)u=au+bu.
[M3] para todo par de escalares a, bϵK y todo vector uϵV, (ab)u=a(bu).
[M4] el escalar unidad 1ϵK cumple 1u=u para todo vector uϵV.

Los axiomas precedentes se desdoblan de forma natural en dos categorías. Los


cuatro primeros atañen únicamente a la estructura aditiva de V y pueden
resumirse diciendo que V es un grupo conmutativo bajo la suma. De ello se deriva
que cualquier suma de vectores de la forma v1+v2+…+vm no requieren paréntesis
y no depende del orden de los sumandos, que el vector cero, 0, es único, que el
opuesto –u de u es único y que se verifica la ley de cancelación; esto es, para tres
vectores cualesquiera u, v, wϵV.

U+w=v+w implica u=v. Asimismo, la resta se define según u-v=u+(-v).

Por otra parte, los cuatro axiomas restantes se refieren a la <<acción>> del cuerpo
K sobre V. observece que la rotulación de los axiomas refleja este
desdoblamiento. Empleando estos axiomas adicionales probaremos las siguientes
propiedades elementales de un espacio vectorial.

Teorema: sea V un espacio vectorial sobre un cuerpo K.


Para todo escalar kϵK y 0ϵV, k0-0.
Para 0ϵK y todo vector uϵV, 0u=0.
Si ku=0, donde kϵK y uϵV, entonces k=0 o u=0.
Para todo kϵK y todo uϵV, (-k)u=-ku.

4.2 Definición de subespacio vectorial y sus propiedades.


Sea W un subconjunto de un espacio vectorial V sobre un cuerpo K. W se
denomina un subespacio de V si es a su vez un espacio vectorial sobre K con
respecto a las operaciones de V, suma vectorial y producto por un escalar. Un
criterio simple para identificar subespacios es el siguiente.

Teorema: supongamos que W es un subconjunto de un espacio vectorial V.


entonces W es un subespacio de V si y solo si se cumple:
0єW
W es cerrado bajo la suma de vectores, es decir: para todo par de vectores u,
vєW, la suma u+vєW.
W es cerrado bajo el producto por un escalar, esto es: para todo uєW y para todo
kєK el múltiplo kuєW.

Corolario: W es un subespacio de V si y solo si:


0єW.
au+bvєW para todos los u, vєW y a, bєK.

Ejemplo: sean U y W subespacios de un espacio vectorial V. probemos que la


intersección UÇW es también subespacio de V. claramente, 0ÎU y 0ÎW, porque U y
W son subespacios, de donde 0ÎUÇW. supongamos ahora que u, vÎUÇW.
entonces u, vÎU y u, vÎE y, dado que U y W son subespacios, u+v, kuÎU y u+v,
kuÎW para cualquier escalar k. así u+v, kuÎUÇW y por consiguiente UÇW es un
subespacio de V. El resultado del ejemplo precedente se generaliza como sigue.

Teorema: la intersección de cualquier número de subespacios de un espacio


vectorial V es un subespacio de V.

Recuérdese que toda solución de un sistema de ecuaciones lineales con n


incógnitas AX=B puede verse como un punto en Kn y por tanto el conjunto
solución de tal sistema es un subconjunto de Kn. Supongamos que el sistema
homogéneo, es decir, supongamos que el sistema tiene la forma AX=0.
Denotemos por W su conjunto solución. Como A0=0, el vector cero 0ÎW además,
si u y v pertenecen a W, esto es, si u y v son soluciones de AX=0, necesariamente
Au=0 y Av=0. Por esta razón, para todo par de escalares a y b en K, tendremos
A(au+bv)=aAu+bAv=a0+b0=0+0=0. De esta manera, au + bv es también una
solución de AX=0 o, dicho de otro modo, au+bvÎW. En consecuencia, según el
corolario, hemos demostrado:
Teorema: el conjunto solución W de un sistema homogéneo con n incógnitas
AX=0 es un subespacio de kn.

Hacemos énfasis en que el conjunto solución de un sistema inhomogéneo AX=B


no es subespacio de Kn. De hecho, el vector cero, 0, no pertenece a dicho
conjunto solución.

4.3 Combinación lineal. Independencia lineal.


COMBINACIÓNLINEAL

Sean v1, v2, …, vn, vectores en un espacio vectorial V. entonces cualquier vector
de la forma: a1v1+a2v2+…+anvn, donde a1,a2,…,an son escalares se denomina
una combinación lineal de v1, v2,…,vn.

Una combinación lineal en M23

Conjunto generador.

Se dice que los vectores v1, v2, …, vn de un espacio vectorial V generan a V si


todo vector en V se puede escribir como una combinación lineal de los mismo. Es
decir, para todo vÎV, existen escalares a1, a2, …, an tales que
v=a1v1+a2v2+…+anvn

Cuatro vectores que generan a M22

Espacio generado por un conjunto de vectores.

Sean v, v2, …, vk, k vectores de un espacio vectorial V. el espacio generado por


{v1, v2, …, vk} es el conjunto de combinaciones lineales v1, v2, …, vk. Es decir
donde a1, a2, …, ak, son
escalares arbitrarios.

Teorema: si v1, v2, …, vk son vectores en un espacio vectorial V, entonces


gen{v1, v2, …, vk} es un subespacio de V.

Ejemplo: el espacio generado por dos vectores en R3

Sea v1=(2,-1,4) y v2=(4,1,6). Entonces H=gen{v1, v2}={v:v=a1(2,-1,4)+a2(4,1,6)}.


¿Cuál es la apariencia de H? si v=(x, y,z)ÎH, entonces tiene x=2a1+4a 2, y=-a1+a2
y z=4a 1+6ª 2. Si se piensa que (x, y, z) esta fijo, entonces estas ecuaciones se
pueden ver como un sistema de tres ecuaciones con tres incognitas a1, a2. Este
sistema se resuelve en la forma usual:

INDEPENDENCIA LINEAL
En el estudio del algebra lineal, una de las ideas centrales es la de dependencia o
independencia lineal de los vectores. En esta sección se define el significado de
independencia lineal y se muestra su relación con la teoría de sistemas
homogéneos de ecuaciones y determinantes.

Existe una relación espacial entre los vectores , se


puede apreciar que v2=2v1; o si se escribe esta ecuación de otra manera. 2v1-
v2=0.

En otras palabras, el vector cero se puede escribir como una combinación no


trivial de v1 y v2 (es decir, donde los coeficientes en la combinación lineal no son
ambos cero). ¿Qué tienen de especial los
vectores ? La respuesta a esta
pregunta es más difícil a simple vista. Sin embargo, es sencillo verificar que

v3=3v1+2v2; rescribiendo esto se obtiene .

Se ha escrito el vector cero como una combinación lineal de v1, v2, y v3. Parece
que los dos vectores de la ecuación y los tres vectores de la otra ecuación tienen
una relación más cercana que un par arbitrario de 2-vectores a una terna arbitraria
de 3-vectores. En cada caso, se dice que los vectores son linealmente
dependientes. En términos generales, se tiene la importante definición a
continuación presentada.

Definición: sean v1, v2, …, vn vectores en un espacio vectorial V. entonces se dice


que lois vectores son linealmente dependientes si existen n escalares c1, c2, …,

cn no todos ceros tales que .

Si los vectores no son linealmente dependientes, se dice que son linealmente


independientes.

Para decirlo de otra forma, v1, v2, .., vn son linealmente independientes si la
ecuación c1v1+c2v2+…+cnvn=0 se cumple únicamente para c1=c2=…=cn=0. Son
linealmente dependientes si el vector cero en V se puede expresar como una
combinación lienal de v1, v2,…,vn con coeficientes no todos iguales a cero.

Nota. Se dice que los vectores v1, v2, …, vn son linealmente independientes (o
dependientes), o que el conjunto de vectores {v1, v2, …, vn} es linealmente
independiente (o pendiente). Esto es, se usan las dos frases indistintivamente.

Teorema:dependencia e independencia lineal

Dos vectores en un espacio vectorial son linealmente dependientes si y solo si uno


de ellos es un múltiplo escalar del otro.

Demostración: primero suponga que v2=cv1 para elgun escalar c≠0. Entonces
cv1-v2=0 y v1 y v2 son linealmente dependientes. Por otro parte, suponga que v1
y v2 son linealmente dependientes. Entonces existen constantes c1 y c2 al menos
uno distinto a cero, tales que c1v1+c2v2=0. Si c1≠0, entonces dividiendo entre c1

se obtiene v1+(c2/c1)v2=0, o sea,


Es decir, v1 es un múltiplo escalar de v2. Si c1=0, entonces c2≠0 y, por lo tanto,
v2=0=0v1.

4.4 Base y dimensión de un espacio vectorial, cambio de base.


Se ha visto en R2 conviene escribir vectores como una combinación lineal de los

vectores . En R3 se escribieron los vectores en términos

de . Ahora se generalizara esta idea.

BASEUn conjunto finito de vectores es una base para un

espacio vectorial V si

Todo conjunto de n vectores linealmente independiente en Rn es una base en Rn.

En Rn se define
Puesto que los vectores e, son las columnas d una matriz identidad (que tiene
determinante 1), es un conjunto linealmente independiente y,
por lo tanto, constituye una base en Rn. Esta base especial se denomina base
canonica en Rn. Ahora se encontraran bases para otros espacios.

EJEMPLO: base canonica para M22

Se vio que generan


a
, entonces es evidentemente que . Así, estas cuatro
matrices son linealmente independientes y forman una base para M22, lo que se
denomina base cononica para M22.

TEOREMA: si es una base para V y si vÎV, entonces existe un


conjunto único de escalares tales que

Existe cuando menos un conjunto de dichos escalares porque


genera a V. suponga entonces que v se puede escribir e dos maneras como una
combinación lineal de los vectores de la base.

Es decir, suponga que

Sea dos bases para V. debe


demostrarse que m=n. esto se prueba mostrando que si m>n, entonces S es un
conjunto literalmente independiente, lo que contradice la hipótesis de que S es una
bse. Esto demostrara que m≤n. la misma prueba demostrara que ≤m y esto
prueba el teorema. Así, basta demostrar que si m>n, entonces S es
independiente. Como S constituye una base, todo u se puede expresar como una
combinación lineal de las v. se tiene (1)
4.5 Espacio vectorial con producto interno y sus propiedades.
Un espacio vectorial complejo V se denomina espacio con producto interno si para
cada par ordenado de vectores u y v en V, existe un numero complejo único (u,v),
denominado producto interno de u y v, tal que si u, v y w están en V y αϵC,
entonces

La barra es las condiciones v) y vii) denota el conjugado complejo.

Nota. Si (u,v) es real, entonces (u,v)=(u,v) y se puede eliminar la barra en v).

EJEMPLO: producto interno de dos vectores en C3

En C3 sean x=(1+i, -3, 4-3i) y y=(2-i, -i, 2+i). entonces

Sea V un espacio con producto interno y suponga que u y v están en V. entonces


Nota 1. Aquí se usa la doble barra en lugar de una sola para evitar confusión con
el valor absoluto. Por ejemplo ǁsen tǁ denota la norma de sen t como un “vector”
en C[0, 2π] mientras que |sen t| denota el valor absoluto de la función sen t.

Nota 2. La ecuación anterior tiene sentido ya que (u, u)≥0.

EJEMPLO: dos vectores ortogonales en C2

En C2 los vectores (3,-i) y (2,6i) son ortogonales porque

Conjunto ortonormal

El conjunto de vectores es un conjunto ortonormal en V si

Si solo el primero se cumple, se dice que el conjunto es ortonormal.

4.6 Base ortonormal, proceso de ortonormalización de Gram-Schmidt.

Conjunto ortonormal en Rn
Se dice que un conjunto de vectores S={u1, u2, …, uk} en Rn es un conjunto
ortonormal si (1) (2)

Si solo satisface la ecuación (1), se dice que el conjunto es ortogonal.


Si u, v y w en Rn y α es un numero real, entonces (3) (4) (5) (6)(7)
Ahora se presenta otra definición útil

Si vϵRn, entonces la longitud o norma de v, denotada por |v|, esta dada por (8)

Nota. Si entonces v*v= Esto


significa que (9)

De esta forma se puede obtener la raíz cuadrada en (8), y se tiene (10)(11)

TEOREMA: si S= es un conjunto ortogonal de vectores


diferentes de cero, entonces S es linealmente independiente.

Suponga que
Entonces, para cualquier i=1,2,…,k

Como v≠0 por hipótesis |v|2>0 y se dice que c=0. Esto es cierto para i=1,2,…,k, lo
que completa la prueba.

Proceso de ortonormalizacion de Gram-Schmidt


Sea H un subespacio de dimensión m de Rn. Entonces H tiene una base
ortonormal.
Sea S= una base de H. se probara el teorema construyendo
una base ortonormal a partir de vectores en S. antes de dar los pasios para esta
construccion, se observa el hecho sencillo de que un conjunto de vectores
linealmente independiente no contiene al vector cero.

También podría gustarte