Trabajo de Grado
Trabajo de Grado
Trabajo de Grado
UNIVERSIDAD DE EL SALVADOR
FACULTAD MULTIDISCIPLINARIA ORIENTAL
DEPARTAMENTO DE CIENCIAS NATURALES Y MATEMÁTICA
SECCIÓN DE MATEMÁTICAS
TRABAJO DE GRADO:
LICENCIATURA EN MATEMÁTICA.
PRESENTADO POR:
AUTORIDADES
AUTORIDADES
SECCIÓN DE MATEMÁTICAS
AUTORIDADES
Dios, tu amor y tu bondad no tienen fin, me permites sonreír ante todos mis logros que son
resultado de tu ayuda, y cuando caigo y me pones a prueba, aprendo de mis errores y me
doy cuenta de los pones en frente mío para que mejore como ser humano, y crezca de
diversas maneras.
Este trabajo de tesis ha sido una gran bendición en todo sentido y te lo agradezco.
Gracias a mis padres por ser los principales promotores de mis sueños, gracias a ellos por
cada día confiar y creer en mí y en mis expectativas, gracias por siempre desear y anhelar
siempre lo mejor para mi vida, gracias por cada consejo y por cada una de sus palabras que
me guiaron durante mi vida Gracias a mi esposo por entenderme en todo, gracias a el
porque en todo momento fue un apoyo incondicional en mi vida, Gracias a mi hijo por ser
la fuente de mi esfuerzo y todas las energías requeridas en este, gracias por ser el motor de
mi vida A cada uno de los licenciados que han formado parte en el desarrollo de mi carrera
y en especial a mi asesor de tesis el Lic. Pedro Flores Sánchez por acompañarnos en el
camino de nuestro trabajo y por ser comprensible y tolerante con nosotros..
A mi familia, que han sido el motivo de mi esfuerzo en especial a mi hijo William Armando
quien es el que me impulsa a poderle dar un buen ejemplo y a mi madre quien siempre me
a empujado a concluir mi carrera.
Agradezco infinitamente a cada uno de las personas que han estado día a día en mi camino
de mi carrera profesional.
Gracias.
Introducción x
Justificación xii
Objetivos xiii
1.
Espacios vectoriales. 21
2.
Formas y Operadores. 46
3.
Álgebra Multilineal. 58
Bibliografía 66
Introducción
El álgebra multilineal es una área de estudio que generaliza los métodos de álgebra lineal.
Los objetos de estudio son los productos tensoriales de espacios vectoriales y las
transformaciones multilineales.
Este documento se enfoca en temas básicos como son espacios vectoriales, subespacios
vectoriales, funciones lineales y bilineales.
Además se tiene como eje principal explicar detalladamente el producto tensorial que puede
ser aplicado en diversos contextos, a vectores, matrices, tensores, y con esto obtener una
mejor comprensión del tema.
Esto pretende motivar a los estudiantes para que se interesen en el estudio del álgebra
multilineal, incluso se espera que con el desarrollo de todos los contenidos se logre
enriquecer el conocimiento matemático de los interesados.
Objetivos
Objetivos General
Objetivos Específicos
• Establecer los temas básicos del álgebra lineal necesarios para la compresión de
las funciones bilineales.
Hermann Gunther Grassmann (1809 -1877) fue el primero en presentar una teoría de-
tallada de espacios vectoriales de dimensión mayor que tres. En sus dos versiones del Cálculo
de Extensión (1844 y 1862), expresa simbólicamente las ideas geométricas sobre espacios
vectoriales y distingue el Álgebra Lineal como una teoría formal, donde la geometría solo es
una aplicación particular. El trabajo de Grassmann no fue entendido por sus contemporáneos
debido a su forma abstracta y filosófica.
La definición de espacio vectorial antes llamado espacio lineal llegó a ser ampliamente
conocida alrededor del año 1920, cuando Hermann Weyl (1885-1955) y otros publicaron la
definición formal. De hecho, tal definición (para dimensión finita e infinita) había sido dada
treinta años antes por Peano (1858-1932), quien fue uno de los primeros matemáticos que
apreciaron en todo su valor la obra de Grassmann, y además con una notación completamente
moderna dio la definición de función lineal. Grassmann no dio la definición formal de función
lineal, ya que el lenguaje no estaba disponible, sin embargo no hay duda de que conocía el
concepto.
xv
X X
α( αi ei ) = (ααi )ei
0, · · · , 0, es , 0, · · · , 0
Er,s =
e1 , · · · , er , · · · , en
xvi
x = αx0 + βy 0
y = γx0 + δy 0 (1)
xvii
α β
γ δ
Cuando estaba tratando con ejemplos numéricos, modificó la notación anterior, agre-
gándole llaves:
0 1
0 −2
Cada sustitución lineal la denotó con una sola letra mayúscula cuando no era necesario
referirse a los coeficientes. La composición de sustituciones lineales también fue una parte
importante en la teoría aritmética de formas. Como en el caso binario, Gauss observó que si
la sustitución definida por (1) transforma una forma F = ax2 + 2bxy + cy 2 en F 0 y si F 0 es
transformada en F 00 por una segunda sustitución lineal
x0 = εx00 + ζy 00
y 00 = ηx00 + θy 00
James Joseph Sylvester (1814-1897) en 1850, utiliza el término matriz para denotar
un arreglo rectangular de números.
Eisenstein consideró a las sustituciones lineales como entes que pueden ser sumados
y multiplicados como si fueran números ordinarios, solo que la multiplicación no es conmu-
tativa. Consideraba lo anterior como algo generalmente conocido ya que es sugerido por el
teorema del producto para determinantes formulado por Cauchy.
xix
Formas Bilineales
Lagrange introdujo (aunque solamente para el Cálculo y sin darle nombre) la ecuación
adjunta L∗ (y) = 0 de una ecuación diferencial lineal L(y) = 0, la cual es un ejemplo típico
de dualidad en virtud de la relación
Z Z
zL(y)sdx = L∗ (z)ysdx
válida para y y z anulándose en los extremos del intervalo de integración. Con más
precisión, y treinta años antes de que Gauss definiera explícitamente la traspuesta de una
sustitución lineal de 3 variables, vemos aquí el primer ejemplo de un operador funcional L∗
traspuesto de un operador L dado mediante una función bilineal (en este caso la integral)
R
yz dx.
xx
Producto Tensorial
El Cálculo Tensorial se inicia a principios del siglo XIX con Grassmann y Cayley, pero
prospera hasta fines del mismo. Riemann multiplicó el poder del cálculo tensorial adoptando
las coordenadas curvilíneas de Gauss. Un nuevo progreso fue realizado por Christoffel en 1869
al organizar sistemáticamente el nuevo algoritmo, descubriendo las derivadas que después se
han llamado invariante y covariante. Finalmente Ricci y su discípulo Levi Civita le dieron la
forma definitiva en 1888.
La física relativista de Einstein sacó del olvido este poderoso instrumento, hoy de uso
frecuente en las más diversas teorías.
Definición 1.1. Un espacio vectorial es una terna (V, +, ·), donde V es un conjunto no vacío
y +, · son dos operaciones del tipo + : V × V → V , · : K × V → V a las que llamaremos
"suma de vectores" y "producto por escalares" respectivamente denotando +(u, v) = u + v y
·(λ, v) = λv, y con las siguientes propiedades:
1. u + (v + w) = (u + v) + w, ∀u, v, w ∈ V (asociativa).
2. u + v = v + u, ∀u, v ∈ V (conmutativa).
7. 1v = v, ∀v ∈ V (unimodular).
1. λ0 = 0, λ ∈ K.
2. 0v = 0, v ∈ V .
3. (−λ)v = −(λv), λ ∈ K, v ∈ V .
4. Si λv = 0, entonces λ = 0 o v = 0.
Siempre se supondrá que Rn tiene esta estructura vectorial y que llamaremos usual.
λv 0 = f (f −1 (v 0 ))
1. Si u, v ∈ U , entonces u + v ∈ U .
2. Si λ ∈ K y u ∈ U , entonces λu ∈ U .
1. Si u, v ∈ U , entonces u + v ∈ U .
2. Si λ ∈ K y u ∈ U , entonces λu ∈ U .
26
Demostración. La condición necesaria observamos que se cumple por la definición así que
solo basta probar la condición suficiente.
Supongamos que U satisface las propiedades 1 y 2. Veamos que con éstas son suficientes para
probar todas las propiedades de espacio vectorial. Todas éstas son ciertas de forma trivial,
excepto dos: la existencia de elemento neutro y opuesto. Pero para ello basta con probar que
el elemento neutro de V se encuentra en U y lo mismo sucede con el elemento opuesto de
un vector de U .
En particular, todo subespacio vectorial debe contener el elemento neutro del espacio
ambiente, así como los elementos opuestos de todos los vectores del subespacio.
Ejemplos:
1. U + W = W + U .
2. U + U = U .
3. U ⊂ U + W .
vRw si v − w ∈ U
28
[v] = v + U = {v + u; u ∈ U }.
(v + U ) + (w + U ) = (v + w) + U.
λ(v + U ) = (λv) + U.
Es obvio que las condiciones (i) y (ii) de la definición 1.8 son equivalentes a la siguiente:
Ejemplo 1.1. Sea U = IR3 y V = IR con la suma y multiplicación escalar usuales. Definamos
f : U → V mediante la regla f (x, y, z) = 3x − 2y + 2z. Veamos que f es lineal. Como
claramente se cumple la condición (i) de 1.8. También, f (α(x, y, z)) = f (αx, αy, αz)
= 3αx − 2αy + 2αz = α(3x − 2y + 2z) = αf (x, y, z). por lo que se cumple (ii) de 1.8.
Además, (g ◦ f )(αu) = g(f (αu)) = g(αf (u)) = αg(f (u)) = α(g ◦ f )(u). Por lo tanto
(g ◦ f ) es una función lineal.
f (0) = 0 ∈ f (U 0 ),
31
v + w = f (u) + f (u0 ) = f (u + u0 ) ∈ f (U 0 )
αv = αf (u) = f (αu) ∈ f (U 0 )
f (0) = 0 ∈ V 0
f (u + u0 ) = f (u) + f (u0 ) ∈ V 0
f (αu) = αf (u) ∈ V 0 , α ∈ K.
Luego, f −1 (V 0 ) es un subespacio de U .
Veamos que imf ∩ kerg = 0. Sea v ∈imf ∩ kerg. Entonces, como v ∈imf , existe
u ∈ U tal que f (u) = v. Como v ∈ kerg, g(v) = 0 . Luego gf (u) = g(v) = 0. Como gf es
un isomorfismo, u = 0. Luego f (u) = 0 y, por lo tanto, v = 0. Por definición 1.6 V ∼
= im
f ⊕ ker g .
32
Ejemplo 1.3. Sea S = (1, 0, 0, 0), (0, 1, 0, 0), (0, 0, 1, 0), (0, 0, 0, 1) un subconjunto deIR4 .
Considere las combinaciones lineales de elementos de S, i.e., expresiones de la forma.
33
Es claro que cualquier vector de IR4 puede escribirse como combinación lineal de
vectores de S; luego hSi = IR4 .
Iniciaremos esta sección estudiando, desde otro punto de vista, los conceptos de de-
pendencia e independencia lineal.
i 7→ ei
Proposición 1.8. Para todo espacio vectorial V sobre un campo K y para toda función
f : 1, 2, . . . , n → V existe una función lineal única φ : ⊕nj=1 Kj → V tal que f = φ ◦ g.
34
VO f
f
φ
g
⊕nj=1 Kj o {1, . . . , n}
Decir que φ en 1.13 es suprayectiva equivale a decir que todo elemento de V puede
escribirse como nj=1 αj vj , i.e., como una combinación lineal. El que φ sea biyectiva quiere
P
decir que todo elemento v ∈ V puede escribirse de una y solamente una manera en la forma
v = nj=1 αj vj , ∀j ∈ {1, 2, . . . , n}.
P
Es claro que el conjunto {ej }, j ∈ {1, . . . , n}, es una base de ⊕nj=1 Kj (llamada canó-
nica). Frecuentemente se identifica el conjunto 1, 2, . . . , n con el conjunto de los ej mediante
la biyección dada por j 7→ ej .
Ejemplo 1.4. Los vectores del espacio vectorial IR4 sobre IR, v1 = (2, 3, 1, 4), v2 = (3, 2, 1, 0)
y v3 = (17, 18, 7, 16), son linealmente dependientes puesto que 4(2, 3, 1, 4) + 3(3, 2, 1, 0) −
(17, 18, 7, 16) = (0, 0, 0, 0).
Ejemplo 1.5. Sean v1 = (5, 4, 7), v2 = (0, 3, 1) y v3 = (0, 0, 2) vectores del espacio vectorial
IR3 sobre IR. Sea α1 v1 + α2 v2 + α3 v3 = 0 una combinación lineal igual a cero. Entonces
tenemos un sistema de ecuaciones lineales
Proposición 1.9. El conjunto de vectores diferentes de cero {vi }ni=1 es linealmente depen-
diente si, y sólo si, uno de ellos es combinación lineal de los vectores precedentes.
Teorema 1.2. Sea X = {ui }ni=1 un conjunto de generadores de un espacio vectorial V sobre
un campo K .
genera a V .
tenemos que
j−1 j−1 n j−1 n
X X X X X
w= αi ui + αj + αi ui = (αi + αj βj )ui + αi ui .
i=1 i=1 i=j+1 i=1 i=j+1
Por 1.9 uno de los vectores del conjunto {v1 , u1 , . . . , un } es una combinación lineal
de los vectores precedentes. No puede ser v1 , pues {v1 } es linealmente independiente, tiene
que ser uno de los de X, digamos uj . Por (i) podemos omitir a uj y obtener un conjunto
{v1 , u1 , . . . , uj−1 , uj+1 , . . . , un }
que genera. Repetimos el procedimiento con v2 . Entonces {v1 , v2 , u1 , . . . , uj−1 , uj+1 , . . . , un }
es linealmente dependiente y genera a V . Por 1.9 uno de los vectores del conjunto es una com-
binación lineal de los precedentes. Como {v1 , v2 } es linealmente independiente, ese vector de-
be ser una uk . Por (i) podemos omitir uk y obtener un conjunto {v1 , v2 , u1 , . . . , uj−1 , uj+1 , . . . , uk−1 , uk+1 , . . . ,
que genera a V . Si continuamos el proceso obtendremos un conjunto, para r ≤ n, {v1 , v2 , . . . , vr , ui1 , . . . , uin−
que genera a V .
(iii) Sea {u1 , . . . , un } una base de V y {v1 , v2 , . . .} otra base de V . Como {ui }ni=1 genera a
V , la base {vj } debe contener n o menos vectores, pues, si no, sería linealmente dependien-
te (por (ii)). Si la base {vj } contiene menos de n vectores, entonces {ui }ni=1 es linealmente
dependiente (por (ii). Luego, la base {vj } contiene n elementos.
Obsérvese que los espacios vectoriales K n y K m son isomorfos si, y sólo si, n = m.
Demostración. Sea n = dim U , m = dim V y r = dim (U ∩ V ). Sea {ui }ri=1 una base de
38
U ∩V .
(iii) {ui }ri=1 es parte de una base de U y también de una base de V , digamos A =
{u1 , . . . , ur , v1 , . . . , vn−r } y B = {u1 , . . . , ur , w1 , . . . , wm−r } respectivamente.
Sea v ∈ imf . Entonces existe u ∈ U tal que f (u) = v. Como {v1 , . . . , vr , w1 , . . . , wn−r }
genera a U , u = α1 v1 + . . . + αr vr + β1 w1 + . . . + βn−r wn−r con αi , βi ∈ K. Comof (vi ) = 0
para i = 1, . . . , r pues vi ∈ kerf , tenemos que f (u) = v = f (α1 v1 + . . . + αr vr + β1 w1 + . . . +
βn−r wn−r )
= β1 f (w1 ) + . . . + βn−r f (wn−r ). Así, f (wi ) genera a la imagen de f .
que
β1 w1 + β2 w2 + . . . + βn−r wn−r = α1 v1 + α2 v2 + . . . + αr vr
i.e,
β1 w1 + . . . + βn−r wn−r − α1 v1 − . . . − αr vr = 0
Teorema 1.4. Sean U y V espacios vectoriales sobre un campo K . Entonces HomK (U, V )
con las operaciones definidas arriba es un espacio vectorial sobre K .
¿Cuál será la dimensión del espacio HomK (U, V ) si U y V son de dimensión finita?
Para responder esta pregunta, primero veamos un resultado previo que nos dice que una
transformación lineal está totalmente determinada si conocemos la imagen de los elementos
de la base de U .
Proposición 1.10. Sean U y V espacios vectoriales sobre un campo K . Sea {ui }ni=1 una
base de U y {vi }ni=1 cualesquiera vectores de V . Entonces existe una función lineal única
f : U → V tal que f (ui ) = vi , i = 1, . . . , n.
para Homk (U, V ) y contemos el numeró de elementos de dicha base. Para ello definimos
40
Luego, f = j=1 αij fij y por lo tanto {fij } genera a Homk (U, V ). Como hay nm
Pn Pm
i=1
A la matriz
t
α11 . . . α1n α11 . . . αm1
0
.. .. .. ..
[f ]ββ = . . = . .
αm1 . . . αmn α1n . . . αmn
2 −1
Luego [f ]ββ 0 = .
1 1
Ejemplo 1.7. sea f : IR2 → IR2 la aplicación lineal dada por f (x, y) = (4x + y, 2x − 4y).
0
Calculemos [f ]γγ donde γ = γ 0 = {(1, 1), (−1, 0)}:
−2 −2
[f ]γγ 0 = .
−7 2
−2 −2 5 −14
[f ]γγ 0 = = = [f (u)]γ 0 .
−7 2 2 −31
obtenemos f (u) = f ( m
P Pm Pm Pn Pn Pm
i=1 γi ui ) = i=1 γi f (ui ) = i=1 γi ( j=1 αij vj ) = j=1 ( i=1 αij γj )vj =
Considérese
43
La matriz de transición Nβγ puede verse como la matriz asociada a la función lineal
1U : U → U con respecto a las bases β y γ, es decir Nβγ = [1U ]γβ .
Ejemplo 1.8. Considere U = IR2 con bases β = {(1, 0), (0, 1)} y γ = {(1, 1), (−1, 0)}.
Entonces
(1, 0) = 0(1, 1) + (−1)(−1, 0) y
(0, 1) = 1(1, 1) + (1)(−1, 0).
0 1
Luego Nβγ = . por otro lado,
−1 1
Lema 1.1. Sea N = Nβγ la matriz de transición de la base β = {ui }ni=1 en la base γ = {u0i }ni=1
del espacio vectorial U sobre un campo K . Entonces N [u]γ = [u]β , y [u]γ = N −1 [u]β para
todo u ∈ U .
(λ1 , . . . , λn ). Luego u = ni=1 λi u0i = ni=1 λi ( nj=1 αij uj ) = nj=1 ( ni=1 αij λi )uj = ni=1 (α1j λ1 +
P P P P P P
α2j λ2 + . . . + αnj λn )uj . Así, [u]β es el vector columna con coeficiente j igual a α1j λ1 + α2j λ2 +
. . . + αnj λn .
Ejemplo 1.9. Considere el operador f : IR2 → IR2 dado por f (x, y) = (4x + y, 2x − 4y).
Sean β = β 0 y γ = γ 0 . Luego
Así que
0 4 1
[f ]ββ =
2 −4
45
0
Calculemos [f ]γγ utilizando el teorema 1.6 con la N = Nγβ obtenida en
0 0
[f ]γγ = N −1 [f ]ββ N
0 1 4 1 1 −1
=
−1 1 2 −4 1 0
0 1 5 −4 −2 −2
=
−1 1 −2 −2 −7 2
0
la cual coincide con la matriz [f ]γγ de (ejemplo 1.7).
Capítulo 2
Formas y Operadores.
47
f : Km × Kn → K
48
y
1
Pm Pm ..
= ( i=1 xi ai1 , . . . , i=1 xi ain ) .
yn
= nj=1 m
P P
i=1 xi aij yj
Pn Pm
= j=1 i=1 aij xi yj .
2 1 1 x1 y
1
Por ejemplo, si A = 1 3 3, X = x2 y Y = y2 entonces
2 1 1 x3 y3
2 1 1 y
1
f (X, Y ) = (x1 x2 x3 ) 1 3 3 y2
2 1 1 y3
y
1
f(X,Y)== (2x1 + x2 + 2x3 , x1 + 3x2 + x3 , x1 + 3x2 + x3 ) y2
y3
A Bil(V ) le podemos dar una estructura de espacio vectorial mediante las reglas
(f + g)(u, v) = f (u, v) + g(u, v) y (λf )(u, v) = λf (u, v) para f, g ∈ Bil(V ), λ ∈ K.
Proposición 2.1. Sea {v1 , . . . , vn } una base del espacio vectorial V sobre K. Sean
f1,...,fn ∈ HomK (V, K)= V ∗ funcionales dadas por fi (vj ) = δij , donde δij es la delta de
1 si i = j
Kronecker, i.e., δij = . Entonces {fi }ni=1 es una base de V ∗ .
0 si i 6= j
Ejemplo 2.4. Consideremos la base {(1, 1), (3, 1)} de IR2 . Encontremos su base dual para
(IR2 )∗ = HomIR (IR2 , IR). Deseamos encontrar funcionales f1 (x, y) = αx + βy y
f2 (x, y) = γx + δy tales que f1 (1, 1) = 1, f1 (3, 1) = 0, f2 (1, 1) = 0, f2(3,1)=1 . Luego
f1 (1, 1) = 1α + 1β = 1
f (3, 1) = 3α + 1β = 0
1
También
f2 (1, 1) = γ + δ = 0
f (3, 1) = 3γ + δ = 1
2
Proposición 2.2. Sea V un espacio vectorial de dimensión finita sobre un campo K . Sea
{vi }ni=1 una base de V y {fi }ni=1 su base dual. Entonces
(i) si v ∈ V, v es de la forma
(ii) si f ∈ V ∗ , f es de la forma
Demostración. Sea {vi }ni=1 una base de V , dual de {fi }ni=1 . Veamos que {fij } es
linealmente independiente: supongamos que aij fij = 0. Entonces para índices
P
r, s = 1, . . . , n tenemos que
P P P P
( aij fij )(vr , vs ) = aij fij (vr , vs = aij fij (vr )fj (vs ) = aij δir δjs = ars = 0(vr , vs ) = 0.
Por tanto {fij } es linealmente independiente.
Veamos que {fij } genera a Bil(V ): sea f ∈ Bil(V ) y aij = f (vi , vj ). Basta probar
que f (vr , vs ) = (aij fij )(vr , vs ) para r, s = 1, . . . , n. Pero como antes,
(aij fij )(vr , vs ) = ars = f (vr , vs ), luego {fij } genera Bil(V ).
= .t [u]γ A[v]γ .
Ejemplo 2.5. Sea f : IR2 × IR2 −→ IR una forma bilineal dada por
f ((α1 , α2 ), (β1 , β2 )) = 4α2 β2 y γ = {γ1 , γ2 } = {(1, 1), (3, 1)} una base de IR2 Calculemos la
matriz asociada a f con respecto a γ, i.e., A = (aij ) donde aij = f (γi , γj )
a21 = f (γ2 , γ1 ) = 4
a22 = f (γ2 , γ2 ) = 4
4 4
Luego A = .
4 4
Ejemplo 2.6. Sea f como en el ejemplo anterior. Calculemos la matriz B asociada a f con
respecto a la base γ 0 = {γ10 , γ20 } = {(2, 1), (1, −1)} :
4 −4
Luego B = .
−4 4
1
γ10 = (2, 1) = λ(1, 1) + µ(3, 1) =⇒ λ = =µ
2
γ20 = (1, −1) = η(1, 1) + δ(3, 1) =⇒= −2, δ = 1.
1/2 −2
Luego N = .
1/2 1
54
1/2 1/2 4 4 1/2 −2 4 −4
Observe que t N AN = = = B.
−2 1 4 4 1/2 1 −4 4
Demostración. Sean u, v ∈ V arbitrarios. Por el lema 1.1 N [u]γ 0 = [u]γ y N [v]γ 0 = [v]γ .
Luego .t [u]γ = .t [u]γ 0 .t N . Así que f (u, v) = .t [u]γ A[v]γ = .t [u]γ 0 .t N AN [v]γ 0 . Por lo tanto,
.t N AN es la matriz asociada a f con respecto a γ 0 .
Demostración. Es claro que f 7−→ [f ]γ es biyectiva pues f está determinada por f (vi , vj ).
Veamos que es lineal: como
Proposición 2.4. Sean {ui }ni=1 y {vi }ni=1 bases deV . Sean {fi }ni=1 y {gi }ni=1 bases de V ∗
duales de {ui } y {vi } respectivamente. Sea N la matriz de transición de la base {ui }en la
base {vi }. Entonces .t N −1 es la matriz de transición de la base {fi } en la base {gi }.
v1 = α11 u1 + . . . +α1n un
.. .. ..
. . .
vn = αn1 u1 + . . . +αnn un
α . . . αn1 α . . . αn1
11 11
.. .. . ..
i.e. N = . . = .t (αij ) space y space .t N = .. . = (αij ).
α1n . . . αnn α1n . . . αnn
i.e.
β . . . β1n
11
. ..
B = .. t
. = . (βij ).
β1n . . . βnn
Deseamos ver queB = .t N −1 . Para ello, veamos que B.t N = I, y así tendremos que
B = .t N −1 . Pero
Luego B t N = I.
56
= λū(f ) = λψ(u)(f ).
Luego ψ es lineal.
f
U ×V / T
g h
#
W
0
; T ;T
f f0
h h0
f0
f
U ×V / T0 1T U ×V / T 1T 0
h0 h
f
# t f0 # v
T T0
60
En otras palabras, la definición 3.1 nos dice que cualquier función bilineal
g : U × V −→ W puede expresarse en términos de f : U × V −→ T = U ⊗K V como g(u, v)
= h(f (u, v)) para una función lineal única h : U ⊗K V −→ W .
Ahora veamos que, dados dos espacios vectoriales de dimensión finita sobre un
campo K, siempre existe su producto tensorial.
= f (u, v) + f (u0 , v)
u ⊗ (µ1 v1 + µ2 v2 ) = µ1 (u ⊗ v1 ) + µ2 (u ⊗ v2 ),
donde λ1 , λ2 , µ1 , µ2 , ∈ K; u1 , u2 , u ∈ U y v1 , v2 , v ∈ V .
donde ui ∈ U, vi ∈ V .
f : V1 × V2 × · · · × Vm −→ W
Donde λ ∈ K, vi , vi0 ∈ Vi .
Es decir, f es lineal en cada variable cuando las otras se mantienen fijas. También
llamaremos forma multilineal a una función multilineal con codominio K. Podemos
enunciar la definición equivalente a la definición 3.1 para productos multitensoriales.
de {Vi } es una pareja (T, f ) donde T es un espacio vectorial sobre K y f es una función
64
f
V1 × · · · × Vm / T
g h
)
W
existencia de T .
f0 f1 f2 fm−1 fm
0 −→ V1 −→ V2 −→ · · · −→ Vm−1 −→ Vm −→ 0
65
0 −→ V2 /im f1 −→ V3 −→ · · · −→ Vm−1 −→ Vm −→ 0
[1] Emilio Lluis - Puebla, Álgebra Lineal, Álgebra Multilineal y K-Teoría Algebraica Clá-
sica. SITESA. (2008).
[4] Guelfand, I.M. Lecciones de Algebra Lineal. U. del País Vasco. (Traducción de la versión
rusa de 1971).