Algebra 2 - Santander, R. - DMCC - MBI - FC - USACH PDF
Algebra 2 - Santander, R. - DMCC - MBI - FC - USACH PDF
Algebra 2 - Santander, R. - DMCC - MBI - FC - USACH PDF
Matrices
Este Capitulo estará destinado a presentar contenidos y actividades que permitirán al estudiante, recordar
los contenidos mı́nimos necesarios, a cerca del conjunto de matrices, ya estudiado en el curso de Álgebra I
con el objetivo de enfrentar con éxito el estudio de los tópicos del curso Álgebra II. en particular su Capı́tulo
I, Sistemas de Ecuaciones lineales y matrices.
1. El grupo de matrices
Dado un conjunto de datos, un problema siempre interesante es como ordenarlos de una forma rápida y
eficiente, es claro que la rapidez y eficiencia dependen de las necesidades que plantea la situación; en esta
dirección tenemos por ejemplo la forma como se ordenan los departamentos en un edificio A de n-pisos. Una
forma serı́a la siguiente: El departamento aij , esta en el piso i y ocupa la posición j en dicho piso; de esta
forma A = (aij ) es una buena representación del edificio, esto es:
a11 a12 a13 ... a1m
a21 a22 a23 ... a2m
a31 a32 a33 ... a3m
A= (1)
.. .. .. ..
. . .
... .
an1 an2 an3 . . . anm
Definición 1.1. A será llamada una Matriz de n-filas y m-columnas ( orden n × m) sobre R si A es de la
forma modelada en (1).
Usaremos la notación:
MR (n) = MR (n × n)
A = 2 3 −5 7 0 fila de largo 5
3
4 Profesor Ricardo Santander Baeza 2010
1
3
A=
4 columna de largo 5
7
9
A será llamada Matriz nula si aij = 0 (∀i; 1 ≤ i ≤ n); (∀j; 1 ≤ j ≤ m). Por ejemplo
0 0 0
(0)(2×3) = nula de orden 2 × 3
0 0 0
2 −4 9
A= 1 5 0 cuadrada de orden 3
−1 7 18
• n=m
• aij = 0 si i 6= j
Por ejemplo
2 0 0
A= 0 5 0 diagonal de orden 3
0 0 18
• n = m(
1: i=j
• aij =
6 j
0: i=
Y se denota por In
Por ejemplo
1 0 0
I3 = 0 1 0 identidad de orden 3
0 0 1
• n=m
• aij = 0 si i > j
Profesor Ricardo Santander Baeza 2010 5
Por ejemplo
2 3 7
A= 0 5 4 triangular superior de orden 3
0 0 11
• n=m
• aij = 0 si i < j
Por ejemplo
7 0 0
A= 4 5 0 triangular inferior de orden 3
11 8 0
• n=m
• aij = aji
Por ejemplo
2 3 7
A= 3 5 4 simétrica de orden 3
7 4 11
• n=m
• aij = −aji
Por ejemplo
0 3 7
A = −3 0 4 antisimétrica de orden 3
−7 −4 0
2 3 7 2 8 3
A = 8 5 4 entonces At = 3 5 0
3 0 11 7 4 11
(a11 + b11 ) (a12 + b12 ) (a13 + b13 ) ... (a1n + b1n )
(a21 + b21 ) (a22 + b22 ) (a23 + b23 ) ... (a2n + b2n )
= .. .. .. ..
. . ... . .
(am1 + bm1 ) (am2 + bm2 ) (am3 + bm3 ) . . . (amn + bmn )
Demostración
Si A = (aij ) ∈ MR (n × m) entonces
A + −A = (aij ) + (−aij )
= (aij − aij )
= (0)(n×m) ( usamos la propiedead del inverso aditivo de R)
En particular, A − B := A + (−B) en MR (n × m)
1000
X
tr(A) = aii (5)
i=1
Solución
a11 a12 a13 ... a11000 1 1 1 ... 1
a21 a22 a23 ... a21000 0 2 2 ... 2
a31 a32 a33 ... a31000 0 0 3 ... 3
=
.. .. .. .. .. .. .. .. . . ..
. . . . . . . . . .
a10001 a10002 a10003 . . . a10001000 0 0 0 ... 1000
(ii) Finalmente,
1000
X 1000
X 1000 · 1001
tr(A) = aii = i= = 500500
2
i=1 i=1
S = {A ∈ MR (2) | A = At } (6)
A ∈ S ⇐⇒ A ∈ MR (2) ∧ A = At
t
a11 a12 a a12 a11 a12
⇐⇒ A = ∧ 11 =
a21 a 22 a21 a22 a21 a22
a11 a12 a a12 a11 a21
⇐⇒ A = ∧ 11 =
a21 a22 a21 a22 a12 a22
a11 = a11
a11 a12 a12 = a21
⇐⇒ A = ∧
a21 a22 a21 = a12
a22 = a22
a11 a12
⇐⇒ A = ∧ a12 = a21
a21 a22
a11 a12
⇐⇒ A =
a12 a22
Conclusión A + B ∈ S
0 0 a11 a12 −a11 −a12
Además, (0) = ∈ S y si A = ∈ S entonces −A = ∈ S.
0 0 a12 a22 −a12 −a22
a11 0 0 a12 0 0
A = + +
0 0 a12 0 0 a22
| {z } | {z } | {z }
∈S ∈S ∈S
• (At )t = A
• (A + B)t = At + B t
• A = At ⇐⇒ (aij ) = (aji )
• A ∈ MR (3) =⇒ A + At ∈ SA
10 Profesor Ricardo Santander Baeza 2010
• A ∈ MR (3) =⇒ A − At ∈ ASA
(6) Demuestre que MR (3) = SA ⊕ ASA . Es decir que se satisfacen simultáneamente las propiedades1
• MR (3) = SA + ASA
2. Anillo de Matrices
Sabemos que (MR (n), +) es un grupo abeliano ası́ que, para hacer un anillo de las matrices debemos definir
un producto asociativo y distributivo.
1En este caso se dice que M (3) es suma directa de los conjuntos S y AS
R A A
Profesor Ricardo Santander Baeza 2010 11
Ejemplo 2.1.1.
1 3 0 4
1 3 5 2 69 1 49
(1) Sea A = yB= 2 7 −3 5 entonces A · B =
2 7 0 16 55 −21 43
−1 9 2 6
entonces
• 1 1 · M (art × tiendas) = 6 12 7 representa la cantidad total de artı́culos por tienda.
1
11
• M (art × tiendas) · 1 = representa la cantidad total de artı́culos del tipo uno y dos
14
1
en stock
Teorema 2.1.2. (MR (n), +, ·) es un anillo no conmutativo con identidad In , (∀n; n ∈ N)
Demostración
A · (B · C) = (A · B) · C
El resultado sigue de los siguientes hechos: Como
Xs
• B · C=(dij ) donde dij = bik ckj , y
k=1
12 Profesor Ricardo Santander Baeza 2010
m
X
• A · (B · C) = (eij ) donde eij = aip dpj
p=1
entonces
m m s
! s m
!
X X X X X
eij = aik dkj = aik bkr crj = aik bkr crj = (A · B) · C
k=1 k=1 r=1 r=1 k=1
Si A = (aij ) ∈ MK (n × m), B = (bij ) ∈ MK (m × s) y C = (cij ) ∈ MK (m × s) entonces A · (B + C) =
A·B+A·C
m
X
Porque si hacemos, A · (B + C) = (aij )[(bij + cij ] = (dij ), con dij = aik [bkj + ckj ] obtenemos que
k=1
m
X m
X m
X m
X
dij = aik [bkj + ckj ] = [aik · bkj + aik · ckj ] = [aik · bkj ] + [aik · ckj ] = A · B + A · C
k=1 k=1 k=1 k=1
• (−A)t = −(At )
• (A + B)t = At + B t
• (−A)(−B) = −(AB)
S = {B ∈ MR (2) | B 2 = A}
S = {X ∈ MR (3) | AX = At − 2B}
1 1 1
(5) Si A = 0 1 1 ∈ MR (3). Determine An , para n ∈ N.
0 0 1
n n(n−1) n−2
a 1 0 an nan−1 2 a
0 a 1 = 0 an nan−1 (∀n; n ∈ N)
0 0 a 0 0 an
(7) Un constructor tiene contrato para construir tres (3) estilos de casa: moderno, mediterráneo y colonial.
La cantidad de material empleada en cada tipo de casa es dada por la matriz:
• Suponga ahora que los precios por unidad de fierro, madera, vidrio, pintura, ladrillo sean 15,8,5,1
y 10 unidades monetarias, respectivamente. ¿ Cuál es el precio unitario de cada tipo de casa ?.
Una red de comunicación tiene cinco locales con transmisores de potencias distintas. Estableceremos
para la matriz (⋆) las siguientes condiciones:
(ii) aij = 0 significa que la estación i no alcanza a la estación j. Observe que aii = 0 significa que una
estación no transmite directamente para si misma.
• Calcule A2
• ¿ Cuál es el significado de c13 = 2 ?
• Discuta el significado de los términos no nulos, iguales a 1 y mayores que 1 de modo que pueda
justificar la afirmación:
”La matriz A2 representa el número de caminos disponibles para ir de una estación a otra con una
única retransmisión”.
• ¿ Cuál es el significado de las matrices A + A2 , A3 y A + A2 + A3
• Si A fuese simétrica ¿ qué significarı́a ?
a11 x + a12 y = b1
a21 x + a22 y = b2
Resolver el sistema significa encontrar el valor de x e y de tal forma que se satisfagan ambas ecuaciones
simultáneamente.
−1
x a11 a12 b1
=
y a21 a22 b2
−1
a11 a12
Entonces la pregunta es ¿ quién es ? y ¿existe siempre? y ¿es fácil de encontrar?.
a21 a22
En cualquier caso, la respuesta sigue del análisis algebraico de la situación.
Luego la respuesta es afirmativa si y sólo si (a11 a22 − a21 a12 ) 6= 0. Más aún, ahora estamos en condiciones
de responder el problema para este caso:
b1 a22 − b2 a12 a22 −a12
a a −a a a a −a a a11 a22 − a21 a12
x 11 22 21 12 11 22 21 12 b1
= =
y b a −b a −a21 a11 b2
2 11 1 21
a11 a22 − a21 a12 a11 22 − a21 a12
a a11 a22 − a21 a12
a11 a12
Si definimos para A = su determinante como: det(A) = a11 a22 − a21 a12 entonces tenemos lo
a21 a22
siguiente:
a11 a12 x b1
El sistema matricial = Tiene solución si y sólo si
a21 a22 y b2
(1) det(A) 6= 0, y
b a −b a
1 22 2 12
det(A)
x
(2) = , y
y b a −b a
2 11 1 21
det(A)
a22 −a12
−1 det(A) det(A)
a11 a12
(3) =
a21 a22 −a21 a11
det(A) det(A)
En el caso general podemos definir de la siguiente forma:
∆ij = (−1)(i+j) det(Aij ) para (i = 1, 2, . . . , n); (j = 1, 2, . . . , n), representa el cofactor de la posición ij.
1 2 3
Ejemplo 4.1.1. Si A = 4 5 6 entonces
7 8 9
5 6 4 6 4 5
• A11 = ∧ A12 = ∧ A13 =
8 9 7 9 7 8
2 3 1 3 1 2
• A21 = ∧ A22 = ∧ A23 =
8 6 7 9 7 8
2 3 1 3 1 2
• A31 = ∧ A32 = ∧ A33 =
5 6 4 6 4 5
1 2 3
Ejemplo 4.1.2. Si A = 4 5 6 entonces para la fila uno (1) tenemos:
7 8 9
4.2. Propiedades del Determinante. Aunque el desarrollo de Laplace calcula un determinante, no obs-
tante su proceso recurrente es demasiado caro en tiempo para matrices de tamaño grande, ası́ que es necesario
mejorar tal método obteniendo consecuencias útiles desde la definición:
n
X n
X
(1) Si A = (aij ) ∈ MR (n) entonces det(A) = det(At ). Pues det(A) = ∆ik aik = ∆sj asj
k=1 s=1
(2) Si A = (aij ) ∈ MR (n) posee una fila o una columna nula entonces det(A) = 0
En efecto
n
X
det(A) = ∆ik · 0 = 0, calculando por la fila nula
k=1
(3) Si α ∈ R; α 6= 0
det(Li → αLi )(A) = α det(A)
En efecto
n
X n
X
det((Li ↔ αLi )(A)) = ∆ik αaik = α ∆ik aik = α det(A)
k=1 k=1
En efecto
n
X
det((Li ↔ Li+1 )(A)) = ∆(i+1)k aik
k=1
n
X
= (−1)(i+1+k) det(Aik )aik
k=1
Xn
= − (−1)(i+k) det(Aik )aik
k=1
n
X
= − ∆ikaik
k=1
= − det(A)
1 2 4 5
Ası́ por ejemplo; det = −3 y det =3
4 5 1 2
En efecto
Esta propiedad es un corolario de la propiedad anterior, pues si la fila i y la fila j son iguales entonces
1 2
Ası́ por ejemplo; det =0
1 2
Las siguientes propiedades quedarán de ejercicios:
1 2 3 1 2 3 1 2 3
(L2 →L2 −4L1 )
(L3 →L3 −7L1 )
−3 −6
det 4 5 6 = det 0 −3 −6 = det 0 −3 −6 = det =0
−6 −12
7 8 9 7 8 9 0 −6 −12
En efecto
Aplicamos la definición por la primera fila si es triangular inferior, o por la primera columna si es
triangular superior.
0 1 0 1 0
−1 a 0 0 0
A=
0 0 a 0 0
−1 0 0 a 0
0 0 0 0 a
Solución
0 1 0 1 0
0 1 0 1 0 1 0 1
−1 a 0 0 0
(definición) −1 a 0
0 (L4 −→L4 −L2 ) −1 a 0 0
det
0 0 a 0 0
= a · det
0 = a ·
0 a 0 0 0 a 0
−1 0 0 a 0 0 −a
−1 0 0 a 0 a
0 0 0 0 a
1 0 1
(definición)
(definición) 2 1 1 (definición) 3
= a · det 0 a 0 = a · det = 2a
−a a
−a 0 a
1 1 1
det x y z = (x − y)(y − z)(z − x)
x2 y 2 z 2
En efecto
Profesor Ricardo Santander Baeza 2010 19
1 1 1 1 1 1
(L2 →L2 −xL1 )
det x y z = det 0 (y − x) (z − x)
x2 y 2 z 2 x2 y2 z2
1 1 1
(L3 →L3 −x2 L1 )
= det 0 (y − x) (z − x)
0 (y − x ) (z 2 − x2 )
2 2
(definición) (y − x) (z − x)
= det
(y 2 − x2 ) (z 2 − x2 )
= (y − x)(z 2 − x2 ) − (z − x)(y 2 − x2 )
= (y − x)(z − x)(z + x − y − x)
= (y − x)(z − x)(z − y)
= (x − y)(y − z)(z − x)
(2) Sean A ∈ MR (n) y B ∈ MR (n) dos matrices. Determine si son verdaderas o falsas las siguientes afir-
maciones:
(a) A23
(b) det(A23 )
(c) ∆23
(d) det(A)
20 Profesor Ricardo Santander Baeza 2010
2 −3 1 4
−2 3 6 2 −1 3 0 −2 0 0
(a) det 4 1 8 (b) det 4 0 6 (c) det
3
7 −1 2
−2 0 0 5 −2 3
4 1 −3 8
1 1 −1 0 3 −1 5 0 0 a 0 0
−3 4 6 0 0 2 0 1 b 0 0 0
(d) det
2
(e) det
(f) det
5 −1 3 2 0 −1 3 0 0 0 c
4 0 3 0 1 1 2 0 0 0 d 0
3 0 0 0 0 1 −1 2 0 0
a b 0 0
c d 0 19 18 0 0 0 3 1 4 0 0
0
(g) det
0 0 a −b (h) det
−6 √π √
−5 0 0
(i) det
2 −1 5 0 0
4 2 3 0 0 0 0 0 2 3
0 0 c d
8 3 5 6 −1 0 0 0 −1 4
0 1 0 0 0 0
a 0 0 0 0
0 0 b −1 0 1 0 0 0
0 0
0 −1 0 1 0 0
(j) det
0 0 0 0 c
(k) det
0 0 0 0 0 −1 0 1 0
d 0
0 0 0 −1 0 1
0 e 0 0 0
0 0 0 0 −1 0
a b c a+b b+c c+a
(5) Si det x y z = 3 entonces calcule det x + y y + z z + x
p q r p+q q+r r+p
α+β αβ 0 ... 0 0 0
1 α+β αβ ... 0 0 0
0 1 α+β ... 0 0 0
(7) Si A(n) = .. .. .. .. .. .. ∈ MR (n).
. . . . . .
0 0 0 ... 1 α+β αβ
0 0 0 ... 0 1 α+β
Demuestre que
det(A(n)) = (α + β) det(A(n − 1)) − αβ det(A(n − 2)) (n ≥ 3)
(8) Sea A = (aij ) ∈ MR (3) tal que det(A) = 3. Calcule el determinante de las siguientes matrices
Profesor Ricardo Santander Baeza 2010 21
• det((L1 ←→ L3 )(A))
• det((L1 ←→ L2 )(A))
(10) Sea A ∈ MR (n) tal que A = −At , es decir A es antisimétrica. Demuestre que
n impar =⇒ det(A) = 0
(12) Sea A ∈ MR (n) tal que As = 0 y As−1 6= 0, una tal matriz se llama matriz nilpotente. Demuestre que
det(A) = 0
(13) Sea A ∈ MR (n) tal que A2 = A, una tal matriz se llama matriz idempotente. Determine det(A)
a11 a12 x b1
=
a21 a22 y b2
a22 a12
−
x
det(A) det(A) b
1
=
y a21 a11 b2
−
det(A) det(A)
Es decir,
22 Profesor Ricardo Santander Baeza 2010
a22 −a12
−1 det(A) det(A)
a11 a12
=
a21 a22 −a21 a11
det(A) det(A)
Entonces lo que corresponde ahora, es verificar si el papel que juega el determinante para determinar al
conjunto U(MR (2)), puede ser generalizado para la determinación de U(MR (n)). Para fijar algunos nombres
de uso corriente haremos la siguiente.
Definición 7.1. Diremos que A ∈ MR (n) es invertible o no singular o una unidad, si A ∈ U(MR (n)), es
decir, si existe B ∈ MR (n) tal que A · B = B · A = In , y en tal caso notamos B = A−1 .
Para conectar esta definición con nuestro estudio de determinantes iniciamos con el siguiente.
Lema 7.1.1. A ∈ U (n) =⇒ det(A) 6= 0 ∧ det(A−1 ) = (det(A))−1
En efecto
A ∈ U (n) ⇐⇒ ∃A−1 ; A−1 ∈ MR (n) : A · A−1 = In
=⇒ det(A · A−1 ) = det(In )
=⇒ det(A) · det(A−1 ) = 1
1
=⇒ det(A) 6= 0 ∧ det(A−1 ) = = (det(A))−1
det(A)
Definición 7.2. Sea A ∈ MR (n) tal que A = (aij ) entonces
e = (∆ij ), y
(1) Llamaremos matriz de cofactores a la matriz A
et
(2) Matriz adjunta de A a la matriz adj(A) = A
2 1 0
Ejemplo 7.2.1. Si A = −3 1 4 entonces su matriz de cofactores y adjunta son respectivamente:
1 6 5
−19 19 −19 −19 −15 4
e = −5 10 −11 , y adj(A) = 19
A 10 −8
4 −8 5 −19 −11 5
Observamos de este ejemplo los siguientes hechos:
2 1 0 −19 −15 4 −19 0 0
• A · adj(A) = −3 1 4 19 10 −8 = 0 −19 0
1 6 5 −19 −11 5 0 0 −19
Profesor Ricardo Santander Baeza 2010 23
• Aunque este paso no sea necesario, sin embargo es una cuestión que más tarde de todas formas abordare-
mos, y permite simplificar nuestro acercamiento a la obtención de las unidades del anillo de matrices.
Si definimos la operación de matrices
· : R × MR (n) −7 → MR (n)
(λ, (aij )) 7 → (λ · aij )
−
Ası́ que, aplicando esta función en (11) obtenemos que,
1 0 0 t
−1 1 ∆ij
A · adj(A) = det(A) 0 1 0 =⇒ A = adj(A) =
0 0 1 det(A) det(A)
n
X
cii = ais ∆is = det(A) (1 ≤ i ≤ n)
s=1
• Si i 6= j entonces
n
X
cij = ais ∆js
s=1
a11 a12 ··· a1n
.. .. ..
. . ··· .
ai1 ai2 ··· ain ← fila i
. .. ..
= det
.. . ··· .
a ain
i1 ai2 ··· ← fila j
. .. ..
.. ···
. .
an1 an2 · · · ann
= 0
Corolario 7.3.1. Si U(MR (n)) = {A ∈ MR (n) | A invertible} entonces
En tal caso,
1 1
det(A−1 ) = ∧ A−1 = adj(A)
det(A) det(A)
6 2
Ejemplo 7.3.2. Si A = entonces det(A) = 6 · 4 − 11 · 2 = 2, Luego existe A−1 , y usando el
11 4
teorema anterior podemos calcular la inversa:
En efecto
e = (∆ij ) = 4 −11
• A
−2 6
4 −2
• adj(A) =
−11 6
−1 1 4 −2 2 −1
• A = =
2 −11 6 − 11
2 3
Ejemplo 7.3.3. Sean A ∈ MR (n) y B ∈ MR (n) entonces
1 1 1
3 2 3 −6
(a) (b) (c) 0 2 3
1 2 1 2
5 5 1
3 2 1 1 1 1 1 0 x
(d) 0 2 2 (e) 0 1 1 (f) 1 1 x2
0 1 −1 0 0 1 2 2 x2
1 1 1 1 1 −3 0 −2 4 −1 2 −2
1 2 −1 2
(g) (h) 3 −12 −2 −6 (i) 3 −1 0 0
1 −1 2 1 −2 10 2 5 2 3 1 0
1 3 3 2 −1 6 1 3 0 7 1 1
Profesor Ricardo Santander Baeza 2010 25
α −3
(4) Sea A = . Determine el conjunto:
4 (1 − α)
−α (α − 1) α + 1)
(5) Sea A = 1 2 3 . Determine el conjunto:
(2 − α) (α + 3) (α + 7)
cos θ sen θ
(7) Demuestre que A = ∈ U(MR (2)) y determine A−1
− sen θ cos θ
A = At =⇒ Adj(A) = (Adj(A))t
(9) Si U(MR (n)) = {A ∈ MR (n) | A invertible} entonces demuestre que U(MR (n)) es un grupo no abeliano
con el producto de matrices.
1. (li ↔ lj ) : MR (n × m) −
7 → MR (n × m) Que consiste en permutar la fila i con la fila j
A 7 → (li ↔ lj )(A)
−
26 Profesor Ricardo Santander Baeza 2010
2. (li → α · li ) : MR (n × m) −
7 → MR (n × m) Que consiste en multiplicar la fila i por α 6= 0
A 7 → (li → α · li )(A)
−
3. (li → li + α · lj ) : MR (n × m) −
7 → MR (n × m) Que consiste en permutar la fila i
A 7 → (li → li + αlj )(A)
− por la fila i más α veces la fila j
(1) La operación elemental (Lr ←→ Ls ), nos permite trasladar a voluntad las filas de la matriz, como por
ejemplo acumular, si las hubiera, las filas nulas ( de puros ceros) en las filas inferiores (de abajo) de
la matriz.
(2) La operación elemental (Lr −→ αLr ), nos permite crear unos (1) en cualquier posición de la matriz.
(3) La operación elemental (Lr −→ Lr + αLs ), nos permite crear ceros (0) en cualquier posición de la
matriz.
Esta observación nos permite construir una clase especial de matriz, que de ahora en adelante será muy
importante, como lo iremos viendo en el transcurso de nuestro estudio, por lo pronto la formalizaremos a
través de la siguiente.
(a) En cualquier fila no nula, el primer elemento no nulo (partiendo de la izquierda) es un uno (1).
A este elemento lo llamaremos el pivote de esa fila.
(b) Todas las filas (si las hay) cuyos elementos son todos ceros (filas nulas), aparecen bajo las filas no
nulas.
(c) Si una columna contiene el pivote de un fila entonces es nula en todas las otras posiciones.
(d) Si dos filas sucesivas son no nulas entonces el primer elemento no nulo en la fila inferior, esta a
la derecha del primer elemento no nulo de la fila superior.
(a) En cualquier fila no nula, el primer elemento no nulo (partiendo de la izquierda) es un uno (1).
A este elemento lo llamaremos el pivote de esa fila.
(b) Todas las filas (si las hay) cuyos elementos son todos ceros (filas nulas), aparecen bajo las filas no
nulas.
(c) Si dos filas sucesivas son no nulas entonces el primer elemento no nulo en la fila inferior, esta a
la derecha del primer elemento no nulo de la fila superior.
1 0 0 1 0 0 0 1 0 2 5
1 0 0 5 1 0
(a) 0 1 0 (b) 0 1 0 0 (c) (d) (e) 0 1 3 6
0 0 1 2 0 1
0 0 1 0 0 1 0 0 0 0 0
Ejemplo 9.2.2. Cinco matrices en la forma escalonada por filas. Note la diferencia con (9.2.1)
1 2 3 1 −1 6 4 1 3 2 5
1 0 2 5 1 2
(a) 0 1 5 (b) 0 1 2 8 (c) (d) (e) 0 1 3 6
0 0 1 2 0 1
0 0 1 0 0 1 0 0 0 0 0
En efecto
El resultado sigue, de observar que el orden de una matriz es finito, es decir (n × m), es una pareja de
números naturales finitos.
Aplicando operaciones elementales orientadas, es decir guiados por la definición de matriz escala reducida
por filas tenemos que.
1 2 1 0 (L2 −→ L2 + L1 ) 1 2 1 0
−1 1
0 3 5 0 2 4 5 L2 −→ L2
2 4 2 0 (L3 −→ L3 − 2L1 ) 0 0 0 0 2
1 2 1 0 1 0 −3 −5
0 1 2 52 (L1 −→ L1 − 2L2 ) 0 1 2 5
2
0 0 0 0 0 0 0 0
(4) Describa todas las posibles matrices de orden 2, que esten en la forma escalonada reducida por filas
(5) Demuestre que la relación definida en la Definición 9.1, es una relación de equivalencia
(6) Demuestre que toda matriz escalonada reducida por filas es una matriz escalonada por filas.
Teorema 10.2. Si A = (aij ) ∈ MR (n) entonces (li ↔ lj )(A) = E(li lj ) · A = (li ↔ lj )(In ) · A
En efecto
a11 a12 a13 ··· a1n a11 a12 a13 · · · a1n
.. .. .. .. .. .. .. .. .. ..
. . . . . . . . . .
ai1 ai2 ai3 · · · ain aj1 aj2 aj3 · · · ajn
. .. .. .. .. entonces (l ↔ l )(A) =
..
Si A = .. .. .. ..
.. . . . . i j . . . . .
a aj2 aj3 · · · ajn a ai2 ai3 ··· ain
j1 i1
. .. .. ..
.. . .. .. .. ..
.. . . . . .. . . . .
an1 an2 an3 · · · ann an1 an2 an3 · · · ann
1 0 0 ··· 0 1 0 0 ··· 0
.. .. .. .. .. .. .. .. .. ..
. . . . . . . . . .
0 1 0 ··· 0 0 0 1 ··· 0
. . . .. .. ..
Por otra parte, E(li lj ) = (li ↔ lj ) . . . = .. .. .. ..
. . . . . . . . . . , Ası́ que
0 0 1 ··· 0 0 1 0 ··· 0
. . . .. .. . . . .. ..
.. .. .. . . .. .. .. . .
0 0 0 ··· 1 0 0 0 ··· 1
1 0 0 ··· 0 a11 a12 a13 · · · a1n a11 a12 a13 ··· a1n
.. .. .. .. .. .. .. .. .. .. .. .. .. .. ..
. . . . . . . . . . . . . . .
0 0 1 ··· 0 ai1 ai2 ai3 · · · ain aj1 aj2 aj3 ··· ajn
. . . .. .. .. .. .. .. .. ..
E(li lj ) · A = . .. .. ..
.. .. .. . . . . . . . = .. . . . .
0 1 0 · · · 0 aj1 aj2 aj3 ··· ajn ai1 ai2 ai3 ··· ain
. . . . .. .. .. .. .. .. . .. .. .. ..
.. .. .. .. . . . . . . .. . . . .
0 0 0 ··· 1 an1 an2 an3 · · · ann an1 an2 an3 ··· ann
Teorema 10.3. Si A = (aij ) ∈ MR (n) entonces (li → α · li )(A) = E(αli ) · A = (li → α · li )(In ) · A
En efecto
a11 a12 a13 · · · a1n a11 a12 a13 · · · a1n
.. .. .. .. .. .. .. .. .. ..
. . . . . . . . . .
Si A = ai1 ai2 ai3 · · · ain entonces (li → α · li )(A) = αai1 αai2 αai3 · · · αain
. .. .. .. .. . .. .. .. ..
.. . . . . .. . . . .
an1 an2 an3 · · · ann an1 an2 an3 · · · ann
30 Profesor Ricardo Santander Baeza 2010
1 0 0 ··· 0 1 0 0 ··· 0
.. .. .. .. .. .. .. .. .. ..
. . . . . . . . . .
Por otra parte, E(αi) = (li → α · li ) 0 0 1 · · · 0 = 0 0 α ··· 0 .
. . . .. .. .. .. .. .. ..
.. .. .. . . . . . . .
0 0 0 ··· 1 0 0 0 ··· 1
Ası́ que,
1 0 0 ··· 0 a11 a12 a13 · · · a1n a11 a12 a13 · · · a1n
.. .. .. .. .. .. .. .. .. .. .. .. .. .. ..
. . . . . . . . . . . . . . .
E(αi) · A = 0 0 α · · · 0 ai1 ai2 ai3 · · · ain = αai1 αai2 αai3 · · · αain
. . . .. .. . .. .. .. .. . .. .. .. ..
.. .. .. . . .. . . . . .. . . . .
0 0 0 ··· 1 an1 an2 an3 · · · ann an1 an2 an3 · · · ann
Por tanto, (li → α · li )(A) = E(αli ) · A = (li → α · li )(In ) · A
Teorema 10.4. Si A = (aij ) ∈ MR (n) entonces (li → li + α · lj )(A) = E(li +αlj ) · A = (li → li + α · lj )(In ) · A
En efecto
a11 a12 · · · a1n a11 a12 ··· a1n
.. .. .. .. .. .. .. ..
. . . . . . . .
ai1 ai2 · · · ain ai1 + αaj1 ai2 + αaj1 · · · ain + αaj1
. .. .. .. .. .. .. ..
A=
.. . . .
, entonces (li → li + αlj )(A) =
. . . .
aj1 aj2 · · · ajn aj1 aj2 ··· ajn
. .. .. .. .. .. .. ..
.. . . . . . . .
a11 a12 · · · a1n a11 a12 ··· a1n
1 0 0 ··· 0 1 0 0 ··· 0
.. .. .. .. .. .. .. ..
. . . . . . . .
0 1 0 ··· 0 0 1 α ··· 0
. . . .. . . . ..
Por otra parte, E(li +αlj ) = (li → li + αlj )
.. .. .. .
= . . .
. . . .
.
0 0 1 ··· 0 0 0 1 ··· 0
. . . .. . . . ..
.. .. .. . .. .. .. .
0 0 0 ··· 1 0 0 0 ··· 1
Ası́ que,
1 0 0 ··· 0 a11 a12 ··· a1n a11 a12 ··· a1n
.. .. .. .. .. .. .. .. .. .. .. ..
. . . . . . . . . . . .
0 1 α ··· 0 ai1 ai2 ··· ain ai1 + αaj1 ai2 + αaj1 · · · ain + αaj1
. . . .. . .. .. .. .. .. .. ..
E(li +αlj ) ·A =
.. .. .. .
.
. . .
. = . . . .
0 0 1 ··· 0 aj1 aj2 ··· ajn aj1 aj2 ··· ajn
. . . .. . .. .. .. .. .. .. ..
.. .. .. . .. . . . . . . .
0 0 0 ··· 1 a11 a12 ··· a1n a11 a12 ··· a1n
En efecto
• La relación ser equivalentes por filas es una relación de equivalencia. ver Ejercicios Propuestos 9.5,
ejercicio (5)
• Por definición, para cada matriz A existe en su clase de equivalencia, una única matriz escala reducida
por filas EA .
• Luego a partir de A, para obtener EA se necesita realizar un número finito de operaciones elementales,
digamos ϕi con i = 1, 2, . . . , s, es decir
(ϕs ◦ · · · ◦ ϕ2 ◦ ϕ1 )(A) = EA (12)
• Aplicando la definición de matriz elemental y los teoremas (10.2), (10.3) y (10.4), a cada operación ϕi
con i = 1, 2, . . . , s le corresponde una matriz elemental Ei con i = 1, 2, . . . , s. Ası́ que
En efecto
En segundo lugar,
En efecto
(1) EA = Es · Es−1 · · · E1 · A, y
Es decir, A ∈ U(MR (n)) si y sólo si A−1 es obtenida de In por las mismas s operaciones elementales usadas
en (13)
A In
∼
= ∼ =
In A−1
1 2
Ejemplo 11.1. Si A = entonces det(A) = −2 y A ∈ U(MR (2)), por tanto podemos aplicar
3 4
nuestra técnica para encontrar A−1 .
A In
q q
1 2 1 0
3 4 0 1
l2 → l2 − 3l1 l2 → l2 − 3l1
1 2 1 0
0 −2 −3 1
l2 → − 12 l2 l2 → − 12 l2
1 2 1 0
3
0 1 2 − 12
l1 → l1 − 2l2 l1 → l1 − 2l2
1 0 −2 1
3
0 1 2 − 12
q q
In A−1
Profesor Ricardo Santander Baeza 2010 33
11.2. Ejercicios Propuestos. Determine, si es posible, A−1 para las siguientes matrices:
1 1 1
3 2 3 −6
(a) (b) (c) 0 2 3
1 2 1 2
5 5 1
3 2 1 1 1 1 1 0 x
(d) 0 2 2 (e) 0 1 1 (f) 1 1 x2
0 1 −1 0 0 1 2 2 x2
1 1 1 1 1 −3 0 −2 4 −1 2 −2
1 2 −1 2
(g) (h) 3 −12 −2 −6 (i) 3 −1 0 0
1 −1 2 1 −2 10 2 5 2 3 1 0
1 3 3 2 −1 6 1 3 0 7 1 1
(a) det(A) 6= 0
Solución
(R + S)t = Rt + St
(ii) Como (C t B)t + At = At + At C + B t + B t C entonces B t C + At = At + At C + B t + B t C
(RS)t = Rt St
(iii) Finalmente como (MR (n), +) es un grupo entonces
At C + Bt = 0 ⇐⇒ −Bt = At C
(iv) Como det(A) 6= 0 entonces A es invertible (A ∈ U(n)). Además como det(A) = det(At ) entonces
At es invertible, y (A−1 )t = (At )−1
34 Profesor Ricardo Santander Baeza 2010
Luego,
C = (At )−1 (−Bt ) = (A−1 )t [−(Bt )] = −(A−1 )t (Bt ) = −(BAt )−1
• det(D) = 3
• det(E) = −2
1
det(G) = det(D −1 E t D 2 ) = det(D −1 ) det( E t ) det(D 2 ) = det(E)(det D)2 = det(E) det(D) = −6
det D
(3) Sea A ∈ MR (n). Demuestre que
A2 = 0 =⇒ (In + A) ∈ U(MR (n)) ∧ (In + A)−1 = (In − A)
Solución
Etapa 1. P.d.q. (In + A) ∈ U(MR (n)), es decir (In + A)(In − A) = In = (In − A)(In + A) o bien
det(I + A) 6= 0
Etapa 1. Debemos determinar condiciones sobre a y b para que A ∈ U(MR (4))). Es decir, debemos
determinar condiciones sobre a y b para que det(A) 6= 0.
Etapa 2. Aplicaremos operaciones elementales, para calcular el det(A)
a+b a a a b 0 0 −b
L1 −
7 → L1 − L4
a a+b a a 0 b 0 −b
L1 −7 → L2 − L4
L1 − 7 → L3 − L4
a a a+b a 0 0 b −b
a a a a+b a a a a+b
a b 0
L4 7−→ L4 − L1 0 0
b
a 0 b 0 0
L4 7−→ L4 − L2
b
0 0 b 0
a
L4 7−→ L4 − L3
b
a a a 4a + b
Ası́ que det(A) = b3 (4a + b)
Etapa 3. Finalmente
Sistemas de Ecuaciones
Este capitulo estará destinado esencialmente a: Representar matricialmente un sistema de ecuaciones lin-
eales, a modo de filtro, Interpretar el rango de la matriz de coeficientes, como el grado de libertad de
su sistema asociado, Resolver sistemas de ecuaciones lineales de orden (n x m), y Resolver sistemas de
ecuaciones lineales sujetos a condiciones de entorno.
1. Motivación
Consideremos las rectas L1 = {(x, y) ∈ R2 | y = x + 1}, y L2 = {(x, y) ∈ R2 | y = −x + 1} cuyos gráficos
son los siguientes:
y L1 : y = x + 1 y
x x
L2 : y = −x + 1
y L1 : y = x + 1
P =?
L2 : y = −x + 1
Figura 3: Gráfico de L1 ∩ L2
Entonces la pregunta es:
¿Quién es el punto P , donde se ”intersectan”, ambas rectas.?
Para responder a esta pregunta podemos utilizar con seguridad varias estrategias, no obstante, antes de usar
cualesquiera de ellas debemos aclarar y entender lo mejor posible el problema.
3
4 Profesor Ricardo Santander Baeza 2010
P ∈ L1 ∩ L2 ⇐⇒ P ∈ L1 ∧ P ∈ L2
⇐⇒ P = (x, y) ∈ R2 ∧ [y = x + 1 ∧ y = −x + 1] (∗)
x − y = −1
⇐⇒ P = (x, y) ∈ R2 ∧ (∗∗)
x+y = 1
x x+1 x −x + 1
1 1+1=2 1 −1 + 1 = 0
0 0+1=1 0 −0 + 1 = 1
(1) x − y = −1 (2)+(1) x − y = −1
=⇒
(2) x + y = 1 2x + 0y = 0
x − y = −1
=⇒
x + 0 = 0
0 − y = −1
=⇒
x + 0 = 0
0 + y = 1
=⇒
x + 0 = 0
(3) A partir de (∗∗), podemos repensar el problema, a la luz de lo que hemos aprendido.
(1) x − y = −1 1 −1 x −1
⇐⇒ =
(2) x + y = 1 1 1 y 1
1 −1 x −1
(l2 → l2 − l1 ) =
0 2 y 2
1 −1 x −1
(l2 → 12 l2 ) =
0 1 y 1
1 0 x 0
(l1 → l1 + l2 ) =
0 1 y 1
2. Formalización
Definición 2.1. Llamaremos Sistema Lineal de n-ecuaciones y m-incógnitas o de orden (n × m) a una
expresión del tipo:
a11 a12 ... a1m x1 b1
a21 a22 ... a2m
x2
b2
.. .. .. .. .. = .. (2)
. . . . . .
an1 an2 . . . anm xm bn
| {z }| {z } | {z }
A X B
A·X =B
En particular, si B = (0) entonces llamamos al sistema, ”Sistema Lineal Homogéneo”. Es decir, este es de
la forma:
a11 z1 + a12 z2 + . . . + a1m zm = 0 a11 a12 . . . a1m z1 0
a21 z1 + a22 z2 + . . . + a2m zm = 0 a21 a22 . . .
a2m
z2
0
.. .. . .. .. ⇐⇒ .. .. .. .. .. = .. (3)
. + . + .. + . = . . . . . . .
an1 z1 + an2 z2 + . . . + anm zm = 0 an1 an2 . . . anm zm 0
x
2x + 4y + z + w = 18 2 4 1 1 18
y
4x + 5y + 6z − 2w = 24 ⇐⇒ 4 5 6 −2
z = 24
3x + y − 2z + 3w = 4 3 1 −2 3 4
w
Eje y
L2
L1
• P = (2, 2)
Eje x
(1) De la figura encima se concluye directamente que el punto P = (2, 2), es la intersección de las dos
rectas dadas, es decir;
(2, 2) ∈ L1 ( Pues 1 · 2 + 2 · 2 = 6)
=⇒ (2, 2) ∈ L1 ∩ L2
(2, 2) ∈ L2 ( Pues 3 · 2 − 1 · 2 = 4)
(2) Motivados por lo anterior podemos buscar una estrategia para determinar el punto de intersección o el
punto que satisface ambas ecuaciones.
(ec1 ) x + 2y = 6 1 2 | 6
(ec2 ) 3x − y = 4 3 −1 | 4
ec2 −→ − 17 ec2 L2 −→ − 17 L2
(ec1 ) x + 2y = 6 1 2 | 6
(4)
(ec2 ) 0 + y = 2 0 1 | 2
m m
x = 2 1 0 x 2
=
y = 2 0 1 y 2
(3) Ahora para fijar ideas debemos definir lo que entenderemos por una solución de un sistema lineal en
general.
Profesor Ricardo Santander Baeza 2010 7
x + 2y = 6
3x − y = 4
x 2
entonces Z = = es una solución de este.
y 2
En efecto
1·2 + 2·2 = 6 1 2 2 6
⇐⇒ =
3·2 − 1·2 = 4 3 −1 2 4
(1) Si el sistema tiene solución única Z, es decir A · Z = B entonces Z = Z + (0), donde A · (0) = (0), ya
verifica las condiciones pedidas.
Si el sistema tiene más de una solución, digamos que Z1 y Z2 son dos tales soluciones del sistema
A · X = B entonces debe suceder por definición lo siguiente:
A · Z1 = B ∧ A · Z2 = B =⇒ A · Z1 = A · Z2
=⇒ A · Z1 − A · Z2 = (0)
=⇒ A · (Z1 − Z2 ) = (0) (Distributividad del producto)
z1
z2
Luego, Z1 − Z2 = .. es una solución del sistema homogéneo asociado A · X = (0), es decir.
.
zm
a11 z1 + ... + a1m zm = 0 a11 . . . a1m z1 0
a21 z1 + ... + a2m zm = 0 a21 . . .
a2m
z2
0
.. . .. .. ⇐⇒ .. .. .. .. = ..
. + .. + . = . . . . . .
an1 z1 + . . . + anm zm = 0 an1 . . . anm zm 0
8 Profesor Ricardo Santander Baeza 2010
(2) Recı́procamente, si U es una solución del sistema lineal A · X = B y H es una solución del sistema
homogéneo asociado entonces Z = U + H es una solución del sistema lineal.
En efecto
A · (U + H) = A · U + A · H = B + (0) = B
2x + 3y − z = 1
(∗)
4x + 6y − 2z = 2
1 2 −1
entonces Z1 = 1 y Z2 = 1 son soluciones del sistema (∗), y H = Z1 − Z2 = 0 es una
4 6 −2
solución del sistema homogéneo asociado a (∗).
En efecto
1
2·1+3·1−1·4 = 1
=⇒ Z1 = 1 es solución del sistema
4·1+6·1−2·4 = 2
4
Análogamente,
1
2·2+3·1−1·6 = 1
=⇒ Z2 = 1 es solución del sistema
4·2+6·1−2·6 = 2
4
Además,
−1
2 · (−1) + 3 · 0 − 1 · (−2) = 0
=⇒ H = Z1 − Z2 = 0 es solución del sistema homogéneo
4 · (−1) + 6 · 0 − 2 · (−2) = 0
−2
Observación 3.3.2. Las operaciones elementales realizadas para resolver un sistema de ecuaciones per-
miten observar dos cuestiones claves:
(1) Para solucionar un sistema los cálculos se realizan en los coeficientes (matrices A y B) y no intervienen
(gracias a la notación matricial) las variables.
(2) Las operaciones realizadas son funciones, más aún, son isomorfismos del grupo de matrices corres-
pondiente.
Profesor Ricardo Santander Baeza 2010 9
4.1. Notación matricial de un sistema lineal. Ponemos (5) en notación matricial, es decir:
a11 a12 ... a1m x1 b1
a21 a22 ... a2m
x2
b2
.. .. .. .. .. = .. (6)
. . . . . .
an1 an2 . . . anm xm bn
| {z }| {z } | {z }
A X B
4.2. Matriz Ampliada asociada a un sistema lineal. Ya observamos que lo que interesa para resolver
el sistema son los coeficientes de las variables e incluso podemos hacer abstracción de ellas, es decir defini-
mos una nueva matriz que contenga toda la información numérica del sistema para ello hacemos la siguiente
equivalencia:
a11 a12 ... a1m x1 b1 a11 a12 ... a1m | b1
a21 a22 ... a2m
x2
b2
a21 a22 ... a2m | b2
.. .. .. .. .. = .. ≡ .. .. .. .. ..
. . . . . . . . . . .
an1 an2 . . . anm xm bn an1 an2 . . . anm | bn
A estas alturas conviene hacer una definición para bautizar a esta nueva matriz:
Definición 4.2.1. Llamaremos Matriz Ampliada asociada al sistema (6) ó al sistema (5) a la matriz
a11 a12 ... a1m | b1
a21 a22 ... a2m | b2
(A|B) = .. .. .. .. .. (7)
. . . . .
an1 an2 . . . anm | bn
(8)
Ejemplo 4.2.2. Si Consideramos el sistema lineal de orden 2 × 4:
x + 2y + z + t = 1
(9)
x + 3y - z + 2t = 1
(1) La notación matricial para (9), es dada por
x
1 2 1 1 y =
1
1 3 −1 2 z 1
t
10 Profesor Ricardo Santander Baeza 2010
4.4. Teorema del rango. Un sistema lineal del tipo AX = B, como (6), tiene solución si y sólo
si ρ(A) = ρ(A|B), donde (A|B) representa la matriz ampliada asociada al sistema. ver (8)
En efecto
Es inmediato que ρ(A) ≤ ρ(A|B) ≤ m, pues una fila no nula de A es una fila no nula de (A|B), y m es el
número de incógnitas x1 , x2 , . . . , xm . Esto sugiere entonces estudiar los casos:
Caso 1. ρ(A) < ρ(A|B) entonces de acuerdo a nuestra equivalencia, (7), tenemos que deberı́a suceder al
menos una situación como la siguiente (después de escalonar por supuesto):
a′11 a′12 ... a′1m | b′1
a′21 a′22 ... a′2m | b′2
∼ .. .. .. .. ..
(A|B) = . . . . . (10)
′
a(n−1)1 a′(n−1)2 . . . a′(n−1)m | b′n−1
0 0 ... 0 | b′n
donde b′n 6= 0, lo cual implicarı́a que 0 · xm = 0 = bn , lo cual es una contradicción. Ası́ que en este caso
concluimos que
Caso 2. ρ(A) = ρ(A|B) entonces aplicando nuestra equivalencia (7), a la matriz escalonada reducida por
filas obtenida de la matriz (A|B), tenemos al menos una solución. Bajo estas condiciones nos queda analizar
los últimos dos casos:
Caso 2.1 Si ρ(A) = ρ(A|B) = m entonces la matriz escalonada reducida por filas EA|B es de la forma
1 0 . . . 0 | r1
0 1 . . . 0 | r2
. .
. . . . . . 1 0 ... 0 x1 r1
. . . . .. .. .. 0 1 ...
0
x2
r2
EA|B = 0 0 . . . 1 | rm ⇐⇒ .. . . . .. .. = ..
0 0 ... 0 | 0
. . .. . . .
. .
.. .. .. .. .. .. 0 0 ... 1 xm rm
. . . .
0 0 ... 0 | 0
Profesor Ricardo Santander Baeza 2010 11
Caso 2.2 Si ρ(A) = ρ(A|B) = s < m entonces la matriz escalonada reducida por filas EA|B es de la forma
(s+1) (s+2) (m)
1 0 . . . 0 c1 c1 · · · c1 | r1
(s+1) (s+2) (m)
0 1
. . . 0 c2 c2 · · · c2 | r2
.. .. .. . . .. .. .. ..
. .. ..
. . . . . .
EA|B = 0 0 . . . 1 cs
(s+1)
cs
(s+2)
· · · cs
(m)
| rs
0 0
... 0 0 0 ... 0 | 0
.. .. .. .. .. .. .. .. .. ..
. . . . . . . . . .
0 0 ... 0 0 0 ... 0 | 0
En este, caso decimos que el sistema (5) tiene un grado de libertad de orden n − s, y esta representado por
los valores que pueden tomar (xs+1 , xs+2 , . . . , xm ) ∈ Rm−s
Ejemplo 4.4.1. En el ejemplo (9) tenemos que ρ(A|B) = 2 = ρ(A) < 4 y podemos leer las infinitas
soluciones de la matriz,
1 0 5 −1 | 1 x = 1 − 5z + t
(A|B) ≈ ⇐⇒
0 1 −2 1 | 0 y = 2z − t
x 1 − 5z + t 1 −5 1
y 2z − t
= + z 2 + t −1
0
X =
z =
0 1 0 (z ∈ R ∧ t ∈ R)
z
t t 0 0 1
12 Profesor Ricardo Santander Baeza 2010
5. Ejercicios Propuestos
x + y + z = 4
(a) x1 + 2x2 − x3 + 3x4 = 1 (b)
2x + 5y − 2z = 3
x + y = 4 x1 + 2x2 + 3x3 = 0
(c) 2x − 3y = 7 (d) 2x1 + x2 + 3x3 = 0
3x + 2y = 8 3x1 + 2x2 + x3 = 0
2x1 - x2 + 3x3 = a
3x1 + x2 - 5x3 = b (⋆)
−5x1 - 5x2 + 21x3 = c
2x1 + 3x2 - x3 = a
x1 - x2 + 3x3 = b (⋆)
3x1 + 7x2 - 5x3 = c
x1 b1
x2 = A−1 b2
x3 b3
3x + 5y + 12z - w = -3
2x + 2y + 8z - 2w = -12
(⋆)
6y + 6z + 3w = 15
2z + k(k+1)w = 9k
Determine los siguientes conjuntos:
(6) Fueron estudiados tres tipos de alimentos. Fijada la misma cantidad (1gr), se determino que:
(c) El alimento III tiene 3 unidad de vitamina A, no tiene vitamina B y tiene 3 unidades de vitamina C.
(a) Determine las posibles cantidades de alimentos I, II y III que contienen la cantidad de vitaminas
deseadas.
(b) Si el alimento I cuesta 600 pesos por gramo y los otros dos cuestan 100 por gramo,¿ existe una
solución del sistema cuyo costo sea 10000 pesos ?
−1
a11 a12 ... a1n x1 b1 x1 a11 a12 ... a1n b1
a21 a22 ... a2n
x2
b2
x2
a21 a22 ... a2n
b2
.. .. .. .. .. = .. =⇒ .. = .. .. .. .. ..
. . . . . . . . . . . .
an1 an2 . . . ann xm bn xm an1 an2 . . . ann bn
14 Profesor Ricardo Santander Baeza 2010
Pero,
−1
a11 a12 ... a1n ∆11 ∆12 . . . ∆1n
a21 a22 ... a2n
1 ∆21 ∆22 . . . ∆2n
.. .. .. .. = .. .. .. ..
. . . . det A . . . .
an1 an2 . . . ann ∆n1 ∆n2 . . . ∆nn
| {z }
adjunta de A
1 1 1 1
x = − det = − · (−4) = 2
2 3 −1 2
1 1 1 1
y = − det = − · 2 = −1
2 1 3 2
x 2
Luego, la solución del sistema es =
y −1
2x1 + x2 + x3 = 6
2x1 + 3x2 = −1
(a) (b) 3x1 − 2x2 − 3x3 = 5
−7x1 + 4x2 = 47
8x1 + 2x2 + 5x3 = 11
x1 − x4 = 7 x1 + x2 + x3 + x4 = 6
2x2 + x3 = 2 2x1 − x3 − x4 = 4
(e) (f)
4x1 − x2 = −3 3x3 + 6x4 = 3
3x3 − 5x4 = 2 x1 − x4 = 5
b a
α β
b cos α c a cos β
c cos α + a cos γ = b
b cos α + a cos β = c (11)
c cos β + b cos γ = a
(b) Interprete (11), como un sistema de ecuaciones en las variables, cos α, cos β y cos γ, y demuestre
que el determinante de la matriz de coeficientes es distinto de cero.
6.2. Factorización LU. Considera un sistema clásico de la forma A · X = B tal que A ∈ MR (n) es una
matriz triangular superior invertible, es decir:
a11 a12 a13 ··· a1n x1 b1
0 a22 a23 ··· a2n
x2
b2
0 0 a33 ··· a3n
x3
= b3
(Con aii 6= 0 para i = 1, . . . , n) (12)
.. .. .. .. .. .. ..
. . . . . . .
0 0 0 ··· ann xn bn
16 Profesor Ricardo Santander Baeza 2010
El tipo de matriz, nos permite resolver el sistema, (12) iteradamente, como sigue:
bn
xn =
ann
bn−1 − a(n−1)n xn
xn−1 =
a(n−1)(n−1)
..
.
n
X
bs − asi xi
i=s+1
xs =
ass
Luego,
n
X
bs − asi xi
i=s+1
xs = (s = 1, 2, . . . , n − 1) (13)
ass
Un comportamiento análogo, obtenemos si, A ∈ MR (n) es una matriz triangular inferior invertible, pues en
este caso:
c11 0 0 ··· 0 x1 b1
c21 c22 0 ··· 0
x2
b2
c31 c32 c33 ··· 0
x3
= b3
(Donde cii 6= 0 (1 ≤ i ≤ n) (14)
.. .. .. .. .. .. ..
. . . . . . .
cn1 cn2 cn3 · · · cnn xn bn
Y,
b1
x1 =
c11
b2 − c21 x1
x2 =
c22
..
.
s−1
X
bs − csi xi
i=1
xs =
ass
Luego,
s−1
X
bs − csi xi
i=1
xs = (s = 2, 3, . . . , n) (15)
ass
Profesor Ricardo Santander Baeza 2010 17
5x1 = 10
4x1 − 2x2 = 28
2x1 + 3x2 + 4x3 = 26
Solución
10
x1 = =2
5
28 − 4x1
x2 = = −10
−2
26 − 2x1 − 3x2
x3 = = 13
4
(1) A ∈ MR (n)
(2) A = L · U , donde L es una matriz triangular inferior y U es una matriz triangular superior.
entonces
A · X = B ⇐⇒ (L · U ) · X = B =⇒ L · (U · X) = B =⇒ L · Z = B (16)
| {z }
Z
Ası́ que: Usando la fórmula (15) calculamos Z y usando la fórmula (13) calculamos X
0 1
0 0 6 −2 −4 4
1 1 0 0 0 −2 −4 −1
L = 2 yU =
−2 −2 1 0 0 0 5 −2
−1 1 −2 1 0 0 0 8
18 Profesor Ricardo Santander Baeza 2010
0 10 0 6 −2 −4 4 x1 2
1 1 0 0 0 −2 −4 −1 x2 −4
2
x3 =
−2 −2 1 0 0 0 5 −2 8
−1 1 −2 1 0 0 0 8 x4 −43
10 0 0 6 −2 −4 4 x1 2
1 1 0 0 0 −2 −4 −1 x2 −4
2 =
−2 −2 1 0 0 0 5 −2 x3 8
−1 1 −2 1 0 0 0 8 x4 −43
Es decir:
6 −2 −4 4 x1 z1
0 −2 −4 −1 x2
= z2
0 0 5 −2 x3 z3
0 0 0 8 x4 z4
10 0 0 z1 2 z1 = 2
1 1 0 0 z2 −4 = −4 − 12 z1 = −5
=⇒ z2
2 =
−2 −2 1 0 z3 8 z3 = 8 + 2z1 + 2z2 = 2
−1 1 −2 1 z4 −43 z4 = −43 + z1 − z2 + 2z3 = −32
(3) Resolvemos el sistema vı́a (13)
−32
x4 = = −4
8
6 −2 −4 4 x1 2 2 + 2x4
0 −2 −4 −1 x2 −5 x3 = = −1.2
= =⇒ 5
0 0 5 −2 x3 2 −5 + 4x3 + x4
x2 = = 6.9
0 0 0 8 x4 −32 −2
2 + 2x2 + 4x3 − 4x4
x1 = = 4.5
6
2 8 0 18 2 0 0 1 4 0
(1) A = 2 2 −3 B = 3 L = 2 −3 −0 U = 0 2 1
1 2 7 12 1 −1 4 0 0 2
Profesor Ricardo Santander Baeza 2010 19
8 12 −4 −36 4 0 0 2 3 −1
(2) A = 6 5 7 B = 11 L = 3 2 −0 U = 0 −2 5
2 1 6 6 1 1 1 0 0 2
2 3 0 1 −2 1 0 0 0 2 3 0 1
−2 0 −1
4 5 3 3 2 1 0 0
3 1
(3) A =
−2 −6 7 7 B = −16
L=
−1 U =
3 1 0 0 0 −2 5
8 9 5 21 −66 4 3 2 1 0 0 0 4
20 Profesor Ricardo Santander Baeza 2010
(♣) Estimular el uso de una sintaxis adecuada en la resolución de problemas que envuelven conceptos
matemáticos.
(♣) Aprender a generar un algoritmo eficaz (ojalá eficiente), para responder al problema planteado.
(♣) Verificar el estado de aprendizaje de los contenidos especı́ficamente relacionados con las propiedades
básicas que debe conocer, y ”en lo posible haber aprehendido” de los tópicos analizados.
7.2. Algunas sugerencias para enfrentar las situaciones problemáticas son las siguientes:
(⋆) Reconozca lo que es información (dato), de lo que es ”incognita”, o lo que a usted se le consulta.
(⋆) Trate de entender en la forma más clara para usted, lo que se le pide, en particular si puede usar
”sinónimos matemáticos”, que le permitan facilitar su respuesta, cuanto mejor!!! Este acto nunca esta
de más.
(⋆) Analice sus datos extrayendo la información que corresponde, orientado por su entendimiento de lo que
debe probar.
8 0 7
S = {X ∈ MR (4 × 1) | A · X = (0)}
(2) Verifique si las siguientes afirmaciones son verdaderas o falsas.
entonces a = −2 =⇒ S = ∅
x1 1
x2
b2
(3) Dado el sistema lineal; AX = B tal que A = (aij ) ∈ MR (10), X = .. y B = ..
. .
x10 b10
Determine el conjunto, S = {(b2 , b3 , . . . , b10 ) ∈ R9 | AX = B tiene solución}
ax + y + z = 2a − 1
x + ay + z = a2 (∗)
x + y + az = 3 − 2a
Determine los siguientes conjuntos:
(6) El Departamento de pesca y caza proporciona tres tipos de comidas a un lago que alberga a tres es-
pecies de peces. Cada pez de la especie 1 consume cada semana un promedio de 1 unidad del alimento
1, 1 unidad del alimento 2 y 2 unidades del alimento 3. Cada pez de la especie 2 consume cada semana
un promedio de 3 unidades del alimento 1, 4 del 2 y 5 del 3. Para un pez de la especie 3, el promedio
semanal de consumo es de 2 unidades del alimento 1, 1 unidad del alimento 2 y 5 unidades del alimento
3. Cada semana se suministran al lago 25000 unidades del alimento 1, 20000 unidades del alimento 2 y
55000 unidades del alimento 3. Si se supone que los peces se comen todo el alimento. ¿Cuántos peces
de cada especie pueden coexistir en el lago?
22 Profesor Ricardo Santander Baeza 2010
8 0 7
S = {X ∈ MR (4 × 1) | A · X = (0)}
Solución
X ∈ S ⇐⇒ X ∈ MR (3 × 1) ∧ A · X = (0)
2 −1 3 0
x1 4 x1
2 1 x2 = 0
⇐⇒ X = x2 ∈ MR (3 × 1) ∧ (∗)
2 3 −2 0
x3 x3
8 0 7 0
En segundo lugar, un sistema homogéneo siempre tiene solución !!!. Pues, como
2 −1 3 | 0
4 2 1 | 0 , sigue que ρ(A) = ρ(A|(0)), y entonces S 6= ∅
(A|(0)) =
2 3 −2 | 0
8 0 7 | 0
Etapa 2. Escalonamos (A|(0))
2 −1 3 | 0 2 −1 3 | 0
(L2 −→ L2 − 2L1 )
4 2 1 | 0
(L3 −→ L3 − L1 )
0 4 −5 | 0
(A|(0)) =
2 3 −2 | 0 0 4 −5 | 0
(L4 −→ L4 − 4L1 )
8 0 7 | 0 0 4 −5 | 0
1 3
2 −1 3 | 0 1 − | 0
1 2 2
(L3 −→ L3 − L2 ) 0 4 −5 | 0 (L1 −→ L1 5
2 0 1 − | 0
(L4 −→ L4 − L2 ) 0 0 0 | 0 1 4
(L2 −→ L2 0 0 0 | 0
0 0 0 | 0 4
0 0 0 | 0
7
1 0 | 0
8
1 5
(L1 −→ L1 + L2 0 1 − | 0
2 4
0 0 0 | 0
0 0 0 | 0
Ası́ que ρ(A) = 2 y existen infinitas soluciones, y estas son de la siguiente forma:
Profesor Ricardo Santander Baeza 2010 23
7
− · x3
8
x1
X = x2 =
5
· x3
x3 4
1 · x3
Por tanto,
7
− · x3
8
S = 5 | x3 ∈ R
4 · x3
1 · x3
En efecto
S1 ∩ S2 = {Z ∈ MR (n × 1) |(A − B)Z = 0 }
Etapa 2. Análisis de los datos.
Z ∈ S1 ∩ S2 ⇐⇒ Z ∈ S1 ∧ Z ∈ S2
⇐⇒ Z ∈ MR (n × 1) ∧ AZ = 0 ∧ BZ = 0 (∗)
Z ∈ S1 ∩ S2 ⇐⇒ Z ∈ MR (n × 1) ∧ AZ = 0 ∧ BZ = 0
⇐⇒ Z ∈ MR (n × 1) ∧ AZ − BZ = 0
=⇒ Z ∈ MR (n × 1) ∧ (A − B)Z = 0
⇓
S1 ∩ S2 ⊂ {Z ∈ MR (n × 1) |(A − B)Z = 0 }
Caso 2. Si A ∈ U(MR (n) y B ∈ U(MR (n) ( A y B invertibles) entonces por el teorema del rango
ρ(A) = ρ(B) = n. Ası́ que
24 Profesor Ricardo Santander Baeza 2010
0
0
0
0
S1 = .. = S2 =⇒ S1 ∩ S2 = ..
.
.
0 0
Pero la matriz A − B no necesariamente es invertible. Luego el sistema (A − B)X = 0 no tiene
como solución única la solución trivial.
Para un ejemplo particular del caso expuesto encima basta tomar, para n = 2:
2 0 0 −2
A= yB=
0 1 −1 0
.
Pues,
2 0 x 0
AX = (0) ⇐⇒ =
0 1 y 0
−1
x 2 0 0
⇐⇒ =
y 0 1 0
1
x 2 0 0
⇐⇒ =
y 0 1 0
x 0
⇐⇒ =
y 0
Análogamente
0 −2 x 0
BX = (0) ⇐⇒ =
−1 0 y 0
−1
x 0 −2 0
⇐⇒ =
y −1 0 0
x 0 −1 0
⇐⇒ =
y − 12 0 0
x 0
⇐⇒ =
y 0
Luego,
0 0
S1 = = S2 =⇒ S1 ∩ S2 =
0 0
Pero para A − B tenemos que
2 2 x 0
(A − B)X = (0) ⇐⇒ =
1 1 y 0
1 1 x 0
⇐⇒ = ( Ojo A − B no es invertible)
0 0 y 0
x
⇐⇒ X =
−x
Ası́ que
Profesor Ricardo Santander Baeza 2010 25
0 x
S1 ∩ S2 = $ {Z ∈ MR (2) | (A − B)Z = 0} = |x∈R
0 −x
x + y − z = 2
x + 2y + z = 3 (∗)
x + y + (a2 − 5)z = a
entonces a = −2 =⇒ S = ∅
En efecto
x + y − z = 2 x + y − z = 2
x + 2y + z = 3 ⇐⇒ x + 2y + z = 3
x + y + ((−2)2 − 5)z = −2 x + y + −z = −2
⇓
x+y−z =2 ∧ x + y − z = −2
⇓
2 = −2 Contradicción
⇓
S = ∅
1 1 −1 2 1 0 −3 1
(A|B) = 1 2 1 3 ≈ 0 1 2 1
1 1 (α2 − 5) α 0 0 α2 − 4 α − 2
1 0 −3 1
= 0 1 2 1
0 0 (α − 2)(α + 2) α − 2
1 0 −3 1
(A|B) ≈ 0 1 2 1
0 0 0 −4
Solución
1 1 1 ... 1 | 1
0 0 0 ... 0 | b2 − 2
= 0 0 0 ... 0 | b3 − 3
.. .. .. .. .. ..
. . . . . .
0 0 0 ... 0 | b10 − 10
x+y+z = 1
x + y + az = 1 (∗)
by + cz = c
Solución
1 1 1 1
(A|B) = 1 1 a 1
0 b c c
1 1 1 1
E= 0 b c c
0 0 a−1 0
Etapa 3. Análisis de la matriz E
Si a = 1:
1 1 1 1
x+y+z = 1
E = 0 b c c =⇒
by = c(1 − z)
0 0 0 0
Luego a = 1 =⇒ (1, b, c) ∈ S1
Si a 6= 1:
1 1 0 1 x+y = 1
E = 0 b 0 c =⇒ by = c
0 0 1 0 z = 0
Luego,
a 6= 1 ∧ b = 0 ∧ c 6= 0 =⇒ (a, 0, c) ∈ S3
a 6= 1 ∧ b = 0 ∧ c = 0 =⇒ (a, 0, 0) ∈ S1
a 6= 1 ∧ b 6= 0 =⇒ (a, b, c) ∈ S2
ax + y + z = 2a − 1
x + ay + z = a2 (∗)
x + y + az = 3 − 2a
Solución
Conclusión
S1 = R − {−2, 1}
S2 = {1}
S3 = {−2}
Profesor Ricardo Santander Baeza 2010 29
(6) El Departamento de pesca y caza proporciona tres tipos de comidas a un lago que alberga a tres es-
pecies de peces. Cada pez de la especie 1 consume cada semana un promedio de 1 unidad del alimento
1, 1 unidad del alimento 2 y 2 unidades del alimento 3. Cada pez de la especie 2 consume cada semana
un promedio de 3 unidades del alimento 1, 4 del 2 y 5 del 3. Para un pez de la especie 3, el promedio
semanal de consumo es de 2 unidades del alimento 1, 1 unidad del alimento 2 y 5 unidades del alimento
3. Cada semana se suministran al lago 25000 unidades del alimento 1, 20000 unidades del alimento 2 y
55000 unidades del alimento 3. Si se supone que los peces se comen todo el alimento. ¿Cuántos peces
de cada especie pueden coexistir en el lago?
x1 + 3x2 + 2x3 = 25000 1 3 2 x1 25000
x1 + 4x2 + x3 = 20000 ⇐⇒ 1 4 1 x2 = 20000
2x1 + 5x2 + 5x3 = 55000 2 5 5 x3 55000
(b) Calculamos el rango a la matriz ampliada asociada al sistema. ρ(A|B), es decir debemos reducir
por filas la matriz (A|B):
1 3 2 | 25000 1 3 2 | 25000
(L2 −→ L2 − L1 )
(A|B) = 1 4 1 | 20000 0 1 −1 | −5000
(L3 −→ L3 − 2L1 )
2 5 5 | 55000 0 −1 1 | 5000
1 0 5 | 40000
(L1 −→ L1 − 3L2 ) 0 1 −1 | −5000
(L3 −→ L3 + L2 )
0 0 0 | 0
(c) Ahora comparamos los rangos para verificar las hipótesis del teorema del rango.
(i) ρ(A|B) = ρ(A) = 2. Ası́ que existe solución para el problema de administración de recursos.
(d) Ahora determinamos las soluciones aplicando nuestra equivalencia (7) es decir traducimos al sis-
tema:
Probablemente un problema teórico terminarı́a aquı́, pero este es un problema práctico y real ası́
hay que estudiar las posibilidades o restricciones:
(e) Luego para concluir las soluciones teóricas posibles son del tipo:
x1 40000 − 5x3
X = x2 = x3 − 5000
x3 x3
40000 −5x3
= −5000 + x3 (x3 ∈ R)
0 x3
Aplicando las restricciones obtenidas tenemos que:
x1 40000 −5x3
X = x2 = −5000 + x3 (5000 ≤ x3 ≤ 8000)
x3 0 x3
No obstante esta sea una buena descripción de las posibilidades, lamentablemente ninguna especie
de peces tiene como miembro una mitad de pez, ası́ que la soluciones son a lo más 3001, pues
como dicho, x3 tiene que ser entero y x1 ≤ 15000, por lo tanto:
x1 40000 −5x3
X = x2 = −5000 + x3 ; (5000 ≤ x3 ≤ 8000 ∧ x3 ∈ Z)
x3 0 x3
CAPITULO 2
Espacios Vectoriales
Este capitulo esta destinado a buscar una representación natural y eficiente de la información, a través
de ”relaciones teóricas, lease combinaciones lineales” e ”implementaciones prácticas, lease representación
matricial y resolución de ecuaciones.” Para ello será necesario: Construir un ambiente suficientemente
amplio, donde se puedan modelar situaciones prácticas, desarrollar técnicas que permitan controlar rápida
y eficientemente una gran cantidad de información y mostrar la equivalencia entre el ambiente teórico y
práctico.
(1) Ya observamos que para cada (n ∈ N), existen únicos números naturales a0 , a1 , a2 , . . . , as tales que
Y en este caso son los coeficientes los que diferencian a un polinomio de otro.
(3) Si consideramos u = (x, y) ∈ R2 entonces sabemos que (R2 , +) es un grupo abeliano y que
(x, y) + (x, y) = 2(x, y)
∧ =⇒ 2(x, y) = (2x, 2y)
(x, y) + (x, y) = (2x, 2y)
3
4 Profesor Ricardo Santander Baeza 2010
Eje y
Plano R2
(0, 0) Eje x
(4) Otro caso que podemos representar con las licencias que da la heurı́stica es el siguiente:
a11 a12 1 0 0 1 0 0 0 0
= a11 + a12 + a21 + a22
a21 a22 0 0 0 0 1 0 0 1
(5) Intentando generalizar aún más el formato de nuestros números. Supongamos que necesitamos conectar
dos lugares inaccesibles, como lo muestra la función.
−1
: si − π < x < 0
f (x) =
1 : si 0<x<π
1
π
−π
-1
Figura 2 y = f (x)
La idea es usar como soporte, ideas trigonométricas. para conectar esos lugares inaccesibles:
4
(a) Partamos graficando la función y = sen x para (−π < x < π)
π
1
0.5
-3 -2 -1 1 2 3
-0.5
-1
Profesor Ricardo Santander Baeza 2010 5
4 sen 3x
(b) Graficamos la función y = sen x + para (−π < x < π)
π 3
1
0.5
-3 -2 -1 1 2 3
-0.5
-1
4 sen 3x sen 5x
(c) Graficamos la función y = sen x + + para (−π < x < π)
π 3 5
1
0.5
-3 -2 -1 1 2 3
-0.5
-1
4 sen 3x sen 5x sen 7x
(d) Graficamos la función y = sen x + + + para (−π < x < π)
π 3 5 7
1
0.5
-3 -2 -1 1 2 3
-0.5
-1
4 sen 3x sen 5x sen 7x sen 99x
(e) En fin, graficamos, la función y = sen x + + + + ··· + para
π 3 5 7 99
(−π < x < π)
0.5
-3 -2 -1 1 2 3
-0.5
-1
s
4 X sen (2i − 1)x
(f) Si llamamos gs = , para (s ∈ N) entonces podemos observar lo siguiente:
π 2i − 1
i=1
(i) A medida que s crece en N, el gráfico de gs , más se parece (copia), a la función f
(ii) Sin embargo, debemos tener cuidado con la comparación de las expresiones analı́ticas de las
funciones involucradas; porque por ejemplo,
6 Profesor Ricardo Santander Baeza 2010
• f (0) 6∈ R y gs (0) = 0
π π 4
• f = 1 y g1 =
2 2 π
Sin embrago, observen lo siguiente:
s
π 4 X sen(2i − 1) π2
gs =
2 π 2i − 1
i=1
s
4 X (−1)i+1
=
π 2i − 1
i=1
4 1 1 1 1 1 1
= 1− + − + − + ··· +
π 3 5 7 9 11 2s − 1
Luego,
s
π 4 X (−1)i+1
lim gs = lim =1
s→∞ 2 s→∞ π 2i − 1
i=1
(iii) Será necesario entonces ser cuidadoso al referirnos al término aproximación de dos funciones,
ya sea en su gráfico o en sus valores, con estos cuidados podemos escribir,
s ∞
X 1 X 1
f (x) ≈ lim sen(2i − 1)x = sen(2i − 1)x (−π < x < π)
s→∞ 2i − 1 2i − 1
i=1 i=1
Bien, las ideas expuestas encima nos inducen a definir un objeto abstracto que le de sentido a casi
todos los ejemplos revisados y otros que analizaremos más adelante.
(1) V 6= φ
+ : V×V − 7 → V
(u, v) −7 → u+v
tal que (V, +) es un grupo abeliano, es decir satisface las propiedades:
· : K×V − 7 → V
(λ, v) −7 → λ·v
con K = R ó K = C y satisface las propiedades:
Los elementos de V se denominarán vectores, los elementos de K se llamarán escalares, y para designar a
un espacio vectorial lo notaremos como, (V, +, ·, K), donde K = R o K = C
Ejemplo 1.1.1. El espacio vectorial de las n - uplas (Kn , +, ·, K) para cada n ∈ N, donde,
Kn = {(x1 , x2 , . . . , xn ) | xi ∈ R; 1 ≤ i ≤ n}
Y las operaciones interna y externa son definidas respectivamente por,
(1) (x1 , x2 , x3 , . . . , xn ) + (y1 , y2 , y3 , . . . , yn ) = (x1 + y1 , x2 + y2 , x3 + y3 , . . . , xn + yn )
Ejemplo 1.1.2. El espacio vectorial de las Matrices (MK (n × m), +, ·, K); n ∈ N; m ∈ N donde,
MK (n × m) = {A = (aij ) | aij ∈ K ∧ (1 ≤ i ≤ n)(1 ≤ j ≤ m)}
Y las operaciones interna y externa son definidas respectivamente por,
(1) ((aij ) + (bij )) = (aij + bij )
Ejemplo 1.1.3. El espacio vectorial de los polinomios (K[x], +, ·, K) con coeficientes en el cuerpo K donde,
( s
)
X
K[x] = p(x) = ai xi | ai ∈ K, s ∈ N, (0 ≤ i ≤ n)
i=0
Y las operaciones interna y externa son definidas respectivamente por,
s
X n
X s
X
(1) ai xi + bi xi = (ai + bi )xi
i=0 i=0 i=0
Xn Xn
(2) λ ai xi = λai xi
i=0 i=0
Ejemplo 1.1.4. El espacio vectorial de los Polinomios de grado menor o igual que n con coeficientes en K,
(Kn [x], +, ·, K) es decir;
Ejemplo 1.1.5. El espacio vectorial de las funciones Reales definidas en U ⊂ R, para U 6= ∅; (FR (U, R), +, ·, R),
donde
Ejemplo 1.1.6. El espacio vectorial de las funciones Reales continuas definidas en U ⊂ R, para U 6= ∅;
(CR (U, R), +, ·, K), donde
Ejemplo 1.1.7. El espacio vectorial de las funciones reales derivables definidas en U ⊂ R, para U 6= ∅;
(DR (U, R, +, ·, R)), donde
Profesor Ricardo Santander Baeza 2010 9
2. Subespacios
Si consideramos un K espacio vectorial V entonces por definición V 6= ∅. Ası́ que
En efecto
• La adición de funciones continuas es una función continua,y el producto de un escalar por una
función continua es función continua
Usaremos la notación: U ≤ V
Sin embargo, el avance en términos de la representación de datos ”eficiente” es nula, no obstante, podemos
observar lo siguiente:
10 Profesor Ricardo Santander Baeza 2010
Observación 2.1.5. Si W ≤ V entonces por definición (W, +, ·, K) es un K-espacio vectorial. Ası́ que
verifica naturalmente las propiedades:
(1) u ∈ W ∧ v ∈ W =⇒ (u + v) ∈ W
(2) u ∈ W ∧ λ ∈ K =⇒ λu ∈ W
u ∈ W ∧ v ∈ W
=⇒ (u + v) ∈ W
W ≤ V =⇒ ∧ (1)
u∈W∧λ∈K =⇒ λu ∈ W
(1) u ∈ W ∧ v ∈ W =⇒ (u + v) ∈ W
(2) u ∈ W ∧ λ ∈ K =⇒ λu ∈ W entonces
(b) De las propiedades asumidas, sigue que existen operaciones + y · en W , y además como V es un
espacio vectorial entonces a fortiori (W, +, ·, K) es un K-espacio vectorial, y por ende un subespacio
del espacio V.
De la observación concluimos una caracterización que nos permite verificar en forma más eficiente, si un
subconjunto de un espacio vectorial es o no es un subespacio vectorial, por su importancia le daremos el
rango de teorema.
(i)
W 6= ∅
W ≤ V ⇐⇒ (ii) u ∈ W ∧ v ∈ W =⇒ (u + v) ∈ W
(iii) u ∈ W ∧ λ ∈ K =⇒ λu ∈ W
u ∈ W ⇐⇒ u = (u1 , u2 , u3 ) ∈ R3 ∧ u1 + u2 − u3 = 0 (⋆)
3
v ∈ W ⇐⇒ v = (v1 , v2 , v3 ) ∈ R ∧ v1 + v2 − v3 = 0 (⋆⋆)
Entonces
Luego,
u + v ∈ R3 (2)
De (2),concluimos que (u + v) es un buen candidato para pertenecer a W , pero falta verificar si satisface la
condición que caracteriza W.
Conclusión, (u + v) ∈ W
Conclusión, λu ∈ W, y W ≤ R3
t
0 0 0 0 0 0 0 0 0 0 0 0
∈ MR (2) ∧ + = + = ∈W
0 0 0 0 0 0 0 0 0 0 0 0
u ∈ W ∧ v ∈ W =⇒ (u + v) ∈ W
Si u ∈ W y v ∈ W entonces
12 Profesor Ricardo Santander Baeza 2010
u ∈ W ⇐⇒ u ∈ MR (2) ∧ u + ut = (0)
t
u11 u12 u11 u12 u11 u12 0 0
⇐⇒ u = ∈ MR (2) ∧ + =
u21 u22 u21 u22 u21 u22 0 0
u11 u12 u11 u12 u11 u21 0 0
⇐⇒ u = ∈ MR (2) ∧ + =
u21 u22 u21 u22 u12 u22 0 0
u11 u12 2u11 u12 + u21 0 0
⇐⇒ u = ∈ MR (2) ∧ = (⋆)
u21 u22 u21 + u12 2u22 0 0
Análogamente,
v ∈ W ⇐⇒ v ∈ MR (2) ∧ v + v t = (0)
t
v11 v12 v11 v12 v11 v12 0 0
⇐⇒ v = ∈ MR (2) ∧ + =
v21 v22 v21 v22 v21 v22 0 0
v11 v12 v11 v12 v11 v21 0 0
⇐⇒ v = ∈ MR (2) ∧ + =
v21 v22 v21 v22 v12 v22 0 0
v11 v12 2v11 v12 + v21 0 0
⇐⇒ v = ∈ MR (2) ∧ = (⋆⋆)
v21 v22 v21 + v12 2v22 0 0
u11 u12 v11 v12 u11 + v11 u12 + v12
u+v = + = ∈ MR (2)
u21 u22 v21 v22 u21 + v21 u22 + v22
Y por otra,
t
t u11 + v11 u12 + v12 u11 + v11 u12 + v12
u + v + (u + v) = +
u21 + v21 u22 + v22 u21 + v21 u22 + v22
u11 + v11 u12 + v12 u11 + v11 u21 + v21
= +
u21 + v21 u22 + v22 u12 + v12 u22 + v22
2(u11 + v11 ) (u12 + v12 ) + (u21 + v21 )
=
(u21 + v21 ) + (u12 + v12 ) 2(u22 + v22 )
2u11 + 2v11 (u12 + u21 ) + (v12 + v21 )
=
(u21 + u21 ) + (v12 + v12 ) 2u22 + 2v22
2u11 (u12 + u21 ) 2v11 (v12 + v21 )
= +
(u21 + u21 ) 2u22 (v12 + v12 ) 2v22
0 0 0 0
= + (De (⋆) y (⋆⋆))
0 0 0 0
0 0
=
0 0
Ası́ que, (u + v) ∈ W
Profesor Ricardo Santander Baeza 2010 13
Etapa 3. Si λ ∈ R entonces
u11 u12 λu11 λu12
λu = λ = ∈ MR (2)
u21 u22 λu21 λu22
Por otra parte,
t
λu11 λu12 λu11 λu12
λu + (λu)t = +
λu21 λu22 λu21 λu22
λu11 λu12 λu11 λu21
= +
λu21 λu22 λu12 λu22
2λu11 λu12 + λu21
=
λu21 + λu12 2λu22
2λu11 λ(u12 + u21 )
=
λ(u21 + u12 ) 2λu22
2u11 (u12 + u21 )
= λ
(u21 + u12 ) 2u22
0 0
= λ
0 0
0 0
=
0 0
n
X n
X
λiai = λ iai = λ0 = 0
i=0 i=0
Ası́ que, λp(x) ∈ W y W ≤ Rn [x]
En efecto
W ≤ V =⇒ λ · u ∈ W (∀λ; λ ∈ K) ∧ (∀u; u ∈ W)
=⇒ 0 · u ∈ W (Pues, 0 ∈ K)
=⇒ 0V ∈ W
Ejemplo 2.2.5. Si W = {(x, y, z) ∈ R3 | x + 4y − 2z = λ} entonces determinemos el conjunto.
S = {λ ∈ R | W ≤ R3 }
Solución
Debemos determinar los elementos del conjunto S, y entonces es necesario entrar al conjunto.
Etapa 1. λ ∈ S ⇐⇒ λ ∈ R ∧ W ≤ R3
Luego, 0 ∈ S y {0} ⊂ S
u ∈ W ⇐⇒ u = (x, y, z) ∈ R3 ∧ x + 4y − 2z = λ
2u ∈ W ⇐⇒ 2u = (2x, 2y, 2z) ∈ R3 ∧ 2x + 8y − 4z = λ
=⇒ 2λ = λ
=⇒ λ = 0
Etapa 5. Como λ ∈ R entonces para u = (x, y, z) ∈ W, λx + 4λy − 2λz = λ. Pero,
λx + 4λy − 2λz = λ =⇒ λ2 = λ =⇒ λ = 0 ∨ λ = 1
Conclusión 2.2.6. El origen o elemento neutro del espacio pertenece a cada subespacio vectorial. Es decir
una condición necesaria para ser subespacio es que el origen pertenezca a él.
Profesor Ricardo Santander Baeza 2010 15
En efecto
S ≤ MR (n × 1) =⇒ (0) ∈ S
=⇒ A · (0) = B
=⇒ (0) = B
2. Si U1 ∈ S ∧ U2 ∈ S entonces A(U1 + U2 ) = A(U1 ) + A(U2 ) = (0) + (0) = (0). Ası́ que (U1 + U2 ) ∈ S
S ≤ MK (n × 1) ⇐⇒ B = (0)
Conclusión 2.2.8. Las soluciones de un sistema de ecuaciones lineales homogéneo de orden (n × m), cons-
tituyen un subespacio vectorial. Por ende un Sistema lineal homogéneo o tiene únicamente la solución nula
o tiene infinitas soluciones
Observación 2.2.9. Desde un punto de vista estructural el teorema 2.2, es una herramienta poderosa para
decidir si un conjunto es o no, un subespacio en un espacio vectorial dado, no obstante el tiene un problema
que lamentablemente para nosotros es crucial; pues, “ no nos dice quienes son los miembros del subespacio
W.”
2.3. Ejercicios Propuestos de Subespacios.
(1) Demuestre que los siguientes conjuntos son subespacios de Rn , para n ∈ N descrito.
(a) W = {(x, y) ∈ R2 | x + 3y = 0}
(c) W = {(x, y, z) ∈ R3 | x + y + z = 0}
(d) W = {(x, y, z) ∈ R3 | 5x + y − z = 0}
(e) W = {(x, y, z, w) ∈ R4 | x + y + 2z − w = 0}
16 Profesor Ricardo Santander Baeza 2010
4 y + 2z − w
(f) W = (x, y, z, w) ∈ R | 3x =
5
(2) Determine si los siguientes subconjuntos de MR (n × m) son subespacios para n y m adecuados.
( ( )
aij : Si j ≤ i
(e) W = A = (aij ) ∈ MR (n) | aij =
0 : en otro caso
( ( )
aij : Si j ≥ i
(f) W = A = (aij ) ∈ MR (n) | aij =
0 : en otro caso
(3) Demuestre que los siguientes subconjuntos de Rn [x] son subespacios para n adecuado.
3. La Idea de Generador
En concordancia con la observación anterior no estamos cumpliendo nuestro objetivo: Que es determinar
rápida y eficientemente los elementos del espacio vectorial, ası́ que si queremos cumplir nuestro objetivo
debemos cambiar el punto de vista. Como orientación debemos recordar que un espacio vectorial o tiene
un elemento o tiene infinitos elementos. Por tanto, el punto es, generar un proceso que transforme en una
”idea finita”, lo que en realidad es en concreto no finito. Con esto en mente,
(1) Miremos en primer lugar, desde un punto de vista diferente al subespacio de R3 . (Mirar desde otro
punto de vista significa, interpretar de un nueva forma las operaciones permitidas en el espacio).
W1 = {(x, y, z) ∈ R3 | x + 4y − 2z = 0} (3)
Ingresemos directamente al conjunto, es decir:
u ∈ W1 ⇐⇒ u = (x, y, z) ∈ R3 ∧ x + 4y − 2z = 0
⇐⇒ u = (x, y, z) ∈ R3 ∧ x = 2z − 4y
⇐⇒ u = (2z − 4y, y, z); z ∈ R, y ∈ R
⇐⇒ u = (2z, 0, z) + (−4y, y, 0); z ∈ R, y ∈ R
⇐⇒ u = z(2, 0, 1) + y(−4, 1, 0); z ∈ R, y ∈ R
Profesor Ricardo Santander Baeza 2010 17
Ası́ que,
La conclusión es la siguiente:
incognita incognita
↓ ↓
z}|{ z}|{
u ∈ W1 ⇐⇒ Tiene solución en K la ecuación u = a1 (2, 0, 1) + a2 (−4, 1, 0)
W2 = {(x, y, z) ∈ R3 | x = y ∧ z = 0} (4)
u ∈ W2 ⇐⇒ u = (x, y, z) ∈ R3 ∧ x = y ∧ z = 0
⇐⇒ u = (x, x, 0) ∧ x ∈ R
⇐⇒ u = x(1, 1, 0) ∧ x ∈ R
Ası́ que,
W2 = {λ(1, 1, 0) | λ ∈ R}
La conclusión es la siguiente:
incognita
↓
z}|{
u ∈ W2 ⇐⇒ Tiene solución en K la ecuación u = a1 (2, 0, 1)
W1 + W2 = {w1 + w2 | w1 ∈ W1 ∧ w2 ∈ W2 }
(a) W1 + W2 6= ∅
En efecto
Más aún, 0R3 ∈ W1 , pues (0, 0, 0) = 0(2, 0, 1) + 0(−4, 1, 0) y 0R3 ∈ W2 , pues (0, 0, 0) = 0(1, 1, 0).
Ası́
que 0R3 ∈ W1 ∩ W2
18 Profesor Ricardo Santander Baeza 2010
(i) R3 = W1 + W2
(ii) Tendremos una fórmula para expresar los elementos de R3 en términos de los vectores de
W1 y W2 .
2 −4 1 | x 0 −4 1 | x − 2z
0 1 1 | y (l1 → l1 − l3 ) 0 1 1 | y (l1 → l1 + 4l2 )
1 0 0 | z 1 0 0 | z
x+4y−2z
0 0 5 | x + 4y − 2z 0 0 1 | 5
0 1 1 | y (l1 → 15 l1 ) 0 1 1 | y (l2 → l2 − l1 )
1 0 0 | z 1 0 0 | z
x+4y−2z
0 0 1 | 5
0 1 0 | −x+y+2z
5
1 0 0 | z
Por tanto,
z
x1 y − x + 2z
x2 = =⇒ (x, y, z) = z(2, 0, 1) + y − x + 2z (−4, 1, 0) + x + 4y − 2z (1, 1, 0)
5 5 5
x3 x + 4y − 2z
5
(d) Finalmente, si adoptamos las siguientes notaciones:
z
y − x + 2z
⇐⇒ (x, y, z) = z(2, 0, 1) + y − x + 2z (−4, 1, 0) + x + 4y − 2z (1, 1, 0)
[(x, y, z]α = 5
{z5 5 {z
x + 4y − 2z | } | }
5 ∈W 1 ∈W2
R 3 = W1 + W2
Y además podemos ahora ejercitar el nuevo sı́mbolo:
Definición 3.1. Sea V un K espacio vectorial y considere los subconjuntos W1 y W2 tal que W1 ≤ V y
W2 ≤ V. Diremos que V es suma directa de los subespacios W1 y W2 en sı́mbolos V = W1 ⊕ W2 . Si
(1) V = W1 + W2
(2) W1 ∩ W2 = {0V }
n
X n
X
λ·u = λ· ai · vi = (λ · ai ) · vi ∈ W
i=1 i=1
Ası́ que W ≤ V
h{v1 , v2 }i = h{v1 − v2 , v1 + v2 }i
k
X
(4) Sea V un K espacio vectorial y α = {v1 , . . . , vn } ⊂ V. Si β = {w1 , . . . , wn } ⊂ V tal que wk = vi
i=1
para cada k = 1, 2, . . . , n entonces demuestre que
h{v1 , v2 , . . . , vn }i = h{w1 , w2 , . . . , wn }i
k
X
(5) Sea V un K espacio vectorial y α = {v1 , . . . , vn } ⊂ V. Si β = {w1 , . . . , wn } ⊂ V tal que wk = jvi
i=1
para cada k = 1, 2, . . . , n entonces demuestre que
h{v1 , v2 , . . . , vn }i = h{w1 , w2 , . . . , wn }i
(6) Demuestre que
• W1 = {(x, y, z) ∈ R3 | x − y − z = 0} ≤ R3
• W2 = {(x, y, z) ∈ R3 | x − y = 0 ∧ y − z = 0} ≤ R3
• W1 + W2 = {w1 + w2 | w1 ∈ W1 ∧ w2 ∈ W2 } ≤ R3
• R 3 = W1 + W2
• W1 ∩ W2 = {0R3 }
• V = W1 + W2
• W1 ∩ W2 = {0V }
L
En tal caso, notamos V = W1 W2
22 Profesor Ricardo Santander Baeza 2010
4. Sistemas de Generadores
Si V es un K espacio vectorial entonces V ≤ V. Ası́ que tiene sentido preguntar, ¿si existen o no generadores
para el propio V?. En general podemos hacer la siguiente
v = a1 v1 + a2 v2 + · · · + an vn
O en lenguaje más pragmático:
v = a1 v1 + a2 v2 + · · · + an vn (5)
tiene solución.
e1 = (1, 0, 0, . . . , 0)
e2 = (0, 1, 0, . . . , 0)
..
.
en = (0, 0, 0, . . . , 1)
es un sistema de generadores para Rn , ya que
(x1 , x2 , . . . , xn ) = x1 e1 + x2 e2 + · · · + xn en (6)
Por la forma de (6), se acostumbra a llamar a “c(n) con el nombre de generadores canónicos. ”
1 0 0 1 0 0 0 0
MR (2) = , , ,
0 0 0 0 1 0 0 1
pues,
q(x) = a0 · 1 + a1 · x + · · · + an xn
Es decir,
Rn [x] = h{1, x, x2 , . . . , xn }i
4.2. Construcción de sistemas de generadores. Estudiemos algunas situaciones que nos permiten con-
struir sistemas de generadores.
(a) En este caso tenemos que demostrar que V = h{v1 , v1 + v2 }i, es decir debemos mostrar que la
ecuación vectorial,
v = a1 v1 + a2 (v1 + v2 ) (7)
v = b1 v1 + b2 v2 (8)
(c) Supongamos por un instante que la ecuación vectorial (7), tiene solución entonces
v = a1 v1 + a2 (v1 + v2 )
= a1 v1 + a2 v1 + a2 v2
= (a1 + a2 )v1 + a2 v2
Luego, basta que tomemos:
a1 + a2 = b1
a2 = b2
Observemos que
En efecto
k
X
wk = vi = 1 · v1 + 1 · v2 + · · · + 1 · vn =⇒ wk ∈ h{v1 , v2 , . . . , vn }i (11)
i=1
Profesor Ricardo Santander Baeza 2010 25
u ∈ h{w1 , w2 , . . . , wn }i ⇐⇒ u = a1 w1 + a2 w2 + · · · + an wn i
1
X 2
X n
X
=⇒ u = a1 vi + a2 vi + · · · + an vi
i=1 i=1 i=1
n
! n
! n
!
X X X
=⇒ u= ai v1 + ai v2 + · · · + ai vn−1 + an vn
|{z}
i=1 i=2 i=n−1 cn
| {z } | {z } | {z }
c1 c2 cn−1
=⇒ u = c1 v1 + c2 v2 + · · · + cn−1 vn−1 + cn vn
=⇒ u ∈ h{v1 , v2 , . . . , vn }i
Conclusión:
h{w1 , w2 , . . . , wn }i ⊂ h{v1 , v2 , . . . , vn }i (13)
Recı́procamente, v1 = w1 y para k = 2, 3 . . . , n vk = wk − wk−1 . Ası́ que
n
X
u ∈ h{v1 , v2 , . . . , vn }i ⇐⇒ u = ai vi
i=1
n
X
=⇒ u = a1 w1 + ai (wi − wi−1 )
i=2
n
X
=⇒ u= (ai − ai+1 )wi
i=1
=⇒ u ∈ h{w1 , w2 , . . . , wn }i
Conclusión:
h{v1 , v2 , . . . , vn }i ⊂ h{w1 , w2 , . . . , wn }i (14)
U = {p(x) = a0 + a1 x + a2 x2 + a3 x3 ∈ R3 [x] | a0 − a1 = 0 ∧ a2 − a3 = 0} y
W = {q(x) = b0 + b1 x + b2 x2 + b3 x3 ∈ R3 [x] | b0 + b1 = 0 ∧ b2 + b3 = 0} entonces
En efecto
Usaremos la técnica de los generadores para mostrar que tanto U como W son subespacios
Es decir,
U = h{1 + x, x2 + x3 }i ≤ R3 [x]
Análogamente,
Es decir,
W = h{1 − x, x2 − x3 }i ≤ R3 [x]
(b) R3 [x] = W ⊕ U
En efecto
Ahora para mostrar que R3 [x] = U ⊕ W, debemos resolver en primer lugar la ecuación
p(x) = w + u (w ∈ W ∧ u ∈ U)
= c1 (1 − x) + c2 (x2 − x3 ) + c3 (1 + x) + c4 (x2 + x3 ), (Para p(x) ∈ R3 [x])
| {z } | {z }
q q
w u
Entonces
a0 + a1 x + a2 x2 + a3 x3 = c1 (1 − x) + c2 (x2 − x3 ) + c3 (1 + x) + c4 (x2 + x3 )
= c1 − c1 x + c2 x2 − c2 x3 + c3 + c3 x + c4 x2 + c4 x3
= c1 + c3 + c3 x − c1 x + c4 x2 + c2 x2 − c2 x3 + c4 x3
= c1 + c3 + (c3 − c1 )x + (c2 + c4 )x2 + (c4 − c2 )x3
Profesor Ricardo Santander Baeza 2010 27
Ası́ que,
a0 − a1
c1 =
2
c1 + c3 = a0 a0 + a1
c3 =
−c1 + c3 = a1 2
=⇒ c = a2 − a3
c2 + c4 = a2 2
2
−c2 + c4 = a3 a2 + a3
c4 =
2
Luego,
a0 − a1 a2 − a3 2 a0 + a1 a2 + a3 2
a0 + a1 x + a2 x2 + a3 x3 = (1 − x) + (x − x3 ) + (1 + x) + (x + x3 )
| 2 {z 2 } | 2 {z 2 }
∈W ∈U
Por tanto,
R3 [x] = W + U
En segundo lugar, debemos mostrar que W ∩ U = {0R3 [x] }. Para ver esto hacemos
a0 − a1 a2 − a3 2 a0 + a1 a2 + a3 2
a0 + a1 x + a2 x2 + a3 x3 = (1 − x) + (x − x3 ) + (1 + x) + (x + x3 )
| 2 {z 2 } | 2 {z 2 }
∈W ∈U
Y,
R3 [x] = h{1 − x, x2 − x3 , 1 + x, x2 + x3 }i
a0 − a1
2
a2 − a3
2
a0 + a1 x + a2 x2 + a3 x3 α =
a0 + a1
2
a +a
2 3
2
n
X
v= ci vi = c1 v1 + c2 v2 + · · · + cn vn
i=1
v = x1 v1 + x2 v2 + · · · + xn vn
tiene al menos una solución en Kn
Ejemplo 5.1.1. Si α = {(1, 1), (1, −1))} entonces α es un sistema de generadores para R2 , pues
x+y x−y
(x, y) = (1, 1) + (1, −1)
2 2
Ası́ que,
x+y
[(x, y)]α 2
= x− y
2
Profesor Ricardo Santander Baeza 2010 29
Por otra parte, tenemos ”una fuga de seguridad” ya que existe una representación diferente para w, pues
0
0
n
.. X
[w]β = . ⇐⇒ w = 0 · vk + 1 · w
0 k=1
1
Observación 5.1.3. Para caracterizar esta ”fuga de seguridad”, supongamos que α = {v1 , v2 , . . . , vn } es un
sistema de generadores para V y que u ∈ V tiene dos representaciones diferentes en este sistema entonces
debemos tener
n
X n
X
(1) u = ak vk y u = bk vk
k=1 k=1
(2) Si estas representaciones son distintas entonces existe (i; 1 ≤ i ≤ n) tal que ai 6= bi
n
X n
X n
X
ak vk = bk vk =⇒ (ak − bk )vk = 0V
k=1 k=1 k=1
=⇒ (a1 − b1 )v1 + (a2 − b2 )v2 + · · · + (ai − bi ) vi + · · · + (an − bn )vn = 0V
| {z }
6=0
Conclusión 5.1.4. Si un vector u ∈ V se representa en más de una forma, como combinación lineal de los
elementos de α entonces el vector nulo 0V se representa en más de una forma, como combinación lineal de
los elementos de α.
Luego, en virtud de nuestra lógica, podemos decir que: 0V , se escribe de una única forma como combinación
lineal de los elementos de α entonces todo vector del espacio posee la misma propiedad.
Definición 5.2. Sea V un K espacio vectorial, y α = {v1 , v2 , . . . , vn } ⊂ V. Diremos que α es un conjunto lin-
ealmente independiente en V si 0V , se escribe de una única forma como combinación lineal de los elementos
de α, en sı́mbolos Li. Caso contrario diremos que α es un conjunto linealmente dependiente, en sı́mbolos Ld.
30 Profesor Ricardo Santander Baeza 2010
Es decir, α es Li en V Si
ai v1 + a2 v2 + a3 v3 + · · · + an vn = 0V =⇒ a1 = a2 = · · · = an = 0
Ejemplo 5.2.1. Si α = {1, 1 + x, 1 + x + x2 } ⊂ K2 [x] entonces α es Li en K2 [x].
En efecto
Luego, α es Li en K2 [x]
Ejemplo 5.2.2. Si β = {1, 1 + x, 1 + x + x2 , 1 − x − 2x2 } ⊂ K2 [x] entonces ¿ β es Li ó Ld en K2 [x]?.
Estudiemos el problema
a1 + a2 + a2 x + a3 + a3 x + a3 x2 + a4 − a4 x − 2a4 x2 = 0 + 0x + 0x2 ⇐⇒
(a1 + a2 + a3 + a4 ) + (a2 + a3 − a4 )x + (a3 − 2a4 )x2 = 0 + 0x + 0x2 ⇐⇒
a1 + a2 + a3 + a4 = 0
a2 + a3 − a4 = 0 (∗)
a3 − 2a4 = 0
Luego, β es Ld en K2 [x], pues, si A es la matriz de coeficientes del sistema (∗) entonces ρ(A), puede ser
como máximo 3, y el número de incógnitas es 4 de donde siguen que el sistema tiene infinitas soluciones.
Las infinitas soluciones son de la forma: a1 = −2a4 ; a2 = −a4 ; a3 = 2a4 y su expresión es de la forma:
6. Base y Dimensión
Ahora tenemos construidas y listas para usar, las piezas precisas para garantizar la existencia y unicidad
de una representación como combinación lineal, para cada vector de un espacio vectorial. Partimos con la
siguiente:
Definición 6.1. Sea V un K espacio vectorial, y α = {v1 , v2 , . . . , vn } ⊂ V. Diremos que α es una base para
el espacio vectorial V si
Profesor Ricardo Santander Baeza 2010 31
n
X
u = ai vi = a1 v1 + a2 v2 + · · · + an vn
i=1
Equivalentemente, la función
a1
a2 n
[ ]α : V −
7 → MR (n × 1 X
; donde [u]α = .. ⇐⇒ u = ak vk
u −7 → [u]α .
k=1
an
Es una biyección
Ejemplo 6.1.5. Sea V = {f : [−π, π] 7−→ R | tal que f continua }. Si definimos el subespacio de V
W = h{1, sen x, cos x, sen 2x, cos 2x, . . . , sen nx, cos nx}i
entonces α = {1, sen x, cos x, sen 2x, cos 2x, . . . , sen nx, cos nx}, es una base de W , para cada n ∈ N
Teorema 6.2. Sea V un K espacio vectorial y α = {v1 , v2 , . . . , vn } una base de V entonces cualquier sub-
conjunto de V que posea más de n-elementos es linealmente dependiente
En efecto
(3) Como α es una base entonces en primer lugar, cada elemento de V tiene representación como com-
binación lineal de sus elementos (Es un sistema de generadores). Ası́ que en particular para cada
wi (1 ≤ i ≤ s) tenemos que
s
! s
!
X X
0V = ci ai1 v1 + · · · + ci ain vn
i=1 i=1
Profesor Ricardo Santander Baeza 2010 33
En segundo lugar, α es linealmente independiente en V, ası́ que, forzosamente debemos tener que
s
X
ci ai1 = 0 a11 c1 + a21 c2 + · · · + as1 cs = 0
i=1 a12 c1 + a22 c2 + · · · + as2 cs = 0
.. ⇐⇒ (∗∗)
. ..
s
X .
ci ain = 0 a1n c1 + a2n c2 + · · · + asn cs = 0
i=1
Como n < s entonces el sistema homogéneo (∗∗) tiene infinitas soluciones, es decir, el conjunto β es
linealmente dependiente.
Corolario 6.2.1. Todas las bases de un espacio vectorial tienen la misma cardinalidad, es decir el mismo
número de vectores.
En efecto
Supongamos que α = {v1 , v2 , . . . , vn } y β = {w1 , w2 , . . . , vm } son dos bases del espacio vectorial V. Apli-
cando el contenido del teorema 6.2 tenemos dos casos simultáneos que analizar,
(1) Si α = {v1 , v2 , . . . , vn } es una base entonces n es el número máximo de vectores linealmente indepen-
dientes, ası́ que si β es otra base entonces su número de vectores linealmente independientes m debe
ser menor o igual que n
(2) Si β = {w1 , w2 , . . . , wm } es una base entonces m es el número máximo de vectores linealmente inde-
pendientes, ası́ que si α es otra base entonces su número de vectores linealmente independientes n debe
ser menor o igual que m.
Teorema 6.4. Sea V un K espacio vectorial tal que dimK (V) = n, y α = {v1 , v2 , . . . , vn } ⊂ V entonces
α linealmente independiente ⇐⇒ α sistema de generadores
En efecto
34 Profesor Ricardo Santander Baeza 2010
Del contenido del teorema 6.2 sugue que el conjunto β = {v1 , v2 , . . . , vn , u} es linealmente dependiente
(∀u; u ∈ V).
• Si an+1 6= 0 entonces
a1 v1 + a2 v2 + · · · + an vn + an+1 u = 0V =⇒ a1 v1 + a2 v2 + · · · + an vn = an+1 u
a1 a2 an
=⇒ v1 + v2 + · · · + vn = u
an+1 an+1 an+1
Ası́ que α en este caso genera V
• Si an+1 = 0 entonces
a1 v1 + a2 v2 + · · · + an vn + an+1 u = 0V =⇒ a1 v1 + a2 v2 + · · · + an vn = 0V
=⇒ a1 = a2 = · · · = an = 0 (α es Li)
Pero entonces contrariamos el hecho de que existen escalares no todos nulos, ası́ que este caso no es
posible, para esta dimensión.
En cualquier caso sólo existen dos posibilidades, que α sea Linealmente independiente o linealmente depen-
diente.
Pero, si α linealmente dependiente entonces dimK (V) < n, lo cual contradice nuestra hipótesis. Ası́ que este
caso no es posible.
Teorema 6.5. Sea α = {u1 , u2 , . . . , un } ⊂ Kn , tal que ui = (ai1 , ai2 , . . . , ain ) entonces α es linealmente
independiente si y sólo si
a11 a12 ... a1n
a21 a22 ... a2n
a31 a32 ... a3n
det a41 a42 ... a4n 6= 0
.. .. ..
. . · .
an1 an2 ... ann
Profesor Ricardo Santander Baeza 2010 35
En efecto
El sistema (∗) tiene solución única, c1 = c2 = · · · = cn = 0 si y sólo si la matriz de coeficientes del sistema
homogéneo es invertible. Es decir
t
a11 a12 ... a1n a11 a12 ... a1n
a21 a22 ... a2n
a21 a22 ... a2n
det .. .. .. = det .. .. .. 6= 0
. . · . . . · .
an1 an2 ... ann an1 an2 ... ann
Conclusión 6.6. Frente a nuestro objetivo consistente en ” determinar rápida y efectivamente a los ele-
mentos de un espacio vectorial”, podemos decir lo siguiente:
(1) Un espacio vectorial hay que entenderlo respecto de una base (α = {v1 , v2 , . . . , vn }), o ”sistema de
referencia” o ”reglas del juego”.
(2) como [ ]α es un biyección entonces llamamos coordenadas de u ∈ V a [u]α ∈ MK (n × 1), y a este último
lo llamamos espacio coordenado.
(3) Ası́ que un espacio vectorial puede ser de ahora en adelante, identificado como una estructura hı́brida,
formada por dos partes equivalentes, pero con funciones diferentes y muy precisas.
En efecto
(V, α) Teorı́a:Combinaciones lineales
V↔
↓ [ ]α
↓
MK (n × 1) Práctica: Coordenadas
(4) El problema que aparece, y por tanto hay que abordar más adelante es: ¿Cómo se relacionan dos triadas
diferentes?. Es decir
36 Profesor Ricardo Santander Baeza 2010
(V, α) (V, β)
?
↓ [ ]α 7−→
↓ [ ]β
MK (n × 1) MK (n × 1)
(a) W = {(a, b, c, d) ∈ R4 | a2 + b2 − c2 − d2 = 0}
a b
(b) W = ∈ MR (2) | [a = d ∧ b = 0 ∧ c = 2d]
c d
1 1 1 1
(c) W = B ∈ MR (2) | B · = ·B
2 1 2 1
(3) Sea α = {v1 , v2 , . . . , vn } una base del K espacio vectorial V. Demuestre que
3 2 2 1 6 5 5 4
(4) Si α = , , , ⊂ MR (2) entonces determine el conjunto
2 1 1 0 4 2 4 a
0 0 0 1 1 1 1 0
(5) Si α = , , , ⊂ MR (2).
0 1 0 1 0 0 1 0
(a) Demuestre
que α es una
base de MR (2)
a b
(b) Determine
c d α
(6) Dado el sistema lineal
−2x1 + x2 + x3 = a
x1 − 2x2 + x3 = b (∗)
x1 + x2 − 2x3 = c
7. Coordenadas y Matrices
El problema que abordaremos es exactamente, ¿Cómo se relacionan dos triadas diferentes?. Es decir ¿Qué
relación existe entre los sistemas de gestión de la información determinados por las bases α y β?
En sı́mbolos tenemos
Profesor Ricardo Santander Baeza 2010 37
(V, α) (V, β)
?
↓ [ ]α 7−→
↓ [ ]β
MK (n × 1) MK (n × 1)
Equivalentemente, si α = {v1 , v2 , . . . , vn } y β = {w1 , w2 , . . . , wn }, para cada u ∈ V tendremos que
n
X n
X
u= ai vi ∈ V 7−→ u= bi wi ∈ V
i=1 i=1
↓ ↓
(15)
a1 b1
a2
b2
[u]α = .. ∈ M K (n × 1) −
7 → [u]α = .. ∈ MK (n × 1)
. .
an bn
Luego (15), nos sugiere que debemos generar un proceso que transforme coordenadas en la base α en coor-
denadas en la base β.
7.1. Propuesta de Estrategia. Para analizar esta situación, verificaremos directamente el comportamiento
de la función []γ , (donde γ es una base cualquiera del espacio), con respecto a las reglas básicas con que se
generan los vectores. Es decir:
(1) Mostraremos que la función [ ]γ , para cualquier base γ = {z1 , z2 , . . . , zn } de V, respeta las operaciones
del espacio V. Es decir que (∀u; u ∈ V), (∀v; v ∈ V) y (∀λ; λ ∈ K), se verifican:
En efecto
n
X n
X n
X
Si u = ci zi y v = di zi entonces u + v = (ci + di )zi . Ası́ que
i=1 i=1 i=1
c1 + d1 c1 d1
c2 + d2
c2
d2
[u + v]γ = .. = .. + .. = [u]γ + [v]γ
. . .
cn + dn cn dn
n
X
Análogamente, si λ ∈ K entonces λu = (λci )zi . Por tanto
i=1
λc1 c1
λc2
c2
[λu]γ = .. = λ .. = λ [u]γ
. .
λcn cn
38 Profesor Ricardo Santander Baeza 2010
(2) Siguiendo la idea propuesta por el diagrama (15). Apliquemos la función [ ]β , a los elementos de la
base α. Es decir
a1s
n
X
a2s
vs = a1s w1 + a2s w2 + a3s w3 + · · · + ans wn = ais wi ⇐⇒ [vs ]β = .. (1 ≤ s ≤ n)
i=1
.
ans
n
X
(3) Ahora usemos la información acopiada, en el caso general, es decir si u ∈ V y u = cs vs entonces
s=1
" n # a1s a11 a12 a1n
X n
X n
X a2s a21 a22 a2n
[u]β = cs vs = cs [vs ]β = cs .. = c1 .. + c2 .. + · · · + cn ..
s=1 β s=1 s=1
. . . .
ans an1 an2 ann
a11 a12 ··· a1n
c1 a11 + c2 a12 + · · · + cn a1n a21 a22 ··· a2n c1
c1 a21 + c2 a22 + · · · + cn a2n
..
c2
= .. = . ..
.
an1 an2 ··· ann
.
c1 an1 + c2 an2 + · · · + cn ann |{z} |{z} |{z} cn
[v1 ]β [v2 ]β [vn ]β | {z }
[u]α
(4) Ya henos encontrado la relación, como era de esperar una matriz, que traslada la información de una
base a otra, ası́ sólo resta que la denotemos formalmente, porque incluso ya sabemos como determinarla.
Definición 7.2. La matriz de orden n, [I]βα = ([v1 ]β [v2 ]β . . . [vn ]β ), se llamará la matriz cambio de base de
α para β
Equivalentemente,
a11 a12 . . . a1n
a21 a22 . . . a2n
[I]βα =
.. .. .. ..
. . . .
an1 an2 . . . ann
Además hemos mostrado el siguiente importante resultado
En efecto
Y en segundo lugar,
[I]αβ [I]βα [u]α = [I]αβ [I]βα [u]α = [I]αβ [u]β = [u]α
−1
Ası́ que, [I]βα ∈ U(MK (n)) e [I]βα = [I]αβ
Conclusión 7.3.2. Lo anterior puede ser sistematizado a través del siguiente diagrama.
n n
X 1V X
u= ci vi ∈ (V, α) (V, β) ∋ u = di wi
i=1 i=1
[ ]α [ ]β)
c1 d1
c2
d2
[u]α = .. ∈ MR (n × 1) MR (n × 1) ∋ .. = [u]β
. [I]βα .
cn dn
(b) Determine
(♣) Estimular el uso de una sintaxis adecuada en la resolución de problemas que envuelven conceptos
matemáticos.
(♣) Aprender a generar un algoritmo eficaz (ojalá eficiente), para responder al problema planteado.
(♣) Verificar el estado de aprendizaje de los contenidos especı́ficamente relacionados con las propiedades
básicas que debe conocer, y ”en lo posible haber aprehendido” de los tópicos analizados.
8.2. Algunas sugerencias para enfrentar las situaciones problemáticas son las siguientes:
(⋆) Reconozca lo que es información (dato), de lo que es ”incognita”, o lo que a usted se le consulta.
(⋆) Trate de entender en la forma más clara para usted, lo que se le pide, en particular si puede usar
”sinónimos matemáticos”, que le permitan facilitar su respuesta, cuanto mejor!!! Este acto nunca esta
de más.
(⋆) Analice sus datos extrayendo la información que corresponde, orientado por su entendimiento de lo que
debe probar.
(c) ¿ Es W1 ∪ W2 ≤ R3 ?
a11 a12
(4) Sea W1 = A = ∈ MR (2) | a11 + a22 = 0 ⊂ MR (2)
a21 a22
(a) Demuestre que W1 ≤ MR (2)
h{v1 , v2 , . . . , vn }i = h{w1 , w2 , . . . , wn }i
(7) Sea C[−π, π] = {f : [−π, π] 7−→ R | f Derivable en el intervalo [−π, π]}. Demuestre que α =
{1, sen x, cos x} es un conjunto linealmente independiente en C[−π, π]
(8) Sean V un K espacio vectorial tal que dimK (V) = n y α = {v1 , v2 , . . . , vn } una base de V. Demuestre
que
s
X
β = {u1 , u2 , . . . , un } tal que us = vr (para 1 ≤ s ≤ n) es un sistema de generadores de V
r=1
(11) Sea α = {v1 , v2 , . . . , vn } una base del espacio vectorial real V. Define el conjunto β = {w1 , w2 , . . . , wn }
X j
tal que wj = 2vi , para 1 ≤ j ≤ n. Demuestre que β es también una base de V.
i=1
1 −1 2
(12) Sea β = {1, 1 − x, 1 − x2 } una base de R2 [x], y A = 3 0 1 ∈ MR (3). Determine, si es posible,
2 −2 4
β
una base α de R2 [x] del tal forma que A = [I]α . (Si es posible exhiba una tal base α, si no justifique
con precisión meridiana su respuesta)
(13) Sea V un K espacio vectorial tal que dimK (V) = n. Considere α = {v1 , v2 , . . . , vn } ⊂ V y β =
s
X
{u1 , u2 , . . . , un } ⊂ V tal que us = vs+1−i , para s = 1, 2, . . . n.
i=1
(a) Demuestre que α base de V =⇒ β base de V
42 Profesor Ricardo Santander Baeza 2010
(b) Determine [1 + x + x2 ]α y [1 + x + x2 ]β
(16) Considere las bases α = {(1, −2, 0), (0, 1, 0), (1, 0, 1)} y β = {(1, 1, 1), (0, 1, 1), (0, 0, 1)} de R3 . Deter-
mine [I]βα e [I]αβ
(18) Si α y β = {(1, 0, 1), (−1, 1, 0), (1, 1, 1)} son dos bases ordenadas de R3 tal que
1 −1 1
[I]βα = 0 −2 1
1 1 1
Es la matriz de cambio de la baseα para la base β entonces determine la base α.
(19) Si α = {(2, 1, 2), (4, −1, 0), (1, 2, 2)} es una base de R3 , y u = (1, 2, 3) entonces determine [u]α
Profesor Ricardo Santander Baeza 2010 43
n n
!
X X
ai xi + − iai x = (a2 x2 + a3 x3 + · · · + an xn ) − (2a2 x + 3a3 x + · · · + nan x)
i=2 i=2
= a2 (x2 − 2x) + a3 (x3 − 3x) + a4 (x4 − 4x) + · · · + an (xn − nx) (∗∗)
p(x) ∈ W ⇐⇒ p(x) = a0 + a2 (x2 − 2x) + a3 (x3 − 3x) + a4 (x4 − 4x) + · · · + an (xn − nx)
⇐⇒ p(x) ∈ h{1, (x2 − 2x), (x3 − 3x), (x4 − 4x), . . . , (xn − nx)i
Luego,
W = h{1, (x2 − 2x), (x3 − 3x), (x4 − 4x), . . . , (xn − nx)i =⇒ W ≤ Rn [x]
Solución
Luego (0) ∈ W y W 6= ∅.
entonces
p(x) + q(x) = (a0 + b0 ) + (a1 + b1 )x + (a2 + b2 )x2 ∈ R2 [x] y
u ∈ W1 ⇐⇒ u = (x1 , y1 , z1 ) ∈ R3 ∧ 2x1 − y1 − z1 = 0
v ∈ W1 ⇐⇒ v = (x2 , y2 , z2 ) ∈ R3 ∧ 2x2 − y2 − z2 = 0
entonces
u + v = (x1 + x2 , y1 + y2 , z1 + z2 ) ∈ R3 y
Luego, λu ∈ W1 y W1 ≤ R3
entonces
u + v = (x1 + x2 , y1 + y2 , z1 + z2 ) ∈ R3 y
Luego, u + v ∈ W2
Luego, λu ∈ W2 y W2 ≤ R3
Solución
u ∈ W1 ∩ W2 ⇐⇒ u = (x1 , y1 , z1 ) ∈ R3 ∧ u ∈ W1 ∧ u ∈ W2
⇐⇒ u = (x1 , y1 , z1 ) ∈ R3 ∧ 2x1 − y1 − z1 = 0 ∧ x1 + 2y1 + 3z1 = 0
v ∈ W1 ∩ W2 ⇐⇒ v = (x2 , y2 , z2 ) ∈ R3 ∧ v ∈ W1 ∧ v ∈ W2
⇐⇒ u = (x2 , y2 , z2 ) ∈ R3 ∧ 2x2 − y2 − z2 = 0 ∧ x2 + 2y2 + 3z2 = 0
entonces
u + v = (x1 + x2 , y1 + y2 , z1 + z2 ) ∈ R3 y
Como W1 ≤ R3 y W2 ≤ R3 entonces u + v ∈ W1 y u + v ∈ W2 . Ası́ que u + v ∈ W1 ∩ W2
Etapa 3. De la misma forma si λ ∈ R y u ∈ W1 ∩ W2 entonces λu ∈ W1 ∩ W2 , y W1 ∩ W2 ≤ R3
(c) ¿ Es W1 ∪ W2 ≤ R3 ?
Solución
Solución
a11 a12
A ∈ W1 ⇐⇒ A = ∈ MR (2) ∧ a11 + a22 = 0
a21 a22
a11 a12
⇐⇒ A = ∈ MR (2) ∧ a22 = −a11
a21 a22
1 0 0 1 0 0
⇐⇒ A = a11 + a12 + a12
0 −1 0 0 1 0
1 0 0 1 0 0
Luego, W1 = , , ≤ MR (2)
0 −1 0 0 1 0
(b) Determine W2 ≤ MR (2) tal que MR (2) = W1 ⊕ W2
Solución
Solución
u ∈ W ⇐⇒ u = (x, y, z, t) ∈ R4 ∧ x + 2y − 3z = 0
⇐⇒ u = (x, y, z, t) ∈ R4 ∧ x = −2y + 3z = 0
⇐⇒ u = (−2y + 3z, y, z, t) ∧ (y, z, t) ∈ R3
⇐⇒ u = y(−2, 1, 0, 0) + z(3, 01, 0) + t(0, 0, 0, 1)
Solución
Si α = {(−2, 1, 0, 0), (3, 0, 1, 0), (0, 0, 0, 1)} entonces α genera W y para ver que es Li hacemos lo
siguiente,
h{v1 , v2 , . . . , vn }i = h{w1 , w2 , . . . , wn }i
Solución
Etapa1. Debemos demostrar que h{v1 , v2 , . . . , vn }i = h{w1 , w2 , . . . , wn }i. Es decir debemos mostrar
que h{v1 , v2 , . . . , vn }i ⊂ h{w1 , w2 , . . . , wn }i y h{w1 , w2 , . . . , wn }i ⊂ h{v1 , v2 , . . . , vn }i
w1 = v1
k w2 = v1 + 2v2
X
wk = ivi ; (k = 1, 2, . . . , n) =⇒ w3 = v1 + 2v2 + 3v3
i=1
..
.
wn = v1 + 2v2 + 3v3 + · · · + nvn
Luego,
h{w1 , w2 , . . . , wn }i ⊂ h{v1 , v2 , . . . , vn }i
v1 = w1
w1 = v1 w2 − w1
v2 =
w2 = v1 + 2v2
2
w3 − w2
w3 = v1 + 2v2 + 3v3 =⇒ v3 =
.. 3
.
..
.
wn = v1 + 2v2 + 3v3 + · · · + nvn wn − wn−1
vn =
n
Luego
h{v1 , v2 , . . . , vn }i ⊂ h{w1 , w2 , . . . , wn }i
(7) Sea C[−π, π] = {f : [−π, π] 7−→ R | f Derivable en el intervalo [−π, π]}. Demuestre que α =
{1, sen x, cos x} es un conjunto linealmente independiente en C[−π, π]
Recuerde que C[−π, π] es un espacio vectorial con las operaciones:
Solución
Supongamos que tenemos la combinación lineal nula. a1 · 1 + a2 sen x + a3 cos x = 0 entonces derivando
respecto de x obtenemos el sistema lineal en las variables 1, sen x, cos x.
a1 · 1 + a2 sen x + a3 cos x = 0 a1 a2 a3 1 0
0 · 1 + a2 cos x − a3 sen x = 0 ⇐⇒ 0 −a3 a2 sen x = 0
0 · 1 − a2 sen x − a3 cos x = 0 0 −a2 −a3 cos x 0
| {z }
A
Profesor Ricardo Santander Baeza 2010 49
Caso contrario el sistema homogéneo tiene rango máximo y entonces solución única, es decir 1 = 0,
sen x = 0 y cos x = 0 (∀x), lo cual es imposible. Por tanto α es Linealmente independiente.
(8) Sean V un K espacio vectorial tal que dimK (V) = n y α = {v1 , v2 , . . . , vn } una base de V. Demuestre
que
s
X
β = {u1 , u2 , . . . , un } tal que us = vr (para 1 ≤ s ≤ n) es un sistema de generadores de V.
r=1
Solución
Sea w ∈ V entonces como α es una base de V existen únicos escalares a1 , a2 , . . . , an tales que
w = a1 v1 + a2 v2 + · · · + an vn (∗)
Pero,
u1 = v1 ⇐⇒ v1 = u1
u2 = v1 + v2 ⇐⇒ v2 = u2 − u1
u3 = v1 + v2 + v3 ⇐⇒ v3 = u3 − u2
... ... ...
Luego β genera V.
Solución
a1 v1 + a2 v2 + · · · + an vn = 0V =⇒ a1 = a2 = · · · = an = 0
c1 w1 + c2 w2 + · · · + cn wn = 0V =⇒ c1 = c2 = · · · = cn = 0
50 Profesor Ricardo Santander Baeza 2010
a(c1 + c2 + · · · + cn ) + c1 = 0
c2 = 0
=⇒ c3 = 0
.. .
. = ..
cn = 0
=⇒ ac1 + c1 = 0 ∧ c2 = · · · = cn = 0
=⇒ (a + 1)c1 = 0 ∧ c2 = · · · = cn = 0
=⇒ (a + 1) = 0 ∨ c1 = 0 ∧ c2 = · · · = cn = 0
=⇒ c1 = c2 = · · · = cn = 0 (a 6= −1)
i
X
α base de V =⇒ β = {w1 , w2 , · · · , wn } es una base de V, donde wi = vj (1 ≤ i ≤ n)
j=1
Solución
• Sea u ∈ V entonces como α es una base de V existen únicos escalares, a1 , a2 , . . . , an tales que
u = a1 v1 + a2 v2 + · · · + an vn (17)
• Ahora por la forma de los elementos de β tenemos que v1 = w1 y para i = 2, 3, . . . , n tenemos que
i−1
X i
X
wi−1 = vj ∧ wi = vj =⇒ wi − wi−1 = vi (18)
j=1 j=1
Luego, β genera V
Profesor Ricardo Santander Baeza 2010 51
n
X
• Supongamos que cj wj = 0V entonces
j=1
n
X n
X s
X
cs ws = 0V =⇒ cs vj = 0V
s=1 s=1 j=1
1
X 2
X n
X
=⇒ c1 vj + c2 vj + · · · + cn vj = 0V
j=1 j=1 j=1
c1 + c2 + · · · cn = 0
c2 + · · · cn = 0
α es Li .. .
=⇒ . = .. =⇒ ci = 0 (i = 1, 2, . . . , n)
cn−1 + cn = 0
cn = 0
(11) Sea α = {v1 , v2 , . . . , vn } una base del espacio vectorial real V. Define el conjunto β = {w1 , w2 , . . . , wn }
X j
tal que wj = 2vi , para 1 ≤ j ≤ n. Demuestre que β es también una base de V.
i=1
Solución
a1 + a2 + · · · + an = 0
a2 + · · · + an = 0
=⇒ .. .. .. ( Pues α es Li)
. . .
an−1 + an = 0
an = 0
=⇒ an = an−1 = · · · = a1 = 0 y entonces β es Li
n
X
ai vi (19)
i=1
n
X
Ahora β genera el espacio V si tiene solución la ecuación: u = bi wi . Pero,
i=1
52 Profesor Ricardo Santander Baeza 2010
n n j
!
X X X
u= bj wj =⇒ u = bj 2vi
j=1 j=1 i=1
n
X n
X n
X Xn
=⇒ u = bj v1 + bj v2 + · · · + bj vn−1 + bj vn
j=1 j=2 j=n−1 j=n
b1 + b2 + · · · + bn = a1 b1 = a1 − a2
b2 + · · · + bn = a2 b2 = a2 − a3
.. .. .. y luego, .. .. ..
. . . . . .
bn−1 + bn = an−1 bn−1 = an−1 − an
bn = an bn = an
Ası́ que
Supongamos que α = {p1 (x), p2 (x),3 (x)} es una base de R2 [x], que satisface las condiciones propuestas
en el problema encima entonces por definición
1 −1 2
[I]βα = ([p1 (x)]β [p2 (x)]β [p3 (x)]β ) = 3 0 1
2 −2 4
Por tanto,
1
[p1 (x)]β = 3 =⇒ p1 (x) = 1 + 3(1 − x) + 2(1 − x2 ) = 6 − 3x − 2x2
2
−1
[p2 (x)]β = 0 =⇒ p2 (x) = −1 + 0(1 − x) − 2(1 − x2 ) = −3 + 2x2
−2
2
[p3 (x)]β = 1 =⇒ p3 (x) = 2 + 1(1 − x) + 4(1 − x2 ) = 7 − x − 4x2
4
Entonces
α = {6 − 3x − 2x2 , −3 + 2x2 , 7 − x − 4x2 }
Profesor Ricardo Santander Baeza 2010 53
Pero se debe observar que α no es base, pues es linealmente dependiente por un cálculo directo, o
porque
1 −1 2 1 −1 2
det 3 0 1 = det 3 0 1 =0
2 −2 4 0 0 0
. Luego, A no puede ser una matriz cambio de base
(13) Sea V un K espacio vectorial tal que dimK (V) = n, Considere los conjuntos α = {v1 , v2 , . . . , vn } ⊂ V y
s
X
β = {u1 , u2 , . . . , un } ⊂ V tal que us = vs+1−i , para s = 1, 2, . . . n.
i=1
(a) Demuestre que α base de V =⇒ β base de V
Solución
1
X
u1 = v1+1−i = v1 ⇐⇒ v1 = u1
i=1
X2
u2 = v2+1−i = v2 + v1 ⇐⇒ v2 = u2 − u1
i=1
3
X
u3 = v3+1−i = v3 + v2 + v1 ⇐⇒ v3 = u3 − u2
i=1
.. .. .. .. (20)
. . . .
j
X
uj = vj+1−i = vj + vj−1 + · · · + v1 ⇐⇒ vj = uj − uj−1
i=1
.. .. .. ..
. . . .
n
X
un = vn+1−i = vn + vn−1 + · · · + v1 ⇐⇒ vn = un − un−1
i=1
Si u ∈ V entonces como α es una base entonces existen únicos escalares c1 , c2 , · · · , cn tales que
u = a1 v1 + a2 v2 + · · · + an vn , pero de acuerdo con (20) tenemos que
54 Profesor Ricardo Santander Baeza 2010
Solución
1 1 0
[I]αc(3) = ([(1, 0, 0)]α [(0, 1, 0)]α [(0, 0, 1)]α ) = 1 3 4
0 4 1
Ası́ que
1
[(1, 0, 0)]α = 1 ⇐⇒ (1, 0, 0) = v1 + v2
0
1
[(0, 1, 0)]α = 3 ⇐⇒ (0, 1, 0) = v1 + 3v2 + 4v3
4
0
[(0, 0, 1)]α = 4 ⇐⇒ (0, 0, 1) = 4v2 + v3
1
v1 + v2 = (1, 0, 0)
2v2 + 4v3 = (−1, 1, 0)
v1 + 3v2 + 4v3 = (0, 1, 0) =⇒
4v2 + v3 = (0, 0, 1)
4v2 + v3 = (0, 0, 1)
4v2 + 8v3 = (−2, 2, 0)
=⇒
4v2 + v3 = (0, 0, 1)
2 2 1 1 1 4
=⇒ v3 = − , , − ∧ v2 = ,− ,− ∧
7 7 7 14 14 14
13 1 4
v1 = , ,−
14 14 14
(15) En R2 [x], considere las bases α = {x, x2 + 3, 2x2 + x} y β = {x + 3, x − 2, x2 + 1}.
Solución
Etapa 1. Por definición la matriz [I]βα se construye como: [I]βα = [x]β [x2 + 3]β [2x2 + x]β
Etapa 2. Luego, una buena estrategia es calcular en general: [a0 + a1 x + a2 x2 ]β . Ası́ que
b0
[a0 + a1 x + a2 x2 ]β = b1 ⇐⇒ a0 + a1 x + a2 x2 = b0 (x + 3) + b1 (x − 2) + b2 (x2 + 1)
b2
⇐⇒ a0 + a1 x + a2 x2 = (3b0 − 2b1 + b2 ) + (b0 + b1 )x + b2 x2
3b0 − 2b1 + b2 = a0
⇐⇒ b0 + b1 = a1
b2 = a2
3b0 − 2b1 = a0 − a2
=⇒ b0 + b1 = a1
b2 = a2
a0 + 2a1 − a2 3a1 − a0 + a2
=⇒ b2 = a2 ; b0 = ; b1 =
5 5
Luego,
a + 2a − a
0 1 2
5
[a0 + a1 x + a2 x2 ]β = 3a1 − a0 + a2 (∗)
5
a2
Etapa 3. Sustituyendo en la fórmula (∗), tenemos que:
2 2
0
5 5
β
[I]α = 3 − 2 1
5 5 5
0 1 2
Análogamente para [I]αβ , tenemos el mismo proceso. (o bien recordar que esta es la inversa de [I]βα )
56 Profesor Ricardo Santander Baeza 2010
Etapa 1.
Por definición la matriz [I]αβ se construye como: [I]αβ = [x + 3]α [x − 2]α [x2 + 1]α
Etapa 2.
Luego, una buena estrategia es calcular en general: [a0 + a1 x + a2 x2 ]α . Ası́ que
b0
[a0 + a1 x + a2 x2 ]α = b1 ⇐⇒ a0 + a1 x + a2 x2 = b0 x + b1 (x2 + 3) + b2 (2x2 + x)
b2
⇐⇒ a0 + a1 x + a2 x2 = 3b1 + (b0 + b2 )x + (b1 + 2b2 )x2
3b1 = a0
⇐⇒ b0 + b2 = a1
b1 + 2b2 = a2
6a1 − 3a2 − a0 a0 3a2 − a0
=⇒ b0 = ; b1 = ; b2 =
6 3 6
luego,
6a − 3a + a
1 2 0
6
a0
[a0 + a1 x + a2 x2 ]α
= (∗∗)
3
3a2 − a0
6
Etapa 3. Sustituyendo en la fórmula (∗∗), tenemos que:
3 2 1
2 −
3 3
α
2 1
[I]β = 1 −
3 3
1 1 1
−
2 3 3
(b) Determine [1 + x + x2 ]α y [1 + x + x2 ]β Solución
2
3
1
[1 + x + x2 ]α =
3
1
3
Etapa 2. Determinamos [1 + x + x2 ]α usando la fórmula (∗).
Profesor Ricardo Santander Baeza 2010 57
2
5
[1 + x + x2 ]β =
3
5
1
(16) Considere las bases α = {(1, −2, 0), (0, 1, 0), (1, 0, 1)} y β = {(1, 1, 1), (0, 1, 1), (0, 0, 1)} de R3 . Deter-
mine [I]βα e [I]αβ
Solución
[I]βα = ([(1, −2, 0)]β [(0, 1, 0)]β [(1, 0, 1)]β ) ∈ MR (3) (∗)
Luego, debemos resolver la ecuación, (x, y, z) = a1 (1, 1, 1) + a2 (0, 1, 1) + a3 (0, 0, 1) para (x, y, z) ∈ R3 .
e.e.
1 0 1
[I]βα = −3 1 −1 (21)
2 −1 1
Análogamente, para
Debemos resolver la ecuación, (x, y, z) = a1 (1, −2, 0)+a2 (0, 1, 0)+a3 (1, 0, 1) para (x, y, z) ∈ R3 . Es decir
0 −1 −1
[I]αβ = 1 −1 −2 (22)
1 1 1
Finalmente podemos comprobar la calidad de nuestro trabajo!!!
1 0 1 0 −1 −1
[I]βα [I]αβ = −3 1 −1 1 −1 −2
2 −1 1 1 1 1
1 0 0
= 0 1 0
0 0 1
(17) Si P (2) = {1, x, x2 } y α = {1 + x + x2 , −2 − x + x2 , −1 + x + x2 } dos bases de R2 [x] entonces determine
P (2)
[I]α e [I]αP (2)
Solución
P (2)
Etapa 1. Debemos determinar las matrices [I]α e [I]αP (2)
1 −2 −1
[I]Pα (2) = 1 −1 1
1 1 1
Análogamente, para[I]αP (2) tenemos que
a1 − 2a2 − a3 = 1
1 1
a1 − a2 + a3 = 0 =⇒ a2 = 0 ∧ a1 = ∧ a3 = −
a1 + a2 + a3 = 0 2 2
Es decir
1 1
1 = (1 + x + x2 ) + 0(−2 − x + x2 ) − (−1 + x + x2 )
2 2
a1 − 2a2 − a3 = 0
1 1 3
a1 − a2 + a3 = 1 =⇒ a2 = − ∧ a1 = − ∧ a3 =
a1 + a2 + a3 = 0 2 4 4
Es decir
1 1 3
x = − (1 + x + x2 ) − (−2 − x + x2 ) + (−1 + x + x2 )
4 2 4
Y en segundo lugar,
a1 − 2a2 − a3 = 0
1 3 1
a1 − a2 + a3 = 0 =⇒ a2 = ∧ a1 = ∧ a3 = −
a1 + a2 + a3 = 1 2 4 4
60 Profesor Ricardo Santander Baeza 2010
Es decir
3 1 1
x2 = (1 + x + x2 ) + (−2 − x + x2 ) − (−1 + x + x2 )
4 2 4
1
2 − 14 3
4
[I]Pα (2) = 0 − 12 1
2
− 12 3
4 − 14
(18) Si α y β = {(1, 0, 1), (−1, 1, 0), (1, 1, 1)} son dos bases ordenadas de R3 tal que
1 −1 1
[I]βα = 0 −2 1
1 1 1
Es la matriz de cambio de la baseα para la base β entonces determine la base α.
Solución
1 −1 1
Etapa 2. Com la matriz de cambio de base es [I]βα = 0 −2 1 entonces por construcción se debe
1 1 1
verificar que
1 −1 1
[I]βα = 0 −2 1 = ([u1 ]β [u2 ]β [u3 ]β )
1 1 1
Ası́ que
1
[u1 ]β = 0 ⇐⇒ u1 = 1(1, 0, 1) + 0(−1, 1, 0) + 1(1, 1, 1) = (2, 1, 2)
1
−1
[u2 ]β = −2 ⇐⇒ u2 = −1(1, 0, 1) − 2(−1, 1, 0) + 1(1, 1, 1) = (4, −1, 0)
1
1
[u3 ]β = 1 ⇐⇒ u3 = 1(1, 0, 1) + 1(−1, 1, 0) + 1(1, 1, 1) = (1, 2, 2)
1
Por tanto la base buscada es α = {(2, 1, 2), (4, −1, 0), (1, 2, 2)}
(19) Si α = {(2, 1, 2), (4, −1, 0), (1, 2, 2)} es una base de R3 , y u = (1, 2, 3) entonces determine [u]α
Solución
Profesor Ricardo Santander Baeza 2010 61
a
Recordemos que por definición [u]α = b ⇐⇒ (1, 2, 3) = a(2, 1, 2) + b(4, −1, 0) + c(1, 2, 2) entonces
c
a 2a + 4b + c = 1
3 1
[u]α = b ⇐⇒ a − b + 2c = 2 =⇒ a = ∧ b = − ∧ c = 0
c 2a + 2c = 3 2 2
3
2
=⇒ [u]α =
1
−
2
0
CAPITULO 3
Producto Interno
1. Preliminares
Consideremos un K espacio vectorial de dimensión n y α = {v1 , v2 , . . . , vn } una base de V entonces au-
tomáticamente pensamos en el meollo del Algebra Lineal, es decir que, para cada v ∈ V existen únicos
escalares que representan al vector v, en forma teórica o práctica respecto de esa base. En sı́mbolos
a1
n
X a2
v = ai vi ⇐⇒ [v]α = ..
.
i=1
an
Más aún,
[ ]α : V 7−→ MR (n × 1)
v 7−→ [v]α
Es una biyección de espacios vectoriales, y además podemos observar los siguientes puntos centrales:
(1) Dada la base y el vector v, la determinación de los escalares ai , para (i = 1, 2, . . . , n) se realiza a través
de un sistema de ecuaciones.
(2) Lamentablemente la resolución del sistema de ecuaciones implica que la búsqueda es secuencial, esto
es, para conocer ai , por ejemplo debo conocer ai−1 . ¿Y qué tiene de malo una búsqueda secuencial?.
Una respuesta es depende de ¿quién? y ¿qué se ejecuta?.
Por ejemplo
(i) De grano en grano un zorzal se comió una viña, en este caso para el zorzal no hay problema,
probablemente se encuentre ” feliz ”.
(ii) Suponga que desea pedir un préstamo en el Banco U, en esta empresa usted es lo siguiente para
su Ejecutivo de Cuentas:
fulano de tal
5204401-4
casado
empleado
U sted =
..
.
pocos miles
morro 2
latino
¿Cuál cree Ud. qué es la casilla favorita del ejecutivo?.
3
4 Profesor Ricardo Santander Baeza 2010
Acertó en pleno, imagina que el tuviese que leer todas las casillas (posiciones) anteriores a los pocos
miles para pensar en su préstamo, si ası́ fuese, lo más probable es que se quedará sin comprar su
netbook favorito.
• Generó una matriz adecuada, con ceros en la posición que no le interesa, es decir construyó
0
0
..
.
Ejecutivo =
1
0
0
• Procedió a multiplicar por cero, como antaño, para eliminar lo indeseable, es decir
0 fulano de tal
0 5204401-4
* 0 casado +
0 empleado
hEjecutivo, U stedi = , .. ..
. .
1 pocos miles
0 morro 2
0 latino
t
0 fulano de tal
0 5204401-4
0 casado
0 empleado
=
..
..
. .
1 pocos miles
0 morro 2
0 latino
= pocos miles
• Conclusión: No califica
(3) No obstante el resultado de la gestión, hemos obtenido la siguiente moraleja o enseñanza, la cual mod-
elaremos técnicamente como sigue.
Como α = {v1 , v2 , . . . , vn } es una base de V entonces dados los vectores u y v de V existen únicos
escalares tales que:
Profesor Ricardo Santander Baeza 2010 5
a1
n
X a2
v= ai vi ⇐⇒ [v]α = ..
.
i=1
an
y
b1
n
X b2
u= bi vi ⇐⇒ [u]α = ..
.
i=1
bn
entonces definimos, siguiendo al ejecutivo
t t
* b 1 a 1 + b1 a1 b1 ā1
b2 a2 b2 a2 b2 ā2 Xn
hu, viα = .. , .. = .. .. = .. .. = bi āi
. . . . . .
i=1
bn an bn an bn ān
(4) Tenemos por ejemplo:
x
(a) Si V = R2 y α = c(2) = {(1, 0), (0, 1)} entonces [(x, y]c(2) = . Luego,
y
x2
h(x1 , y1 ), (x2 , y2 )i = (x1 y1 ) = x1 x2 + y 1 y 2
y2
x+y
2 , Pues;
(b) Si V = R2 y α = {(1, 1), (1, −1)} entonces [(x, y)]α = x − y
2
x+y x−y
(x, y) = a1 (1, 1) + a2 (1, −1) ⇐⇒ a1 = ∧ a2 =
2 2
Ası́ que,
x + y t x + y
1 1 2 2
h(x1 , y1 ), (x2 , y2 )i = x1 − 2 2
y1 x2 − y 2
2 2
1
= (x1 x2 + y1 y2 )
2
(5) Antes de concluir esta motivación, observamos que a causa de las propiedades del producto de matrices,
el producto debe tener las siguientes propiedades:
(a) hu, ui ≥ 0
En efecto
n
X n
X
hu, ui = h[u]α , [u]α i = [u]tα ¯ =
· [u] ui ūi = |ui |2 ≥ 0
α
i=1 i=1
6 Profesor Ricardo Santander Baeza 2010
En efecto
n
X
hu + v, wi = h[u + v]α , [w]α i = [u + v]tα ¯ =
· [w] (ui + vi )w̄i
α
i=1
n
X n
X n
X
= (ui w̄i + vi w̄i ) = ui w̄i + vi w̄i = hu, wi + hv, wi
i=1 i=1 i=1
(c) De la misma forma que encima verificamos que hu, v + wi = hu, vi + hu, wi
(d) hλ · u, wi = λhu, wi
En efecto
n
X n
X
hλ · u, wi = [λ ¯
· u]tα [w] = λ[u]tα ¯ =
· [w] λ · ui w̄i = λ ui w̄i = λhu, wi
α α
i=1 i=1
En efecto
n
X n
X
hu, wi = ¯
[u]tα , [w] = [u]tα ¯ =
· [w] ui w̄i = wi ūi = hw, ui
α α
i=1 i=1
El producto definido en (1) se llama producto interno canónico de Kn , debe observarse que si K = R entonces
(1) se transforma en:
n
X
h(x1 , x2 , . . . , xn ), (y1 , y2 , . . . , yn )i = xj y j (2)
j=1
Ejemplo 1.1.4. En el espacio vectorial R2 [x] define para cada p(x) ∈ R2 [x] y q(x) ∈ R2 [x] el producto
Para determinar una coordenada hay que ser capaz de tener las coordenadas del vector, es
decir primero debe tener un cliente, y más aún debe conocerlo perfectamente !!!
Esto quiere decir que el concepto de base sigue siendo imprescindible, y lo que pretendemos ahora es sólo
perfeccionarlo.
Equivalentemente
a1
a2
[v]α = .. ∈ MR (n × 1) (7)
.
an
8 Profesor Ricardo Santander Baeza 2010
Ası́, lo expresado en (6) ó (7) es simplemente el ” Objetivo fundamental ” del algebra Lineal, es decir
”Para conocer completamente un vector de V basta conocer sus ” Coordenadas respecto del Sistema de
Información α.”
Entonces parece natural que debamos analizar el efecto del producto interno (si es que lo hay) en el proceso
de búsqueda de coordenadas. Es inmediato de observar que la ventaja del producto es que, permite imple-
mentar la preconcebida máxima ” multiplicate por cero ” la cual sin duda para bien ó para mal reduce en
cualquier caso el problema.
Análisis 2.1. Sea α = {v1 , v2 } una R - base de R2 tal que hv1 , v2 i = 0 entonces como α es base, para v ∈ R2
existen únicos a1 , a2 en K tales que
v = a1 v1 + a2 v2 (8)
hv, v1 i
De donde sigue que, a1 = , observe que hv1 , v1 i > 0, pues es un vector no nulo.
hv1 , v1 i
hv, v2 i
De una forma absolutamente análoga a la anterior obtenemos que a2 =
hv2 , v2 i
Ası́ que, si α = {v1 , v2 } una K - base de R2 tal quehv1 , v2 i = 0 entonces
hv, v1 i hv, v2 i
v = v1 + v2
hv1 , v1 i hv2 , v2 i
Análisis 2.1.1. Intentamos generalizar el análisis anterior. Supongamos que en un V espacio vectorial
con producto interno h, i existe una base α = {v1 , v2 , . . . , vn } tal que hvi , vj i = 0 si i 6= j entonces como
consecuencia del hecho que α es base sigue que,
n
X
u ∈ V =⇒ u = ai vi
i=1
n
* n + n
X X X
u= ai vi =⇒ hu, vj i = ai vi , vj = ai hvi , vj i
i=1 i=1 i=1
=⇒ hu, vj i = aj hvj , vj i
hu, vj i
=⇒ aj = (j = 1, 2, . . . n)
hvj , vj i
Esto es extraordinario, pues en esta condiciones tenemos ”casi el máximo de eficiencia,” ya que,
Profesor Ricardo Santander Baeza 2010 9
hu, v i
1
hv1 , v1 i
hu, v i
n
X 2
hu, vi i
u= vi ⇐⇒ [u]α =
hv2 , v2 i
hvi , vi i ..
i=1 .
hu, v i
n
hvn , vn i
Definición 2.2. Sea V un K-espacio con producto interno h, i y considera α = {v1 , v2 , . . . , vn } ⊂ V entonces
α será llamada una ”Base Ortogonal” si
hu, vi i
(3) La coordenada respecto de la base ortogonal α ai = se llamará el ”i−ésimo coeficiente de Fourier
hvi , vi i
del vector u.”
Ejemplo 2.2.1. c(n) la base canónica de Kn con el producto interno canónico h, i es una base ortogonal, pues
(
1: i=j
hei , ej i =
0: i 6= j
Ejemplo 2.2.2. Sea V = h{1, sen x, cos x, sen 2x, cos 2x, . . . , sen nx, cos nx}i y define en V el producto in-
terno:
Z π
hf, gi = f (t)g(t) dt (9)
−π
entonces α = {1, sen x, cos x, sen 2x, cos 2x, . . . , sen nx, cos nx} es una base ortogonal de V , respecto de (9)
En efecto
Z π
hsen kt, cos sti = sen kt cos st dt k 6= s
−π
Z π
1
= [sen(k + s)t + sen(k − s)t] dt
2 −π
1 1 1
= − cos(k + s)t | π−π + cos(k − s)t | π−π
2 k+s k−s
= 0
Observación 2.2.3. Observamos que la fortaleza de las bases ortogonales, a la hora de determinar las
coordenadas de un vector, radica en el hecho que los productos entre elementos distintos es cero entonces
cobra relevancia preguntar.
(1) ¿Qué significa geométricamente el hecho hvi , vk i = 0?, para i 6= k. Para responder a esto, consideremos
la figura 1, y a partir de ese modelo, usemos el producto interno usual en R2 ,
v2 = (x2 , y2 )
v1 = (x1 , y1 )
θ2
θ
θ1
Figura 1
hv1 , v2 i = 0 ⇐⇒x1 x2 + y 1 y 2 = 0
⇐⇒l(v1 ) cos θ1 l(v2 ) cos θ2 + l(v1 ) sen θ1 l(v2 ) sen θ2 = 0
⇐⇒l(v1 )l(v2 ) cos(θ2 − θ1 ) = 0
⇐⇒l(v1 )l(v2 ) cos θ = 0
π
⇐⇒ θ =
2
Ası́ que la conclusión es que en el plano R2 la condición hv1 , v2 i = 0, significa que las rectas generadas
por los vectores v1 y v2 son perpendiculares.
(2) Las bases ortonormales (ortogonales), se muestran como insuperables en su trabajo, es decir en la
misión de determinar las coordenadas (coeficientes de Fourier) de los elementos del espacio vectorial,
salvo por un detalle, ¿existen en abundancia?, y si lo son ¿son fáciles de ubicar?.
Para responder las preguntas planteadas encima, el análisis anterior nos permite imaginar un modelo
genérico para el caso en que una base de V no cumpla esta propiedad. Es decir si α = {v1 , v2 } es una
base de R2 y hv1 , v2 i =
6 0.
Si hv1 , v2 i =
6 0 entonces de acuerdo a la figura 1, sabemos que v1 no es perpendicular a v2 , ası́ que
podemos suponer sin pérdida de generalidad que los vectores son como en las Figuras de (10).
Profesor Ricardo Santander Baeza 2010 11
Distancia
(10)
v1 Proyección
W = h{v1 }i
(0, 0) ortogonal av1
Figura 2 Figura 3
Entonces,
v2 = v2′ + av1 (11)
Lamentablemente, (11) es una ecuación que liga tres datos y sólo conocemos uno !!!, pero, no todo está
perdido, pues, observen que en virtud de las propiedades del producto interno tenemos.
hv2 , v1 i
v2′ = v2 − v1 (12)
hv1 , v1 i
Luego, tenemos lo siguiente:
α = {v1 , v2 } base de V =⇒ α′ = {v1 , v2′ } es una base ortogonal de V
Lo puede ser generalizada en el siguiente.
Teorema 2.3. (Ortogonalización de Gram-Schmidt) Sea V un K-espacio vectorial con producto interno
h, i y α = {v1 , v2 , . . . , vn } una base V entonces α′ = {v1′ , v2′ , . . . , vn′ } es una base ortogonal, donde los vi′
satisfacen la siguiente ecuación vectorial.
′
v ′ = v − hvj , vj−1 i v ′ − · · · − hvj , v1 i v ′ :
′
j (2 ≤ j ≤ n)
j ′
hvj−1 ′
, vj−1 i j−1
hv1′ , v1′ i 1 (13)
′
v1 = v1
En efecto
12 Profesor Ricardo Santander Baeza 2010
* +
′
hvn , vj−1 i ′ hvn , v1′ i ′ ′
hvn′ , vj′ i = vn − ′ v − · · · − v ,v
′
hvj−1 , vj−1 i j−1 hv1′ , v1′ i 1 j
n−1
X ′
hvn , vn−i i ′
= hvn , vj′ i − hv , v ′ i
hvn−i , vn−i i n−i j
′ ′
i=1
hvn , vj′ i ′ ′
= hvn , vj′ i − ′ ′ hvj , vj i
hvj , vj i
= 0
u ∈ W ⇐⇒ u = (x, y, z, t) ∈ R4 ∧ x + y + z + t = 0
⇐⇒ u = (x, y, z, t) ∈ R4 ∧ t = −x − y − z
⇐⇒ u = (x, y, z, −x − y − z); (x, y, z) ∈ R3
⇐⇒ u = x(1, 0, 0, −1) + y(0, 1, 0, −1) + z(0, 0, 1, −1); (x, y, z) ∈ R3
Luego,
Y, si notamos α = {(1, 0, 0, −1), (0, 1, 0, −1), (0, 0, 1, −1)} entonces α es una base de W, pues son claramente
linealmente independientes.
1
= (0, 1, 0, −1) − (1, 0, 0, −1)
2
1 1
= − , 1, 0, − tomaremos v2′ = (−1, 2, 0, −1)
2 2
1 1
= (0, 0, 1, −1) − (−1, 2, 0, −1) − (1, 0, 0, −1)
6 2
1 1 1
= − , − , 1, −
3 3 3
Luego,
α′ = {(1, 0, 0, −1), (−1, 2, 0, −1), (−1, −1, 3, −1)} es una base ortogonal de W
Observación 2.4. Sea α = {v1 , v2 , . . . , vn } una base ortogonal entonces
(1) Para cada u ∈ V, la representación única en términos de la base α.
n
X hu, vi i
u = vi
hvi , vi i
i=1
Pero, dando una nueva mirada, (interesante preguntarse ¿por qué no lo hicimos antes?), podemos
observar en primer lugar el siguiente fenómeno.
n
X hu, vi i
u = · vi
hvi , vi i
i=1
n
X 1
= · hu, vi i · vi
hvi , vi i
i=1
n
X vi
= hu, vi i ·
hvi , vi i
i=1
vi
Si llamamos β = {v1′ , v2′ , . . . , vn′ }, donde vi′ = entonces tenemos el siguiente ”mejoramiento
hvi , vi i
técnico en la representación de los vectores.”
vi
Teorema 2.5. Si llamamos β = {v1′ , v2′ , . . . , vn′ }, donde vi′ = , para cada i = 1, 2, . . . , n entonces
hvi , vi i
(a) hvi′ , vj′ i = 0 si i 6= j
X n
(b) u = hu, vi i · vi′
i=1
En efecto
14 Profesor Ricardo Santander Baeza 2010
Del punto anterior sigue que β es una base ortogonal y entonces cada u ∈ V se escribe de forma única
como
Xn
u= hu, vi i · vi′
i=1
(2) Nos queda pendiente dilucidar cuanto vale hvi′ , vi′ i. En esta dirección si calculamos obtenemos lo sigui-
ente
vi vi 1
hvi′ , vi′ i = , = hvi , vi i
hvi , vi i hvi , vi i hvi , vi i · hvi , vi i
1
= hvi , vi i (Pues hvi , vi i ∈ R)
hvi , vi i2
Motivados por lo anterior, y aprovechando las propiedades del producto interno hacemos la siguiente
definición
Definición 2.6. Llamaremos normativa o norma inducida por el producto interno imperante en el espacio
vectorial V a la función
p
kk : V 7−→ R+ ∪ {0} tal que kuk = hu, ui
v
uX
u n
Ejemplo 2.6.1. En K tenemos que k(x1 , x2 , . . . , xn )k = t
n |xi |2 . En particular para K = R y n = 2 la
i=1
p
norma k(x1 , x2 )k = x21 + x22 corresponde al módulo del número complejo asociado, o la distancia desde el
origen al punto (x1 , x2 ).
x2 z = (x1 , x2
x2
2
+
x2
1
= p
k
kz
x
(0, 0) x1
Figura 4
Lema 2.6.2. Para cada u ∈ V y v ∈ V se satisface la relación (conocida como desigualdad de Cauchy-
Schwarz)
hu, vi ≤ kuk · kvk (14)
Profesor Ricardo Santander Baeza 2010 15
En efecto
En efecto
p p
(1) Por definición kuk = hu, ui ∈ R+ ∪ {0}, y kuk = 0 ⇔ hu, ui = 0 ⇔ hu, ui = 0 ⇔ u = 0V
p p p
(2) kλuk = hλu, λui == |λ|2 hu, ui = |λ| hu, ui = |λ|kuk
(3) ku + vk2 = hu + v, u + vi = hu, ui + hu, vi + hv, ui + hv, vi = kuk2 + hu, vi + hu, vi + kvk2 . Además
hu, vi + hu, vi = 2Re(hu, vi) ≤ 2kukkvk ( Desigualdad de Cauchy Schwarz)
Ası́ que
ku + vk2 ≤ kuk2 + 2kukkvk + kvk2 = (kuk + kvk)2
Definición 2.7. Sea V un K-espacio con producto interno h, i y considera β = {w1 , w2 , . . . , wn } ⊂ V en-
tonces β será llamada una ”Base Ortonormal” si
Equivalentemente
(
1 : si i = j
β es una base ortonormal ⇐⇒ hvi , vj i =
0 : si i =
6 j
16 Profesor Ricardo Santander Baeza 2010
Ejemplo 2.7.1. β = {(1, 1), (1, −1)} es una base ortogonal respecto del producto interno usual de R2 , pues
h(1, 1), (1, −1)i = 1 − 1 = 0.
Pero como,
√
k(1, 1k) = h(1, 1), (1, 1)i = 2
√
k(1, −1k) = h(1, −1), (1, −1)i = 2
entonces no es una base ortonormal.
(1, 1) (1, 1)
Sin embargo, γ = √ , √ es una base ortonormal.
2 2
Por una parte, si α = {v1 , v2 , . . . , vn } y β = {w1 , w2 , . . . , wn } son dos bases ortonormales entonces por
definición tenemos que
hv1 , w1 i hv2 , w1 i ··· hvn , w1 i
hv1 , w2 i hv2 , w2 i ··· hvn , w2 i
[I]βα = ([v1 ]β [v2 ]β · · · [vn ]β ) = .. .. ..
. . ··· .
hv1 , wn i hv2 , wn i ··· hvn , wn i
Por otra parte, y también por definición tenemos que
n
X
hv, ui = [v]tα · [u]α = hv, vj ihu, vj i
j=1
En efecto
Profesor Ricardo Santander Baeza 2010 17
Sean v ∈ V y u ∈ V entonces
* n n
+
X X
hv, ui = hv, vj ivj , hu, vk ivk
j=1 k=1
n
XX n
= hv, vj ihu, vk ihvj , vk i
j=1 k=1
Xn
= hv, vj ihu, vj i
j=1
v2′
v2
v
(17)
W w1
0V PW (v)
w2
Proyección
W = h{v1 }i
ortogonal av1
Figura 5 Figura6
Definición 3.1. Sean V un K-espacio vectorial con producto interno, W ≤ V y α = {w1 , w2 , . . . , ss }, una
base ortogonal de W entonces llamaremos Proyección ortogonal a la función PW definida como sigue:
S
X hv, wi i
PW : V 7−→ W tal que PW (v) = wi (18)
kwi k2
i=1
u ∈ W ⇐⇒ u = (x, y, t, z) ∈ R4 ∧ x + y − 3z = 0
⇐⇒ u = (x, y, t, z) ∈ R4 ∧ y = 3z − x
⇐⇒ u = (x, 3z − x, t, z)
⇐⇒ u = x(1, −1, 0, 0) + z(0, 3, 0, 1) + t(0, 0, 1, 0)
Luego, W = h{(1, −1, 0, 0), (0, 3, 0, 1), (0, 0, 1, 0)}i. Ası́ que dimR (W ) ≤ 3, por tanto debemos verificar
que α = {(1, −1, 0, 0), (0, 3, 0, 1), (0, 0, 1, 0)} es una base de W , y para ello sólo falta ver que es lineal-
mente independiente. Es decir, debemos mostrar que
(2) A seguir verificamos si α es un base ortogonal, respecto del producto interno usual.
Ası́ obtenemos la base ortogonal α′ = {(1, −1, 0, 0), (0, 0, 1, 0), (3, 3, 0, 2)}.
PW (w) = w ⇐⇒ w ∈ W
En efecto
(1) En primer lugar, w = PW (w) =⇒ w ∈ W. Pues, Img(W) ⊂ W
(2) En segundo lugar, w ∈ W entonces como α = {w1 , w2 , . . . , ws }, una base ortogonal de W sigue que
s
X hw, wi i
w = wi = PW (w)
kwi k2
i=1
Corolario 3.3.1. Sean V un K-espacio vectorial con producto interno, W ≤ V y α = {w1 , w2 , . . . , ss }, una
base ortogonal de W entonces PW ◦ PW = PW .
En efecto
11 −11 0
PW (1, −1, 0, 0) = , , 0, = (1, −1, 0, 0) X( OK)
11 11 11
0 0 0
PW (0, 0, 1, 0) = , , 1, = (0, 0, 1, 0) X( OK)
11 11 11
33 33 22
PW (3, 3, 0, 2) = , , 0, = (3, 3, 0, 2) X( OK)
11 11 11
Finalmente, Si volvemos a remirar el cuadro (10) entonces observamos que hemos resuelto dos de los tres
problemas planteados en él, en efecto, construimos el proceso de ortogonalización de Gram Schmidt, que
esencialmente ”consiste en controlar la sombra que un vector proyecta en un subespacio del espacio, es decir
un vector anula a otro si su proyección en el es nula,” y ahora el de la proyección del espacio en uno de
sus subespacios, pero aún falta desarrollar la idea de distancia de un vector a un subespacio,en realidad
debemos generalizar la idea de distancia entre vectores.
Para ello, reformulemos el cuadro (17)
v v’ v
Distancia
(19)
W w1 W w1
0V PW (v) 0V PW (v)
w2 w2
Figura7 Figura8
v ′ = v − PW (v) =⇒ kv ′ k = kv − PW (v)k
Esto motiva hacer la siguiente definición
10x − y + 3t 10y − x + 3t 3x + 3y + 2t
k(x, y, z, t) − PW (x, y, z, t)k =
(x, y, z, t) − , , z,
11 11 11
11x − 10x + y − 3t 11y − 10y + x − 3t 11t − 3x − 3y − 2t
=
, , 0,
11 11 11
x + y − 3t y + x − 3t 9t − 3x − 3y
=
, , 0,
11 11 11
x + y − 3t y + x − 3t −3(x + y − 3t)
=
, , 0,
11 11 11
Luego,
v !
u
u x + y − 3t 2 y + x − 3t 2 −3(x + y − 3t) 2
d((x, y, z, t), W ) = t + +
11 11 11
v
u
u x + y − 3t 2 y + x − 3t 2 2 !
(x + y − 3t)
= t + +9
11 11 11
s
x + y − 3t 2
= 11
11
Observación 3.5. Con las propiedades obtenidas para la proyección ortogonal, la distancia obtenida hereda
naturalmente las siguientes propiedades:
(1) d(v, W) ≥ 0 ∧ d(v, W) = 0 ⇐⇒ PW (v) = v
(2) PW (v) = v ⇐⇒ v ∈ W
(3) d(v, W) = 0 ⇐⇒ v ∈ W
4. Complemento Ortogonal
En esta sección estaremos interesados en emular el genial comportamiento del plano cartesiano, es decir
queremos generalizar la idea
Luego, λv ∈ W⊥ y W⊥ es un subespacio de V.
n
X
Supongamos que aj vj = 0 para aj ∈ K; (1 ≤ j ≤ n) entonces como ahora podemos multiplicar por vk , y
j=1
obtenemos:
* n + n
X X
0 = aj vj , vk = aj hvj , vk i (1 ≤ k ≤ n) = ak hvk , vk i, (Pues, vi ⊥ vj i 6= j)
j=1 j=1
Reflexión 1
(0, 0) x(1, 0)
Figura9
En fin, todo el mundo entiende la expresión geométrica expuesta encima y por si fuera poco también la
teórica:
(x, y) = x(1, 0) + y(0, 1) (21)
Reflexión 2
(Eje x)⊥
(x, y)
d(x, y)
Eje x
(0, 0) PEje x
Figura 10
Reflexión 3
Sea V un K espacio vectorial de dimensión n. Si V posee un producto interno entonces V ”emula” el com-
portamiento de K2
En efecto
β = {w1 , w2 , . . . , ws , vs+1 , . . . , vn }
α′ = {w1 , w2 , . . . , ws , ws+1
⊥
, . . . , wn⊥ } (22)
s
X hw, wi i
Ası́ que, para cualquier w = wi tenemos que
||wi ||2
i=1
s
X s
X
hw, wi i hw, wi i
hwj⊥ , wi = hwj⊥ , wi i = hwj⊥ , wi i = 0
||wi ||2 ||wi ||2
i=1 i=1
⊥
h{ws+1 , . . . , wn⊥ }i = W⊥
Finalmente
M
V=W W⊥
v ∈ W ∩ W⊥ ⇐⇒ v ∈ W ∧ v ∈ W⊥
⇐⇒ v ∈ W ∧ hv, wi = 0 (∀w; w ∈ W)
⇐⇒ v ∈ W ∧ hv, vi = 0
⇐⇒ v = 0V
W⊥
v = w + w⊥
Figura 11: V = W ⊕ W⊥
(2) A partir de la base canónica c(2) = {(1, 0), (0, 1)} de R2 , determine una base ortogonal c(2)′ , respecto
del producto interno definido en (23)
(4) Determine una base ortogonal, respecto del producto interno usual,para el subespacio.
W = {(x, y, z) ∈ R3 | x + y + z = 0}
(5) Si W = {(x, y, z) ∈ R3 | x + y + z = 0} entonces usando el producto interno usual
(a) Determine W ⊥
(b) Calcule d((1, 1, 1), W )
(c) Demuestre que R3 = W ⊕ W ⊥
(a) Determine W ⊥
(b) Calcule d((1, 1, 0, 0), W )
(c) Demuestre que R4 = W ⊕ W ⊥
26 Profesor Ricardo Santander Baeza 2010
(a) Determine W ⊥
(b) Calcule d((2, 2, 3, −6), W )
(c) Demuestre que R4 = W ⊕ W ⊥
(b) Si W = {A ∈ MR (2) | A = At } entonces determine una base ortogonal de W, respecto del producto
definido en (25)
(c) Determine
PW
1 1
(d) Si A = entonces calcule d(A, W )
1 1
Profesor Ricardo Santander Baeza 2010 27
(♣) Estimular el uso de una sintaxis adecuada en la resolución de problemas que envuelven conceptos
matemáticos.
(♣) Aprender a generar un algoritmo eficaz (ojalá eficiente), para responder al problema planteado.
(♣) Verificar el estado de aprendizaje de los contenidos especı́ficamente relacionados con las propiedades
básicas que debe conocer, y ”en lo posible haber aprehendido” de los tópicos analizados.
6.2. Algunas sugerencias para enfrentar las situaciones problemáticas son las siguientes:
(⋆) Reconozca lo que es información (dato), de lo que es ”incognita”, o lo que a usted se le consulta.
(⋆) Trate de entender en la forma más clara para usted, lo que se le pide, en particular si puede usar
”sinónimos matemáticos”, que le permitan facilitar su respuesta, cuanto mejor!!! Este acto nunca esta
de más.
(⋆) Analice sus datos extrayendo la información que corresponde, orientado por su entendimiento de lo que
debe probar.
(a) Determine, una base ortogonal respecto del producto usual para el subespacio W
(b) Determine W⊥
(a) Determine W⊥
28 Profesor Ricardo Santander Baeza 2010
(b) ¿ Es R3 = W ⊕ W⊥ ?
(6) Considere en el espacio vectorial MR (2) el producto interno. hA, Bi = T r(B t A), y el subespacio
W = {A ∈ MR(2) | A = At }. Determine una base ortonormal de W.
(a) Determine W⊥
(b) Es posible que R4 = W ⊕ W⊥ . Si su respuesta es afirmativa demuestre la afirmación, si es falsa
de un contraejemplo.
(9) En el espacio vectorial R2 [x] define para cada p(x) ∈ R2 [x] y q(x) ∈ R2 [x] el producto interno
(10) Sea (V, h, i) un K espacio vectorial de dimensión n, y α = {v1 , . . . , vn } ⊂ (V − {0V }). Demuestre que
α conjunto ortogonal respecto de h, i =⇒ α conjunto linealmente independiente en V
(11) En R2 [x] el espacio de polinomios hasta grado 2, considere el producto interno
Z 1
hp(x), q(x)i = p(x) · q(x) dx (∗)
−1
(a) Determine una base ortonormal respecto del producto interno definido en (∗) a partir de la base
canónica pol(2) = {1, x, x2 }
(b) Si W = h{1}i entonces determine W⊥
(12) Sea V, h, i un K espacio vectorial tal que dimK (V) = n y sea α = {u1 , u2 , . . . , un } una base de V. Si
α′ = {u′1 , u′2 , . . . , u′n } es una base ortogonal respecto del producto interno h, i obtenida de la base α.
Demuestre que
α Base ortogonal ⇐⇒ α = α′
(13) Sea V, h, i un K espacio vectorial tal que dimK (V) = n, y W ≤ V. Demuestre que
W⊥ = {0V } ⇐⇒ W = V
Profesor Ricardo Santander Baeza 2010 29
(a) Determinemos en primer lugar, una base ortogonal respecto del producto usual para el subespacio
W.
u ∈ W ⇐⇒ u = (x, y, z, t) ∈ R4 ∧ x − 2y + z − 2t = 0
⇐⇒ u = (x, y, z, t) ∈ R4 ∧ x = 2y − z + 2t
⇐⇒ u = (2y − z + 2t, y, z, t)
⇐⇒ u = y(2, 1, 0, 0) + z(−1, 0, 1, 0) + t(2, 0, 0, 1)
⇐⇒ u ∈ h{(2, 1, 0, 0), (−1, 0, 1, 0), (2, 0, 0, 1)}i
Ası́ que
W = h{(2, 1, 0, 0), (−1, 0, 1, 0), (2, 0, 0, 1)}i
Por otra parte, α = {(2, 1, 0, 0), (−1, 0, 1, 0), (2, 0, 0, 1)} es linealmente independiente, porque
v1′ = (2, 1, 0, 0)
h(−1, 0, 1, 0), (2, 1, 0, 0)i
v2′ = (−1, 0, 1, 0) − (2, 1, 0, 0)
h(2, 1, 0, 0), (2, 1, 0, 0)i
−2
= (−1, 0, 1, 0) − (2, 1, 0, 0)
5
2
= (−1, 0, 1, 0) + (2, 1, 0, 0)
5
−1 2
= ( , , 1, 0)
5 5
2
h(2, 0, 0, 1), ( −2
5 , 5 , 1, 0)i −1 2 h(2, 0, 0, 1), (2, 1, 0, 0)i
v3′ = (2, 0, 0, 1) − −1 2 −1 2 ( , , 1, 0) − (2, 1, 0, 0)
h( 5 , 5 , 1, 0), ( 5 , 5 , 1, 0)i 5 5 h(2, 1, 0, 0), (2, 1, 0, 0)i
− 25 −1 2 h(2, 0, 0, 1), (2, 1, 0, 0)i
= (2, 0, 0, 1) − 6 ( 5 , 5 , 1, 0) − (2, 1, 0, 0)
5
h(2, 1, 0, 0), (2, 1, 0, 0)i
1 1 2 4
= (2, 0, 0, 1) + − , , 1, 0 − (2, 1, 0, 0).....
3 5 5 5
Determine W⊥
Solución
30 Profesor Ricardo Santander Baeza 2010
Solución
Solución
Solución
u ∈ W ⇐⇒ u = (x, y, z, t) ∈ R4 ∧ x + y + z + t = 0
⇐⇒ u = (x, y, z, t) ∈ R4 ∧ t = −x − y − z
⇐⇒ u = (x, y, z, −x − y − z); (x, y, z) ∈ R3
⇐⇒ u = x(1, 0, 0, −1) + y(0, 1, 0, −1) + z(0, 0, 1, −1); (x, y, z) ∈ R3
Luego,
Si α = {(1, 0, 0, −1), (0, 1, 0, −1), (0, 0, 1, −1)} entonces α es una base de W, pues son claramente Lin-
ealmente independientes.
1
= (0, 1, 0, −1) − (1, 0, 0, −1)
2
1 1
= − , 1, 0, − tomaremos v2′ = (−1, 2, 0, −1)
2 2
1 1
= (0, 0, 1, −1) − (−1, 2, 0, −1) − (1, 0, 0, −1)
6 2
1 1 1
= − , − , 1, −
3 3 3
Luego
α′ = {(1, 0, 0, −1), (−1, 2, 0, −1), (−1, −1, 3, −1)} es una base ortogonal de W
Solución
32 Profesor Ricardo Santander Baeza 2010
(a) Determine W⊥
Solución
(b) ¿ Es R3 = W ⊕ W⊥ ?
Solución
(6) Considere en el espacio vectorial MR (2) el producto interno. hA, Bi = T r(B t A), y el subespacio
W = {A ∈ MR(2) | A = At }. Determine una base ortonormal de W.
Profesor Ricardo Santander Baeza 2010 33
Solución
A ∈ W ⇐⇒ A ∈ MR(2) ∧ A = At
t
a b a b a b
⇐⇒ A = ∧ =
c d c d c d
a b a b a c
⇐⇒ A = ∧ =
c d c d b d
a b
⇐⇒ A = ∧ b=c
c d
a b
⇐⇒ A = ; (a, b, d) ∈ R3
b d
a 0 0 b 0 0
⇐⇒ A = + +
0 0 b 0 0 d
1 0 0 1 0 0
⇐⇒ A = a +b +d
0 0 1 0 0 1
1 0 0 1 0 0
Ası́ que W = , ,
0 0 1 0 0 1
1 0 0 1 0 0
Ahora, si llamamos α = , , entonces α es una base de W.
0 0 1 0 0 1
En efecto
1 0 0 1 0 0 0 0 a b 0 0
a +b +d = =⇒ = =⇒ a = b = d = 0
0 0 1 0 0 1 0 0 b d 0 0
Ası́ que α, genera y es un conjunto linealmente independiente por tanto es una base.
1 0 0 0 0 0 1 0
, = Tr
0 0 0 1 0 1 0 0
0 0
= Tr
0 0
= 0
34 Profesor Ricardo Santander Baeza 2010
0 1 0 0 0 0 0 1
, = Tr
1 0 0 1 0 1 1 0
0 0
= Tr
1 0
= 0
1 0 1 0 1 0 1 0
, = Tr
0 0 0 0 0 0 0 0
1 0
= Tr
0 0
= 1
Como,
s
1 0
1 0 1 0
1 0
= , =⇒
0 0
0 0 0 0
0 0
=1
0 1 0 1 0 1 0 1
, = Tr
1 0 1 0 1 0 1 0
1 0
= Tr
0 1
= 2
Como,
s
0 1
0 1 0 1
1 0
√
= ,
=⇒
= 2
1 0
1 0 1 0 0 1
Análogamente,
0 0 0 0 0 0 0 0
, = Tr
0 1 0 1 0 1 0 1
0 0
= Tr
0 1
= 1
Como,
s
0 0
0 0 0 0
0 0
= , =⇒
0 1
0 1 0 1
0 1
=1
1
0 √
1 0 2 0 0
α′ = , 1 , 0 1
0 0 √ 0
2
1
hu, vi = [ku + vk2 − ku − vk2 ]
4
Solución
1 1
[ku + vk2 − ku − vk2 ] = [hu + v, u + vi − hu − v, u − vi]
4 4
1
= [hu, ui + hu, vi + hv, ui + hv, vi − (hu, ui − hu, vi − hv, ui + hv, vi)]
4
1
= [4hu, vi]
4
= hu, vi
(8) Si W = {(1, 1, 1, 1), (1, 0, 0, 1)} ⊂ R4 entonces usando el producto interno usual.
(a) Determine W⊥
Solución
Luego,
Solución
(9) En el espacio vectorial R2 [x] define para cada p(x) ∈ R2 [x] y q(x) ∈ R2 [x] el producto interno
(a) Sea α = {1, 1 − x, 1 − x2 } base de R2 [x]. Determine una base ortogonal respecto del producto
interno definido en (26)
Solución
En primer lugar verificamos la ortogonalidad de α = {1, 1 − x, 1 − x2 }.
h1, 1 − xi = 1 · (1 − 0) + 1 · (1 − 1) + 1 · (1 − 2) = 1 + 0 − 1 = 0
h1, 1 − x2 i = 1 · (1 − 02 ) + 1 · (1 − 12 ) + 1 · (1 − 22 ) = 1 + 0 − 3 = −2
h1 − x, 1 − x2 i = (1 − 0) · (1 − 02 ) + (1 − 1) · (1 − 12 ) + (1 − 2) · (1 − 22 ) = 4
Como α no es una base ortogonal entonces aplicamos Gram Schmidt para obtener α′ una base
ortogonal de R2 [x].
Sea entonces
v1′ = 1
v2′ = 1 − x
h(1 − x2 ), (1 − x)i h(1 − x2 ), 1i
v3′ = (1 − x2 ) − · (1 − x) − ·1
h(1 − x), (1 − x)i h1, 1i
4 −2
= (1 − x2 ) − · (1 − x) − ·1
h(1 − x), (1 − x)i h1, 1i
4 2
= (1 − x2 ) − · (1 − x) + · 1
2 3
2
= 1 − x2 − 2 + 2x +
3
1 2
= − + 2x − x
3
′ 1 2
α = 1, 1 − x, − + 2x − x
3
Profesor Ricardo Santander Baeza 2010 37
Solución
p(x) ∈ W ⇐⇒ p(x) = a0 + a1 x + a2 x2 ∈ R2 [x] ∧ a0 = 0
⇐⇒ p(x) = a1 x + a2 x2 ∧ (a1 , a2 ) ∈ R2
Luego,
W = hx, x2 i
Ahora,
q(x) ∈ W⊥ ⇐⇒ q(x) ∈ R2 [x] ∧ [hq(x), xi = 0 ∧ hq(x), x2 i = 0]
q(0) · 0 + q(1) · 1 + q(2) · 2 = 0
⇐⇒ q(x) = b0 + b1 x + b2 x2 ∈ R2 [x] ∧
q(0) · 02 + q(1) · 12 + q(2) · 22 = 0
q(1) + 2q(2) = 0
=⇒ q(x) = b0 + b1 x + b2 x2 ∈ R2 [x] ∧
q(1) + 4q(2) = 0
=⇒ q(x) = b0 + b1 x + b2 x2 ∈ R2 [x] ∧ 2q(2) = 0
=⇒ q(x) = b0 + b1 x + b2 x2 ∈ R2 [x] ∧ q(2) = q(1) = 0
=⇒ q(x) = b0 + b1 x + b2 x2 ∈ R2 [x] ∧ b0 + b1 + b2 = 0 ∧ b0 + 2b1 + 4b2 = 0
=⇒ q(x) = b0 + b1 x + b2 x2 ∈ R2 [x] ∧ b0 = 2b2 ∧ b1 = −3b2
=⇒ q(x) = 2b2 − 3b2 x + b2 x2 ∧ b2 ∈ R
Luego,
W⊥ = h{2 − 3x + x2 }i
Debemos comprobar:
h2 − 3x + x2 , xi = 0 + (2 − 3 + 1) · 1 + (2 − 6 + 4) · 2 = 0
h2 − 3x + x2 , x2 i = 0 + (2 − 3 + 1) · 12 + (2 − 6 + 4) · 4 = 0
(c) Es posible que R2 [x] = W ⊕ W⊥ . Si su respuesta es afirmativa demuestre la afirmación, si es falsa
de un contraejemplo.
Solución
como α = {x, x2 , 2 − 3x + x2 } es una base de R2 [x] entonces cualquier polinomio h(x) ∈ R2 [x] se escribe
únicamente como
h(x) = a0 x + a1 x2 + a2 (2 − 3x + x2 )
| {z } | {z }
∈W ∈W⊥
38 Profesor Ricardo Santander Baeza 2010
(10) Sea V un K e. v. de dimensión n con producto interno h, i, y sea α = {v1 , v2 , . . . , vn } ⊂ (V − {0V }).
Demuestre que
En efecto
n
X
Supongamos que aj vj = 0 aj ∈ K; (1 ≤ j ≤ n) entonces como ahora podemos multiplicar, lo
j=1
hacemos e.e.
Xn
0 = h aj vj , vk i (1 ≤ k ≤ n)
j=1
n
X
= aj hvj , vk i (1 ≤ k ≤ n)
j=1
= ak hvk , vk i (recordar que vi ⊥ vj i 6= j)
Finalmente,
vk 6= 0 =⇒ hvk , vk i =
6 0
(a) Determine una base ortonormal respecto del producto interno definido en (∗) a partir de la base
canónica pol(2) = {1, x, x2 }
Solución
En primer lugar, verificamos la ortogonalidad de pol(2) respecto del producto definido en (∗)
Z 1
x2 1
h1, xi = x dx = | =0
−1 2 −1
Z 1
x3 1 2
h1, x2 i = x2 dx = |−1 =
−1 3 3
Z 1
x4 1
hx, x2 i = x3 dx = | =0
−1 4 −1
Luego, pol(2) no es una base ortogonal, ası́ que aplicamos G-S. Sea
Profesor Ricardo Santander Baeza 2010 39
u′1 = 1
u′2 = x
2
hx2 , xi hx2 , 1i 1
u′3 = x2 − x− · 1 = x2 − 3 · 1 = x2 −
hx, xi h1, 1i 2 3
Luego,
′ 2 1
pol(2) = 1, x, x −
3
Es una base ortogonal de R2 [x] pues,
Z 1
x2 1
h1, xi = | =0
x dx =
−1 2 −1
Z 1 Z
2 1 2 1 1 2 2
1, x − = x dx − dx = − = 0
3 −1 3 −1 3 3
Z 1 Z 1
1 1
x, x2 − = x3 dx − x dx = 0
3 −1 3 −1
Finalmente, basta dividir por la norma para , obtener una base ortonormal de R2 [x]
Solución
(12) Sea V, h, i un K espacio vectorial tal que dimK (V) = n y sea α = {u1 , u2 , . . . , un } una base de V. Si
α′ = {u′1 , u′2 , . . . , u′n } es una base ortogonal respecto del producto interno h, i obtenida de la base α.
Demuestre que
α Base ortogonal ⇐⇒ α = α′
40 Profesor Ricardo Santander Baeza 2010
Solución
Si α es una base ortogonal entonces sabemos que:
(13) Sea V, h, i un K espacio vectorial tal que dimK (V) = n, y W ≤ V. Demuestre que
W⊥ = {0V } ⇐⇒ W = V
Solución
V = W ⊕ W⊥ = W ⊕ {0V } = W
Recı́procamente, si W = V entonces
V = W ⊕ W⊥ = V ⊕ V⊥ =⇒ W ⊥ = {0V } = W
Pues, hw, vi = 0 (∀v; v ∈ V) =⇒ hw, wi = 0 =⇒ w = 0V
Profesor Ricardo Santander Baeza 2010 41
En efecto, como
a11 x1 + . . . + a1m xm = b1 a11 a1m b1
a21 x1 + . . . + a2m xm = b2 a21 a2m b2
.. .. .. .. ⇐⇒ x1 .. + ... + xm .. = ..
. . . . . . .
an1 x1 + . . . + anm xm = bn an1 anm bn
Profesor Ricardo Santander Baeza 2010 43
Ejemplo 8.3.2. El sistema del ejemplo (8.2.1) tiene solución, como visto encima, y por ejemplo
1 2 1 −1
=1· + (−1) · +0·
2 1 −1 1
O mejor, para cada x3 ∈ R:
1 2 1 −1
=1· + (−1 + x3 ) · + x3 ·
2 1 −1 1
Ejemplo 8.3.3. El sistema (8.2.2) no tiene solución, como visto encima, y podemos directamente ver que,
1 2 1 −1
2 = x1 · 1 + x2 · −1 + x3 · 1 =⇒ 1 = 3 (=⇒⇐=)
3 4 2 −2 2
Si consideramos un sistema lineal como el sistema (26) entonces Del teorema (8.3.1), sigue que el sistema
(26) no tiene solución si y sólo si B ∈
/ Ω(A). Por tanto se torna clave el subespacio Ω(A) de MR (n × 1), y
entonces direccionemos nuestras ideas hacia este conjunto:
1. En primer lugar, usaremos en el espacio vectorial MR (n × 1) su producto interno canónico es decir,
t
* a1 b1 + a1 b1
a2 b2 a2 b2 X n
.. , .. = .. · .. = ai bi
. . . .
i=1
an bn an bn
2. Si PΩ(A) : MR (n × 1) 7−→ Ω(A) representa la proyección ortogonal de B en el subespacio Ω(A) entonces
colj (A), B − PΩ(A) (B) = 0 (1 ≤ j ≤ m)
44 Profesor Ricardo Santander Baeza 2010
Equivalentemente
(28)
= b
colj (A)t · B − colj (A)t A · X (1 ≤ j ≤ m)
Luego,
b
B − PΩ(A) (B) ∈ Ω(A)⊥ ⇐⇒ At · B = At A · X (29)
Definición 8.4.1. Dado un sistema lineal de orden (n × m), tal como el definido en (26) entonces cualquier
solución de la ecuación matricial,
b = At · B
At A · X (30)
Teorema 8.4.2. Sea A ∈ MR (n × m). Si ρ(A) = m, (donde ρ(A) es el rango de la matriz A) entonces At ·A
es invertible y el sistema lineal asociado a la matriz A, tiene una única solución por mı́nimos cuadrados
dada por:
b = (At · A)−1 At B
X
x + 4y − 5z = 3
2x + y − z = 2
−x + 2y − 3z = 1 (31)
−2x + 4y − 6z = 7
Profesor Ricardo Santander Baeza 2010 45
Luego, ρ(A) = 3 y ρ(Aa ) = 4, ası́ que por una parte ρ(A) es máximo y por otra el sistema (31) no
tiene solución.
10 −4 8 −8 1 0 0 0.36936168
−4 37 −51 44 ≈ 0 1 0 1.31037985
8 −51 47 −62 0 0 1 0.11689171
Ası́ que la solución por mı́nimos cuadrados es:
0.36936168
b = 1.31037985
X (34)
0.11689171
46 Profesor Ricardo Santander Baeza 2010
Definición 8.5.1. Consideremos una colección finita de puntos del plano; digamos
tal que ai 6= aj para algún i y para algún j, (1 ≤ i ≤ n) y (1 ≤ j ≤ n) entonces la recta “que mejor se ajuste
”a la colección de puntos (35), la llamaremos “recta de mı́nimos cuadrados ”.
y
recta de mı́nimos cuadrados
n•
d5
n
( d4
(• •
d3
d2
•
(
d1
• x
Aplicación 8.5.2. Si suponemos que la ecuación de la recta de mı́nimos cuadrados es dada por al ecuación:
(RM C) : y = m1 x + m0 (36)
(EB) : bi = m1 ai + m0 + di (1 ≤ i ≤ n)
donde;
b1 = m1 a1 + m0 + d1
b2 = m1 a2 + m0 + d2
b3 = m1 a3 + m0 + d3
..
.
bn = m1 an + m0 + dn
Equivalentemente
Profesor Ricardo Santander Baeza 2010 47
b1 a1 1 d1
b2 a2 1
d2
b3 a3 1 m1
= + d3 (37)
.. .. .. m0 ..
. . . | {z } .
bn an 1 X dn
| {z } | {z } | {z }
B A D
Finalmente;
(1) como ai 6= aj , para algún i y para algún j entonces ρ(A) = 2 y entonces del teorema (8.4.2), sigue que
el sistema A · X = B tiene una solución única por mı́nimos cuadrados, dada por X b = (At A)−1 At B
c ocupada 3 4 5 6 7 8 9 10 11 12
(38)
p existente 4.5 5.5 5.7 6.6 7.0 7.7 8.5 8.7 9.5 9.7
• Como el rango de A es 2 entonces hay solución única. Ası́ que debemos calcular At A y At B.
t 645 75 t 598.6
AA= AB=
75 10 73.4
m1 0.583
X = =
m0 2.967
p = 0.583c + 2.967
y su gráfico es de la forma:
13
12
11
10
• •
9
• •
8
7 • •
•
6
• •
5
•
4
3
2
1
0
0 1 2 3 4 5 6 7 8 9 10 11 12 13
Figura 14
Profesor Ricardo Santander Baeza 2010 49
Aplicación 8.6.1. Si suponemos que al menos m + 1 de los ai son distintos entonces podemos aproximar
al conjunto ¶ por un polinomio de la forma:
m
X
PMC : y= ci xi (m ≤ n + 1)
i=0
m
X
bj = ci aij + dj (1 ≤ j ≤ n) (39)
i=0
y dj 6= 0 ⇐⇒ (aj , bj ) ∈
/ (P M C), para 0 ≤ j ≤ n
A partir de (39), podemos construir el sistema de ecuaciones lineales para el polinomio de mı́nimos cuadra-
dos:
b1 1 a1 a21 ... am
1 c0 d1
b2 1 a2 a22 ... am c1 d2
2
.. = .. .. .. .. · .. + .. (40)
. . . . . . .
bn 1 an a2n ... am
n cm dn
| {z } | {z } | {z } | {z }
B A X D
Como existen al menos m + 1, ai distintos entonces ρ(A) = m + 1 y del sistema (40) y del teorema (8.4.2),
sigue que el sistema asociado A · X = B tiene un solución única de la forma X = (At · A)−1 · At · B.
x 0 1 2
Solución
50 Profesor Ricardo Santander Baeza 2010
1 •
•
−2 −1 1 2
−1
−2
−3 •
Figura 15
1.1 1 0 0 a
0.1 = 1 1 1 · b (41)
−3.1 1 2 4 c
| {z } | {z } | {z }
B A X
◦ Calculamos At · A y At · B
1 1 1 1 0 0
At · A = 0 1 2 · 1 1 1
0 1 4 1 2 4
3 3 5
= 3 5 9
5 9 17
1 1 1 1.1
At · B = 0 1 2 · 0.1
0 1 4 −3.1
−1.9
= −6.1
−12.3
Profesor Ricardo Santander Baeza 2010 51
3 3 5 −1.9
[At · A|At · B] = 3 5 9 −6.1
5 9 17 −12.3
1 0 0 1.10001
= 0 1 0 0.09999
0 0 1 −1.09999
1 •
•
−2 −1 1 2
−1
−2
−3 •
Figura 16
8.7. Aproximación por una función. Consideremos una función y = f (x) continua en R y supongamos
que conocemos sólo n valores de ella , digamos f (xi ) = yi ∈ R para 1 ≤ i ≤ n entonces si queremos resolver
el problema planteado al inicio de este Capitulo, debemos considerar las siguientes etapas
• gi (xj ) ∈ R, para (i = 1, 2, . . . , n)
n
X
hh, si = h(xi )s(xi ) (43)
i=1
p
khk = hh, hi
v
u n
uX
= t [h(xi )]2
i=1
Ası́ que f es aproximable por g ∈ W si y sólo si la distancia d(f, g), es mı́nima, esto es equivalente a decir
que (f − g) ∈ W ⊥ .
hgi , f − gi = 0 (i = 1, 2, . . . , n) (44)
n
X
Es decir, que si g = ci gi entonces de (44), sigue que,
i=1
n
X n
X n
X
0 = hgi , f − gi = hgi , f − cj gj i = hgi , f i − hgi , cj gj i = hgi , f i − cj hgi , gj i
j=1 j=1 j=1
Etapa 5. Resumiendo
n
X
g≈f ⇐⇒ hgi , f i = cj hgi , gj i (i = 1, 2, . . . , n)
j=1
n
X n
X n
X
⇐⇒ gi (xj )f (xj ) = cj gi (xk )gj (xk ) (i = 1, 2, . . . , n) (45)
j=1 j=1 k=1
Ejemplo 8.7.1. Supongamos que y = f (x) es una función tal que verifica los valores:
x 0 1 2
f (x) 1.1 0.1 -3.1
y que deseamos aproximar según el método de los mı́nimos cuadrados por la función g(x) = c1 + c2 x2
entonces
g1 (x) = 1
g2 (x) = x2
Figura 17
Ejemplo 8.7.2. Supongamos que la población de una cierta localidad ha variado en el tiempo, según la tabla:
Supongamos que queremos aproximar los puntos de la tabla por una función del tipo:
g(t) = a0 + a1 t + a2 t2
entonces ¿ cúal será la población en el 2000 ?
Según el método de los mı́nimos cuadrados debemos tener para este caso:
• g1 (t) = 1
• g2 (t) = t
• g3 (t) = t2
54 Profesor Ricardo Santander Baeza 2010
Ası́ que:
• a0 = −2.415
• a1 = 1.155
• a2 = −0.075
g(t) = ln a + bt
Es claro que también tenemos que modificar la tabla anterior, es decir (49) se transforma aplicando ln en:
Finalmente si llamamos:
• F (t) = ln f (t)
• c1 = ln a y g1 (t) = 1
• c2 = b y g2 (t) = t
hg1 , F i = 1.686
hg2 , F i = 10.404
hg1 , g1 i = 4
hg1 , g2 i = 22
hg2 , g1 i = 22
hg2 , g2 i = 126
c2 ≈ 0.226 =⇒ b = 0.226
Luego de estos resultados concluimos que:
(3) Si además a cada elemento si asociamos un valor “xi ”, para cada i = 1, 2, . . . , n entonces el vector
x̄(F ) = p1 x1 + p2 x2 + p3 x3 + · · · + pn xn (58)
56 Profesor Ricardo Santander Baeza 2010
v[x(F )] = p1 (x1 − x̄(F ))2 + p2 (x2 − x̄(F ))2 + · · · + pn (xn − x̄(F ))2 (59)
(6) Llamaremos “desviación standar”de x(F ) a:
p
d[x(F )] = v[x(F )] (60)
Ejemplo 9.1.1. Si F representa “el lanzamiento de un peso chileno”, entonces
entonces
Ejemplo 9.1.4. Si las mismas personas A y B deciden hacer la apuesta en (9.1.2), como sigue:
9.2. Un producto interno “estadı́stico”. Sea u = (u1 , u2 , . . . , un ) ∈ Rn un vector fijo entonces define
el producto interno:
n
X
h(x1 , x2 , . . . , xn ), (y1 , y2 , . . . , yn )iu = ui · xi · yi (61)
i=1
Lema 9.2.1. Si F es un evento entonces
(2) v[x(F )] = hx(F ) − x̄(F )(1, 1, . . . , 1), x(F ) − x̄(F )(1, 1, . . . , 1)ip(F )
En efecto
n
X
hx(F ), (1, 1, . . . , 1)ip(F ) = p i · xi · 1
i=1
Xn
= p i · xi
i=1
= x̄(F ) verificar en (58)
Para probar [2] hacemos:
n
X
hx(F ) − x̄(F )(1, 1, . . . , 1), x(F ) − x̄(F )(1, 1, . . . , 1)ip(F ) = pi (xi − x̄(F ))2 (verificar en 59)
i=1
Para probar [3] hacemos:
Luego,
x̄(F, A) = h(10, −10), (1, 1)i
1 1
= · 10 · 1 + · (−10) · 1
2 2
= 0
Si suponemos que es posible asociar a dos comportamientos de F , dos variables aleatorias, digamos x(F, A) =
(x1 , x2 , . . . , xn ) y x(F, B) = (y1 , y2 , . . . , yn ) entonces estudiemos las posibles relaciones entre x(F, A) y
x(F, B).
x(F, A) − x̄(F, A)(1, 1, . . . , 1) = (x1 − x̄(F, A), x2 − x̄(F, A), . . . , xn − x̄(F, A))
x(F, B) − x̄(F, B)(1, 1, . . . , 1) = (y1 − x̄(F, B), y2 − x̄(F, B), . . . , yn − x̄(F, B))
(3) El conjunto
C = {(x1 − x̄(F, A), . . . , xn − x̄(F, A)), (y1 − x̄(F, B), . . . , yn − x̄(F, B))} (62)
es linealmente independiente o linealmente dependiente , ası́ que tenemos dos casos:
Profesor Ricardo Santander Baeza 2010 59
x(F, B) = λx(F, A)
hx(F, A), x(F, B)i hx(F, A), λx(F, A)i λhx(F, A), x(F, A)i
cos θ = = =
kx(F, A)kkx(F, B)k kx(F, A)kkλx(F, A)k |λ|kx(F, A)kkx(F, A)k
(
λkx(F, A)k2 λ 1 : si λ > 0
= = =
|λ|kx(F, A)kkx(F, A)k |λ| −1 : si λ < 0
Luego,
0
θ = ó (63)
π
Es decir,
Ejemplo 9.3.2. Consideremos un grupo de 10 atletas de los cuales conocemos sus registros de 1 a 10 en
dos pruebas; prueba1 y prueba2, según la tabla:
60 Profesor Ricardo Santander Baeza 2010
atleta 1 2 3 4 5 6 7 8 9 10
prueba 1 2 8 5 7 7 5 3 1 9 9
registro
prueba 2 1 9 7 2 7 4 6 3 9 7
Figura 18
hx(F, p1 ) − x̄(F, p1 )(1, 1, . . . , 1), x(F, p2 ) − x̄(F, p2 )(1, 1, . . . , 1)i ≈ 4.9 (73)
1
π
−π
-1
Figura 19 y = f1 (x)
La idea es usar como soporte, ideas trigonométricas. para conectar esos lugares inaccesibles:
4
(1) Partamos graficando la función y = sen x para (−π < x < π)
π
0.5
-3 -2 -1 1 2 3
-0.5
-1
62 Profesor Ricardo Santander Baeza 2010
4 sen 3x
(2) Graficamos la función y = sen x + para (−π < x < π)
π 3
0.5
-3 -2 -1 1 2 3
-0.5
-1
4 sen 3x sen 5x
(3) Graficamos la función y = sen x + + para (−π < x < π)
π 3 5
0.5
-3 -2 -1 1 2 3
-0.5
-1
4 sen 3x sen 5x sen 7x
(4) Graficamos la función y = sen x + + + para (−π < x < π)
π 3 5 7
0.5
-3 -2 -1 1 2 3
-0.5
-1
4 sen 3x sen 5x sen 7x sen 99x
(5) En fin, graficamos, la función y = sen x + + + + ··· + para (−π <
π 3 5 7 99
x < π)
Profesor Ricardo Santander Baeza 2010 63
0.5
-3 -2 -1 1 2 3
-0.5
-1
s
4 X sen(2i − 1)x
Conclusión 10.1.1. Si llamamos gs = , para (s ∈ N) entonces podemos observar lo
π 2i − 1
i=1
siguiente:
(1) A medida que s crece en N, el gráfico de gs , más se parece o mejor copia, a la función f1
(2) Sin embargo, debemos tener cuidado con la comparación de las expresiones analı́ticas de las funciones
involucradas; porque por ejemplo:
π s
4 X sen(2i − 1) π2
gs =
2 π 2i − 1
i=1
Xs
4 (−1)i+1
=
π 2i − 1
i=1
4 1 1 1 1 1 1
= 1− + − + − + ··· +
π 3 5 7 9 11 2s − 1
Luego,
π s
4 X (−1)i+1 π
s
X (−1)i+1
lim gs = lim = 1 =⇒ = lim
s→∞ 2 s→∞ π 2i − 1 4 s→∞ 2i − 1
i=1 i=1
(3) Será necesario entonces ser cuidadoso al referirnos al término aproximación de dos funciones, ya sea
en su gráfico o en sus valores, con estos cuidados podemos escribir
s
X ∞
X
sen(2i − 1)x sen(2i − 1)x
f1 (x) ≈ lim = (−π < x < π)
s→∞ 2i − 1 2i − 1
i=1 i=1
10.2. Copiando una función continua. Consideremos ahora una función continua, f2 (x) = |x|, para
(−π < x < π), cuyo gráfico es de la forma
Figura 20 y = f2 (x)
Al igual que en el caso anterior, podemos aproximar el gráfico de la función por otras funciones:
π 4
(1) Para y = − cos x
2 π
π 4 cos 3x
(2) y = − cos x +
2 π 4
π 4 cos 3x cos 5x
(3) y = − cos x + +
2 π 4 9
Profesor Ricardo Santander Baeza 2010 65
π 4 cos 3x cos 5x cos 99x
(4) y = − cos x + + + ···
2 π 4 9 502
s
X cos(2k − 1)x
π 4
|x| ≈ − lim (−π < x < π)
2 π s→∞ k2
k=1
En efecto
Rπ
Como, hcos nx, cos mxi = −π cos mx cos nx dx entonces para resolver esta integral podemos aplicar las
siguientes propiedades:
Deducimos que
1
cos α cos β =
(cos(α + β) + cos(α − β))
2
Y entonces para n 6= m tenemos que
Z π π Z
1
cos mx cos nx dx = 2 (cos((m + n)x) + cos((m − n)x) dx
−π 0 2
Z π
= (cos((m + n)x) + cos((m − n)x) dx
0 π
1 1
= sen((m + n)x) + sen((m − n)x)
m+n m−n
0
1 1
= sen((m + n)π) + sen((m − n)π) −
m+n m−n
1 1
sen((m + n)0) + sen((m − n)0)
m+n m−n
= 0
Ahora, para n = m
Z π Z π π Z
2 1 + cos 2nx
2
hcos nx, cos nxi = cos nx dx = 2
cos nx dx = 2 dx
−π 0 0 2
Z π π
1
= (1 + cos 2nx) dx = x + sen nx = π
0 2n 0
(
π si n = m
(2) Si n ∈ N y m ∈ N entonces hsen nx, sen mxi =
0 si n 6= m
En efecto
Rπ
Como, hsen nx, sen mxi = −π sen mx sen nx dx entonces para resolver esta integral podemos aplicar
las siguientes propiedades:
(a) De la imparidad de la función seno sigue que sen mx sen nx es una función par, ası́ que
Z π Z π
sen mx sen nx dx = 2 sen mx sen nx dx
−π 0
1
sen α sen β = (cos(α − β) − cos(α + β))
2
Z π Z π
1
sen mx sen nx dx = 2 (cos((m − n)x) − cos((m + n)x) dx = 0
−π 0 2
Ahora para n = m
Z π Z π Z π
2 2 1 − cos 2nx
hsen nx, sen nxi = sen nx dx = sen nx dx = 2 dx
0 0 2
Z−π
π
= (1 − cos 2nx) dx = π
0
En efecto
De la imparidad de la función seno y de la paridad de la función coseno sigue que sen mx cos nx es una
función impar, ası́ que
Z π
sen mx cos nx dx = 0
−π
(4) Si n ∈ N entonces
Rπ
• h1, 1i = −π dx = 2π
Rπ
• h1, sen nxi = −π sen nx dx = 0
Rπ
• h1, cos nxi = −π cos nx dx = 0
Teorema 10.3.3. El conjunto T rigonomn [x] = {1, cos x, cos 2x. . . . , cos nx} ∪ {sen x, sen 2x. . . . , sen nx} es
linealmente independiente (∀n; n ∈ N), y una base para el subespacio generado por T rigonomn [x], se decir,
para hT rigonomn [x]i.
En efecto
68 Profesor Ricardo Santander Baeza 2010
n
X n
X
Si suponemos que ak cos kx + bk sen kx = 0 entonces para s ≥ 0
k=0 k=1
*" n n
# +
X X
ak cos kx + bk sen kx , cos sx = h0, cos sxi =⇒
k=0 k=1
Z " n n
# Z
π X X π
ak cos kx + bk sen kx cos sx dx = 0 dx =⇒
−π k=0 k=1 −π
n
X Z π n
X Z π
ak cos kx cos sx dx + bk sen kx cos sx dx = 0 =⇒
k=0 −π k=1 −π
Xn Z π
ak cos kx cos sx dx = 0 =⇒
k=0 −π
as π = 0 =⇒
as = 0
*" n n
# +
X X
ak cos kx + bk sen kx , cos sx = h0, sen sxi =⇒
k=0 k=1
Z " n n
# Z
π X X π
ak cos kx + bk sen kx sen sx dx = 0 dx =⇒
−π k=0 k=1 −π
n
X Z π n
X Z π
ak cos kx sen sx dx + bk sen kx sen sx dx = 0 =⇒
k=0 −π k=1 −π
Xn Z π
bk sen kx sen sx dx = 0 =⇒
k=1 −π
bs π = 0 =⇒
bs = 0
n
X n
X
f (x) = ak cos kx + bk sen kx (∀n; n ∈ N)
k=0 k=1
* n n
+
X X
hf (x), cos sxi = ak cos kx + bk sen kx, cos sx
k=0 k=1
Z π n
X Z π n
X
= cos sx ak cos kx dx + cos sx bk sen kx dx
−π k=0 −π k=1
n Z
X π
= ak cos sx cos kx dx
k=0 −π
Xn Z π
= ak cos sx cos kx dx
k=0 −π
Z π
= as cos sx cos sx dx
−π
= as π (s ≥ 1)
Por tanto,
Z π
1
as = f (x) cos sx dx (s ≥ 1)
π −π
Y para s = 0
Z π
1
hf (x), 1i = a0 2π =⇒ a0 = f (x) dx
2π −π
Z π
1
bs = f (x) sen sx dx
π −π
Ejemplo 10.3.6. Sea f (x) = x entonces calculemos la serie de Fourier de f (x) = x (∀n; n ∈ N),
(si es posible), es decir;
n
a0 X
x = + ak cos kx + bk sen kx
2
k=1
Para determinar la Serie debemos calcular los coeficientes de Fourier, ak y bk , pero antes de
70 Profesor Ricardo Santander Baeza 2010
2 hπ i 2
bk = − cos(kπ) = (−1)k+1 (k ∈ N)
π k k
∞
X (−1)k+1
x=2 sen(kx)
k
k=1
-3 -2 -1 1 2 3
-1
-2
-3
Figura 21 y=x
Profesor Ricardo Santander Baeza 2010 71
-3 -2 -1 1 2 3
-1
-2
1
X (−1)k+1
Figura 22 y=2 sen(kx)
k
k=1
-3 -2 -1 1 2 3
-1
-2
2
X (−1)k+1
Figura 23 y=2 sen(kx)
k
k=1
3
2
1
-3 -2 -1 1 2 3
-1
-2
-3
50
X (−1)k+1
Figura 24 y=2 sen(kx)
k
k=1
72 Profesor Ricardo Santander Baeza 2010
10.4. Ejercicios Propuestos. Desarrolle en Serie de Fourier en el intervalo [−π, π] las siguientes funciones:
(1) f (x) = ex
∞
π2 X 1
Además demuestre que: =
8 (2k − 1)2
k=1
CAPITULO 4
Si Consideramos dos K espacios vectoriales V y W entonces según lo que hemos discutido en el Capitulo
Espacios Vectoriales, estos espacios sólo tienen sentido si en cada uno de ellos se define claramente las reglas
del juego, es decir se opta por una base que permita representar en forma finita y precisa cada uno de
los vectores de ese espacio como una combinación lineal, o como una imagen matricial usando ”la función
corchete” correspondiente en su espacio coordenado de matrices.
En concreto tenemos para α = {v1 , v2 , . . . , vn } una base de V y para β = {w1 , w2 , . . . , wm } una base de W
la situación:
n
X m
X
v= ai vi w= ci wi
i=1 i=1
∈
∈
?
(V, α) (W, β)
? (1)
MK (n × 1) MK (m × 1) ∈
∈
a1 c1
a2
c2
[v]α = .. [w]β = ..
. .
an cm
En el diagrama (1) vemos que el conector que necesitamos, más que llevar vectores en vectores, debe llevar
combinaciones lineales de V en combinaciones lineales de W. Respecto de esto, tenemos dos antecedentes,
que podemos exhibir:
3
4 Profesor Ricardo Santander Baeza 2010
Es claro que lo anterior es gestión interna, y lo que queremos hacer ahora es gestión externa entre espacios
vectoriales, esta se realizará a través de las aplicaciones naturales entre ellos, las que son conocidas como
transformaciones lineales. Esencialmente lo que se desea es clasificar los espacios vectoriales, respecto del
único criterio que hasta ahora hemos desarrollado, y que es la dimensión del espacio, para ello será necesario:
(1) Construir una transformación lineal sujeta a condiciones entre dos espacios vectoriales de dimensión
finita
(2) Verificar si una transformación lineal es un isomorfismo de espacios vectoriales
(3) Aplicar el teorema de la dimensión, para filtrar la viabilidad de que dos espacios sean o no isomorfos
(4) Construir la representación matricial de una transformación lineal
(5) Relacionar el concepto de inversión matricial e isomorfismo de una transformación lineal.
LK (V) = LK (V, V)
T (u + v) = T ((u1 + v1 , u2 + v2 , u3 + v3 ))
= ((u1 + v1 ) − (u2 + v2 ) + (u3 + v3 ), (u1 + v1 ) + (u3 + v3 ))
= (u1 + v1 − u2 − v2 + u3 + v3 , u1 + v1 + u3 + v3 )
= ([u1 − u2 + u3 ] + [v1 − v2 + v3 ], [u1 + u3 ] + [v1 + v3 ])
= (u1 − u2 + u3 , u1 + u3 ) + (v1 − v2 + v3 , v1 + v3 )
= T ((u1 , u2 , u3 )) + T ((v1 , v2 , v3 ))
= T (u) + T (v)
Profesor Ricardo Santander Baeza 2010 5
En efecto
n
X n
X n
X
(i) Si u = ai vi ∈ V y v = bi vi ∈ V entonces u + v = (ai + bi )vi . Ası́ que
i=1 i=1 i=1
n
! n n
X X X
T (u + v) = T (ai + bi )vi = (ai + bi )T (vi ) = (ai + bi )wi
i=1 i=1 i=1
n n n n n
! n
!
X X X X X X
= ai wi + bi wi = ai T (vi ) + bi T (vi ) = T ai vi +T bi vi
i=1 i=1 i=1 i=1 i=1 i=1
= T (u) + T (v)
n
! n n
X X X
T (λu) = T (λai )vi = (λai )T (vi ) = (λai )wi
i=1 i=1 i=1
n n n
!
X X X
= λ ai wi = λ ai T (vi ) = λT ai vi
i=1 i=1 i=1
= λT (u)
Luego, T ∈ LK (V, W) Esta técnica, se basa en el hecho que es suficiente definir la transformación en
una base, y después se ”extiende por linealidad”
(1) T (0V ) = 0W
En efecto
En efecto
(b) T (α) es linealmente independiente o linealmente dependiente en W. Ası́ que verifiquemos cual es
su condición
n n
!
X X
ai T (vi ) = 0W =⇒ T ai vi = 0W
i=1 i=1
n
!
X
=⇒ T ai vi = T (0V ) (Ver (1))
i=1
n
X
=⇒ ai vi = 0V (T inyectiva)
i=1
=⇒ ai = 0 ( para i = 1, 2, . . . , n), Pues α es linealmente independiente
=⇒ T (α) es linealmente independiente en W
=⇒ dimK (W) ≥ n
Es conveniente recordar que la dimensión de un espacio vectorial es el número máximo
de vectores linealmente independiente soportado por el espacio
En efecto
Profesor Ricardo Santander Baeza 2010 7
(b) Como dimK (V) = n entonces podemos invocar la existencia de una base α = {v1 , v2 , . . . , vn } de
V, y entonces retornando a (∗) tenemos que
n n
!
X X
w ∈ W ⇐⇒ (∃u; u ∈ V) : u = ai vi ∧ T ai vi =w
i=1 i=1
Xn n
X
⇐⇒ (∃u; u ∈ V) : u = ai vi ∧ ai T (vi ) = w
i=1 i=1
⇐⇒ w ∈ h{T (v1 ), T (v2 ), . . . , T (vn )}i
En efecto
T inyectiva =⇒ n ≤ dimK (W)
=⇒ dimK (V) = dimK (W)
T sobreyectiva =⇒ dimK (W) ≤ n
(5) Reciprocamente, supongamos que, dimK (V) = dimK (W) entonces usando la técnica usada en el ejemplo
(1.1.2), podemos construir una transformación lineal, y además biyectiva.
En efecto
T (v1 ) = w1
!
n n
T (v2 ) = w2 X X
.. ∧ T (u) = T ai vi = ai wi (para cada u ∈ V)
.
i=1 i=1
T (vn ) = wn
8 Profesor Ricardo Santander Baeza 2010
n
X n
X
(c) T es inyectiva, pues si u = ai vi y v = bi vi entonces
i=1 i=1
n
X n
X
T (u) = T (v) =⇒ ai wi = bi wi
i=1 i=1
Xn
=⇒ (ai − bi )wi = 0W
i=1
=⇒ ai − bi = 0 (i = 1, 2, . . . , n) ( Pues, β es una base de W)
=⇒ ai = bi (i = 1, 2, . . . , n)
Xn n
X
=⇒ ai vi = bi vi
i=1 i=1
=⇒ u = v
(d) T es sobreyectiva, pues si w ∈ W entonces como β es una base de W existen únicos escalares
n
X
c1 , c2 , . . . , cn tales que w = ci wi . Pero entonces el argumento que sigue es generado por
i=1
construcción, en el siguiente sentido:
n n n
!
X X X
w= ci wi =⇒ w = ci T (vi ) =⇒ w = T ci vi =⇒ w ∈ Img(T )
i=1 i=1 i=1
Definición 3.1. Sean V y W dos K espacios vectoriales y T : V 7−→ W una función. Diremos que T
es un isomorfismo de espacios vectoriales si:
(b) T es biyectiva
(a) V ∼
= W =⇒ dimK (V) = dimK (W)
(b) Recı́procamente, si dimK (V) = dimK (W) entonces existe un isomorfismo de espacios vectoriales,
esta construcción es estándar, pero depende de las bases
En efecto
En efecto
(a) V ∼
= V, pues la función identidad, 1V ∈ LK (V) y es biyectiva
Profesor Ricardo Santander Baeza 2010 9
(b) Si V ∼
= W entonces existe T ∈ LK (V, W) isomorfismo, y como en particular T es biyectiva en-
tonces existe T −1 definida por T −1 (w) = v ⇐⇒ T (v) = w que es biyectiva, además
T (u1 ) = w1 ⇐⇒ u1 = T −1 (w1 )
T (u2 ) = w2 ⇐⇒ u2 = T −1 (w2 )
Ası́ que,
Análogamente,
(c) Si V ∼=WyW∼ = U entonces existen T ∈ LK (V, W) y H ∈ LK (W, U), isomorfismos que verifican
las propiedades:
T H H◦T
V 7−→ W 7−→ U biyectivas entonces V 7−→ U es biyectiva, y
Partamos nuestro análisis conjuntando estos elementos que son anulados por la transformación.
10 Profesor Ricardo Santander Baeza 2010
Definición 4.1. Sean V y W dos K espacios vectoriales y T ∈ LK (V, W) entonces llamaremos núcleo
de T al conjunto
ker(T ) = {u ∈ V | T (u) = 0W }
Demostración
En efecto
u ∈ ker(T ) ⇐⇒ u ∈ V ∧ T (u) = 0W
=⇒ (u + v) ∈ V ∧ T (u + v) = T (u) + T (v) = 0W
v ∈ ker(T ) ⇐⇒ v ∈ V ∧ T (v) = 0W
En efecto
u ∈ ker(T ) ⇐⇒ u ∈ V ∧ T (u) = 0W
=⇒ λu ∈ V ∧ T (λu) = λT (u) = λ0W = 0W
En efecto
u ∈ ker(T ) =⇒ u ∈ V ∧ T (u) = 0W
=⇒ u ∈ V ∧ T (u) = T (0V )
=⇒ u ∈ V ∧ u = 0V (Pues, T es inyectiva)
=⇒ ker(T ) ⊂ {0V }
En efecto
(c) Ahora, Si w ∈ Img(T ) y λ ∈ K entonces existe u ∈ V tal que T (u) = w , de donde sigue que
λw = λT (u) = T (λu) =⇒ λw ∈ Img(T )
Teorema 4.2. Teorema de la dimensión Si V y W son dos K espacios vectoriales tal que dimK (V) =
n con n ∈ N, y T ∈ LK (V, W) entonces
(b) Si s = n, entonces ker(T ) = V pues, ker(T ) ≤ V. Ası́ que T (u) = 0W (∀u; u ∈ V). Por tanto,
Img(T ) = {0W },y
dimK (V) = n + 0
12 Profesor Ricardo Santander Baeza 2010
(c) Si s ≥ 0 entonces a partir de α = {v1 , v2 , . . . , vs } una base de ker(T ) completamos a una base β
de V, como sigue
β = {v1 , v2 , . . . , vs , vs+1 , . . . , vn }
n
X n
X
Luego, para cada u ∈ V tenemos que u = ai vi , y T (u) = ai T (vi ) de donde sigue que
i=1 i=1
n
X n
X
T (u) = ai T (vi ) =⇒ T (u) = ai T (vi ), (Pues,T (vi ) = 0W para 1 ≤ i ≤ s)
i=1 i=s+1
Luego, Img(T ) = h{T (vs+1 ).T (vs+2 ), . . . , T (vn )}i. Ası́ que dimK (Img(T )) ≤ (n − s).
Finalmente verifiquemos si h{T (vs+1 ).T (vs+2 ), . . . , T (vn )}i es linealmente independiente o depen-
diente.
=⇒ a1 = a2 = · · · = an = 0
n
X m
X
v= ai vi T (v) = ci wi
i=1 i=1
∈
∈
T
(V, α) (W, β)
? (2)
MK (n × 1) MK (m × 1) ∈
∈
a1 c1
a2
c2
[v]α = .. [T (v)]β = ..
. .
an cm
En efecto
n
X m
X
Si v = ai vi ∈ (V, α) y T (v) = w = ci wi ∈ (W, β) entonces a nivel de coordenadas debemos
i=1 i=1
tener que
a1
a2
[v]α = .. ∈ MK (n × 1) (3)
.
an
c1
c2
[T (v)]β = [w]β = .. ∈ MK (m × 1) (4)
.
cm
Por otra parte, usando las propiedades de T tenemos que:
n
! n
X X
w = T (v) = T ai vi = ai T (vi ) ∈ W (5)
i=1 i=1
Ahora, combinando la información de (4) y (5) obtenemos una nueva y útil ecuación.
" n # n
X X
[T (v)]β = ai T (vi ) = ai [T (vi )]β (6)
i=1 β i=1
14 Profesor Ricardo Santander Baeza 2010
Como T (vi ) ∈ (W, β), para (i = 1, 2, . . . , n) entonces sus coordenadas en la base β deben ser de la
forma:
ci1
m
ci2
X
[T (vi )]β = .. ⇐⇒ T (vi ) = cij wj = ci1 w1 + ci2 w2 + · · · + cim wm (7)
.
j=1
cim
c1 c11 c21 ci1 cn1
c2
c12
c22
ci2
cn2
.. = a1 .. +a
2 .. + · · · + ai .. + · · · + an .. (8)
. . . . .
cm c1m c2m cim cnm
| {z } | {z } | {z } | {z } | {z }
[T (v)]β [T (v1 )]β [T (v2 )]β [T (vi )]β [T (vn )]β
c1 a1 c11 + a2 c21 + · · · + an cn1 c11 c21 ... cn1 a1
c2
a1 c12 + a2 c22 + · · · + an cn2
c12 c22 ··· cn2
a2
.. = .. = .. .. .. .. (9)
. . . . . .
cm a1 c1m + a2 c2m + · · · + an cnm c1m c2m · · · cnm an
| {z }
[T (v)]β
[T (v)]β = [T (v1 )]β [T (v2 )]β ··· [T (vn )]β [v]α (10)
Definición 5.1. Si V y W son dos K espacios vectoriales tal que dimK (V) = n y dimK (W) = m,
y T ∈ LK (V, W) entonces llamaremos representación matricial de la Transformación lineal T en las
bases α y β a la matriz
[T ]βα = [T (v1 )]β [T (v2 )]β ··· [T (vn )]β ∈ MK (m × n)
Ejemplo 5.1.1. Sea T ∈ LK (R3 , R2 ) tal que T (x, y, z) = (x + y + z, x − y + 3z) y consideremos las
bases de R3 y R2 respectivamente
α = {(1, 1, 1), (1, 1, 0), (1, 0, 0)} y β = {(1, 1), (1, −1)}
En efecto
T
(V, α) (W, β)
[T ]βα
MK (n × 1) MK (m × 1) ∈ (13)
∈
a1 c1
a2
c2
[v]α = .. [T (v)]β = ..
. .
an cm
Observación 5.2.1. La conección expuesta en el diagrama (13), entre la teorı́a y la práctica, siempre
hace referencia a las bases α y β de los espacios vectoriales involucrados, pero en realidad esto no es
una restricción sino más bien una holgura.
16 Profesor Ricardo Santander Baeza 2010
En efecto
Supongamos que tenemos las nuevas bases α′ y β ′ de V y W, respectivamente entonces podemos deter-
′ ′
minar las nuevas matrices: [T ]βα′ ; [T ]βα ; [T ]βα′ . ¿Tienen alguna relación entre si esta matrices?.
Para responder utilicemos nuestros diagramas que permiten conectar ”la gestión interna con la externa”
a
a
rn
rn
[ ]α′ [ ]α [ ]β
te
te
ex
in
n
n
tió
tió
es
es
G
G
MK (n × 1) MK (n × 1) MK (m × 1)
[I]αα′ [T ]βα
′
Relación entre [T ]βα y [T ]βα
T 1W
(V, α) (W, β) (W, β ′ )
a
a
rn
rn
[ ]α [ ]β [ ]β ′
te
te
ex
in
n
n
tió
tió
es
es
G
G
MK (n × 1) MK (m × 1) MK (m × 1)
′
[T ]βα [I]ββ
′ ′
Figura 5: [T ]βα = [I]ββ · [T ]βα
′
Relación entre [T ]βα′ y [T ]βα
Profesor Ricardo Santander Baeza 2010 17
1V T 1W
(V, α′ ) (V, α) (W, β) (W, β ′ )
a
a
a
rn
rn
rn
[ ]α′ [ ]α [ ]β [ ]β ′
te
te
te
ex
in
in
n
n
n
tió
tió
tió
es
es
es
G
G
G
MK (n × 1) MK (n × 1) MK (m × 1) MK (m × 1)
′
[I]αα′ [T ]βα [I]ββ
′ ′
Figura 6: [T ]βα′ = [I]ββ · [T ]βα · [I]αα′
′ ′
T = 1W ◦ T ◦ 1V =⇒ [T ]βα′ = [I]ββ · [T ]βα · [I]αα′
Teorema 5.3. (Segundo criterio de clasificación) Si V y W son dos K espacios vectoriales tal que
dimK (V) = n y dimK (W) = n, y T ∈ LK (V, W) entonces
[ ]α [ ]β [ ]α
[T ]βα [T −1 ]αβ
MK (n × 1) MK (n × 1) MK (n × 1)
T −1 T
(W, β) (V, α) (W, β)
[ ]β [ ]α [ ]β
[T −1 ]αβ [T ]βα
MK (n × 1) MK (n × 1) MK (n × 1)
Solución
Podemos usar cualquier base (condiciones óptimas en el paı́s de origen) de R2 , usemos por eficiencia la
base canónica:
Definamos:
T (1, 0) = (1, 0, 0)
T (0, 1) = (1, 1, 1)
◦ El estudiante debe observar que en este proyecto, la libertad de la construcción está en que puede
escoger cualquier base para definir la transformación lineal, y ası́ obtener una obra que cumpla
Profesor Ricardo Santander Baeza 2010 19
◦ Además debe observar que la respuesta es única (salvo múltiplos), aunque puede elegir cualquiera
de las infinitas bases del espacio.
◦ La palabra eficiencia significa exactamente lo siguiente. Si usa otra conjunto, digamos α, para
definir la transformación debe realizar las siguiente tarea obligada:
• Debe mostrar que α es una base del espacio, con el consiguiente gasto de tiempo y energı́a.
Solución
Aquı́ no podemos usar cualquier base de R2 , pues tenemos una restricción de ”presupuesto”, porque
la condición expuesta esta en el dominio de la función y por tanto no es un resultado.
De acuerdo a la técnica ahora debemos construir una base que contemple la restricción
Si α = {(1, 1), 1, 0}, por ejemplo entonces debemos verificar que α es una base.
◦ Además debe observar que la respuesta no es única, porque tiene la libertad de asignar cualquier
trio en R3 , salvo el origen (0, 0, 0), caso contrario la dimensión del núcleo serı́a 2 y no 1.
◦ La palabra eficiencia significa exactamente aquı́ lo siguiente. Es preciso verificar cada uno de los
pasos del algoritmo empleado en la construcción.
De acuerdo a la técnica que hemos implementado, ya sabemos que debemos construir una base que
contemple la restricción
En esta dirección sabemos que α = {(1, 1), 1, 0}, es una base por el resultado obtenido en el ejemplo 2.
y que
◦ El estudiante debe observar que en este proyecto, la libertad de la construcción es menor, ya que
aunque escoge cualquier base, esta debe considerar el par (1, 1), y el otro par, debe ser definido
en la imagen prefijada.
◦ Este ejercicio o la gama de ejercicios de esta naturaleza, permite no sólo practicar construcciones
sino que además obliga a revisar conceptos anteriores.
Profesor Ricardo Santander Baeza 2010 21
(11) Sean T ∈ LR (R2 ) tal que T (x, y) = (x + 2y, x − y) y α = {(1, −2), (3, 1)} una base de R2
• Determine [T ]αα
c(2)
• Determine [T ]α
• Determine [T ]αc(2)
c(2)
• Calcule [T ]αα · [I]α
c(2) c(2)
• Calcule [I]αc(2) · [T ]c(2) · [I]α
c(2)
• Calcule [I]α · [T ]αα · [I]αc(2)
(12) Sea T ∈ LR (R3 ) tal que, T (x, y, z) = (x + 2y + 2z, x + y, 2y − z) y α = {(1, 0, 1), (0, 1, 1), (0, 0, 1)}, una
base de R3
• Determine [T ]αα
c(3)
• Determine [T ]α
22 Profesor Ricardo Santander Baeza 2010
• Determine [T ]αc(3)
c(3)
• Calcule [T ]αα · [I]α
c(3) c(3)
• Calcule [I]αc(3) · [T ]c(3) · [I]α
c(3) α)
• Calcule [I]α · [T ]αα · [I]c(3)
(13) Sea T ∈ LR (R1 [x], R3 [x]) definida por T (p(x)) = x2 p(x) y considera las bases α = {1, x}, y α′ =
{x, x + 1} de R1 [x] y la base β = {x, x + 1, x2 + 1, x3 } de R3 [x]
p(3)
• Determine [T ]α
p(3)
• Determine [T ]α′
• Determine [T ]βα
• α∗ es una base de V ∗
CAPITULO 5
Diagonalización de operadores
Este capitulo esta destinado a estudiar esencialmente las relaciones que existen entre los isomorfismos y
las representaciones a través de matrices diagonales. Las competencias que adquirirá el alumno después de
interactuar con esta información, se resumen en los siguientes procesos:
• Verificar a través de un cálculo directo, si una transformación de un espacio en si mismo (operador),
puede o no representarse a través de una matriz diagonal.
• Concluir si un operador que se representa a través de una matriz diagonal es o no un isomorfismo.
• Determinar la existencia o la no existencia de una base que permita representar a un operador a través
de una matriz diagonal.
(5) ¿Bajo que condiciones existe una tal base α de V que representa en forma diagonal a un operador T ?
Ası́ que,
(2) Es claro que si una tal base existe, debe satisfacer la propiedad
T (vi ) = aii vi ( para cada i = 1, 2, . . . , n)
Ası́ que la vı́a para encontrar una tal base α, es estudiar este tipo de comportamiento, es decir estudiar
la solución en V de una ecuación del tipo
T (v) = λv (Para cada λ ∈ K)
Observación 2.2. Si V es un K espacio vectorial, y consideremos la ecuación T (v) = λv, para algún λ ∈ K
entonces
Si v = 0V entonces como T (0V ) = 0V , λ puede ser cualquier escalar.
T (v) = λv ⇐⇒ λv − T (v) = 0V
⇐⇒ λ1V (v) − T (v) = 0V (1V es el operador identidad)
⇐⇒ (λ1V − T )(v) = 0V
⇐⇒ v ∈ ker(λ1V − T ) ((λ1V − T ), es un operador lineal)
⇐⇒ dimK ker(λ1V − T ) ≥ 1 (v 6= 0V )
⇐⇒ ker(λ1V − T )) 6= 0V ( No inyectiva)
⇐⇒ det([λ1V − T ]αα ) = 0V (Para cualquier base α de V) (⋆)
Detengamos un momento nuestro análisis, para determinar quien es este determinante, que aparece en
la etapa marcada (⋆)
(1) v 6= 0V
Teorema 2.4. Sea V un K espacio vectorial de dimensión n ∈ N, y T ∈ LK (V) entonces para cada λ ∈ K
Vλ = {v ∈ V | T (v) = λv} ≤ V
En efecto
(2) Si u ∈ Vλ y v ∈ Vλ entonces
u ∈ Vλ ⇐⇒ u ∈ V ∧ T (u) = λu
=⇒ (u + v) ∈ V ∧ T (u + v) = T (u) + T (v) = λu + λv = λ(u + v)
v ∈ Vλ ⇐⇒ v ∈ V ∧ T (v) = λv
Ası́ que, (u + v) ∈ Vλ
(3) Si u ∈ Vλ y γ ∈ K entonces
u ∈ Vλ ⇐⇒ u ∈ V ∧ T (u) = λu
=⇒ γu ∈ V ∧ T (γu) = γT (u)
=⇒ γu ∈ V ∧ T (γu) = γλu
=⇒ γu ∈ V ∧ T (γu) = λγu
=⇒ γu ∈ Vλ
Luego, Vλ ≤ V (∀λ; λ ∈ K)
En general
A ∈ (MR (3 × 1))λ ⇐⇒ A ∈ MR (3 × 1) ∧ T (A) = λA
x x x
⇐⇒ A = y ∧ T y = λ y
z z z
x x + 2z x
⇐⇒ A = y ∧ y − z = λ y
z −z z
x x + 2z = λx
⇐⇒ A = y ∧ y−z = λy (∗)
z −z = λz
Caso 1. λ = 1. De (∗) sigue que
Es una base de MR (3 × 1) y que en esa base el operador T se representa como una matriz diagonal
En efecto
1 0 −1
1
[T ]αα = T 0 T 1 T
0 0 2
α α 1 α
1 0 0
= 0 1 0
0 0 −1
Ejemplo 2.4.3. Sea T ∈ LR (R3 ) tal que T (x, y, z) = (3x + z, 3y + 2z, −z). Determinemos valores y vectores
propios de T .
PT (λ) = 0 ⇐⇒ (λ − 3)2 (λ + 1) = 0
=⇒ λ1 = 3 ∨ λ2 = −1)
. Luego, los valores propios son V.P = {3, −1}
u ∈ R3 λ
⇐⇒ u ∈ R3 ∧ T (u) = λu
⇐⇒ u = (x, y, z) ∧ T (x, y, z) = λ(x, y, z)
⇐⇒ u = (x, y, z) ∧ T (x, y, z) = (λx, λy, λz)
⇐⇒ u = (x, y, z) ∧ (3x + z, 3y + 2z, −z) = (λx, λy, λz)
3x + z = λx
⇐⇒ u = (x, y, z) ∧ 3y + 2z = λy (⋆)
−z = λz
(2) Evaluamos (⋆) en los valores propios:
• λ=3
3x + z = 3x
3
u∈ R 3
⇐⇒ u = (x, y, z) ∧ 3y + 2z = 3y
−z = 3z
⇐⇒ u = (x, y, z) ∧ z = 0
⇐⇒ u = (x, y, 0); x ∈ R; y ∈ R
⇐⇒ u = x(1, 0, 0) + y(0, 1, 0)
⇐⇒ R3 3
= h{(1, 0, 0), (0, 1, 0)}i
• λ = −1
3x + z = −x
3
u∈ R −1
⇐⇒ u = (x, y, z) ∧ 3y + 2z = −y
−z = −z
⇐⇒ u = (x, y, z) ∧ z = −4x : y = 2x
⇐⇒ u = (x, 2x, −4x); x ∈ R
⇐⇒ u = x(1, 2, −4)
⇐⇒ R3 −1 = h{(1, 2, −4)}i
(3) Sea α = {(1, 0, 0), (0, 1, 0), (1, 2, −4)} entonces como
[T ]αα = [T (1, 0, 0)]α [T (0, 1, 0)] α [T (1, 2, −4)]α (2)
Profesor Ricardo Santander Baeza 2010 9
y,
• T (1, 0, 0) = 3(1, 0, 0)
• T (0, 1, 0) = 3(0, 1, 0)
• T (1, 2, −4) = −(1, 2, −4)
3 2 1 λ 0 0
c(3) c(3)
• [T ]c(3) = 0 3 2 ∧ [λ1V ]c(3) = 0 λ 0
0 0 −1 0 0 λ
(λ − 3) −2 −1
• PT (λ) = det 0 (λ − 3) −2 = (λ − 3)2 (λ + 1)
0 0 (λ + 1)
• λ=3
3x + 2y + z = 3x
3
u∈ R 3
⇐⇒ u = (x, y, z) ∧ 3y + 2z = 3y
−z = 3z
⇐⇒ u = (x, y, z) ∧ z = 0; y = 0
⇐⇒ u = (x, 0, 0); x ∈ R
⇐⇒ u = x(1, 0, 0)
⇐⇒ R3 3
= h{(1, 0, 0)}i
• λ = −1
3x + 2y + z = −x
3
u∈ R −1
⇐⇒ u = (x, y, z) ∧ 3y + 2z = −y
−z = −z
⇐⇒ u = (x, y, z) ∧ z = −2y; x = 0
⇐⇒ u = (0, y, −2y); y ∈ R
⇐⇒ u = x(0, 1, −2)
⇐⇒ R3 −1
= h{(0, 1, −2)}i
Luego, no existe una base de vectores propios α tal que T se represente como una matriz diagonal.
Los Ejemplos 2.4.2, 2.4.3 y 2.4.4 sugieren las siguientes reflexiones:
Reflexiones 2.4.5. En ejemplo 2.4.2 y 2.4.3 aseguramos que el conjunto α de vectores propios era una base
de MR (3 × 1) y R3 respectivamente, en realidad esto es producto del siguiente suceso
a1 u + a2 v = 0V a λu + a2 λv = 0V
=⇒ 1 =⇒ a2 (λ − µ)v = 0V =⇒ a2 = 0
a1 λu + a2 µv = 0V a1 λu + a2 µv = 0V
Profesor Ricardo Santander Baeza 2010 11
Análogamente,
a1 u + a2 v = 0V a µu + a2 µv = 0V
=⇒ 1 =⇒ a1 (λ − µ)u = 0V =⇒ a1 = 0
a1 λu + a2 µv = 0V a1 λu + a2 µv = 0V
(2) Si llamamos multiplicidad algebraica de λ en sı́mbolos m.a.(λ) a las veces que el valor propio λ, aparece
repetido enPT (λ), y multiplicidad geométrica de λ en sı́mbolos, m.g.(λ) a la dimensión del subespacio
propio R3 λ entonces
(5)
Lo que significa que:
PT (λ) = (λ − 3)2 (λ + 1) ∧ R3 = R3 3 ⊕ R3 −1
| {z } | {z }
dim 2 dim 1
• En (2.4.4), tenemos el siguiente comportamiento:
(7)
Lo que se traduce en:
PT (λ) = (λ − 3)2 (λ + 1) ∧ R3 3 ⊕ R3 −1 ≤ R3
| {z } | {z }
dim 1 dim 1
(3) Luego, existe una relación importante entre los conceptos: m.a.(λ), m.g.(λ) y la existencia de una base
de vectores propios de V .
Ası́ que llega la hora de formalizar y buscar relaciones entre estos conceptos claves.
12 Profesor Ricardo Santander Baeza 2010
(2) Sea u ∈ (V )λ0 entonces T (u) = λ0 u. Ahora atención con la siguiente idea central !!!
T (T (u)) = T (λ0 u)
= λ0 T (u)
Luego,
u ∈ (V )λ0 =⇒ T (u) ∈ (V )λ0 (9)
(3) Lo obtenido en (9), nos permite decir que
T (V )λ0 ⊂ (V )λ0 (10)
La propiedad expresada en (10), técnicamente significa” (V )λ0 es un subespacio invariante de T ”, pero
más allá de tecnicismos, esta propiedad se usa para definir nuevas funciones a partir de la función
original, como sigue:
En efecto
s
Y
PT (λ) = (λ − λi )ni ; (λi 6= λj si i 6= j)
i=1
Vλ2 . . .
Vλs
Vλ1
(1) Es impracticable si el número de valores propios es grande (a menos que usemos el computador, Maple,
Matlab, Matemática, etc. )
(2) Es posible que en muchos casos, se desee saber sólo, si el operador es diagonalizable o no; en tal caso
se necesita una técnica diferente.
4. Un Criterio de Diagonalización
Como vimos en los ejemplos (2.4.3) (2.4.4) el polinomio caracterı́stico es PT (λ) = (λ − 3)2 (λ + 1). Sin em-
bargo en un caso T diagonaliza y en el otro no diagonaliza, la razón expuesta es que la m.a(3) = m.g(3) = 2
en el primer caso y m.a(3) = 2 > m.g(3) = 1 en el segundo caso, pero por las precisiones anteriores resulta
demasiado caro en tiempo y espacio esta solución, ası́ que implementaremos otra técnica que no tenga tales
Profesor Ricardo Santander Baeza 2010 15
deficiencias, pero como siempre nada es gratis ası́ que de acuerdo a la ley de costo beneficio hay que asumir
algún costo, que en este caso consiste en generar o mejor generalizar alguna ideas.
4.1. El Fundamento Conocido de Kn [x]. En este apartado, revisaremos las propiedades fundamentales
del anillo de polinomios, con miras a ser generalizadas en beneficio de nuestro estudio.
n
X
2 n
p(x) ∈ Kn [x] ⇐⇒ p(x) = a0 + a1 x + a2 x + · · · + an x ⇐⇒ p(x) = ai xi , donde x0 = 1
i=0
n
X
(2) Cada polinomio de la forma; p(x) = ai xi ∈ Kn [x], ”actúa naturalmente como función sobre el
i=0
cuerpo K”, como sigue
n
X
p(x) : K 7−→ K; tal que u ∈ K 7−→ p(u) = ai ui
i=0
(4) En realidad, lo anterior tiene sentido porque en K, se verifican naturalmente las siguientes propiedades:
• u ∈ K ∧ a ∈ K =⇒ a · u ∈ K
• En particular, u ∈ K =⇒ us ∈ K (∀s; s ∈ N)
(5) Ası́ que ” en cualquier conjunto que sus elementos posean estas propiedades, podemos hacer actuar al
anillo de polinomios”, Kn [x]
4.2. Generalización al Anillo de Matrices. En concordancia con las ideas desarrolladas en la sección
anterior, podemos iniciar nuestro proceso de generalización haciendo la definición
Definición 4.2.1. Cada p(x) ∈ Kn [x] actuará sobre el anillo y espacio vectorial MK (s) como sigue:
n
X
p(x) : MK (s) 7−→ MK (s) tal que A ∈ MK (s) 7−→ p(A) = ai Ai donde A0 = In
i=0
Ejemplo 4.2.2. En este ejemplo aprovecharemos, valga la redundancia, de analizar la situación presentada
por los ejemplos (2.4.3) y (2.4.4) a la luz de esta nueva herramienta. Sabemos que en ambos ejemplos el
polinomio caracterı́stico es PT (λ) = (λ − 3)2 (λ + 1) entonces
2
3 0 1 1 0 0 3 0 1 1 0 0
c(3)
PT [T ]c(3) = 0 3 2 − 3 0 1 0 0 3 2 + 0 1 0
0 0 −1 0 0 1 0 0 −1 0 0 1
2
0 0 1 4 0 1 0 0 −4 4 0 1
= 0 0 2 0 4 2 = 0 0 −8 0 4 2
0 0 −4 0 0 0 0 0 16 0 0 0
0 0 0
= 0 0 0
0 0 0
(1)
Si llamamos mT (λ) = (λ − 3)(λ + 1) entonces en Ejemplo (2.4.3) tenemos que
3 0 1 1 0 0 3 0 1 1 0 0
(1) c(3)
mT [T ]c(3) = 0 3 2 − 3 0 1 0 0 3 2 + 0 1 0
0 0 −1 0 0 1 0 0 −1 0 0 1
0 0 1 4 0 1
= 0 0 2 0 4 2
0 0 −4 0 0 0
0 0 0
= 0 0 0
0 0 0
2
3 2 1 1 0 0 3 0 1 1 0 0
c(3)
PT [T ]c(3) = 0 3 2 −3 0 1 0 0 3 2 + 0 1 0
0 0 −1 0 0 1 0 0 − 0 0 1
2
0 2 1 4 0 1 0 0 0 4 0 1
= 0 0 2 0 4 2 = 0 0 −8 0 4 2
0 0 −4 0 0 0 0 0 16 0 0 0
0 0 0
= 0 0 0
0 0 0
(2)
Y si llamamos mT (λ) = (λ − 3)(λ + 1) entonces en el Ejemplo (2.4.4) tenemos que
Profesor Ricardo Santander Baeza 2010 17
3 2 1 1 0 0 3 0 1 1 0 0
(2) c(3)
mT [T ]c(3) = 0 3 2 − 3 0 1 0 0 3 2 + 0 1 0
0 0 −1 0 0 1 0 0 −1 0 0 1
0 2 1 4 0 1
= 0 0 2 0 4 2
0 0 −4 0 0 0
0 8 4
= 0 0 0
0 0 0
3 2 1
Ejemplo 4.3.1. p(x) = (x − 3)2 (x + 1) ∈ I(A) si A = 0 3 2
0 0 −1
Observación 4.3.2. Para el conjunto I(A) tenemos las siguientes propiedades:
(1) Si p(x) ∈ I(A) y q(x) ∈ I(A) entonces (p(x) − q(x))(A) = p(A) − q(A) = (0)
Teorema 4.4. (Teorema de Cayley) Si A ∈ MK (n) entonces PA (λ) = det(λIn − A) ∈ I(A), es decir
PA (A) = (0)
En efecto
18 Profesor Ricardo Santander Baeza 2010
n−1
!
X
(λIn − A)Adj(λIn − A) = (λIn − A) λi Bi
i=0
n−1
X n−1
X
= λi+1 Bi − λi ABi
i=0 i=0
−AB0 = b0 In
−AB0 = b0 In
AB0 − A2 B1 = b1 A
B0 − AB1 = b1 In
A2 B1 − A3 B2 = b2 A2
B1 − AB2 = b2 In
A3 B2 − A4 B3 = b3 A3
B2 − AB3 = b3 In
=⇒ . . . . . . . . . . . . . . . . . . . . . . . .........
.............. . ......
An−2 Bn−3 − An−1 Bn−2 = bn−2 An−2
Bn−3 − ABn−2 = bn−2 In
An−1 Bn−2 − An Bn−1 = bn−1 An−1
Bn−2 − ABn−1 = bn−1 In
An Bn−1 = An
Bn−1 = In
(0) = PA (A)
(Hemos multiplicado por A, A2 , . . . , An−2 , y sumado miembro a miembro)
Corolario 4.4.1. Si T ∈ LK (V) entonces para cualquier base α de V,
PT (λ) = det(λIn − [T ]αα ) ∈ I([T ]αα )
Definición 4.5. Sea A ∈ MK (n) entonces diremos que mA (λ) es el polinomio mı́nimo de A si:
Profesor Ricardo Santander Baeza 2010 19
Ejemplo 4.5.2. En (2.4.4) PT (λ) = (λ − 3)2 (λ + 1) y el polinomio minimal es: mT (λ) = (λ − 3)2 (λ + 1)
Como también sabemos en (2.4.3) T es diagonalizable y en (2.4.4) T no es diagonalizable, luego la diferencia
es el polinomio minimal, respecto de este tenemos los siguientes resultados:
Sea A = [T ]αα , donde α es una base cualquiera de V entonces sabemos que A diagonalizable si y sólo si existe
una base β; de vectores propios de V; y en tal caso se verifica la identidad:
−1
A = [I]αβ [T ]ββ [I]βα = [I]αβ [T ]ββ [I]αβ
= (λ − 3)[(λ + 1)(λ + 3) + 1]
= (λ − 3)[λ2 + 4λ + 4]
= (λ − 3)(λ + 2)2
Luego, los valores propios son:
V.P = {−2, 3}
Etapa 2. Verifiquemos si T es diagonalizable:
−4 0 1 1 0 1
(A − 3I3 )(A + 2I3 ) = 2 0 4 2 5 4
−1 0 −6 −1 0 −1
6= 0
Ası́ que T no es diagonalizable.
= λλ2 − 1
= λ3 − 1
= (λ − 1)(λ2 + λ + 1)
Luego, el valor propio real es:
V.P = {1}
Etapa 2. Verifiquemos si T es diagonalizable:
0 0 0 0
m(2) 0 1 −1 0
A = [T ]m(2) =
0 −1
1 0
0 0 0 0
= λ3 (λ − 2)
V.P = {0, 2}
Luego,
m.a(0) = 3 ∧ m.g(0) = 3
=⇒ T diagonalizable
m.a(2) = 1 ∧ m.g(2) = 1
3 1 −1
(4) Sea A = 2 2 −1 entonces
2 2 0
• det(A) = 4, luego A es invertible
(λ − 3) −1 1
PT (λ) = det −2 (λ − 2) 1
−2 −2 λ
(λ − 1) 1 − λ 0
= det −2 (λ − 2) 1
−2 −2 λ
(λ − 2) 1 −2 1
= (λ − 1) det − (1 − λ) det
−2 λ −2 λ
= (λ − 1)(λ(λ − 2) + 2) + (λ − 1)(−2λ + 2)
= (λ − 1)[λ2 − 2λ + 2 − 2λ + 2]
= (λ − 1)(λ − 2)2
= −λ3 + 5λ2 − 8λ + 4
2 1 −1 1 1 −1
(A − I3 )(A − 2I3 ) = 2 1 −1 2 0 −1
2 2 −1 2 2 −2
2 0 −1
= 2 0 −1
2 0 2
6= (0)
Luego A, no es diagonalizable.
• Podemos usar el polinomio caracterı́stico para, calcular A−1 , como sigue:
Etapa 2. Datos:
r s n
!
X X X
T (u) = T ai vi + ai vi + ai vi
i=1 i=r+1 i=s+1
r
X s
X n
X
= ai T (vi ) + ai T (vi ) + ai T (vi )
i=1 i=r+1 i=s+1
r
X s
X n
X
= ai λ1 vi + ai λ2 vi + ai λ3 vi
i=1 i=r+1 i=s+1
r
X s
X n
X
= λ1 ai vi + λ2 ai vi + λ3 ai vi
i=1 i=r+1 i=s+1
(b) ¿ T es diagonalizable ?
λ1
..
.
λ1
λ2
..
[T ]αα =
.
(19)
λ2
λ3
..
.
λ3
(c) ¿ T es un isomorfismo ?
T isomorfismo ⇐⇒ λ1 λ2 λ3 6= 0
⇐⇒ λi 6= 0 (∀i; i = 1, 2, 3)
(d) ¿ T −1 es invertible ?
T (u) = v ⇐⇒ u = T −1 (v)
Ası́ que en particular, tenemos
Para 1 ≤ i ≤ r
1
T (vi ) = λ1 vi ⇐⇒ vi = λ1 T −1 (vi ) ⇐⇒ T −1 (vi ) = λ1 vi
Para r + 1 ≤ i ≤ s
1
T (vi ) = λ2 vi ⇐⇒ vi = λ2 T −1 (vi ) ⇐⇒ T −1 (vi ) = λ2 vi
Para s + 1 ≤ i ≤ n
1
T (vi ) = λ3 vi ⇐⇒ vi = λ3 T −1 (vi ) ⇐⇒ T −1 (vi ) = λ3 vi
S = {a ∈ R | A es diagonalizable}
1 a
(4) Dada la matriz A = . Determine el conjunto:
0 1
S = {a ∈ R | A es diagonalizable}
(5) Sea T ∈ LK (V) tal que T ◦ T = 0. Determine valores y vectores propios de T .
• Demuestre que:
A diagonalizable =⇒ A−1 diagonalizable
• Si A diagonalizable. Determine los subespacios propios de A−1
7. Aplicaciones
(2) Modelo 1
Hipótesis de Trabajo
Suponemos que una cierta especie crece a una tasa de crecimiento constante en el tiempo (el tiempo,
puede ser una hora, un dı́a, una semana, un mes, un año, etc.)
Ası́ si pt , representa la población después de t, periodos entonces la ecuación que rige el crecimiento de
dicha población es:
(ii) En general el número de crı́as que puede generar una hembra depende de su edad
(5) Modelo 2
Hipótesis de Trabajo
Se estudiará un modelo de crecimiento poblacional, para una especie de pájaros, que satisface las sigu-
ientes condiciones:
(3) α=probabilidad con que los pájaros jóvenes que sobreviven y llegan a adulto en el año n.
(4) k= promedio de pájaros hembras jóvenes, generado por las hembras adultas que sobreviven.
(5) β= probabilidad con que los pájaros adultos sobreviven de una primavera para otra.
(6) Toda la información anterior puede ser computada vı́a las ecuaciones:
p(j, n) = kp(α, n − 1)
(21)
p(a, n) = αp(j, n − 1) + βp(a, n − 1)
Profesor Ricardo Santander Baeza 2010 27
Equivalentemente
p(j, n) 0 k p(j, n − 1)
= (22)
p(j, n − 1) α β p(a, n − 1)
| {z } | {z } | {z }
p(n) A p(n−1)
Es decir;
PA (λ) = 0 ⇐⇒ λ2 − λβ − kα = 0
p
β± β 2 + 4kα
⇐⇒ λ =
2
√ √
β+ β 2 +4kα β+ β 2 −4kα
(ii) Si λ1 = 2 y λ2 = 2 entonces λ1 > λ2 y |λ1 | > |λ2 |
28 Profesor Ricardo Santander Baeza 2010
• Sea α = {v1 , v2 }, base de vectores propios de MR (2), correspondiente a los valores propios
λ1 y λ2 , respectivamente entonces valen las siguientes propiedades:
(i) Como p(0) ∈ MR (2) y α es base de MR (2) entonces existen únicos escalares a1 , a2 tales
que
p(j, 0)
p(0) = = a1 v1 + a2 v2
p(a, 0)
(i) La tasa de nacimiento y muerte cambia con frecuencia de un año para otro y depende del clima,
este modelo supone clima constante.
(ii) Muchas especies poseen una tasa de nacimiento y muerte que varia con el tamaño de la población,
en particular una población no puede crecer indefinidamente a una tasa constante, caso contrario
dominarı́a la tierra.
Ejemplo 7.2. Apliquemos el modelo para el siguiente caso:
(1) Datos particulares:
• k=2
• α = 0.3
• β = 0.5
0
• p(0) =
10
0.0 2.0
(2) Determinamos los valores y vectores propios de A =
0.3 0.5
(i) Sus valores propios son:
= {v2 , v1 }
Profesor Ricardo Santander Baeza 2010 29
hv, v1 i
hv, v2 i n
X
[ ]α : V 7−→ MK (n × 1)
tal que [v]α = .. ⇐⇒ v = hv, vi ivi
v 7−→ [v]α .
i=1
hv, vn i
(3) Juntando la información de los ı́temes anteriores tenemos que, Si h, i es un producto interno en el
espacio vectorial V sobre el cuerpo K entonces MK (n × 1) es un espacio con producto interno, sobre
K, donde
n
X
hu, vi = h[u]α , [v]α i = [u]tα [v]α = hu, vi ihv, vi i
i=1
1V
(V, α) 7−→ (V, β)
↓ ↓ (23)
[I]β
α
MK (n × 1) 7−→ MK (n × 1)
Sigue que,
En particular
(
1 : k 6= s
h[vk ]β , [vs ]β i = hvk , vs i =⇒ h[vk ]β , [vs ]β i =
0 : otro caso
Es decir, las columnas de la matriz cambio de base [I]βα son ortogonales dos a dos. Por tanto, Si V
un K-espacio vectorial con producto interno y α = {v1 , v2 , . . . , vn } y β = {w1 , w2 , . . . , wn } dos bases
ortonormales de V entonces
t t −1 t
[I]βα [I]βα = In ⇐⇒ [I]βα = [I]βα ⇐⇒ [I]βα = [I]αβ
Profesor Ricardo Santander Baeza 2010 31
t
(5) Finalmente, como hu, vi = h[u]β , [v]β i y [I]βα = [I]αβ entonces
entonces
1 1
1 2
h(1, 0), √ (1, 2)i h(0, 1), √ (1, 2)i
5 5 √ √
5 5
[I]αc(2) = = 2 1
1 1 −√ √
h(1, 0), √ (−2, 1)i h(0, 1), √ (−2, 1)i 5 5
5 5
Y, usando la notación anterior tenemos que
1 2
√ −√
5 5
([I]αc(2) )∗ = [I]c(2)
α =
2 1
√ √
5 5
8.2. Operador Adjunto.
Teorema 8.2.1. (Teorema de Representación de Riesz) Si consideremos un K-espacio vectorial V con pro-
ducto interno, α = {v1 , v2 , . . . , vn } una base ortonormal de V y L ∈ LK (V, K) entonces existe v ∈ V tal que
L(w) = hw, vi (∀w, w ∈ V).
En efecto
(1) Como α = {v1 , v2 , . . . , vn } es una base ortonormal de V entonces cada w ∈ V, se escribe de forma
única como
Xn
w= hw, vi ivi
i=1
n
X
(3) Ası́ que, si definimos v = L(vi ) vi entonces usando la identidad de encima, sigue que
i=1
L(v1 )
L(v2 )
L(w) = hw, v1 i hw, v2 i · · · hw, vn i · .. = hw, vi
.
L(vn )
(4) Finalmente, supongamos que v no es único, es decir, existe v ′ ∈ V tal que L(w) = hw, v ′ i (∀w, w ∈ V)
entonces usando la técnica usual cuando hay producto interno obtenemos que,
hv − v ′ , v − v ′ i = hv, vi − hv, v ′ i − hv ′ , vi + hv ′ , v ′ i
= L(v) − L(v) − L(v ′ ) + L(v ′ )
= 0
Por tanto, v = v ′ , y v es único con esta propiedad.
Corolario 8.2.2. Sean V un K-espacio vectorial con producto interno, α = {v1 , v2 , . . . , vn } una base
ortonormal de V y T ∈ LK (V) entonces existe un único operador T ⋆ de V tal que satisface la ecuación
vectorial.
hT (w), ui = hw, T ⋆ (u)i (24)
En efecto
Como queremos aplicar el teorema de representación de Riesz (8.2.1) entonces debemos construir una forma
lineal, y para ello procedemos como sigue. Para cada u ∈ V, definimos
ϕu : V −
7 → K
w −7 → ϕu (w) = hT (w), ui
entonces
(1) ϕu ∈ LK (V, K), (∀u; u ∈ V), pues,
(2) Como ϕu ∈ LK (V, K) entonces por una aplicación directa del teorema de representación de Riesz existe
“para cada u ∈ V un único v ∈ V tal que ϕu (w) = hw, vi”. es decir tenemos por una parte,
hT (w), ui = hw, vi
(3) Por otra parte, de la lectura “para cada u ∈ V un único v ∈ V tal que ϕu (w) = hw, vi”, sigue que
tenemos bien definida una función T ∗ : V 7−→ V tal que T ∗ (u) = v. Es decir
T ∗ (u) = v ⇐⇒ ϕu (w) = hT (w), ui = hw, vi = hw, T ∗ (u)i
Ası́ que,
hT (w), ui = hw, T ∗ (u)i
(4) En particular, para el operador T
n
X
T (vi ) = hT (vi ), vj ivj (1 ≤ i ≤ n) =⇒ [T ]αα = (hT (vi ), vj i)t ∈ MK (n)
j=1
n
X
T ⋆ (vi ) = hT ⋆ (vi ), vj ivj (1 ≤ i ≤ n)
j=1
Xn
= hvj , T ⋆ (vi )ivj (1 ≤ i ≤ n)
j=1
n
X
= hT (vj ), vi ivj (1 ≤ i ≤ n)
j=1
Ası́ que
t
[T ⋆ ]αα = [T ]αα
Definición 8.2.3. Sea V un K-espacio vectorial con producto interno y T ∈ LK (V ) entonces llamaremos
operador adjunto de T al único operador T ⋆ de V que satisface la ecuación hT (w), ui = hw, T ∗ (u)i
Ejemplo 8.2.4. Sea T ∈ LC (C2 ) tal que T (1, 0) = (1 + i, 2) y T (0, 1) = (i, i) entonces
c(2) 1+i i ⋆ c(2) 1−i 2
[T ]c(2) = y [T ]c(2) =
2 i −i −i
c(3)
Ejemplo 8.2.5. Si [T ]c(3) = (aks ) ∈ MC (3) tal que aks = ik+s entonces T ⋆ es diagonalizable.
En efecto
c(3)
(1) Como, [T ]c(3) = (ik+s ) entonces
−1 −i 1 −1 i 1
c(3) c(3)
[T ]c(3) = −i 1 i y [T ⋆ ]c(3) = i 1 −i
1 i −1 1 −i −1
(2) Ahora calculamos los valores propios de T ⋆ , vı́a el polinomio caracterı́stico PT ⋆ (λ).
34 Profesor Ricardo Santander Baeza 2010
(λ + 1) −i −1
PT ⋆ (λ) = det −i (λ − 1) i
−1 i (λ + 1)
(λ + 1) −i −1
= det 0 λ −iλ
−1 i (λ + 1)
= (λ + 1)[λ(λ + 1) − λ] − [−λ + λ]
= λ2 (λ + 1)
Luego, los valores propios de T ⋆ son λ = 0 y λ = −1
(b) Analogamente,
x −x + iy + z = −x
v ∈ C3 −1
⇐⇒ v = y ∧ ix + y − iz = −y
z x − iy − z = −z
⇐⇒ v ∈ h{(i, 1, −i)}i
Luego,
C3 −1
= h{(i, 1, −i)}i
Ası́, la base de diagonalización es
α = {(1, −i, 0), (0, i, 1), (i, 1, −i)}
Profesor Ricardo Santander Baeza 2010 35
8.3. Propiedades del Operador Adjunto. Si V es un K-espacio vectorial con producto interno y T ∈
LK (V) entonces usando el teorema de representación (se transforma ya en una técnica), podemos verificar
las siguientes propiedades:
Propiedad 8.3.1. (T ⋆ )⋆ = T
En efecto
• Finalmente, si definimos ϕ∗u (w) = hT ∗ (w), ui entonces ϕ∗u ∈ LK (V, K), ası́ que una nueva aplicación del
teorema de representación nos permite decir que, T ∗∗ (u) = T (u) para cada u ∈ V, por tanto T ∗∗ = T
Propiedad 8.3.2. (T + L)⋆ = T ⋆ + L⋆ y (λ · T )⋆ = λ · T ⋆
En efecto
Y por otra,
ϕu (w) = h(T + L)(w), ui = hT (w), ui + hL(w), ui = hw, T ∗ (u)i + hw, L∗ (u)i = hw, (T ∗ + L∗ )(u)i
Análogamente,
ϕu (w) = h(T ◦ L)(w), ui = hT (L(w)), ui = hL(w), T ∗ (u)i = hw, L∗ (T ∗ (u)) = hw, (L∗ ◦ T ∗ )(u))
Propiedad 8.3.4. Si L\ ⋆ \
K (V ) = {T | T ∈ LK (V )} y definimos φ : LK (V ) 7−→ LK (V ) tal que φ(T ) = T
∗
En efecto
• Del teorema de representación sigue que φ es una biyección, pues para cada T ∈ LK (V ) existe un
único T ∗ ∈ L\
K (V ), y en particular de la propiedad (8.3.1) de los operadores adjuntos, sigue que
36 Profesor Ricardo Santander Baeza 2010
• De la propiedad (8.3.2) de los operadores adjuntos, sigue que φ es un homomorfismo de grupos, pues
φ(T + L) = (T + L)∗ = T ∗ + L∗ = φ(T ) + φ(L)
En efecto
En efecto
Si T (v) = λv entonces por una parte, hT (v), ui = hλv, ui = λhv, ui = hv, λ ui, y por otra parte, hT (v), ui =
hv, T ∗ (u)i. Ası́ T ∗ (u) = λ u
En efecto
Si T es diagonalizable entonces existe una base ortonormal α de vectores propios de V tal que
• En particular, T ◦ T ⋆ = T ⋆ ◦ T
8.4. Operador Hermitiano y Autoadjunto. Si V es un K espacio vectorial con producto interno en-
tonces ¿bajo que condiciones T ∈ LK (V) tiene un valor propio real?. Iniciamos el estudio con la siguiente,
Definición 8.4.1. Sea (V, h, i) tal que dimK (V ) = n y T ∈ LK (V ). T será llamado un operador autoadjunto
o hermitiano si T = T ⋆ . Para fijar ideas, diremos que T es autoadjunto si K = R y que T es hermitiano si
K = C.
Ejemplo 8.4.2. Consideremos T ∈ LC (C2 ) tal que T (x, y) = (5x + (1 + i)y, (1 − i)x + 2y) entonces
c(2) 5 1+i λ−5 1+i
(1) [T ]c(2) = =⇒ PT (λ) = det = (λ − 5)(λ − 2) − 2 = λ2 − 7λ + 8.
1−i 2 1−i λ−2
√ √
49 − 32 7±
7 ± 17
Ası́ los valores propios de T son λ = = ∈ R, y T es diagonalizable.
2 2
t
∗ c(2) 5 1+i 5 1−i 5 1+i c(2)
(2) [T ]c(2) = = = = [T ]c(2)
1−i 2 1+i 2 1−i 2
(3) Es decir T = T ∗ˆ y T es un operador hermitiano. En particular T ◦ T ∗ = T ∗ ◦ T
Profesor Ricardo Santander Baeza 2010 37
U = T + T ∗ =⇒ U ∗ = (T + T ∗ )∗ = T ∗ + (T ∗ )∗ = T ∗ + T = U
8.5. Propiedades de los Operadores Hermitianos y Autoadjuntos. En esta sección daremos res-
puesta a la pregunta: ¿Bajo que condiciones T ∈ LK (V) tiene un valor propio real?
Supongamos entonces que V es un K espacio vectorial y que T ∈ LK (V) tal que T = T ∗
En efecto
En efecto
Propiedad 8.5.3. Sean λ1 y λ2 valores propios de T y Vλ1 y Vλ2 los correspondientes subespacios propios
entonces
u ∈ Vλ1 ; v ∈ Vλ2 ∧ λ1 6= λ̄2 =⇒ hu, vi = 0
En efecto
hT (u), vi = hu, T (v)i ⇐⇒ hλ1 u, vi = hu, λ2 vi ⇐⇒ λ1 hu, vi = λ̄2 hu, vi ⇐⇒ (λ1 − λ̄2 ) hu, vi = 0V
Y, como λ1 6= λ̄2 entonces hu, vi = 0
En efecto
El polinomio caracterı́stico PT (λ) = det (λIn − [T ]αα ) ∈ PC [λ] y entonces posee una raı́z λ en C, y además
de la propiedad (8.5.2) sigue que λ ∈ R.
Profesor Ricardo Santander Baeza 2010 39
Propiedad 8.5.5. Existe una base ortonormal, formada por vectores propios de T, esto es, T es diagonali-
zable
En efecto
(1) Sea λ ∈ R un valor propio de T, que existe por la propiedad (8.5.4) y sea v ∈ V su correspondiente
vector propio, es decir, T (v) = λv
v
(2) Si llamamos u1 = entonces T (u1 ) = λu1 y ku1 k = 1, y si dimK (V) = 1 V posee una base ortonor-
||v||
mal de vectores propios de T y en particular T es diagonalizable.
(3) Haremos Inducción Matemática sobre n = dimK (V), y para ello consideraremos la siguiente Hipótesis
de inducción.
H : Si (U, h, i) ≤ (V, h, i) tal que dimK (U) ≤ n − 1 entonces U posee una base ortonormal de vectores
propios de T
Etapas básicas:
(c) Como T = T ⋆ entonces T (W⊥ ) ⊂ W⊥ y esto permite definir la transformación lineal restricción
de T .
Tb = T |W⊥ : W⊥ 7−→ W⊥
v 7−→ Tb(v) = T (v)
(d) Como dimK (W⊥ ) = n − 1 < n entonces la hipótesis de Inducción H aplica, y W⊥ posee una base
ortonormal de vectores propios de Tb, digamos β = {u2 , u3 , . . . , un } y finalmente de V = W ⊕ W⊥ ,
sigue que α = {u1 , u2 , . . . , un } es una base ortonormal de vectores propios de T .
(2) T ∗ (x, y) = (y, −x) es el operador adjunto de T y (T ∗ ◦ T )(x, y) = (x, y) y (T ◦ T ∗ )(x, y) = (x, y), es
decir T −1 = T ∗
(3) kT (x, y)k2 = hT (x, y), T (x, y)i = h(−y, x), (−y, x)i = x2 + y 2 = k(x, y)k2
Lema 8.6.3. Sea V un K espacio vectorial tal que dimK (V ) = n, n ∈ N y T ∈ LK (V). Si T es un operador
Unitario entonces T es un isomorfismo, y T −1 = T ∗
40 Profesor Ricardo Santander Baeza 2010
En efecto
• En primer lugar,
hT (u), T (v)i = hu, vi
=⇒ T ∗ (T (v)) = v
hT (u), T (v)i = hu, T ∗ (T (v))i
• Es decir, T es inyectiva y por el teorema de la dimensión es sobreyectiva. Análogamente T ∗ es so-
breyectiva y por el teorema de la dimensión inyectiva. Ası́ que T es un isomorfismo, y T −1 = T ∗
Lema 8.6.4. Sea V un K espacio vectorial tal que dimK (V ) = n, n ∈ N y T ∈ LK (V). Si T es un isomor-
fismo y T −1 = T ∗ entonces T es un operador unitario
En efecto
Para cada u ∈ V y v ∈ V tenemos que hT (u), T (v)i = hu, T ∗ (T (v))i = hu, T −1 (T (v))i = hu, vi. Luego T es
un operador unitario
Lema 8.6.5. Sea V un K espacio vectorial tal que dimK (V ) = n, n ∈ N y T ∈ LK (V). T operador unitario
si y sólo si kT (u)k = kuk
En efecto
Si T es unitario entonces para cada u ∈ V y v ∈ V tenemos que hT (u), T (v)i = hu, vi. En particular, para
cada u ∈ V hT (u), T (u)i = hu, ui, ası́ que
Recı́procamente,
En primer lugar observamos que T es inyectiva, y por ende como consecuencia del teorema de la dimensión
un isomorfismo pues, si suponemos que u ∈ ker(T ) entonces u ∈ V ∧ T (u) = 0V , y
En segundo lugar,
Lema 8.7. Sea V un K espacio vectorial tal que dimK (V ) = n, n ∈ N y T ∈ LK (V). Si T es un operador
unitario y λ ∈ K es un valor propio de T entonces |λ| = 1
En efecto
9. Ejercicios Propuestos
(1) Si ϕ ∈ LR (R3 , R) tal que ϕ(x, y, z) = 2x + 3y − z. Usando el teorema 8.2.1, (teorema de representación
de Riesz), y el producto interno usual de R3 . Determine u ∈ R3 tal que ϕ(x, y, z) = h(x, y, z), ui
(2) Si ϕ ∈ LC (C3 , C) tal que ϕ(x, y, z) = x−i(4z−6y). Usando el teorema 8.2.1, (teorema de representación
de Riesz), y el producto interno usual de C3 . Determine u ∈ C3 tal que ϕ(x, y, z) = h(x, y, z), ui
(3) Si ϕ ∈ LR (R2 [x], R) tal que ϕ(p(x)) = p(0) − 2p′ (0). Usando el teorema 8.2.1, (teorema de repre-
Z 1
sentación de Riesz), y el producto interno de R2 [x], definido por hp(x), q(x)i = p(x) · q(x) dx.
0
Determine q(x) ∈ R2 [x] tal que ϕ(p(x)) = hp(x), q(x)i
(4) Si ϕ ∈ LR (R2 [x], R) tal que ϕ(p(x)) = p(0)−2p′ (0). Usando el teorema 8.2.1, (teorema de representación
de Riesz), y el producto interno de R2 [x], definido por hp(x), q(x)i = p(0) · q(0) + p(1) · q(1) + p(2) · q(2),
donde p(x) = a0 +ax +a2 x2 y q(x) = b0 +bx +b2 x2 . Determine q(x) ∈ R2 [x] tal que ϕ(p(x)) = hp(x), q(x)i
(5) Si T : R2 [x] 7−→ R2 [x] tal que T (a0 + a1 x + a2 x2 ) = a1 − a2 x + a0 x2 entonces respecto del producto
Z 1
interno hp(x), q(x)i = p(x) · q(x) dx
0
• Determine T∗
(6) Si T : R2 [x] 7−→ R2 [x] tal que T (a0 + a1 x + a2 x2 ) = a1 + 2a2 x entonces respecto del producto interno
hp(x), q(x)i = p(0) · q(0) + p(1) · q(1) + p(2) · q(2), donde p(x) = a0 + ax + a2 x2 y q(x) = b0 + bx + b2 x2
• Determine T ∗
(9) Sea V un C espacio vectorial tal que dimC (V ) = n, n ∈ N y T ∈ LC (V). Demuestre que si
El objetivo central de este capitulo es caracterizar cónicas y cuádricas, usando esencialmente técnicas de
Algebra Lineal.
1. Formas Lineales
Motivación 1.1. Consideremos una vez más la situación central del Algebra Lineal, es decir. Dado un K
espacio vectorial V y una base α = {v1 , v2 , . . . , vn } de V entonces todo vector v ∈ V puede ser reescrito de
forma única com combinación lineal de los elementos de la base α, en sı́mbolos
a1
n
X a2
v= ai vi ai ∈ K ⇐⇒ [v]α = .. (1)
.
i=1
an
Ası́ que el problema vuelve a ser como determinamos las coordenadas del vector v que nos interesa ubicar,
la técnica que introduce un producto interno en V , ya nos dio una respuesta, pero queremos aquı́ desarrollar
una técnica alternativa e independiente de la del producto interno.
1 0 0
0 1 0
[v1 ]α = .. [v2 ]α = .. . . . [vn ]α = .. (2)
. . .
0 0 1
entonces el lector de coordenadas de los vi , lee un 1 en la posición i y 0 en las otras posiciones.
En el caso general,
1 0 0
0 1 0
[v]α = a1 .. + a2 .. + · · · + an .. (3)
. . .
0 0 1
De (3) vemos que cada v ∈ V necesita n lectores, pues dicho lector cuando menos debe ser lineal y entregar
como valor un escalar, ası́ que la idea ya está.
3
4 Profesor Ricardo Santander Baeza 2010
Definición 1.2. Sea V un K espacio vectorial y α = {v1 , v2 , . . . , vn } una base de V entonces llamaremos
α-lector al conjunto α⋆ = {v1⋆ , v2⋆ , . . . , vn⋆ }, donde para cada i = 1, 2 . . . , n
a1
⋆ a2
vi : V 7−→ K
⇐⇒ [v]α = .. (4)
v 7−→ ai .
an
En particular vale siguiente propiedad para los α − lectores
(
⋆ 1 si i = j
vi (vj ) =
0 si i 6= j
Lema 1.2.1. Para cada i = 1, 2, . . . , n, vi⋆ es una transformación lineal del espacio vectorial V en su cuerpo
de escalares K. En sı́mbolos, para cada i = 1, 2, . . . , n, vi⋆ ∈ LK (V ), equivalentemente α⋆ ⊂ LK (V, K)
En efecto
n
X n
X
Si v = bi vi y u = bi vi entonces
i=1 i=1
" n #
X
vs⋆ (v + u) = vs⋆ (ai + bi )vi = as + bs = vs⋆ (v) + vs⋆ (u)
i=1
Análogamente, si λ ∈ K entonces
" n #
X
vs⋆ (λ v) = vs⋆ (λ ai )vi = λ as = λ vs⋆ (v)
i=1
n
" n #
X X
T (v) = T (vi )vi⋆ (v) = T (vi )vi⋆ (v)
i=1 i=1
Aplicando la definición de igualdad de funciones tenemos que;
n
X
T = T (vi ) vi⋆
| {z }
i=1
∈K
o equivalentemente,
En efecto
Xn
Si suponemos que ri vi⋆ = 0 entonces lo que dices es que, para cada v ∈ V esa función en v es nula
n
! i=1
X
ó ker ri vi⋆ = V .
i=1
El punto, es como usamos esa información para concluir que los rj son todos nulos, porque eso es lo que
hay que mostrar. Para ello observamos lo siguiente, si esa función anula todo el espacio, en particular
anula a los básicos vj .
Ası́ que vale para cada j = 1, 2, . . . , n,
n
X
0 = ri vi⋆ (vj ) = rj ver (1.2)
i=1
Conclusión, α⋆ es una base del espacio vectorial LK (V, K) y procederemos a darle los nombres que usual-
mente se usan para estos conceptos.
Definición 1.4. V ⋆ = LK (V, K), se llama “Espacio Dual del espacio vectorial V ”. Si α = {v1 , v2 , v3 , . . . , vn }
es una base de vectores de V entonces α⋆ = {v1⋆ , v2⋆ , . . . , vn⋆ } se llama ” Base Dual ” de la base α.
(2) Sea α = {(1, 2), (2, −1)} una base de R2 entonces usando por ejemplo el producto interno usual de R2
para encontrar las coordenadas tenemos que;
x + 2y 2x − y
(x, y) = (1, 2) + (2, −1)
5 5
6 Profesor Ricardo Santander Baeza 2010
Luego, la base dual α⋆ = {(1, 2)⋆ , (2, −1)⋆ }, se define como en (1), es decir.
x + 2y 2x − y
(1, 2)⋆ (x, y) = (2, −1)⋆ (x, y) =
5 5
Observen que, en particular
En efecto
(4) Dados tres números reales distintos, r1 , r2 y r3 , podemos definir tres funciones como sigue:
Ti : R2 [x] −
7 → R (i = 1, 2, 3)
(6)
p(x) − 7 → p(ri )
entonces
En efecto
En efecto
En particular
(a1 T1 + a2 T2 + a3 T3 )(1) = 0 a1 + a2 + a3 = 0
(a1 T1 + a2 T2 + a3 T3 )(x) = 0 =⇒ a1 r1 + a2 r2 + a3 r3 = 0
Y como por hipótesis los números son distintos entonces det(A) 6= 0 y la solución del sistema es trivial,
es decir a1 = a2 = a3 = 0
En efecto
dimR (R2 [x])∗ = dimR (R2 [x]) = 3, ası́ que α⋆ es una base de (R2 [x])∗
2
X
p1 (x) = ci1 xi (7)
i=0
2
X
p2 (x) = ci2 xi (8)
i=0
2
X
p3 (x) = ci3 xi (9)
i=0
Para T1
Para (8)
entonces
1
c11 + c21 (r1 + r2 ) =
r1 − r2
c11 + c21 (r2 + r3 ) = 0
Luego,
1
c21 =
(r1 − r2 )(r1 − r3 )
Cálculos analogos permiten mostrar que:
(x − r2 )(x − r3 )
p1 (x) =
(r1 − r2 )(r1 − r3 )
(x − r1 )(x − r3 )
p2 (x) =
(r2 − r1 )(r2 − r3 )
(x − r1 )(x − r2 )
p3 (x) =
(r3 − r1 )(r3 − r2 )
ker(φ) = h{v1 , v2 }i ∧ v3 ∈
/ ker(φ)
Demuestre que
(v1 + v2 )⋆ 6= v1⋆ + v2⋆
i
X
(4) Sea α = {v1 , v2 , v3 , . . . , vn } una base de V y β = {w1 , w2 , w3 , . . . , wn } tal que wi = jvj , para
j=1
i = 1, 2, . . . , n.
(i) Determine β ⋆
(5) Sea α∗ = {φ1 , φ2 , φ3 } ⊂ (R2 [x])∗ tal que para cada elemento
p(x) = a0 + a1 x + a2 x2 ∈ R2 [x]
R1
φ1 (p(x)) = 0 p(x) dx
R2
φ2 (p(x)) = 0 p(x) dx
R −1
φ3 (p(x)) = 0 p(x) dx
• Demuestre que α∗ es una base de (R2 [x])∗ .
h,i
(u, v) ∈ V × V 7−→ hu, vi ∈ R
• Para cada v ∈ V la función h, vi ∈ V ⋆ , si definimos:
h,vi
u ∈ V 7−→ hu, vi ∈ R
• Para cada u ∈ V la función hu, i ∈ V ⋆ , si definimos:
hu,i
v ∈ V 7−→ hu, vi ∈ R
10 Profesor Ricardo Santander Baeza 2010
En particular,
(1) Si α es una base ortonormal entonces
b1
n
b2
X
an . = [u]tα [v]α =
hu, vi = a1 a2 . . . ai bi
..
i=1
bn
(2) Si u = v y α es una base ortonormal entonces
n
X
hu, ui = a2i
i=1
(3) En general, si [h, i]αα es diagonalizable y β es la base ortonormal de vectores propios de h, i entonces
n
X
hu, ui = λi hu, wi i2
i=1
Profesor Ricardo Santander Baeza 2010 11
Definición 4.2. Sea V un K espacio vectorial y B : V × V 7−→ K una función tal que B(u, v) ∈ K para
cada (u, v) ∈ V × V . Diremos que B es una forma bilineal si B es lineal en cada coordenada, esto es, para
cada v ∈ V , Bv ∈ V ⋆ , donde Bv (u) = B(u, v) y para cada u ∈ V , Bu ∈ V ⋆ , donde Bu (v) = B(v, u)
Observación 4.2.1. Antes de dar ningún ejemplo, explicitemos los beneficios por ahora teóricos de la bi-
linealidad.
n
X n
X
Si α = {v1 , . . . , vn } es una base de V entonces para u = ai vi y v = bi vi
i=1 i=1
Xn n
X
B(u, v) = B ai vi , bj vj
i=1 j=1
n X
X n
= ai bj B(vi , vj )
j=1 i=1
b1
b2
= a1 a2 . . . an B(vi , vj ) .
..
bn
Es decir, tenemos la igualdad fundamental (teorı́a y práctica)
Por otra,
Pero,
Finalmente
Definición 4.4. Si B ∈ B(V ) y α = {v1 , v2 , . . . , vn } es una base de V entonces [B]αα = (B(vi , vj )), será
llamada la matriz de la forma bilineal respecto de la base α.
Si para alguna base α, B(vi , vj ) = B(vj , vi ) para (i = 1, . . . , n) (j = 1, . . . , n) entonces [B]αα es una matriz
simétrica y recı́procamente si [B]αα es simétrica para alguna base α entonces B(u, v) = B(v, u) para u ∈ V
y para v ∈ V . En tal caso diremos que B es una forma bilineal simétrica.
1 2
Ejemplo 4.4.1. Sea A = entonces en la base canónica tenemos
2 5
1 2 x2
BA ((x1 , y1 ), (x2 , y2 )) = x1 y1
2 5 y2
c(2)
= [(x1 , y1 )]tc(2) [A]c(2) [(x2 , y2 )]c(2)
Profesor Ricardo Santander Baeza 2010 13
En particular,
1 2 x
BA ((x, y), (x, y)) = x y
2 5 y
c(2)
= [(x, y)]tc(2) [A]c(2) [(x, y)]c(2)
= x2 + 4xy + 5y 2
Si q(x, y) = BA ((x, y), (x, y)) entonces q(x, y) = x2 + 4xy + 5y 2
Definición 4.5. Sea B ∈ B(V ) tal que B es simétrica entonces la función
q
V 7−→ K
u 7−→ q(u)
tal que q(u) = B(u, u), será llamada forma cuadrática de V , inducida por B.
n
X t
q(u) = λi u2i , donde [u]α = u1 u2 . . . un (14)
i=1
En efecto
(1) Sea α = {v1 , v2 , . . . , vn } una base ortonormal de V entonces tenemos para cada v ∈ V , la representación
n
X
v= ai vi (15)
i=1
(2) Como q es una forma cuadrática entonces por definición, q(v) = B(v, v), donde B es la forma bilineal
de la cual proviene la forma q. Ası́ que, usando (15) tenemos que
q(v) = [v]tα [q]αα [v]α (16)
o equivalentemente
B(v1 ,v2 ) B(v1 ,vn )
B(v1 , v1 ) 2 ... 2
B(v1 ,v2 ) B(v2 ,vn ) a1
2 B(v2 , v2 ) . . . 2
.
q(v) = a1 . . . an .. .. .. .
.. .
. . . . a
B(v1 ,vn ) B(v1 ,vn ) n
2 2 ... B(vn , vn )
(3) Como [q]αα , es simétrica entonces es diagonalizable y entonces existe una base ortonormal de vectores
propios, digamos β = {w1 , w2 , w3 , w4 , . . . , wn } tal que [q]ββ = diag {λ1 , λ2 , . . . , λn }. Ası́ que tenemos la
ecuación fundamental
[q]αα = [I]αβ [q]ββ [I]βα (17)
14 Profesor Ricardo Santander Baeza 2010
(5) Ahora el punto es, como las bases son ortonormales entonces tenemos la igualdad
n
X
= λi hv, wi i2
i=1
Ejemplo 4.5.2. Si definimos la forma cuadrática q : R2 7−→ R tal que q(x, y) = x2 − 2xy − y 2 , entonces
siguiendo los pasos de la demostración del teorema (14)
1 −1 x
q(x, y) = x y (20)
−1 −1 y
Observemos que, (20) se escribe en la base canónica que es ortonormal respecto del producto interno
usual, como:
c(2)
q(x, y) = [(x, y)]tc(2) [q]c(2) [(x, y)]c(2) (21)
c(2)
(2) Ahora diagonalizamos [q]c(2) ;
c(2)
Partimos con el polinomio caracterı́stico de [q]c(2)
(λ − 1) 1
Pq (λ) = det
1 (λ + 1)
= (λ2 − 1) − 1
= λ2 − 2
√ √
Ası́ que los valores propios son; V.P={ 2, − 2}.
Profesor Ricardo Santander Baeza 2010 15
c(2)
Seguimos con los subespacios propios de [q]c(2) .
c(2)
v ∈ (MR (2 × 1))λ ⇐⇒ v ∈ MR (2 × 1) ∧ [q]c(2) v = λv
x 1 −1 x x
⇐⇒ v = ∧ =λ
y −1 −1 y y
x x - y = λx
⇐⇒ v = ∧ (⋆)
y −x - y = λy
√
Caso 1. λ = 2
√
x - y = √2x √
De (⋆) sigue que: . Ası́ que, y = (1 − 2)x De donde,
−x - y = 2y
x
v ∈ (MR (2 × 1))√2 ⇐⇒ v ∈ MR (2 × 1) ∧ v = √
(1 − 2)x
1
⇐⇒ v ∈ MR (2 × 1) ∧ v = x √
; x∈R
(1 − 2)
* 1
+
⇐⇒ (MR (2 × 1))√2 =
√
(1 − 2)
√
Caso 2. λ = − 2
1
⇐⇒ v ∈ MR (2 × 1) ∧ v = x √
; x∈R
(1 + 2)
* 1
+
⇐⇒ (MR (2 × 1))−√2 =
√
(1 + 2)
(3) Construimos una base ortonormal de vectores propios, a partir de la base
1 1
β= √
,
√
(1 − 2) (1 + 2)
16 Profesor Ricardo Santander Baeza 2010
Como β es ortogonal entonces ortonormalizamos dividiendo por la norma de cada uno de ellos. Es decir
q 1 1
√ q
√
4 − 2 2
4 + 2 2
α= ,
1 − √2
√
q 1 + 2
√ √ √
4−2 2 4+2 2
1 1
q q
√ ! 4 − 2√2 √ ! 4 + 2√2
q x y(1 − 2)
q x y(1 + 2)
√ + √ +
q q
= √ √ + √ √
4−2 2 4−2 2 q1 − 2
4+2 2 4+2 2 q1 + 2
√ √
4−2 2 4+2 2
(5) Finalmente
√ !2 √ !2
√ x
√ √ +q y(1 − 2) √ x y(1 + 2)
√ +
q(x, y) = 2 + (− 2) q q
4−2 2 √ √
4−2 2 4+2 2 4+2 2
b
a x x
x y 2 + d e +f =0 (25)
b y y
2 c
Caso 1: λ1 λ2 6= 0
Luego tenemos,
λ1 x22 + λ2 y22 + F = 0 (28)
• F > 0 entonces C : ∅
D E
• F = 0 entonces C : − 2λ1
, − 2λ2
x22 y22
• F < 0 entonces C : + = 1 es una Elipse.
− λF1 − λE2
18 Profesor Ricardo Santander Baeza 2010
x22 y2
• F 6= 0 entonces C: F
+ 2E = 1 es una hipérbola.
− λ1 − λ2
Conclusión 5.1. Para el caso de valores propios no nulos con producto no nulo tenemos:
∅
(i) λ1 λ2 > 0 =⇒ C : Punto
Elipse
λ1 · λ2 6= 0 =⇒
(
par de rectas concurrentes
(ii) λ1 λ2 < 0 =⇒ C : Hipérbola
Caso 2: λ1 λ2 = 0
Parábola
Una recta
λ1 λ2 = 0 =⇒ C :
Par de rectas paralelas
∅
c(2) c(2)
Observación 5.3. Sabemos que [q]c(2) = [I]c(2) α α α
α [q]α [I]c(2) de donde sigue que det [q]c(2) = det [q]α Es decir,
Profesor Ricardo Santander Baeza 2010 19
b2 − 4ac
λ1 λ2 = −
4
Teorema 5.4. Clasificación de cónicas vı́a sus coeficientes Si C es una sección cónica entonces
(
Hipérbola
b2 − 4ac > 0 =⇒ C
:
Par de rectas
∅
2
b − 4ac < 0 =⇒ C : Punto
C : ax2 + bxy + cy 2 + dx + ey + f = 0 =⇒
Elipse
Parábola
Una Recta
b2 − 4ac = 0 =⇒ C :
∅
Par de Rectas
6. Ejercicios Resueltos
Ejemplo 6.1. Identifiquemos y grafiquemos la sección cónica
33 √ 31 √
C : 4x2 + 4y 2 − 8xy + 2 x− 2 y + 35 = 0
2 2
Equivalentemente
√ √
C : 8x2 + 8y 2 − 16xy + 33 2 x − 31 2 y + 70 = 0
(1) Identifiquemos la sección cónica, de acuerdo a nuestro criterio:
Parábola
Una Recta
b2 − 4ac = (−16)2 − 4 · 8 · 8 = 0 =⇒
∅
Par de Rectas paralelas
(2) Procedamos ahora a obtener el gráfico de la sección cónica. Para ello consideraremos las etapas sigui-
entes:
8 −8 x √ √ x
x y + 33 2 −31 2 + 70 = 0
−8 8 y y
(λ − 8) −8
P[q] (λ) = det = (λ − 8)2 − 64
−8 (λ − 8)
Y si hacemos P[q] (λ) = 0 para determinar los valores propios entonces obtenemos
(λ − 8)2 − 64 = 0 ⇐⇒ (λ − 8)2 = 64
⇐⇒ (λ − 8) = ±8
⇐⇒ λ=8±8
⇐⇒ λ = 16 ∨ λ = 0
Formato general:
c(2)
[q]c(2) = [I]c(2) α α
α [q]α [I]c(2)
Donde,
√ √ ! √ √ !
2 2 2 2
c(2) 0 0
[I]α = √2 √2 , [q]αα = e [I]αc(2) = √2 √2
2
− 22 0 16 2
− 22
2 2
Es decir,
√ √ ! √ √ !
8 −8 2 2 0 0 2 2
= √2 √2 √2 √2 (∗)
2
−8 8 2 − 22 0 16 2
2
− 22
8 −8 x √ √ x
x y + 33 2 −31 2 + 70 = 0
−8 8 y y
Se transforma en
√ √ ! √ √ !
2 2 2 2
√2 √2
0 0 √2 √2
x
x y +
2
− 22 0 16 2
− 22 y
2 2
√ √ x
33 2 −31 2 + 70 = 0
y
√ √ ! √ !
2 2 2
√2 2√ x √2
(x + y)
=
2
− 22 y 2
− y)
2 2 (x
m
√ √ ! √ !
2 2 2
x √2 2√ √2
(x + y)
=
y 2
− 2 2
− y)
2 2 2 (x
Aplicando las propiedades de trasposición de matrices y las obtenidas anteriormente la cónica se trans-
forma en:
√ √ t √ √ √ √ √
2 2 2 2 √ √ 2 2 2
x 0 0 x (x + y)
√2
2
2√
2 y 0 16
√2
2
2√
2 y +( 33 2 −31 2 ) √2
2
2√
2
√2
2 + 70 = 0
2
− 2 2
− 2 2
− 2 2
(x − y)
22 Profesor Ricardo Santander Baeza 2010
Equivalentemente,
√ ! √ !
√ √ 2 2
2 2 0 0 √2
(x + y)
√2
(x + y)
2 (x + y) 2 (x − y) + 2 64 + 70 = 0
0 16 2
− y) 2
− y)
2 (x 2 (x
√ !2 √ √
2 2 2
16 (x − y) + 2 (x + y) + 64 (x − y) + 70 = 0
2 2 2
C : x2 + xy + y 2 + 2x + 4y = 0
Elipse
2
b − 4ac = 1 − 4(1)(1) = −3 < 0 =⇒ Punto
∅
1
1 2 x x
x y 1 + 2 4 =0
2 1 y y
Formato general:
x x + 12 y = 1
2x
u ∈ (MR (2 × 1)) 1 ⇐⇒ u = ∧ 1 1
y 2x + y = 2y
2
x
⇐⇒ u = ∧ y = −x
y
Luego,
1
(MR (2 × 1)) 1 =
−1
2
3
Caso 2. λ =
2
De (∗), sigue que
x x + 12 y = 3
2x
u ∈ (MR (2 × 1)) 3 ⇐⇒ u = ∧ 1 3
y 2x + y = 2y
2
x
⇐⇒ u = ∧y =x
y
Luego,
1
(MR (2 × 1)) 3 =
1
2
• La base ortonormal de vectores propios es
Profesor Ricardo Santander Baeza 2010 25
1
1
√ √
2 2
α= ,
1 1
−√
√
2 2
c(2)
[q]c(2) = [I]c(2) α α
α [q]α [I]c(2)
Donde,
√ √ ! √ √ !
2 2 2
c(2)
1
0 − √22
[I]α = √2 √2 , [q]αα = 2
3 e [I]αc(2) = √2
− 22 2 0 2
2 2
2 2 2
Es decir,
√ √ ! √ √ !
2 2 2
1 1
2 √2 √2
1
2 0 √2
− √22
1 = 3 (∗)
2 1 − 22 2 0 2
2 2
2 2 2
t √ √ √
√1 − √12 x 1
0 √1 − √12 x 2 2 2
(x − y)
√1
2
√1
2
0 3 √1
2
√1
+( 2 4 ) 2√ √2 √2 =0
2 2
y 2 2 2
y − 22 2
2
2
2
(x + y)
Equivalentemente,
26 Profesor Ricardo Santander Baeza 2010
x−y
! x−y
!
1
√ √
x−y
√ x+y
√ 2 0 2 −2
√ √6 2
2 2 3 x+y + 2 2 x+y =0
0 2
√ √
2 2
2 2
1 x−y 2 x−y 3 x+y 6 x+y
√ −√ √ + √ +√ √ =0
2 2 2 2 2 2 2 2
1 2 2 3 6
C : x1 − √ x1 + y12 + √ y1 = 0 (forma normal)
2 2 2 2
1 2 2 3 6
x1 − √ x1 + y12 + √ y1 = 0
2 2 2 2
1 2 4 3 2 4
x1 − √ x1 + y1 + √ y1 = 0
2 2 2 2
2 2 !
4 2 2
x21 − √ x1 + √ − √ +
2 2 2
!
2 4 2 2 2 2
3 y1 + √ y1 + √ − √ = 0
2 2 2
2 2
2 2
x1 − √ − 2 + 3 y1 + √ −6 = 0
2 2
√ 2 √ 2
x1 − 2 + 3 y 1 + 2 = 8
√ 2 √ 2
x1 − 2 y1 − − 2
+ 8 = 1
8 3
7. Ejercicios Propuestos
(1) En los siguientes ejercicios identifique la sección cónica
(a) x2 + 9y 2 − 9 = 0
(b) x2 − 2y = 0
(d) 4x2 + 4y 2 − 9 = 0
(a) x2 + xy + y 2 = 6
(b) xy = 1
En primer lugar, si q : R3 7−→ R es una forma cuadrática entonces debe ser de la forma
a d e x
q(x, y, z) = x y z d b f y
e f c z
x
= ax + dy + ez dx + by + f z ex + f y + cz y
z
= ax2 + dyx + ezx + dxy + by 2 + f zy + exz + f yz + cz 2
= ax2 + by 2 + cz 2 + 2dxy + 2exz + 2f yz
Definición 8.1. Llamaremos superficie cuádrica , al conjunto
Ejemplo 8.1.1. C: x2 + y 2 − z 2 − 2x − 4y − 4z + 1 = 0
Conforme a la forma normal obtenida en (14) existe una base ortonormal α de MR (3 × 1) de vectores
propios tal que
c(3)
[q]c(3) = [I]c(3) α α
α [q]α [I]c(3)
Donde
λ1 0 0
[q]αα = 0 λ2 0
0 0 λ3
Profesor Ricardo Santander Baeza 2010 29
x x hv1 , e1 i hv2 , e1 i hv3 , e1 i x1 x
c(3)
• [I]α y = y ⇐⇒ hv1 , e2 i hv2 , e2 i hv3 , e2 i y1 = y
z α
z c(3)
hv1 , e3 i hv2 , e3 i hv3 , e3 i z1 z
(c) Finalmente la transformación matricial es de la forma:
a d e hv1 , e1 i hv2 , e1 i hv3 , e1 i λ1 0 0 hv1 , e1 i hv1 , e2 i hv1 , e3 i
d b f = hv1 , e2 i hv2 , e2 i hv3 , e2 i 0 λ2 0 hv2 , e1 i hv2 , e2 i hv2 , e3 i
e f c hv1 , e3 i hv2 , e3 i hv3 , e3 i 0 0 λ3 hv3 , e1 i hv3 , e2 i hv3 , e3 i
a d e x x
x y z d b f y + g h i y + j = 0 ⇐⇒
e f c z z
hv1 , e1 i hv2 , e1 i hv3 , e1 i λ1 0 0 hv1 , e1 i hv1 , e2 i hv1 , e3 i x
x y z hv1 , e2 i hv2 , e2 i hv3 , e2 i 0 λ2 0 hv2 , e1 i hv2 , e2 i hv2 , e3 i y +
hv1 , e3 i hv2 , e3 i hv3 , e3 i 0 0 λ3 hv3 , e1 i hv3 , e2 i hv3 , e3 i z
hv1 , e1 i hv2 , e1 i hv3 , e1 i x1
g h i hv1 , e2 i hv2 , e2 i hv3 , e2 i y1 + j = 0
hv1 , e3 i hv2 , e3 i hv3 , e3 i z1
O sea que
30 Profesor Ricardo Santander Baeza 2010
a d e x x
x y z d b f y + g h i y + j = 0 ⇐⇒
e f c z z
t
hv1 , e1 i hv1 , e2 i hv1 , e3 i x λ1 0 0 hv1 , e1 i hv1 , e2 i hv1 , e3 i x
hv2 , e1 i hv2 , e2 i hv2 , e3 i y 0 λ2 0 hv2 , e1 i hv2 , e2 i hv2 , e3 i y +
hv3 , e1 i hv3 , e2 i hv3 , e3 i z 0 0 λ3 hv3 , e1 i hv3 , e2 i hv3 , e3 i z
hv1 , e1 i hv2 , e1 i hv3 , e1 i x 1
g h i hv1 , e2 i hv2 , e2 i hv3 , e2 i y1 + j = 0
hv1 , e3 i hv2 , e3 i hv3 , e3 i z1
λ1 0 0 x1 x1
x1 y1 z1 0 λ2 0 y1 + G H I y1 + j = 0
0 0 λ3 z1 z1
Donde,
hv1 , e1 i hv2 , e1 i hv3 , e1 i
g h i hv1 , e2 i hv2 , e2 i hv3 , e2 i = G H I
hv1 , e3 i hv2 , e3 i hv3 , e3 i
Observación 8.2.1. Ahora a la luz de (31) procedemos a analizar el comportamiento de los valores propios.
(1) Si λ1 · λ2 · λ3 6= 0 entonces λi 6= 0 para i = 1, 2, 3 ası́ que podemos completar los cuadrados como sigue
Profesor Ricardo Santander Baeza 2010 31
2 2 !
I I I
λ3 z12 + z1 + − + j = 0 ⇐⇒
λ3 2λ3 2λ3
2 ! 2 !
G G2 H H2
λ1 x1 + − + λ2 y1 + − +
2λ1 4λ21 2λ2 4λ22
2 !
I I2
λ3 z1 + − + j = 0 ⇐⇒
2λ3 4λ23
2 2 2
G G2 H H2 I I2
λ1 x1 + − + λ2 y1 + − + λ3 z1 + − + j = 0 ⇐⇒
2λ1 4λ1 2λ2 4λ2 2λ3 4λ3
2 2 2 2
G H 2 I 2 G H I
λ1 x1 + + λ2 y1 + + λ3 z1 + − − − +j =0
2λ1 2λ2 2λ3 4λ1 4λ2 4λ3
2 2 2
G H I G H I
Si hacemos x2 = x1 + , y2 = y1 + , z2 = z1 + y J = j− − −
2λ1 2λ2 2λ3 4λ1 4λ2 4λ3
entonces la cuádrica se transforma en
(a) Si (λ1 · λ2 · λ3 > 0 ∧ λ1 > 0 ∧ λ2 > 0 ∧ λ3 > 0) entonces de la relación (32) tenemos las
siguientes posibilidades
G H I
C : = − ,− ,−
2λ1 2λ2 2λ1
C =∅
(b) Si (λ1 · λ2 · λ3 > 0 ∧ λ1 < 0 ∧ λ2 < 0 ∧ λ3 > 0) entonces de la relación (32) tenemos las
siguientes posibilidades
(c) Si (λ1 · λ2 · λ3 < 0 ∧ λ1 < 0 ∧ λ2 < 0 ∧ λ3 < 0) entonces de la relación (32) tenemos las
siguientes posibilidades
(d) Si (λ1 · λ2 · λ3 < 0 ∧ λ1 < 0 ∧ λ2 > 0 ∧ λ3 > 0) entonces de la relación (32) tenemos las
siguientes posibilidades
2 2
G H G2 H2
λ1 x1 + + λ2 y1 + − − + Iz1 + j = 0 ⇐⇒
2λ1 2λ2 4λ1 4λ2
2 2
G H G2 H2
λ1 x1 + + λ2 y1 + + Iz1 + j − − = 0 ⇐⇒
2λ1 2λ2 4λ1 4λ2
| {z }
J
2
G H 2 J
λ1 x1 + + λ2 y1 + + I z1 + = 0 ⇐⇒
2λ1 2λ2 I
G 2 H 2
x1 + y1 +
2λ1 2λ2 J
+ + z1 + =0
I I I
λ1 λ2
G H J
En este caso, si hacemos X = x1 + , Y = y1 + y Z = z1 + entonces
2λ1 2λ2 I
X2 Y 2
+ +Z = 0 (33)
I I
λ1 λ2
2 0 0 x x
x y z 0 4 3 y + −5 3 0 y = 2
0 3 −4 z z
2 0 0
c(3)
(2) diagonalizamos la forma cuadrática [q]c(3) = 0 4 3
0 3 −4
(a) Su polinomio caracterı́stico es de la forma
λ−2 0 0
Pq (λ) = det 0 λ − 4 −3 = (λ − 2)((λ − 4)(λ + 4) − 9) = (λ − 2)(λ2 − 25)
0 −3 λ + 4
Luego, los valores propios son
c(3)
u ∈ (MR (3 × 1))λ ⇐⇒ u ∈ MR (3 × 1) ∧ [q]c(3) u = λu
x 2 0 0 x x
⇐⇒ u = y ∧ 0 4 3 y = λ y
z 0 3 −4 z z
x 2x = λx
⇐⇒ u = y ∧ 4y + 3z = λy (∗)
z 3y − 4z = λz
x 2x = 5x
u ∈ (MR (3 × 1))5 ⇐⇒ u = y ∧ 4y + 3z = 5y
z 3y − 4z = 5z
x
=⇒ u = y ∧x= 0∧y = 3z
z
0
=⇒ u = z 3 ∧z ∈R
1
Ası́ que
* +
0
(MR (3 × 1))5 = 3
1
Profesor Ricardo Santander Baeza 2010 35
* +
1
(MR (3 × 1))2 = 0
0
(iii) Si λ = −5 entonces sustituyendo en ∗ tenemos que
x 2x = −5x
u ∈ (MR (3 × 1))5 ⇐⇒ u = y ∧ 4y + 3z = −5y
z 3y − 4z = −5z
x
=⇒ u = y ∧x = 0∧z = −3y
z
0
=⇒ u = y 1 ∧ y ∈ R
−3
Ası́ que
* +
0
(MR (3 × 1))5 = 1
−3
Luego una base de vectores propios ortogonales es
0 1 0
α = 3 , 0 , 1
1 0 −3
Ahora Ortonormalizamos α y obtenemos
0 1 0
1 1
β = √ 3 , 0 ,√ 1
10 1 0 10 −3
3y+z
√3 √1
x 0 10 10 x √
10
β
[I]c(3) y = 1 0 0 y = x
z 0 √1 −3
√ z y−3z
√
10 10 10
√3 √1
2 0 0 0 1 0 5 0 0 0 10 10
0 4
3 = √3 0 √1
10 10 0 2 0 1 0 0
0 3 −4 √1 0 −3
√ 0 0 −5 0 √1 −3
√
10 10 10 10
0 √310 √110
0 1 0 5 0 0 x x
√3 √1
x y z 10
0 10
0 2 0
1 0 0
y + −5 3 0 y = 2 ⇐⇒
√1 0 −3
√ 0 0 −5 0 √1 −3
√ z z
10 10 10 10
3y+z
3y+z
5 0 0 √ 0 1 0 √
10 10
√3 1
3y+z y−3z 0 √
√
10
x √
10
0 2 0 x + −5 3 0 10 10 x = 2 ⇐⇒
0 0 −5 y−3z
√ √1 0 √ −3 y−3z
√
10 10 10
10
3y+z
√ 3y+z
√
5 0 0
10 10
3y+z
0 x + √910 −5 √310
y−3z
√
10
x √
10
0 2 x = 2 ⇐⇒
0 0 −5 y−3z
√ y−3z
√
10 10
2 2
3y + z y − 3z 9 3y + z 3 y − 3z
5 √ + 2x2 −5 √ +√ √ − 5x + √ √ =2
10 10 10 10 10 10
3y + z y − 3z
X=x ∧ Y = √ ∧ Z= √
10 10
Obtenemos la Cuádrica
9 3
5Y 2 + 2X 2 − 5Z 2 + √ Y − 5X + √ Z = 2
10 10
Y completando los cuadrados obtendremos lo siguiente:
2 2
9 5 2 3 72 25
5 Y + √ +2 X − −5 Z − √ =2+ +
10 10 4 10 10 200 8
2 2 2
9 5 3
Y + √ X− Z− √
10 10 4 10 10
+ − =1
5.485 5.485 5.485
5 2 5
Y es un hiperboloide de una hoja.