Algebra 2 - Santander, R. - DMCC - MBI - FC - USACH PDF

Descargar como pdf o txt
Descargar como pdf o txt
Está en la página 1de 288

CAPITULO 0

Matrices

El trabajo solidario es lo único que hace


humano al ser humano

Este Capitulo estará destinado a presentar contenidos y actividades que permitirán al estudiante, recordar
los contenidos mı́nimos necesarios, a cerca del conjunto de matrices, ya estudiado en el curso de Álgebra I
con el objetivo de enfrentar con éxito el estudio de los tópicos del curso Álgebra II. en particular su Capı́tulo
I, Sistemas de Ecuaciones lineales y matrices.

1. El grupo de matrices
Dado un conjunto de datos, un problema siempre interesante es como ordenarlos de una forma rápida y
eficiente, es claro que la rapidez y eficiencia dependen de las necesidades que plantea la situación; en esta
dirección tenemos por ejemplo la forma como se ordenan los departamentos en un edificio A de n-pisos. Una
forma serı́a la siguiente: El departamento aij , esta en el piso i y ocupa la posición j en dicho piso; de esta
forma A = (aij ) es una buena representación del edificio, esto es:

 
a11 a12 a13 ... a1m
 a21 a22 a23 ... a2m 
 
 a31 a32 a33 ... a3m 
A=  (1)
 .. .. .. .. 
 . . .
... . 
an1 an2 an3 . . . anm

Definición 1.1. A será llamada una Matriz de n-filas y m-columnas ( orden n × m) sobre R si A es de la
forma modelada en (1).

Usaremos la notación:

MR (n × m) = { matrices de orden n × m sobre R}

MR (n) = MR (n × n)

1.2. Algunas Matrices Especiales. Si A = (aij ) ∈ MR (n × m) entonces

 A será llamada Matriz fila si n = 1. Por ejemplo


A = 2 3 −5 7 0 fila de largo 5
3
4 Profesor Ricardo Santander Baeza 2010

 A será llamada Matriz columna si m = 1. Por ejemplo

 
1
3
 
A= 
4 columna de largo 5
7
9

 A será llamada Matriz nula si aij = 0 (∀i; 1 ≤ i ≤ n); (∀j; 1 ≤ j ≤ m). Por ejemplo

 
0 0 0
(0)(2×3) = nula de orden 2 × 3
0 0 0

 A será llamada Matriz cuadrada si n = m. Por ejemplo

 
2 −4 9
A= 1 5 0  cuadrada de orden 3
−1 7 18

 A será llamada Matriz diagonal si:

• n=m

• aij = 0 si i 6= j

Por ejemplo

 
2 0 0
A= 0 5 0  diagonal de orden 3
0 0 18

 A será llamada Matriz identidad si:

• n = m(
1: i=j
• aij =
6 j
0: i=
Y se denota por In

Por ejemplo

 
1 0 0
I3 =  0 1 0  identidad de orden 3
0 0 1

 A será llamada Matriz triangular superior si:

• n=m

• aij = 0 si i > j
Profesor Ricardo Santander Baeza 2010 5

Por ejemplo

 
2 3 7
A= 0 5 4  triangular superior de orden 3
0 0 11

 A será llamada Matriz triangular inferior si:

• n=m

• aij = 0 si i < j

Por ejemplo

 
7 0 0
A= 4 5 0  triangular inferior de orden 3
11 8 0

 A será llamada Matriz simétrica si:

• n=m

• aij = aji

Por ejemplo

 
2 3 7
A= 3 5 4  simétrica de orden 3
7 4 11

 A será llamada Matriz antisimétrica si:

• n=m

• aij = −aji

Por ejemplo

 
0 3 7
A =  −3 0 4  antisimétrica de orden 3
−7 −4 0

 At será llamada Matriz traspuesta de A si: At = (aji ) ∈ MR (m × n) Por ejemplo, si

   
2 3 7 2 8 3
A =  8 5 4  entonces At =  3 5 0 
3 0 11 7 4 11

En general A simétrica si A = At y A antisimétrica si A = −At


6 Profesor Ricardo Santander Baeza 2010

1.3. Adición de matrices.

 Sean A = (aij ) ∈ MR (n × m) y B = (bij ) ∈ MR (n × m) entonces definimos:


A = B ⇐⇒ aij = bij (1 ≤ i ≤ n); (1 ≤ j ≤ m)

 Sean A = (aij ) ∈ MR (n × m) y B = (bij ) ∈ MR (n × m) entonces definimos una operación binaria


”+”, como sigue:
+ : MR (n × m) × MR (n × m) −7 → MR (n × m) tal que A + B = (aij + bij )
(2)
(A, B) 7−→ A+B
   
−2 3
2 3 9 6
Ejemplo 1.3.1. Si A = yB= entonces
1 0 7 3 8 −7
   
2 3 9 −2 3 6
A+B = +
1 0 7 3 8 −7
 
0 6 15
=
4 8 0
En general,
   
a11 a12 a13 ... a1m b11 b12 b13 ... b1m
 a21 a22 a23 ... a2m   b21 b22 b23 ... b2m 
   
A+B =  .. .. .. .. + .. .. .. .. 
 . . ... . .   . . .
... . 
an1 an2 an3 . . . anm bn1 bn2 bn3 . . . bnm

 
(a11 + b11 ) (a12 + b12 ) (a13 + b13 ) ... (a1n + b1n )
 (a21 + b21 ) (a22 + b22 ) (a23 + b23 ) ... (a2n + b2n ) 
 
=  .. .. .. .. 
 . . ... . . 
(am1 + bm1 ) (am2 + bm2 ) (am3 + bm3 ) . . . (amn + bmn )

Teorema 1.4. (MR (n × m), +) es un grupo abeliano

Demostración

 La relación definida en (2) es una operación en el conjunto de matrices.

 Si A = (aij ) ∈ MR (n × m)), B = (bij ) ∈ MR (n × m)) y C = (aij ) ∈ MR (n × m)) entonces usando la


adición definida en (2) tenemos que
(A + B) + C = ((aij ) + (bij )) + cij
= ((aij + bij )) + cij
= ((aij + bij ) + cij )
= (aij + (bij + cij )) ( usamos la asociatividad de R)
= aij + ((bij ) + (cij ))
= A + (B + C)
Profesor Ricardo Santander Baeza 2010 7

Luego, (A + B) + C = A + (B + C), y la importancia de la asociatividad estriba en que la operación


inicialmente definida para dos sumados se extiende naturalmente a un número finito de sumandos.
 (0)(n×m) es el elemento neutro aditivo en MR (n × m), porque si

Suponemos que A = (aij ) ∈ MR (n × m)) entonces


A + (0)(n×m) = (aij ) + (0)
= (aij + 0)
= (aij ) ( usamos la propiedad del neutro aditivo de R)
= A
Luego, A + (0)(n×m ) = A = (0)(n×m + A (∀A; A ∈ MR (n × m))

 Si A = (aij ) ∈ MR (n × m) entonces −A = (−aij ) es el inverso aditivo de A, ya que

Si A = (aij ) ∈ MR (n × m) entonces

A + −A = (aij ) + (−aij )
= (aij − aij )
= (0)(n×m) ( usamos la propiedead del inverso aditivo de R)
En particular, A − B := A + (−B) en MR (n × m)

 Si A = (aij ) ∈ MR (n × m), y B = (bij ) ∈ MR (n × m) entonces A + B = B + A, pues

A+B = (aij ) + (bij )


= (aij + bij )
= (bij + aij ) ( usamos la conmutatividad de R)
= (bij ) + (aij )
= B+A

1.5. Ejercicios Resueltos.

(1) Determine la matriz A = (aij ) ∈ MR (1000); tal que


(
i :i≤j
aij = (3)
0 :i>j
(4)
Además calcule la ”traza,”(en sı́mbolos tr) de la matriz A donde:

1000
X
tr(A) = aii (5)
i=1

Solución

(i) De la definición hecha en (3) tenemos que, por ejemplo:

a23 = 2 pues la ”fila 2 es menor que la columna 3”

a32 = 0 pues la ”fila 3 es mayor que la columna 2”


8 Profesor Ricardo Santander Baeza 2010

Despues de lo anterior tenemos que:

   
a11 a12 a13 ... a11000 1 1 1 ... 1
 a21 a22 a23 ... a21000   0 2 2 ... 2 
   
 a31 a32 a33 ... a31000   0 0 3 ... 3 
 = 
 .. .. .. .. ..   .. .. .. . . .. 
 . . . . .   . . . . . 
a10001 a10002 a10003 . . . a10001000 0 0 0 ... 1000

(ii) Finalmente,

1000
X 1000
X 1000 · 1001
tr(A) = aii = i= = 500500
2
i=1 i=1

(2) En el conjunto de matrices MR (2), considera el siguiente subconjunto:

S = {A ∈ MR (2) | A = At } (6)

Donde At , es la matriz traspuesta de la matriz A. En sı́mbolos.


   
a11 a12 t a11 a21
Si A = entonces A = (7)
a21 a22 a12 a22
   
1 3 0 −1
Ası́ por ejemplo: ∈S y ∈S
3 5 −1 4
En general para entender al conjunto S, debemos ingresar al conjunto:

A ∈ S ⇐⇒ A ∈ MR (2) ∧ A = At
     t
a11 a12 a a12 a11 a12
⇐⇒ A = ∧ 11 =
a21 a 22  a21 a22  a21 a22 
a11 a12 a a12 a11 a21
⇐⇒ A = ∧ 11 =
a21 a22 a21 a22 a12 a22

  a11 = a11
a11 a12 a12 = a21
⇐⇒ A = ∧
a21 a22 a21 = a12
a22 = a22
 
a11 a12
⇐⇒ A = ∧ a12 = a21
a21 a22
 
a11 a12
⇐⇒ A =
a12 a22

Ahora si A = (aij ) ∈ S y B = (bij ) ∈ S entonces A + B = (aij + bij ) ∈ MR (2).

Por otra parte,

(A + B)t = (aij + bij )t = (aji + bji ) = At + B t = A + B


Profesor Ricardo Santander Baeza 2010 9

Conclusión A + B ∈ S

     
0 0 a11 a12 −a11 −a12
Además, (0) = ∈ S y si A = ∈ S entonces −A = ∈ S.
0 0 a12 a22 −a12 −a22

Ası́ que (S, +) es un grupo abeliano

Observen que si A ∈ S entonces

    
a11 0 0 a12 0 0
A = + +
0 0 a12 0 0 a22
| {z } | {z } | {z }
∈S ∈S ∈S

1.6. Ejercicios Propuestos.

(1) Sea A = (aij ) ∈ MR (100). Determine la matriz A correspondiente en cada caso:


(
1 :i≤j
• aij =
0 : en otro caso
(
j :i≤j
• aij =
1 : en otro caso
(
i+j : i≥ j
• aij =
i − j : en otro caso
(
i2 − j 2 : i ≤ j
• aij =
0 : en otro caso

(2) Calcule T r(A) (traza de A) en el ejercicio anterior.

(3) Demuestre en MR (3) que:

• (At )t = A

• (A + B)t = At + B t

• A = At ⇐⇒ (aij ) = (aji )

(4) En MR (3) determine los conjuntos

• SA = {A ∈ MR (3) | A = At } matrices simétrica de orden 3.

• ASA = {A ∈ MR (3) | A = −At } matrices antisimétrica de orden 3.

(5) Demuestre que:

• A ∈ MR (3) =⇒ A + At ∈ SA
10 Profesor Ricardo Santander Baeza 2010

• A ∈ MR (3) =⇒ A − At ∈ ASA

(6) Demuestre que MR (3) = SA ⊕ ASA . Es decir que se satisfacen simultáneamente las propiedades1

• MR (3) = SA + ASA

• SA ∩ ASA = {0MR (3) }

(7) Complete las siguientes sentencias:


 
2 x2
• Sea A = . Si A = At entonces x =
2x − 1 0
• Si A es simétrica entonces A − At =

• Si A es una matriz triangular superior entonces At es

• Si A es una matriz diagonal entonces At =

(8) Define una nueva operación en MR (2) como sigue:


   
a b λa λb
λ = (λ ∈ R)
c d λc λd

Consideremos el siguiente conjunto:


         
1 0 1 1 1 0 1 1
G= , = λ1 + λ2 | λi ∈ R(i = 1, 2)
0 0 1 1 0 0 1 1
   
1 0 1 1
• Muestre que ∈Gy ∈G
0 0 1 1
• Demuestre que (G,+) es un grupo
   
2 1 0 −1
• Si G′ = , . Demuestre que G = G′
1 1 −1 −1

2. Anillo de Matrices
Sabemos que (MR (n), +) es un grupo abeliano ası́ que, para hacer un anillo de las matrices debemos definir
un producto asociativo y distributivo.

Definición 2.1. Sean A = (aij ) ∈ MK (n × m) y B = (bij ) ∈ MK (m × s) y entonces definimos la operación


producto de matrices como sigue:
· : MK (n × m) × MK (m × s) −
7 → MK (n × s)
(A , B) 7 → A·B =C

Donde C = (cij ), y
m
X
cij = aik bkj (8)
k=1

1En este caso se dice que M (3) es suma directa de los conjuntos S y AS
R A A
Profesor Ricardo Santander Baeza 2010 11

Ejemplo 2.1.1.
 
  1 3 0 4  
1 3 5 2 69 1 49
(1) Sea A = yB= 2 7 −3 5  entonces A · B =
2 7 0 16 55 −21 43
−1 9 2 6

(2) Supongamos que tenemos el sistema de ecuaciones lineales:

a11 x1 + a12 x2 + a13 x3 + a14 x4 = b1


a21 x1 + a22 x2 + a23 x3 + a24 x4 = b2
a31 x1 + a32 x2 + a33 x3 + a34 x4 = b3 (⋆)
a41 x1 + a42 x2 + a43 x3 + a44 x4 = b4
a51 x1 + a52 x2 + a53 x3 + a54 x4 = b5
entonces (⋆) puede ser escrito en forma matricial como sigue:
   
a11 x1 + a12 x2 + a13 x3 + a14 x4 = b1 a11 a12 a13 a14   b1
a21 x1 + a22 x2 + a23 x3 + a24 x4 = b2  a21 a22 a23 a24  x1  b2 
   x2   
a31 x1 + a32 x2 + a33 x3 + a34 x4 = b3 ⇐⇒ 
 a31 a32 a33 a34   
  x3  =  b3 

a41 x1 + a42 x2 + a43 x3 + a44 x4 = b4  a41 a42 a43 a44   b4 
x4
a51 x1 + a52 x2 + a53 x3 + a54 x4 = b5 a51 a52 a53 a54 b5
(3) Supongamos que tenemos tres tiendas, digamos A, B, C, y cada una de ellas tiene en stock dos artı́culos,
art1 y art2 , distribuidos como sigue, la tienda A posee 2 art1 y 4 art2 ; la tienda B posee 5 art1 y 7
art2 y la tienda C posee 4 art1 y 3 art2 entonces podemos distribuir según la matriz:
 
A B C
 − − − 
M (art × tiendas) = 


art1 | 2 5 4 
art2 | 4 7 3

entonces
 
• 1 1 · M (art × tiendas) = 6 12 7 representa la cantidad total de artı́culos por tienda.
 
1  
11
• M (art × tiendas) ·  1  = representa la cantidad total de artı́culos del tipo uno y dos
14
1
en stock
Teorema 2.1.2. (MR (n), +, ·) es un anillo no conmutativo con identidad In , (∀n; n ∈ N)

Demostración

 En primer lugar, sabemos que (M, +) es un grupo abeliano

 Si A = (aij ) ∈ MK (n × m), B = (bij ) ∈ MK (m × s) y C = (cij ) ∈ MK (s × t) entonces

A · (B · C) = (A · B) · C
El resultado sigue de los siguientes hechos: Como
Xs
• B · C=(dij ) donde dij = bik ckj , y
k=1
12 Profesor Ricardo Santander Baeza 2010

m
X
• A · (B · C) = (eij ) donde eij = aip dpj
p=1

entonces

m m s
! s m
!
X X X X X
eij = aik dkj = aik bkr crj = aik bkr crj = (A · B) · C
k=1 k=1 r=1 r=1 k=1
 Si A = (aij ) ∈ MK (n × m), B = (bij ) ∈ MK (m × s) y C = (cij ) ∈ MK (m × s) entonces A · (B + C) =
A·B+A·C
m
X
Porque si hacemos, A · (B + C) = (aij )[(bij + cij ] = (dij ), con dij = aik [bkj + ckj ] obtenemos que
k=1
m
X m
X m
X m
X
dij = aik [bkj + ckj ] = [aik · bkj + aik · ckj ] = [aik · bkj ] + [aik · ckj ] = A · B + A · C
k=1 k=1 k=1 k=1

Es, decir tenemos que A · (B + C) = A · B + A · C. Procediendo en forma análoga podemos verificar


también que (B + C) · A = B · A + C · A
(
1 : si i = j
 Si A = (aij ) e In = (bij ) tal que bij = entonces AIn = In A = A (∀A; A ∈ MR (n))
0 : si i 6= j
Para verificar que In es el neutro multiplicativo debemos verificar que esta satisface la ecuación AX = A.
De hecho
n
X
Si A · In = (tij ) entonces por definición tij = aik bkj = aij bjj . Ası́ que (tij ) = A.
k=1
n
X
Análogamente, In A = (tij ) entonces por definición tij = bik akj = bii aij . Ası́ que (tij ) = A
    k=1
0 1 1 2
 Finalmente, si A = yB= tenemos que
0 0 3 4
     
0 1 1 2 3 4
A·B = · =
0 0 3 4 0 0
y
     
1 2 0 1 0 1
B·A = · =
3 4 0 0 0 3
Ası́ que, A · B 6= B · A.

3. Ejercicios Propuestos de Producto de Matrices

(1) Verdadero o Falso

• (−A)t = −(At )

• (A + B)t = At + B t

• A · B = (0) =⇒ A = (0) ∨ B = (0)


Profesor Ricardo Santander Baeza 2010 13

• (k1 A)(k2 B) = (k1 k2 )AB

• (−A)(−B) = −(AB)

• Se A y B son simétricas entonces AB = BA

• Si podemos multiplicar A · A entonces A es cuadrada


 
3 −2
(2) Sea A = entonces determine el conjunto:
−4 3

S = {B ∈ MR (2) | B 2 = A}

(3) Demuestre que (A · B)t = B t · At ( siempre que el producto tenga sentido )


(
i+j si i = j
(4) Sea A = (aij ) ∈ MR (3) tal que aij = y B = (bij ) ∈ MR (3)) tal que bij = j − i + 1.
2i − j si i 6= j
Determine el conjunto

S = {X ∈ MR (3) | AX = At − 2B}

 
1 1 1
(5) Si A =  0 1 1  ∈ MR (3). Determine An , para n ∈ N.
0 0 1

(6) Demuestre usando Inducción matemática que

 n  n(n−1) n−2

a 1 0 an nan−1 2 a
 0 a 1  =  0 an nan−1  (∀n; n ∈ N)
0 0 a 0 0 an

(7) Un constructor tiene contrato para construir tres (3) estilos de casa: moderno, mediterráneo y colonial.
La cantidad de material empleada en cada tipo de casa es dada por la matriz:

Fierro Madera Vidrio Pintura Ladrillo


Moderno 5 20 16 7 17
Mediterráneo 7 18 12 9 21
Colonial 6 25 8 5 13

• Si el va a construir 5,7 y 12 casas de los tipos moderno, mediterráneo y colonial respectivamente,


¿cuántas unidades de cada material serán empleadas?.

• Suponga ahora que los precios por unidad de fierro, madera, vidrio, pintura, ladrillo sean 15,8,5,1
y 10 unidades monetarias, respectivamente. ¿ Cuál es el precio unitario de cada tipo de casa ?.

• ¿ Cuál es le costo total del material empleado ?


14 Profesor Ricardo Santander Baeza 2010

(8) Consideremos la matriz:


 
0 1 1 1 1
1 0 1 1 0
 
0 1 0 1 0 (⋆)
 
0 0 1 0 1
0 0 0 1 0

Una red de comunicación tiene cinco locales con transmisores de potencias distintas. Estableceremos
para la matriz (⋆) las siguientes condiciones:

(i) aij = 1 significa que la estación i transmite directamente a la estación j.

(ii) aij = 0 significa que la estación i no alcanza a la estación j. Observe que aii = 0 significa que una
estación no transmite directamente para si misma.

• ¿ Cuál será el significado de la matriz A2 = A · A. Observe que si A2 = (cij ) entonces


5
X
c42 = a4k ak2 = 0 + 0 + 1 + 0 + 0 = 1
k=1
Además el único valor no nulo 1 proviene del producto a43 · a32 = 1. Esto significa que la estación
4 transmite para la estación 2 a través de una retransmisión por la estación 3, aunque no exista
una transmisión directa de 4 a 2.

• Calcule A2
• ¿ Cuál es el significado de c13 = 2 ?
• Discuta el significado de los términos no nulos, iguales a 1 y mayores que 1 de modo que pueda
justificar la afirmación:
”La matriz A2 representa el número de caminos disponibles para ir de una estación a otra con una
única retransmisión”.
• ¿ Cuál es el significado de las matrices A + A2 , A3 y A + A2 + A3
• Si A fuese simétrica ¿ qué significarı́a ?

4. Unidades en el anillo MR (n)


4.1. Introducción. Consideremos el sistema de ecuaciones

a11 x + a12 y = b1
a21 x + a22 y = b2
Resolver el sistema significa encontrar el valor de x e y de tal forma que se satisfagan ambas ecuaciones
simultáneamente.

El sistema se puede reescribir matricialmente como.


   
a11 a12 x b1
=
a21 a22 y b2
 
x
entonces resolver el sistema significa determinar la matriz X =
y
Equivalentemente encontraremos la matriz X si y sólo si la podemos “despejar ”, es decir.
Profesor Ricardo Santander Baeza 2010 15

   −1  
x a11 a12 b1
=
y a21 a22 b2
 −1
a11 a12
Entonces la pregunta es ¿ quién es ? y ¿existe siempre? y ¿es fácil de encontrar?.
a21 a22
En cualquier caso, la respuesta sigue del análisis algebraico de la situación.

a11 x + a12 y = b1 a11 a22 x + a12 a22 y = b1 a22


⇒ ⇒ (a11 a22 − a21 a12 )x = b1 a22 − b2 a12
a21 x + a22 y = b2 a21 a12 x + a22 a12 y = b2 a12
Y de,
a11 x + a12 y = b1 a11 a21 x + a12 a21 y = b1 a21
⇒ =⇒ (a11 a22 − a21 a12 )y = b2 a11 − b1 a21
a21 x + a22 y = b2 a21 a11 x + a22 a11 y = b2 a11

Luego la respuesta es afirmativa si y sólo si (a11 a22 − a21 a12 ) 6= 0. Más aún, ahora estamos en condiciones
de responder el problema para este caso:

   
b1 a22 − b2 a12 a22 −a12
   a a −a a   a a −a a a11 a22 − a21 a12   
x  11 22 21 12   11 22 21 12  b1
= = 
y  b a −b a   −a21 a11  b2
2 11 1 21
a11 a22 − a21 a12 a11 22 − a21 a12
a a11 a22 − a21 a12

 
a11 a12
Si definimos para A = su determinante como: det(A) = a11 a22 − a21 a12 entonces tenemos lo
a21 a22
siguiente:
    
a11 a12 x b1
El sistema matricial = Tiene solución si y sólo si
a21 a22 y b2

(1) det(A) 6= 0, y

 b a −b a 
1 22 2 12
   det(A) 
x  
(2) = , y
y  b a −b a 
2 11 1 21
det(A)
 a22 −a12 
 −1  det(A) det(A) 
a11 a12  
(3) = 
a21 a22  −a21 a11 
det(A) det(A)
En el caso general podemos definir de la siguiente forma:

Si A ∈ MR (n), para n ≥ 2 y A = (aij ) entonces


n
X
det(A) = ∆ik aik (Método de Laplace) (9)
k=1
16 Profesor Ricardo Santander Baeza 2010

representa el determinante de la matriz A, calculado por la fila “i′′ ; donde:

Aij = matriz obtenida de la matriz A eliminando la fila i y la columna j, y

∆ij = (−1)(i+j) det(Aij ) para (i = 1, 2, . . . , n); (j = 1, 2, . . . , n), representa el cofactor de la posición ij.


1 2 3
Ejemplo 4.1.1. Si A =  4 5 6  entonces
7 8 9

     
5 6 4 6 4 5
• A11 = ∧ A12 = ∧ A13 =
8 9 7 9 7 8
     
2 3 1 3 1 2
• A21 = ∧ A22 = ∧ A23 =
 8 6   7 9   7 8 
2 3 1 3 1 2
• A31 = ∧ A32 = ∧ A33 =
5 6 4 6 4 5
 
1 2 3
Ejemplo 4.1.2. Si A = 4 5 6 entonces para la fila uno (1) tenemos:
7 8 9

∆11 = (−1)2 (−3) ∧ ∆12 = (−1)3 (−6) ∧ ∆13 = (−1)4 (−3)


Ası́ que para esta matriz tenemos:
det(A) = ∆11 a11 + ∆12 a12 + ∆13 a13
= (−3) · 1 + 6 · 2 + (−3) · 3
= 0

4.2. Propiedades del Determinante. Aunque el desarrollo de Laplace calcula un determinante, no obs-
tante su proceso recurrente es demasiado caro en tiempo para matrices de tamaño grande, ası́ que es necesario
mejorar tal método obteniendo consecuencias útiles desde la definición:

n
X n
X
(1) Si A = (aij ) ∈ MR (n) entonces det(A) = det(At ). Pues det(A) = ∆ik aik = ∆sj asj
k=1 s=1
(2) Si A = (aij ) ∈ MR (n) posee una fila o una columna nula entonces det(A) = 0

En efecto
n
X
det(A) = ∆ik · 0 = 0, calculando por la fila nula
k=1
(3) Si α ∈ R; α 6= 0
det(Li → αLi )(A) = α det(A)
En efecto
n
X n
X
det((Li ↔ αLi )(A)) = ∆ik αaik = α ∆ik aik = α det(A)
k=1 k=1

(4) det(Li ↔ Li+1 )(A) = − det(A)


Profesor Ricardo Santander Baeza 2010 17

En efecto
n
X
det((Li ↔ Li+1 )(A)) = ∆(i+1)k aik
k=1
n
X
= (−1)(i+1+k) det(Aik )aik
k=1
Xn
= − (−1)(i+k) det(Aik )aik
k=1
n
X
= − ∆ikaik
k=1
= − det(A)

  
1 2 4 5
Ası́ por ejemplo; det = −3 y det =3
4 5 1 2

(5) Si A posee dos filas (o columnas) iguales entonces det(A) = 0

En efecto

Esta propiedad es un corolario de la propiedad anterior, pues si la fila i y la fila j son iguales entonces

det(A) = det((Li ↔ Lj )(A)) = − det(A)



1 2
Ası́ por ejemplo; det =0
1 2
Las siguientes propiedades quedarán de ejercicios:

(6) det(A) = det((Li → Li + αLj )(A))

Ası́ por ejemplo;

     
1 2 3 1 2 3 1 2 3  
  (L2 →L2 −4L1 )
  (L3 →L3 −7L1 )
  −3 −6
det 4 5 6 = det 0 −3 −6 = det 0 −3 −6 = det =0
−6 −12
7 8 9 7 8 9 0 −6 −12

(7) Adición en una fila:


     
a11 ... a1n a11 . . . a1n a11 . . . a1n
 .. ..   .. ..   .. .. 
 . .   . .   . . 
     
det  bi1 + ci1 . . . bin + cin  = det  bi1 . . . bin  + det  ci1 . . . cin 
 .. ..   . ..    . ..  
 . .   .. .   .. . 
an1 ... ann an1 . . . ann an1 . . . ann

(8) Determinante de un producto, (esta propiedad la mostraremos más adelante)

det(A · B) = det(A) · det(B) (10)


18 Profesor Ricardo Santander Baeza 2010

5. Ejercicios Resueltos de Determinante


(1) Si A = (aij ) es una matriz triangular entonces det(A) = a11 · · · ann

En efecto

Aplicamos la definición por la primera fila si es triangular inferior, o por la primera columna si es
triangular superior.

(2) Calculemos usando propiedades el determinante de la matriz A si:

 
0 1 0 1 0
 −1 a 0 0 0 
 
A=
 0 0 a 0 0 

 −1 0 0 a 0 
0 0 0 0 a

Solución

 
0 1 0 1 0  
0 1 0 1 0 1 0 1
 −1 a 0 0 0 
  (definición)  −1 a 0 
0  (L4 −→L4 −L2 ) −1 a 0 0
det 
 0 0 a 0 0 
 = a · det 
 0 = a ·

  0 a 0  0 0 a 0
−1 0 0 a 0 0 −a
−1 0 0 a 0 a
0 0 0 0 a

 
1 0 1  
(definición)
  (definición) 2 1 1 (definición) 3
= a · det 0 a 0 = a · det = 2a
−a a
−a 0 a

(3) Demuestre que

 
1 1 1
det  x y z  = (x − y)(y − z)(z − x)
x2 y 2 z 2

En efecto
Profesor Ricardo Santander Baeza 2010 19
   
1 1 1 1 1 1
(L2 →L2 −xL1 )
det  x y z  = det  0 (y − x) (z − x) 
x2 y 2 z 2 x2 y2 z2
 
1 1 1
(L3 →L3 −x2 L1 )
= det  0 (y − x) (z − x) 
0 (y − x ) (z 2 − x2 )
2 2

 
(definición) (y − x) (z − x)
= det
(y 2 − x2 ) (z 2 − x2 )

= (y − x)(z 2 − x2 ) − (z − x)(y 2 − x2 )

= (y − x)(z − x)(z + x − y − x)

= (y − x)(z − x)(z − y)

= (x − y)(y − z)(z − x)

6. Ejercicios Propuestos de Determinantes


   
1 2 3 −1
(1) Dadas las matrices A = yB= . Calcule explı́citamente:
1 0 0 −2
(a) det(A + B)

(b) det(A) + det(B)

(2) Sean A ∈ MR (n) y B ∈ MR (n) dos matrices. Determine si son verdaderas o falsas las siguientes afir-
maciones:

(a) det(2A) = 2 det(A)

(b) det(A2 ) = (det(A))2

(c) det(Aij ) < det(A)

(3) Dada la matriz


 
2 3 1 −2
 5 3 1 4 
A=
 0

1 2 2 
3 −1 −2 4
Determine:

(a) A23

(b) det(A23 )

(c) ∆23

(d) det(A)
20 Profesor Ricardo Santander Baeza 2010

(4) Calcule para las matrices dadas:

 
    2 −3 1 4
−2 3 6 2 −1 3  0 −2 0 0 
(a) det  4 1 8  (b) det  4 0 6  (c) det 
 3

7 −1 2 
−2 0 0 5 −2 3
4 1 −3 8
     
1 1 −1 0 3 −1 5 0 0 a 0 0
 −3 4 6 0   0 2 0 1   b 0 0 0 
(d) det 
 2
 (e) det 
 
 (f) det  
5 −1 3 2 0 −1 3   0 0 0 c 
4 0 3 0 1 1 2 0 0 0 d 0
   
  3 0 0 0 0 1 −1 2 0 0
a b 0 0    
 c d 0 19 18 0 0 0 3 1 4 0 0
0     
(g) det  
 0 0 a −b  (h) det 
 −6 √π √
−5 0 0 
 (i) det 
 2 −1 5 0 0 

 4 2 3 0 0   0 0 0 2 3 
0 0 c d
8 3 5 6 −1 0 0 0 −1 4
 
  0 1 0 0 0 0
a 0 0 0 0  
 0 0 b   −1 0 1 0 0 0 
 0 0   
0 −1 0 1 0 0
(j) det 
 0 0 0 0 c 
 (k) det 



 0 0 0   0 0 −1 0 1 0 
d 0  
0 0 0 −1 0 1
0 e 0 0 0
0 0 0 0 −1 0

   
a b c a+b b+c c+a
(5) Si det  x y z  = 3 entonces calcule det  x + y y + z z + x 
p q r p+q q+r r+p

(6) Demuestre que


 
1 1 tan γ
det  − tan γ tan β 1  = tan α + tan β + tan γ − tan α tan β tan γ
tan α 0 1

 
α+β αβ 0 ... 0 0 0
 1 α+β αβ ... 0 0 0 
 
 0 1 α+β ... 0 0 0 
 
(7) Si A(n) =  .. .. .. .. .. ..  ∈ MR (n).
 . . . . . . 
 
 0 0 0 ... 1 α+β αβ 
0 0 0 ... 0 1 α+β

Demuestre que
det(A(n)) = (α + β) det(A(n − 1)) − αβ det(A(n − 2)) (n ≥ 3)

(8) Sea A = (aij ) ∈ MR (3) tal que det(A) = 3. Calcule el determinante de las siguientes matrices
Profesor Ricardo Santander Baeza 2010 21

• det((L1 ←→ L3 )(A))

• det((L1 ←→ L2 )(A))

• det((L2 −→ 2L2 )(A))


( !
(L1 −→ −3L1 )
• det (A)
(L2 −→ 2L2 )
• det((L1 −→ L1 − 3L2 )(A))

(9) Demuestre que :


 
1 + x1 x2 x3 ... xn
 x1 1 + x2 x3 ... xn 
  Xn
 x1 x2 1 + x3 ... xn 
det   = 1+ xi
 .. .. .. 
 . . . xn  i=1
x1 x2 x3 ... 1 + xn

(10) Sea A ∈ MR (n) tal que A = −At , es decir A es antisimétrica. Demuestre que

det(At ) = (−1)n det(A)

(11) Sea A ∈ MR (n) tal que A = −At . Demuestre que

n impar =⇒ det(A) = 0

(12) Sea A ∈ MR (n) tal que As = 0 y As−1 6= 0, una tal matriz se llama matriz nilpotente. Demuestre que
det(A) = 0

(13) Sea A ∈ MR (n) tal que A2 = A, una tal matriz se llama matriz idempotente. Determine det(A)

7. Determinante y Matriz Inversa


Recordemos que el sistema matricial

    
a11 a12 x b1
=
a21 a22 y b2

Tiene solución si y sólo si, det(A) 6= 0 y

 a22 a12 
  −
x
 det(A) det(A)   b 
  1
= 
y  a21 a11  b2

det(A) det(A)

Es decir,
22 Profesor Ricardo Santander Baeza 2010

 a22 −a12 
 −1  det(A) det(A) 
a11 a12  
= 
a21 a22  −a21 a11 
det(A) det(A)

Esto quiere decir que A ∈ U(MR (2)), pues


 a22 −a12 
   det(A) det(A)   1 0 
−1 a11 a12  
A·A = · = = I2
a21 a22  −a21 a11  0 1
det(A) det(A)

Entonces lo que corresponde ahora, es verificar si el papel que juega el determinante para determinar al
conjunto U(MR (2)), puede ser generalizado para la determinación de U(MR (n)). Para fijar algunos nombres
de uso corriente haremos la siguiente.
Definición 7.1. Diremos que A ∈ MR (n) es invertible o no singular o una unidad, si A ∈ U(MR (n)), es
decir, si existe B ∈ MR (n) tal que A · B = B · A = In , y en tal caso notamos B = A−1 .

Para conectar esta definición con nuestro estudio de determinantes iniciamos con el siguiente.
Lema 7.1.1. A ∈ U (n) =⇒ det(A) 6= 0 ∧ det(A−1 ) = (det(A))−1

En efecto

A ∈ U (n) ⇐⇒ ∃A−1 ; A−1 ∈ MR (n) : A · A−1 = In
=⇒ det(A · A−1 ) = det(In )
=⇒ det(A) · det(A−1 ) = 1
1
=⇒ det(A) 6= 0 ∧ det(A−1 ) = = (det(A))−1
det(A)
Definición 7.2. Sea A ∈ MR (n) tal que A = (aij ) entonces

e = (∆ij ), y
(1) Llamaremos matriz de cofactores a la matriz A

et
(2) Matriz adjunta de A a la matriz adj(A) = A
 
2 1 0
Ejemplo 7.2.1. Si A =  −3 1 4  entonces su matriz de cofactores y adjunta son respectivamente:
1 6 5
   
−19 19 −19 −19 −15 4
e =  −5 10 −11  , y adj(A) =  19
A 10 −8 
4 −8 5 −19 −11 5
Observamos de este ejemplo los siguientes hechos:
    
2 1 0 −19 −15 4 −19 0 0
• A · adj(A) =  −3 1 4   19 10 −8  =  0 −19 0 
1 6 5 −19 −11 5 0 0 −19
Profesor Ricardo Santander Baeza 2010 23

• det(A) = 2∆11 + 1 · ∆12 + 0 · ∆13 = 2 · (−19) + 19 = −19. Ası́ que


 
det(A) 0 0
A · adj(A) =  0 det(A) 0  (11)
0 0 det(A)

• Aunque este paso no sea necesario, sin embargo es una cuestión que más tarde de todas formas abordare-
mos, y permite simplificar nuestro acercamiento a la obtención de las unidades del anillo de matrices.
Si definimos la operación de matrices
· : R × MR (n) −7 → MR (n)
(λ, (aij )) 7 → (λ · aij )

Ası́ que, aplicando esta función en (11) obtenemos que,
 
1 0 0  t
  −1 1 ∆ij
A · adj(A) = det(A) 0 1 0 =⇒ A = adj(A) =
0 0 1 det(A) det(A)

• El resultado anterior no es una casualidad, en realidad tenemos el siguiente:

Teorema 7.3. A · adj(A) = adj(A) · A = det(A)In


En efecto

• Si A = (aij ) ∈ MR (n) entonces Adj(A) = (∆ij )t = (∆ji )


n
X
• A · adj(A) = (cij ) ∈ MR (n), donde cij = ais ∆js , para (1 ≤ i ≤ n) y (1 ≤ j ≤ n)
s=1
• Si i = j entonces

n
X
cii = ais ∆is = det(A) (1 ≤ i ≤ n)
s=1

• Si i 6= j entonces
n
X
cij = ais ∆js
s=1
 
a11 a12 ··· a1n
 .. .. .. 
 . . ··· . 
 
 ai1 ai2 ··· ain  ← fila i
 . .. .. 
= det 
 .. . ··· .


 a ain 
 i1 ai2 ···  ← fila j
 . .. .. 
 .. ···
. . 
an1 an2 · · · ann
= 0
Corolario 7.3.1. Si U(MR (n)) = {A ∈ MR (n) | A invertible} entonces

A ∈ U(MR (n)) ⇐⇒ det(A) 6= 0


24 Profesor Ricardo Santander Baeza 2010

En tal caso,

1 1
det(A−1 ) = ∧ A−1 = adj(A)
det(A) det(A)



6 2
Ejemplo 7.3.2. Si A = entonces det(A) = 6 · 4 − 11 · 2 = 2, Luego existe A−1 , y usando el
11 4
teorema anterior podemos calcular la inversa:

En efecto
 
e = (∆ij ) = 4 −11
• A
−2 6
 
4 −2
• adj(A) =
−11 6
   
−1 1 4 −2 2 −1
• A = =
2 −11 6 − 11
2 3
Ejemplo 7.3.3. Sean A ∈ MR (n) y B ∈ MR (n) entonces

A ∈ U(MR (n)) ∧ B ∈ U(MR (n)) =⇒ A · B ∈ U(MR (n))


En efecto

A ∈ U(MR (n)) ⇐⇒ (∃A−1 ; A−1 ∈ U(MR (n))) : A · A−1 = In


B ∈ U(MR (n)) ⇐⇒ (∃B −1 ; B −1 ∈ U(MR (n))) : B · B −1 = In
Luego,

(AB)(B −1 A−1 ) = A(BB −1 )A−1 = AIn A−1 = AA−1 = In


Ası́ que,

A · B ∈ U(MR (n)) ∧ (A · B)−1 = B −1 A−1

8. Ejercicios Propuestos de Matriz Inversa


(1) Determine det(A) y si es posible A−1 para las siguientes matrices:

 
    1 1 1
3 2 3 −6
(a) (b) (c)  0 2 3 
1 2 1 2
5 5 1
     
3 2 1 1 1 1 1 0 x
(d)  0 2 2  (e)  0 1 1  (f)  1 1 x2 
0 1 −1 0 0 1 2 2 x2
     
1 1 1 1 1 −3 0 −2 4 −1 2 −2
 1 2 −1 2     
(g)   (h)  3 −12 −2 −6  (i)  3 −1 0 0 
 1 −1 2 1   −2 10 2 5   2 3 1 0 
1 3 3 2 −1 6 1 3 0 7 1 1
Profesor Ricardo Santander Baeza 2010 25

(2) Demuestre que


A ∈ U(MR (n)) ⇐⇒ At ∈ U(MR (n))
 
α β −α
(3) Si A =  1 α 0  ∈ MR (3) entonces
β α −β

(a) Determine el conjunto

I = {(α, β) ∈ R2 | A ∈ U(MR (3)}


(b) Para u ∈ I, (si I 6= ∅ ), determine A−1

 
α −3
(4) Sea A = . Determine el conjunto:
4 (1 − α)

U(A) = {α ∈ R | A ∈ U(MR (2)}

 
−α (α − 1) α + 1)
(5) Sea A =  1 2 3  . Determine el conjunto:
(2 − α) (α + 3) (α + 7)

U(A) = {α ∈ R | A ∈ U(MR (3)}

(6) Sea A ∈ MR (n). Demuestre que

A 6∈ U(n) =⇒ A · adj(A) = (0)

 
cos θ sen θ
(7) Demuestre que A = ∈ U(MR (2)) y determine A−1
− sen θ cos θ

(8) Sea A ∈ MR (n). demuestre que

A = At =⇒ Adj(A) = (Adj(A))t
(9) Si U(MR (n)) = {A ∈ MR (n) | A invertible} entonces demuestre que U(MR (n)) es un grupo no abeliano
con el producto de matrices.

9. Operaciones Elementales: Rango de una Matriz


Sabemos que una operación elemental es una de las funciones definidas como:

1. (li ↔ lj ) : MR (n × m) −
7 → MR (n × m) Que consiste en permutar la fila i con la fila j
A 7 → (li ↔ lj )(A)

26 Profesor Ricardo Santander Baeza 2010

2. (li → α · li ) : MR (n × m) −
7 → MR (n × m) Que consiste en multiplicar la fila i por α 6= 0
A 7 → (li → α · li )(A)

3. (li → li + α · lj ) : MR (n × m) −
7 → MR (n × m) Que consiste en permutar la fila i
A 7 → (li → li + αlj )(A)
− por la fila i más α veces la fila j

Ahora relacionaremos lo anterior con las matrices a través de la siguiente definición:

Definición 9.1. Sea A ∈ MR (n × m) y B ∈ MR (n × m). diremos que A ∼


= B por filas si B es obtenida de
A por un número finito de operaciones elementales

Ejemplo 9.1.1. Si consideramos la matriz


 
2 4 −8 6
A =  3 −5 4 12 
9 2 7 1
entonces como la ”composición de isomorfismos” es un isomorfismo podemos hacer lo siguiente:
   
2 4 −8 6 1 2 −4 3
 3 −5 4 12  (L1 −→ 12 L1 )  3 −5 4 12  (L2 −→ L2 − 3L1 )
9 2 7 1 9 2 7 1
   
1 2 −4 3 1 2 −4 3
 0 −11 16 3  (L2 −→ L3 − 9L1 )  0 −11 16 3 
9 2 7 1 0 −16 43 −26
Ejemplo 9.1.2. Sea A = (aij ) ∈ MR (4) tal que aij = i (1 ≤ i ≤ 4)(1 ≤ j ≤ 4) entonces
   
1 1 1 1 1 1 1 1
2 (L2 ←→ L2 − 2L1 )
2 2 2  0 0 0 0 
A=
3
 (L3 −→ L3 − 3L1 )  
3 3 3  0 0 0 0 
(L4 −→ L4 − 4L1 )
4 4 4 4 0 0 0 0

Observación 9.1.3. En los ejemplos anteriores podemos notar que:

(1) La operación elemental (Lr ←→ Ls ), nos permite trasladar a voluntad las filas de la matriz, como por
ejemplo acumular, si las hubiera, las filas nulas ( de puros ceros) en las filas inferiores (de abajo) de
la matriz.

(2) La operación elemental (Lr −→ αLr ), nos permite crear unos (1) en cualquier posición de la matriz.

(3) La operación elemental (Lr −→ Lr + αLs ), nos permite crear ceros (0) en cualquier posición de la
matriz.

Esta observación nos permite construir una clase especial de matriz, que de ahora en adelante será muy
importante, como lo iremos viendo en el transcurso de nuestro estudio, por lo pronto la formalizaremos a
través de la siguiente.

Definición 9.2. Sea A ∈ MR (n × m) entonces


Profesor Ricardo Santander Baeza 2010 27

(1) A será llamada ”Matriz Escalonada Reducida por Filas” si:

(a) En cualquier fila no nula, el primer elemento no nulo (partiendo de la izquierda) es un uno (1).
A este elemento lo llamaremos el pivote de esa fila.

(b) Todas las filas (si las hay) cuyos elementos son todos ceros (filas nulas), aparecen bajo las filas no
nulas.

(c) Si una columna contiene el pivote de un fila entonces es nula en todas las otras posiciones.

(d) Si dos filas sucesivas son no nulas entonces el primer elemento no nulo en la fila inferior, esta a
la derecha del primer elemento no nulo de la fila superior.

(2) A será llamada ”Matriz Escalonada por Filas” si:

(a) En cualquier fila no nula, el primer elemento no nulo (partiendo de la izquierda) es un uno (1).
A este elemento lo llamaremos el pivote de esa fila.

(b) Todas las filas (si las hay) cuyos elementos son todos ceros (filas nulas), aparecen bajo las filas no
nulas.

(c) Si dos filas sucesivas son no nulas entonces el primer elemento no nulo en la fila inferior, esta a
la derecha del primer elemento no nulo de la fila superior.

Ejemplo 9.2.1. Cinco matrices en la forma escalonada reducida por filas.

     
1 0 0 1 0 0 0     1 0 2 5
1 0 0 5 1 0
(a) 0 1 0 (b) 0 1 0 0 (c) (d) (e) 0 1 3 6
0 0 1 2 0 1
0 0 1 0 0 1 0 0 0 0 0

Ejemplo 9.2.2. Cinco matrices en la forma escalonada por filas. Note la diferencia con (9.2.1)

     
1 2 3 1 −1 6 4     1 3 2 5
1 0 2 5 1 2
(a) 0 1 5 (b)  0 1 2 8  (c) (d) (e) 0 1 3 6
0 0 1 2 0 1
0 0 1 0 0 1 0 0 0 0 0

Lema 9.3. Si A ∈ MR (n × m) entonces existe una única B ∈ MR (n × m) tal que A ∼


= B por filas donde B
es una matriz escalonada por filas.

En efecto

El resultado sigue, de observar que el orden de una matriz es finito, es decir (n × m), es una pareja de
números naturales finitos.

Definición 9.4. Sea A ∈ MR (n × m) entonces llamaremos ”rango ” de la matriz A al número de filas no


nulas de su correspondiente matriz escala reducida por filas.

La notación que usaremos para el rango de una matriz A será ρ(A)


28 Profesor Ricardo Santander Baeza 2010

1 2 1 0
Ejemplo 9.4.1. Calculemos el ρ(A) si A =  −1 0 3 5 
2 4 2 0

Aplicando operaciones elementales orientadas, es decir guiados por la definición de matriz escala reducida
por filas tenemos que.

   
1 2 1 0 (L2 −→ L2 + L1 ) 1 2 1 0  
 −1 1
0 3 5   0 2 4 5  L2 −→ L2
2 4 2 0 (L3 −→ L3 − 2L1 ) 0 0 0 0 2
   
1 2 1 0 1 0 −3 −5
 0 1 2 52  (L1 −→ L1 − 2L2 )  0 1 2 5 
2
0 0 0 0 0 0 0 0

Ası́ que ρ(A) = 2

9.5. Ejercicios Propuestos.


(1) Reducir a la forma escalonada por filas las matrices:
 
  0 2 2
1 −2 3 −1  
 1 1 3  0 1 3 −2
(a)  2 −1 2 3  (b) 

 (c)
3 −4 2  2 1 −4 3
3 1 2 3
2 −3 1  
  1 1 1 1 0
1 3 2 3 −7 14  1
 1 1 −1 4 
(d)  2 6 1 −2 5 −2  (e) 1 2 −1 3 1 (f) 
 1

1 −1 1 −4 
1 3 −1 0 2 −1
1 −1 1 1 2
(2) Reducir a la forma escalonada reducida por filas las matrices del ejercicio (1)

(3) Calcular el rango de las matrices del ejercicio (2)

(4) Describa todas las posibles matrices de orden 2, que esten en la forma escalonada reducida por filas

(5) Demuestre que la relación definida en la Definición 9.1, es una relación de equivalencia

(6) Demuestre que toda matriz escalonada reducida por filas es una matriz escalonada por filas.

10. Operaciones Elementales: Matrices elementales


Definición 10.1. Una matriz E ∈ MR (n) se llamará matriz elemental si es obtenida de la matriz identidad
In , a través de una única operación elemental.
   
0 1 1 0
Ejemplo 10.1.1. E(l1 l2 ) = es matriz elemental pues E(l1 l2 ) = (l1 ↔ l2 )
1 0 0 1
   
7 0 1 0
Ejemplo 10.1.2. E(7l1 ) = es matriz elemental pues E(7l1 ) = (l1 → 7l1 )
0 1 0 1
   
1 0 1 0
Ejemplo 10.1.3. E(l2 +l2 ·L1 ) = es matriz elemental pues E(l2 +l2 ·l1 ) = (l2 → l2 + 2l1 )
2 1 0 1
Profesor Ricardo Santander Baeza 2010 29

Teorema 10.2. Si A = (aij ) ∈ MR (n) entonces (li ↔ lj )(A) = E(li lj ) · A = (li ↔ lj )(In ) · A

En efecto
   
a11 a12 a13 ··· a1n a11 a12 a13 · · · a1n
 .. .. .. .. ..   .. .. .. .. .. 
 . . . . .   . . . . . 
   
 ai1 ai2 ai3 · · · ain   aj1 aj2 aj3 · · · ajn 
 . .. .. .. ..  entonces (l ↔ l )(A) = 
 .. 
Si A =   .. .. .. .. 
 .. . . . .  i j  . . . . . 
 a aj2 aj3 · · · ajn   a ai2 ai3 ··· ain 
 j1   i1 
 . .. .. .. 
..   . .. .. .. .. 
 .. . . . .  .. . . . . 
an1 an2 an3 · · · ann an1 an2 an3 · · · ann
   
1 0 0 ··· 0 1 0 0 ··· 0
 .. .. .. .. ..   .. .. .. .. .. 
 . . . . .   . . . . . 
   
 0 1 0 ··· 0   0 0 1 ··· 0 
 . . . .. ..   .. 
Por otra parte, E(li lj ) = (li ↔ lj )  . . .  =  .. .. .. .. 
 . . . . .   . . . . . , Ası́ que
 0 0 1 ··· 0   0 1 0 ··· 0 
   
 . . . .. ..   . . . .. .. 
 .. .. .. . .   .. .. .. . . 
0 0 0 ··· 1 0 0 0 ··· 1

    
1 0 0 ··· 0 a11 a12 a13 · · · a1n a11 a12 a13 ··· a1n
 .. .. .. .. ..   .. .. .. .. ..   .. .. .. .. .. 
 . . . . .  . . . . .   . . . . . 
    
 0 0 1 ··· 0  ai1 ai2 ai3 · · · ain   aj1 aj2 aj3 ··· ajn 
 . . . .. ..   .. .. .. .. ..   .. 
E(li lj ) · A =     . .. .. .. 
 .. .. .. . .  . . . . .  =  .. . . . . 
    
 0 1 0 · · · 0  aj1 aj2 aj3 ··· ajn   ai1 ai2 ai3 ··· ain 
 . . . . ..   .. .. .. .. ..   . .. .. .. .. 
 .. .. .. .. .  . . . . .   .. . . . . 
0 0 0 ··· 1 an1 an2 an3 · · · ann an1 an2 an3 ··· ann

De donde sigue que, (li ↔ lj )(A) = E(li lj ) · A = (li ↔ lj )(In ) · A

Teorema 10.3. Si A = (aij ) ∈ MR (n) entonces (li → α · li )(A) = E(αli ) · A = (li → α · li )(In ) · A

En efecto
   
a11 a12 a13 · · · a1n a11 a12 a13 · · · a1n
 .. .. .. .. ..   .. .. .. .. .. 
 . . . . .   . . . . . 
   
Si A =  ai1 ai2 ai3 · · · ain  entonces (li → α · li )(A) =  αai1 αai2 αai3 · · · αain 
 . .. .. .. ..   . .. .. .. .. 
 .. . . . .   .. . . . . 
an1 an2 an3 · · · ann an1 an2 an3 · · · ann
30 Profesor Ricardo Santander Baeza 2010

   
1 0 0 ··· 0 1 0 0 ··· 0
 .. .. .. .. ..   .. .. .. .. .. 
 . . . . .   . . . . . 
   
Por otra parte, E(αi) = (li → α · li )  0 0 1 · · · 0 = 0 0 α ··· 0 .
 . . . .. ..   .. .. .. .. .. 
 .. .. .. . .   . . . . . 
0 0 0 ··· 1 0 0 0 ··· 1
Ası́ que,
    
1 0 0 ··· 0 a11 a12 a13 · · · a1n a11 a12 a13 · · · a1n
 .. .. .. .. ..   .. .. .. .. ..   .. .. .. .. .. 
 . . . . .  . . . . .   . . . . . 
    
E(αi) · A =  0 0 α · · · 0   ai1 ai2 ai3 · · · ain  =  αai1 αai2 αai3 · · · αain 
 . . . .. ..   . .. .. .. ..   . .. .. .. .. 
 .. .. .. . .   .. . . . .   .. . . . . 
0 0 0 ··· 1 an1 an2 an3 · · · ann an1 an2 an3 · · · ann
Por tanto, (li → α · li )(A) = E(αli ) · A = (li → α · li )(In ) · A

Teorema 10.4. Si A = (aij ) ∈ MR (n) entonces (li → li + α · lj )(A) = E(li +αlj ) · A = (li → li + α · lj )(In ) · A

En efecto
   
a11 a12 · · · a1n a11 a12 ··· a1n
 .. .. .. ..   .. .. .. .. 
 . . . .   . . . . 
   
 ai1 ai2 · · · ain   ai1 + αaj1 ai2 + αaj1 · · · ain + αaj1 
 . .. .. ..   .. .. .. .. 
A=
 .. . . . 
, entonces (li → li + αlj )(A) = 
 . . . .


   
 aj1 aj2 · · · ajn   aj1 aj2 ··· ajn 
 . .. .. ..   .. .. .. .. 
 .. . . .   . . . . 
a11 a12 · · · a1n a11 a12 ··· a1n
   
1 0 0 ··· 0 1 0 0 ··· 0
 .. .. .. ..   .. .. .. .. 
 . . . .   . . . . 
   
 0 1 0 ··· 0   0 1 α ··· 0 
 . . . ..   . . . .. 
Por otra parte, E(li +αlj ) = (li → li + αlj ) 
 .. .. .. .
= . . .
  . . . .
.

   
 0 0 1 ··· 0   0 0 1 ··· 0 
 . . . ..   . . . .. 
 .. .. .. .   .. .. .. . 
0 0 0 ··· 1 0 0 0 ··· 1
Ası́ que,

    
1 0 0 ··· 0 a11 a12 ··· a1n a11 a12 ··· a1n
 .. .. .. ..   .. .. .. ..   .. .. .. .. 
 . . . .  . . . .   . . . . 
    
 0 1 α ··· 0   ai1 ai2 ··· ain   ai1 + αaj1 ai2 + αaj1 · · · ain + αaj1 
 . . . ..  . .. .. ..   .. .. .. .. 
E(li +αlj ) ·A = 
 .. .. .. .
 .
 . . .
 
. = . . . .


    
 0 0 1 ··· 0   aj1 aj2 ··· ajn   aj1 aj2 ··· ajn 
 . . . ..  . .. .. ..   .. .. .. .. 
 .. .. .. .   .. . . .   . . . . 
0 0 0 ··· 1 a11 a12 ··· a1n a11 a12 ··· a1n

Luego, (li ↔ li + αlj )(A) = E(li +αlj ) · A = (li ↔ li + αlj )(In ) · A


Profesor Ricardo Santander Baeza 2010 31

Corolario 10.4.1. Si A = (aij ) ∈ MR (n) entonces EA = Es · Es−1 · · · E1 · A

En efecto

• La relación ser equivalentes por filas es una relación de equivalencia. ver Ejercicios Propuestos 9.5,
ejercicio (5)

• Por definición, para cada matriz A existe en su clase de equivalencia, una única matriz escala reducida
por filas EA .

• Luego a partir de A, para obtener EA se necesita realizar un número finito de operaciones elementales,
digamos ϕi con i = 1, 2, . . . , s, es decir
(ϕs ◦ · · · ◦ ϕ2 ◦ ϕ1 )(A) = EA (12)
• Aplicando la definición de matriz elemental y los teoremas (10.2), (10.3) y (10.4), a cada operación ϕi
con i = 1, 2, . . . , s le corresponde una matriz elemental Ei con i = 1, 2, . . . , s. Ası́ que

EA = (ϕs ◦ · · · ◦ ϕ2 ) ◦ (ϕ1 (A))


= (ϕs ◦ · · · ◦ ϕ2 ) ◦ (E1 · A)
= (ϕs ◦ · · · ◦)ϕ2 (E1 · A)
= (ϕs ◦ · · · ◦ (E2 · E1 · A)
= Es · · · · E2 · E1 · A
Corolario 10.4.2. Si A = (aij ) ∈ MR (n) entonces A ∈ U(MR (n)) ⇐⇒ EA = In

En efecto

Como EA = Es · · · · E2 · E1 · A entonces en primer lugar,

A ∈ U(MR (n)) =⇒ ρ(A) = n =⇒ EA = In . (Definición de matriz escala reducida por filas)

En segundo lugar,

EA = In =⇒ Es · · · · E2 · E1 · A = In =⇒ det(A) 6= 0 =⇒ A ∈ U(MR (n))

Corolario 10.4.3. Si A = (aij ) ∈ MR (n) entonces ρ(A) = n ⇐⇒ A ∈ U(MR (n))

En efecto

ρ(A) = n ⇐⇒ EA = In ⇐⇒ A ∈ U(MR (n))

11. Matrices Elementales y Matriz Inversa


Sabemos de los corolarios (10.4.1) y (10.4.2) que para una matriz A ∈ MR (n) tenemos que

(1) EA = Es · Es−1 · · · E1 · A, y

(2) A ∈ U(MR (n)) ⇐⇒ EA = In


32 Profesor Ricardo Santander Baeza 2010

Ası́ que, juntando la información tenemos el siguiente resultado:

A ∈ U(MR (n)) ⇐⇒ In = Es · Es−1 · · · E1 · A ⇐⇒ A ∼


= In (13)
Es decir, A ∈ U(MR (n)) si y sólo si la identidad es obtenida de A por s operaciones elementales.

Además es inmediato que,

A ∈ U(MR (n)) ⇐⇒ In = Es · Es−1 · · · E1 · A ⇐⇒ A−1 = Es · Es−1 · · · E1 (14)


Por otra parte,

A ∈ U(MR (n)) ⇐⇒ In = Es · Es−1 · · · E1 · A ⇐⇒ A−1 = Es · Es−1 · · · E1 In ⇐⇒ In ∼


= A−1 (15)

Es decir, A ∈ U(MR (n)) si y sólo si A−1 es obtenida de In por las mismas s operaciones elementales usadas
en (13)

Ası́ que de (13), de (14) y (15) obtenemos el “Algoritmo”

A In

= ∼ =
In A−1
 
1 2
Ejemplo 11.1. Si A = entonces det(A) = −2 y A ∈ U(MR (2)), por tanto podemos aplicar
3 4
nuestra técnica para encontrar A−1 .

A In
 q   q 
1 2 1 0
3 4 0 1

l2 → l2 − 3l1 l2 → l2 − 3l1
   
1 2 1 0
0 −2 −3 1

l2 → − 12 l2 l2 → − 12 l2
   
1 2 1 0
3
0 1 2 − 12

l1 → l1 − 2l2 l1 → l1 − 2l2
   
1 0 −2 1
3
0 1 2 − 12
q q
In A−1
Profesor Ricardo Santander Baeza 2010 33

11.2. Ejercicios Propuestos. Determine, si es posible, A−1 para las siguientes matrices:

 
    1 1 1
3 2 3 −6
(a) (b) (c)  0 2 3 
1 2 1 2
5 5 1
     
3 2 1 1 1 1 1 0 x
(d)  0 2 2  (e)  0 1 1  (f)  1 1 x2 
0 1 −1 0 0 1 2 2 x2
     
1 1 1 1 1 −3 0 −2 4 −1 2 −2
 1 2 −1 2     
(g)   (h)  3 −12 −2 −6  (i)  3 −1 0 0 
 1 −1 2 1   −2 10 2 5   2 3 1 0 
1 3 3 2 −1 6 1 3 0 7 1 1

12. Ejercicios Resueltos Misceláneos del Anillo de Matrices

(1) Sean A ∈ MR (n), B ∈ MR (n) y C ∈ MR (n) tal que

(a) det(A) 6= 0

(b) C t B + A)t = (At + B t )(In + C)

Demuestre que C = (−BA−1 )t

Solución

Etapa 1. P.d.q. C = (−BA−1 )t

Etapa 2. Gestión de la información

(i) Como C t B + A)t = (At + B t )(In + C) entonces (C t B)t + At = At + At C + B t + B t C

Pues, la operación traspuesta es un homomorfismo de grupos. es decir en el espacio


de matrices vale la propiedad

(R + S)t = Rt + St
(ii) Como (C t B)t + At = At + At C + B t + B t C entonces B t C + At = At + At C + B t + B t C

Pues, la operación traspuesta en el producto de matrices satisface la propiedad

(RS)t = Rt St
(iii) Finalmente como (MR (n), +) es un grupo entonces

At C + Bt = 0 ⇐⇒ −Bt = At C
(iv) Como det(A) 6= 0 entonces A es invertible (A ∈ U(n)). Además como det(A) = det(At ) entonces
At es invertible, y (A−1 )t = (At )−1
34 Profesor Ricardo Santander Baeza 2010

Luego,
C = (At )−1 (−Bt ) = (A−1 )t [−(Bt )] = −(A−1 )t (Bt ) = −(BAt )−1

(2) Determine si la siguiente afirmación es verdadera o Falsa.

Sean D ∈ MR (4) y E ∈ MR (4) tal que

• det(D) = 3

• det(E) = −2

Si G = D −1 · E t · D 2 entonces det(G) = −12

Solución : Falso, pues,

1
det(G) = det(D −1 E t D 2 ) = det(D −1 ) det( E t ) det(D 2 ) = det(E)(det D)2 = det(E) det(D) = −6
det D
(3) Sea A ∈ MR (n). Demuestre que


A2 = 0 =⇒ (In + A) ∈ U(MR (n)) ∧ (In + A)−1 = (In − A)
Solución

Etapa 1. P.d.q. (In + A) ∈ U(MR (n)), es decir (In + A)(In − A) = In = (In − A)(In + A) o bien
det(I + A) 6= 0

Etapa 2. Gestión de la información

Usemos directamente la opción (I + A)(I − A) y A2 = (0), para obtener

(In + A)(In − A) = In2 − A + A − A2 = In2 − A2 = In2 = In


Análogamente

(In − A)(In + A) = In2 + A − A − A2 = In2 − A2 = In2 = In


Ası́, que por definición , se tiene que la matriz (I + A) es invertible y su inversa es la matriz (I − A).
 
 a+b a a a 
 
 
 
 a a+b a a 
(4) Si A = 

 ∈ MR (4) entonces determine el conjunto

 
 a a a+b a 
 
 
a a a a+b

S = {(a, b) ∈ (R − {0} × R − {0}) | A ∈ U(MR (4))}


Solución:
Profesor Ricardo Santander Baeza 2010 35

Etapa 1. Debemos determinar condiciones sobre a y b para que A ∈ U(MR (4))). Es decir, debemos
determinar condiciones sobre a y b para que det(A) 6= 0.
Etapa 2. Aplicaremos operaciones elementales, para calcular el det(A)
   
 a+b a a a   b 0 0 −b 
   
   
  L1 −
7 → L1 − L4  
 a a+b a a   0 b 0 −b 
  L1 −7 → L2 − L4  
   
  L1 − 7 → L3 − L4  
 a a a+b a   0 0 b −b 
   
   
a a a a+b a a a a+b
 
a  b 0 
L4 7−→ L4 − L1  0 0 
b  
 
a  0 b 0 0 
L4 7−→ L4 − L2  
b  
 
 0 0 b 0 
a  
L4 7−→ L4 − L3  
b
a a a 4a + b
Ası́ que det(A) = b3 (4a + b)

Etapa 3. Finalmente

A ∈ U(n) ⇐⇒ A ∈ MR (4) ∧ det(A) 6= 0


⇐⇒ A ∈ MR (4) ∧ b3 (4a + b) 6= 0
⇐⇒ A ∈ MR (4) ∧ (4a + b) 6= 0 (Pues, b 6= 0)
Por tanto S = {(a, b) ∈ (R − {0} × R − {0}) | b 6= −4a}
CAPITULO 1

Sistemas de Ecuaciones

El trabajo solidario es lo único que hace


humano al ser humano

Este capitulo estará destinado esencialmente a: Representar matricialmente un sistema de ecuaciones lin-
eales, a modo de filtro, Interpretar el rango de la matriz de coeficientes, como el grado de libertad de
su sistema asociado, Resolver sistemas de ecuaciones lineales de orden (n x m), y Resolver sistemas de
ecuaciones lineales sujetos a condiciones de entorno.

1. Motivación
Consideremos las rectas L1 = {(x, y) ∈ R2 | y = x + 1}, y L2 = {(x, y) ∈ R2 | y = −x + 1} cuyos gráficos
son los siguientes:

y L1 : y = x + 1 y

x x

L2 : y = −x + 1

Figura 1: Gráfico de L1 Figura 2: Gráfico de L2

Juntando los gráficos de las rectas L1 y L2 , obtenemos la nueva situación:

y L1 : y = x + 1

P =?

L2 : y = −x + 1

Figura 3: Gráfico de L1 ∩ L2
Entonces la pregunta es:
¿Quién es el punto P , donde se ”intersectan”, ambas rectas.?
Para responder a esta pregunta podemos utilizar con seguridad varias estrategias, no obstante, antes de usar
cualesquiera de ellas debemos aclarar y entender lo mejor posible el problema.

3
4 Profesor Ricardo Santander Baeza 2010

Es claro, que P es un punto común a ambas rectas, es decir, P ∈ L1 ∩ L2 entonces

P ∈ L1 ∩ L2 ⇐⇒ P ∈ L1 ∧ P ∈ L2
⇐⇒ P = (x, y) ∈ R2 ∧ [y = x + 1 ∧ y = −x + 1] (∗)
x − y = −1
⇐⇒ P = (x, y) ∈ R2 ∧ (∗∗)
x+y = 1

(1) A partir de (∗), Generamos una tabla para buscar coincidencias:

x x+1 x −x + 1
1 1+1=2 1 −1 + 1 = 0
0 0+1=1 0 −0 + 1 = 1

Luego, P = (0, 1) ∈ L1 ∩ L2 , es un de los deseados. Esta forma de aproximarse a la solución del


problema tiene un inconveniente, ¿ cómo saber si hay más intersecciones ?

(2) A partir de (∗∗), podemos hacer lo siguiente,

(1) x − y = −1 (2)+(1) x − y = −1
=⇒
(2) x + y = 1 2x + 0y = 0

x − y = −1
=⇒
x + 0 = 0

0 − y = −1
=⇒
x + 0 = 0

0 + y = 1
=⇒
x + 0 = 0

Luego, P = (0, 1) ∈ L1 ∩ L2 , es el punto buscado.

(3) A partir de (∗∗), podemos repensar el problema, a la luz de lo que hemos aprendido.

     
(1) x − y = −1 1 −1 x −1
⇐⇒ =
(2) x + y = 1 1 1 y 1
     
1 −1 x −1
(l2 → l2 − l1 ) =
0 2 y 2
     
1 −1 x −1
(l2 → 12 l2 ) =
0 1 y 1
     
1 0 x 0
(l1 → l1 + l2 ) =
0 1 y 1

Luego, P = (0, 1) ∈ L1 ∩ L2 , es el punto buscado.


Profesor Ricardo Santander Baeza 2010 5

2. Formalización
Definición 2.1. Llamaremos Sistema Lineal de n-ecuaciones y m-incógnitas o de orden (n × m) a una
expresión del tipo:

a11 x1 + a12 x2 + ... + a1m xm = b1


a21 x1 + a22 x2 + ... + a2m xm = b2
.. .. . .. . (1)
. + . + .. + . = ..
an1 x1 + an2 x2 + ... + anm xm = bn

Equivalentemente llamaremos notación matricial de (1) a la ecuación matricial:

    
a11 a12 ... a1m x1 b1

 a21 a22 ... a2m 
 x2  
  b2 

 .. .. .. ..  .. = ..  (2)
 . . . .  .   . 
an1 an2 . . . anm xm bn
| {z }| {z } | {z }
A X B

En fin, de ahora en adelante nos referiremos a un sistema lineal genérico poniendo

A·X =B

donde A, X y B son como en (2).

En particular, si B = (0) entonces llamamos al sistema, ”Sistema Lineal Homogéneo”. Es decir, este es de
la forma:

    
a11 z1 + a12 z2 + . . . + a1m zm = 0 a11 a12 . . . a1m z1 0
a21 z1 + a22 z2 + . . . + a2m zm = 0  a21 a22 . . .
 a2m 
 z2  
  0 

.. .. . .. .. ⇐⇒  .. .. .. ..  .. = ..  (3)
. + . + .. + . = .  . . . .  .   . 
an1 z1 + an2 z2 + . . . + anm zm = 0 an1 an2 . . . anm zm 0

Ejemplo 2.1.1. Un sistema lineal de orden 3×4:

 
 x   
2x + 4y + z + w = 18 2 4 1 1  18
y  

4x + 5y + 6z − 2w = 24 ⇐⇒  4 5 6 −2  
 z = 24 
3x + y − 2z + 3w = 4 3 1 −2 3 4
w

Sistema lineal homogéneo asociado.


 
 x   
2x + 4y + z + w = 0 2 4 1 1  0
y   

4x + 5y + 6z - 2w = 0 ⇐⇒  4 5 6 −2 
  = 0
z 
3x + y - 2z + 3w = 0 3 1 −2 3 0
w
6 Profesor Ricardo Santander Baeza 2010

3. Solución de un sistema lineal de ecuaciones


Observación 3.1. Si graficamos las rectas L1 : x + 2y = 6 y L2 : 3x − y = 4 entonces tenemos.

Eje y
L2
L1

• P = (2, 2)

Eje x

Figura 4: Intersección de rectas

(1) De la figura encima se concluye directamente que el punto P = (2, 2), es la intersección de las dos
rectas dadas, es decir;

(2, 2) ∈ L1 ( Pues 1 · 2 + 2 · 2 = 6)
=⇒ (2, 2) ∈ L1 ∩ L2
(2, 2) ∈ L2 ( Pues 3 · 2 − 1 · 2 = 4)
(2) Motivados por lo anterior podemos buscar una estrategia para determinar el punto de intersección o el
punto que satisface ambas ecuaciones.
 
(ec1 ) x + 2y = 6 1 2 | 6
(ec2 ) 3x − y = 4 3 −1 | 4

ec2 −→ ec2 − 3ec1 L2 −→ L2 − 3L1


 
(ec1 ) x + 2y = 6 1 2 | 6
(ec2 ) 0 − 7y = −14 0 −7 | −14

ec2 −→ − 17 ec2 L2 −→ − 17 L2
 
(ec1 ) x + 2y = 6 1 2 | 6
(4)
(ec2 ) 0 + y = 2 0 1 | 2

ec1 −→ ec1 − 2ec2 L1 −→ L1 − 2L2


 
(ec1 ) x + 0y = 2 1 0 | 2
(ec2 ) 0 + y = 2 0 1 | 2

m m
    
x = 2 1 0 x 2
=
y = 2 0 1 y 2

(3) Ahora para fijar ideas debemos definir lo que entenderemos por una solución de un sistema lineal en
general.
Profesor Ricardo Santander Baeza 2010 7

Definición 3.2. Diremos que Z es una solución del sistema (2) A · X = B. Si


 
z1

 z2 

(1) Z =  ..  ∈ MR (m × 1), y
 . 
zm
(2) A · Z = B, es decir
    
a11 z1 + a12 z2 + . . . + a1m zm = b1 a11 a12 . . . a1m z1 b1
a21 z1 + a22 z2 + . . . + a2m zm = b2  a21 a22 . . .
 a2m 
 z2  
  b2 

.. .. . .. .. ⇐⇒  .. .. .. ..  .. = .. 
. + . + .. + . = .  . . . .  .   . 
an1 z1 + an2 z2 + . . . + anm zm = bn an1 an2 . . . anm zm bn

Ejemplo 3.2.1. Si consideramos el sistema lineal

x + 2y = 6
3x − y = 4
   
x 2
entonces Z = = es una solución de este.
y 2
En efecto
    
1·2 + 2·2 = 6 1 2 2 6
⇐⇒ =
3·2 − 1·2 = 4 3 −1 2 4

Teorema 3.3. Si A · X = B es un sistema lineal entonces


A · Z = B ⇐⇒ Z = U + H donde A · U = B ∧ A · H = (0)
En efecto,

(1) Si el sistema tiene solución única Z, es decir A · Z = B entonces Z = Z + (0), donde A · (0) = (0), ya
verifica las condiciones pedidas.

Si el sistema tiene más de una solución, digamos que Z1 y Z2 son dos tales soluciones del sistema
A · X = B entonces debe suceder por definición lo siguiente:

A · Z1 = B ∧ A · Z2 = B =⇒ A · Z1 = A · Z2
=⇒ A · Z1 − A · Z2 = (0)
=⇒ A · (Z1 − Z2 ) = (0) (Distributividad del producto)
 
z1
 z2 
 
Luego, Z1 − Z2 =  ..  es una solución del sistema homogéneo asociado A · X = (0), es decir.
 . 
zm
    
a11 z1 + ... + a1m zm = 0 a11 . . . a1m z1 0
a21 z1 + ... + a2m zm = 0  a21 . . .
 a2m 
 z2  
  0 

.. . .. .. ⇐⇒  .. .. ..  .. = .. 
. + .. + . = .  . . .  .   . 
an1 z1 + . . . + anm zm = 0 an1 . . . anm zm 0
8 Profesor Ricardo Santander Baeza 2010

Y en este caso Z1 = Z2 + (Z1 − Z2 ) y Z2 = Z1 + (Z2 − Z1 ) es una solución con las condiciones


especı́ficadas.

(2) Recı́procamente, si U es una solución del sistema lineal A · X = B y H es una solución del sistema
homogéneo asociado entonces Z = U + H es una solución del sistema lineal.

En efecto

A · (U + H) = A · U + A · H = B + (0) = B

Ejemplo 3.3.1. Consideremos el sistema lineal de orden (2 × 3).

2x + 3y − z = 1
(∗)
4x + 6y − 2z = 2
     
1 2 −1
entonces Z1 =  1  y Z2 =  1  son soluciones del sistema (∗), y H = Z1 − Z2 =  0  es una
4 6 −2
solución del sistema homogéneo asociado a (∗).

En efecto


1
2·1+3·1−1·4 = 1
=⇒ Z1 =  1  es solución del sistema
4·1+6·1−2·4 = 2
4

Análogamente,



1
2·2+3·1−1·6 = 1
=⇒ Z2 =  1  es solución del sistema
4·2+6·1−2·6 = 2
4

Además,

 
−1
2 · (−1) + 3 · 0 − 1 · (−2) = 0
=⇒ H = Z1 − Z2 =  0  es solución del sistema homogéneo
4 · (−1) + 6 · 0 − 2 · (−2) = 0
−2

Observación 3.3.2. Las operaciones elementales realizadas para resolver un sistema de ecuaciones per-
miten observar dos cuestiones claves:

(1) Para solucionar un sistema los cálculos se realizan en los coeficientes (matrices A y B) y no intervienen
(gracias a la notación matricial) las variables.
(2) Las operaciones realizadas son funciones, más aún, son isomorfismos del grupo de matrices corres-
pondiente.
Profesor Ricardo Santander Baeza 2010 9

4. Resolución de sistemas y Operaciones Elementales: Un Algoritmo Base


Dado un sistema lineal de orden n × m:

a11 x1 + a12 x2 + ... + a1m xm = b1


a21 x1 + a22 x2 + ... + a2m xm = b2
.. .. . .. . (5)
. + . + .. + . = ..
an1 x1 + an2 x2 + ... + anm xm = bn
Entonces de acuerdo a lo estudiado podemos, considerar las siguientes etapas para nuestro algoritmo:

4.1. Notación matricial de un sistema lineal. Ponemos (5) en notación matricial, es decir:

    
a11 a12 ... a1m x1 b1

 a21 a22 ... a2m 
 x2  
  b2 

 .. .. .. ..  .. = ..  (6)
 . . . .  .   . 
an1 an2 . . . anm xm bn
| {z }| {z } | {z }
A X B

4.2. Matriz Ampliada asociada a un sistema lineal. Ya observamos que lo que interesa para resolver
el sistema son los coeficientes de las variables e incluso podemos hacer abstracción de ellas, es decir defini-
mos una nueva matriz que contenga toda la información numérica del sistema para ello hacemos la siguiente
equivalencia:

      
a11 a12 ... a1m x1 b1 a11 a12 ... a1m | b1

 a21 a22 ... a2m 
 x2  
  b2  
  a21 a22 ... a2m | b2 
 .. .. .. ..  .. = .. ≡ .. .. .. .. .. 
 . . . .  .   .   . . . . . 
an1 an2 . . . anm xm bn an1 an2 . . . anm | bn

A estas alturas conviene hacer una definición para bautizar a esta nueva matriz:
Definición 4.2.1. Llamaremos Matriz Ampliada asociada al sistema (6) ó al sistema (5) a la matriz

 
a11 a12 ... a1m | b1

 a21 a22 ... a2m | b2 

(A|B) =  .. .. .. .. ..  (7)
 . . . . . 
an1 an2 . . . anm | bn
(8)
Ejemplo 4.2.2. Si Consideramos el sistema lineal de orden 2 × 4:
x + 2y + z + t = 1
(9)
x + 3y - z + 2t = 1
(1) La notación matricial para (9), es dada por
 
  x  
1 2 1 1  y  =
 1
1 3 −1 2  z  1
t
10 Profesor Ricardo Santander Baeza 2010

(2) La matriz ampliada asociada es:


 
1 2 1 1 | 1
(A|B) =
1 3 −1 2 | 1
4.3. Rango de la matriz ampliada. Calculamos ρ(A|B), el rango de la matriz ampliada entonces tene-
mos calculados en realidad dos rangos, a saber: El propio ρ(A|B) y ρ(A), para lo cual basta mirar la matriz
escalonada reducida por filas asociada a (A|B) eliminando la última columna.
Ejemplo 4.3.1. En el caso del sistema (9) para calcular el ρ(A|B) y ρ(A) procedemos como sigue:
     
1 2 1 1 | 1 1 2 1 1 | 1 1 0 5 −1 | 1
(A|B) = ≈ ≈
1 3 −1 2 | 1 0 1 −2 1 | 0 0 1 −2 1 | 0
Luego, ρ(A|B) = 2 = ρ(A)

4.4. Teorema del rango. Un sistema lineal del tipo AX = B, como (6), tiene solución si y sólo
si ρ(A) = ρ(A|B), donde (A|B) representa la matriz ampliada asociada al sistema. ver (8)

En efecto

Es inmediato que ρ(A) ≤ ρ(A|B) ≤ m, pues una fila no nula de A es una fila no nula de (A|B), y m es el
número de incógnitas x1 , x2 , . . . , xm . Esto sugiere entonces estudiar los casos:

Caso 1. ρ(A) < ρ(A|B) entonces de acuerdo a nuestra equivalencia, (7), tenemos que deberı́a suceder al
menos una situación como la siguiente (después de escalonar por supuesto):
 
a′11 a′12 ... a′1m | b′1

 a′21 a′22 ... a′2m | b′2 

∼  .. .. .. .. .. 
(A|B) =  . . . . .  (10)
 ′ 
 a(n−1)1 a′(n−1)2 . . . a′(n−1)m | b′n−1 
0 0 ... 0 | b′n
donde b′n 6= 0, lo cual implicarı́a que 0 · xm = 0 = bn , lo cual es una contradicción. Ası́ que en este caso
concluimos que

Si ρ(A) 6= ρ(A|B) entonces el sistema (5) no tiene solución.

Caso 2. ρ(A) = ρ(A|B) entonces aplicando nuestra equivalencia (7), a la matriz escalonada reducida por
filas obtenida de la matriz (A|B), tenemos al menos una solución. Bajo estas condiciones nos queda analizar
los últimos dos casos:

Caso 2.1 Si ρ(A) = ρ(A|B) = m entonces la matriz escalonada reducida por filas EA|B es de la forma
 
1 0 . . . 0 | r1
 0 1 . . . 0 | r2      
 . .
 . . . . . .  1 0 ... 0 x1 r1
 . . . . .. .. ..   0 1 ...


  0 
 x2  
  r2 

EA|B =  0 0 . . . 1 | rm  ⇐⇒  .. . . . ..  .. = .. 

 0 0 ... 0 | 0 
  . . .. .  .   . 
 . .
 .. .. .. .. .. ..  0 0 ... 1 xm rm
. . . . 
0 0 ... 0 | 0
Profesor Ricardo Santander Baeza 2010 11

Es decir, el sistema (5) tiene solución única de la forma.


   
x1 r1
 x2   r2 
   
X =  ..  =  .. 
 .   . 
xm rm

Caso 2.2 Si ρ(A) = ρ(A|B) = s < m entonces la matriz escalonada reducida por filas EA|B es de la forma
 
(s+1) (s+2) (m)
1 0 . . . 0 c1 c1 · · · c1 | r1
 (s+1) (s+2) (m) 
 0 1
 . . . 0 c2 c2 · · · c2 | r2 
 .. .. .. . . .. .. .. ..
. .. ..

 . . . . . . 
 
EA|B =  0 0 . . . 1 cs
(s+1)
cs
(s+2)
· · · cs
(m)
| rs 
 
 0 0
 ... 0 0 0 ... 0 | 0  
 .. .. .. .. .. .. .. .. .. .. 
 . . . . . . . . . . 
0 0 ... 0 0 0 ... 0 | 0

Es decir, el sistema (5) tiene infinitas soluciones de la forma.


 m−s
  m−s

X X
s+i
 r1 − c1 xs+i   r1 − cs+i
1 xs+i 
   
   i=1     i=1 
x1  m−s
X  r1  m−s
X 
   
 x2   r2 − cs+i
2 x s+i   r2   r2 − cs+i
2 xs+i 
 .     .   
 .   i=1   .   i=1 
 .   ..   .   .. 

X =  xs  = 
  .    
 =  rs  +  . 

   m−s     m−s 
 xs+1   X   0   X 
 .   rs − cs+i
s xs+i   .   rs − cs+i
s xs+i 
 ..     ..   
 i=1   i=1 
xm  xs+1  0  xs+1 
   
 .
..
 | {z }  .. 
 
Solución
 . 
xm particular x m
| {z }
Solución general

En este, caso decimos que el sistema (5) tiene un grado de libertad de orden n − s, y esta representado por
los valores que pueden tomar (xs+1 , xs+2 , . . . , xm ) ∈ Rm−s

Ejemplo 4.4.1. En el ejemplo (9) tenemos que ρ(A|B) = 2 = ρ(A) < 4 y podemos leer las infinitas
soluciones de la matriz,

 
1 0 5 −1 | 1 x = 1 − 5z + t
(A|B) ≈ ⇐⇒
0 1 −2 1 | 0 y = 2z − t

Es decir, las infinitas soluciones son de la forma:


   
    
x 1 − 5z + t 1 −5 1
 y   2z − t
 =   + z  2  + t  −1 
  0     
X = 
 z =
 
  0   1   0  (z ∈ R ∧ t ∈ R)
z
t t 0 0 1
12 Profesor Ricardo Santander Baeza 2010

5. Ejercicios Propuestos

(1) Resuelva los siguientes sistemas usando el Teorema del Rango:

x + y + z = 4
(a) x1 + 2x2 − x3 + 3x4 = 1 (b)
2x + 5y − 2z = 3

x + y = 4 x1 + 2x2 + 3x3 = 0
(c) 2x − 3y = 7 (d) 2x1 + x2 + 3x3 = 0
3x + 2y = 8 3x1 + 2x2 + x3 = 0

3x1 + 2x2 − 4x3 = 1


x1 + 2x2 + 3x3 = 0 x1 − x2 + x3 = 3
(e) 2x1 + x2 + 3x3 = 0 (f) x1 − x2 − 3x3 = −3
3x1 + 2x2 + x3 = 0 3x1 + 3x2 − 5x3 = 0
−x1 + x2 + x3 = 1

(2) Considere el sistema lineal

2x1 - x2 + 3x3 = a
3x1 + x2 - 5x3 = b (⋆)
−5x1 - 5x2 + 21x3 = c

Determine los conjuntos

• S = {c ∈ R | (⋆) tiene solución }

• S = {c ∈ R | (⋆) no tiene solución }

(3) Considere el sistema lineal

2x1 + 3x2 - x3 = a
x1 - x2 + 3x3 = b (⋆)
3x1 + 7x2 - 5x3 = c

Determine los conjuntos

• S = {c ∈ R | (⋆) tiene solución }

• S = {c ∈ R | (⋆) no tiene solución }

(4) Considere el sistema lineal AX = B, de orden 3

a11 x1 + a12 x2 + a13 x3 = b1


a21 x1 + a22 x2 + a23 x3 = b2 (⋆)
a31 x1 + a32 x2 + a33 x3 = b3
Profesor Ricardo Santander Baeza 2010 13

Demuestre que (⋆) tiene solución única si y sólo si det(A) 6= 0 y que

   
x1 b1
 x2  = A−1  b2 
x3 b3

(5) Considere el siguiente Sistema de Ecuaciones Lineales:

3x + 5y + 12z - w = -3
2x + 2y + 8z - 2w = -12
(⋆)
6y + 6z + 3w = 15
2z + k(k+1)w = 9k
Determine los siguientes conjuntos:

• S1 = {k ∈ R|(∗) tiene solución}

• S2 = {k ∈ R|(∗) no tiene solución}

• S3 = {k ∈ R|(∗) tiene solución única}

(6) Fueron estudiados tres tipos de alimentos. Fijada la misma cantidad (1gr), se determino que:

(a) El alimento I tiene 1 unidad de vitamina A, 3 unidades de vitamina B y 4 unidades de vitamina C.

(b) El alimento II tiene 2 unidad de vitamina A, 3 unidades de vitamina B y 5 unidades de vitamina C.

(c) El alimento III tiene 3 unidad de vitamina A, no tiene vitamina B y tiene 3 unidades de vitamina C.

Si se necesitan 11 unidades de vitamina A, 9 de vitamina B y 20 de vitamina C.

(a) Determine las posibles cantidades de alimentos I, II y III que contienen la cantidad de vitaminas
deseadas.

(b) Si el alimento I cuesta 600 pesos por gramo y los otros dos cuestan 100 por gramo,¿ existe una
solución del sistema cuyo costo sea 10000 pesos ?

6. Algunos sistemas lineales particulares y sus soluciones


6.1. El método de Cramer. Un método muy conocido para resolver sistemas lineales es el Método de
Cramer, el cual se basa en los siguientes hechos: El sistema debe ser cuadrado, es decir A = (aij ) ∈ MR (n)
y A ∈ U(MR (n)), o sea A debe ser invertible.

En estas condiciones tenemos lo siguiente:

        −1  
a11 a12 ... a1n x1 b1 x1 a11 a12 ... a1n b1

 a21 a22 ... a2n 
 x2  
  b2 


 x2  
  a21 a22 ... a2n 


 b2 

 .. .. .. ..  .. = ..  =⇒  .. = .. .. .. ..   .. 
 . . . .  .   .   .   . . . .   . 
an1 an2 . . . ann xm bn xm an1 an2 . . . ann bn
14 Profesor Ricardo Santander Baeza 2010

Pero,
 −1  
a11 a12 ... a1n ∆11 ∆12 . . . ∆1n

 a21 a22 ... a2n 
 1   ∆21 ∆22 . . . ∆2n 

 .. .. .. ..  =  .. .. .. .. 
 . . . .  det A  . . . . 
an1 an2 . . . ann ∆n1 ∆n2 . . . ∆nn
| {z }
adjunta de A

Luego, sustituyendo tenemos que:


    
x1 ∆11 ∆12 . . . ∆1n b1

 x2 
 1   ∆21 ∆22 . . . ∆2n 
 b2 

 ..  =  .. .. .. ..  ..  ⇐⇒
 .  det A  . . . .  . 
xm ∆n1 ∆n2 . . . ∆nn bn
n
1 X
xt = ∆tj bj (t = 1, 2, . . . , n) ⇐⇒
det A
j=1
 
a11 a12 . . . b1 ... a1n

 a21 a22 . . . b2 ... a2n 

1  .. .. .. .. .. .. 
xt = det  . . . . . . 
det A  
 an1 an2 . . . bn ... ann 
|{z}
columna t

Ejemplo 6.1.1. Consideremos el sistema lineal pequeño, sólo para ejemplificar


    
x+y = 1 1 1 x 1
⇐⇒ =
x−y = 3 1 −1 y 3

Entonces verificamos las hipótesis del método de Cramer:


 
1 1
(1) det = −2 6= 0. Ası́ que el método es aplicable y la solución es la siguiente:
1 −1

 
1 1 1 1
x = − det = − · (−4) = 2
2 3 −1 2
 
1 1 1 1
y = − det = − · 2 = −1
2 1 3 2

   
x 2
Luego, la solución del sistema es =
y −1

6.1.2. Ejercicios Propuestos del Método de Cramer.

(1) Resuelva usando el método de Cramer los siguientes sistemas:


Profesor Ricardo Santander Baeza 2010 15

2x1 + x2 + x3 = 6
2x1 + 3x2 = −1
(a) (b) 3x1 − 2x2 − 3x3 = 5
−7x1 + 4x2 = 47
8x1 + 2x2 + 5x3 = 11

2x1 + 2x2 + x3 = 7 2x1 + x2 − x3 = 4


(c) x1 + 2x2 + x3 = 0 (d) x1 + x3 = 2
−x1 + x2 + 3x3 = 1 − x2 + 5x3 = 1

x1 − x4 = 7 x1 + x2 + x3 + x4 = 6
2x2 + x3 = 2 2x1 − x3 − x4 = 4
(e) (f)
4x1 − x2 = −3 3x3 + 6x4 = 3
3x3 − 5x4 = 2 x1 − x4 = 5

(2) Considere el triángulo de la figura

b a

α β
b cos α c a cos β

(a) Demuestre usando trigonometrı́a que

c cos α + a cos γ = b
b cos α + a cos β = c (11)
c cos β + b cos γ = a
(b) Interprete (11), como un sistema de ecuaciones en las variables, cos α, cos β y cos γ, y demuestre
que el determinante de la matriz de coeficientes es distinto de cero.

(c) Utilice la regla de Cramer para despejar cos γ

(d) Demuestre la Ley de los cosenos: c2 = a2 + b2 − 2ab cos γ

6.2. Factorización LU. Considera un sistema clásico de la forma A · X = B tal que A ∈ MR (n) es una
matriz triangular superior invertible, es decir:

    
a11 a12 a13 ··· a1n x1 b1

 0 a22 a23 ··· a2n 
 x2  
  b2 


 0 0 a33 ··· a3n 
 x3  
= b3 
 (Con aii 6= 0 para i = 1, . . . , n) (12)
 .. .. .. .. ..  ..   .. 
 . . . . .  .   . 
0 0 0 ··· ann xn bn
16 Profesor Ricardo Santander Baeza 2010

El tipo de matriz, nos permite resolver el sistema, (12) iteradamente, como sigue:

bn
xn =
ann

bn−1 − a(n−1)n xn
xn−1 =
a(n−1)(n−1)
..
.
n
X
bs − asi xi
i=s+1
xs =
ass
Luego,

n
X
bs − asi xi
i=s+1
xs = (s = 1, 2, . . . , n − 1) (13)
ass
Un comportamiento análogo, obtenemos si, A ∈ MR (n) es una matriz triangular inferior invertible, pues en
este caso:

    
c11 0 0 ··· 0 x1 b1

 c21 c22 0 ··· 0 
 x2 


 b2 


 c31 c32 c33 ··· 0 
 x3  
 =  b3 
 (Donde cii 6= 0 (1 ≤ i ≤ n) (14)
 .. .. .. .. ..  ..   .. 
 . . . . .  .   . 
cn1 cn2 cn3 · · · cnn xn bn

Y,
b1
x1 =
c11
b2 − c21 x1
x2 =
c22
..
.
s−1
X
bs − csi xi
i=1
xs =
ass

Luego,

s−1
X
bs − csi xi
i=1
xs = (s = 2, 3, . . . , n) (15)
ass
Profesor Ricardo Santander Baeza 2010 17

Ejemplo 6.2.1. Resolver el sistema lineal

5x1 = 10
4x1 − 2x2 = 28
2x1 + 3x2 + 4x3 = 26

Solución

10
x1 = =2
5
28 − 4x1
x2 = = −10
−2
26 − 2x1 − 3x2
x3 = = 13
4

Observación 6.2.2. Considera un sistema clásico de la forma A · X = B tal que

(1) A ∈ MR (n)

(2) A = L · U , donde L es una matriz triangular inferior y U es una matriz triangular superior.

entonces

A · X = B ⇐⇒ (L · U ) · X = B =⇒ L · (U · X) = B =⇒ L · Z = B (16)
| {z }
Z
Ası́ que: Usando la fórmula (15) calculamos Z y usando la fórmula (13) calculamos X

Ejemplo 6.2.3. Consideremos el sistema lineal

6x1 − 2x2 − 4x3 + 4x4 = 2


3x1 − 3x2 − 6x3 + x4 = −4
(17)
−12x1 + 8x2 + 21x3 − 8x4 = 8
−6x1 − x3 + 7x4 = −43y
entonces para la matriz A de coeficientes del sistema (17),
 
6 −2 −4 4

 3 −3 −6 1 

 −12 8 21 −8 
−6 0 −10 7

usemos la descomposición LU (verifiquelo!!);

   
0 1
0 0 6 −2 −4 4
 1 1 0 0   0 −2 −4 −1 
L =  2  yU = 
 −2 −2 1 0   0 0 5 −2 
−1 1 −2 1 0 0 0 8
18 Profesor Ricardo Santander Baeza 2010

entonces (17), se escribe como:

      
0 10 0 6 −2 −4 4 x1 2
 1 1 0 0   0 −2 −4 −1   x2   −4 
 2
  x3  = 
     
 −2 −2 1 0  0 0 5 −2 8 
−1 1 −2 1 0 0 0 8 x4 −43

Y lo resolvemos según las etapas descritas en (16):

      
10 0 0 6 −2 −4 4 x1 2
 1 1 0 0   0 −2 −4 −1   x2   −4 
 2     =  
 −2 −2 1 0   0 0 5 −2   x3   8 
−1 1 −2 1 0 0 0 8 x4 −43

Es decir:

(1) Realizamos el producto

   
6 −2 −4 4 x1 z1
 0 −2 −4 −1   x2
 =  z2 
  
 
 0 0 5 −2   x3   z3 
0 0 0 8 x4 z4

(2) Determinamos el producto anterior vı́a (15)

    
10 0 0 z1 2 z1 = 2
 1 1 0 0   z2  −4  = −4 − 12 z1 = −5
 =⇒ z2

 2   = 
 −2 −2 1 0   z3   8  z3 = 8 + 2z1 + 2z2 = 2
−1 1 −2 1 z4 −43 z4 = −43 + z1 − z2 + 2z3 = −32
(3) Resolvemos el sistema vı́a (13)

−32
x4 = = −4
     8
6 −2 −4 4 x1 2 2 + 2x4
 0 −2 −4 −1   x2   −5  x3 = = −1.2
   =   =⇒ 5
 0 0 5 −2   x3   2  −5 + 4x3 + x4
x2 = = 6.9
0 0 0 8 x4 −32 −2
2 + 2x2 + 4x3 − 4x4
x1 = = 4.5
6

6.3. Ejercicios Propuestos. Resuelva los sistemas lineales AX = B y A = LU si:

       
2 8 0 18 2 0 0 1 4 0
(1) A =  2 2 −3  B =  3  L =  2 −3 −0  U =  0 2 1 
1 2 7 12 1 −1 4 0 0 2
Profesor Ricardo Santander Baeza 2010 19
       
8 12 −4 −36 4 0 0 2 3 −1
(2) A =  6 5 7  B =  11  L =  3 2 −0  U =  0 −2 5 
2 1 6 6 1 1 1 0 0 2
       
2 3 0 1 −2 1 0 0 0 2 3 0 1
 −2 0 −1
 4 5 3 3     2 1 0 0 
  3 1 
(3) A = 
 −2 −6 7 7  B =  −16
 L=
 −1 U = 
 3 1 0   0 0 −2 5 
8 9 5 21 −66 4 3 2 1 0 0 0 4
20 Profesor Ricardo Santander Baeza 2010

7. Situaciones de Desempeño: Sistemas de Ecuaciones Lineales


7.1. El objetivo de esta sección es presentar al Estudiante ”Situaciones Problemáticas” que
le permitan:

(♣) Estimular la comprensión de lectura en problemas matemáticos.

(♣) Clasificar después de leer el problema, entre información y resultado pedido.

(♣) Estimular el uso de una sintaxis adecuada en la resolución de problemas que envuelven conceptos
matemáticos.

(♣) Aprender a generar un algoritmo eficaz (ojalá eficiente), para responder al problema planteado.

(♣) Verificar el estado de aprendizaje de los contenidos especı́ficamente relacionados con las propiedades
básicas que debe conocer, y ”en lo posible haber aprehendido” de los tópicos analizados.

7.2. Algunas sugerencias para enfrentar las situaciones problemáticas son las siguientes:

(⋆) Lea cuidadosamente el problema.

(⋆) Reconozca lo que es información (dato), de lo que es ”incognita”, o lo que a usted se le consulta.

(⋆) Trate de entender en la forma más clara para usted, lo que se le pide, en particular si puede usar
”sinónimos matemáticos”, que le permitan facilitar su respuesta, cuanto mejor!!! Este acto nunca esta
de más.

(⋆) Analice sus datos extrayendo la información que corresponde, orientado por su entendimiento de lo que
debe probar.

7.3. Situaciones de Desempeño Propuestas:


 
2 −1 3
 4 2 1 
 2 3 −2  ∈ MR (4 × 3). Determine el conjunto
(1) Si consideramos A =  

8 0 7

S = {X ∈ MR (4 × 1) | A · X = (0)}
(2) Verifique si las siguientes afirmaciones son verdaderas o falsas.

[2.1 ] Sean A ∈ MR (n) y B ∈ MR (n) tal que:

(i) S1 es el conjunto solución del sistema homogéneo AX = 0

(ii) S2 es el conjunto solución del sistema homogéneo BX = 0

entonces S1 ∩ S2 es el conjunto solución del sistema (A − B)X = 0

[2.2 ] Si S es el conjunto solución del sistema


x + y − z = 2
x + 2y + z = 3 (∗)
x + y + (a2 − 5)z = a
Profesor Ricardo Santander Baeza 2010 21

entonces a = −2 =⇒ S = ∅
   
x1 1

 x2 


 b2 

(3) Dado el sistema lineal; AX = B tal que A = (aij ) ∈ MR (10), X =  ..  y B =  .. 
 .   . 
x10 b10
Determine el conjunto, S = {(b2 , b3 , . . . , b10 ) ∈ R9 | AX = B tiene solución}

(4) Dado el sistema de ecuaciones lineales:


x+y+z = 1
x + y + az = 1 (∗)
by + cz = c

Determine los siguientes conjuntos

(a) S1 = {(a, b, c) ∈ R3 | (∗) tiene infinitas soluciones}

(b) S2 = {(a, b, c) ∈ R3 | (∗) tiene solución única}

(c) S3 = {(a, b, c) ∈ R3 | (∗) no tiene solución}

(5) Dado el sistema de ecuaciones lineales:

ax + y + z = 2a − 1
x + ay + z = a2 (∗)
x + y + az = 3 − 2a
Determine los siguientes conjuntos:

S1 = {a ∈ R | (∗) tiene solución única}

S2 = {a ∈ R | (∗) tiene infinitas soluciones}

S3 = {a ∈ R | (∗) no tiene solución}

(6) El Departamento de pesca y caza proporciona tres tipos de comidas a un lago que alberga a tres es-
pecies de peces. Cada pez de la especie 1 consume cada semana un promedio de 1 unidad del alimento
1, 1 unidad del alimento 2 y 2 unidades del alimento 3. Cada pez de la especie 2 consume cada semana
un promedio de 3 unidades del alimento 1, 4 del 2 y 5 del 3. Para un pez de la especie 3, el promedio
semanal de consumo es de 2 unidades del alimento 1, 1 unidad del alimento 2 y 5 unidades del alimento
3. Cada semana se suministran al lago 25000 unidades del alimento 1, 20000 unidades del alimento 2 y
55000 unidades del alimento 3. Si se supone que los peces se comen todo el alimento. ¿Cuántos peces
de cada especie pueden coexistir en el lago?
22 Profesor Ricardo Santander Baeza 2010

8. Solución de Situaciones de Desempeño: Sistemas de Ecuaciones Lineales


 
2 −1 3
 4 2 1 
 2 3 −2  ∈ MR (4 × 3). Determine el conjunto
(1) Si consideramos A =  

8 0 7

S = {X ∈ MR (4 × 1) | A · X = (0)}

Solución

Etapa 1. Observamos en primer lugar que:

X ∈ S ⇐⇒ X ∈ MR (3 × 1) ∧ A · X = (0)
  
  2 −1 3   0
x1  4  x1
2 1   x2  =  0 
 
⇐⇒ X =  x2  ∈ MR (3 × 1) ∧  (∗)
 2 3 −2   0 
x3 x3
8 0 7 0

Es decir, X ∈ S si y sólo si X es solución del sistema homogéneo (∗)

En segundo lugar, un sistema homogéneo siempre tiene solución !!!. Pues, como
 
2 −1 3 | 0
 4 2 1 | 0  , sigue que ρ(A) = ρ(A|(0)), y entonces S 6= ∅
(A|(0)) = 
 2 3 −2 | 0 
8 0 7 | 0
Etapa 2. Escalonamos (A|(0))

   
2 −1 3 | 0 2 −1 3 | 0
(L2 −→ L2 − 2L1 )
 4 2 1 | 0 
 (L3 −→ L3 − L1 )
 0 4 −5 | 0 
(A|(0)) =   
 2 3 −2 | 0   0 4 −5 | 0 
(L4 −→ L4 − 4L1 )
8 0 7 | 0 0 4 −5 | 0
 
 1 3 
2 −1 3 | 0 1 − | 0
1  2 2 
(L3 −→ L3 − L2 )  0 4 −5 | 0  (L1 −→ L1  5 
  2  0 1 − | 0 
(L4 −→ L4 − L2 )  0 0 0 | 0  1  4 
(L2 −→ L2  0 0 0 | 0 
0 0 0 | 0 4
0 0 0 | 0
 7 
1 0 | 0
 8 
1  5 
(L1 −→ L1 + L2  0 1 − | 0 
2  4 
 0 0 0 | 0 
0 0 0 | 0

Ası́ que ρ(A) = 2 y existen infinitas soluciones, y estas son de la siguiente forma:
Profesor Ricardo Santander Baeza 2010 23

7  
− · x3
   8 
x1 



X =  x2  =
 5 
· x3 
x3  4
 

1 · x3
Por tanto,
 7  

 − · x3 



  8  



  

 
S =  5  | x3 ∈ R
 4 · x3
   

  


   


 

1 · x3

(2) Verifique si las siguientes afirmaciones son verdaderas o falsas.

[2.1 ] Sean A ∈ MR (n) y B ∈ MR (n) tal que:

(i) S1 es el conjunto solución del sistema homogéneo AX = 0

(ii) S2 es el conjunto solución del sistema homogéneo BX = 0

entonces S1 ∩ S2 es el conjunto solución del sistema (A − B)X = 0

Solución. La afirmación es falsa.

En efecto

Etapa 1. S1 ∩ S2 es el conjunto solución del sistema (A − B)X = 0 si y sólo si

S1 ∩ S2 = {Z ∈ MR (n × 1) |(A − B)Z = 0 }
Etapa 2. Análisis de los datos.

Z ∈ S1 ∩ S2 ⇐⇒ Z ∈ S1 ∧ Z ∈ S2
⇐⇒ Z ∈ MR (n × 1) ∧ AZ = 0 ∧ BZ = 0 (∗)

Caso 1. De (∗), sigue que:

Z ∈ S1 ∩ S2 ⇐⇒ Z ∈ MR (n × 1) ∧ AZ = 0 ∧ BZ = 0
⇐⇒ Z ∈ MR (n × 1) ∧ AZ − BZ = 0
=⇒ Z ∈ MR (n × 1) ∧ (A − B)Z = 0

S1 ∩ S2 ⊂ {Z ∈ MR (n × 1) |(A − B)Z = 0 }
Caso 2. Si A ∈ U(MR (n) y B ∈ U(MR (n) ( A y B invertibles) entonces por el teorema del rango
ρ(A) = ρ(B) = n. Ası́ que
24 Profesor Ricardo Santander Baeza 2010

   

 0 
 
 0 

   

 0 
 
 0

S1 =  .. = S2 =⇒ S1 ∩ S2 =  ..




 .





 .



 0   0 
Pero la matriz A − B no necesariamente es invertible. Luego el sistema (A − B)X = 0 no tiene
como solución única la solución trivial.

Para un ejemplo particular del caso expuesto encima basta tomar, para n = 2:
   
2 0 0 −2
A= yB=
0 1 −1 0
.
Pues,
    
2 0 x 0
AX = (0) ⇐⇒ =
0 1 y 0
   −1  
x 2 0 0
⇐⇒ =
y 0 1 0
   1  
x 2 0 0
⇐⇒ =
y 0 1 0
   
x 0
⇐⇒ =
y 0

Análogamente
    
0 −2 x 0
BX = (0) ⇐⇒ =
−1 0 y 0
   −1  
x 0 −2 0
⇐⇒ =
y −1 0 0
    
x 0 −1 0
⇐⇒ =
y − 12 0 0
   
x 0
⇐⇒ =
y 0

Luego,
   
0 0
S1 = = S2 =⇒ S1 ∩ S2 =
0 0
Pero para A − B tenemos que
    
2 2 x 0
(A − B)X = (0) ⇐⇒ =
1 1 y 0
    
1 1 x 0
⇐⇒ = ( Ojo A − B no es invertible)
0 0 y 0
 
x
⇐⇒ X =
−x
Ası́ que
Profesor Ricardo Santander Baeza 2010 25

    
0 x
S1 ∩ S2 = $ {Z ∈ MR (2) | (A − B)Z = 0} = |x∈R
0 −x

[2.2 ] Si S es el conjunto solución del sistema

x + y − z = 2
x + 2y + z = 3 (∗)
x + y + (a2 − 5)z = a

entonces a = −2 =⇒ S = ∅

Solución. La afirmación es verdadera.

En efecto

Alternativa 1. Si a = −2 entonces directamente de (∗) sigue que,

x + y − z = 2 x + y − z = 2
x + 2y + z = 3 ⇐⇒ x + 2y + z = 3
x + y + ((−2)2 − 5)z = −2 x + y + −z = −2

x+y−z =2 ∧ x + y − z = −2

2 = −2 Contradicción

S = ∅

Alternativa 2. Aplicamos el teorema del rango, para determinar S.

(i) Escalonando la matriz ampliada del sistema (A|B) tenemos que:

   
1 1 −1 2 1 0 −3 1
   
(A|B) =  1 2 1 3  ≈  0 1 2 1 
1 1 (α2 − 5) α 0 0 α2 − 4 α − 2
 
1 0 −3 1
 
=  0 1 2 1 
0 0 (α − 2)(α + 2) α − 2

(ii) Si hacemos a = −2 obtenemos que:

 
1 0 −3 1
 
(A|B) ≈  0 1 2 1 
0 0 0 −4

Ası́ que ρ(A) = 2 < ρ(A|B) = 3, y el sistema no tiene solución.


26 Profesor Ricardo Santander Baeza 2010
   
x1 1

 x2 


 b2 

(3) Dado el sistema lineal; AX = B tal que A = (aij ) ∈ MR (10), X =  ..  y B =  .. 
 .   . 
x10 b10
Determine el conjunto, S = {(b2 , b3 , . . . , b10 ) ∈ R9 | AX = B tiene solución}

Solución

Etapa 1. Procedemos a calcular el rango de la matriz ampliada asociada al sistema.


 
1 1 1 ... 1 | 1
(l2 → l2 − 2l1 )
 2 2 2 ... 2 | b2 
  (l3 → l3 − 3l1 )

(A|B) =  3 3 3 ... 3 | b3 
 ..
 .. .. .. .. .. ..  .
 . . . . . . 
(l10 → l10 − 10l1 )
10 10 10 . . . 10 | b10

 
1 1 1 ... 1 | 1

 0 0 0 ... 0 | b2 − 2 


=  0 0 0 ... 0 | b3 − 3 

 .. .. .. .. .. .. 
 . . . . . . 
0 0 0 ... 0 | b10 − 10

Etapa 2. Procedemos al análisis de la situación para responder a los requerimientos:

Como ρ(A) = 1 entonces AX = B tiene solución si y sólo si ρ(A|B) = 1

Pero, ρ(A|B) = 1 ⇐⇒ (b2 , b3 , . . . , b10 ) = (2, 3, . . . , 10). Ası́ que


S = {(2, 3, . . . , 10)}

(4) Dado el sistema de ecuaciones lineales:

x+y+z = 1
x + y + az = 1 (∗)
by + cz = c

Determine los siguientes conjuntos

(a) S1 = {(a, b, c) ∈ R3 | (∗) tiene infinitas soluciones}

(b) S2 = {(a, b, c) ∈ R3 | (∗) tiene solución única}

(c) S3 = {(a, b, c) ∈ R3 | (∗) no tiene solución}

Solución

Etapa 1. Construimos la matriz ampliada (A|B) del sistema:


Profesor Ricardo Santander Baeza 2010 27

 
1 1 1 1
 
(A|B) =  1 1 a 1 
0 b c c

Etapa 2. Realizando operaciones elementales obtenemos la matriz E:

 
1 1 1 1
E= 0 b c c 
0 0 a−1 0
Etapa 3. Análisis de la matriz E

Si a = 1:

 
1 1 1 1
  x+y+z = 1
E =  0 b c c  =⇒
by = c(1 − z)
0 0 0 0

Luego a = 1 =⇒ (1, b, c) ∈ S1

Si a 6= 1:

 
1 1 0 1 x+y = 1
E =  0 b 0 c  =⇒ by = c
0 0 1 0 z = 0
Luego,

a 6= 1 ∧ b = 0 ∧ c 6= 0 =⇒ (a, 0, c) ∈ S3

a 6= 1 ∧ b = 0 ∧ c = 0 =⇒ (a, 0, 0) ∈ S1

a 6= 1 ∧ b 6= 0 =⇒ (a, b, c) ∈ S2

(5) Dado el sistema de ecuaciones lineales:

ax + y + z = 2a − 1
x + ay + z = a2 (∗)
x + y + az = 3 − 2a

Determine los siguientes conjuntos:

S1 = {a ∈ R | (∗) tiene solución única}

S2 = {a ∈ R | (∗) tiene infinitas soluciones}

S3 = {a ∈ R | (∗) no tiene solución}


28 Profesor Ricardo Santander Baeza 2010

Solución

Aplicamos el teorema del rango en el sistema (*).

Etapa 1. Escalonamos la matriz ampliada asociada al sistema (*)


 
a 1 1 | 2a − 1
(A|B) =  1 a 1 | a2  (l1 ↔ l2 )
1 1 a | 3 − 2a
 
1 a 1 | a2
(l → l2 − al1 )
=  a 1 1 | 2a − 1  2
(l3 → l3 − l1 )
1 1 a | 3 − 2a
 
1 a 1 | a2
=  0 1 − a2 1 − a | 2a − 1 − a3  (l2 ↔ l3 )
0 1−a a − 1 | 3 − 2a − a2
 
1 a 1 | a2
=  0 1−a a − 1 | 3 − 2a − a2  (∗∗)
0 1 − a2 1 − a | 2a − 1 − a3
Caso 1. Si a = 1 entonces sustituyendo en (**), tenemos que
 
1 1 1 | 1
(A|B) =  0 0 0 | 0 
0 0 0 | 0
Ası́ que ρ(A|B) = ρ(A) = 1 < 3. Por tanto (*) tiene infinitas soluciones.

Caso 2. Si a 6= 1 entonces podemos seguir operando en (**), y tenemos


 
1 a 1 | a2
1
(A|B) =  0 1 − a a − 1 | 3 − 2a − a2  (l2 ↔ l2 )
0 1 − a2 1 − a | 2a − 1 − a3 1−a
 
1 a 1 | a2
(l1 → l1 − al2 )
=  0 1 −1 | a+3 
(l3 → l3 − (1 − a2 )l2 )
0 1 − a2 1 − a | 2a − 1 − a3
 
1 0 1+a | −3a
=  0 1 −1 | a+3 
0 0 (1 − a)(2 + a) 2
| 3a + a − 4
Caso 2.1 Si a 6= 1 y a = −2 entonces ρ(A) = 2 y ρ(A|B) = 3, pues 3(−2)2 − 2 − 4 = 6. Ası́ que (*) no
tiene solución

Caso 2.2 Si a 6= 1 y a 6= −2 entonces ρ(A) = ρ(A|B) = 3, y (*) tiene solución única.

Conclusión

S1 = R − {−2, 1}
S2 = {1}
S3 = {−2}
Profesor Ricardo Santander Baeza 2010 29

(6) El Departamento de pesca y caza proporciona tres tipos de comidas a un lago que alberga a tres es-
pecies de peces. Cada pez de la especie 1 consume cada semana un promedio de 1 unidad del alimento
1, 1 unidad del alimento 2 y 2 unidades del alimento 3. Cada pez de la especie 2 consume cada semana
un promedio de 3 unidades del alimento 1, 4 del 2 y 5 del 3. Para un pez de la especie 3, el promedio
semanal de consumo es de 2 unidades del alimento 1, 1 unidad del alimento 2 y 5 unidades del alimento
3. Cada semana se suministran al lago 25000 unidades del alimento 1, 20000 unidades del alimento 2 y
55000 unidades del alimento 3. Si se supone que los peces se comen todo el alimento. ¿Cuántos peces
de cada especie pueden coexistir en el lago?

(a) Planteamiento del problema. Si denotamos por


x1 = cantidad de peces de la especie 1
x2 = cantidad de peces de la especie 2
x3 = cantidad de peces de la especie 3

entonces de acuerdo a los datos, el sistema asociado es le siguiente:

    
x1 + 3x2 + 2x3 = 25000 1 3 2 x1 25000
x1 + 4x2 + x3 = 20000 ⇐⇒  1 4 1   x2  =  20000 
2x1 + 5x2 + 5x3 = 55000 2 5 5 x3 55000

(b) Calculamos el rango a la matriz ampliada asociada al sistema. ρ(A|B), es decir debemos reducir
por filas la matriz (A|B):
   
1 3 2 | 25000 1 3 2 | 25000
(L2 −→ L2 − L1 )
(A|B) =  1 4 1 | 20000   0 1 −1 | −5000 
(L3 −→ L3 − 2L1 )
2 5 5 | 55000 0 −1 1 | 5000
 
1 0 5 | 40000
(L1 −→ L1 − 3L2 )  0 1 −1 | −5000 
(L3 −→ L3 + L2 )
0 0 0 | 0

(c) Ahora comparamos los rangos para verificar las hipótesis del teorema del rango.

(i) ρ(A|B) = ρ(A) = 2. Ası́ que existe solución para el problema de administración de recursos.

(ii) Como ρ(A|B) = ρ(A) = 2 < 3 entonces existen infinitas soluciones

(d) Ahora determinamos las soluciones aplicando nuestra equivalencia (7) es decir traducimos al sis-
tema:

x1 = 40000 − 5x3 (1)


x2 = −5000 + x3 (2)

Probablemente un problema teórico terminarı́a aquı́, pero este es un problema práctico y real ası́
hay que estudiar las posibilidades o restricciones:

(i) En primer lugar, debemos tener que x1 ≥ 0, x2 ≥ 0 y x3 ≥ 0, pues se trata de cantidades de


peces.

(ii) De la ecuación (2): x3 = x2 + 5000 y de x2 ≥ 0 sigue que x3 ≥ 5000


30 Profesor Ricardo Santander Baeza 2010

(iii) De la ecuación (1): 40000 − 5x3 = x1 y x1 ≥ 0 sigue que 8000 ≥ x3

(e) Luego para concluir las soluciones teóricas posibles son del tipo:
   
x1 40000 − 5x3
X =  x2  =  x3 − 5000 
x3 x3
   
40000 −5x3
=  −5000  +  x3  (x3 ∈ R)
0 x3
Aplicando las restricciones obtenidas tenemos que:

     
x1 40000 −5x3
X =  x2  =  −5000  +  x3  (5000 ≤ x3 ≤ 8000)
x3 0 x3

No obstante esta sea una buena descripción de las posibilidades, lamentablemente ninguna especie
de peces tiene como miembro una mitad de pez, ası́ que la soluciones son a lo más 3001, pues
como dicho, x3 tiene que ser entero y x1 ≤ 15000, por lo tanto:

     
x1 40000 −5x3
X =  x2  =  −5000  +  x3  ; (5000 ≤ x3 ≤ 8000 ∧ x3 ∈ Z)
x3 0 x3
CAPITULO 2

Espacios Vectoriales

El trabajo solidario es lo único que hace


humano al ser humano

Este capitulo esta destinado a buscar una representación natural y eficiente de la información, a través
de ”relaciones teóricas, lease combinaciones lineales” e ”implementaciones prácticas, lease representación
matricial y resolución de ecuaciones.” Para ello será necesario: Construir un ambiente suficientemente
amplio, donde se puedan modelar situaciones prácticas, desarrollar técnicas que permitan controlar rápida
y eficientemente una gran cantidad de información y mostrar la equivalencia entre el ambiente teórico y
práctico.

1. Definición de Espacios Vectorial


Demos una mirada a nuestra evolución al momento de manipular la información.

(1) Ya observamos que para cada (n ∈ N), existen únicos números naturales a0 , a1 , a2 , . . . , as tales que

n = as 10s + as−1 10s−1 + · · · + a1 101 + a0 100 ; (0 ≤ j ≤ s); (0 ≤ aj ≤ 9)

Y estos números son los que identifican unı́vocamente al número n.

(2) Basándonos en esta idea definimos informalmente a los polinomios, es decir

p(x) ∈ R[x] ⇐⇒ p(x) = a0 + a1 x + a2 x2 + · · · + as xs

Y en este caso son los coeficientes los que diferencian a un polinomio de otro.

(3) Si consideramos u = (x, y) ∈ R2 entonces sabemos que (R2 , +) es un grupo abeliano y que

(a) (x, y) = (x, 0) + (0, y)

(b) Y si además permitimos una ponderación externa que generalice el hecho


(x, y) + (x, y) = 2(x, y) 
∧ =⇒ 2(x, y) = (2x, 2y)

(x, y) + (x, y) = (2x, 2y)

entonces obtenemos que

(x, y) = x(1, 0) + y(0, 1)

3
4 Profesor Ricardo Santander Baeza 2010

Eje y
Plano R2

(x, y) = x(1, 0) + y(0, 1)


(0, 0) Eje x

Figura 1 : Plano Cartesiano

(4) Otro caso que podemos representar con las licencias que da la heurı́stica es el siguiente:

         
a11 a12 1 0 0 1 0 0 0 0
= a11 + a12 + a21 + a22
a21 a22 0 0 0 0 1 0 0 1

(5) Intentando generalizar aún más el formato de nuestros números. Supongamos que necesitamos conectar
dos lugares inaccesibles, como lo muestra la función.


−1
 : si − π < x < 0
f (x) =


1 : si 0<x<π

Cuyo gráfico es de la forma:

1
π
−π

-1

Figura 2 y = f (x)

La idea es usar como soporte, ideas trigonométricas. para conectar esos lugares inaccesibles:
4
(a) Partamos graficando la función y = sen x para (−π < x < π)
π
1

0.5

-3 -2 -1 1 2 3

-0.5

-1
Profesor Ricardo Santander Baeza 2010 5
 
4 sen 3x
(b) Graficamos la función y = sen x + para (−π < x < π)
π 3
1

0.5

-3 -2 -1 1 2 3

-0.5

-1

 
4 sen 3x sen 5x
(c) Graficamos la función y = sen x + + para (−π < x < π)
π 3 5
1

0.5

-3 -2 -1 1 2 3

-0.5

-1

 
4 sen 3x sen 5x sen 7x
(d) Graficamos la función y = sen x + + + para (−π < x < π)
π 3 5 7
1

0.5

-3 -2 -1 1 2 3

-0.5

-1

 
4 sen 3x sen 5x sen 7x sen 99x
(e) En fin, graficamos, la función y = sen x + + + + ··· + para
π 3 5 7 99
(−π < x < π)

0.5

-3 -2 -1 1 2 3

-0.5

-1

s
4 X sen (2i − 1)x
(f) Si llamamos gs = , para (s ∈ N) entonces podemos observar lo siguiente:
π 2i − 1
i=1
(i) A medida que s crece en N, el gráfico de gs , más se parece (copia), a la función f
(ii) Sin embargo, debemos tener cuidado con la comparación de las expresiones analı́ticas de las
funciones involucradas; porque por ejemplo,
6 Profesor Ricardo Santander Baeza 2010

• f (0) 6∈ R y gs (0) = 0
π  π  4
• f = 1 y g1 =
2 2 π
Sin embrago, observen lo siguiente:

s
π  4 X sen(2i − 1) π2
gs =
2 π 2i − 1
i=1
s
4 X (−1)i+1
=
π 2i − 1
i=1
 
4 1 1 1 1 1 1
= 1− + − + − + ··· +
π 3 5 7 9 11 2s − 1

Ası́ por ejemplo,


π  4
g1 = = 1.273
2 π  
π  4 1
g2 = 1− = 0.848
2 π 3
π   
4 1 1
g3 = 1− + = 1.013
2 π 3 5
π   
4 1 1 1
g4 = 1− + − = 0.921
2 π 3 5 7
π   
4 1 1 1 1
g5 = 1− + − + = 1.063
2 π 3 5 7 9
π   
4 1 1 1 1 1
g6 = 1− + − + − = 0.947
2 π 3 5 7 9 11

Luego,
s
π  4 X (−1)i+1
lim gs = lim =1
s→∞ 2 s→∞ π 2i − 1
i=1

(iii) Será necesario entonces ser cuidadoso al referirnos al término aproximación de dos funciones,
ya sea en su gráfico o en sus valores, con estos cuidados podemos escribir,
s ∞
X 1 X 1
f (x) ≈ lim sen(2i − 1)x = sen(2i − 1)x (−π < x < π)
s→∞ 2i − 1 2i − 1
i=1 i=1
Bien, las ideas expuestas encima nos inducen a definir un objeto abstracto que le de sentido a casi
todos los ejemplos revisados y otros que analizaremos más adelante.

Definición 1.1. Un conjunto V será llamado un K - Espacio Vectorial si

(1) V 6= φ

(2) V admite una operación interna, “ + ”; definida por


Profesor Ricardo Santander Baeza 2010 7

+ : V×V − 7 → V
(u, v) −7 → u+v
tal que (V, +) es un grupo abeliano, es decir satisface las propiedades:

• u + (v + w) = (u + v) + w (∀u; u ∈ V); (∀v; v ∈ V); (∀w; w ∈ V)

• Existe 0V ∈ V tal que u + 0V = 0V + u = u (∀u; u ∈ V)

• Para cada u, u + (−u) = −u + u = 0V

• u+v =v+u (∀u; u ∈ V); (∀v; v ∈ V

(3) V admite una operación externa, “·”; definida por

· : K×V − 7 → V
(λ, v) −7 → λ·v
con K = R ó K = C y satisface las propiedades:

• λ · (u + v) = λ · u + λ · v (∀λ; λ ∈ K); (∀u; u ∈ V); (∀v; v ∈ V)

• (λ + β) · u = λ · u + β · u (∀λ; λ ∈ K); (∀β; β ∈ K); (∀u; u ∈ V)

• (λ · β) · u = λ · (β · u) (∀λ; λ ∈ K); (∀β; β ∈ K); (∀u; u ∈ V)

• λ · u = 0V =⇒ λ = 0K ∨ u = 0V (∀λ; λ ∈ K); (∀u; u ∈ V)

Los elementos de V se denominarán vectores, los elementos de K se llamarán escalares, y para designar a
un espacio vectorial lo notaremos como, (V, +, ·, K), donde K = R o K = C

Ejemplo 1.1.1. El espacio vectorial de las n - uplas (Kn , +, ·, K) para cada n ∈ N, donde,
Kn = {(x1 , x2 , . . . , xn ) | xi ∈ R; 1 ≤ i ≤ n}
Y las operaciones interna y externa son definidas respectivamente por,
(1) (x1 , x2 , x3 , . . . , xn ) + (y1 , y2 , y3 , . . . , yn ) = (x1 + y1 , x2 + y2 , x3 + y3 , . . . , xn + yn )

(2) λ · (x1 , x2 , . . . , xn ) = (λx1 , λx2 , . . . , λxn ) (λ ∈ K)

Ejemplo 1.1.2. El espacio vectorial de las Matrices (MK (n × m), +, ·, K); n ∈ N; m ∈ N donde,
MK (n × m) = {A = (aij ) | aij ∈ K ∧ (1 ≤ i ≤ n)(1 ≤ j ≤ m)}
Y las operaciones interna y externa son definidas respectivamente por,
(1) ((aij ) + (bij )) = (aij + bij )

(2) λ(aij ) = (λaij )


8 Profesor Ricardo Santander Baeza 2010

Ejemplo 1.1.3. El espacio vectorial de los polinomios (K[x], +, ·, K) con coeficientes en el cuerpo K donde,
( s
)
X
K[x] = p(x) = ai xi | ai ∈ K, s ∈ N, (0 ≤ i ≤ n)
i=0
Y las operaciones interna y externa son definidas respectivamente por,
s
X n
X s
X
(1) ai xi + bi xi = (ai + bi )xi
i=0 i=0 i=0
Xn Xn
(2) λ ai xi = λai xi
i=0 i=0

Ejemplo 1.1.4. El espacio vectorial de los Polinomios de grado menor o igual que n con coeficientes en K,
(Kn [x], +, ·, K) es decir;

Kn [x] = {p(x) ∈ K[x] | ρ(p(x)) ≤ n}


Y las operaciones interna y externa son definidas respectivamente por,
n
X n
X n
X
i i
(1) ai x + bi x = (ai + bi )xi
i=0 i=0 i=0
Xn Xn
(2) λ ai xi = λai xi
i=0 i=0

Ejemplo 1.1.5. El espacio vectorial de las funciones Reales definidas en U ⊂ R, para U 6= ∅; (FR (U, R), +, ·, R),
donde

FR (U, R) = {f : U 7−→ R | f es una función}


Y las operaciones interna y externa son definidas respectivamente por,

(1) (f + g)(x) = f (x) + g(x)

(2) (λf )(x) = λf (x)

Ejemplo 1.1.6. El espacio vectorial de las funciones Reales continuas definidas en U ⊂ R, para U 6= ∅;
(CR (U, R), +, ·, K), donde

CR (U, R) = {f ∈ FR (U, R) | f es una función continua}

Y las operaciones interna y externa son definidas respectivamente por,

(1) (f + g)(x) = f (x) + g(x)

(2) (λf )(x) = λf (x)

Ejemplo 1.1.7. El espacio vectorial de las funciones reales derivables definidas en U ⊂ R, para U 6= ∅;
(DR (U, R, +, ·, R)), donde
Profesor Ricardo Santander Baeza 2010 9

DR (U, R) = {f ∈ FR (U, R); | f es una función derivable en U }


Y las operaciones interna y externa son definidas respectivamente por,

(1) (f + g)(x) = f (x) + g(x)

(2) (λf )(x) = λf (x)

2. Subespacios
Si consideramos un K espacio vectorial V entonces por definición V 6= ∅. Ası́ que

u ∈ V =⇒ λu ∈ V, para cada λ ∈ K =⇒ V = {0V } ∨ V tiene infinitos elementos


Esta observación hace difı́cil pensar en una forma de caracterizar a un espacio vectorial no nulo. No obstante
remirando nuestros ejemplos podemos encontrar espacios vectoriales incluidos en otros espacios vectoriales.

En efecto

(1) Kn [x] ⊂ K[x] (∀n; n ∈ N). Pues

• ∂(p(x) + q(x)) ≤ max{∂(p(x)), ∂(q(x))} y

• ∂(λp(x)) = ∂(p(x)) para cada λ ∈ R

(2) DR (U, R) ⊂ CR (U, R) ⊂ FR (U, R). Pues;

• La adición de funciones continuas es una función continua,y el producto de un escalar por una
función continua es función continua

• Análogamente, acontece con las funciones derivables.


Dado que necesitamos representar datos, parece razonable considerar la observación anterior para hacer la
siguiente definición.
Definición 2.1. Sea W ⊂ V. W será llamado un Subespacio vectorial de V si
• W 6= ∅
• W es un K-espacio vectorial con las mismas operaciones que V

Usaremos la notación: U ≤ V

Ejemplo 2.1.1. {0V } ≤ V y V ≤ V son conocidos como subespacios triviales.

Ejemplo 2.1.2. Kn [x] ≤ K[x] (∀n; n ∈ N)

Ejemplo 2.1.3. CR (U, R) ≤ FR (U, R)

Ejemplo 2.1.4. DR (U, R) ≤ CR (U, R) ∧ DR (U, R) ≤ FR (U, R)

Sin embargo, el avance en términos de la representación de datos ”eficiente” es nula, no obstante, podemos
observar lo siguiente:
10 Profesor Ricardo Santander Baeza 2010

Observación 2.1.5. Si W ≤ V entonces por definición (W, +, ·, K) es un K-espacio vectorial. Ası́ que
verifica naturalmente las propiedades:

(1) u ∈ W ∧ v ∈ W =⇒ (u + v) ∈ W

(2) u ∈ W ∧ λ ∈ K =⇒ λu ∈ W

Luego, podemos resumir lo anterior en la siguiente


u ∈ W ∧ v ∈ W
 =⇒ (u + v) ∈ W
W ≤ V =⇒ ∧ (1)


u∈W∧λ∈K =⇒ λu ∈ W

Recı́procamente, supongamos que W satisface las condiciones:

(1) u ∈ W ∧ v ∈ W =⇒ (u + v) ∈ W

(2) u ∈ W ∧ λ ∈ K =⇒ λu ∈ W entonces

(a) W 6= ∅ es supuesto inicial

(b) De las propiedades asumidas, sigue que existen operaciones + y · en W , y además como V es un
espacio vectorial entonces a fortiori (W, +, ·, K) es un K-espacio vectorial, y por ende un subespacio
del espacio V.
De la observación concluimos una caracterización que nos permite verificar en forma más eficiente, si un
subconjunto de un espacio vectorial es o no es un subespacio vectorial, por su importancia le daremos el
rango de teorema.

Teorema 2.2. Caracterización estructural de subespacio vectorial

Consideremos un espacio vectorial (V, +, ·, K) y W ⊂ V


(i)
 W 6= ∅
W ≤ V ⇐⇒ (ii) u ∈ W ∧ v ∈ W =⇒ (u + v) ∈ W


(iii) u ∈ W ∧ λ ∈ K =⇒ λu ∈ W

Ejemplo 2.2.1. Usemos el Teorema 2.2 para mostrar que W = {(x, y, z) ∈ R3 | x + y − z = 0} ≤ R3

En efecto, siguiendo la guı́a de nuestro teorema podemos generar la siguiente estrategia:

Etapa 1. Debemos verificar que W 6= ∅

(0, 0, 0) ∈ R3 y 0 + 0 − 0 = 0. Ası́ que (0, 0, 0) ∈ W


Profesor Ricardo Santander Baeza 2010 11

Etapa 2. Mostremos que si u ∈ W y v ∈ W entonces (u + v) ∈ W:

u ∈ W ⇐⇒ u = (u1 , u2 , u3 ) ∈ R3 ∧ u1 + u2 − u3 = 0 (⋆)
3
v ∈ W ⇐⇒ v = (v1 , v2 , v3 ) ∈ R ∧ v1 + v2 − v3 = 0 (⋆⋆)

Entonces

u + v = (u1 , u2 , u3 ) + (v1 , v2 , v3 ) [ ver (⋆) y (⋆⋆)]


= (u1 + v1 , u2 + v2 , u3 + v3 ) ( Suma en R3 )

Luego,

u + v ∈ R3 (2)

De (2),concluimos que (u + v) es un buen candidato para pertenecer a W , pero falta verificar si satisface la
condición que caracteriza W.

Para ver esto, debemos operar como sigue:

(u1 + v1 ) + (u2 + v2 ) − (u3 + v3 ) = u1 + v1 + u2 + v2 − u3 − v3


= (u1 + u2 − u3 ) + (v1 + v2 − v3 )
= 0+0 ( ver (⋆) y (⋆⋆))
= 0

Conclusión, (u + v) ∈ W

Etapa 3. Debemos verificar que si λ ∈ R y u ∈ W entonces λu ∈ W:

λu = λ(u1 , u2 , u3 ) = (λu1 , λu2 , λu3 ) ∈ R3

Por otra parte,

λu1 + λu2 − λu3 = λ(u1 + u2 − u3 ) = λ0 = 0

Conclusión, λu ∈ W, y W ≤ R3

Ejemplo 2.2.2. Usemos el Teorema 2.2 para mostrar que

W = {A ∈ MR (2) | A + At = (0)} ≤ MR (2)

En efecto, siguiendo la guı́a de nuestro teorema podemos generar la siguiente estrategia:

Etapa 1. Debemos verificar que W 6= ∅

     t      
0 0 0 0 0 0 0 0 0 0 0 0
∈ MR (2) ∧ + = + = ∈W
0 0 0 0 0 0 0 0 0 0 0 0

Etapa 2. Debemos mostrar que:

u ∈ W ∧ v ∈ W =⇒ (u + v) ∈ W
Si u ∈ W y v ∈ W entonces
12 Profesor Ricardo Santander Baeza 2010

u ∈ W ⇐⇒ u ∈ MR (2) ∧ u + ut = (0)
     t  
u11 u12 u11 u12 u11 u12 0 0
⇐⇒ u = ∈ MR (2) ∧ + =
u21 u22 u21 u22 u21 u22 0 0
      
u11 u12 u11 u12 u11 u21 0 0
⇐⇒ u = ∈ MR (2) ∧ + =
u21 u22 u21 u22 u12 u22 0 0
     
u11 u12 2u11 u12 + u21 0 0
⇐⇒ u = ∈ MR (2) ∧ = (⋆)
u21 u22 u21 + u12 2u22 0 0

Análogamente,

v ∈ W ⇐⇒ v ∈ MR (2) ∧ v + v t = (0)
     t  
v11 v12 v11 v12 v11 v12 0 0
⇐⇒ v = ∈ MR (2) ∧ + =
v21 v22 v21 v22 v21 v22 0 0
       
v11 v12 v11 v12 v11 v21 0 0
⇐⇒ v = ∈ MR (2) ∧ + =
v21 v22 v21 v22 v12 v22 0 0
     
v11 v12 2v11 v12 + v21 0 0
⇐⇒ v = ∈ MR (2) ∧ = (⋆⋆)
v21 v22 v21 + v12 2v22 0 0

entonces por una parte,

     
u11 u12 v11 v12 u11 + v11 u12 + v12
u+v = + = ∈ MR (2)
u21 u22 v21 v22 u21 + v21 u22 + v22
Y por otra,

   t
t u11 + v11 u12 + v12 u11 + v11 u12 + v12
u + v + (u + v) = +
u21 + v21 u22 + v22 u21 + v21 u22 + v22
   
u11 + v11 u12 + v12 u11 + v11 u21 + v21
= +
u21 + v21 u22 + v22 u12 + v12 u22 + v22
 
2(u11 + v11 ) (u12 + v12 ) + (u21 + v21 )
=
(u21 + v21 ) + (u12 + v12 ) 2(u22 + v22 )
 
2u11 + 2v11 (u12 + u21 ) + (v12 + v21 )
=
(u21 + u21 ) + (v12 + v12 ) 2u22 + 2v22
   
2u11 (u12 + u21 ) 2v11 (v12 + v21 )
= +
(u21 + u21 ) 2u22 (v12 + v12 ) 2v22
   
0 0 0 0
= + (De (⋆) y (⋆⋆))
0 0 0 0
 
0 0
=
0 0

Ası́ que, (u + v) ∈ W
Profesor Ricardo Santander Baeza 2010 13

Etapa 3. Si λ ∈ R entonces
   
u11 u12 λu11 λu12
λu = λ = ∈ MR (2)
u21 u22 λu21 λu22
Por otra parte,
   t
λu11 λu12 λu11 λu12
λu + (λu)t = +
λu21 λu22 λu21 λu22
   
λu11 λu12 λu11 λu21
= +
λu21 λu22 λu12 λu22
 
2λu11 λu12 + λu21
=
λu21 + λu12 2λu22
 
2λu11 λ(u12 + u21 )
=
λ(u21 + u12 ) 2λu22
 
2u11 (u12 + u21 )
= λ
(u21 + u12 ) 2u22
 
0 0
= λ
0 0
 
0 0
=
0 0

Ası́ que λu ∈ W, y W ≤ MR (2)


( n n
)
X X
Ejemplo 2.2.3. Si W = p(x) = ai xi ∈ Rn [x] | iai = 0 entonces W ≤ Rn [x]
i=0 i=0
En efecto
n
X
Etapa 1. p(x) = 0 ∈ W, pues i·0=0
i=0

Etapa 2. Si p(x) ∈ W q(x) ∈ W entonces


n
X n
X
p(x) ∈ W ⇐⇒ p(x) = ai xi ∧ iai = 0
i=0 i=0
n
X n
X
q(x) ∈ W ⇐⇒ p(x) = bi xi ∧ ibi = 0
i=0 i=0

Ahora, por una parte;


n
X
p(x) + q(x) = (ai + bi )xi ∈ Rn [x]
i=0

Y por otra parte;


n
X n
X n
X n
X
i(ai + bi ) = (iai + ibi ) = iai + ibi = 0 + 0 = 0
i=0 i=0 i=0 i=0

Conclusión (p(x) + q(x)) ∈ W


14 Profesor Ricardo Santander Baeza 2010

Etapa 3. Si λ ∈ R entonces por una parte;


Xn n
X
i
λp(x) = λ ai x = (λai )xi ∈ Rn [x]
i=0 i=0
Y por otra parte;

n
X n
X
λiai = λ iai = λ0 = 0
i=0 i=0
Ası́ que, λp(x) ∈ W y W ≤ Rn [x]

Ejemplo 2.2.4. Si V es un K- espacio vectorial entonces 0V ∈ W.

En efecto
W ≤ V =⇒ λ · u ∈ W (∀λ; λ ∈ K) ∧ (∀u; u ∈ W)
=⇒ 0 · u ∈ W (Pues, 0 ∈ K)
=⇒ 0V ∈ W
Ejemplo 2.2.5. Si W = {(x, y, z) ∈ R3 | x + 4y − 2z = λ} entonces determinemos el conjunto.
S = {λ ∈ R | W ≤ R3 }
Solución

Debemos determinar los elementos del conjunto S, y entonces es necesario entrar al conjunto.

Etapa 1. λ ∈ S ⇐⇒ λ ∈ R ∧ W ≤ R3

Etapa 2. W ≤ R3 =⇒ (0, 0, 0) ∈ W, esto sigue del ejemplo anterior.

Etapa 3. (0, 0, 0) ∈ W ⇐⇒ (0, 0, 0) ∈ R3 ∧ 0 + 4 · 0 · 2 = λ ⇐⇒ (0, 0, 0) ∈ R3 ∧ λ = 0

Luego, 0 ∈ S y {0} ⊂ S

Etapa 4. Si [u ∈ W ∧ v ∈ W =⇒ (u + v) ∈ W] entonces en particular debe ocurrir lo siguiente:

u ∈ W ⇐⇒ u = (x, y, z) ∈ R3 ∧ x + 4y − 2z = λ
2u ∈ W ⇐⇒ 2u = (2x, 2y, 2z) ∈ R3 ∧ 2x + 8y − 4z = λ
=⇒ 2λ = λ
=⇒ λ = 0
Etapa 5. Como λ ∈ R entonces para u = (x, y, z) ∈ W, λx + 4λy − 2λz = λ. Pero,
λx + 4λy − 2λz = λ =⇒ λ2 = λ =⇒ λ = 0 ∨ λ = 1

Ası́ que, S = {0} y W = {(x, y, z) ∈ R3 | x + 4y − 2z = 0}

Conclusión 2.2.6. El origen o elemento neutro del espacio pertenece a cada subespacio vectorial. Es decir
una condición necesaria para ser subespacio es que el origen pertenezca a él.
Profesor Ricardo Santander Baeza 2010 15

Un espacio vectorial V es nulo o tiene infinitos elementos.

Ejemplo 2.2.7. Si AX = B es un sistema lineal de orden (n × m) y S = {U ∈ MK (n × 1) | AU = B},


(K = R ∨ K = C) entonces
S ≤ MK (n × 1) ⇐⇒ B = (0)

En efecto

S ≤ MR (n × 1) =⇒ (0) ∈ S
=⇒ A · (0) = B
=⇒ (0) = B

Luego, hemos mostrado que: S ≤ MR (n × 1) =⇒ B = (0)

Recı́procamente, si B = (0) entonces

1. A(0) = (0), luego S 6= ∅

2. Si U1 ∈ S ∧ U2 ∈ S entonces A(U1 + U2 ) = A(U1 ) + A(U2 ) = (0) + (0) = (0). Ası́ que (U1 + U2 ) ∈ S

3. Si λ ∈ K y U1 ∈ S entonces AλU1 = λAU1 = λ(0) = (0). Ası́ que λU1 ∈ S

Luego, hemos mostrado que: B = (0) =⇒ S ≤ MR (n × 1). Ası́ que

S ≤ MK (n × 1) ⇐⇒ B = (0)

Conclusión 2.2.8. Las soluciones de un sistema de ecuaciones lineales homogéneo de orden (n × m), cons-
tituyen un subespacio vectorial. Por ende un Sistema lineal homogéneo o tiene únicamente la solución nula
o tiene infinitas soluciones

Observación 2.2.9. Desde un punto de vista estructural el teorema 2.2, es una herramienta poderosa para
decidir si un conjunto es o no, un subespacio en un espacio vectorial dado, no obstante el tiene un problema
que lamentablemente para nosotros es crucial; pues, “ no nos dice quienes son los miembros del subespacio
W.”
2.3. Ejercicios Propuestos de Subespacios.
(1) Demuestre que los siguientes conjuntos son subespacios de Rn , para n ∈ N descrito.

(a) W = {(x, y) ∈ R2 | x + 3y = 0}

(b) W = {(x, y) ∈ R2 | 10x − 5y = 0}

(c) W = {(x, y, z) ∈ R3 | x + y + z = 0}

(d) W = {(x, y, z) ∈ R3 | 5x + y − z = 0}

(e) W = {(x, y, z, w) ∈ R4 | x + y + 2z − w = 0}
16 Profesor Ricardo Santander Baeza 2010
 
4 y + 2z − w
(f) W = (x, y, z, w) ∈ R | 3x =
5
(2) Determine si los siguientes subconjuntos de MR (n × m) son subespacios para n y m adecuados.

(a) W = {A ∈ MR (2) | A = −At }, donde At significa la matriz traspuesta de la matriz A


n
X
(b) W = {(aij ) ∈ MR (n) | tr(aij ) = 0}. Donde tr(aij ) = aii , y se llama la traza de la matriz (aij )
i=1
(c) W = {A ∈ MR (n) | det(A) 6= 0}
( ( )
1 : Si j = n + 1 − i
(d) W = A = (aij ) ∈ MR (n) | aij =
0 : en otro caso

( ( )
aij : Si j ≤ i
(e) W = A = (aij ) ∈ MR (n) | aij =
0 : en otro caso
( ( )
aij : Si j ≥ i
(f) W = A = (aij ) ∈ MR (n) | aij =
0 : en otro caso
(3) Demuestre que los siguientes subconjuntos de Rn [x] son subespacios para n adecuado.

(a) W = {p(x) = a0 + a1 x + a2 x2 | p(−3) = 0}



(b) W = {p(x) = a0 + a1 x + a2 x2 + a3 x3 | p( 2) = 0}
( n n
)
X X
i
(c) W = p(x) = ai x | jai = 0; j ∈ [R − {0}]
( i=0 i=0 )
n
X n
X
i
(d) W = p(x) = ai x | iai = 0
i=0 i=0

3. La Idea de Generador
En concordancia con la observación anterior no estamos cumpliendo nuestro objetivo: Que es determinar
rápida y eficientemente los elementos del espacio vectorial, ası́ que si queremos cumplir nuestro objetivo
debemos cambiar el punto de vista. Como orientación debemos recordar que un espacio vectorial o tiene
un elemento o tiene infinitos elementos. Por tanto, el punto es, generar un proceso que transforme en una
”idea finita”, lo que en realidad es en concreto no finito. Con esto en mente,
(1) Miremos en primer lugar, desde un punto de vista diferente al subespacio de R3 . (Mirar desde otro
punto de vista significa, interpretar de un nueva forma las operaciones permitidas en el espacio).

W1 = {(x, y, z) ∈ R3 | x + 4y − 2z = 0} (3)
Ingresemos directamente al conjunto, es decir:
u ∈ W1 ⇐⇒ u = (x, y, z) ∈ R3 ∧ x + 4y − 2z = 0
⇐⇒ u = (x, y, z) ∈ R3 ∧ x = 2z − 4y
⇐⇒ u = (2z − 4y, y, z); z ∈ R, y ∈ R
⇐⇒ u = (2z, 0, z) + (−4y, y, 0); z ∈ R, y ∈ R
⇐⇒ u = z(2, 0, 1) + y(−4, 1, 0); z ∈ R, y ∈ R
Profesor Ricardo Santander Baeza 2010 17

Ası́ que,

W1 = {λ1 (2, 0, 1) + λ2 (−4, 1, 0) | (λ1 ∈ R) ∧ (λ2 ∈ R)}

La conclusión es la siguiente:

incognita incognita
↓ ↓
z}|{ z}|{
u ∈ W1 ⇐⇒ Tiene solución en K la ecuación u = a1 (2, 0, 1) + a2 (−4, 1, 0)

(2) Intentemos la misma estrategia con el subespacio

W2 = {(x, y, z) ∈ R3 | x = y ∧ z = 0} (4)

De nuevo, entremos al conjunto.

u ∈ W2 ⇐⇒ u = (x, y, z) ∈ R3 ∧ x = y ∧ z = 0
⇐⇒ u = (x, x, 0) ∧ x ∈ R
⇐⇒ u = x(1, 1, 0) ∧ x ∈ R

Ası́ que,

W2 = {λ(1, 1, 0) | λ ∈ R}

La conclusión es la siguiente:

incognita

z}|{
u ∈ W2 ⇐⇒ Tiene solución en K la ecuación u = a1 (2, 0, 1)

(3) Ahora tratemos de aplicar lo aprendido en el conjunto,

W1 + W2 = {w1 + w2 | w1 ∈ W1 ∧ w2 ∈ W2 }

(a) W1 + W2 6= ∅

En efecto

0R3 = (0, 0, 0) = 0(2, 0, 1) + 0(−4, 1, 0) + 0(1, 1, 0) =⇒ 0R3 ∈ W1 + W2

Más aún, 0R3 ∈ W1 , pues (0, 0, 0) = 0(2, 0, 1) + 0(−4, 1, 0) y 0R3 ∈ W2 , pues (0, 0, 0) = 0(1, 1, 0).
Ası́
que 0R3 ∈ W1 ∩ W2
18 Profesor Ricardo Santander Baeza 2010

(b) Por otra parte,


u ∈ W1 ∩ W2 ⇐⇒ u ∈ W1 ∧ u ∈ W2
⇐⇒ u = (x, y, z) ∈ R3 ∧ x + 4y − 2z = 0 ∧ x = y ∧ z = 0
⇐⇒ u = (x, x, 0) ∈ R3 ∧ x + 4x = 0
⇐⇒ u = (x, x, 0) ∈ R3 ∧ x = 0
⇐⇒ u = (0, 0, 0)
Por tanto,
W1 ∩ W2 = {(0, 0, 0)} = {0R3 }
(c) Ahora para u ∈ R3 arbitrario tratemos de resolver la ecuación
u = x1 (2, 0, 1) + x2 (−4, 1, 0) + x3 (1, 1, 0)
Si conseguimos ese resultado entonces se verificará que

(i) R3 = W1 + W2

(ii) Tendremos una fórmula para expresar los elementos de R3 en términos de los vectores de
W1 y W2 .

Vamos entonces a resolver el problema para u = (x, y, z) arbitrario


(x, y, z) = x1 (2, 0, 1) + x2 (−4, 1, 0) + x3 (1, 1, 0) ⇐⇒ (x, y, z) = (2x1 − 4x2 + x3 , x2 + x3 , x1 )
2x1 − 4x2 + x3 = x
⇐⇒ x 2 + x3 = y (∗)
x1 = z
Ahora resolvemos (∗), usando nuestras técnicas

   
2 −4 1 | x 0 −4 1 | x − 2z
 0 1 1 | y  (l1 → l1 − l3 )  0 1 1 | y  (l1 → l1 + 4l2 )
1 0 0 | z 1 0 0 | z
   x+4y−2z

0 0 5 | x + 4y − 2z 0 0 1 | 5
 0 1 1 | y  (l1 → 15 l1 )  0 1 1 | y  (l2 → l2 − l1 )
1 0 0 | z 1 0 0 | z
 x+4y−2z 
0 0 1 | 5
 0 1 0 | −x+y+2z 
5
1 0 0 | z
Por tanto,
 
  z
x1  y − x + 2z 
 x2  =   =⇒ (x, y, z) = z(2, 0, 1) + y − x + 2z (−4, 1, 0) + x + 4y − 2z (1, 1, 0)
 5  5 5
x3 x + 4y − 2z
5
(d) Finalmente, si adoptamos las siguientes notaciones:

α = {(2, 0, 1), (−4, 1, 0), 5(1, 1, 0)}


Profesor Ricardo Santander Baeza 2010 19

 
z
y − x + 2z 
 ⇐⇒ (x, y, z) = z(2, 0, 1) + y − x + 2z (−4, 1, 0) + x + 4y − 2z (1, 1, 0)

[(x, y, z]α =  5
{z5 5 {z
 
x + 4y − 2z | } | }
5 ∈W 1 ∈W2

Hemos conseguido mostrar que

R 3 = W1 + W2
Y además podemos ahora ejercitar el nuevo sı́mbolo:

(i) Para u = (2, 0, 1) tenemos


 
1  
 0−2+2  1
[2, 0, 1]α =  = 0 
 5 
2+0−2 0
5
Pues,
(2, 0, 1) = (2, 0, 1) + 0(−4, 1, 0) + 0(1, 1, 0)
(ii) para u = (−4, 1, 0) tenemos

0
[(−4, 1, 0)]α =  1 
0
Pues,

(−4, 1, 0) = 0(2, 0, 1) + 1(−4, 1, 0) + 0(1, 1, 0)

(iii) Para u=(1, 1, 0) tenemos


 
0
[(1, 1, 0)]α =  0 
1
Pues,
(1, 1, 0) = 0(2, 0, 1) + 0(−4, 1, 0) + 1(1, 1, 0)
(iv) Para u = (1, 1, 1) tenemos
 
1
 2 
[1, 1, 1]α =  
 5 
3
5
Pues,
2 3
(1, 1, 1) = (2, 0, 1) + (−4, 1, 0) + (1, 1, 0)
5 5
(4) Para el caso α = {(2, 0, 1), (−4, 1, 0), 5(1, 1, 0)} hemos encontrado que R3 se descompone en la suma
del Plano W1 y la recta W2 . Similar a lo que sucede con el plano R2 que se descompone como la suma
del eje x y del eje y.
20 Profesor Ricardo Santander Baeza 2010

Definición 3.1. Sea V un K espacio vectorial y considere los subconjuntos W1 y W2 tal que W1 ≤ V y
W2 ≤ V. Diremos que V es suma directa de los subespacios W1 y W2 en sı́mbolos V = W1 ⊕ W2 . Si

(1) V = W1 + W2

(2) W1 ∩ W2 = {0V }

Ejemplo 3.1.1. Si W1 = {(x, y, z) ∈ R3 | x + 4y − 2z = 0} y W2 = {(x, y, z) ∈ R3 | x = y ∧ z = 0} entonces


R 3 = W1 ⊕ W2
= h{(2, 0, 1), (−4, 1, 0)}i ⊕ h{(1, 1, 0)}i

Teorema 3.2. Sea V un K espacio vectorial y {v1 , v2 , . . . , vn } ⊂ V entonces


( n )
X
W = h{v1 , v2 , . . . , vn }i = ri · vi | ri ∈ K (1 ≤ i ≤ n) ≤V
i=1
En efecto

(1) 0V ∈ V y 0V = 0 · v1 + 0 · v2 + · · · + 0 · vn . Ası́ que 0V ∈ W, y W 6= ∅

(2) Sean u ∈ W, w ∈ W entonces


n

X 

u∈W ⇐⇒ u = ai · vi | ai ∈ K (1 ≤ i ≤ n) 

 n
X
i=1 =⇒ u + w = (ai + bi ) · vi ∈ W
Xn
 i=1
w∈W ⇐⇒ w = bi · vi | bi ∈ K (1 ≤ i ≤ n) 



i=1

(3) Sean u ∈ W y λ ∈ K entonces

n
X n
X
λ·u = λ· ai · vi = (λ · ai ) · vi ∈ W
i=1 i=1

Ası́ que W ≤ V

Definición 3.2.1. Si V es un K espacio vectorial entonces el conjunto


( n )
X
(1) W = h{v1 , v2 , . . . , vn }i = ri · vi | ri ∈ K (1 ≤ i ≤ n) . Se llamará subespacio generado por α =
i=1
{v1 , v2 , . . . , vn } y cada vi para i = 1, 2, . . . , n se llamará un generador.

(2) u ∈ V , se llamará una combinación lineal de α = {v1 , v2 , . . . , vn } si u ∈ W, es decir existen n -


escalares, digamos {a1 , a2 , . . . , an } tal que
n
X
u= ai · vi
i=1

Es decir, los elementos de W se llaman combinaciones lineales de α = {v1 , v2 , . . . , vn }


Profesor Ricardo Santander Baeza 2010 21

3.3. Ejercicios Propuestos de Generadores.


(1) Sea W = h{(1, 0, 0), (1, 1, 0), (1, 1, 1)} ⊂ R3

(a) Demuestre que (2, 2, 2) ∈ W. Es decir, resuelva la ecuación vectorial

(2, 2, 2) = a1 (1, 0, 0) + a2 (1, 1, 0) + a3 (1, 1, 1)


(b) Demuestre que (x, y, z) ∈ W, para cada (x, y, z) ∈ R3

(c) Concluya que R3 = h{(1, 0, 0), (1, 1, 0), (1, 1, 1)}i

(2) Sea V un K espacio vectorial y α = {v1 , v2 }. Demuestre que


h{v1 , v2 }i = h{v1 , v1 + v2 }i
(3) Sea V un K espacio vectorial y α = {v1 , v2 }. Demuestre que

h{v1 , v2 }i = h{v1 − v2 , v1 + v2 }i
k
X
(4) Sea V un K espacio vectorial y α = {v1 , . . . , vn } ⊂ V. Si β = {w1 , . . . , wn } ⊂ V tal que wk = vi
i=1
para cada k = 1, 2, . . . , n entonces demuestre que

h{v1 , v2 , . . . , vn }i = h{w1 , w2 , . . . , wn }i
k
X
(5) Sea V un K espacio vectorial y α = {v1 , . . . , vn } ⊂ V. Si β = {w1 , . . . , wn } ⊂ V tal que wk = jvi
i=1
para cada k = 1, 2, . . . , n entonces demuestre que

h{v1 , v2 , . . . , vn }i = h{w1 , w2 , . . . , wn }i
(6) Demuestre que

• W1 = {(x, y, z) ∈ R3 | x − y − z = 0} ≤ R3

• W2 = {(x, y, z) ∈ R3 | x − y = 0 ∧ y − z = 0} ≤ R3

• W1 + W2 = {w1 + w2 | w1 ∈ W1 ∧ w2 ∈ W2 } ≤ R3

• R 3 = W1 + W2

• W1 ∩ W2 = {0R3 }

En general, si V es un K espacio vectorial, W1 ≤ V y W2 ≤ V entonces V se dice “Suma directa de los


subespacios W1 y W2 ”si

• V = W1 + W2

• W1 ∩ W2 = {0V }
L
En tal caso, notamos V = W1 W2
22 Profesor Ricardo Santander Baeza 2010

(7) Demuestre que


R2 = {eje x} ⊕ {eje y}
(8) Demuestre que
MR (n) = { matrices simétricas} ⊕ { matrices antisimétricas }
(9) Demuestre que
Rn [x] = R0 [x] ⊕ h{x, x2 , . . . , xn }i

4. Sistemas de Generadores
Si V es un K espacio vectorial entonces V ≤ V. Ası́ que tiene sentido preguntar, ¿si existen o no generadores
para el propio V?. En general podemos hacer la siguiente

Definición 4.1. Sea V un K espacio vectorial y α = {v1 , v2 , . . . , vn } ⊂ V, α será llamado un sistema de


generadores para V si
V = hαi = h{v1 , v2 , . . . , vn }i
Equivalentemente: α es un sistema de generadores si para cada v ∈ V existen n - escalares, digamos
a1 , a2 , . . . , an tales que

v = a1 v1 + a2 v2 + · · · + an vn
O en lenguaje más pragmático:

α es un sistema de generadores si para cada v ∈ V la ecuación vectorial

v = a1 v1 + a2 v2 + · · · + an vn (5)
tiene solución.

Ejemplo 4.1.1. c(n) = {e1 , e2 , . . . , en }, donde

e1 = (1, 0, 0, . . . , 0)
e2 = (0, 1, 0, . . . , 0)
..
.
en = (0, 0, 0, . . . , 1)
es un sistema de generadores para Rn , ya que

(x1 , x2 , . . . , xn ) = x1 e1 + x2 e2 + · · · + xn en (6)

Por la forma de (6), se acostumbra a llamar a “c(n) con el nombre de generadores canónicos. ”

Ejemplo 4.1.2. m(n × s) = {Eij | (1 ≤ i ≤ n) ∧ (1 ≤ j ≤ s)}, donde


(
1 : en la posición ij
Eij =
0 : en otra parte
Es un sistema de generadores, también conocido como sistema de generadores canónico de MK (n × s)
Profesor Ricardo Santander Baeza 2010 23

Ası́ por ejemplo, para n = s = 2


 
a b
= aE11 + bE12 + cE21 + dE22
c d
       
1 0 0 1 0 0 0 0
= a + b + c + d
0 0 0 0 1 0 0 1
Luego,

       
1 0 0 1 0 0 0 0
MR (2) = , , ,
0 0 0 0 1 0 0 1

Ejemplo 4.1.3. p(n) = {1, x, x2 , . . . , xn } son los generadores canónicos de Rn [x],

pues,

q(x) = a0 · 1 + a1 · x + · · · + an xn
Es decir,

Rn [x] = h{1, x, x2 , . . . , xn }i
4.2. Construcción de sistemas de generadores. Estudiemos algunas situaciones que nos permiten con-
struir sistemas de generadores.

(1) Sea V un K espacio vectorial y α = {v1 , v2 } entonces


V = h{v1 , v2 }i =⇒ V = h{v1 , v1 + v2 }i
En efecto

(a) En este caso tenemos que demostrar que V = h{v1 , v1 + v2 }i, es decir debemos mostrar que la
ecuación vectorial,

v = a1 v1 + a2 (v1 + v2 ) (7)

Tiene solución para cada v ∈ V .

(b) Analizamos los datos.

Como V = h{v1 , v2 }i y v ∈ V entonces tiene solución la ecuación vectorial

v = b1 v1 + b2 v2 (8)

Es decir, existen b1 ∈ K y b2 ∈ K tal que (8) es una identidad.


24 Profesor Ricardo Santander Baeza 2010

(c) Supongamos por un instante que la ecuación vectorial (7), tiene solución entonces

v = a1 v1 + a2 (v1 + v2 )
= a1 v1 + a2 v1 + a2 v2
= (a1 + a2 )v1 + a2 v2
Luego, basta que tomemos:

a1 + a2 = b1
a2 = b2

De donde sigue que, a1 = b1 − b2 ∧ a2 = b2 y entonces hemos mostrado que

v = b1 v1 + b2 v2 =⇒ v = (b1 − b2 )v1 + b2 (v1 + v2 )


Y la conclusión es que V = h{v1 , v1 + v2 }i

Una solución Alternativa para mostrar que h{v1 , v2 }i = h{v1 , v1 + v2 }i

Observemos que

(i) v1 = 1 · v1 + 0 · (v1 + v2 ), luego v1 ∈ h{v1 , v1 + v2 }i


(ii) v2 = (−1) · v1 + 1 · (v1 + v2 ), luego v2 ∈ h{v1 , v1 + v2 }i
(iii) Ası́ que,

h{v1 , v2 }i ⊂ h{v1 , v1 + v2 }i (9)


Análogamente,

(i) v1 = 1 · v1 + 0 · v2 , luego v1 ∈ h{v1 , v2 }i


(ii) v1 + v2 = 1 · v1 + 1 · v2 , luegov1 + v2 ∈ h{v1 , v2 }i

(iii) Ası́ que,

h{v1 , v1 + v2 }i ⊂ h{v1 , v2 }i (10)


Luego, de (9) y (10), sigue que
h{v1 , v1 + v2 }i = h{v1 , v2 }i
(2) En general si V un K espacio vectorial y α = {v1 , v2 , v3 , . . . , vn } ⊂ V. entonces
k
X
V = h{v1 , v2 , . . . , vn }i =⇒ V = h{w1 , w2 , . . . , wn }i donde wk = vi ; y (1 ≤ k ≤ n)
i=1

En efecto

 En primer lugar, para cada k = 1, 2, . . . , n tenemos que:

k
X
wk = vi = 1 · v1 + 1 · v2 + · · · + 1 · vn =⇒ wk ∈ h{v1 , v2 , . . . , vn }i (11)
i=1
Profesor Ricardo Santander Baeza 2010 25

 En segundo lugar, por definición:


u ∈ h{w1 , w2 , . . . , wn }i ⇐⇒ u = a1 w1 + a2 w2 + · · · + an wn (12)

 Aplicando (11) en (12) tenemos que

u ∈ h{w1 , w2 , . . . , wn }i ⇐⇒ u = a1 w1 + a2 w2 + · · · + an wn i
1
X 2
X n
X
=⇒ u = a1 vi + a2 vi + · · · + an vi
i=1 i=1 i=1
n
! n
! n
!
X X X
=⇒ u= ai v1 + ai v2 + · · · + ai vn−1 + an vn
|{z}
i=1 i=2 i=n−1 cn
| {z } | {z } | {z }
c1 c2 cn−1
=⇒ u = c1 v1 + c2 v2 + · · · + cn−1 vn−1 + cn vn
=⇒ u ∈ h{v1 , v2 , . . . , vn }i

 Conclusión:
h{w1 , w2 , . . . , wn }i ⊂ h{v1 , v2 , . . . , vn }i (13)
 Recı́procamente, v1 = w1 y para k = 2, 3 . . . , n vk = wk − wk−1 . Ası́ que

n
X
u ∈ h{v1 , v2 , . . . , vn }i ⇐⇒ u = ai vi
i=1
n
X
=⇒ u = a1 w1 + ai (wi − wi−1 )
i=2
n
X
=⇒ u= (ai − ai+1 )wi
i=1
=⇒ u ∈ h{w1 , w2 , . . . , wn }i

 Conclusión:
h{v1 , v2 , . . . , vn }i ⊂ h{w1 , w2 , . . . , wn }i (14)

 Finalmente, de (13) y (14). Sigue que


h{v1 , v2 , . . . , vn }i = h{w1 , w2 , . . . , wn }i

(3) Si consideramos los conjuntos de polinomios

U = {p(x) = a0 + a1 x + a2 x2 + a3 x3 ∈ R3 [x] | a0 − a1 = 0 ∧ a2 − a3 = 0} y
W = {q(x) = b0 + b1 x + b2 x2 + b3 x3 ∈ R3 [x] | b0 + b1 = 0 ∧ b2 + b3 = 0} entonces

(a) U ≤ R3 [x] y W ≤ R3 [x]


26 Profesor Ricardo Santander Baeza 2010

En efecto

Usaremos la técnica de los generadores para mostrar que tanto U como W son subespacios

p(x) ∈ U ⇐⇒ p(x) = a0 + a1 x + a2 x2 + a3 x3 ∈ R3 [x] ∧ a0 − a1 = 0 ∧ a2 − a3 = 0


⇐⇒ p(x) = a0 + a1 x + a2 x2 + a3 x3 ∈ R3 [x] ∧ a0 = a1 ∧ a2 = a3
⇐⇒ p(x) = a0 + a0 x + a2 x2 + a2 x3 ∧ a0 ∈ R ∧ a2 ∈ R
⇐⇒ p(x) = a0 (1 + x) + a2 (x2 + x3 ) ∧ a0 ∈ R ∧ a2 ∈ R
⇐⇒ p(x) ∈ h{1 + x, x2 + x3 }i

Es decir,

U = h{1 + x, x2 + x3 }i ≤ R3 [x]

Análogamente,

p(x) ∈ W ⇐⇒ p(x) = a0 + a1 x + a2 x2 + a3 x3 ∈ R3 [x] ∧ a0 + a1 = 0 ∧ a2 + a3 = 0


⇐⇒ p(x) = a0 + a1 x + a2 x2 + a3 x3 ∈ R3 [x] ∧ −a0 = a1 ∧ −a2 = a3
⇐⇒ p(x) = a0 − a0 x + a2 x2 − a2 x3 ∧ a0 ∈ R ∧ a2 ∈ R
⇐⇒ p(x) = a0 (1 − x) + a2 (x2 − x3 ) ∧ a0 ∈ R ∧ a2 ∈ R
⇐⇒ p(x) ∈ h{1 − x, x2 − x3 }i

Es decir,

W = h{1 − x, x2 − x3 }i ≤ R3 [x]

(b) R3 [x] = W ⊕ U

En efecto

Ahora para mostrar que R3 [x] = U ⊕ W, debemos resolver en primer lugar la ecuación

p(x) = w + u (w ∈ W ∧ u ∈ U)
= c1 (1 − x) + c2 (x2 − x3 ) + c3 (1 + x) + c4 (x2 + x3 ), (Para p(x) ∈ R3 [x])
| {z } | {z }
q q
w u

Entonces

a0 + a1 x + a2 x2 + a3 x3 = c1 (1 − x) + c2 (x2 − x3 ) + c3 (1 + x) + c4 (x2 + x3 )
= c1 − c1 x + c2 x2 − c2 x3 + c3 + c3 x + c4 x2 + c4 x3
= c1 + c3 + c3 x − c1 x + c4 x2 + c2 x2 − c2 x3 + c4 x3
= c1 + c3 + (c3 − c1 )x + (c2 + c4 )x2 + (c4 − c2 )x3
Profesor Ricardo Santander Baeza 2010 27

Ası́ que,

a0 − a1
c1 =
2
c1 + c3 = a0 a0 + a1
c3 =
−c1 + c3 = a1 2
=⇒ c = a2 − a3
c2 + c4 = a2 2
2
−c2 + c4 = a3 a2 + a3
c4 =
2

Luego,

a0 − a1 a2 − a3 2 a0 + a1 a2 + a3 2
a0 + a1 x + a2 x2 + a3 x3 = (1 − x) + (x − x3 ) + (1 + x) + (x + x3 )
| 2 {z 2 } | 2 {z 2 }
∈W ∈U

Por tanto,

R3 [x] = W + U

En segundo lugar, debemos mostrar que W ∩ U = {0R3 [x] }. Para ver esto hacemos

p(x) ∈ W ∩ U ⇐⇒ p(x) ∈ W ∧ p(x) ∈ U


⇐⇒ p(x) = b1 (1 − x) + b2 (x2 − x3 ) ∧ p(x) = b3 (1 + x) + b4 (x2 + x3 )
⇐⇒ b1 − b1 x + b2 x2 − b2 x3 = b3 + b3 x + b4 x2 + b4 x3
⇐⇒ (b1 = b3 ) ∧ (−b1 = b3 ) ∧ (b2 = b4 ) ∧ (−b2 = b4 )
⇐⇒ b1 = b3 = 0 ∧ b2 = b4 = 0
⇐⇒ p(x) = 0R3 [x]

De donde sigue lo pedido, W ∩ U = {0R3 [x] }

(c) A partir de U y W, obtenemos un sistema de generadores para R3 [x], pues

a0 − a1 a2 − a3 2 a0 + a1 a2 + a3 2
a0 + a1 x + a2 x2 + a3 x3 = (1 − x) + (x − x3 ) + (1 + x) + (x + x3 )
| 2 {z 2 } | 2 {z 2 }
∈W ∈U

Y,

R3 [x] = h{1 − x, x2 − x3 , 1 + x, x2 + x3 }i

En particular, en este sistema tenemos que.


28 Profesor Ricardo Santander Baeza 2010

 
a0 − a1

 2 

 
 a2 − a3 
 
   2 
a0 + a1 x + a2 x2 + a3 x3 α = 
 

 a0 + a1 
 
 2 
 
 
 a +a 
2 3
2

5. Dependencia e Independencia Lineal


Siempre con la idea de fondo de construir un procedimiento finito que determine rápida y eficientemente
los elementos de un espacio vectorial, y considerando que ya tenemos una representación vı́a el concepto de
Sistema de generadores, ahora queremos garantizar que esta representación ”es segura.”
Para ello iniciamos nuestro análisis considerando un sistema de generadores α = {v1 , v2 , . . . , vn } de un
espacio vectorial de V, es decir,
V = h{v1 , v2 , . . . , vn }i
Equivalentemente, para cada u ∈ V existen c1 , c2 , . . . , cn en K tal que

n
X
v= ci vi = c1 v1 + c2 v2 + · · · + cn vn
i=1

O en lenguaje más pragmático: Para cada v ∈ V la ecuación vectorial

v = x1 v1 + x2 v2 + · · · + xn vn
tiene al menos una solución en Kn

Motivados por lo anterior construyamos ”una relación entre la teorı́a y la práctica.”


Definición 5.1. Sea α = {v1 , v2 , . . . , vn } ⊂ V un sistema de generadores para V entonces definimos la
relación [ ]α : V 7−→ MK (n × 1) como sigue:
 
c1
 c2  Xn
 
[v]α =  ..  ∈ MK (n × 1) ⇐⇒ v = ck vk ∈ V
 . 
k=1
cn

Ejemplo 5.1.1. Si α = {(1, 1), (1, −1))} entonces α es un sistema de generadores para R2 , pues
x+y x−y
(x, y) = (1, 1) + (1, −1)
2 2
Ası́ que,
 x+y 

[(x, y)]α 2 
=  x− y
2
Profesor Ricardo Santander Baeza 2010 29

Ejemplo 5.1.2. Si α = {v1 , v2 , . . . , vn } ⊂ V un sistema de generadores para V entonces para, w ∈ V,


β = {v1 , v2 , . . . , vn , w}, también genera V, y
 
c1

 c2 
 n
 ..  X
[w]β =  .  ⇐⇒ w = ck vk + 0 · w ( Pues, α genera V)
 
 cn  k=1
0

Por otra parte, tenemos ”una fuga de seguridad” ya que existe una representación diferente para w, pues
 
0

 0 
 n
 ..  X
[w]β =  .  ⇐⇒ w = 0 · vk + 1 · w
 
 0  k=1
1
Observación 5.1.3. Para caracterizar esta ”fuga de seguridad”, supongamos que α = {v1 , v2 , . . . , vn } es un
sistema de generadores para V y que u ∈ V tiene dos representaciones diferentes en este sistema entonces
debemos tener
n
X n
X
(1) u = ak vk y u = bk vk
k=1 k=1
(2) Si estas representaciones son distintas entonces existe (i; 1 ≤ i ≤ n) tal que ai 6= bi

(3) Luego, tenemos que

n
X n
X n
X
ak vk = bk vk =⇒ (ak − bk )vk = 0V
k=1 k=1 k=1
=⇒ (a1 − b1 )v1 + (a2 − b2 )v2 + · · · + (ai − bi ) vi + · · · + (an − bn )vn = 0V
| {z }
6=0

Ası́ que, el 0V se escribe, al menos de dos formas diferentes

0V = 0v1 + 0v2 + · · · + 0vn

= (a1 − b1 )v1 + (a2 − b2 )v2 + · · · + (ai − bi ) vi + · · · + (an − bn )vn


| {z }
6=0

Conclusión 5.1.4. Si un vector u ∈ V se representa en más de una forma, como combinación lineal de los
elementos de α entonces el vector nulo 0V se representa en más de una forma, como combinación lineal de
los elementos de α.
Luego, en virtud de nuestra lógica, podemos decir que: 0V , se escribe de una única forma como combinación
lineal de los elementos de α entonces todo vector del espacio posee la misma propiedad.
Definición 5.2. Sea V un K espacio vectorial, y α = {v1 , v2 , . . . , vn } ⊂ V. Diremos que α es un conjunto lin-
ealmente independiente en V si 0V , se escribe de una única forma como combinación lineal de los elementos
de α, en sı́mbolos Li. Caso contrario diremos que α es un conjunto linealmente dependiente, en sı́mbolos Ld.
30 Profesor Ricardo Santander Baeza 2010

Es decir, α es Li en V Si
ai v1 + a2 v2 + a3 v3 + · · · + an vn = 0V =⇒ a1 = a2 = · · · = an = 0
Ejemplo 5.2.1. Si α = {1, 1 + x, 1 + x + x2 } ⊂ K2 [x] entonces α es Li en K2 [x].

En efecto

De acuerdo a la definición. Si suponemos que a1 · 1 + a2 (1 + x) + a3 (1 + x + x2 ) = 0K2 [x] entonces debemos


mostrar que a1 = a2 = a3 = 0. Por tanto,

a1 · 1 + a2 (1 + x) + a3 (1 + x + x2 ) = 0K2 [x] =⇒ a1 + a2 + a2 x + a3 + a3 x + a3 x2 = 0 + 0x + 0x2


=⇒ (a1 + a2 + a3 ) + (a2 + a3 )x + a3 x2 = 0 + 0x + 0x2
a1 + a2 + a3 = 0
=⇒ a2 + a3 = 0 =⇒ a3 = a2 = a1 = 0
a3 = 0

Luego, α es Li en K2 [x]
Ejemplo 5.2.2. Si β = {1, 1 + x, 1 + x + x2 , 1 − x − 2x2 } ⊂ K2 [x] entonces ¿ β es Li ó Ld en K2 [x]?.

Estudiemos el problema

Supongamos que a1 · 1 + a2 (1 + x) + a3 (1 + x + x2 ) + a4 (1 − x − 2x2 ) = 0K2 [x] entonces

a1 + a2 + a2 x + a3 + a3 x + a3 x2 + a4 − a4 x − 2a4 x2 = 0 + 0x + 0x2 ⇐⇒
(a1 + a2 + a3 + a4 ) + (a2 + a3 − a4 )x + (a3 − 2a4 )x2 = 0 + 0x + 0x2 ⇐⇒
a1 + a2 + a3 + a4 = 0
a2 + a3 − a4 = 0 (∗)
a3 − 2a4 = 0

Luego, β es Ld en K2 [x], pues, si A es la matriz de coeficientes del sistema (∗) entonces ρ(A), puede ser
como máximo 3, y el número de incógnitas es 4 de donde siguen que el sistema tiene infinitas soluciones.

Podemos determinar esas soluciones:


     
1 1 1 1 1 0 0 2 1 0 0 −2
 0 1 1 −1  (l1 → l1 − l2 )  0 1 1 −1  (l2 → l2 − l3 )  0 1 0 1 
0 0 1 −2 0 0 1 −2 0 0 1 −2

Las infinitas soluciones son de la forma: a1 = −2a4 ; a2 = −a4 ; a3 = 2a4 y su expresión es de la forma:

0 + 0x + 0x2 = −2a4 − a4 (1 + x) + 2a4 (1 + x + x2 ) + a4 (1 − x − 2x2 ) (a4 ∈ K)

6. Base y Dimensión
Ahora tenemos construidas y listas para usar, las piezas precisas para garantizar la existencia y unicidad
de una representación como combinación lineal, para cada vector de un espacio vectorial. Partimos con la
siguiente:
Definición 6.1. Sea V un K espacio vectorial, y α = {v1 , v2 , . . . , vn } ⊂ V. Diremos que α es una base para
el espacio vectorial V si
Profesor Ricardo Santander Baeza 2010 31

(1) α es un sistema de generadores para V


(2) α es un conjunto linealmente independiente en V

Es decir, para cada u ∈ V existen únicos escalares a1 , a2 , . . . , an tal que

n
X
u = ai vi = a1 v1 + a2 v2 + · · · + an vn
i=1
Equivalentemente, la función
 
a1
 a2  n
[ ]α : V −
7 → MR (n × 1   X
; donde [u]α =  ..  ⇐⇒ u = ak vk
u −7 → [u]α  . 
k=1
an
Es una biyección

Ejemplo 6.1.1. Si V = Kn entonces


c(n) = {e2 , e2 , . . . , en }
La llamaremos la base canónica de Kn , pues;
 
x1
 x2 
 
(x1 , x2 , . . . , xn ) = x1 e1 + x2 e2 + · · · + xn en ⇐⇒ [(x1 , x2 , . . . , xn )]c(n) =  .. 
.
xn
Ejemplo 6.1.2. Si V = MK (n × s) entonces
m(n × s) = {Eij | (1 ≤ i ≤ n); (1 ≤ j ≤ s)}
La llamaremos la base canónica de (M)K (n × s), pues por ejemplo para n = s = 2
 
x11 x12
= x11 E11 + x12 E12 + x21 E21 + x22 E22
x21 x22        
1 0 0 1 0 0 0 0
= x11 + x12 + x21 + x22
0 0 0 0 1 0 0 1

Ejemplo 6.1.3. Si V = K[x] entonces


p(∞) = {1, x, x2 , . . . }
La llamaremos la base canónica de los polinomios con coeficientes en el cuerpo K, pues genéricamente un
polinomio se escribe como,
p(x) = a0 · 1 + a1 · x + a2 · x2 + · · · + at xt ; (t ∈ N)
En particular,
p(n) = {1, x, x2 , . . . , xn }; (n ∈ N)
La llamaremos la base canónica de Kn [x], el espacio vectorial de polinomios hasta de grado n.

Ejemplo 6.1.4. En Kn , sea α = {v1 , v2 , . . . , vn } una base entonces


32 Profesor Ricardo Santander Baeza 2010

• cα = {c · v1 , c · v2 , . . . , c · vn }, es una nueva base de Kn , para cada c ∈ K − {0}


n
X
• α+ = {v1 , v1 + v2 , . . . , vi }, es una nueva base de Kn
i=1
j
X
• En general β = {w1 , w2 , . . . , wn }, donde wj = ai vi , para (a1 , a2 , . . . an ) ∈ Kn fijo, es una base de Kn
i=1

Ejemplo 6.1.5. Sea V = {f : [−π, π] 7−→ R | tal que f continua }. Si definimos el subespacio de V

W = h{1, sen x, cos x, sen 2x, cos 2x, . . . , sen nx, cos nx}i

entonces α = {1, sen x, cos x, sen 2x, cos 2x, . . . , sen nx, cos nx}, es una base de W , para cada n ∈ N
Teorema 6.2. Sea V un K espacio vectorial y α = {v1 , v2 , . . . , vn } una base de V entonces cualquier sub-
conjunto de V que posea más de n-elementos es linealmente dependiente

En efecto

(1) Sea α = {v1 , v2 , . . . , vn } una base de V , y β = {w1 , w2 , . . . , ws } ⊂ V, donde n < s

(2) Supongamos que c1 w1 + c2 w2 + c3 w3 + · · · + cs ws = 0V

(3) Como α es una base entonces en primer lugar, cada elemento de V tiene representación como com-
binación lineal de sus elementos (Es un sistema de generadores). Ası́ que en particular para cada
wi (1 ≤ i ≤ s) tenemos que

w1 = a11 v1 + a12 v2 + · · · + a1n vn c1 w1 = c1 a11 v1 + · · · + c1 a1n vn

w2 = a21 v1 + a22 v2 + · · · + a2n vn c2 w2 = c2 a21 v1 + · · · + c2 a2n vn


.. ..
. =⇒ . (+)
wi = ai1 v1 + ai2 v2 + · · · + ain vn ci wi = ci ai1 v1 + · · · + ci ain vn
.. ..
. .
ws = as1 v1 + as2 v2 + · · · + asn vn cs ws = cs as1 v1 + · · · + cs asn vn

s
! s
!
X X
0V = ci ai1 v1 + · · · + ci ain vn
i=1 i=1
Profesor Ricardo Santander Baeza 2010 33

En segundo lugar, α es linealmente independiente en V, ası́ que, forzosamente debemos tener que

s
X
ci ai1 = 0 a11 c1 + a21 c2 + · · · + as1 cs = 0
i=1 a12 c1 + a22 c2 + · · · + as2 cs = 0
.. ⇐⇒ (∗∗)
. ..
s
X .
ci ain = 0 a1n c1 + a2n c2 + · · · + asn cs = 0
i=1
Como n < s entonces el sistema homogéneo (∗∗) tiene infinitas soluciones, es decir, el conjunto β es
linealmente dependiente.
Corolario 6.2.1. Todas las bases de un espacio vectorial tienen la misma cardinalidad, es decir el mismo
número de vectores.

En efecto

Supongamos que α = {v1 , v2 , . . . , vn } y β = {w1 , w2 , . . . , vm } son dos bases del espacio vectorial V. Apli-
cando el contenido del teorema 6.2 tenemos dos casos simultáneos que analizar,

(1) Si α = {v1 , v2 , . . . , vn } es una base entonces n es el número máximo de vectores linealmente indepen-
dientes, ası́ que si β es otra base entonces su número de vectores linealmente independientes m debe
ser menor o igual que n

(2) Si β = {w1 , w2 , . . . , wm } es una base entonces m es el número máximo de vectores linealmente inde-
pendientes, ası́ que si α es otra base entonces su número de vectores linealmente independientes n debe
ser menor o igual que m.

(3) Ası́ que n = m, pues ambos son números naturales.

Definición 6.3. Si V es un K espacio vectorial. Llamaremos dimensión de V sobre el cuerpo de escalares


K a la cardinalidad de una base de V, y la notaremos por dimK (V)
Ejemplo 6.3.1. Usando la información acrisolada en los ejemplos, y observaciones anteriores tenemos que:

(1) dimR (Rn ) = n; pues card(c(n)) = n

(2) dimC (Cn ) = n; pues card(c(n)) = n

(3) dimR (C) = 2;

(4) dimK (Kn [x]) = n + 1; pues card(p(n)) = n + 1

(5) dimK (K[x]) = ∞; pues card(p(∞)) = ∞

(6) dimK (MK (n × s)) = n · s; pues card(m(n × s)) = n · s

Teorema 6.4. Sea V un K espacio vectorial tal que dimK (V) = n, y α = {v1 , v2 , . . . , vn } ⊂ V entonces
α linealmente independiente ⇐⇒ α sistema de generadores

En efecto
34 Profesor Ricardo Santander Baeza 2010

Etapa 1. (=⇒). Por demostrar que [α Li entonces α genera V].

Del contenido del teorema 6.2 sugue que el conjunto β = {v1 , v2 , . . . , vn , u} es linealmente dependiente
(∀u; u ∈ V).

Luego, existen escalares a1 , a2 , . . . , an+1 , no todos nulos tales que a1 v1 + a2 v2 + · · · + an vn + an+1 u = 0V .

• Si an+1 6= 0 entonces
a1 v1 + a2 v2 + · · · + an vn + an+1 u = 0V =⇒ a1 v1 + a2 v2 + · · · + an vn = an+1 u
a1 a2 an
=⇒ v1 + v2 + · · · + vn = u
an+1 an+1 an+1
Ası́ que α en este caso genera V

• Si an+1 = 0 entonces
a1 v1 + a2 v2 + · · · + an vn + an+1 u = 0V =⇒ a1 v1 + a2 v2 + · · · + an vn = 0V
=⇒ a1 = a2 = · · · = an = 0 (α es Li)
Pero entonces contrariamos el hecho de que existen escalares no todos nulos, ası́ que este caso no es
posible, para esta dimensión.

Etapa 2. (⇐=). Por demostrar que [α genera V] entonces α Li.

En cualquier caso sólo existen dos posibilidades, que α sea Linealmente independiente o linealmente depen-
diente.

Pero, si α linealmente dependiente entonces dimK (V) < n, lo cual contradice nuestra hipótesis. Ası́ que este
caso no es posible.

Teorema 6.5. Sea α = {u1 , u2 , . . . , un } ⊂ Kn , tal que ui = (ai1 , ai2 , . . . , ain ) entonces α es linealmente
independiente si y sólo si

 
a11 a12 ... a1n

 a21 a22 ... a2n 


 a31 a32 ... a3n 

det  a41 a42 ... a4n  6= 0
 
 .. .. .. 
 . . · . 
an1 an2 ... ann
Profesor Ricardo Santander Baeza 2010 35

En efecto

Supongamos que c1 u1 + c2 u2 + · · · + cn un = 0V entonces

c1 u1 + c2 u2 + · · · + cn un = 0Kn =⇒ c1 (a11 , a12 , . . . , a1n ) + c2 (a21 , a22 , . . . , a2n ) + · · · +


cn (an1 , an2 , . . . , ann ) = 0Kn
a11 c1 + a21 c2 + · · · + an1 cn = 0
a12 c1 + a22 c2 + · · · + an2 cn = 0
=⇒ ..
.
a1n c1 + a2n c2 + · · · + ann cn = 0
    
a11 a21 . . . an1 c1 0
 a12 a22 . . . an2   c2   0 
    
=⇒  .. .. ..  .. = ..  (∗)
 . . · .  .   . 
a1n a2n . . . ann cn 0

El sistema (∗) tiene solución única, c1 = c2 = · · · = cn = 0 si y sólo si la matriz de coeficientes del sistema
homogéneo es invertible. Es decir

   t
a11 a12 ... a1n a11 a12 ... a1n

 a21 a22 ... a2n 


 a21 a22 ... a2n 

det  .. .. ..  = det  .. .. ..  6= 0
 . . · .   . . · . 
an1 an2 ... ann an1 an2 ... ann

Conclusión 6.6. Frente a nuestro objetivo consistente en ” determinar rápida y efectivamente a los ele-
mentos de un espacio vectorial”, podemos decir lo siguiente:

(1) Un espacio vectorial hay que entenderlo respecto de una base (α = {v1 , v2 , . . . , vn }), o ”sistema de
referencia” o ”reglas del juego”.

(2) como [ ]α es un biyección entonces llamamos coordenadas de u ∈ V a [u]α ∈ MK (n × 1), y a este último
lo llamamos espacio coordenado.

(3) Ası́ que un espacio vectorial puede ser de ahora en adelante, identificado como una estructura hı́brida,
formada por dos partes equivalentes, pero con funciones diferentes y muy precisas.

En efecto

  
(V, α) Teorı́a:Combinaciones lineales
  
  
V↔
 ↓ [ ]α 
 ↓ 

  
MK (n × 1) Práctica: Coordenadas

(4) El problema que aparece, y por tanto hay que abordar más adelante es: ¿Cómo se relacionan dos triadas
diferentes?. Es decir
36 Profesor Ricardo Santander Baeza 2010

   
(V, α) (V, β)
   
  ?  

 ↓ [ ]α  7−→


 ↓ [ ]β 

   
MK (n × 1) MK (n × 1)

6.7. Ejercicios Propuestos de Base.


(1) Determine el conjunto
S = {(a, b) ∈ R2 | (−2, b, 1) ∈ h{(a, 0, 2), (4, a, −2), (−2a, −2, a)}i}
(2) Determine si los siguientes conjuntos son subespacios en el espacio vectorial correspondiente. En caso
afirmativo, determine una base para el subespacio.

(a) W = {(a, b, c, d) ∈ R4 | a2 + b2 − c2 − d2 = 0}
  
a b
(b) W = ∈ MR (2) | [a = d ∧ b = 0 ∧ c = 2d]
c d
     
1 1 1 1
(c) W = B ∈ MR (2) | B · = ·B
2 1 2 1
(3) Sea α = {v1 , v2 , . . . , vn } una base del K espacio vectorial V. Demuestre que

β = {w1 , w2 , . . . , wn } tal que wi = av1 + vi (i = 1, 2, . . . n), (a ∈ K) es una base de V

       
3 2 2 1 6 5 5 4
(4) Si α = , , , ⊂ MR (2) entonces determine el conjunto
2 1 1 0 4 2 4 a

β = {a ∈ R | α No es una base de MR (2)}

       
0 0 0 1 1 1 1 0
(5) Si α = , , , ⊂ MR (2).
0 1 0 1 0 0 1 0
(a) Demuestre 
que α es una
 base de MR (2)
a b
(b) Determine
c d α
(6) Dado el sistema lineal
−2x1 + x2 + x3 = a
x1 − 2x2 + x3 = b (∗)
x1 + x2 − 2x3 = c

(a) Demuestre que W = {(a, b, c) ∈ R3 | (∗) Tiene solución } ≤ R3

(b) A partir de una base del subespacio W obtenga una base de R3

7. Coordenadas y Matrices
El problema que abordaremos es exactamente, ¿Cómo se relacionan dos triadas diferentes?. Es decir ¿Qué
relación existe entre los sistemas de gestión de la información determinados por las bases α y β?

En sı́mbolos tenemos
Profesor Ricardo Santander Baeza 2010 37

   
(V, α) (V, β)
   
  ?  

 ↓ [ ]α  7−→


 ↓ [ ]β 

   
MK (n × 1) MK (n × 1)
Equivalentemente, si α = {v1 , v2 , . . . , vn } y β = {w1 , w2 , . . . , wn }, para cada u ∈ V tendremos que

n
X n
X
u= ai vi ∈ V 7−→ u= bi wi ∈ V
i=1 i=1

↓ ↓
    (15)
a1 b1

 a2 


 b2 

[u]α =  ..  ∈ M K (n × 1) −
7 → [u]α =  ..  ∈ MK (n × 1)
 .   . 
an bn

Luego (15), nos sugiere que debemos generar un proceso que transforme coordenadas en la base α en coor-
denadas en la base β.

7.1. Propuesta de Estrategia. Para analizar esta situación, verificaremos directamente el comportamiento
de la función []γ , (donde γ es una base cualquiera del espacio), con respecto a las reglas básicas con que se
generan los vectores. Es decir:

(1) Mostraremos que la función [ ]γ , para cualquier base γ = {z1 , z2 , . . . , zn } de V, respeta las operaciones
del espacio V. Es decir que (∀u; u ∈ V), (∀v; v ∈ V) y (∀λ; λ ∈ K), se verifican:

(a) [u + v]γ = [u]γ + [v]γ


(b) [λu]γ = λ [u]γ

En efecto
n
X n
X n
X
Si u = ci zi y v = di zi entonces u + v = (ci + di )zi . Ası́ que
i=1 i=1 i=1
     
c1 + d1 c1 d1

 c2 + d2  
  c2  
  d2 

[u + v]γ =  .. = .. + ..  = [u]γ + [v]γ
 .   .   . 
cn + dn cn dn
n
X
Análogamente, si λ ∈ K entonces λu = (λci )zi . Por tanto
i=1
   
λc1 c1

 λc2 


 c2 

[λu]γ =  ..  = λ ..  = λ [u]γ
 .   . 
λcn cn
38 Profesor Ricardo Santander Baeza 2010

(2) Siguiendo la idea propuesta por el diagrama (15). Apliquemos la función [ ]β , a los elementos de la
base α. Es decir
 
a1s
n
X 
 a2s 

vs = a1s w1 + a2s w2 + a3s w3 + · · · + ans wn = ais wi ⇐⇒ [vs ]β =  ..  (1 ≤ s ≤ n)
i=1
 . 
ans
n
X
(3) Ahora usemos la información acopiada, en el caso general, es decir si u ∈ V y u = cs vs entonces
s=1
       
" n # a1s a11 a12 a1n
X n
X n
X  a2s   a21   a22   a2n 
       
[u]β = cs vs = cs [vs ]β = cs  ..  = c1  ..  + c2  ..  + · · · + cn  .. 
s=1 β s=1 s=1
 .   .   .   . 
ans an1 an2 ann
 
  a11 a12 ··· a1n  
c1 a11 + c2 a12 + · · · + cn a1n  a21 a22 ··· a2n  c1

 c1 a21 + c2 a22 + · · · + cn a2n  
  ..

 c2 

=  .. = .  .. 
 .  
 an1 an2 ··· ann 
 . 
c1 an1 + c2 an2 + · · · + cn ann |{z} |{z} |{z} cn
[v1 ]β [v2 ]β [vn ]β | {z }
[u]α

(4) Ya henos encontrado la relación, como era de esperar una matriz, que traslada la información de una
base a otra, ası́ sólo resta que la denotemos formalmente, porque incluso ya sabemos como determinarla.

Definición 7.2. La matriz de orden n, [I]βα = ([v1 ]β [v2 ]β . . . [vn ]β ), se llamará la matriz cambio de base de
α para β

Equivalentemente,
 
a11 a12 . . . a1n
 a21 a22 . . . a2n 
[I]βα = 
 
.. .. .. .. 
 . . . . 
an1 an2 . . . ann
Además hemos mostrado el siguiente importante resultado

Teorema 7.3. Si V es un K espacio vectorial de dimensión n, α = {v1 , v2 , . . . , vn } y


β = {w1 , w2 , . . . , wn } son dos bases entonces

[I]βα [u]α = [u]β (∀u; u ∈ V) (16)

Corolario 7.3.1. Si V es un K espacio vectorial de dimensión n, α = {v1 , v2 , . . . , vn } y


 −1
β = {w1 , w2 , . . . , wn } son dos bases entonces [I]βα ∈ U(MK (n)) e [I]βα = [I]αβ

En efecto

En primer lugar, (∀u; u ∈ V) tenemos que:


   
[I]βα [I]αβ [u]β = [I]βα [I]αβ [u]β = [I]βα [u]α = [u]β
Profesor Ricardo Santander Baeza 2010 39

Y en segundo lugar,
   
[I]αβ [I]βα [u]α = [I]αβ [I]βα [u]α = [I]αβ [u]β = [u]α
 −1
Ası́ que, [I]βα ∈ U(MK (n)) e [I]βα = [I]αβ

Conclusión 7.3.2. Lo anterior puede ser sistematizado a través del siguiente diagrama.

n n
X 1V X
u= ci vi ∈ (V, α) (V, β) ∋ u = di wi
i=1 i=1

[ ]α [ ]β)
   
c1 d1

 c2 


 d2 

[u]α =  ..  ∈ MR (n × 1) MR (n × 1) ∋  ..  = [u]β
 .  [I]βα  . 
cn dn

7.4. Ejercicios Propuestos de Coordenadas.


(1) Si α = {x, 3 + x2 , x + 2x2 } ⊂ R2 x y β = {x + 3, x − 2, x2 + 1} ⊂ R2 [x] entonces

(a) Demuestre que α y β son dos bases de R3

(b) Determine

(i) [6 − 4x + 8x2 ]α ∧ [6 − 4x + 8x2 ]β

(ii) [9 − x + 7x2 ]β ∧ [9 − x + 7x2 ]α

(iii) [I]βα y [I]αβ

(c) Muestre que

(i) [I]βα [6 − 4x + 8x2 ]α = [6 − 4x + 8x2 ]β

(ii) [I]αβ [9 − x + 7x2 ]β = [9 − x + 7x2 ]α


 
1 −1 2
(2) Sea β = {(1, 1, 1), (1, 0, 1), (0, 1, 1)} una base de R3 , y A =  3 0 1  ∈ MR (3). Determine, si es
2 −2 4
β
posible, una base α del tal forma que A = [I]α . Si es posible exhiba una tal base α, si no justifique con
precisión meridiana su respuesta.
40 Profesor Ricardo Santander Baeza 2010

8. Situaciones de Desempeño: Espacios Vectoriales


8.1. El objetivo de esta sección es presentar al Estudiante ”Situaciones Problemáticas” que
le permitan:

(♣) Estimular la comprensión de lectura en problemas matemáticos.

(♣) Clasificar después de leer el problema, entre información y resultado pedido.

(♣) Estimular el uso de una sintaxis adecuada en la resolución de problemas que envuelven conceptos
matemáticos.

(♣) Aprender a generar un algoritmo eficaz (ojalá eficiente), para responder al problema planteado.

(♣) Verificar el estado de aprendizaje de los contenidos especı́ficamente relacionados con las propiedades
básicas que debe conocer, y ”en lo posible haber aprehendido” de los tópicos analizados.

8.2. Algunas sugerencias para enfrentar las situaciones problemáticas son las siguientes:

(⋆) Lea cuidadosamente el problema.

(⋆) Reconozca lo que es información (dato), de lo que es ”incognita”, o lo que a usted se le consulta.

(⋆) Trate de entender en la forma más clara para usted, lo que se le pide, en particular si puede usar
”sinónimos matemáticos”, que le permitan facilitar su respuesta, cuanto mejor!!! Este acto nunca esta
de más.

(⋆) Analice sus datos extrayendo la información que corresponde, orientado por su entendimiento de lo que
debe probar.

8.3. Situaciones de Desempeño Propuestas:


( n n
)
X X
i
(1) Demuestre que W = p(x) = ai x ∈ Rn [x] | iai = 0 ≤ Rn [x]
i=0 i=0
(2) Sea W = {p(x) = a0 + a1 x + a2 x2 | p(1) = 0}. Demuestre que W ≤ R2 [x]

(3) Sean W1 = {(x, y, z) / 2x − y − z = 0} ⊂ R3 y W2 = {(x, y, z) / x + 2y + 3z = 0} ⊂ R3

(a) Demuestre que Wi ≤ R3 para (i = 1, 2)

(b) Demuestre que W1 ∩ W2 ≤ R3

(c) ¿ Es W1 ∪ W2 ≤ R3 ?
   
a11 a12
(4) Sea W1 = A = ∈ MR (2) | a11 + a22 = 0 ⊂ MR (2)
a21 a22
(a) Demuestre que W1 ≤ MR (2)

(b) Determine W2 ≤ MR (2) tal que MR (2) = W1 ⊕ W2


Profesor Ricardo Santander Baeza 2010 41

(5) Sea W = {(x, y, z, t) ∈ R4 | x + 2y − 3z = 0}.

(a) Demuestre que W ≤ R4

(b) Determine una base de W


k
X
(6) Sea V un K espacio vectorial y α = {v1 , . . . , vn } ⊂ V. Si β = {w1 , . . . , wn } ⊂ V tal que wk = ivi
i=1
para cada k = 1, 2, . . . , n entonces demuestre que

h{v1 , v2 , . . . , vn }i = h{w1 , w2 , . . . , wn }i

(7) Sea C[−π, π] = {f : [−π, π] 7−→ R | f Derivable en el intervalo [−π, π]}. Demuestre que α =
{1, sen x, cos x} es un conjunto linealmente independiente en C[−π, π]

Recuerde que C[−π, π] es un espacio vectorial con las operaciones:

• (f + g)(x) = f (x) + g(x), para x ∈ C[−π, π],

• (λf )(x) = λf (x), para λ ∈ R y x ∈ C[−π, π]

(8) Sean V un K espacio vectorial tal que dimK (V) = n y α = {v1 , v2 , . . . , vn } una base de V. Demuestre
que
s
X
β = {u1 , u2 , . . . , un } tal que us = vr (para 1 ≤ s ≤ n) es un sistema de generadores de V
r=1

(9) Sea α = {v1 , v2 , . . . , vn } un conjunto Li en el R espacio vectorial V. ¿Es β = {w1 , w2 , . . . , wn } un


conjunto LI en V?. Si wi = av1 + vi , para (i = 1, 2, . . . n) y a 6= −1 es un escalar fijo.

(10) Sea V un K espacio vectorial y α = {v1 , v2 , · · · , vn } ⊂ V. Demuestre que


i
X
α base de V =⇒ β = {w1 , w2 , · · · , wn } es una base de V, donde wi = vj (1 ≤ i ≤ n)
j=1

(11) Sea α = {v1 , v2 , . . . , vn } una base del espacio vectorial real V. Define el conjunto β = {w1 , w2 , . . . , wn }
X j
tal que wj = 2vi , para 1 ≤ j ≤ n. Demuestre que β es también una base de V.
i=1 

1 −1 2
(12) Sea β = {1, 1 − x, 1 − x2 } una base de R2 [x], y A =  3 0 1  ∈ MR (3). Determine, si es posible,
2 −2 4
β
una base α de R2 [x] del tal forma que A = [I]α . (Si es posible exhiba una tal base α, si no justifique
con precisión meridiana su respuesta)

(13) Sea V un K espacio vectorial tal que dimK (V) = n. Considere α = {v1 , v2 , . . . , vn } ⊂ V y β =
s
X
{u1 , u2 , . . . , un } ⊂ V tal que us = vs+1−i , para s = 1, 2, . . . n.
i=1
(a) Demuestre que α base de V =⇒ β base de V
42 Profesor Ricardo Santander Baeza 2010

(b) Determine [I]αβ


 
1 1 0
(14) Sea α = {v1 , v2 , v3 } una base de R3 . Si [I]αc(3) =  1 3 4  entonces determine la base α
0 4 1
(15) En R2 [x], considere las bases α = {x, x2 + 3, 2x2 + x} y β = {x + 3, x − 2, x2 + 1}.

(a) Determine [I]βα y [I]αβ

(b) Determine [1 + x + x2 ]α y [1 + x + x2 ]β

(16) Considere las bases α = {(1, −2, 0), (0, 1, 0), (1, 0, 1)} y β = {(1, 1, 1), (0, 1, 1), (0, 0, 1)} de R3 . Deter-
mine [I]βα e [I]αβ

(17) Si P (2) = {1, x, x2 } y α = {1 + x + x2 , −2 − x + x2 , −1 + x + x2 } dos bases de R2 [x] entonces determine


P (2)
[I]α e [I]αP (2)

(18) Si α y β = {(1, 0, 1), (−1, 1, 0), (1, 1, 1)} son dos bases ordenadas de R3 tal que
 
1 −1 1
[I]βα =  0 −2 1 
1 1 1
Es la matriz de cambio de la baseα para la base β entonces determine la base α.

(19) Si α = {(2, 1, 2), (4, −1, 0), (1, 2, 2)} es una base de R3 , y u = (1, 2, 3) entonces determine [u]α
Profesor Ricardo Santander Baeza 2010 43

9. Solución de Situaciones de Desempeño: Espacios Vectoriales


( n n
)
X X
i
(1) Demuestre que W = p(x) = ai x ∈ Rn [x] | iai = 0 ≤ Rn [x].
i=0 i=0
Solución
n
X n
X
p(x) ∈ W ⇐⇒ p(x) = ai xi ∈ Rn [x] ∧ iai = 0
i=0 i=0
Xn Xn
⇐⇒ p(x) = ai xi ∈ Rn [x] ∧ iai = 0
i=0 i=1
n
X n
X
⇐⇒ p(x) = a0 + a1 x + ai xi ∧ a1 = − iai
i=2 i=2
n
! n
X X
⇐⇒ p(x) = a0 + − iai x+ ai xi (∗)
i=2 i=2

Ahora, procedemos a estudiar la relación polinomial expresada en ∗

n n
!
X X
ai xi + − iai x = (a2 x2 + a3 x3 + · · · + an xn ) − (2a2 x + 3a3 x + · · · + nan x)
i=2 i=2
= a2 (x2 − 2x) + a3 (x3 − 3x) + a4 (x4 − 4x) + · · · + an (xn − nx) (∗∗)

Retornamos a (∗) a la luz de lo obtenido en (∗∗) y nos resulta que

p(x) ∈ W ⇐⇒ p(x) = a0 + a2 (x2 − 2x) + a3 (x3 − 3x) + a4 (x4 − 4x) + · · · + an (xn − nx)
⇐⇒ p(x) ∈ h{1, (x2 − 2x), (x3 − 3x), (x4 − 4x), . . . , (xn − nx)i

Luego,

W = h{1, (x2 − 2x), (x3 − 3x), (x4 − 4x), . . . , (xn − nx)i =⇒ W ≤ Rn [x]

(2) Sea W = {p(x) = a0 + a1 x + a2 x2 | p(1) = 0}. Demuestre que W ≤ R2 [x]

Solución

Etapa 1. p(x) = 0 + 0x + 0x2 ∈ R2 [x] y p(1) = 0 + 0 · 1 + 0 · 12 = 0.

Luego (0) ∈ W y W 6= ∅.

Etapa 2. Sean p(x) ∈ W y q(x) = b0 + b1 x + b2 x2 ∈ W entonces

p(x) ∈ W ⇐⇒ p(x) = a0 + a1 x + a2 x2 ∈ R2 [x] ∧ p(1) = 0


⇐⇒ p(x) = a0 + a1 x + a2 x2 ∈ R2 [x]∧ ⇐⇒ a0 + a1 + a2 = 0

q(x) ∈ W ⇐⇒ q(x) = b0 + b1 x + b2 x2 ∈ R2 [x] ∧ q(1) = 0


⇐⇒ q(x) = b0 + b1 x + b2 x2 ∈ R2 [x] ∧ b0 + b1 + b2 = 0
44 Profesor Ricardo Santander Baeza 2010

entonces
p(x) + q(x) = (a0 + b0 ) + (a1 + b1 )x + (a2 + b2 )x2 ∈ R2 [x] y

p(1) + q(1) = (a0 + b0 ) + (a1 + b1 ) · 1 + (a2 + b2 ) · 12


= (a0 + b0 ) + (a1 + b1 ) + (a2 + b2 )
= (a0 + a1 + a2 ) + (b0 + b1 + b2 )
= 0+0
= 0
Luego, p(x) + q(x) ∈ W.

Etapa 3. Sean p(x) ∈ W y λ ∈ R entonces

λp(x) = λa0 + λa1 x + λa2 x2 ∈ R2 [x] y

λp(1) = λa0 + λa1 · 1 + λa2 · 12


= λa0 + λa1 + λa2
= λ(a0 + a1 + a2 )
= λ·0
= 0
Luego, λp(x) ∈ W, y W ≤ R2 [x]

(3) Sean W1 = {(x, y, z) / 2x − y − z = 0} ⊂ R3 y W2 = {(x, y, z) / x + 2y + 3z = 0} ⊂ R3 .

(a) Demuestre que Wi ≤ R3 para (i = 1, 2)


Solución
Etapa 1. W1 6= ∅, pues (0, 0, 0) ∈ R3 y 2 · 0 − 0 − 0 = 0. Ası́ que (0, 0, 0) ∈ W1

Etapa 2. Sea u ∈ W1 y v ∈ W1 entonces

u ∈ W1 ⇐⇒ u = (x1 , y1 , z1 ) ∈ R3 ∧ 2x1 − y1 − z1 = 0
v ∈ W1 ⇐⇒ v = (x2 , y2 , z2 ) ∈ R3 ∧ 2x2 − y2 − z2 = 0
entonces
u + v = (x1 + x2 , y1 + y2 , z1 + z2 ) ∈ R3 y

2(x1 + x2 ) − (y1 + y2 ) − (z1 + z2 ) = 2x1 + 2x2 − y1 − y2 − z1 − z2


= (2x1 − y1 − z1 ) + (2x2 − y2 − z2 )
= 0+0
= 0
Luego, u + v ∈ W1

Etapa 3. Sea u ∈ W1 y λ ∈ R entonces

λu = (λx1 , λy1 , λz1 ) ∈ R3 y


Profesor Ricardo Santander Baeza 2010 45

(2λx1 − λy1 − λz1 ) = λ(2x1 − y1 − z1 )


= λ·0
= 0

Luego, λu ∈ W1 y W1 ≤ R3

Análogamente, para W2 tenemos que

Etapa 1. W2 6= ∅, pues (0, 0, 0) ∈ R3 y 2 · 0 + 2 · 0 + 3 · 0 = 0. Ası́ que (0, 0, 0) ∈ W2

Etapa 2. Sea u ∈ W2 y v ∈ W2 entonces

u ∈ W2 ⇐⇒ u = (x1 , y1 , z1 ) ∈ R3 ∧ x1 + 2y1 + 3z1 = 0

v ∈ W2 ⇐⇒ v = (x2 , y2 , z2 ) ∈ R3 ∧ x2 + 2y2 + 3z2 = 0

entonces

u + v = (x1 + x2 , y1 + y2 , z1 + z2 ) ∈ R3 y

(x1 + x2 ) + 2(y1 + y2 ) + 3(z1 + z2 ) = x1 + x2 + 2y1 + 2y2 + 3z1 + 3z2


= (x1 + 2y1 + 3z1 ) + (x2 + 2y2 + 3z2 )
= 0+0
= 0

Luego, u + v ∈ W2

Etapa 3. Sea u ∈ W2 y λ ∈ R entonces

λu = (λx1 , λy1 , λz1 ) ∈ R3 y

(λx1 + 2λy1 + 3λz1 ) = λ(x1 + 2y1 + 3z1 )


= λ·0
= 0

Luego, λu ∈ W2 y W2 ≤ R3

(b) Demuestre que W1 ∩ W2 ≤ R3

Solución

Etapa 1. W1 ∩ W2 6= ∅, pues del ejercicio anterior, (0, 0, 0) ∈ W1 y (0, 0, 0) ∈ W2


Etapa 2. Sea u ∈ W1 ∩ W2 y v ∈ W1 ∩ W2 entonces
46 Profesor Ricardo Santander Baeza 2010

u ∈ W1 ∩ W2 ⇐⇒ u = (x1 , y1 , z1 ) ∈ R3 ∧ u ∈ W1 ∧ u ∈ W2
⇐⇒ u = (x1 , y1 , z1 ) ∈ R3 ∧ 2x1 − y1 − z1 = 0 ∧ x1 + 2y1 + 3z1 = 0

v ∈ W1 ∩ W2 ⇐⇒ v = (x2 , y2 , z2 ) ∈ R3 ∧ v ∈ W1 ∧ v ∈ W2
⇐⇒ u = (x2 , y2 , z2 ) ∈ R3 ∧ 2x2 − y2 − z2 = 0 ∧ x2 + 2y2 + 3z2 = 0

entonces
u + v = (x1 + x2 , y1 + y2 , z1 + z2 ) ∈ R3 y
Como W1 ≤ R3 y W2 ≤ R3 entonces u + v ∈ W1 y u + v ∈ W2 . Ası́ que u + v ∈ W1 ∩ W2
Etapa 3. De la misma forma si λ ∈ R y u ∈ W1 ∩ W2 entonces λu ∈ W1 ∩ W2 , y W1 ∩ W2 ≤ R3

(c) ¿ Es W1 ∪ W2 ≤ R3 ?

Solución

Observen que u = (1, 2, 0) ∈ W1 y v = (−1, −1, 1) ∈ W2 , pero u + v = (0, 1, 1) 6∈ W1 ∪ W2 . Ası́


que W1 ∪ W2 6≤ R3
   
a11 a12
(4) Sea W1 = A = ∈ MR (2) | a11 + a22 = 0 ⊂ MR (2).
a21 a22

(a) Demuestre que W1 ≤ MR (2)

Solución
 
a11 a12
A ∈ W1 ⇐⇒ A = ∈ MR (2) ∧ a11 + a22 = 0
a21 a22
 
a11 a12
⇐⇒ A = ∈ MR (2) ∧ a22 = −a11
a21 a22
     
1 0 0 1 0 0
⇐⇒ A = a11 + a12 + a12
0 −1 0 0 1 0
     
1 0 0 1 0 0
Luego, W1 = , , ≤ MR (2)
0 −1 0 0 1 0
(b) Determine W2 ≤ MR (2) tal que MR (2) = W1 ⊕ W2

Solución

Etapa 1. Sea W2 el subespacio de MR (2) pedido.

Etapa 2. MR (2) = W1 ⊕ W2 =⇒ dimR (MR (2)) = dimR (W1 ) + dimR (W2 )

Luego, 4 = 3 + dimR (W2 ), y dimR (W2 ) = 1


 
1 0
Etapa 3. Basta escoger W2 = , pues:
0 1
Profesor Ricardo Santander Baeza 2010 47
       
1 0 0 1 0 0 1 0
α= , , , , es una base de MR (2)
0 −1 0 0 1 0 0 1

(5) Sea W = {(x, y, z, t) ∈ R4 | x + 2y − 3z = 0}.

(a) Demuestre que W ≤ R4

Solución

u ∈ W ⇐⇒ u = (x, y, z, t) ∈ R4 ∧ x + 2y − 3z = 0
⇐⇒ u = (x, y, z, t) ∈ R4 ∧ x = −2y + 3z = 0
⇐⇒ u = (−2y + 3z, y, z, t) ∧ (y, z, t) ∈ R3
⇐⇒ u = y(−2, 1, 0, 0) + z(3, 01, 0) + t(0, 0, 0, 1)

Luego W = h{(−2, 1, 0, 0), (3, 0, 1, 0), (0, 0, 0, 1)}i ≤ R4

(b) Determine una base de W

Solución

Si α = {(−2, 1, 0, 0), (3, 0, 1, 0), (0, 0, 0, 1)} entonces α genera W y para ver que es Li hacemos lo
siguiente,

a1 (−2, 1, 0, 0) + a2 (3, 01, 0) + a3 (0, 0, 0, 1) = (0, 0, 0, 0)



(−2a1 + 3a2 , a1 , a2 , a3 ) = (0, 0, 0, 0)

a1 = a2 = a3 = 0

Ası́ que α es una base W


k
X
(6) Sea V un K espacio vectorial y α = {v1 , . . . , vn } ⊂ V. Si β = {w1 , . . . , wn } ⊂ V tal que wk = ivi
i=1
para cada k = 1, 2, . . . , n entonces demuestre que

h{v1 , v2 , . . . , vn }i = h{w1 , w2 , . . . , wn }i

Solución

Etapa1. Debemos demostrar que h{v1 , v2 , . . . , vn }i = h{w1 , w2 , . . . , wn }i. Es decir debemos mostrar
que h{v1 , v2 , . . . , vn }i ⊂ h{w1 , w2 , . . . , wn }i y h{w1 , w2 , . . . , wn }i ⊂ h{v1 , v2 , . . . , vn }i

Etapa 2. Gestión de la información


48 Profesor Ricardo Santander Baeza 2010

(a) En primer lugar, sabemos que


n
X
u ∈ h{v1 , v2 , . . . , vn }i ⇐⇒ u = ai vi (ai ∈ K : 1 ≤ i ≤ n)
i=1
Xn
v ∈ h{w1 , w2 , . . . , wn }i ⇐⇒ v = bi wi (bi ∈ K : 1 ≤ i ≤ n)
i=1

(b) En segundo lugar,

w1 = v1
k w2 = v1 + 2v2
X
wk = ivi ; (k = 1, 2, . . . , n) =⇒ w3 = v1 + 2v2 + 3v3
i=1
..
.
wn = v1 + 2v2 + 3v3 + · · · + nvn

Luego,

h{w1 , w2 , . . . , wn }i ⊂ h{v1 , v2 , . . . , vn }i

(c) En tercer y último lugar,

 v1 = w1
w1 = v1  w2 − w1

 v2 =
w2 = v1 + 2v2 
 2
 w3 − w2
w3 = v1 + 2v2 + 3v3 =⇒ v3 =
..  3
. 
 ..


 .
wn = v1 + 2v2 + 3v3 + · · · + nvn wn − wn−1
vn =
n
Luego

h{v1 , v2 , . . . , vn }i ⊂ h{w1 , w2 , . . . , wn }i

(7) Sea C[−π, π] = {f : [−π, π] 7−→ R | f Derivable en el intervalo [−π, π]}. Demuestre que α =
{1, sen x, cos x} es un conjunto linealmente independiente en C[−π, π]
Recuerde que C[−π, π] es un espacio vectorial con las operaciones:

• (f + g)(x) = f (x) + g(x), para x ∈ C[−π, π],

• (λf )(x) = λf (x), para λ ∈ R y x ∈ C[−π, π].

Solución

Supongamos que tenemos la combinación lineal nula. a1 · 1 + a2 sen x + a3 cos x = 0 entonces derivando
respecto de x obtenemos el sistema lineal en las variables 1, sen x, cos x.
    
a1 · 1 + a2 sen x + a3 cos x = 0 a1 a2 a3 1 0
0 · 1 + a2 cos x − a3 sen x = 0 ⇐⇒  0 −a3 a2   sen x  =  0 
0 · 1 − a2 sen x − a3 cos x = 0 0 −a2 −a3 cos x 0
| {z }
A
Profesor Ricardo Santander Baeza 2010 49

entonces escalonando tenemos que:


     
a1 a2 a3 a1 0 0 a1 0 0
 0 −a3 a2  ≈  0 −a3 a2  ≈  0 a2 a3 
 0 −a2 −a3   0 −a2 −a3  0 −a3 a2
a1 0 0 a1 0 0
 0 a2 a3 a23  ≈  0 a2 a3 a23  =⇒ a1 = a2 = a3 = 0
0 −a3 a2 a22 0 2
0 a2 + a32

Caso contrario el sistema homogéneo tiene rango máximo y entonces solución única, es decir 1 = 0,
sen x = 0 y cos x = 0 (∀x), lo cual es imposible. Por tanto α es Linealmente independiente.

(8) Sean V un K espacio vectorial tal que dimK (V) = n y α = {v1 , v2 , . . . , vn } una base de V. Demuestre
que
s
X
β = {u1 , u2 , . . . , un } tal que us = vr (para 1 ≤ s ≤ n) es un sistema de generadores de V.
r=1

Solución

Sea w ∈ V entonces como α es una base de V existen únicos escalares a1 , a2 , . . . , an tales que

w = a1 v1 + a2 v2 + · · · + an vn (∗)

Pero,

u1 = v1 ⇐⇒ v1 = u1
u2 = v1 + v2 ⇐⇒ v2 = u2 − u1
u3 = v1 + v2 + v3 ⇐⇒ v3 = u3 − u2
... ... ...

Sustituyendo en (∗) tenemos que

w = a1 u1 + a2 (u2 − u1 ) + a3 (u3 − u2 ) + · · · + an (un − un−1 )


= (a1 − a2 )u1 + (a2 − a3 )u2 + · · · + an un

Luego β genera V.

(9) Sea α = {v1 , v2 , . . . , vn } un conjunto Li en el R espacio vectorial V. ¿Es β = {w1 , w2 , . . . , wn } un


conjunto LI en V?. Si wi = av1 + vi , para (i = 1, 2, . . . n) y a 6= −1 es un escalar fijo.

Solución

Sabemos que, α = {v1 , v2 , . . . , vn } es un conjunto Li en el K espacio vectorial V, lo que operacionalmente


se traduce en que

a1 v1 + a2 v2 + · · · + an vn = 0V =⇒ a1 = a2 = · · · = an = 0

En este orden de razonamiento, para verificar la calidad de dependencia o independencia lineal de β


debemos mostrar que

c1 w1 + c2 w2 + · · · + cn wn = 0V =⇒ c1 = c2 = · · · = cn = 0
50 Profesor Ricardo Santander Baeza 2010

En efecto, como wi = av1 + vi , para (i = 1, 2, . . . n) y a es un escalar fijo entonces

c1 w1 + c2 w2 + · · · + cn wn = 0V =⇒ c1 (av1 + v1 ) + c2 (av1 + v2 ) + c3 (av1 + v3 ) + · · · + cn (av1 + vn ) = 0V


=⇒ [a(c1 + c2 + · · · + cn ) + c1 ]v1 + c2 v2 + · · · + cn vn = 0V

a(c1 + c2 + · · · + cn ) + c1 = 0
c2 = 0
=⇒ c3 = 0
.. .
. = ..
cn = 0

=⇒ ac1 + c1 = 0 ∧ c2 = · · · = cn = 0
=⇒ (a + 1)c1 = 0 ∧ c2 = · · · = cn = 0
=⇒ (a + 1) = 0 ∨ c1 = 0 ∧ c2 = · · · = cn = 0
=⇒ c1 = c2 = · · · = cn = 0 (a 6= −1)

Ası́ β es Linealmente independiente en V

(10) Sea V un K espacio vectorial y α = {v1 , v2 , · · · , vn } ⊂ V. Demuestre que

i
X
α base de V =⇒ β = {w1 , w2 , · · · , wn } es una base de V, donde wi = vj (1 ≤ i ≤ n)
j=1

Solución

• Sea u ∈ V entonces como α es una base de V existen únicos escalares, a1 , a2 , . . . , an tales que

u = a1 v1 + a2 v2 + · · · + an vn (17)

• Ahora por la forma de los elementos de β tenemos que v1 = w1 y para i = 2, 3, . . . , n tenemos que

i−1
X i
X
wi−1 = vj ∧ wi = vj =⇒ wi − wi−1 = vi (18)
j=1 j=1

• Sustituyendo (18) en (17) tenemos que

u = a1 w1 + a2 (w2 − w1 ) + a3 (w3 − w2 ) + · · · + an (wn − wn−1 )


= (a1 − a2 )w1 + (a2 − a3 )w2 + (a3 − a4 )w3 + · · · + (an−1 − an )wn−1 + an wn

Luego, β genera V
Profesor Ricardo Santander Baeza 2010 51

n
X
• Supongamos que cj wj = 0V entonces
j=1

 
n
X n
X s
X
cs ws = 0V =⇒ cs  vj  = 0V
s=1 s=1 j=1
     
1
X 2
X n
X
=⇒ c1  vj  + c2  vj  + · · · + cn  vj  = 0V
j=1 j=1 j=1

=⇒ (c1 + c2 + · · · cn )v1 + (c2 + · · · cn )v2 + · · · + (cn−1 + cn )vn−1 + cn vn = 0V

c1 + c2 + · · · cn = 0
c2 + · · · cn = 0
α es Li .. .
=⇒ . = .. =⇒ ci = 0 (i = 1, 2, . . . , n)
cn−1 + cn = 0
cn = 0

Ası́ que β es linealmente independiente y por tanto es una base.

(11) Sea α = {v1 , v2 , . . . , vn } una base del espacio vectorial real V. Define el conjunto β = {w1 , w2 , . . . , wn }
X j
tal que wj = 2vi , para 1 ≤ j ≤ n. Demuestre que β es también una base de V.
i=1
Solución

a1 w1 + · · · + an wn = 0V =⇒ 2(a1 + · · · + an )v1 + 2(a2 + · · · + an )v2 + · · · + an vn = 0V

a1 + a2 + · · · + an = 0
a2 + · · · + an = 0
=⇒ .. .. .. ( Pues α es Li)
. . .
an−1 + an = 0
an = 0

=⇒ an = an−1 = · · · = a1 = 0 y entonces β es Li

Para mostrar que es un sistema de generadores, hacemos lo siguiente:

Si u ∈ V entonces como α es base existen únicos escalares a1 , a2 , · · · , an tal que

n
X
ai vi (19)
i=1

n
X
Ahora β genera el espacio V si tiene solución la ecuación: u = bi wi . Pero,
i=1
52 Profesor Ricardo Santander Baeza 2010

n n j
!
X X X
u= bj wj =⇒ u = bj 2vi
j=1 j=1 i=1
       
n
X n
X n
X Xn
=⇒ u =  bj  v1 +  bj  v2 + · · · +  bj  vn−1 +  bj  vn
j=1 j=2 j=n−1 j=n

Como la representación (19) es única para u entonces debe suceder que:

b1 + b2 + · · · + bn = a1 b1 = a1 − a2
b2 + · · · + bn = a2 b2 = a2 − a3
.. .. .. y luego, .. .. ..
. . . . . .
bn−1 + bn = an−1 bn−1 = an−1 − an
bn = an bn = an

Ası́ que

u = (a1 − a2 ) w1 + (a2 − a3 ) w2 + · · · + (an−1 − an ) wn−1 + an wn


| {z } | {z } | {z } |{z}
b1 b2 bn−1 bn

Por tanto genera V, y entonces es una base.


 
1 −1 2
(12) Sea β = {1, 1 − x, 1 − x2 } una base de R2 [x], y A =  3 0 1  ∈ MR (3). Determine, si es posible,
2 −2 4
β
una base α de R2 [x] del tal forma que A = [I]α . Si es posible exhiba una tal base α, si no justifique
con precisión meridiana su respuesta.
Solución

Supongamos que α = {p1 (x), p2 (x),3 (x)} es una base de R2 [x], que satisface las condiciones propuestas
en el problema encima entonces por definición
 
1 −1 2
[I]βα = ([p1 (x)]β [p2 (x)]β [p3 (x)]β ) =  3 0 1 
2 −2 4
Por tanto,
 
1
[p1 (x)]β =  3  =⇒ p1 (x) = 1 + 3(1 − x) + 2(1 − x2 ) = 6 − 3x − 2x2
2
 
−1
[p2 (x)]β =  0  =⇒ p2 (x) = −1 + 0(1 − x) − 2(1 − x2 ) = −3 + 2x2
−2
 
2
[p3 (x)]β =  1  =⇒ p3 (x) = 2 + 1(1 − x) + 4(1 − x2 ) = 7 − x − 4x2
4
Entonces
α = {6 − 3x − 2x2 , −3 + 2x2 , 7 − x − 4x2 }
Profesor Ricardo Santander Baeza 2010 53

Pero se debe observar que α no es base, pues es linealmente dependiente por un cálculo directo, o
porque
   
1 −1 2 1 −1 2
det  3 0 1  = det  3 0 1 =0
2 −2 4 0 0 0
. Luego, A no puede ser una matriz cambio de base

(13) Sea V un K espacio vectorial tal que dimK (V) = n, Considere los conjuntos α = {v1 , v2 , . . . , vn } ⊂ V y
s
X
β = {u1 , u2 , . . . , un } ⊂ V tal que us = vs+1−i , para s = 1, 2, . . . n.
i=1
(a) Demuestre que α base de V =⇒ β base de V

Solución

En primer lugar observamos que los elementos de la base β son de la forma:

1
X
u1 = v1+1−i = v1 ⇐⇒ v1 = u1
i=1
X2
u2 = v2+1−i = v2 + v1 ⇐⇒ v2 = u2 − u1
i=1
3
X
u3 = v3+1−i = v3 + v2 + v1 ⇐⇒ v3 = u3 − u2
i=1
.. .. .. .. (20)
. . . .
j
X
uj = vj+1−i = vj + vj−1 + · · · + v1 ⇐⇒ vj = uj − uj−1
i=1
.. .. .. ..
. . . .
n
X
un = vn+1−i = vn + vn−1 + · · · + v1 ⇐⇒ vn = un − un−1
i=1

En segundo lugar, mostramos que β linealmente independiente.


n
X
aj uj = 0 ⇐⇒ a1 u1 + a2 u2 + · · · + an un = 0
j=1
⇐⇒ a1 v1 + a2 (v2 + v1 ) + · · · + an (vn + vn−1 + · · · + v1 ) = 0
⇐⇒ (a1 + a2 + · · · + an )v1 + (a2 + a3 + · · · + an )v2 + · · · + (an−1 + an )vn−1 + an vn = 0
a1 + a2 + · · · + an = 0
a2 + · · · + an = 0
⇐⇒ .. =⇒ an = an−1 = · · · = a1 = 0
.
an−1 + an = 0
an = 0
Ası́ que β es linealmente independiente.

En tercer lugar, mostramos que β es un sistema de generadores.

Si u ∈ V entonces como α es una base entonces existen únicos escalares c1 , c2 , · · · , cn tales que
u = a1 v1 + a2 v2 + · · · + an vn , pero de acuerdo con (20) tenemos que
54 Profesor Ricardo Santander Baeza 2010

u = a1 v1 + a2 v2 + · · · + an vn ⇒ u = a1 u1 + a2 (u2 − u1 ) + · · · + an (un − un−1 )


⇒ u = (a1 − a2 )u1 + (a2 − a3 )u2 + · · · + (an−1 + an )an−1 + an un

Luego β genera V, y por ende es una base de β.

(b) Determine [I]αβ

Solución

[I]αβ = ([u1 ]α [u2 ]α [u2 ]α · · · [un ]α )


 
1 1 1 ··· 1
 0 1
 1 ··· 1  
 0 0
=  1 ··· 1  
 .. .. .. .. 
 . . .··· . 
0 0 0 ··· 1
 
1 1 0
(14) Sea α = {v1 , v2 , v3 } una base de R3 . Si [I]αc(3) =  1 3 4  entonces determine la base α
0 4 1
Solución

 
1 1 0
[I]αc(3) = ([(1, 0, 0)]α [(0, 1, 0)]α [(0, 0, 1)]α ) =  1 3 4 
0 4 1

Ası́ que
 
1
[(1, 0, 0)]α =  1  ⇐⇒ (1, 0, 0) = v1 + v2
0

 
1
[(0, 1, 0)]α =  3  ⇐⇒ (0, 1, 0) = v1 + 3v2 + 4v3
4

 
0
[(0, 0, 1)]α =  4  ⇐⇒ (0, 0, 1) = 4v2 + v3
1

Por tanto, tenemos un sistema que resuelve el problema.


Profesor Ricardo Santander Baeza 2010 55

v1 + v2 = (1, 0, 0)
2v2 + 4v3 = (−1, 1, 0)
v1 + 3v2 + 4v3 = (0, 1, 0) =⇒
4v2 + v3 = (0, 0, 1)
4v2 + v3 = (0, 0, 1)
4v2 + 8v3 = (−2, 2, 0)
=⇒
4v2 + v3 = (0, 0, 1)
   
2 2 1 1 1 4
=⇒ v3 = − , , − ∧ v2 = ,− ,− ∧
7 7 7 14 14 14
 
13 1 4
v1 = , ,−
14 14 14
(15) En R2 [x], considere las bases α = {x, x2 + 3, 2x2 + x} y β = {x + 3, x − 2, x2 + 1}.

(a) Determine [I]βα y [I]αβ

Solución

Etapa 1. Por definición la matriz [I]βα se construye como: [I]βα = [x]β [x2 + 3]β [2x2 + x]β

Etapa 2. Luego, una buena estrategia es calcular en general: [a0 + a1 x + a2 x2 ]β . Ası́ que
 
b0
[a0 + a1 x + a2 x2 ]β =  b1  ⇐⇒ a0 + a1 x + a2 x2 = b0 (x + 3) + b1 (x − 2) + b2 (x2 + 1)
b2
⇐⇒ a0 + a1 x + a2 x2 = (3b0 − 2b1 + b2 ) + (b0 + b1 )x + b2 x2
3b0 − 2b1 + b2 = a0
⇐⇒ b0 + b1 = a1
b2 = a2
3b0 − 2b1 = a0 − a2
=⇒ b0 + b1 = a1
b2 = a2
a0 + 2a1 − a2 3a1 − a0 + a2
=⇒ b2 = a2 ; b0 = ; b1 =
5 5
Luego,
 a + 2a − a 
0 1 2
 5 
[a0 + a1 x + a2 x2 ]β =  3a1 − a0 + a2  (∗)
 
5
a2
Etapa 3. Sustituyendo en la fórmula (∗), tenemos que:
 2 2 
0
 5 5 
 
β  
[I]α =  3 − 2 1 


 5 5 5 
 
0 1 2

Análogamente para [I]αβ , tenemos el mismo proceso. (o bien recordar que esta es la inversa de [I]βα )
56 Profesor Ricardo Santander Baeza 2010

Etapa 1. 
Por definición la matriz [I]αβ se construye como: [I]αβ = [x + 3]α [x − 2]α [x2 + 1]α

Etapa 2.
Luego, una buena estrategia es calcular en general: [a0 + a1 x + a2 x2 ]α . Ası́ que

 
b0
[a0 + a1 x + a2 x2 ]α =  b1  ⇐⇒ a0 + a1 x + a2 x2 = b0 x + b1 (x2 + 3) + b2 (2x2 + x)
b2
⇐⇒ a0 + a1 x + a2 x2 = 3b1 + (b0 + b2 )x + (b1 + 2b2 )x2

3b1 = a0
⇐⇒ b0 + b2 = a1
b1 + 2b2 = a2
6a1 − 3a2 − a0 a0 3a2 − a0
=⇒ b0 = ; b1 = ; b2 =
6 3 6
luego,

 6a − 3a + a 
1 2 0
 6 
 
 a0 
[a0 + a1 x + a2 x2 ]α
 
=   (∗∗)
 3 
 
 
3a2 − a0
6
Etapa 3. Sustituyendo en la fórmula (∗∗), tenemos que:
 
3 2 1
 2 − 
 3 3 
 
α
 2 1 
[I]β =  1 −
 
 3 3 

 
 1 1 1 

2 3 3
(b) Determine [1 + x + x2 ]α y [1 + x + x2 ]β Solución

Etapa 1. Determinamos [1 + x + x2 ]α usando la fórmula (∗∗)

 
2
 3 
 
 
 1 
[1 + x + x2 ]α = 
 
 3 

 
 1 
3
Etapa 2. Determinamos [1 + x + x2 ]α usando la fórmula (∗).
Profesor Ricardo Santander Baeza 2010 57

 2 
 5 
 
 
[1 + x + x2 ]β = 

3 

 5 
 
1

(16) Considere las bases α = {(1, −2, 0), (0, 1, 0), (1, 0, 1)} y β = {(1, 1, 1), (0, 1, 1), (0, 0, 1)} de R3 . Deter-
mine [I]βα e [I]αβ

Solución

[I]βα = ([(1, −2, 0)]β [(0, 1, 0)]β [(1, 0, 1)]β ) ∈ MR (3) (∗)

Luego, debemos resolver la ecuación, (x, y, z) = a1 (1, 1, 1) + a2 (0, 1, 1) + a3 (0, 0, 1) para (x, y, z) ∈ R3 .
e.e.

(x, y, z) = a1 (1, 1, 1) + a2 (0, 1, 1) + a3 (0, 0, 1)


m
a1 = x
(x, y, z) = (a1 , a1 + a2 , a1 + a2 + a3 ) ⇐⇒ a1 + a2 = y =⇒ a1 = x ∧ a2 = y − x ∧ a3 = z − y
a1 + a2 + a3 = z

 
x
[(x, y, z)]β =  y − x  (∗∗)
z−y

Aplicando (∗∗) en (∗) tenemos que

 
1 0 1
[I]βα =  −3 1 −1  (21)
2 −1 1

Análogamente, para

[I]αβ = ([(1, 1, 1)]α [(0, 1, 1)]α [(0, 0, 1)]α ) ∈ MR (3) (∗)


58 Profesor Ricardo Santander Baeza 2010

Debemos resolver la ecuación, (x, y, z) = a1 (1, −2, 0)+a2 (0, 1, 0)+a3 (1, 0, 1) para (x, y, z) ∈ R3 . Es decir

(x, y, z) = a1 (1, −2, 0) + a2 (0, 1, 0) + a3 (1, 0, 1)


m
a1 + a3 = x
(x, y, z) = (a1 + a3 , −2a1 + a2 , a3 ) ⇐⇒ −2a 1 + a2 = y =⇒ a1 = x − z ∧ a2 = y + 2x − 2z ∧ a3 = z
a3 = z

 
x−z
[(x, y, z)]α =  y + 2x − 2z  (∗∗)
z
Aplicando (∗∗) en (∗) tenemos que

 
0 −1 −1
[I]αβ =  1 −1 −2  (22)
1 1 1
Finalmente podemos comprobar la calidad de nuestro trabajo!!!

  
1 0 1 0 −1 −1
[I]βα [I]αβ =  −3 1 −1   1 −1 −2 
2 −1 1 1 1 1
 
1 0 0
=  0 1 0 
0 0 1
(17) Si P (2) = {1, x, x2 } y α = {1 + x + x2 , −2 − x + x2 , −1 + x + x2 } dos bases de R2 [x] entonces determine
P (2)
[I]α e [I]αP (2)

Solución
P (2)
Etapa 1. Debemos determinar las matrices [I]α e [I]αP (2)

Etapa 2. Por definición la matriz cambio de base es dada por



[I]Pα (2) = [1 + x + x2 ]P (2) [−2 − x + x2 ]P (2) [−1 + x + x2 ]P (2)
Por definición la función coordenada [ ]P (2) se construye como sigue:
 
1
1 + x + x2 = 1 · 1 + 1 · x + 1 · x2 ⇐⇒ [1 + x + x2 ]P (2) =  1 
1
 
−2
−2 − x + x2 = (−1) · 1 + (−1) · x + 1 · x2 ⇐⇒ [−2 − x + x2 ]P (2) =  −1 
1
 
−1
−1 + x + x2 = (−1) · 1 + 1 · x + 1 · x2 ⇐⇒ [−1 + x + x2 ]P (2) =  1 
1
Etapa 3. Finalmente sustituyendo los datos encontrados tenemos que
Profesor Ricardo Santander Baeza 2010 59

 
1 −2 −1
[I]Pα (2) =  1 −1 1 
1 1 1
Análogamente, para[I]αP (2) tenemos que

Por definición la matriz cambio de base es dada por



[I]αP (2) = [1]α [x]α [x2 ]α
Por definición la función coordenada [ ]P (2) se construye como sigue:

1 + 0x + 0x2 = a1 (1 + x + x2 ) + a2 (−2 − x + x2 ) + a3 (−1 + x + x2 )


= (a1 − 2a2 − a3 ) + (a1 − a2 + a3 )x + (a1 + a2 + a3 )x2

Ası́ que debemos resolver el sistema de ecuaciones

a1 − 2a2 − a3 = 1
1 1
a1 − a2 + a3 = 0 =⇒ a2 = 0 ∧ a1 = ∧ a3 = −
a1 + a2 + a3 = 0 2 2

Es decir

1 1
1 = (1 + x + x2 ) + 0(−2 − x + x2 ) − (−1 + x + x2 )
2 2

Para las otras coordenadas tenemos cálculos similares:

0 + 1 · x + 0x2 = a1 (1 + x + x2 ) + a2 (−2 − x + x2 ) + a3 (−1 + x + x2 )


= (a1 − 2a2 − a3 ) + (a1 − a2 + a3 )x + (a1 + a2 + a3 )x2

Ası́ que debemos resolver primeramente el sistema de ecuaciones

a1 − 2a2 − a3 = 0
1 1 3
a1 − a2 + a3 = 1 =⇒ a2 = − ∧ a1 = − ∧ a3 =
a1 + a2 + a3 = 0 2 4 4

Es decir

1 1 3
x = − (1 + x + x2 ) − (−2 − x + x2 ) + (−1 + x + x2 )
4 2 4

Y en segundo lugar,
a1 − 2a2 − a3 = 0
1 3 1
a1 − a2 + a3 = 0 =⇒ a2 = ∧ a1 = ∧ a3 = −
a1 + a2 + a3 = 1 2 4 4
60 Profesor Ricardo Santander Baeza 2010

Es decir

3 1 1
x2 = (1 + x + x2 ) + (−2 − x + x2 ) − (−1 + x + x2 )
4 2 4

Etapa 3. Finalmente sustituyendo los datos encontrados tenemos que

 1

2 − 14 3
4
[I]Pα (2) =  0 − 12 1
2

− 12 3
4 − 14
(18) Si α y β = {(1, 0, 1), (−1, 1, 0), (1, 1, 1)} son dos bases ordenadas de R3 tal que
 
1 −1 1
[I]βα =  0 −2 1 
1 1 1
Es la matriz de cambio de la baseα para la base β entonces determine la base α.

Solución

Etapa 1. Supongamos que α = {u1 , u2 , u3 } ⊂ R3 es la base pedida


1 −1 1
Etapa 2. Com la matriz de cambio de base es [I]βα =  0 −2 1  entonces por construcción se debe
1 1 1
verificar que
 
1 −1 1
[I]βα =  0 −2 1  = ([u1 ]β [u2 ]β [u3 ]β )
1 1 1
Ası́ que
 
1
[u1 ]β =  0  ⇐⇒ u1 = 1(1, 0, 1) + 0(−1, 1, 0) + 1(1, 1, 1) = (2, 1, 2)
1
 
−1
[u2 ]β =  −2  ⇐⇒ u2 = −1(1, 0, 1) − 2(−1, 1, 0) + 1(1, 1, 1) = (4, −1, 0)
1
 
1
[u3 ]β =  1  ⇐⇒ u3 = 1(1, 0, 1) + 1(−1, 1, 0) + 1(1, 1, 1) = (1, 2, 2)
1
Por tanto la base buscada es α = {(2, 1, 2), (4, −1, 0), (1, 2, 2)}

(19) Si α = {(2, 1, 2), (4, −1, 0), (1, 2, 2)} es una base de R3 , y u = (1, 2, 3) entonces determine [u]α

Solución
Profesor Ricardo Santander Baeza 2010 61
 
a
Recordemos que por definición [u]α =  b  ⇐⇒ (1, 2, 3) = a(2, 1, 2) + b(4, −1, 0) + c(1, 2, 2) entonces
c
 
a 2a + 4b + c = 1
3 1
[u]α =  b  ⇐⇒ a − b + 2c = 2 =⇒ a = ∧ b = − ∧ c = 0
c 2a + 2c = 3 2 2
 
 3 
 
 2 
 
=⇒ [u]α =  
 1 
 − 
 2 
 
0
CAPITULO 3

Producto Interno

El trabajo solidario es lo único que hace


humano al ser humano

1. Preliminares
Consideremos un K espacio vectorial de dimensión n y α = {v1 , v2 , . . . , vn } una base de V entonces au-
tomáticamente pensamos en el meollo del Algebra Lineal, es decir que, para cada v ∈ V existen únicos
escalares que representan al vector v, en forma teórica o práctica respecto de esa base. En sı́mbolos
 
a1
n
X  a2 
 
v = ai vi ⇐⇒ [v]α =  .. 
 . 
i=1
an
Más aún,
[ ]α : V 7−→ MR (n × 1)
v 7−→ [v]α
Es una biyección de espacios vectoriales, y además podemos observar los siguientes puntos centrales:
(1) Dada la base y el vector v, la determinación de los escalares ai , para (i = 1, 2, . . . , n) se realiza a través
de un sistema de ecuaciones.

(2) Lamentablemente la resolución del sistema de ecuaciones implica que la búsqueda es secuencial, esto
es, para conocer ai , por ejemplo debo conocer ai−1 . ¿Y qué tiene de malo una búsqueda secuencial?.
Una respuesta es depende de ¿quién? y ¿qué se ejecuta?.

Por ejemplo

(i) De grano en grano un zorzal se comió una viña, en este caso para el zorzal no hay problema,
probablemente se encuentre ” feliz ”.

(ii) Suponga que desea pedir un préstamo en el Banco U, en esta empresa usted es lo siguiente para
su Ejecutivo de Cuentas:

 
fulano de tal
 5204401-4 
 
 casado 
 
 empleado 
U sted = 
 .. 

 . 
 pocos miles 
 
 morro 2 
latino
¿Cuál cree Ud. qué es la casilla favorita del ejecutivo?.
3
4 Profesor Ricardo Santander Baeza 2010

Acertó en pleno, imagina que el tuviese que leer todas las casillas (posiciones) anteriores a los pocos
miles para pensar en su préstamo, si ası́ fuese, lo más probable es que se quedará sin comprar su
netbook favorito.

(iii) ¿Cómo cree que el ejecutivo accedió a la casilla correcta.?

Probablemente el procedió de la siguiente forma:

• Generó una matriz adecuada, con ceros en la posición que no le interesa, es decir construyó

 
0
  0
 
  ..
  .
Ejecutivo =  
 1 
 
 0 
0

• Procedió a multiplicar por cero, como antaño, para eliminar lo indeseable, es decir
   
0 fulano de tal
   0 5204401-4 
   
*   0 casado +
   
   0 empleado 
hEjecutivo, U stedi =  , .. .. 
   
   . . 
 1   pocos miles 
   
 0   morro 2 
0 latino

 t  
0 fulano de tal
  0  5204401-4 
   
  0  casado 
   
  0  empleado 
= 
 
 .. 
 .. 

  .  . 
 1   pocos miles 
   
 0   morro 2 
0 latino

= pocos miles

• Conclusión: No califica

(3) No obstante el resultado de la gestión, hemos obtenido la siguiente moraleja o enseñanza, la cual mod-
elaremos técnicamente como sigue.

Como α = {v1 , v2 , . . . , vn } es una base de V entonces dados los vectores u y v de V existen únicos
escalares tales que:
Profesor Ricardo Santander Baeza 2010 5

 
a1
n
X  a2 
 
v= ai vi ⇐⇒ [v]α =  .. 
 . 
i=1
an
y
 
b1
n
X  b2 
 
u= bi vi ⇐⇒ [u]α =  .. 
 . 
i=1
bn
entonces definimos, siguiendo al ejecutivo
     t    t  
* b 1 a 1 + b1 a1 b1 ā1
 b2   a2   b2   a2   b2   ā2  Xn
           
hu, viα =  ..  ,  ..  =  ..   .. = ..   .. = bi āi
 .   .   .   .   .   . 
i=1
bn an bn an bn ān
(4) Tenemos por ejemplo:
 
x
(a) Si V = R2 y α = c(2) = {(1, 0), (0, 1)} entonces [(x, y]c(2) = . Luego,
y
 
x2
h(x1 , y1 ), (x2 , y2 )i = (x1 y1 ) = x1 x2 + y 1 y 2
y2
 x+y 
2 , Pues;
(b) Si V = R2 y α = {(1, 1), (1, −1)} entonces [(x, y)]α =  x − y
2

x+y x−y
(x, y) = a1 (1, 1) + a2 (1, −1) ⇐⇒ a1 = ∧ a2 =
2 2
Ası́ que,

 x + y t  x + y 
1 1 2 2
h(x1 , y1 ), (x2 , y2 )i =  x1 − 2   2 
y1 x2 − y 2
2 2
1
= (x1 x2 + y1 y2 )
2
(5) Antes de concluir esta motivación, observamos que a causa de las propiedades del producto de matrices,
el producto debe tener las siguientes propiedades:

(a) hu, ui ≥ 0

En efecto

n
X n
X
hu, ui = h[u]α , [u]α i = [u]tα ¯ =
· [u] ui ūi = |ui |2 ≥ 0
α
i=1 i=1
6 Profesor Ricardo Santander Baeza 2010

(b) hu + v, wi = hu, wi + hv, wi

En efecto

n
X
hu + v, wi = h[u + v]α , [w]α i = [u + v]tα ¯ =
· [w] (ui + vi )w̄i
α
i=1
n
X n
X n
X
= (ui w̄i + vi w̄i ) = ui w̄i + vi w̄i = hu, wi + hv, wi
i=1 i=1 i=1

(c) De la misma forma que encima verificamos que hu, v + wi = hu, vi + hu, wi

(d) hλ · u, wi = λhu, wi

En efecto

n
X n
X
hλ · u, wi = [λ ¯
· u]tα [w] = λ[u]tα ¯ =
· [w] λ · ui w̄i = λ ui w̄i = λhu, wi
α α
i=1 i=1

(e) Análogamente verificamos que hu, λwi = λ̄hu, wi

(f) hu, wi = hw, ui

En efecto

n
X n
X
hu, wi = ¯
[u]tα , [w] = [u]tα ¯ =
· [w] ui w̄i = wi ūi = hw, ui
α α
i=1 i=1

Todo lo anterior nos motiva a hacer la siguiente definición.


Definición 1.1. Sea V un K - espacio vectorial. V se dice un espacio con ”Producto Interno” ó un espacio
”Prehilbertiano” si y sólo si existe una función.
h, i : V × V 7−→ K
(u, v) 7−→ hu, vi

tal que satisface las condiciones:

(1) hv, vi ≥ 0 (∀v, v ∈ V ) ∧ hv, vi = 0 ⇐⇒ v = 0

(2) hu + v, wi = hu, wi + hv, wi

(3) hu, v + wi = hu, vi + hu, wi

(4) hλu, vi = λhu, vi

(5) hu, λvi = λ̄hu, vi

(6) hu, vi = hv, ui


Profesor Ricardo Santander Baeza 2010 7

Ejemplo 1.1.1. En Kn definimos:


n
X
h(x1 , x2 , . . . , xn ), (y1 , y2 , . . . , yn )i = xj ȳj (1)
j=1

El producto definido en (1) se llama producto interno canónico de Kn , debe observarse que si K = R entonces
(1) se transforma en:

n
X
h(x1 , x2 , . . . , xn ), (y1 , y2 , . . . , yn )i = xj y j (2)
j=1

Ejemplo 1.1.2. En MR (n) define


hA, Bi = tr(B t · A) (3)
El producto definido en (3) se llama producto interno canónico de MR (n)

Ejemplo 1.1.3. En C([a, b]) = {f : [a, b] 7−→ R | f continua} define


Z b
hf, gi = f (t)g(t) dt (4)
a
El producto definido en (4) se llama producto interno canónico de C([a, b])

Ejemplo 1.1.4. En el espacio vectorial R2 [x] define para cada p(x) ∈ R2 [x] y q(x) ∈ R2 [x] el producto

hp(x), q(x)i = p(0) · q(0) + p(1) · q(1) + p(2) · q(2) (5)

entonces el producto definido en (26) es un producto interno

2. Bases Ortogonales y Ortonormales


Aunque nuestro astuto ejecutivo, encontró la forma de determinar la coordenada que a él le interesaba, no
obstante hay todavı́a un pequeño problema.

Para determinar una coordenada hay que ser capaz de tener las coordenadas del vector, es
decir primero debe tener un cliente, y más aún debe conocerlo perfectamente !!!

Esto quiere decir que el concepto de base sigue siendo imprescindible, y lo que pretendemos ahora es sólo
perfeccionarlo.

Si V un K - espacio vectorial y α = {v1 , v2 , . . . , vn }, una K - base de V entonces para cada v ∈ V existen


únicos escalares a1 , a2 , . . . , an en K tales que
Xn
v = aj vj (6)
j=1

Equivalentemente
 
a1
 a2 
 
[v]α =  ..  ∈ MR (n × 1) (7)
 . 
an
8 Profesor Ricardo Santander Baeza 2010

Ası́, lo expresado en (6) ó (7) es simplemente el ” Objetivo fundamental ” del algebra Lineal, es decir
”Para conocer completamente un vector de V basta conocer sus ” Coordenadas respecto del Sistema de
Información α.”

Entonces parece natural que debamos analizar el efecto del producto interno (si es que lo hay) en el proceso
de búsqueda de coordenadas. Es inmediato de observar que la ventaja del producto es que, permite imple-
mentar la preconcebida máxima ” multiplicate por cero ” la cual sin duda para bien ó para mal reduce en
cualquier caso el problema.

Análisis 2.1. Sea α = {v1 , v2 } una R - base de R2 tal que hv1 , v2 i = 0 entonces como α es base, para v ∈ R2
existen únicos a1 , a2 en K tales que

v = a1 v1 + a2 v2 (8)

Como hv1 , v2 i = 0 entonces podemos multiplicar (8) por v1 para obtener;

hv, v1 i = ha1 v1 + a2 v2 , v1 i = a1 hv1 , v1 i + a2 hv2 , v1 i = a1 hv1 , v1 i

hv, v1 i
De donde sigue que, a1 = , observe que hv1 , v1 i > 0, pues es un vector no nulo.
hv1 , v1 i
hv, v2 i
De una forma absolutamente análoga a la anterior obtenemos que a2 =
hv2 , v2 i
Ası́ que, si α = {v1 , v2 } una K - base de R2 tal quehv1 , v2 i = 0 entonces

hv, v1 i hv, v2 i
v = v1 + v2
hv1 , v1 i hv2 , v2 i

Análisis 2.1.1. Intentamos generalizar el análisis anterior. Supongamos que en un V espacio vectorial
con producto interno h, i existe una base α = {v1 , v2 , . . . , vn } tal que hvi , vj i = 0 si i 6= j entonces como
consecuencia del hecho que α es base sigue que,

n
X
u ∈ V =⇒ u = ai vi
i=1

Ahora, como consecuencia de que hvi , vj i = 0 si i 6= j sigue que

n
* n + n
X X X
u= ai vi =⇒ hu, vj i = ai vi , vj = ai hvi , vj i
i=1 i=1 i=1
=⇒ hu, vj i = aj hvj , vj i
hu, vj i
=⇒ aj = (j = 1, 2, . . . n)
hvj , vj i

Esto es extraordinario, pues en esta condiciones tenemos ”casi el máximo de eficiencia,” ya que,
Profesor Ricardo Santander Baeza 2010 9

 hu, v i 
1
 hv1 , v1 i 
 hu, v i 
n
X  2 
hu, vi i  
u= vi ⇐⇒ [u]α = 

hv2 , v2 i 

hvi , vi i  .. 
i=1  . 
 hu, v i 
n
hvn , vn i

Motivados por lo anterior, hacemos la definición formal de este objeto.

Definición 2.2. Sea V un K-espacio con producto interno h, i y considera α = {v1 , v2 , . . . , vn } ⊂ V entonces
α será llamada una ”Base Ortogonal” si

(1) α es una base de V

(2) Si j 6= k entonces hvj , vk i = 0

hu, vi i
(3) La coordenada respecto de la base ortogonal α ai = se llamará el ”i−ésimo coeficiente de Fourier
hvi , vi i
del vector u.”
Ejemplo 2.2.1. c(n) la base canónica de Kn con el producto interno canónico h, i es una base ortogonal, pues
(
1: i=j
hei , ej i =
0: i 6= j

Ejemplo 2.2.2. Sea V = h{1, sen x, cos x, sen 2x, cos 2x, . . . , sen nx, cos nx}i y define en V el producto in-
terno:
Z π
hf, gi = f (t)g(t) dt (9)
−π

entonces α = {1, sen x, cos x, sen 2x, cos 2x, . . . , sen nx, cos nx} es una base ortogonal de V , respecto de (9)
En efecto
Z π
hsen kt, cos sti = sen kt cos st dt k 6= s
−π
Z π
1
= [sen(k + s)t + sen(k − s)t] dt
2 −π
 
1 1 1
= − cos(k + s)t | π−π + cos(k − s)t | π−π
2 k+s k−s
= 0

Usando técnicas de transformación de ángulos análoga a la desarrollada encima obtenemos.

hsen kt, sen sti = 0 ∧ hcos kt, cos sti = 0 (para k 6= s)


10 Profesor Ricardo Santander Baeza 2010

Observación 2.2.3. Observamos que la fortaleza de las bases ortogonales, a la hora de determinar las
coordenadas de un vector, radica en el hecho que los productos entre elementos distintos es cero entonces
cobra relevancia preguntar.

(1) ¿Qué significa geométricamente el hecho hvi , vk i = 0?, para i 6= k. Para responder a esto, consideremos
la figura 1, y a partir de ese modelo, usemos el producto interno usual en R2 ,

v2 = (x2 , y2 )

v1 = (x1 , y1 )

θ2
θ
θ1

Figura 1

Entonces sucede que

hv1 , v2 i = 0 ⇐⇒x1 x2 + y 1 y 2 = 0
⇐⇒l(v1 ) cos θ1 l(v2 ) cos θ2 + l(v1 ) sen θ1 l(v2 ) sen θ2 = 0
⇐⇒l(v1 )l(v2 ) cos(θ2 − θ1 ) = 0
⇐⇒l(v1 )l(v2 ) cos θ = 0
π
⇐⇒ θ =
2

Ası́ que la conclusión es que en el plano R2 la condición hv1 , v2 i = 0, significa que las rectas generadas
por los vectores v1 y v2 son perpendiculares.

(2) Las bases ortonormales (ortogonales), se muestran como insuperables en su trabajo, es decir en la
misión de determinar las coordenadas (coeficientes de Fourier) de los elementos del espacio vectorial,
salvo por un detalle, ¿existen en abundancia?, y si lo son ¿son fáciles de ubicar?.

Para responder las preguntas planteadas encima, el análisis anterior nos permite imaginar un modelo
genérico para el caso en que una base de V no cumpla esta propiedad. Es decir si α = {v1 , v2 } es una
base de R2 y hv1 , v2 i =
6 0.

O sea que podemos considerar la siguiente situación geométrica.

Si hv1 , v2 i =
6 0 entonces de acuerdo a la figura 1, sabemos que v1 no es perpendicular a v2 , ası́ que
podemos suponer sin pérdida de generalidad que los vectores son como en las Figuras de (10).
Profesor Ricardo Santander Baeza 2010 11

Etapa 1. Modelo en bruto Etapa 2. Modelo en contexto


v2′
v2 v2

Distancia
(10)

v1 Proyección
W = h{v1 }i
(0, 0) ortogonal av1
Figura 2 Figura 3

Entonces,
v2 = v2′ + av1 (11)
Lamentablemente, (11) es una ecuación que liga tres datos y sólo conocemos uno !!!, pero, no todo está
perdido, pues, observen que en virtud de las propiedades del producto interno tenemos.

v2 = v2′ + av1 =⇒ hv2 , v1 i = hv2′ , v1 i + hav1 , v1 i


=⇒ hv2 , v1 i = ahv1 , v1 i
hv2 , v1 i
=⇒ a =
hv1 , v1 i

Y sustituyendo en la ecuación (11) obtenemos

hv2 , v1 i
v2′ = v2 − v1 (12)
hv1 , v1 i
Luego, tenemos lo siguiente:
α = {v1 , v2 } base de V =⇒ α′ = {v1 , v2′ } es una base ortogonal de V
Lo puede ser generalizada en el siguiente.

Teorema 2.3. (Ortogonalización de Gram-Schmidt) Sea V un K-espacio vectorial con producto interno
h, i y α = {v1 , v2 , . . . , vn } una base V entonces α′ = {v1′ , v2′ , . . . , vn′ } es una base ortogonal, donde los vi′
satisfacen la siguiente ecuación vectorial.

 ′
v ′ = v − hvj , vj−1 i v ′ − · · · − hvj , v1 i v ′ :
 ′
j (2 ≤ j ≤ n)
j ′
hvj−1 ′
, vj−1 i j−1
hv1′ , v1′ i 1 (13)
 ′
v1 = v1
En efecto
12 Profesor Ricardo Santander Baeza 2010

De (12) sigue que el resultado vale para n=2

Supongamos que vj′ es construido para (2 ≤ j ≤ n − 1) satisfaciendo (13).

Es decir, {v1′ , v2′ , . . . , vn−1


′ } es un conjunto ortogonal.

hvn , vj−1 i ′ hvn , v1′ i ′
Sea vn′ = vn − v − · · · − v entonces

hvj−1 ′
, vj−1 i j−1 hv1′ , v1′ i 1

* +

hvn , vj−1 i ′ hvn , v1′ i ′ ′
hvn′ , vj′ i = vn − ′ v − · · · − v ,v

hvj−1 , vj−1 i j−1 hv1′ , v1′ i 1 j
n−1
X ′
hvn , vn−i i ′
= hvn , vj′ i − hv , v ′ i
hvn−i , vn−i i n−i j
′ ′
i=1
hvn , vj′ i ′ ′
= hvn , vj′ i − ′ ′ hvj , vj i
hvj , vj i
= 0

Lo que demuestra el teorema.

Ejemplo 2.3.1. Consideremos el subespacio W = {(x, y, z, t) ∈ R4 | x + y + z + t = 0} entonces usando el


producto interno usual de R4 , determinemos una base ortogonal para W.

Etapa 1. Determinamos una base de W

u ∈ W ⇐⇒ u = (x, y, z, t) ∈ R4 ∧ x + y + z + t = 0
⇐⇒ u = (x, y, z, t) ∈ R4 ∧ t = −x − y − z
⇐⇒ u = (x, y, z, −x − y − z); (x, y, z) ∈ R3
⇐⇒ u = x(1, 0, 0, −1) + y(0, 1, 0, −1) + z(0, 0, 1, −1); (x, y, z) ∈ R3

Luego,

W = h{(1, 0, 0, −1), (0, 1, 0, −1), (0, 0, 1, −1)}i

Y, si notamos α = {(1, 0, 0, −1), (0, 1, 0, −1), (0, 0, 1, −1)} entonces α es una base de W, pues son claramente
linealmente independientes.

Etapa 2. Ahora, ortogonalizamos, usando el proceso de G. Schmidt descrito en el teorema (2.3).


Profesor Ricardo Santander Baeza 2010 13

v1′ = (1, 0, 0, −1)


h(0, 1, 0, −1), (1, 0, 0, −1)i
v2′ = (0, 1, 0, −1) − (1, 0, 0, −1)
h(1, 0, 0, −1), (1, 0, 0, −1)i

1
= (0, 1, 0, −1) − (1, 0, 0, −1)
2
 
1 1
= − , 1, 0, − tomaremos v2′ = (−1, 2, 0, −1)
2 2

h(0, 0, 1, −1), (−1, 2, 0, −1)i


v3′ = (0, 0, 1, −1) − (−1, 2, 0, −1)−
h(−1, 2, 0, −1), (−1, 2, 0, −1)i

h(0, 0, 1, −1), (1, 0, 0, −1)i


(1, 0, 0, −1)
h(1, 0, 0, −1), (1, 0, 0, −1)i

1 1
= (0, 0, 1, −1) − (−1, 2, 0, −1) − (1, 0, 0, −1)
6 2
 
1 1 1
= − , − , 1, −
3 3 3
Luego,
α′ = {(1, 0, 0, −1), (−1, 2, 0, −1), (−1, −1, 3, −1)} es una base ortogonal de W
Observación 2.4. Sea α = {v1 , v2 , . . . , vn } una base ortogonal entonces
(1) Para cada u ∈ V, la representación única en términos de la base α.
n
X hu, vi i
u = vi
hvi , vi i
i=1

Pero, dando una nueva mirada, (interesante preguntarse ¿por qué no lo hicimos antes?), podemos
observar en primer lugar el siguiente fenómeno.
n
X hu, vi i
u = · vi
hvi , vi i
i=1
n
X 1
= · hu, vi i · vi
hvi , vi i
i=1
n
X vi
= hu, vi i ·
hvi , vi i
i=1
vi
Si llamamos β = {v1′ , v2′ , . . . , vn′ }, donde vi′ = entonces tenemos el siguiente ”mejoramiento
hvi , vi i
técnico en la representación de los vectores.”

vi
Teorema 2.5. Si llamamos β = {v1′ , v2′ , . . . , vn′ }, donde vi′ = , para cada i = 1, 2, . . . , n entonces
hvi , vi i
(a) hvi′ , vj′ i = 0 si i 6= j
X n
(b) u = hu, vi i · vi′
i=1

En efecto
14 Profesor Ricardo Santander Baeza 2010

Para dilucidar el primer punto, hacemos lo siguiente.


 
′ ′ vi vj
hvi , vj i = ,
hvi , vi i hvj , vj i
1
= hvi , vj i = 0 Si i 6= j pues α es base ortogonal
hvi , vi i · hvi , vj i

Del punto anterior sigue que β es una base ortogonal y entonces cada u ∈ V se escribe de forma única
como
Xn
u= hu, vi i · vi′
i=1

(2) Nos queda pendiente dilucidar cuanto vale hvi′ , vi′ i. En esta dirección si calculamos obtenemos lo sigui-
ente
 
vi vi 1
hvi′ , vi′ i = , = hvi , vi i
hvi , vi i hvi , vi i hvi , vi i · hvi , vi i
1
= hvi , vi i (Pues hvi , vi i ∈ R)
hvi , vi i2

Motivados por lo anterior, y aprovechando las propiedades del producto interno hacemos la siguiente
definición
Definición 2.6. Llamaremos normativa o norma inducida por el producto interno imperante en el espacio
vectorial V a la función
p
kk : V 7−→ R+ ∪ {0} tal que kuk = hu, ui
v
uX
u n
Ejemplo 2.6.1. En K tenemos que k(x1 , x2 , . . . , xn )k = t
n |xi |2 . En particular para K = R y n = 2 la
i=1
p
norma k(x1 , x2 )k = x21 + x22 corresponde al módulo del número complejo asociado, o la distancia desde el
origen al punto (x1 , x2 ).

x2 z = (x1 , x2
x2
2
+
x2
1
= p
k
kz

x
(0, 0) x1
Figura 4

Lema 2.6.2. Para cada u ∈ V y v ∈ V se satisface la relación (conocida como desigualdad de Cauchy-
Schwarz)
hu, vi ≤ kuk · kvk (14)
Profesor Ricardo Santander Baeza 2010 15

En efecto

En primer lugar escribiendo al complejo hu, vi en su forma polar tenemos que,


hu, vi = |hu, vi|(cos α + i sen α) = |hu, vi|eiα (15)
−iα
hv, ui = |hu, vi|(cos α − i sen α) = |hu, vi|e (16)
A seguir, para cada λ ∈ C
hλu + eiα v, λu + eiα vi ≥ 0 =⇒ hλu, λui + hλu, eiα vi + heiα v, λui + heiα v, eiα vi ≥ 0
=⇒ λλkuk2 + λe−iα hu, vi + eiα λhv, ui + kvk2 ≥ 0

Ahora, sustituyendo lo obtenido en (15) y (16) y considerando λ ∈ R en la desigualdad de encima obtenemos:

λ2 kuk2 + 2λ|hu, vi| + kvk2 ≥ 0 ⇐⇒ 4|hu, vi|2 − 4kuk2 kvk2 ≤ 0


| {z } | {z }
ecuación cuadrática en λ discriminante de la ecuación
=⇒ hu, vi ≤ kuk · kvk
Teorema 2.6.3. Si V es un K espacio vectorial con producto interno h, i entonces la normativa definida en
2.6 satisface las siguientes propiedades

(1) kuk ≥ 0 (∀u; u ∈ V) y kuk = 0 ⇐⇒ u = 0V

(2) kλuk = |λ|kuk (∀u; u ∈ V) y (∀λ; λ ∈ K)

(3) ku + vk ≤ kuk + kvk

En efecto
p p
(1) Por definición kuk = hu, ui ∈ R+ ∪ {0}, y kuk = 0 ⇔ hu, ui = 0 ⇔ hu, ui = 0 ⇔ u = 0V
p p p
(2) kλuk = hλu, λui == |λ|2 hu, ui = |λ| hu, ui = |λ|kuk

(3) ku + vk2 = hu + v, u + vi = hu, ui + hu, vi + hv, ui + hv, vi = kuk2 + hu, vi + hu, vi + kvk2 . Además
hu, vi + hu, vi = 2Re(hu, vi) ≤ 2kukkvk ( Desigualdad de Cauchy Schwarz)
Ası́ que
ku + vk2 ≤ kuk2 + 2kukkvk + kvk2 = (kuk + kvk)2

Definición 2.7. Sea V un K-espacio con producto interno h, i y considera β = {w1 , w2 , . . . , wn } ⊂ V en-
tonces β será llamada una ”Base Ortonormal” si

(1) β es una base ortogonal de V

(2) kvi k = 1, es decir hvi , vi i = 1 para i = 1, 2, . . . n

Equivalentemente
(
1 : si i = j
β es una base ortonormal ⇐⇒ hvi , vj i =
0 : si i =
6 j
16 Profesor Ricardo Santander Baeza 2010

Ejemplo 2.7.1. β = {(1, 1), (1, −1)} es una base ortogonal respecto del producto interno usual de R2 , pues
h(1, 1), (1, −1)i = 1 − 1 = 0.

Pero como,

k(1, 1k) = h(1, 1), (1, 1)i = 2

k(1, −1k) = h(1, −1), (1, −1)i = 2
entonces no es una base ortonormal.
 
(1, 1) (1, 1)
Sin embargo, γ = √ , √ es una base ortonormal.
2 2

Unas consecuencias fabulosas de las bases ortonormales son las siguientes:


Teorema 2.8. Si V es un R espacio vectorial con producto interno h, i y α y β son dos bases ortonormales
entonces
([I]βα )−1 = ([I]βα )t
En efecto

Por una parte, si α = {v1 , v2 , . . . , vn } y β = {w1 , w2 , . . . , wn } son dos bases ortonormales entonces por
definición tenemos que
 
hv1 , w1 i hv2 , w1 i ··· hvn , w1 i
 hv1 , w2 i hv2 , w2 i ··· hvn , w2 i 
 
[I]βα = ([v1 ]β [v2 ]β · · · [vn ]β ) =  .. .. .. 
 . . ··· . 
hv1 , wn i hv2 , wn i ··· hvn , wn i
Por otra parte, y también por definición tenemos que

[I]αβ = ([w1 ]α [w2 ]α · · · [wn ]α )


 
hw1 , v1 i hw2 , v1 i · · · hwn , v1 i
 hw1 , v2 i hw2 , v2 i · · · hwn , v2 i 
 
=  .. .. .. 
 . . ··· . 
hw1 , vn i hw2 , vn i · · · hwn , vn i
 
hv1 , w1 i hv1 , w2 i ··· hv1 , wn i
 hv2 , w1 i hv2 , w2 i ··· hv2 , wn i 
 
=  .. .. .. 
 . . ··· . 
hvn , w1 i hvn , w2 i ··· hvn , wn i
= ([I]βα )t
Luego,
([I]βα )t = [I]αβ = ([I]βα )−1
Teorema 2.9. Si α = {v1 , v2 , . . . , vn } es una base ortonormal de V entonces el producto interno se ”
canoniza ”, en el siguiente sentido:

n
X
hv, ui = [v]tα · [u]α = hv, vj ihu, vj i
j=1
En efecto
Profesor Ricardo Santander Baeza 2010 17

Sean v ∈ V y u ∈ V entonces
* n n
+
X X
hv, ui = hv, vj ivj , hu, vk ivk
j=1 k=1
n
XX n
= hv, vj ihu, vk ihvj , vk i
j=1 k=1
Xn
= hv, vj ihu, vj i
j=1

3. Proyección Ortogonal y Distancia a un Subespacio


Si remiramos el cuadro 10 entonces observamos que hemos resuelto uno de los tres problemas planteados en
él, en efecto sólo construimos el proceso de ortogonalización de Gram Schmidt, que esencialmente ”consiste
en controlar la sombra que un vector proyecta en un subespacio del espacio, es decir un vector anula a otro
si su proyección en el es nula.”

Etapa 2. Modelo en contexto de ortogonalización Etapa 3. Modelo recontextualizado para


proyección ortogonal

v2′
v2
v

(17)
W w1

0V PW (v)
w2
Proyección
W = h{v1 }i
ortogonal av1
Figura 5 Figura6

Definición 3.1. Sean V un K-espacio vectorial con producto interno, W ≤ V y α = {w1 , w2 , . . . , ss }, una
base ortogonal de W entonces llamaremos Proyección ortogonal a la función PW definida como sigue:

S
X hv, wi i
PW : V 7−→ W tal que PW (v) = wi (18)
kwi k2
i=1

Ejemplo 3.1.1. Si W = {(x, y, t, z) ∈ R4 | x + y − 3z = 0} entonces usando el producto interno usual


determinemos PW
18 Profesor Ricardo Santander Baeza 2010

(1) En primer lugar, determinamos una base de W.

u ∈ W ⇐⇒ u = (x, y, t, z) ∈ R4 ∧ x + y − 3z = 0
⇐⇒ u = (x, y, t, z) ∈ R4 ∧ y = 3z − x
⇐⇒ u = (x, 3z − x, t, z)
⇐⇒ u = x(1, −1, 0, 0) + z(0, 3, 0, 1) + t(0, 0, 1, 0)

Luego, W = h{(1, −1, 0, 0), (0, 3, 0, 1), (0, 0, 1, 0)}i. Ası́ que dimR (W ) ≤ 3, por tanto debemos verificar
que α = {(1, −1, 0, 0), (0, 3, 0, 1), (0, 0, 1, 0)} es una base de W , y para ello sólo falta ver que es lineal-
mente independiente. Es decir, debemos mostrar que

a1 (1, −1, 0, 0) + a2 (0, 3, 0, 1) + a3 (0, 0, 1, 0) = (0, 0, 0) =⇒ a1 = a2 = a3 = 0 entonces

a1 (1, −1, 0, 0) + a2 (0, 3, 0, 1) + a3 (0, 0, 1, 0) = (0, 0, 0) =⇒ (a1 , 3a2 − a1 , a3 , a2 ) = (0, 0, 0)


=⇒ a1 = a2 = a3 = 0

Por tanto α es una base de W.

(2) A seguir verificamos si α es un base ortogonal, respecto del producto interno usual.

h(1, −1, 0, 0), (0, 0, 1, 0)i = 0


h(1, −1, 0, 0), (0, 3, 0, 1)i = −3
h(0, 3, 0, 1), (0, 0, 1, 0)i = 0

Luego, α no es una base ortogonal, ası́ que la ortogonalizamos vı́a G-S.

v1′ = (1, −1, 0, 0)


v2′ = (0, 0, 1, 0)
h(0, 3, 0, 1), (0, 0, 1, 0)i h(0, 3, 0, 1), (1, −1, 0, 0)i
v3′ = (0, 3, 0, 1) − (0, 0, 1, 0) − (1, −1, 0, 0)
h(0, 0, 1, 0), (0, 0, 1, 0)i h(1, −1, 0, 0), (1, −1, 0, 0)i
3
= (0, 3, 0, 1) + (1, −1, 0, 0)
 2
3 3
= , , 0, 1
2 2

Ası́ obtenemos la base ortogonal α′ = {(1, −1, 0, 0), (0, 0, 1, 0), (3, 3, 0, 2)}.

(3) Finalmente procedemos a calcular la proyección ortogonal de R4 sobre W . Es decir


PW : R4 7−→ W tal que (a, b, c, d) ∈ R4 7−→ PW (a, b, c, d) ∈ W
Profesor Ricardo Santander Baeza 2010 19

h(a, b, c, d), (1, −1, 0, 0)i h(a, b, c, d), (0, 0, 1, 0)i


PW (a, b, c, d) = (1, −1, 0, 0) + (0, 0, 1, 0) +
h(1, −1, 0, 0), (1, −1, 0, 0)i h(0, 0, 1, 0), (0, 0, 1, 0)i
h(a, b, c, d), (3, 3, 0, 2)i
(3, 3, 0, 2)
h(3, 3, 0, 2), (3, 3, 0, 2)i
   
a−b 3a + 3b + 2d
= (1, −1, 0, 0) + c(0, 0, 1, 0) + (3, 3, 0, 2)
2 22
 
a − b 9a + 9b + 6d b − a 9a + 9b + 6d 3a + 3b + 2d
= + , + , c,
2 22 2 22 11
 
11a − 11b + 9a + 9b + 6d 11b − 11a + 9a + 9b + 6d 3a + 3b + 2d
= , , c,
22 22 11
 
20a − 2b + 6d 20b − 2a + 6d 3a + 3b + 2d
= , , c,
22 22 11
 
10a − b + 3d 10b − a + 3d 3a + 3b + 2d
= , , c,
11 11 11
Observación 3.2. Una técnica que nos ha dado buenos dividendos es que cada proceso que hacemos, dentro
de lo posible, lo comprobamos a fin de asegurar la calidad y eficiencia del mismo, en este caso aún no tenemos
mecanismos de control, pero procedamos a formalizarlos.
Teorema 3.3. Sean V un K-espacio vectorial con producto interno, W ≤ V y α = {w1 , w2 , . . . , ss }, una
base ortogonal de W entonces

PW (w) = w ⇐⇒ w ∈ W
En efecto
(1) En primer lugar, w = PW (w) =⇒ w ∈ W. Pues, Img(W) ⊂ W

(2) En segundo lugar, w ∈ W entonces como α = {w1 , w2 , . . . , ws }, una base ortogonal de W sigue que
s
X hw, wi i
w = wi = PW (w)
kwi k2
i=1

En particular, PW es una función sobreyectiva.

Corolario 3.3.1. Sean V un K-espacio vectorial con producto interno, W ≤ V y α = {w1 , w2 , . . . , ss }, una
base ortogonal de W entonces PW ◦ PW = PW .
En efecto

(PW ◦ PW )(v) = PW (PW (v)) = PW (v). Pues PW (v) ∈ W (∀v; v ∈ V).


Por tanto, PW ◦ PW = PW .
Ahora tenemos mecanismos de control para nuestro trabajo, y lo podemos probar en el Ejemplo 3.1.1. La
proyección ortogonal que obtuvimos fue la siguiente:
 
10a − b + 3d 10b − a + 3d 3a + 3b + 2d
PW (a, b, c, d) = , , c,
11 11 11
Si evaluamos entonces PW en elementos de W, este debe comportarse como la función identidad, es decir
debe devolver el mismo elemento.
20 Profesor Ricardo Santander Baeza 2010

 
11 −11 0
PW (1, −1, 0, 0) = , , 0, = (1, −1, 0, 0) X( OK)
11 11 11
 
0 0 0
PW (0, 0, 1, 0) = , , 1, = (0, 0, 1, 0) X( OK)
11 11 11
 
33 33 22
PW (3, 3, 0, 2) = , , 0, = (3, 3, 0, 2) X( OK)
11 11 11
Finalmente, Si volvemos a remirar el cuadro (10) entonces observamos que hemos resuelto dos de los tres
problemas planteados en él, en efecto, construimos el proceso de ortogonalización de Gram Schmidt, que
esencialmente ”consiste en controlar la sombra que un vector proyecta en un subespacio del espacio, es decir
un vector anula a otro si su proyección en el es nula,” y ahora el de la proyección del espacio en uno de
sus subespacios, pero aún falta desarrollar la idea de distancia de un vector a un subespacio,en realidad
debemos generalizar la idea de distancia entre vectores.
Para ello, reformulemos el cuadro (17)

Etapa 3. Modelo recontextualizado para Etapa 3. Modelo recontextualizado para


proyección ortogonal proyección ortogonal y distancia

v v’ v

Distancia
(19)
W w1 W w1

0V PW (v) 0V PW (v)
w2 w2

Figura7 Figura8

Entonces usando toda la información tenemos las etapas:

Etapa 1. Del proceso de Gram Schmidt sigue que


v = v ′ + PW (v) ∧ hv ′ , PW i = 0 (20)
Etapa 2. Aplicamos el concepto de norma a la ecuación definida en (20), para iniciar la construcción natural
de una distancia.

v ′ = v − PW (v) =⇒ kv ′ k = kv − PW (v)k
Esto motiva hacer la siguiente definición

Definición 3.4. Si V es un K espacio vectorial con producto interno h, i, y W ≤ V entonces kv − PW (v)k


es la distancia del vector v al subespacio W.

Usaremos la notación: d(v, W) = kv − PW (v)k


Profesor Ricardo Santander Baeza 2010 21

Ejemplo 3.4.1. Si W = {(x, y, t, z) ∈ R4 | x + y − 3z = 0} entonces usando el producto interno usual


determinemos d((x, y, z, t), W). Conocemos del Ejemplo 3.1.1 PW . Ası́ que

 
10x − y + 3t 10y − x + 3t 3x + 3y + 2t
k(x, y, z, t) − PW (x, y, z, t)k = (x, y, z, t) − , , z,
11 11 11
 
11x − 10x + y − 3t 11y − 10y + x − 3t 11t − 3x − 3y − 2t
= , , 0,
11 11 11

x + y − 3t y + x − 3t 9t − 3x − 3y
= , , 0,
11 11 11

x + y − 3t y + x − 3t −3(x + y − 3t)
= , , 0,
11 11 11
Luego,
v !
u 
u x + y − 3t 2  y + x − 3t 2  −3(x + y − 3t) 2
d((x, y, z, t), W ) = t + +
11 11 11
v
u 
u x + y − 3t 2  y + x − 3t 2  2 !
(x + y − 3t)
= t + +9
11 11 11
s  
x + y − 3t 2
= 11
11

Podemos como antes, en base a nuestras propiedades, comprobar nuestro resultado:


s  2
1−1−0
d((1, −1, 0, 0), W ) = 11 =0
11

Observación 3.5. Con las propiedades obtenidas para la proyección ortogonal, la distancia obtenida hereda
naturalmente las siguientes propiedades:
(1) d(v, W) ≥ 0 ∧ d(v, W) = 0 ⇐⇒ PW (v) = v

(2) PW (v) = v ⇐⇒ v ∈ W

(3) d(v, W) = 0 ⇐⇒ v ∈ W

4. Complemento Ortogonal
En esta sección estaremos interesados en emular el genial comportamiento del plano cartesiano, es decir
queremos generalizar la idea

R2 = h{(1, 0)}i ⊕ h{(0, 1)}i


| {z } | {z }
Eje x Eje y

Definición 4.1. Sea V un K espacio con producto interno h, i, y consideremos u ∈ V y v ∈ V . u se dirá


ortogonal a v si y sólo si hu, vi = 0.

Una notación adecuada para este contexto es: u ⊥ v ⇐⇒ hu, vi = 0


22 Profesor Ricardo Santander Baeza 2010

Lema 4.1.1. Sea V un K espacio con producto interno h, i, y W un subespacio de V entonces


W⊥ = {v ∈ V | hv, wi = 0 (∀w; w ∈ W)}
es un subespacio de V .
En efecto

En primer lugar h0V , wi = 0 (∀w; w ∈ W ). Ası́ que, 0v ∈ W⊥

En segundo lugar, Si u ∈ W⊥ ∧ v ∈ W⊥ entonces



u ∈ W⊥ ⇐⇒ hu, wi = 0 (∀w; w ∈ W)
⇒ hu + v, wi = hu, wi + hv, wi = 0(∀w; w ∈ W)
v ∈ W⊥ ⇐⇒ hv, wi = 0 (∀w; w ∈ W)
Ası́ que u + v ∈ W⊥

Finalmente,para λ ∈ K ∧ v ∈ W⊥ : hλv, wi = λhv, wi = λ0 = 0 (∀w; w ∈ W)

Luego, λv ∈ W⊥ y W⊥ es un subespacio de V.

Definición 4.2. W⊥ será llamado ” Complemento Ortogonal ” de W en (V, h, i).

Ejemplo 4.2.1. Sea W = {(x, y, z) ∈ R3 | x − y + z = 0} y consideremos el producto interno canónico en


R3 entonces
w ∈ W ⇐⇒ w = (x, y, z) ∈ R3 ∧ x − y + z = 0
⇐⇒ w = (x, y, z) ∈ R3 ∧ z = −x − y
⇐⇒ w = (x, y, −x − y) ∧ [x ∈ R ∧ y ∈ R]
⇐⇒ w = x(1, 0, −1) + y(0, 1, −1) ∧ [x ∈ R ∧ y ∈ R]
⇐⇒ w ∈ h{(1, 0, −1), (0, 1, −1)}i
Luego, W = h{(1, 0, −1), (0, 1, −1)}i. Ası́ que en consecuencia

W⊥ = {v ∈ R3 | hv, (1, 0, −1)i = 0 ∧ hv, (0, 1, −1)i = 0}


Y por tanto
v ∈ W⊥ ⇐⇒ v ∈ R3 ∧ hv, wi = 0 (∀w; w ∈ W)
3
⇐⇒ v = (x, y, z) ∈ R ∧ [h(x, y, z), (1, 0, −1)i = 0 ∧
h(x, y, z), (0, 1, −1)i = 0]
⇐⇒ v = (x, y, z) ∈ R3 ∧ [x − z = 0 ∧ y − z = 0]
⇐⇒ v = (x, y, z) ∈ R3 ∧ x = y = z
⇐⇒ v = (x, x, x) ∧ x ∈ R
⇐⇒ v = x(1, 1, 1) ∧ x ∈ R
⇐⇒ v ∈ h{(1, 1, 1)}i

Ası́, W⊥ = h{(1, 1, 1)}i


Lema 4.3. Sea V un K espacio vectorial con producto interno y α = {v1 , v2 , . . . , vn } ⊂ (V − {0V }) entonces
vi ⊥ vj i 6= j =⇒ α es un conjunto linealmente independiente en V
En efecto
Profesor Ricardo Santander Baeza 2010 23

n
X
Supongamos que aj vj = 0 para aj ∈ K; (1 ≤ j ≤ n) entonces como ahora podemos multiplicar por vk , y
j=1
obtenemos:
* n + n
X X
0 = aj vj , vk = aj hvj , vk i (1 ≤ k ≤ n) = ak hvk , vk i, (Pues, vi ⊥ vj i 6= j)
j=1 j=1

Finalmente, como vk 6= 0 =⇒ hvk , vk i =


6 0 Ası́, que ak = 0 (1 ≤ k ≤ n). Lo que muestra que α es un
conjunto linealmente independiente en V .
Conclusión 4.4. Antes de plantear algunos ejercicios, saludables para la comprensión de lo expuesto,
quisiera concluir esta sección con algunas reflexiones según mi parecer de importancia capital.

Reflexión 1

El modelamiento en el plano cartesiano R2 , es fácil de hacer y de entender. Pues su ”arquitectura” consiste


apenas de un par de ejes perpendiculares y todas las traslaciones son inducidas justamente de esa forma.

y(0, 1) (x, y) = x(1, 0) + y(0, 1)

(0, 0) x(1, 0)

Figura9

En fin, todo el mundo entiende la expresión geométrica expuesta encima y por si fuera poco también la
teórica:
(x, y) = x(1, 0) + y(0, 1) (21)
Reflexión 2

La simpleza de R2 radica en la posibilidad de construir la siguiente figura.

(Eje x)⊥

(x, y)

d(x, y)

Eje x
(0, 0) PEje x

Figura 10

Ası́ que quien simule esa ecuación geométrica es un R2 en potencia.


24 Profesor Ricardo Santander Baeza 2010

Reflexión 3

Sea V un K espacio vectorial de dimensión n. Si V posee un producto interno entonces V ”emula” el com-
portamiento de K2

En efecto

El algoritmo de simulación es el siguiente:

Sea W un subespacio de V y α = {w1 , w2 , . . . , ws } una base ortogonal de W entonces calculamos W⊥ , como


sigue:
• Completamos α hasta obtener una base de V, usando el teorema de completamiento de base o mejor,
agregando vectores linealmente independientes a los wi con i = 1, . . . , s hasta llegar a la la dimensión
n de V; digamos

β = {w1 , w2 , . . . , ws , vs+1 , . . . , vn }

• Usando el proceso de Gram Schmidt ortogonalizamos β y obtenemos

α′ = {w1 , w2 , . . . , ws , ws+1

, . . . , wn⊥ } (22)

De la propia construcción de α′ en (22),sigue que vale la ecuación


(
i = s + 1, s + 2, . . . , n
hwi⊥ , wj i = 0 si
j = 1, 2 . . . , s

s
X hw, wi i
Ası́ que, para cualquier w = wi tenemos que
||wi ||2
i=1

s
X s
X
hw, wi i hw, wi i
hwj⊥ , wi = hwj⊥ , wi i = hwj⊥ , wi i = 0
||wi ||2 ||wi ||2
i=1 i=1

⊥ , . . . , w ⊥ } ⊂ W ⊥ , ası́ que por construcción


Luego, {ws+1 n


h{ws+1 , . . . , wn⊥ }i = W⊥

Finalmente
M
V=W W⊥

En realidad falta mostrar que W ∩ W⊥ = {0V }.

Pero eso es claro pues:

v ∈ W ∩ W⊥ ⇐⇒ v ∈ W ∧ v ∈ W⊥
⇐⇒ v ∈ W ∧ hv, wi = 0 (∀w; w ∈ W)
⇐⇒ v ∈ W ∧ hv, vi = 0
⇐⇒ v = 0V

La visión geométrica de la emulación es:


Profesor Ricardo Santander Baeza 2010 25

W⊥

v = w + w⊥

Figura 11: V = W ⊕ W⊥

5. Ejercicios Propuestos Misceláneos de Producto Interno


(1) En R2 × R2 , define la función:
f ((x1 , x2 ), (y1 , y2 )) = x1 y1 + x1 y2 + x2 y1 + x2 y2 (23)
Demuestre que f es un producto interno.

(2) A partir de la base canónica c(2) = {(1, 0), (0, 1)} de R2 , determine una base ortogonal c(2)′ , respecto
del producto interno definido en (23)

(3) Si α = {(1, 2), (2, 1)} ⊂ R2 entonces

(a) Demuestre que α es una base de R2 .


(b) A partir de la base α, determine una base ortogonal α′ , respecto del producto interno usual.
(c) A partir de la base α, determine una base ortogonal α′ , respecto del producto interno definido en
(23)

(4) Determine una base ortogonal, respecto del producto interno usual,para el subespacio.
W = {(x, y, z) ∈ R3 | x + y + z = 0}
(5) Si W = {(x, y, z) ∈ R3 | x + y + z = 0} entonces usando el producto interno usual

(a) Determine W ⊥
(b) Calcule d((1, 1, 1), W )
(c) Demuestre que R3 = W ⊕ W ⊥

(6) Si W = {(x, y, z, t) ∈ R4 | 2x + y + z − t = 0} entonces usando el producto interno usual

(a) Determine W ⊥
(b) Calcule d((1, 1, 0, 0), W )
(c) Demuestre que R4 = W ⊕ W ⊥
26 Profesor Ricardo Santander Baeza 2010

(7) Si W = {(x, y, t, z) ∈ R4 | x − y = 0 ∧ 2t + z = 0} entonces usando el producto interno usual

(a) Determine W ⊥
(b) Calcule d((2, 2, 3, −6), W )
(c) Demuestre que R4 = W ⊕ W ⊥

(8) En el espacio de funciones C[−π, π] = {f : [−π, π] 7−→ R | f continua}. Define el producto.


Z π
hf, gi = f (x)g(x) dx (24)
−π
(a) Demuestre que (24), es un producto interno en C[−π, π]
(b) Demuestre que f (n) = {1, sen x, cos x, sen 2x, cos 2x, sen 3x, cos 3x, . . . , sen nx, cos nx} es un con-
junto ortogonal en C[−π, π].
(c) Si W (n) = h{1, sen x, cos x, sen 2x, cos 2x, sen 3x, cos 3x, . . . , sen nx, cos nx}i calcule:

(i) PW (f ) si f (x) = x pi < x < π


(
1 : si pi < x < 0
(ii) PW (f ) si f (x) =
−1 : si 0 < x < π
(iii) d(f, W ), si f (x) = x

(9) En MR (2) define el producto.


hA, Bi = tr(B t · A) (25)
(a) Demuestre que (25), es un producto interno en MR (2).

(b) Si W = {A ∈ MR (2) | A = At } entonces determine una base ortogonal de W, respecto del producto
definido en (25)
(c) Determine
 PW 
1 1
(d) Si A = entonces calcule d(A, W )
1 1
Profesor Ricardo Santander Baeza 2010 27

6. Situaciones de Desempeño: Producto Interno


6.1. El objetivo de esta sección es presentar al Estudiante ”Situaciones Problemáticas” que
le permitan:

(♣) Estimular la comprensión de lectura en problemas matemáticos.

(♣) Clasificar después de leer el problema, entre información y resultado pedido.

(♣) Estimular el uso de una sintaxis adecuada en la resolución de problemas que envuelven conceptos
matemáticos.

(♣) Aprender a generar un algoritmo eficaz (ojalá eficiente), para responder al problema planteado.

(♣) Verificar el estado de aprendizaje de los contenidos especı́ficamente relacionados con las propiedades
básicas que debe conocer, y ”en lo posible haber aprehendido” de los tópicos analizados.

6.2. Algunas sugerencias para enfrentar las situaciones problemáticas son las siguientes:

(⋆) Lea cuidadosamente el problema.

(⋆) Reconozca lo que es información (dato), de lo que es ”incognita”, o lo que a usted se le consulta.

(⋆) Trate de entender en la forma más clara para usted, lo que se le pide, en particular si puede usar
”sinónimos matemáticos”, que le permitan facilitar su respuesta, cuanto mejor!!! Este acto nunca esta
de más.

(⋆) Analice sus datos extrayendo la información que corresponde, orientado por su entendimiento de lo que
debe probar.

6.3. Situaciones de Desempeño Propuestas:


(1) Si W = {(x, y, z, t) ∈ R4 | x − 2y + z − 2t = 0} ≤ R4 entonces

(a) Determine, una base ortogonal respecto del producto usual para el subespacio W
(b) Determine W⊥

(2) Sea V un K espacio vectorial con producto interno h, i de dimensión n.

(a) Demuestre que hu, vi = 0K (∀v, v ∈ V) =⇒ u = 0V


(b) Demuestre que hu − v, wi = 0V (∀w, w ∈ V) =⇒ u = v

(3) Considere el subespacio W = {(x, y, z, t) ∈ R4 | x + y + z + t = 0} entonces usando el producto interno


usual de R4 , determine PW .

(4) Sea V un K espacio vectorial con producto interno h, i de dimensión n, y W ≤ V.


Demuestre que PW inyectiva =⇒ V = W

(5) Sea W = {(x, y, z) ∈ R3 | x − y = 0 ∧ z − 1 = 0} ⊂ R3 entonces usando el producto interno usual de R3

(a) Determine W⊥
28 Profesor Ricardo Santander Baeza 2010

(b) ¿ Es R3 = W ⊕ W⊥ ?

(6) Considere en el espacio vectorial MR (2) el producto interno. hA, Bi = T r(B t A), y el subespacio
W = {A ∈ MR(2) | A = At }. Determine una base ortonormal de W.

(7) Si (V, h, i) es un R - espacio vectorial entonces demuestre que


1
hu, vi = [ku + vk2 − ku − vk2 ]
4
(8) Si W = {(1, 1, 1, 1), (1, 0, 0, 1)} ⊂ R4 entonces usando el producto interno usual.

(a) Determine W⊥
(b) Es posible que R4 = W ⊕ W⊥ . Si su respuesta es afirmativa demuestre la afirmación, si es falsa
de un contraejemplo.
(9) En el espacio vectorial R2 [x] define para cada p(x) ∈ R2 [x] y q(x) ∈ R2 [x] el producto interno

hp(x), q(x)i = p(0) · q(0) + p(1) · q(1) + p(2) · q(2) (∗)


(a) Sea α = {1, 1 − x, 1 − x2 }
base de R2 [x].
Determine una base ortogonal respecto del producto
interno definido en (∗)
(b) Si W = {p(x) = a0 + a1 x + a2 x2 ∈ R2 [x] | a0 = 0}. Determine W⊥ respecto del producto interno
definido en (26)
(c) Es posible que R2 [x] = W ⊕ W⊥ . Si su respuesta es afirmativa demuestre la afirmación, si es falsa
de un contraejemplo.

(10) Sea (V, h, i) un K espacio vectorial de dimensión n, y α = {v1 , . . . , vn } ⊂ (V − {0V }). Demuestre que
α conjunto ortogonal respecto de h, i =⇒ α conjunto linealmente independiente en V
(11) En R2 [x] el espacio de polinomios hasta grado 2, considere el producto interno
Z 1
hp(x), q(x)i = p(x) · q(x) dx (∗)
−1
(a) Determine una base ortonormal respecto del producto interno definido en (∗) a partir de la base
canónica pol(2) = {1, x, x2 }
(b) Si W = h{1}i entonces determine W⊥

(12) Sea V, h, i un K espacio vectorial tal que dimK (V) = n y sea α = {u1 , u2 , . . . , un } una base de V. Si
α′ = {u′1 , u′2 , . . . , u′n } es una base ortogonal respecto del producto interno h, i obtenida de la base α.
Demuestre que
α Base ortogonal ⇐⇒ α = α′
(13) Sea V, h, i un K espacio vectorial tal que dimK (V) = n, y W ≤ V. Demuestre que

W⊥ = {0V } ⇐⇒ W = V
Profesor Ricardo Santander Baeza 2010 29

7. Solución de Situaciones de Desempeño: Producto Interno


(1) Si W = {(x, y, z, t) ∈ R4 | x − 2y + z − 2t = 0} ≤ R4 entonces

(a) Determinemos en primer lugar, una base ortogonal respecto del producto usual para el subespacio
W.

u ∈ W ⇐⇒ u = (x, y, z, t) ∈ R4 ∧ x − 2y + z − 2t = 0
⇐⇒ u = (x, y, z, t) ∈ R4 ∧ x = 2y − z + 2t
⇐⇒ u = (2y − z + 2t, y, z, t)
⇐⇒ u = y(2, 1, 0, 0) + z(−1, 0, 1, 0) + t(2, 0, 0, 1)
⇐⇒ u ∈ h{(2, 1, 0, 0), (−1, 0, 1, 0), (2, 0, 0, 1)}i

Ası́ que
W = h{(2, 1, 0, 0), (−1, 0, 1, 0), (2, 0, 0, 1)}i
Por otra parte, α = {(2, 1, 0, 0), (−1, 0, 1, 0), (2, 0, 0, 1)} es linealmente independiente, porque

a1 (2, 1, 0, 0) + a2 (−1, 0, 1, 0) + a3 (2, 0, 0, 1) = 0R4 =⇒ (2a1 − a2 + 2a3 , a1 , a2 , a3 ) = (0, 0, 0, 0)


=⇒ a1 = a2 = a3 = 0

Luego, α es linealmente independiente, y por ende, es una base de W.

Ahora ortogonalizamos α utilizando el proceso de Gram-Schmidt.

v1′ = (2, 1, 0, 0)
h(−1, 0, 1, 0), (2, 1, 0, 0)i
v2′ = (−1, 0, 1, 0) − (2, 1, 0, 0)
h(2, 1, 0, 0), (2, 1, 0, 0)i
−2
= (−1, 0, 1, 0) − (2, 1, 0, 0)
5
2
= (−1, 0, 1, 0) + (2, 1, 0, 0)
5
−1 2
= ( , , 1, 0)
5 5
2
h(2, 0, 0, 1), ( −2
5 , 5 , 1, 0)i −1 2 h(2, 0, 0, 1), (2, 1, 0, 0)i
v3′ = (2, 0, 0, 1) − −1 2 −1 2 ( , , 1, 0) − (2, 1, 0, 0)
h( 5 , 5 , 1, 0), ( 5 , 5 , 1, 0)i 5 5 h(2, 1, 0, 0), (2, 1, 0, 0)i
− 25 −1 2 h(2, 0, 0, 1), (2, 1, 0, 0)i
= (2, 0, 0, 1) − 6 ( 5 , 5 , 1, 0) − (2, 1, 0, 0)
5
h(2, 1, 0, 0), (2, 1, 0, 0)i
 
1 1 2 4
= (2, 0, 0, 1) + − , , 1, 0 − (2, 1, 0, 0).....
3 5 5 5

Luego, α′ = {v1′ , v2′ , v3′ }, es una base ortogonal

Determine W⊥

Solución
30 Profesor Ricardo Santander Baeza 2010

u ∈ W⊥ ⇐⇒ u = (x, y, z, t) ∈ R4 ∧ hu, wi = 0 (∀w; w ∈ W)


4
⇐⇒ u = (x, y, z, t) ∈ R ∧ h(x, y, z, t), (2, 0, 0, 1)i = 0 ∧ h(x, y, z, t), (−1, 0, 1, 0)i = 0 ∧
h(x, y, z, t), (2, 1, 0, 0)i = 0
⇐⇒ u = (x, y, z, t) ∈ R4 ∧ 2x + t = 0 ∧ z − x = 0 ∧ 2x + y = 0
⇐⇒ u = (x, y, z, t) ∧ t = −2x ∧ z = x ∧ y = −2x
⇐⇒ u = (x, −2x, x, −2x)
⇐⇒ W⊥ = h{(1, −2, 1, −2)}i

(2) Sea V un K espacio vectorial con producto interno h, i de dimensión n.

(a) Demuestre que hu, vi = 0K (∀v, v ∈ V) =⇒ u = 0V

Solución

hu, vi = 0V (∀v, v ∈ V) =⇒ hu, ui = 0V


=⇒ u = 0V

(b) Demuestre que hu − v, wi = 0V (∀w, w ∈ V) =⇒ u = v

Solución

Por el item anterior. u − v = 0V =⇒ u = v

(3) Considere el subespacio W = {(x, y, z, t) ∈ R4 | x + y + z + t = 0} entonces usando el producto interno


usual de R4 , determine PW .

Solución

Etapa 1. Determinamos una base ortogonal de W

u ∈ W ⇐⇒ u = (x, y, z, t) ∈ R4 ∧ x + y + z + t = 0
⇐⇒ u = (x, y, z, t) ∈ R4 ∧ t = −x − y − z
⇐⇒ u = (x, y, z, −x − y − z); (x, y, z) ∈ R3
⇐⇒ u = x(1, 0, 0, −1) + y(0, 1, 0, −1) + z(0, 0, 1, −1); (x, y, z) ∈ R3

Luego,

W = h{(1, 0, 0, −1), (0, 1, 0, −1), (0, 0, 1, −1)}i

Si α = {(1, 0, 0, −1), (0, 1, 0, −1), (0, 0, 1, −1)} entonces α es una base de W, pues son claramente Lin-
ealmente independientes.

Ahora, ortogonalizamos, porque α no es base ortogonal.


Profesor Ricardo Santander Baeza 2010 31

v1′ = (1, 0, 0, −1)


h(0, 1, 0, −1), (1, 0, 0, −1)i
v2′ = (0, 1, 0, −1) − (1, 0, 0, −1)
h(1, 0, 0, −1), (1, 0, 0, −1)i

1
= (0, 1, 0, −1) − (1, 0, 0, −1)
2
 
1 1
= − , 1, 0, − tomaremos v2′ = (−1, 2, 0, −1)
2 2

h(0, 0, 1, −1), (−1, 2, 0, −1)i


v3′ = (0, 0, 1, −1) − (−1, 2, 0, −1)−
h(−1, 2, 0, −1), (−1, 2, 0, −1)i

h(0, 0, 1, −1), (1, 0, 0, −1)i


(1, 0, 0, −1)
h(1, 0, 0, −1), (1, 0, 0, −1)i

1 1
= (0, 0, 1, −1) − (−1, 2, 0, −1) − (1, 0, 0, −1)
6 2
 
1 1 1
= − , − , 1, −
3 3 3
Luego

α′ = {(1, 0, 0, −1), (−1, 2, 0, −1), (−1, −1, 3, −1)} es una base ortogonal de W

Ahora definimos la proyección ortogonal

h(x, y, z, t), (1, 0, 0, −1)i h(x, y, z, t), ((−1, 2, 0, −1))i


PW (x, y, z, t) = (1, 0, 0, −1) + (−1, 2, 0, −1) +
h(1, 0, 0, −1), (1, 0, 0, −1)i h(−1, 2, 0, −1), (−1, 2, 0, −1)i
h(x, y, z, t), (−1, −1, 3, −1)i
(−1, −1, 3, −1)
h(−1, −1, 3, −1), (−1, −1, 3, −1)i
(x − t) (2y − x − t) (3z − x − y − t)
= (1, 0, 0, −1) + (−1, 2, 0, −1) + (−1, −1, 3, −1)
2 6 12

Podemos comprobar directamente que

PW (1, 0, 0, −1) = (1, 0, 0, −1)


PW (−1, 2, 0, 1) = (−1, 2, 0, 1)
PW (−1, −1, 3, 1) = (−1, −1, 3, 1)

(4) Sea V un K espacio vectorial con producto interno h, i de dimensión n, y W ≤ V.

Demuestre que PW inyectiva =⇒ V = W

Solución
32 Profesor Ricardo Santander Baeza 2010

Sabemos que W ≤ V, ası́ que en particular W ⊂ V.

Recı́procamente, si u ∈ V entonces PW (u) = w0 ∈ W. Por otra parte, como w0 ∈ W entonces


PW (w0 ) = w0 . Ası́ que juntando la información obtenemos que

u ∈ V =⇒ PW (u) = w0 ∈ W =⇒ PW (u) = PW (w0 ) =⇒ u = w0 ∈ W =⇒ V ⊂ W


Por tanto V = W.

(5) Sea W = {(x, y, z) ∈ R3 | x − y = 0 ∧ z − 1 = 0} ⊂ R3 entonces usando el producto interno usual de R3

(a) Determine W⊥

Solución

Etapa 1. Determinamos el conjunto W.


w ∈ W ⇐⇒ w = (a, b, c) ∈ R3 ∧ a − b = 0 ∧ c − 1 = 0
⇐⇒ w = (a, b, c) ∈ R3 ∧ a = b ∧ c = 1
⇐⇒ w = (a, a, 1); a ∈ R (∗)
Ası́ que W = {(a, a, 1) | a ∈ R}

Etapa 2. Ahora, determinamos el subespacio W⊥ .


u ∈ W⊥ ⇐⇒ u ∈ R3 ∧ hu, wi = 0 (∀w; w ∈ W)
⇐⇒ u = (x, y, z) ∈ R3 ∧ h(x, y, z), (b, b, 1)i = 0 (∀b; b ∈ R) (Usando (∗))
3
⇐⇒ u = (x, y, z) ∈ R ∧ bx + by + z = 0
⇐⇒ u = (x, y, z) ∈ R3 ∧ z = −bx − by
⇐⇒ u = (x, y, −bx − by)(∀b; b ∈ R)
Finalmente,
h(x, y, −bx − by), (a, a, 1)i = 0 (∀a; a ∈ R) ⇐⇒ ax + ay − bx − by = 0
⇐⇒ (a − b)(x + y) = 0
⇐⇒ (x + y) = 0
⇐⇒ y = −x
Por tanto

u ∈ W⊥ ⇐⇒ u = x(1, −1, 0) x∈R


Ası́ que W⊥ = h{(1, −1, 0}i

(b) ¿ Es R3 = W ⊕ W⊥ ?

Solución

No es posible, pues W no es un subespacio.

(6) Considere en el espacio vectorial MR (2) el producto interno. hA, Bi = T r(B t A), y el subespacio
W = {A ∈ MR(2) | A = At }. Determine una base ortonormal de W.
Profesor Ricardo Santander Baeza 2010 33

Solución

Etapa 1. Determinamos una base de W

A ∈ W ⇐⇒ A ∈ MR(2) ∧ A = At
     t
a b a b a b
⇐⇒ A = ∧ =
c d c d c d
     
a b a b a c
⇐⇒ A = ∧ =
c d c d b d
 
a b
⇐⇒ A = ∧ b=c
c d
 
a b
⇐⇒ A = ; (a, b, d) ∈ R3
b d
     
a 0 0 b 0 0
⇐⇒ A = + +
0 0 b 0 0 d
     
1 0 0 1 0 0
⇐⇒ A = a +b +d
0 0 1 0 0 1
     
1 0 0 1 0 0
Ası́ que W = , ,
0 0 1 0 0 1
     
1 0 0 1 0 0
Ahora, si llamamos α = , , entonces α es una base de W.
0 0 1 0 0 1
En efecto

           
1 0 0 1 0 0 0 0 a b 0 0
a +b +d = =⇒ = =⇒ a = b = d = 0
0 0 1 0 0 1 0 0 b d 0 0

Ası́ que α, genera y es un conjunto linealmente independiente por tanto es una base.

Etapa 2. Verificamos si α es o no una base ortogonal


      
1 0 0 1 0 1 1 0
, = Tr
0 0 1 0 1 0 0 0
 
0 0
= Tr
1 0
= 0

      
1 0 0 0 0 0 1 0
, = Tr
0 0 0 1 0 1 0 0
 
0 0
= Tr
0 0
= 0
34 Profesor Ricardo Santander Baeza 2010
      
0 1 0 0 0 0 0 1
, = Tr
1 0 0 1 0 1 1 0
 
0 0
= Tr
1 0
= 0

Luego, α es una base ortogonal

Etapa 3. Verificamos si α es una base ortonormal

      
1 0 1 0 1 0 1 0
, = Tr
0 0 0 0 0 0 0 0
 
1 0
= Tr
0 0
= 1

Como,
  s     
1 0 1 0 1 0 1 0
= , =⇒
0 0 0 0 0 0 0 0 =1

      
0 1 0 1 0 1 0 1
, = Tr
1 0 1 0 1 0 1 0
 
1 0
= Tr
0 1
= 2

Como,
  s     
0 1 0 1 0 1 1 0 √
= ,
=⇒ = 2
1 0 1 0 1 0 0 1
Análogamente,

      
0 0 0 0 0 0 0 0
, = Tr
0 1 0 1 0 1 0 1
 
0 0
= Tr
0 1
= 1

Como,
  s     
0 0 0 0 0 0 0 0
= , =⇒
0 1 0 1 0 1 0 1 =1

Finalmente, una base ortonormal es:


Profesor Ricardo Santander Baeza 2010 35

  1   

  0 √ 

1 0  2  0 0
α′ = , 1 , 0 1

 0 0 √ 0 

2

(7) Si (V, h, i) es un R - espacio vectorial entonces demuestre que

1
hu, vi = [ku + vk2 − ku − vk2 ]
4
Solución

1 1
[ku + vk2 − ku − vk2 ] = [hu + v, u + vi − hu − v, u − vi]
4 4
1
= [hu, ui + hu, vi + hv, ui + hv, vi − (hu, ui − hu, vi − hv, ui + hv, vi)]
4
1
= [4hu, vi]
4
= hu, vi
(8) Si W = {(1, 1, 1, 1), (1, 0, 0, 1)} ⊂ R4 entonces usando el producto interno usual.

(a) Determine W⊥

Solución

u ∈ W⊥ ⇐⇒ u ∈ R4 ∧ [hu, (1, 1, 1, 1)i = 0 ∧ hu, (1, 0, 0, 1)i = 0]


⇐⇒ u = (x, y, z, t) ∈ R4 ∧ [h(x, y, z, t), (1, 1, 1, 1)i = 0 ∧ h(x, y, z, t), (1, 0, 0, 1)i = 0]
⇐⇒ u = (x, y, z, t) ∈ R4 ∧ [x + y + z + t = 0 ∧ x + t = 0]
⇐⇒ u = (x, y, z, t) ∈ R4 ∧ [z = −y ∧ t = −x]
⇐⇒ u = (x, y, −y, −x) ∧ (x, y) ∈ R2
⇐⇒ u = x(1, 0, 0, −1) + y(0, 1, −1, 0) ∧ (x, y) ∈ R2
⇐⇒ u ∈ h{(1, 0, 0, −1), (0, 1, −1, 0)}i

Luego,

W⊥ = h{(1, 0, 0, −1), (0, 1, −1, 0)}i


Como siempre, es necesario aplicar el proceso de control, que aquı́ significa comprobar nuestro
resultado:
h(1, 1, 1, 1), (1, 0, 0, −1)i = 0
h(1, 1, 1, 1), (0, 1, −1, 0)i = 0
h(1, 0, 0, 1), (1, 0, 0, −1)i = 0
h(1, 0, 0, 1), (0, 1, −1, 0)i = 0
36 Profesor Ricardo Santander Baeza 2010

(b) Es posible que R4 = W ⊕ W⊥ . Si su respuesta es afirmativa demuestre la afirmación, si es falsa


de un contraejemplo.

Solución

No es posible pues W no es un subespacio, ya que es finito y no nulo.

(9) En el espacio vectorial R2 [x] define para cada p(x) ∈ R2 [x] y q(x) ∈ R2 [x] el producto interno

hp(x), q(x)i = p(0) · q(0) + p(1) · q(1) + p(2) · q(2) (∗)

(a) Sea α = {1, 1 − x, 1 − x2 } base de R2 [x]. Determine una base ortogonal respecto del producto
interno definido en (26)

Solución
En primer lugar verificamos la ortogonalidad de α = {1, 1 − x, 1 − x2 }.

h1, 1 − xi = 1 · (1 − 0) + 1 · (1 − 1) + 1 · (1 − 2) = 1 + 0 − 1 = 0
h1, 1 − x2 i = 1 · (1 − 02 ) + 1 · (1 − 12 ) + 1 · (1 − 22 ) = 1 + 0 − 3 = −2
h1 − x, 1 − x2 i = (1 − 0) · (1 − 02 ) + (1 − 1) · (1 − 12 ) + (1 − 2) · (1 − 22 ) = 4

Como α no es una base ortogonal entonces aplicamos Gram Schmidt para obtener α′ una base
ortogonal de R2 [x].
Sea entonces

v1′ = 1
v2′ = 1 − x
h(1 − x2 ), (1 − x)i h(1 − x2 ), 1i
v3′ = (1 − x2 ) − · (1 − x) − ·1
h(1 − x), (1 − x)i h1, 1i
4 −2
= (1 − x2 ) − · (1 − x) − ·1
h(1 − x), (1 − x)i h1, 1i
4 2
= (1 − x2 ) − · (1 − x) + · 1
2 3
2
= 1 − x2 − 2 + 2x +
3
1 2
= − + 2x − x
3

Ası́ que una base α′ ortogonal es

 
′ 1 2
α = 1, 1 − x, − + 2x − x
3
Profesor Ricardo Santander Baeza 2010 37

Para concluir, debemos aplicar el mecanismo de control


h1, 1 − xi = 0
       
1 2 1 2 1 2 1 2
1, − + 2x − x = 1· − +0−0 +1· − +2−1 +1· − +4−2
3 3 3 3
1 1 1
= − +1− −
3 3 3
  = 0  
1 2 1 1
(1 − x), − + 2x − x = 1· − +0+
3 3 3
= 0
(b) Si W = {p(x) = a0 + a1 x + a2 x2 ∈ R2 [x] | a0 = 0}. Determine W⊥ respecto del producto interno
definido en (26)

Solución
p(x) ∈ W ⇐⇒ p(x) = a0 + a1 x + a2 x2 ∈ R2 [x] ∧ a0 = 0
⇐⇒ p(x) = a1 x + a2 x2 ∧ (a1 , a2 ) ∈ R2
Luego,

W = hx, x2 i
Ahora,
q(x) ∈ W⊥ ⇐⇒ q(x) ∈ R2 [x] ∧ [hq(x), xi = 0 ∧ hq(x), x2 i = 0]
q(0) · 0 + q(1) · 1 + q(2) · 2 = 0
⇐⇒ q(x) = b0 + b1 x + b2 x2 ∈ R2 [x] ∧
q(0) · 02 + q(1) · 12 + q(2) · 22 = 0
q(1) + 2q(2) = 0
=⇒ q(x) = b0 + b1 x + b2 x2 ∈ R2 [x] ∧
q(1) + 4q(2) = 0
=⇒ q(x) = b0 + b1 x + b2 x2 ∈ R2 [x] ∧ 2q(2) = 0
=⇒ q(x) = b0 + b1 x + b2 x2 ∈ R2 [x] ∧ q(2) = q(1) = 0
=⇒ q(x) = b0 + b1 x + b2 x2 ∈ R2 [x] ∧ b0 + b1 + b2 = 0 ∧ b0 + 2b1 + 4b2 = 0
=⇒ q(x) = b0 + b1 x + b2 x2 ∈ R2 [x] ∧ b0 = 2b2 ∧ b1 = −3b2
=⇒ q(x) = 2b2 − 3b2 x + b2 x2 ∧ b2 ∈ R
Luego,
W⊥ = h{2 − 3x + x2 }i
Debemos comprobar:
h2 − 3x + x2 , xi = 0 + (2 − 3 + 1) · 1 + (2 − 6 + 4) · 2 = 0
h2 − 3x + x2 , x2 i = 0 + (2 − 3 + 1) · 12 + (2 − 6 + 4) · 4 = 0
(c) Es posible que R2 [x] = W ⊕ W⊥ . Si su respuesta es afirmativa demuestre la afirmación, si es falsa
de un contraejemplo.
Solución

como α = {x, x2 , 2 − 3x + x2 } es una base de R2 [x] entonces cualquier polinomio h(x) ∈ R2 [x] se escribe
únicamente como
h(x) = a0 x + a1 x2 + a2 (2 − 3x + x2 )
| {z } | {z }
∈W ∈W⊥
38 Profesor Ricardo Santander Baeza 2010

(10) Sea V un K e. v. de dimensión n con producto interno h, i, y sea α = {v1 , v2 , . . . , vn } ⊂ (V − {0V }).
Demuestre que

α conjunto ortogonal respecto de h, i =⇒ α conjunto linealmente independiente en V

Solución: Por demostrar que


n
X
aj vj = 0 =⇒ aj = 0 (1 ≤ j ≤ n)
j=1

En efecto
n
X
Supongamos que aj vj = 0 aj ∈ K; (1 ≤ j ≤ n) entonces como ahora podemos multiplicar, lo
j=1
hacemos e.e.
Xn
0 = h aj vj , vk i (1 ≤ k ≤ n)
j=1
n
X
= aj hvj , vk i (1 ≤ k ≤ n)
j=1
= ak hvk , vk i (recordar que vi ⊥ vj i 6= j)

Finalmente,

vk 6= 0 =⇒ hvk , vk i =
6 0

Ası́, que ak = 0 (1 ≤ k ≤ n). Lo que muestra que α es un conjunto linealmente independiente en V.

(11) En R2 [x] el espacio de polinomios hasta grado 2, considere el producto interno


Z 1
hp(x), q(x)i = p(x) · q(x) dx (∗)
−1

(a) Determine una base ortonormal respecto del producto interno definido en (∗) a partir de la base
canónica pol(2) = {1, x, x2 }

Solución

En primer lugar, verificamos la ortogonalidad de pol(2) respecto del producto definido en (∗)

Z 1
x2 1
h1, xi = x dx = | =0
−1 2 −1
Z 1
x3 1 2
h1, x2 i = x2 dx = |−1 =
−1 3 3
Z 1
x4 1
hx, x2 i = x3 dx = | =0
−1 4 −1

Luego, pol(2) no es una base ortogonal, ası́ que aplicamos G-S. Sea
Profesor Ricardo Santander Baeza 2010 39

u′1 = 1
u′2 = x
2
hx2 , xi hx2 , 1i 1
u′3 = x2 − x− · 1 = x2 − 3 · 1 = x2 −
hx, xi h1, 1i 2 3

Luego,
 
′ 2 1
pol(2) = 1, x, x −
3
Es una base ortogonal de R2 [x] pues,
Z 1
x2 1
h1, xi = | =0
x dx =
−1 2 −1
  Z 1 Z
2 1 2 1 1 2 2
1, x − = x dx − dx = − = 0
3 −1 3 −1 3 3
  Z 1 Z 1
1 1
x, x2 − = x3 dx − x dx = 0
3 −1 3 −1

Finalmente, basta dividir por la norma para , obtener una base ortonormal de R2 [x]

(b) Si W = h{1}i entonces determine W⊥

Solución

p(x) ∈ W⊥ ⇐⇒ p(x) ∈ R2 [x] ∧ hp(x), 1i = 0


⇐⇒ p(x) = a0 + a1 x + a2 x2 ∧ ha0 + a1 x + a2 x2 , 1i = 0
Z 1
2
⇐⇒ p(x) = a0 + a1 x + a2 x ∧ (a0 + a1 x + a2 x2 ) dx = 0
−1
 Z 1 Z 1 Z 1 
2 2
⇐⇒ p(x) = a0 + a1 x + a2 x ∧ a0 dx + a1 x dx = 0 + a2 x dx =0
−1 −1 −1
 
2
⇐⇒ p(x) = a0 + a1 x + a2 x2 ∧ 2a0 + a2 = 0
3
⇐⇒ p(x) = a0 + a1 x + a2 x2 ∧ a2 = −3a0
⇐⇒ p(x) = a0 + a1 x − 3a0 x2 ∧ (a0 , a1 ) ∈ R2
⇐⇒ p(x) = a0 (1 − 3x2 ) + a1 x
Luego,


W⊥ = {(1 − 3x2 ), x}

(12) Sea V, h, i un K espacio vectorial tal que dimK (V) = n y sea α = {u1 , u2 , . . . , un } una base de V. Si
α′ = {u′1 , u′2 , . . . , u′n } es una base ortogonal respecto del producto interno h, i obtenida de la base α.
Demuestre que

α Base ortogonal ⇐⇒ α = α′
40 Profesor Ricardo Santander Baeza 2010

Solución
Si α es una base ortogonal entonces sabemos que:

α Base ortogonal ⇐⇒ hvi , vj i = 0 si i 6= j ∧ (1 ≤ i ≤ n)(1 ≤ j ≤ n)


Además si v1′ = v1 entonces
hv2 , v1′ i ′
v2′ = v2 − v = v2 − 0 · v1′ = v2
hv1′ , v1′ i 1
hv3 , v2 i hv3 , v1 i
v3′ = v3 − v2 − v1 = v3 − 0 · v2 − o · v1 = v3
hv2 , v2 i hv1 , v1 i
..
.
hvn , vn−1 i hvn , v1 i
vn′ = vn − vn−1 − · · · − v1 = vn
hvn−1 , vn−1 i hv1 , v1 i
Ası́ que α = α′

Reciprocamente, si α = α′ y como o alpha′ es base ortogonal entonces α es base ortogonal

(13) Sea V, h, i un K espacio vectorial tal que dimK (V) = n, y W ≤ V. Demuestre que

W⊥ = {0V } ⇐⇒ W = V
Solución

Sabemos que si W ≤ V entonces V = W ⊕ W⊥ . Ası́ que si W⊥ = {0V } entonces

V = W ⊕ W⊥ = W ⊕ {0V } = W
Recı́procamente, si W = V entonces

V = W ⊕ W⊥ = V ⊕ V⊥ =⇒ W ⊥ = {0V } = W
Pues, hw, vi = 0 (∀v; v ∈ V) =⇒ hw, wi = 0 =⇒ w = 0V
Profesor Ricardo Santander Baeza 2010 41

8. Aplicación 1: Método de Aproximación de los Mı́nimos Cuadrados


8.1. Planteamiento del Problema. Si y = f (x) es una función continua en R, y conocemos sólo n valores
de ella , f (xi ) = yi ∈ R para 1 ≤ i ≤ n, entonces
¿ Cómo conseguir, si es posible, una curva que pase por los puntos Pi = (xi , yi ) para i = 1, 2, . . . , n ? y que
cumpla con las particularidades de la función f , salvo probablemente cometiendo errores controlados.

8.2. Herramientas Básicas 1: Sistemas de Ecuaciones. Si consideramos un sistema lineal de orden


(n × m)
a11 x1 + a12 x2 + . . . + a1m xm = b1
a21 x1 + a22 x2 + . . . + a2m xm = b2
.. .. .. .. .. (26)
. . . . .
an1 x1 + an2 x2 + . . . + anm xm = bn
entonces sabemos que
1. El sistema (26) tiene una notación equivalente usando matrices en la forma AX = B, donde
   
x1 b1
   
A = (aij ) ∈ MR (n × m), X =  ...  y B =  ... 
xm bn
2. (26) tiene solución si el rango de la matriz de coeficientes A es el mismo de la matriz ampliada (A|B),
es decir ρ(A) = ρ(A|B)

Ejemplo 8.2.1. Dado el sistema lineal


2x1 + x2 − x3 = 1
x1 − x2 + x3 = 2
Conforme a lo que hemos expuesto encima:
1. En notación matricial tenemos que
 
  x1  
2x1 + x2 − x3 = 1 2 1 −1  x2  = 1
⇐⇒
x1 − x2 + x3 = 2 1 −1 1 2
x3
2. Calculando el rango de la matriz ampliada (A|B)
   
2 1 −1 | 1 1 −1 1 | 2
(l1 ↔ l2 )
1 −1 1 | 2 2 1 −1 | 1
 
1 −1 1 | 2
(l2 ↔ l2 − 2l1 )
0 3 −3 | −3
 
1 1 −1 1 | 2
(l2 → 3 l2 ) 0 1 −1 | −1
 
1 0 0 | 1
(l1 → l1 + l2 )
0 1 −1 | −1
Verificamos que hay solución pues, ρ(A) = ρ(A|B) = 2
3. Como ρ(A) = ρ(A|B) = 2 < 3 entonces tenemos infinitas soluciones para el sistema del tipo
       
x1 1 1 0
X =  x2  =  −1 + x3  =  −1  + x3  1 
x3 x3 0 1
42 Profesor Ricardo Santander Baeza 2010

Ejemplo 8.2.2. Dado el sistema lineal


2x1 + x2 − x3 = 1
x1 − x2 + x3 = 2 (27)
4x1 + 2x2 − 2x3 = 3
Procedemos como en el ejemplo (8.2.1) y,
1. En notación matricial tenemos que
    
2x1 + x2 − x3 = 1 2 1 −1 x1 1
x1 − x2 + x3 = 2 ⇐⇒  1 −1 1   x2  =  2 
4x1 + 2x2 − 2x3 = 3 4 2 −2 x3 3
2. Calculando el rango de la matriz ampliada (A|B)
   
2 1 −1 | 1 1 −1 1 | 2
 1 −1 1 | 2  (l1 ↔ l2 )  2 1 −1 | 1 
4 2 −2 | 3 4 2 −2 | 3
 
1 −1 1 | 2
(l2 ↔ l2 − 2l1 )  0 3 −3 | −3 
(l3 ↔ l3 − 4l1 )
0 6 −6 | −5
 
1 −1 1 | 2
(l2 → 13 l2 )  0 1 −1 | −1 
0 6 −6 | −5
 
1 0 0 | 1
(l1 → l1 + l2 )  0 1 −1 | −1 
(l3 → l3 − 6l2 )
0 0 0 | 1
 
1 0 0 | 0
(l1 → l1 − l3 )  0 1 −1 | 0 
(l2 → l2 + l3 )
0 0 0 | 1
Verificamos que no hay solución pues, ρ(A) = 2 y ρ(A|B) = 3

3. Como ρ(A) 6= ρ(A|B) entonces no hay solución.


8.3. Herramientas Básicas 2: Espacios Vectoriales. Hasta ahora el criterio a usar, para que un
sistema tenga o no tenga solución es comparar mecánicamente dos números, más especı́ficamente el rango
de la matriz de coeficientes y el rango de la matriz ampliada, ambas asociada al sistema lineal dado. Como
puede ser rápidamente deducido esta técnica no permite una mayor elucubración teórica, ası́ que debemos
intentar traducir este comportamiento a través de las ricas y fructificas propiedades que poseen los espacios
vectoriales.
Para ello, observamos que las columnas de una matriz A = (aij ) ∈ MR (n × m) son elementos del espacio
vectorial MR (n × 1), y en este nuevo contexto el siguiente teorema es una caracterización (una nueva
formulación) del Teorema del Rango.
Teorema 8.3.1. (Caracterización del Teorema del Rango) El sistema (26) tiene solución si y sólo si B
pertenece al espacio generado por las columnas de A.

En efecto, como

     
a11 x1 + . . . + a1m xm = b1 a11 a1m b1
a21 x1 + . . . + a2m xm = b2  a21   a2m   b2 
     
.. .. .. .. ⇐⇒ x1  ..  + ... + xm  ..  =  .. 
. . . .  .   .   . 
an1 x1 + . . . + anm xm = bn an1 anm bn
Profesor Ricardo Santander Baeza 2010 43

entonces es claro que,


     
*
 a11 a12 a1m 
+

 a21     
   a22   a2m 
(26) tiene solución ⇐⇒ B ∈ Ω(A) =  .. , .. ,..., .. 

 .   .   . 

 a 

n1 an2 anm

Ejemplo 8.3.2. El sistema del ejemplo (8.2.1) tiene solución, como visto encima, y por ejemplo
       
1 2 1 −1
=1· + (−1) · +0·
2 1 −1 1
O mejor, para cada x3 ∈ R:
       
1 2 1 −1
=1· + (−1 + x3 ) · + x3 ·
2 1 −1 1
Ejemplo 8.3.3. El sistema (8.2.2) no tiene solución, como visto encima, y podemos directamente ver que,
       
1 2 1 −1
 2  = x1 ·  1  + x2 ·  −1  + x3 ·  1  =⇒ 1 = 3 (=⇒⇐=)
3 4 2 −2 2

Si consideramos un sistema lineal como el sistema (26) entonces Del teorema (8.3.1), sigue que el sistema
(26) no tiene solución si y sólo si B ∈
/ Ω(A). Por tanto se torna clave el subespacio Ω(A) de MR (n × 1), y
entonces direccionemos nuestras ideas hacia este conjunto:
1. En primer lugar, usaremos en el espacio vectorial MR (n × 1) su producto interno canónico es decir,

     t  
* a1 b1 + a1 b1
 a2   b2   a2   b2  X n
       
 .. , ..  = ..  · ..  = ai bi
 .   .   .   . 
i=1
an bn an bn
2. Si PΩ(A) : MR (n × 1) 7−→ Ω(A) representa la proyección ortogonal de B en el subespacio Ω(A) entonces

PΩ(A) (B) ∈ Ω(A)


b ∈ MR (m × 1) tal que
y, aplicando nuevamente el teorema (8.3.1) existe X

A·X b = PΩ(A) (B) (28)


q
3. La distancia d(B, Ω(A)) = kB − PΩ(A) (B)k = hB − PΩ(A) (B), B − PΩ(A) (B)i, es la menor posible,
es decir. B − PΩ(A) (B) ∈ Ω(A)⊥ por tanto si notamos las columnas de A, de la forma:
 
a1j
 a2j 
 
colj (A) =  .. , (1 ≤ j ≤ m)
 . 
anj
entonces



colj (A), B − PΩ(A) (B) = 0 (1 ≤ j ≤ m)
44 Profesor Ricardo Santander Baeza 2010

Equivalentemente

0 = colj (A)t · (B − PΩ(A) (B)) (1 ≤ j ≤ m)

= colj (A)t · B − colj (A)t · PΩ(A) (B) (1 ≤ j ≤ m)

(28)
= b
colj (A)t · B − colj (A)t A · X (1 ≤ j ≤ m)

Luego,
b
B − PΩ(A) (B) ∈ Ω(A)⊥ ⇐⇒ At · B = At A · X (29)

8.4. Herramienta Central.

Definición 8.4.1. Dado un sistema lineal de orden (n × m), tal como el definido en (26) entonces cualquier
solución de la ecuación matricial,
b = At · B
At A · X (30)

será llamada una solución por mı́nimos cuadrados de (26)

Teorema 8.4.2. Sea A ∈ MR (n × m). Si ρ(A) = m, (donde ρ(A) es el rango de la matriz A) entonces At ·A
es invertible y el sistema lineal asociado a la matriz A, tiene una única solución por mı́nimos cuadrados
dada por:

b = (At · A)−1 At B
X

En efecto, sabemos por definición que,

U invertible ⇐⇒ ker(U ) = {(0)} ⇐⇒ U · X = (0) =⇒ X = (0)

entonces usando esta equivalencia obtenemos,

At · A · X = (0) =⇒ hX, At · A · Xi = 0 =⇒ X t · At · A · X = 0 =⇒ (A · X)t · A · X = 0


=⇒ hA · X, A · Xi = (0) =⇒ A · X = 0
=⇒ x1 · col1 (A) + x2 · col2 (A) + · · · + xn · coln (A) = 0
=⇒ x1 = x2 = · · · = xn = 0, (las columnas de A son linealmente independientes)
=⇒ X = (0)

Ejemplo 8.4.3. Consideremos el sistema lineal

x + 4y − 5z = 3
2x + y − z = 2
−x + 2y − 3z = 1 (31)
−2x + 4y − 6z = 7
Profesor Ricardo Santander Baeza 2010 45

(1) El sistema (31) se escribe matricialmente como


   
1 4 −5   3
 2 x
 1 −1   2 
 y  =  
 −1 (32)
2 −3   1 
z
−2 4 −6 | {z } 7
| {z } X | {z }
A B
(2) Calculamos ρ(A), escalonando la matriz A por filas:
   
1 4 −5 3 1 4 −5 3
 2 1 (L2 −→ L2 − 2L1 ) 
 −1 2    0 −7 9 −4 

 −1 2  (L3 −→ L3 + L1 ) 
−3 1 0 6 −8 4 
(L4 −→ L2 + 2L1 )
−2 4 −6 7 0 12 −16 13
 
1 4 −5 3
 0 −7 9 −4 
(L4 −→ L4 − 2L3 )  
 0 6 −8 4 
0 0 0 5

Luego, ρ(A) = 3 y ρ(Aa ) = 4, ası́ que por una parte ρ(A) es máximo y por otra el sistema (31) no
tiene solución.

(3) De acuerdo al teorema (8.4.2), At · A es invertible y la ecuación At · A · X = At · B, tiene solución única.


Ası́ que tenemos alternativa: Escalonar para aplicar el teorema del rango, o bien calcular directamente
(At · A)−1 . Optaremos por la primera y entonces debemos armar el sistema a resolver.
 
 1  4 −5  
1 2 −1 −2  10 −4 8
2 1 −1 
At · A =  4 1 2 4 ·
 −1
 =  −4 37 −51 
2 −3 
−5 −1 −3 −6 8 −51 47
−2 4 −6
Además,
 
  3  
1 2 −1 −2   −8
2  
At · B =  4 1 2 4 ·
 1 = 44 
−5 −1 −3 −6 −62
7
Ası́ que debemos resolver el sistema
     
10 −4 8 x1 −8
 −4 37 −51  ·  x2  =  44  (33)
8 −51 47 x3 −62
(4) Finalmente resolvemos el sistema lineal (33), escalonando su matriz ampliada correspondiente:

   
10 −4 8 −8 1 0 0 0.36936168
 −4 37 −51 44  ≈  0 1 0 1.31037985 
8 −51 47 −62 0 0 1 0.11689171
Ası́ que la solución por mı́nimos cuadrados es:
 
0.36936168
b =  1.31037985 
X (34)
0.11689171
46 Profesor Ricardo Santander Baeza 2010

8.5. Aproximación por una Recta.

Definición 8.5.1. Consideremos una colección finita de puntos del plano; digamos

¶ = {(a1 , b1 ), (a2 , b2 ), . . . , (an , bn )} (35)

tal que ai 6= aj para algún i y para algún j, (1 ≤ i ≤ n) y (1 ≤ j ≤ n) entonces la recta “que mejor se ajuste
”a la colección de puntos (35), la llamaremos “recta de mı́nimos cuadrados ”.

y
recta de mı́nimos cuadrados
n•
d5

n
( d4
(• •
d3
d2

(
d1
• x

Figura 12: Recta de los Mı́nimos Cuadrados

Aplicación 8.5.2. Si suponemos que la ecuación de la recta de mı́nimos cuadrados es dada por al ecuación:

(RM C) : y = m1 x + m0 (36)

entonces a partir de (36), tenemos las ecuación básica (EB)

(EB) : bi = m1 ai + m0 + di (1 ≤ i ≤ n)

donde;

di 6= 0 ⇐⇒ (ai , bi ) 6∈ (RM C) ( De acuerdo a la Figura 12)

Ası́ que, tenemos el sistema de ecuaciones para la recta de mı́nimos cuadrados:

b1 = m1 a1 + m0 + d1
b2 = m1 a2 + m0 + d2
b3 = m1 a3 + m0 + d3
..
.
bn = m1 an + m0 + dn

Equivalentemente
Profesor Ricardo Santander Baeza 2010 47

     
b1 a1 1 d1
 b2   a2 1    
     d2 
 b3   a3 1  m1  
  =   +  d3  (37)
 ..   .. ..  m0  .. 
 .   . .  | {z }  . 
bn an 1 X dn
| {z } | {z } | {z }
B A D

Finalmente;

(1) como ai 6= aj , para algún i y para algún j entonces ρ(A) = 2 y entonces del teorema (8.4.2), sigue que
el sistema A · X = B tiene una solución única por mı́nimos cuadrados, dada por X b = (At A)−1 At B

(2) Como D = B − A · X entonces D, representa la menor magnitud posible

Ejemplo 8.5.3. En la fabricación de un producto quı́mico Q, se detecta que la cantidad de un compuesto


quı́mico p, es controlada por la cantidad del producto quı́mico c utilizado en el proceso. Al producir un litro
de Q, se detectaron las cantidades de p y c, presente y usada respectivamente, según la tabla:

c ocupada 3 4 5 6 7 8 9 10 11 12
(38)
p existente 4.5 5.5 5.7 6.6 7.0 7.7 8.5 8.7 9.5 9.7

Solución del problema


• El gráfico de la tabla es de la forma:
13
12
11
10
• •
9
• •
8
7 • •

6
• •
5

4
3
2
1
0
0 1 2 3 4 5 6 7 8 9 10 11 12 13
Figura 13
48 Profesor Ricardo Santander Baeza 2010

• El sistema que corresponde en este caso es de la forma:


   
4.5 3 1
 5.5   4 1 
   
 5.7   5 1 
   
 6.6   6 1 
    
 7.0   7 1  m1
   
 7.7  =  8 1  m0
   
 8.5   9 1  | {z }
    X
 8.7   10 1 
   
 9.5   11 1 
9.7 12 1
| {z } | {z }
B A

• Como el rango de A es 2 entonces hay solución única. Ası́ que debemos calcular At A y At B.

   
t 645 75 t 598.6
AA= AB=
75 10 73.4

• Luego la solución del sistema es dada por:

   
m1 0.583
X = =
m0 2.967

• Por tanto, la recta pedida es de la forma:

p = 0.583c + 2.967

y su gráfico es de la forma:

13
12
11
10
• •
9
• •
8
7 • •

6
• •
5

4
3
2
1
0
0 1 2 3 4 5 6 7 8 9 10 11 12 13
Figura 14
Profesor Ricardo Santander Baeza 2010 49

8.6. Aproximación por un Polinomio. Consideremos nuevamente la colección ¶ en (35), es decir

¶ = {(a1 , b1 ), (a2 , b2 ), . . . , (an , bn )}

Aplicación 8.6.1. Si suponemos que al menos m + 1 de los ai son distintos entonces podemos aproximar
al conjunto ¶ por un polinomio de la forma:

m
X
PMC : y= ci xi (m ≤ n + 1)
i=0

La ecuación básica en este caso es dada por:

m
X
bj = ci aij + dj (1 ≤ j ≤ n) (39)
i=0

y dj 6= 0 ⇐⇒ (aj , bj ) ∈
/ (P M C), para 0 ≤ j ≤ n

A partir de (39), podemos construir el sistema de ecuaciones lineales para el polinomio de mı́nimos cuadra-
dos:

       
b1 1 a1 a21 ... am
1 c0 d1
 b2   1 a2 a22 ... am   c1   d2 
   2     
 ..  =  .. .. .. .. · .. + ..  (40)
 .   . . . .   .   . 
bn 1 an a2n ... am
n cm dn
| {z } | {z } | {z } | {z }
B A X D

Como existen al menos m + 1, ai distintos entonces ρ(A) = m + 1 y del sistema (40) y del teorema (8.4.2),
sigue que el sistema asociado A · X = B tiene un solución única de la forma X = (At · A)−1 · At · B.

Ejemplo 8.6.2. Ajustemos la tabla de datos

x 0 1 2

y 1.1 0.1 −3.1

a través de4 un polinomio cuadrático q(x) = a + bx + cx2

Solución
50 Profesor Ricardo Santander Baeza 2010

• El gráfico de los puntos es el siguiente:

1 •


−2 −1 1 2
−1

−2

−3 •

Figura 15

• El sistema general asociado a la situación según el sistema lineal (40) es:

     
1.1 1 0 0 a
 0.1  =  1 1 1  ·  b  (41)
−3.1 1 2 4 c
| {z } | {z } | {z }
B A X

• Ası́ que debemos resolver el sistema At · A · X = At · B, y para ello:

◦ Calculamos At · A y At · B

   
1 1 1 1 0 0
At · A =  0 1 2  ·  1 1 1 
0 1 4 1 2 4
 
3 3 5
=  3 5 9 
5 9 17

   
1 1 1 1.1
At · B =  0 1 2  ·  0.1 
0 1 4 −3.1
 
−1.9
=  −6.1 
−12.3
Profesor Ricardo Santander Baeza 2010 51

◦ Escalonamos la matriz ampliada [At · A|At · B].

 
3 3 5 −1.9
[At · A|At · B] =  3 5 9 −6.1 
5 9 17 −12.3
 
1 0 0 1.10001
=  0 1 0 0.09999 
0 0 1 −1.09999

Luego, el polinomio de los mı́nimos cuadrados es:

q(x) = 1.10001 + 0.09999x − 1.09999x2 (42)

• Finalmente, el gráfico de (42) es:

1 •


−2 −1 1 2
−1

−2

−3 •

Figura 16

8.7. Aproximación por una función. Consideremos una función y = f (x) continua en R y supongamos
que conocemos sólo n valores de ella , digamos f (xi ) = yi ∈ R para 1 ≤ i ≤ n entonces si queremos resolver
el problema planteado al inicio de este Capitulo, debemos considerar las siguientes etapas

Etapa 1. Supongamos que existe un conjunto de funciones α = {g1 , g2 , . . . , gn } tal que

• α es linealmente independiente en el espacio de funciones continuas en R

• gi (xj ) ∈ R, para (i = 1, 2, . . . , n)

Etapa 2. Sea W = h{g1 , g2 , . . . , gn }i el espacio vectorial generado por α.

Etapa 3. Define en W el producto interno:


52 Profesor Ricardo Santander Baeza 2010

n
X
hh, si = h(xi )s(xi ) (43)
i=1

Etapa 4. Partir de (43), definimos la norma usual:

p
khk = hh, hi
v
u n
uX
= t [h(xi )]2
i=1

Ası́ que f es aproximable por g ∈ W si y sólo si la distancia d(f, g), es mı́nima, esto es equivalente a decir
que (f − g) ∈ W ⊥ .

En particular deben verificarse simultáneamente las ecuaciones:

hgi , f − gi = 0 (i = 1, 2, . . . , n) (44)
n
X
Es decir, que si g = ci gi entonces de (44), sigue que,
i=1
n
X n
X n
X
0 = hgi , f − gi = hgi , f − cj gj i = hgi , f i − hgi , cj gj i = hgi , f i − cj hgi , gj i
j=1 j=1 j=1

Etapa 5. Resumiendo
n
X
g≈f ⇐⇒ hgi , f i = cj hgi , gj i (i = 1, 2, . . . , n)
j=1
n
X n
X n
X
⇐⇒ gi (xj )f (xj ) = cj gi (xk )gj (xk ) (i = 1, 2, . . . , n) (45)
j=1 j=1 k=1

(45) se conoce como “método de los mı́nimos cuadrados”

Ejemplo 8.7.1. Supongamos que y = f (x) es una función tal que verifica los valores:

x 0 1 2
f (x) 1.1 0.1 -3.1
y que deseamos aproximar según el método de los mı́nimos cuadrados por la función g(x) = c1 + c2 x2
entonces

g1 (x) = 1
g2 (x) = x2

Ası́ que (45) para este caso, consiste en:

hg1 , f i = c1 hg1 , g1 i + c2 hg1 , g2 i (46)


hg2 , f i = c1 hg2 , g1 i + c2 hg2 , g2 i (47)

Como conocemos los valores de f y gi , para i = 1, 2 entonces


Profesor Ricardo Santander Baeza 2010 53

hg1 , f i = 1 · 1.1 + 1 · 0.1 + 1 · (−3.1) = −1.9


hg1 , g1 i = 1 · 1 + 1 · 1 + 1 · 1 = 3
hg1 , g2 i = 1 · 01 + 1 · 12 + 1 · 22 = 5
hg2 , g1i = 02 · 1 + 12 · 1 + 22 · 1 = 5
hg2 , g2 i = 02 · 02 + 12 · 12 + 22 · 22 = 17
hg2 , f i = 02 · 1.1 + 12 · 0.1 + 22 · (−3.1) = −12.3
Ası́ que sustituyendo en (46) y (47) tenemos el sistema:

3c1 + 5c2 = −1.9


(48)
5c1 + 17c2 = −12.3
De donde c1 ≈ 1.12 y c2 ≈ −1.05 ası́ que la función que mejor aproxima a la función f , según este método
es g(x) = 1.12 − 1.05x2 y el gráfico de la función g es aproximadamente:

Figura 17

Ejemplo 8.7.2. Supongamos que la población de una cierta localidad ha variado en el tiempo, según la tabla:

t=4 t=5 t=6 t=7


año 1950 1960 170 1980
población ×104 1.0 1.5 1.8 2.0 (49)
| {z }
f (t)

Supongamos que queremos aproximar los puntos de la tabla por una función del tipo:

g(t) = a0 + a1 t + a2 t2
entonces ¿ cúal será la población en el 2000 ?
Según el método de los mı́nimos cuadrados debemos tener para este caso:

• g1 (t) = 1
• g2 (t) = t
• g3 (t) = t2
54 Profesor Ricardo Santander Baeza 2010

Ası́ que:

hg1 , f )i = a0 hg1 , g1 )i + a1 hg1 , g2 )i + a2 hg1 , g3 )i = 6.3


hg2 , f )i = a0 hg2 , g1 )i + a1 hg2 , g2 )i + a2 hg2 , g3 )i = 36.3
hg3 , f )i = a0 hg3 , g1 )i + a1 hg3 , g2 )i + a2 hg3 , g3 )i = 216.3
Luego resolviendo el sistema para estos valores tenemos que:

• a0 = −2.415
• a1 = 1.155
• a2 = −0.075

Por tanto la función que aproxima es de la forma:

g(t) = −2.415 + 1.155t − 0.075t2 (50)


Ası́ que la población esperada según esta aproximación es dada por:

g(9) × 104 = 1.905 × 104


= 19050 (51)
Ejemplo 8.7.3. En (8.7.2) tratemos de predecir la población, usando para aproximar una función del tipo
g(t) = a · ebt . Para aplicar el método de los mı́nimos cuadrados podemos hacer lo siguiente:

f (t) ≈ a · ebt ⇐⇒ ln f (t) ≈ ln a · ebt


⇐⇒ ln f (t) ≈ ln a + ln ebt
⇐⇒ ln f (t) ≈ ln a + bt ln e
⇐⇒ ln f (t) ≈ ln a + bt
Ası́ que en este caso tenemos que:

g(t) = ln a + bt
Es claro que también tenemos que modificar la tabla anterior, es decir (49) se transforma aplicando ln en:

t=4 t=5 t=6 t=7


año 1950 1960 170 1980
población ×104 0.0 0.405 0.588 0.693 (52)
| {z }
ln f (t)

Finalmente si llamamos:

• F (t) = ln f (t)

• c1 = ln a y g1 (t) = 1

• c2 = b y g2 (t) = t

entonces según la tabla (52) tenemos que:


Profesor Ricardo Santander Baeza 2010 55

hg1 , F i = 1.686
hg2 , F i = 10.404
hg1 , g1 i = 4
hg1 , g2 i = 22
hg2 , g1 i = 22
hg2 , g2 i = 126

Ası́ que obtenemos el sistema:


4c1 + 22c2 = 1.686
(53)
22c1 + 126c2 = 10.404
Resolviendo el sistema (53) tenemos que:
c1 ≈ 0.226 =⇒ a = 0.439

c2 ≈ 0.226 =⇒ b = 0.226
Luego de estos resultados concluimos que:

(1) g(t) = 0.439e0.226t =⇒ g(9) = 3.356

(2) Ası́ que finalmente tenemos en este caso:

población × 104 = F (9) × 104 ≈ 3.356 × 104 = 33560 personas (54)

9. Aplicación 2: Producto Interno y Estadı́stica


Definición 9.1. Si consideramos un fenómeno o suceso F tal que posee las posibilidades distintas de ocurrir
s1 , s2 , . . . , sn entonces

(1) Llamaremos espacio muestral al conjunto


S(F ) = {s1 , s2 , . . . , sn } (55)
(2) Si cada si posee una probabilidad de ocurrencia pi , para i = 1, 2, . . . , n entonces llamamos “vector de
probabilidad”del suceso F a

p(F ) = (p1 , p2 , . . . , pn ) (56)


y (56)

(3) Si además a cada elemento si asociamos un valor “xi ”, para cada i = 1, 2, . . . , n entonces el vector

x(F ) = (x1 , x2 , . . . , xn ) (57)


se llama “variable aleatoria”, asociada al espacio muestral del suceso F .

(4) Llamaremos “valor medio o esperado”de x(F ) a:

x̄(F ) = p1 x1 + p2 x2 + p3 x3 + · · · + pn xn (58)
56 Profesor Ricardo Santander Baeza 2010

(5) Llamaremos “varianza”de x(F ) a:

v[x(F )] = p1 (x1 − x̄(F ))2 + p2 (x2 − x̄(F ))2 + · · · + pn (xn − x̄(F ))2 (59)
(6) Llamaremos “desviación standar”de x(F ) a:
p
d[x(F )] = v[x(F )] (60)
Ejemplo 9.1.1. Si F representa “el lanzamiento de un peso chileno”, entonces

(1) S(F ) = {cara,sello}


 
1 1
(2) p(F ) = ,
2 2
Ejemplo 9.1.2. Si F representa “el lanzamiento de dos monedas”, entonces

(1) S(F ) = {(cara,cara),(sello,sello),(cara,sello)}


 
1 1 1
(2) p(F ) = , ,
4 4 2
Ejemplo 9.1.3. Si dos personas A y B en (9.1.1), deciden hacer la apuesta:

• Si después del lanzamiento de la moneda sale cara A gana $10

• Si después del lanzamiento de la moneda sale sello B gana $10

entonces

(1) S(F ) = {cara,sello}


 
1 1
(2) p(F ) = ,
2 2
(3) x(F, A) = (10, −10), variable aleatoria del punto de vista de A

(4) x(F, A) = (−10, 10), variable aleatoria del punto de vista de B

Ejemplo 9.1.4. Si las mismas personas A y B deciden hacer la apuesta en (9.1.2), como sigue:

• Si salen dos caras A gana $10

• Si salen dos sellos A gana $7

• Si salen una cara y un sello B gana $7

entonces la situación es la siguiente:

(1) S(F ) = {(cara,cara),(sello,sello),(cara,sello)}


 
1 1 1
(2) p(F ) = , ,
4 4 2
Profesor Ricardo Santander Baeza 2010 57

(3) x(F, A) = (10, 7, −7)

(4) x(F, B) = (−10, −7, 7)

9.2. Un producto interno “estadı́stico”. Sea u = (u1 , u2 , . . . , un ) ∈ Rn un vector fijo entonces define
el producto interno:
n
X
h(x1 , x2 , . . . , xn ), (y1 , y2 , . . . , yn )iu = ui · xi · yi (61)
i=1
Lema 9.2.1. Si F es un evento entonces

(1) x̄(F ) = hx(F ), (1, 1, . . . , 1)ip(F )

(2) v[x(F )] = hx(F ) − x̄(F )(1, 1, . . . , 1), x(F ) − x̄(F )(1, 1, . . . , 1)ip(F )

(3) d[x(F )] = kx(F ) − x̄(F )(1, 1, . . . , 1)k

En efecto

Para probar [1] hacemos:

n
X
hx(F ), (1, 1, . . . , 1)ip(F ) = p i · xi · 1
i=1
Xn
= p i · xi
i=1
= x̄(F ) verificar en (58)
Para probar [2] hacemos:
n
X
hx(F ) − x̄(F )(1, 1, . . . , 1), x(F ) − x̄(F )(1, 1, . . . , 1)ip(F ) = pi (xi − x̄(F ))2 (verificar en 59)
i=1
Para probar [3] hacemos:

kx(F ) − x̄(F )(1, 1, . . . , 1)k = k(x1 − x̄(F ), x2 − x̄(F ) . . . , xn − x̄(F ))k


v
u n
uX
= t pi (xi − x̄(F ))2
i=1
p
= v[x(F )] verificar en (60)

Ejemplo 9.2.2. Para el suceso relatado en 9.1.1, tenemos la información:

• s(F ) = { cara, sello}


 
1 1
• p(F ) = ,
2 2
• x(F, A) = (10, −10), variable aleatoria del punto de vista de A
58 Profesor Ricardo Santander Baeza 2010

• x(F, A) = (−10, 10), variable aleatoria del punto de vista de B

Luego,
x̄(F, A) = h(10, −10), (1, 1)i
1 1
= · 10 · 1 + · (−10) · 1
2 2
= 0

x̄(F, B) = h(−10, 10), (1, 1)i


1 1
= · (−10) · 1 + · 10 · 1
2 2
= 0

d[x(F, A)] = k(10, −10)k


r
1 2 1
= 10 + (−10)2
2 2
= 10

d[x(F, B)] = k(−10, 10)k


r
1 1
= (−10)2 + 102
2 2
= 10

9.3. Correlación. Sea F un evento n-dimensional, es decir:


• s(F ) = {s1 , s2 , . . . , sn } es su espacio muestral.

• p(F ) = {p1 , p2 , . . . , pn } es su vector probablidad.

Si suponemos que es posible asociar a dos comportamientos de F , dos variables aleatorias, digamos x(F, A) =
(x1 , x2 , . . . , xn ) y x(F, B) = (y1 , y2 , . . . , yn ) entonces estudiemos las posibles relaciones entre x(F, A) y
x(F, B).

(1) Tenemos en primer lugar un valor esperado para cada caso:


X
• x̄(F, A) = npi xi
i=1
X
• x̄(F, B) = npi yi
i=1
(2) Podemos construir los vectores asociados:

x(F, A) − x̄(F, A)(1, 1, . . . , 1) = (x1 − x̄(F, A), x2 − x̄(F, A), . . . , xn − x̄(F, A))
x(F, B) − x̄(F, B)(1, 1, . . . , 1) = (y1 − x̄(F, B), y2 − x̄(F, B), . . . , yn − x̄(F, B))
(3) El conjunto
C = {(x1 − x̄(F, A), . . . , xn − x̄(F, A)), (y1 − x̄(F, B), . . . , yn − x̄(F, B))} (62)
es linealmente independiente o linealmente dependiente , ası́ que tenemos dos casos:
Profesor Ricardo Santander Baeza 2010 59

• Caso 1. C es Linealmente dependiente. Luego existe, λ ∈ R − {0} tal que:

x(F, B) = λx(F, A)

Es decir, x(F, A) y x(F, B) están relacionados o uno es dependiente. Ahora

hx(F, A), x(F, B)i hx(F, A), λx(F, A)i λhx(F, A), x(F, A)i
cos θ = = =
kx(F, A)kkx(F, B)k kx(F, A)kkλx(F, A)k |λ|kx(F, A)kkx(F, A)k
(
λkx(F, A)k2 λ 1 : si λ > 0
= = =
|λ|kx(F, A)kkx(F, A)k |λ| −1 : si λ < 0

Luego,



0
θ = ó (63)


π

• Caso 2. C es Linealmente independiente. Luego no existe relación entre x(F, A) y x(F, B)

Definición 9.3.1. Llamaremos “coeficiente de correlación”de x(F, A) y x(F, B) a

hx(F, A), x(F, B)i


r(x(F, A), x(F, B)) = (64)
kx(F, A)kkx(F, B)k

Es decir,

hx(F, A), x(F, B)i


r(x(F, A), x(F, B)) =
kx(F, A)kkx(F, B)k
n
X
pi (xi − x̄(F, A))(yi − x̄(F, B))
i=1
= " n #1
X n
X 2

pi (xi − x̄(F, A))2 · pi (yi − x̄(F, B))2


i=1 i=1

Ejemplo 9.3.2. Consideremos un grupo de 10 atletas de los cuales conocemos sus registros de 1 a 10 en
dos pruebas; prueba1 y prueba2, según la tabla:
60 Profesor Ricardo Santander Baeza 2010

atleta 1 2 3 4 5 6 7 8 9 10

prueba 1 2 8 5 7 7 5 3 1 9 9

registro

prueba 2 1 9 7 2 7 4 6 3 9 7

Figura 18

Estudiemos la correlación entre el rendimiento de los atletas en ambas pruebas:

(1) El espacio muestral será:


s(F ) = {1, 2, 3, 4, 5, 6, 7, 8, 9, 10} (65)
(2) El vector probabilidad es:
 
1 1 1 1
p(F ) = , , ,..., (66)
10 10 10 10
(3) Si notamos prueba i=pi , para i = 1, 2 entonces
x(F, p1 ) = (2, 8, 5, 7, 7, 5, 3, 1, 9, 9) (67)

x(F, p2 ) = (1, 9, 7, 2, 7, 4, 6, 3, 9, 7) (68)


Ahora, comenzamos a calcular:

• De (66) y (67), tenemos que


1
x̄(F, p1 ) = · 56
10
= 5.6 (69)

• De (66) y (68), tenemos que


1
x̄(F, p2 ) = · 55
10
= 5.5 (70)
• De (67) y (70), tenemos que
x(F, p1 ) − x̄(F, p1 )(1, 1, . . . , 1) = (−3.6, 2.4, −0.6, . . . , 3.4) (71)
• De (68) y (70), tenemos que
x(F, p2 ) − x̄(F, p2 )(1, 1, . . . , 1) = (−4.5, 3.5, 1.5, . . . , 1.5) (72)
Profesor Ricardo Santander Baeza 2010 61

• Además, de (71) y (72) tenemos que

hx(F, p1 ) − x̄(F, p1 )(1, 1, . . . , 1), x(F, p2 ) − x̄(F, p2 )(1, 1, . . . , 1)i ≈ 4.9 (73)

kx(F, p1 ) − x̄(F, p1 )(1, 1, . . . , 1)k ≈ 7.4 (74)

kx(F, p2 ) − x̄(F, p2 )(1, 1, . . . , 1)k ≈ 7.2 (75)


• Finalmente de (73), (74), (75), obtenemos que:
r(x(F, p1 ), x(F, p2 )) ≈ 0.67 (76)

10. Aplicación 3: Series de Fourier y Producto Interno


10.1. Conectando lugares inaccesibles. Supongamos que necesitamos conectar dos lugares inaccesibles,
como lo muestra la función.


−1 : si − π < x < 0
f1 (x) =


1 : si 0<x<π

Cuyo gráfico es de la forma:

1
π
−π

-1

Figura 19 y = f1 (x)

La idea es usar como soporte, ideas trigonométricas. para conectar esos lugares inaccesibles:

4
(1) Partamos graficando la función y = sen x para (−π < x < π)
π

0.5

-3 -2 -1 1 2 3

-0.5

-1
62 Profesor Ricardo Santander Baeza 2010
 
4 sen 3x
(2) Graficamos la función y = sen x + para (−π < x < π)
π 3

0.5

-3 -2 -1 1 2 3

-0.5

-1

 
4 sen 3x sen 5x
(3) Graficamos la función y = sen x + + para (−π < x < π)
π 3 5

0.5

-3 -2 -1 1 2 3

-0.5

-1

 
4 sen 3x sen 5x sen 7x
(4) Graficamos la función y = sen x + + + para (−π < x < π)
π 3 5 7

0.5

-3 -2 -1 1 2 3

-0.5

-1

 
4 sen 3x sen 5x sen 7x sen 99x
(5) En fin, graficamos, la función y = sen x + + + + ··· + para (−π <
π 3 5 7 99
x < π)
Profesor Ricardo Santander Baeza 2010 63

0.5

-3 -2 -1 1 2 3

-0.5

-1

s
4 X sen(2i − 1)x
Conclusión 10.1.1. Si llamamos gs = , para (s ∈ N) entonces podemos observar lo
π 2i − 1
i=1
siguiente:

(1) A medida que s crece en N, el gráfico de gs , más se parece o mejor copia, a la función f1

(2) Sin embargo, debemos tener cuidado con la comparación de las expresiones analı́ticas de las funciones
involucradas; porque por ejemplo:

(a) f1 (0) 6∈ R y gs (0) = 0


π
 π
 4
(b) f1 2 = 1 y g1 2 = π

Sin embargo, observen lo siguiente:

π s
4 X sen(2i − 1) π2
gs =
2 π 2i − 1
i=1
Xs
4 (−1)i+1
=
π 2i − 1
i=1
 
4 1 1 1 1 1 1
= 1− + − + − + ··· +
π 3 5 7 9 11 2s − 1

Ası́ por ejemplo,


π  4
g1 = = 1.273
2 π  
π  4 1
g2 = 1− = 0.848
2 π 3
π   
4 1 1
g3 = 1− + = 1.013
2 π 3 5
π   
4 1 1 1
g4 = 1− + − = 0.921
2 π 3 5 7
π   
4 1 1 1 1
g5 = 1− + − + = 1.063
2 π 3 5 7 9
π   
4 1 1 1 1 1
g6 = 1− + − + − = 0.947
2 π 3 5 7 9 11
64 Profesor Ricardo Santander Baeza 2010

Luego,
π s
4 X (−1)i+1 π
s
X (−1)i+1
lim gs = lim = 1 =⇒ = lim
s→∞ 2 s→∞ π 2i − 1 4 s→∞ 2i − 1
i=1 i=1

(3) Será necesario entonces ser cuidadoso al referirnos al término aproximación de dos funciones, ya sea
en su gráfico o en sus valores, con estos cuidados podemos escribir
s
X ∞
X
sen(2i − 1)x sen(2i − 1)x
f1 (x) ≈ lim = (−π < x < π)
s→∞ 2i − 1 2i − 1
i=1 i=1

10.2. Copiando una función continua. Consideremos ahora una función continua, f2 (x) = |x|, para
(−π < x < π), cuyo gráfico es de la forma

Figura 20 y = f2 (x)
Al igual que en el caso anterior, podemos aproximar el gráfico de la función por otras funciones:

π 4
(1) Para y = − cos x
2 π

 
π 4 cos 3x
(2) y = − cos x +
2 π 4

 
π 4 cos 3x cos 5x
(3) y = − cos x + +
2 π 4 9
Profesor Ricardo Santander Baeza 2010 65

 
π 4 cos 3x cos 5x cos 99x
(4) y = − cos x + + + ···
2 π 4 9 502

Conclusión 10.2.1. Aquı́ tenemos también que

s
X cos(2k − 1)x
π 4
|x| ≈ − lim (−π < x < π)
2 π s→∞ k2
k=1

10.3. Formalización inicial y Análisis de la situación.


Definición 10.3.1. Si notamos C[−π, π] = {f : [−π, π] 7−→ R | f es una función continua} al R espacio
vectorial de las funciones continuas en el intervalo [−π, π] ⊂ R y con valores reales entonces en C[−π, π]
definimos un producto interno como sigue
Z π
hf, gi = f (x)g(x) dx
−π

10.3.2. Propiedades y ejemplos de h, i.


(
π si n = m
(1) Si n ∈ N y m ∈ N entonces hcos nx, cos mxi =
0 si n =
6 m

En efecto

Como, hcos nx, cos mxi = −π cos mx cos nx dx entonces para resolver esta integral podemos aplicar las
siguientes propiedades:

(a) De la paridad de la función coseno sigue que:


Z π Z π
cos mx cos nx dx = 2 cos mx cos nx dx
−π 0
66 Profesor Ricardo Santander Baeza 2010

(b) De las identidades que involucran a la función coseno

cos(α + β) = cos α cos β − sen α sen β


cos(α − β) = cos α cos β + sen α sen β

Deducimos que

1
cos α cos β =
(cos(α + β) + cos(α − β))
2
Y entonces para n 6= m tenemos que
Z π π Z
1
cos mx cos nx dx = 2 (cos((m + n)x) + cos((m − n)x) dx
−π 0 2
Z π
= (cos((m + n)x) + cos((m − n)x) dx
0  π
1 1
= sen((m + n)x) + sen((m − n)x)
m+n m−n
 0
1 1
= sen((m + n)π) + sen((m − n)π) −
m+n m−n
 
1 1
sen((m + n)0) + sen((m − n)0)
m+n m−n
= 0
Ahora, para n = m
Z π Z π π Z
2 1 + cos 2nx
2
hcos nx, cos nxi = cos nx dx = 2
cos nx dx = 2 dx
−π 0 0 2
Z π   π
1
= (1 + cos 2nx) dx = x + sen nx = π
0 2n 0
(
π si n = m
(2) Si n ∈ N y m ∈ N entonces hsen nx, sen mxi =
0 si n 6= m

En efecto

Como, hsen nx, sen mxi = −π sen mx sen nx dx entonces para resolver esta integral podemos aplicar
las siguientes propiedades:

(a) De la imparidad de la función seno sigue que sen mx sen nx es una función par, ası́ que
Z π Z π
sen mx sen nx dx = 2 sen mx sen nx dx
−π 0

(b) De las identidades que involucran a la función coseno

cos(α + β) = cos α cos β − sen α sen β


cos(α − β) = cos α cos β + sen α sen β
Deducimos que
Profesor Ricardo Santander Baeza 2010 67

1
sen α sen β = (cos(α − β) − cos(α + β))
2

Y entonces para n 6= m tenemos que

Z π Z π
1
sen mx sen nx dx = 2 (cos((m − n)x) − cos((m + n)x) dx = 0
−π 0 2

Ahora para n = m

Z π Z π Z π
2 2 1 − cos 2nx
hsen nx, sen nxi = sen nx dx = sen nx dx = 2 dx
0 0 2
Z−π
π
= (1 − cos 2nx) dx = π
0

(3) Si n ∈ N y m ∈ N entonces hsen mx, cos nxi = 0 para (n ∈ N) y (m ∈ N)

En efecto
De la imparidad de la función seno y de la paridad de la función coseno sigue que sen mx cos nx es una
función impar, ası́ que

Z π
sen mx cos nx dx = 0
−π

(4) Si n ∈ N entonces

• h1, 1i = −π dx = 2π

• h1, sen nxi = −π sen nx dx = 0

• h1, cos nxi = −π cos nx dx = 0

Teorema 10.3.3. El conjunto T rigonomn [x] = {1, cos x, cos 2x. . . . , cos nx} ∪ {sen x, sen 2x. . . . , sen nx} es
linealmente independiente (∀n; n ∈ N), y una base para el subespacio generado por T rigonomn [x], se decir,
para hT rigonomn [x]i.

En efecto
68 Profesor Ricardo Santander Baeza 2010

n
X n
X
Si suponemos que ak cos kx + bk sen kx = 0 entonces para s ≥ 0
k=0 k=1

*" n n
# +
X X
ak cos kx + bk sen kx , cos sx = h0, cos sxi =⇒
k=0 k=1
Z " n n
# Z
π X X π
ak cos kx + bk sen kx cos sx dx = 0 dx =⇒
−π k=0 k=1 −π
n
X Z π n
X Z π
ak cos kx cos sx dx + bk sen kx cos sx dx = 0 =⇒
k=0 −π k=1 −π

Xn Z π
ak cos kx cos sx dx = 0 =⇒
k=0 −π
as π = 0 =⇒
as = 0

De forma análoga, para s ≥ 1 tenemos que

*" n n
# +
X X
ak cos kx + bk sen kx , cos sx = h0, sen sxi =⇒
k=0 k=1
Z " n n
# Z
π X X π
ak cos kx + bk sen kx sen sx dx = 0 dx =⇒
−π k=0 k=1 −π
n
X Z π n
X Z π
ak cos kx sen sx dx + bk sen kx sen sx dx = 0 =⇒
k=0 −π k=1 −π

Xn Z π
bk sen kx sen sx dx = 0 =⇒
k=1 −π

bs π = 0 =⇒
bs = 0

Observación 10.3.4. Supongamos que f ∈ hT rigonomn [x]i entonces

n
X n
X
f (x) = ak cos kx + bk sen kx (∀n; n ∈ N)
k=0 k=1

aplicando, primeramente cos sx, obtenemos,


Profesor Ricardo Santander Baeza 2010 69

* n n
+
X X
hf (x), cos sxi = ak cos kx + bk sen kx, cos sx
k=0 k=1
Z π n
X Z π n
X
= cos sx ak cos kx dx + cos sx bk sen kx dx
−π k=0 −π k=1
n Z
X π
= ak cos sx cos kx dx
k=0 −π
Xn Z π
= ak cos sx cos kx dx
k=0 −π
Z π
= as cos sx cos sx dx
−π
= as π (s ≥ 1)

Por tanto,
Z π
1
as = f (x) cos sx dx (s ≥ 1)
π −π

Y para s = 0

Z π
1
hf (x), 1i = a0 2π =⇒ a0 = f (x) dx
2π −π

Análogamente, aplicando sen sx, obtenemos para los coeficientes bs

Z π
1
bs = f (x) sen sx dx
π −π

Definición 10.3.5. Si f ∈ hT rigonomn [x]i ≤ C[−π, π] entonces llamaremos Serie de Fourier de f a:


n
a0 X
f (x) = + ak cos kx + bk sen kx (∀n; n ∈ N)
2
k=1
Y, as y bs , serán llamados los coeficientes de Fourier de f y son obtenidos a través de las fórmulas.
Z π
1
as = f (x) cos sx dx (s ≥ 0)
π −π
Z π
1
bs = f (x) sen sx dx
π −π

Ejemplo 10.3.6. Sea f (x) = x entonces calculemos la serie de Fourier de f (x) = x (∀n; n ∈ N),
(si es posible), es decir;
n
a0 X
x = + ak cos kx + bk sen kx
2
k=1
Para determinar la Serie debemos calcular los coeficientes de Fourier, ak y bk , pero antes de
70 Profesor Ricardo Santander Baeza 2010

hacerlo será conveniente prestar atención a lo siguiente,


(1) f (−x) = −x = −f (x), ası́ que f es una función impar entonces x cos ks es una función impar,
(∀k; k ≥ 0). Por tanto
Z π
1
ak = x cos kx dx = 0 (∀k; k ≥ 0)
π −π
(2) Razonando de la misma forma que encima, x sen kx es función par y entonces
Z
2 π
bk = x sen kx dx (k ≥ 1)
π 0
Ahora integrando por partes tenemos que

u = x : dv = sen(kx)dx    π 1 Z π 
2 x
=⇒ bk = − cos(kx) + cos(kx) dx
1 
 π k 0 k 0
du = dx : v = − cos(kx)
k
Luego,

2 hπ i 2
bk = − cos(kπ) = (−1)k+1 (k ∈ N)
π k k

Ası́ que, la serie es de la forma:


X (−1)k+1
x=2 sen(kx)
k
k=1

(3) Respecto de la situación geométrica, podemos observar que:

(a) El gráfico de y = x es del tipo

-3 -2 -1 1 2 3
-1

-2

-3

Figura 21 y=x
Profesor Ricardo Santander Baeza 2010 71

(b) Si k = 1 entonces para la serie tenemos que su gráfico es del tipo:


2

-3 -2 -1 1 2 3

-1

-2

1
X (−1)k+1
Figura 22 y=2 sen(kx)
k
k=1

(c) Para k = 2 tenemos


2

-3 -2 -1 1 2 3

-1

-2

2
X (−1)k+1
Figura 23 y=2 sen(kx)
k
k=1

(d) Para k = 50 sucede que

3
2
1

-3 -2 -1 1 2 3
-1
-2
-3

50
X (−1)k+1
Figura 24 y=2 sen(kx)
k
k=1
72 Profesor Ricardo Santander Baeza 2010

10.4. Ejercicios Propuestos. Desarrolle en Serie de Fourier en el intervalo [−π, π] las siguientes funciones:

(1) f (x) = ex

(2) f (x) = sen x

(3) f (x) = | sen x|


(
0 : si − π < x ≤ 0
(4) f (x) =
x ; si 0≤x<π


π2 X 1
Además demuestre que: =
8 (2k − 1)2
k=1
CAPITULO 4

Clasificación de Espacios Vectoriales

El trabajo solidario es lo único que hace


humano al ser humano

Si Consideramos dos K espacios vectoriales V y W entonces según lo que hemos discutido en el Capitulo
Espacios Vectoriales, estos espacios sólo tienen sentido si en cada uno de ellos se define claramente las reglas
del juego, es decir se opta por una base que permita representar en forma finita y precisa cada uno de
los vectores de ese espacio como una combinación lineal, o como una imagen matricial usando ”la función
corchete” correspondiente en su espacio coordenado de matrices.

En concreto tenemos para α = {v1 , v2 , . . . , vn } una base de V y para β = {w1 , w2 , . . . , wm } una base de W
la situación:

n
X m
X
v= ai vi w= ci wi
i=1 i=1


?
(V, α) (W, β)

? (1)
MK (n × 1) MK (m × 1) ∈

   
a1 c1

 a2 


 c2 

[v]α =  ..  [w]β =  .. 
 .   . 
an cm

Figura 1: Cuadro 1 de mando para la gestión externa

En el diagrama (1) vemos que el conector que necesitamos, más que llevar vectores en vectores, debe llevar
combinaciones lineales de V en combinaciones lineales de W. Respecto de esto, tenemos dos antecedentes,
que podemos exhibir:

(1) Para cualquier base α del espacio vectorial V

(a) [u + v]α = [u]α + [v]α , y

(b) [λ · u]α = λ[u]α para λ ∈ K.

3
4 Profesor Ricardo Santander Baeza 2010

(2) [I]αα21 [u]α1 = [u]α2

Es claro que lo anterior es gestión interna, y lo que queremos hacer ahora es gestión externa entre espacios
vectoriales, esta se realizará a través de las aplicaciones naturales entre ellos, las que son conocidas como
transformaciones lineales. Esencialmente lo que se desea es clasificar los espacios vectoriales, respecto del
único criterio que hasta ahora hemos desarrollado, y que es la dimensión del espacio, para ello será necesario:
(1) Construir una transformación lineal sujeta a condiciones entre dos espacios vectoriales de dimensión
finita
(2) Verificar si una transformación lineal es un isomorfismo de espacios vectoriales
(3) Aplicar el teorema de la dimensión, para filtrar la viabilidad de que dos espacios sean o no isomorfos
(4) Construir la representación matricial de una transformación lineal
(5) Relacionar el concepto de inversión matricial e isomorfismo de una transformación lineal.

1. Transformaciones Lineales: La Herramienta


Definición 1.1. Sean V y W dos K espacios vectoriales y T : V 7−→ W una función. T se llamará una
transformación lineal entre los K espacios vectoriales V y W si verifica las siguientes propiedades

(1) T (u + v) = T (u) + T (v) para cada u ∈ V y v ∈ V


(2) T (λ · u) = λT (u) para cada u ∈ V y λ ∈ K

La notación que usaremos para coleccionar estas transformaciones será la siguiente:

LK (V, W) = {T : V 7−→ W | T es una transformación lineal}, y

LK (V) = LK (V, V)

Ejemplo 1.1.1. Sea T : R3 7−→ R2 tal que T (x, y, z) = (x − y + z, x + z) entonces T ∈ LR (R3 , R2 )

En efecto, en concordancia con la definición podemos ejecutar el siguiente algoritmo o procedimiento de


trabajo:

Etapa 1. Introducimos e interpretamos los datos del dominio de T

• u ∈ R3 ⇐⇒ u = (u1 , u2 , u3 ) donde ui ∈ R para (i = 1, 2, 3)


• v ∈ R3 ⇐⇒ v = (v1 , v2 , v3 ) donde vi ∈ R para (i = 1, 2, 3)
• u + v = (u1 + v1 , u2 + v2 , u3 + v3 ) ∈ R3

Etapa 2. Debemos mostrar que T (u + v) = T (u) + T (v)

T (u + v) = T ((u1 + v1 , u2 + v2 , u3 + v3 ))
= ((u1 + v1 ) − (u2 + v2 ) + (u3 + v3 ), (u1 + v1 ) + (u3 + v3 ))
= (u1 + v1 − u2 − v2 + u3 + v3 , u1 + v1 + u3 + v3 )
= ([u1 − u2 + u3 ] + [v1 − v2 + v3 ], [u1 + u3 ] + [v1 + v3 ])
= (u1 − u2 + u3 , u1 + u3 ) + (v1 − v2 + v3 , v1 + v3 )
= T ((u1 , u2 , u3 )) + T ((v1 , v2 , v3 ))
= T (u) + T (v)
Profesor Ricardo Santander Baeza 2010 5

Etapa 3. Finalmente debemos mostra que T (λu) = λT (u)


T (λu) = T ((λu1 , λu2 , λu3 ))
= (λu1 − λu2 + λu3 , λu1 + λu3 )
= λ(u1 − u2 + u3 , u1 + u3 )
= λT ((u1 , u2 , u3 ))
= λT (u)
Ası́ que T ∈ LR (, R3 R2 )
Ejemplo 1.1.2. Construcción teórica de transformaciones lineales Sean V y W dos K espacios
vectoriales, donde K = R ó K = C y sea α = {v1 , v2 , . . . , vn } una base cualquiera de V entonces
(1) Cada u ∈ V se escribe en forma única como u = a1 v1 + a2 v2 + · · · + an vn

(2) Si existiese T ∈ LK (V, W) entonces deberı́a suceder que:


T (u) = T (a1 v1 + a2 v2 + · · · + an vn ) = a1 T (v1 ) + a2 T (v2 ) + · · · + an T (vn )
(3) Motivados por lo anterior. Si definimos una función T a través del siguiente procedimiento:

(a) T (vi ) = wi , donde cada wi ∈ W es arbitrariamente escogido para i = 1, 2, . . . , n


n
X n
X n
X
(b) Si u = ai vi ∈ V entonces T (u) = ai T (vi ) = ai wi ∈ W
i=1 i=1 i=1
entonces T ∈ LK (V, W)

En efecto
n
X n
X n
X
(i) Si u = ai vi ∈ V y v = bi vi ∈ V entonces u + v = (ai + bi )vi . Ası́ que
i=1 i=1 i=1
n
! n n
X X X
T (u + v) = T (ai + bi )vi = (ai + bi )T (vi ) = (ai + bi )wi
i=1 i=1 i=1
n n n n n
! n
!
X X X X X X
= ai wi + bi wi = ai T (vi ) + bi T (vi ) = T ai vi +T bi vi
i=1 i=1 i=1 i=1 i=1 i=1
= T (u) + T (v)

(ii) Sea λ ∈ K entonces para u ∈ V, como encima tenemos que

n
! n n
X X X
T (λu) = T (λai )vi = (λai )T (vi ) = (λai )wi
i=1 i=1 i=1
n n n
!
X X X
= λ ai wi = λ ai T (vi ) = λT ai vi
i=1 i=1 i=1
= λT (u)
Luego, T ∈ LK (V, W) Esta técnica, se basa en el hecho que es suficiente definir la transformación en
una base, y después se ”extiende por linealidad”

2. Ejercicios Propuestos de Transformaciones Lineales


(1) Demuestre que las siguientes funciones son transformaciones lı́neales:
6 Profesor Ricardo Santander Baeza 2010

(i) T : R3 7−→ R2 ; tal que T (x, y, z) = (x + y − z, x − y − z)

(ii) T : R2 7−→ R3 ; tal que T (x, y) = (x + y, x − y, x − 3y)

(iii) T : Rn 7−→ Rn ; tal que T (u) = 2u; u ∈ Rn


3
!
X
(iv) T : R3 [x] 7−→ R2 [x]; tal que T ai xi = a2 + a0 x − a1 x2
i=0
n+1
! n
X X
i
(v) T : Rn+1 [x] 7−→ Rn [x]; tal que T ai x = jaj xj
i=0 j=0

(vi) T : MR (3) 7−→ MR (3); tal que T (aij ) = (aji )

3. Propiedades Cualitativas de las Transformaciones Lineales


Sea T ∈ LK (V, W) tal que dimK (V) = n entonces

(1) T (0V ) = 0W

En efecto

(T (0V ) = T (0V + 0V ) = T (0V ) + T (0V )) =⇒ T (0V ) = 0W


(2) T inyectiva =⇒ n ≤ dimK (W)

En efecto

(a) Si α = {v1 , v2 , . . . , vn } una base de V entonces T (α) := {T (v1 ), T (v2 ), . . . , T (vn )} ⊂ W

(b) T (α) es linealmente independiente o linealmente dependiente en W. Ası́ que verifiquemos cual es
su condición

n n
!
X X
ai T (vi ) = 0W =⇒ T ai vi = 0W
i=1 i=1
n
!
X
=⇒ T ai vi = T (0V ) (Ver (1))
i=1
n
X
=⇒ ai vi = 0V (T inyectiva)
i=1
=⇒ ai = 0 ( para i = 1, 2, . . . , n), Pues α es linealmente independiente
=⇒ T (α) es linealmente independiente en W
=⇒ dimK (W) ≥ n
Es conveniente recordar que la dimensión de un espacio vectorial es el número máximo
de vectores linealmente independiente soportado por el espacio

(3) T sobreyectiva =⇒ dimK (W) ≤ n

En efecto
Profesor Ricardo Santander Baeza 2010 7

(a) Como T es sobreyectiva entonces Img(T ) = W, es decir

w ∈ W =⇒ (∃u; u ∈ V) : T (u) = w (∗)

(b) Como dimK (V) = n entonces podemos invocar la existencia de una base α = {v1 , v2 , . . . , vn } de
V, y entonces retornando a (∗) tenemos que

n n
!
X X
w ∈ W ⇐⇒ (∃u; u ∈ V) : u = ai vi ∧ T ai vi =w
i=1 i=1
Xn n
X
⇐⇒ (∃u; u ∈ V) : u = ai vi ∧ ai T (vi ) = w
i=1 i=1
⇐⇒ w ∈ h{T (v1 ), T (v2 ), . . . , T (vn )}i

Luego W = h{T (v1 ), T (v2 ), . . . , T (vn )}i =⇒ dimK (W) ≤ n

Es conveniente recordar que la dimensión de un espacio vectorial es el número mı́nimo


de vectores generadores soportado por el espacio

(4) T biyectiva =⇒ dimK (V) = dimK (W)

En efecto


T inyectiva =⇒ n ≤ dimK (W)
=⇒ dimK (V) = dimK (W)
T sobreyectiva =⇒ dimK (W) ≤ n

(5) Reciprocamente, supongamos que, dimK (V) = dimK (W) entonces usando la técnica usada en el ejemplo
(1.1.2), podemos construir una transformación lineal, y además biyectiva.

En efecto

(a) Sean α = {v1 , v2 , . . . , vn } una base de V y β = {w1 , w2 , . . . , wn } una base de W

(b) Definamos entonces en la base, y extendamos por linealidad.


T (v1 ) = w1 
 !
 n n
T (v2 ) = w2  X X
.. ∧ T (u) = T ai vi = ai wi (para cada u ∈ V)
. 

 i=1 i=1
T (vn ) = wn 
8 Profesor Ricardo Santander Baeza 2010

n
X n
X
(c) T es inyectiva, pues si u = ai vi y v = bi vi entonces
i=1 i=1
n
X n
X
T (u) = T (v) =⇒ ai wi = bi wi
i=1 i=1
Xn
=⇒ (ai − bi )wi = 0W
i=1
=⇒ ai − bi = 0 (i = 1, 2, . . . , n) ( Pues, β es una base de W)
=⇒ ai = bi (i = 1, 2, . . . , n)
Xn n
X
=⇒ ai vi = bi vi
i=1 i=1
=⇒ u = v

(d) T es sobreyectiva, pues si w ∈ W entonces como β es una base de W existen únicos escalares
n
X
c1 , c2 , . . . , cn tales que w = ci wi . Pero entonces el argumento que sigue es generado por
i=1
construcción, en el siguiente sentido:
n n n
!
X X X
w= ci wi =⇒ w = ci T (vi ) =⇒ w = T ci vi =⇒ w ∈ Img(T )
i=1 i=1 i=1

Ası́ que W ⊂ Img(T ) y siempre Img(T ) ⊂ W, por tanto, W = Img(T ), y T es sobreyectiva

Definición 3.1. Sean V y W dos K espacios vectoriales y T : V 7−→ W una función. Diremos que T
es un isomorfismo de espacios vectoriales si:

(a) T ∈ LK (V, W), y

(b) T es biyectiva

En tal caso diremos que, V y W son isomorfos y lo notaremos como V ∼


=W
Teorema 3.2. (Primer criterio de clasificación). Si V y W son dos K espacios vectoriales entonces

(a) V ∼
= W =⇒ dimK (V) = dimK (W)

(b) Recı́procamente, si dimK (V) = dimK (W) entonces existe un isomorfismo de espacios vectoriales,
esta construcción es estándar, pero depende de las bases
En efecto

Estos resultados son la formalización de lo discutido, en lo que va, de esta Sección


Teorema 3.2.1. La relación ser isomorfos es una relación de equivalencia en la clase de K espacios
vectoriales.

En efecto

(a) V ∼
= V, pues la función identidad, 1V ∈ LK (V) y es biyectiva
Profesor Ricardo Santander Baeza 2010 9

(b) Si V ∼
= W entonces existe T ∈ LK (V, W) isomorfismo, y como en particular T es biyectiva en-
tonces existe T −1 definida por T −1 (w) = v ⇐⇒ T (v) = w que es biyectiva, además

T −1 (w1 + w2 ) = v ⇐⇒ T (v) = w1 + w2 , pero como T es biyectiva entonces existen u1 ∈ V y


u2 ∈ V tales que

T (u1 ) = w1 ⇐⇒ u1 = T −1 (w1 )
T (u2 ) = w2 ⇐⇒ u2 = T −1 (w2 )
Ası́ que,

[T (v) = w1 + w2 = T (u1 ) + T (u2 ) = T (u1 + u2 )] =⇒ [v = u1 + u2 = T −1 (w1 ) + T −1 (w2 )]

Luego, T −1 (w1 + w2 ) = T −1 (w1 ) + T −1 (w2 )

Análogamente,

T −1 (λw) = v ⇐⇒ T (v) = λw, pero T (u) = w, pues T es sobreyectiva, y entonces


T (v) = λw =⇒ T (v) = λT (u) =⇒ T (v) = T (λu) =⇒ v = λu =⇒ v = λT −1 (w)

Luego, T −1 (λw) = λT −1 (w), y T −1 ∈ LK (W, V), y es un isomorfismo y W ∼


=V

(c) Si V ∼=WyW∼ = U entonces existen T ∈ LK (V, W) y H ∈ LK (W, U), isomorfismos que verifican
las propiedades:
T H H◦T
V 7−→ W 7−→ U biyectivas entonces V 7−→ U es biyectiva, y

(i) (H ◦ T )(u + v) = (H ◦ T )(u) + (H ◦ T )(v), pues

(H ◦ T )(u + v) = H(T (u + v))


= H(T (u) + T (v))
= H(T (u)) + H(T (v))
= (H ◦ T )(u) + (H ◦ T )(v)
(ii) (H ◦ T )(λu) = λ(H ◦ T )(u), pues

(H ◦ T )(λu) = H(T (λu))


= H(λT (u))
= λH(T (u))
= λ(H ◦ T )(u)
Ası́ que (H ◦ T ) ∈ LK (V, U), y es un isomorfismo y V ∼
= U.

4. Reinterpretación de las Propiedades de las Transformaciones Lineales


Iniciemos el proceso con T ∈ LK (V, W), como T (0V ) = 0W entonces para que T no sea inyectiva basta
que exista u 6= 0V tal que T (u) = 0W , esto motiva preguntar, ¿Cómo controlar la inyectividad desde el
interior del espacio vectorial?

Partamos nuestro análisis conjuntando estos elementos que son anulados por la transformación.
10 Profesor Ricardo Santander Baeza 2010

Definición 4.1. Sean V y W dos K espacios vectoriales y T ∈ LK (V, W) entonces llamaremos núcleo
de T al conjunto

ker(T ) = {u ∈ V | T (u) = 0W }

Podemos enunciar respecto de la definición anterior el siguiente:

Lema 4.1.1. Sean V y W dos K espacios vectoriales y T ∈ LK (V, W) entonces ker(T ) ≤ V

Demostración

(a) Como 0V ∈ V y T (0V ) = 0W entonces 0V ∈ ker(T ), y ker(T ) 6= ∅

(b) Si u ∈ ker(T ) y v ∈ ker(T ) entonces (u + v) ∈ ker(T ).

En efecto


u ∈ ker(T ) ⇐⇒ u ∈ V ∧ T (u) = 0W
=⇒ (u + v) ∈ V ∧ T (u + v) = T (u) + T (v) = 0W
v ∈ ker(T ) ⇐⇒ v ∈ V ∧ T (v) = 0W

Ası́ que (u + v) ∈ ker(T )

(c) Si u ∈ ker(T ) y λ ∈ K entonces λu ∈ ker(T ).

En efecto

u ∈ ker(T ) ⇐⇒ u ∈ V ∧ T (u) = 0W
=⇒ λu ∈ V ∧ T (λu) = λT (u) = λ0W = 0W

Ası́ que λu ∈ ker(T ), y entonces ker(T ) ≤ V

Lema 4.1.2. Sean V y W dos K espacios vectoriales y T ∈ LK (V, W) entonces

T inyectiva ⇐⇒ ker(T ) = {0V }

En efecto

Si suponemos que T es inyectiva entonces

u ∈ ker(T ) =⇒ u ∈ V ∧ T (u) = 0W
=⇒ u ∈ V ∧ T (u) = T (0V )
=⇒ u ∈ V ∧ u = 0V (Pues, T es inyectiva)
=⇒ ker(T ) ⊂ {0V }

Además, 0V ∈ V y T (0V ) = 0W . Ası́ que {0V } ⊂ ker(T ), y {0V } = ker(T )


Profesor Ricardo Santander Baeza 2010 11

Recı́procamente, si suponemos que {0V } = ker(T ) y que T (u) = T (v) entonces

T (u) = T (v) =⇒ T (u) − T (v) = 0W


=⇒ T (u) + (−1)T (v) = 0W
=⇒ T (u) + T ((−1)v) = 0W
=⇒ T (u + (−1)v) = 0W
=⇒ T (u − v) = 0W
=⇒ (u − v) ∈ ker(T )
=⇒ (u − v) = 0V
=⇒ u=v

Ası́ que T es inyectiva.

Respecto de la imagen de una transformación lineal tenemos el siguiente resultado

Lema 4.1.3. Sean V y W dos K espacios vectoriales y T ∈ LK (V, W) entonces Img(T ) ≤ W

En efecto

(a) T (0V ) = 0W =⇒ 0W ∈ Img(T ). Ası́ que Img(T ) 6= ∅

(b) Si w1 ∈ Img(T ) y w2 ∈ Img(T ) entonces existen por definición, v1 ∈ V y v2 ∈ V tales que


T (v1 ) = w1 y T (v2 ) = w2 , pero entonces
w1 + w2 = T (v1 ) + T (v2 ) = T (v1 + v2 ) =⇒ (w1 + w2 ) ∈ Img(T )

(c) Ahora, Si w ∈ Img(T ) y λ ∈ K entonces existe u ∈ V tal que T (u) = w , de donde sigue que
λw = λT (u) = T (λu) =⇒ λw ∈ Img(T )

Finalmente, los cálculos anteriores muestran que Img(T ) ≤ W,


La traducción de las cualidades de una transformación lineal, serán codificadas en el lenguaje del
álgebra lineal a través del siguiente fundamental teorema

Teorema 4.2. Teorema de la dimensión Si V y W son dos K espacios vectoriales tal que dimK (V) =
n con n ∈ N, y T ∈ LK (V, W) entonces

dimK (V) = dimK (ker(T )) + dimK (Img(T ))


En efecto

(a) Si dimK (ker(T )) = s entonces 0 ≤ s ≤ n, y

(b) Si s = n, entonces ker(T ) = V pues, ker(T ) ≤ V. Ası́ que T (u) = 0W (∀u; u ∈ V). Por tanto,
Img(T ) = {0W },y

dimK (V) = n + 0
12 Profesor Ricardo Santander Baeza 2010

(c) Si s ≥ 0 entonces a partir de α = {v1 , v2 , . . . , vs } una base de ker(T ) completamos a una base β
de V, como sigue
β = {v1 , v2 , . . . , vs , vs+1 , . . . , vn }
n
X n
X
Luego, para cada u ∈ V tenemos que u = ai vi , y T (u) = ai T (vi ) de donde sigue que
i=1 i=1
n
X n
X
T (u) = ai T (vi ) =⇒ T (u) = ai T (vi ), (Pues,T (vi ) = 0W para 1 ≤ i ≤ s)
i=1 i=s+1

=⇒ T (u) ∈ h{T (vs+1 ).T (vs+2 ), . . . , T (vn )}i

Luego, Img(T ) = h{T (vs+1 ).T (vs+2 ), . . . , T (vn )}i. Ası́ que dimK (Img(T )) ≤ (n − s).

Finalmente verifiquemos si h{T (vs+1 ).T (vs+2 ), . . . , T (vn )}i es linealmente independiente o depen-
diente.

a1 T (vs+1 ) + · · · + an T (vn ) = 0W =⇒ T (a1 vs+1 + · · · + an vn ) = 0W

=⇒ (a1 vs+1 + · · · + an vn ) ∈ ker(T )

=⇒ a1 vs+1 + · · · + an vn = 0V (dimK (ker(T ) = s)

=⇒ a1 = a2 = · · · = an = 0

Luego, dimK (Img(T )) = (n − s), y

dimK (ker(T )) + dimK (Img(T )) = s + n − s = n = dimK (V)


Corolario 4.3. Si V y W son dos K espacios vectoriales tal que dimK (V) = dimK (V) = n con n ∈ N,
y T ∈ LK (V, W)
entonces
T inyectiva ⇐⇒ T sobreyectiva
En efecto

T inyectiva ⇐⇒ ker(T ) = {0V }


⇐⇒ dimK (ker(T )) = 0
⇐⇒ dimK (V) = dimK (Img(T ))
⇐⇒ dimK (W) = dimK (Img(T ))
⇐⇒ W = Img(T )
⇐⇒ T sobreyectiva
Después de lo analizado, el diagrama (1) se transforma en:
Profesor Ricardo Santander Baeza 2010 13

n
X m
X
v= ai vi T (v) = ci wi
i=1 i=1



T
(V, α) (W, β)

? (2)
MK (n × 1) MK (m × 1) ∈


   
a1 c1

 a2 


 c2 

[v]α =  ..  [T (v)]β =  .. 
 .   . 
an cm

Figura 2: Cuadro 2 de mando para la gestión externa

5. Reinterpretación Operativa de las Transformaciones Lineales


Si consideramos v ∈ V entonces T (v) ∈ W, esto es claro y aparentemente obvio, pero si lo observamos
con cuidado podemos obtener sorprendentes resultados:

En efecto
n
X m
X
 Si v = ai vi ∈ (V, α) y T (v) = w = ci wi ∈ (W, β) entonces a nivel de coordenadas debemos
i=1 i=1
tener que
 
a1

 a2 

[v]α =  ..  ∈ MK (n × 1) (3)
 . 
an
 
c1

 c2 

[T (v)]β = [w]β =  ..  ∈ MK (m × 1) (4)
 . 
cm
 Por otra parte, usando las propiedades de T tenemos que:
n
! n
X X
w = T (v) = T ai vi = ai T (vi ) ∈ W (5)
i=1 i=1
 Ahora, combinando la información de (4) y (5) obtenemos una nueva y útil ecuación.
" n # n
X X
[T (v)]β = ai T (vi ) = ai [T (vi )]β (6)
i=1 β i=1
14 Profesor Ricardo Santander Baeza 2010

 Como T (vi ) ∈ (W, β), para (i = 1, 2, . . . , n) entonces sus coordenadas en la base β deben ser de la
forma:

 
ci1
m

 ci2 
 X
[T (vi )]β =  ..  ⇐⇒ T (vi ) = cij wj = ci1 w1 + ci2 w2 + · · · + cim wm (7)
 . 
j=1
cim

 Sustituyendo, (4) y (7) en (6) obtenemos la decisiva relación

         
c1 c11 c21 ci1 cn1

 c2 


 c12 


 c22 


 ci2 


 cn2 

 ..  = a1 .. +a
 2 ..  + · · · + ai ..  + · · · + an ..  (8)
 .   .   .   .   . 
cm c1m c2m cim cnm
| {z } | {z } | {z } | {z } | {z }
[T (v)]β [T (v1 )]β [T (v2 )]β [T (vi )]β [T (vn )]β

 Finalmente, realizando las operaciones pertinentes en (8) obtenemos que

      
c1 a1 c11 + a2 c21 + · · · + an cn1 c11 c21 ... cn1 a1

 c2 


 a1 c12 + a2 c22 + · · · + an cn2  
  c12 c22 ··· cn2 

 a2 

 ..  =  .. = .. .. ..  ..  (9)
 .   .   . . .  . 
cm a1 c1m + a2 c2m + · · · + an cnm c1m c2m · · · cnm an
| {z }
[T (v)]β

Es decir tenemos la propiedad fundamental:


[T (v)]β = [T (v1 )]β [T (v2 )]β ··· [T (vn )]β [v]α (10)

Definición 5.1. Si V y W son dos K espacios vectoriales tal que dimK (V) = n y dimK (W) = m,
y T ∈ LK (V, W) entonces llamaremos representación matricial de la Transformación lineal T en las
bases α y β a la matriz


[T ]βα = [T (v1 )]β [T (v2 )]β ··· [T (vn )]β ∈ MK (m × n)

Ejemplo 5.1.1. Sea T ∈ LK (R3 , R2 ) tal que T (x, y, z) = (x + y + z, x − y + 3z) y consideremos las
bases de R3 y R2 respectivamente

α = {(1, 1, 1), (1, 1, 0), (1, 0, 0)} y β = {(1, 1), (1, −1)}

entonces la observación anterior sugiere el siguiente algoritmo o procedimiento:

Etapa 1. Sabemos que



[T ]βα = [T (1, 1, 1)]β [T (1, 1, 0)]β [T (1, 0, 0)]β ∈ MK (2 × 3) (11)

Etapa 2. Calculamos [T (x, y, z)]β , para cualquier (x, y, z) ∈ R3 !!!


Profesor Ricardo Santander Baeza 2010 15

T (x, y, z) = a1 (1, 1) + a2 (1, −1) ⇐⇒ (x + y + z, x − y + 3z) = (a1 + a2 , a1 − a2 )


a1 + a2 = x + y + z
⇐⇒
a1 − a2 = x − y + 3z
=⇒ a1 = x + 2z ∧ a2 = y − z

De donde sigue por definición que;


 
x + 2z
[T (x, y, z)]β = (12)
y − z
Etapa 3. Aplicando la fórmula (12) en (11) tenemos que la matriz pedida es:
 
3 1 1
[T ]βα =
0 1 0
Después de esta definición y juntando los resultados anteriores obtenemos un importante lista de
poderosas conclusiones:
Propiedad 5.2. Si V y W son dos K espacios vectoriales tal que dimK (V) = n y dimK (W) = m, y
T ∈ LK (V, W) entonces

[T ]βα [v]α = [T (v)]β

En efecto

El resultado sigue de (10) y de la Definición (5.1).


Finalmente, el diagrama (1) se completa y se puede representar como sigue:
Xn m
X
v= ai vi T (v) = ci wi
i=1 ∈ i=1

T
(V, α) (W, β)

[T ]βα
MK (n × 1) MK (m × 1) ∈ (13)

   
a1 c1

 a2 


 c2 

[v]α =  ..  [T (v)]β =  .. 
 .   . 
an cm

Figura 3: Cuadro final de mando para la gestión externa

Observación 5.2.1. La conección expuesta en el diagrama (13), entre la teorı́a y la práctica, siempre
hace referencia a las bases α y β de los espacios vectoriales involucrados, pero en realidad esto no es
una restricción sino más bien una holgura.
16 Profesor Ricardo Santander Baeza 2010

En efecto
Supongamos que tenemos las nuevas bases α′ y β ′ de V y W, respectivamente entonces podemos deter-
′ ′
minar las nuevas matrices: [T ]βα′ ; [T ]βα ; [T ]βα′ . ¿Tienen alguna relación entre si esta matrices?.

Para responder utilicemos nuestros diagramas que permiten conectar ”la gestión interna con la externa”

 Relación entre [T ]βα′ y [T ]βα


1V T
(V, α′ ) (V, α) (W, β)

a
a

rn
rn
[ ]α′ [ ]α [ ]β

te
te

ex
in
n

n
tió

tió
es

es
G

G
MK (n × 1) MK (n × 1) MK (m × 1)
[I]αα′ [T ]βα

Figura 4: [T ]βα′ = [T ]βα · [I]αα′

En este caso; como lo muestra el cuadro encima:

T = T ◦ 1V =⇒ [T ]βα′ = [T ]βα · [I]αα′


 Relación entre [T ]βα y [T ]βα
T 1W
(V, α) (W, β) (W, β ′ )
a

a
rn

rn

[ ]α [ ]β [ ]β ′
te

te
ex

in
n
n

tió
tió

es
es

G
G

MK (n × 1) MK (m × 1) MK (m × 1)

[T ]βα [I]ββ
′ ′
Figura 5: [T ]βα = [I]ββ · [T ]βα

En este caso; como lo muestra el cuadro encima:



= [I]ββ · [T ]βα

T = 1W ◦ T =⇒ [T ]βα


 Relación entre [T ]βα′ y [T ]βα
Profesor Ricardo Santander Baeza 2010 17

1V T 1W
(V, α′ ) (V, α) (W, β) (W, β ′ )

a
a

a
rn
rn

rn
[ ]α′ [ ]α [ ]β [ ]β ′

te
te

te
ex
in

in
n

n
n
tió

tió
tió
es

es
es
G

G
G
MK (n × 1) MK (n × 1) MK (m × 1) MK (m × 1)

[I]αα′ [T ]βα [I]ββ
′ ′
Figura 6: [T ]βα′ = [I]ββ · [T ]βα · [I]αα′

En este caso; como lo muestra el cuadro encima:

′ ′
T = 1W ◦ T ◦ 1V =⇒ [T ]βα′ = [I]ββ · [T ]βα · [I]αα′

 En particular si V = W entonces [T ]αα = [I]αβ [T ]ββ [T ]βα

Teorema 5.3. (Segundo criterio de clasificación) Si V y W son dos K espacios vectoriales tal que
dimK (V) = n y dimK (W) = n, y T ∈ LK (V, W) entonces

T Isomorfismos ⇐⇒ [T ]βα ∈ U(MK (n))

Podemos ”dibujar una demostración usando diagramas” como sigue:


(a) Para la relación T −1 ◦ T tenemos
T T −1
(V, α) (W, β) (V, α)

[ ]α [ ]β [ ]α

[T ]βα [T −1 ]αβ
MK (n × 1) MK (n × 1) MK (n × 1)

Figura 7: [T −1 ◦ T ]αα = [I]αα = In = [T −1 ]αβ · [T ]βα

(b) Y para la relación T ◦ T −1 tenemos:


18 Profesor Ricardo Santander Baeza 2010

T −1 T
(W, β) (V, α) (W, β)

[ ]β [ ]α [ ]β

[T −1 ]αβ [T ]βα
MK (n × 1) MK (n × 1) MK (n × 1)

Figura 8: [T ◦ T −1 ]ββ = [I]ββ = In = [T ]βα · [T −1 ]αβ

Ahora, la justificación es la siguiente:


T Isomorfismos ⇐⇒ (∃T −1 ; T −1 ∈ LK (W, V)) : [T ◦ T −1 = 1W ∧ T −1 ◦ T = 1V ]
⇐⇒ [T ◦ T −1 ]ββ = [1W ]ββ ∧ [T −1 ◦ T ]αα = [1V ]αα
⇐⇒ [T ]βα [T −1 ]αβ = In ∧ [T −1 ]αβ [T ]βα = In
⇐⇒ [T −1 ]αβ = ([T ]βα )−1
⇐⇒ [T ]βα ∈ U(MK (n))
Corolario 5.3.1. Si V y W son dos K espacios vectoriales tal que dimK (V) = n y dimK (W) = n, y
T ∈ LK (V, W) entonces

T Isomorfismos ⇐⇒ det[T ]βα 6= 0


En efecto
T Isomorfismos ⇐⇒ [T ]βα ∈ U(MK (n)) ⇐⇒ det[T ]βα 6= 0

6. Proyectos y Construcción de Transformaciones Lineales


6.1. Proyecto 1. Restricciones en el usuario final ósea en el espacio de llegada. Construya
T ∈ LR (R2 , R3 ) tal que Img(T ) = h{(1, 0, 0), (1, 1, 1)}i

Solución

Podemos usar cualquier base (condiciones óptimas en el paı́s de origen) de R2 , usemos por eficiencia la
base canónica:

Definamos:

T (1, 0) = (1, 0, 0)
T (0, 1) = (1, 1, 1)

Luego, T (x, y) = T (x(1, 0) + y(0, 1)) = xT (1, 0) + yT (0, 1) = x(1, 0, 0) + y(1, 1, 1)

Ası́ que una alternativa de definición es T (x, y) = (x + y, y, y).

Análisis del Proyecto 1. Restricciones en el usuario final ósea en el espacio de llegada

◦ El estudiante debe observar que en este proyecto, la libertad de la construcción está en que puede
escoger cualquier base para definir la transformación lineal, y ası́ obtener una obra que cumpla
Profesor Ricardo Santander Baeza 2010 19

con las caracterı́sticas pedidas.

◦ Además debe observar que la respuesta es única (salvo múltiplos), aunque puede elegir cualquiera
de las infinitas bases del espacio.

◦ La palabra eficiencia significa exactamente lo siguiente. Si usa otra conjunto, digamos α, para
definir la transformación debe realizar las siguiente tarea obligada:

• Debe mostrar que α es una base del espacio, con el consiguiente gasto de tiempo y energı́a.

6.2. Proyecto 2. Restricciones en el usuario inicial ósea en el espacio de salida. Construya


T ∈ LR (R2 , R3 ) tal que ker(T ) = h{(1, 1)}i

Solución

Aquı́ no podemos usar cualquier base de R2 , pues tenemos una restricción de ”presupuesto”, porque
la condición expuesta esta en el dominio de la función y por tanto no es un resultado.

De acuerdo a la técnica ahora debemos construir una base que contemple la restricción

Si α = {(1, 1), 1, 0}, por ejemplo entonces debemos verificar que α es una base.

• Por demostrar que α es Linealmente independiente

a1 (1, 1) + a2 (1, 0) = (0, 0) =⇒ (a1 + a2 , a1 ) = (0, 0)


=⇒ a1 + a2 = 0 ∧ a1 = 0
=⇒ a1 = 0 ∧ a2 = 0
Luego, α es linealmente independiente

• Por demostrar que α es un sistema de generadores para R2

a1 (1, 1) + a2 (1, 0) = (x, y) =⇒ (a1 + a2 , a1 ) = (x, y)


=⇒ a1 + a2 = x ∧ a1 = y
=⇒ a1 = y ∧ a2 = x − y
Por tanto

(x, y) = y(1, 1) + (x − y)(1, 0)


• Ahora definamos, por ejemplo

T (1, 1) = (0, 0, 0) ( Esto es obligación)


T (1, 0) = (1, 0, 0) ( Esto es libre)
• Finalmente

T (x, y) = yT (1, 1) + (x − y)T (1, 0)


= y(0, 0, 0) + (x − y)(1, 0, 0)
= (x − y, 0, 0)
20 Profesor Ricardo Santander Baeza 2010

Ası́ que una alternativa de definición es T (x, y) = (x + y, y, y).

Análisis del Proyecto 2: Restricciones en el usuario inicial ósea en el espacio de salida

◦ El estudiante debe observar que en este proyecto, la libertad de la construcción no es completa, ya


que cualquier base debe considerar el par (1, 1), para definir la transformación lineal, y ası́ obtener
una obra que cumpla con las caracterı́sticas pedidas.

◦ Además debe observar que la respuesta no es única, porque tiene la libertad de asignar cualquier
trio en R3 , salvo el origen (0, 0, 0), caso contrario la dimensión del núcleo serı́a 2 y no 1.

◦ La palabra eficiencia significa exactamente aquı́ lo siguiente. Es preciso verificar cada uno de los
pasos del algoritmo empleado en la construcción.

6.3. Proyecto 3. Restricciones combinadas, en el usuario inicial y en el usuario final.


Construya T ∈ LR (R2 , R3 ) tal que verifique simultáneamente las condiciones

(a) ker(T ) = h{(1, 1)}i


(b) Img(T ) = h{(1, 0, 0)}i
Solución

Aprovecharemos la información acumulada hasta ahora

De acuerdo a la técnica que hemos implementado, ya sabemos que debemos construir una base que
contemple la restricción

En esta dirección sabemos que α = {(1, 1), 1, 0}, es una base por el resultado obtenido en el ejemplo 2.
y que

(x, y) = y(1, 1) + (x − y)(1, 0)


Ahora siguiendo con el proceso definamos

T (1, 1) = (0, 0, 0) ( Esto es obligación)


T (1, 0) = (1, 0, 0) ( Esto es obligación o alguno de sus múltiplos)
Finalmente,

T (x, y) = yT (1, 1) + (x − y)T (1, 0)


= y(0, 0, 0) + (x − y)(1, 0, 0)
= (x − y, 0, 0)
Análisis del Proyecto 3

◦ El estudiante debe observar que en este proyecto, la libertad de la construcción es menor, ya que
aunque escoge cualquier base, esta debe considerar el par (1, 1), y el otro par, debe ser definido
en la imagen prefijada.

◦ Este ejercicio o la gama de ejercicios de esta naturaleza, permite no sólo practicar construcciones
sino que además obliga a revisar conceptos anteriores.
Profesor Ricardo Santander Baeza 2010 21

6.4. Ejercicios Propuestos de Transformaciones Lineales.

(1) Determine T ∈ LR (R3 ) tal que núcleo(T ) = h{(1, 1, 1)}i

(2) Determine T ∈ LR (R3 ) tal que Img(T ) = h{(2, −3, 1)}i

(3) Determine T ∈ LR (R3 ) tal que

(a) núcleo(T ) = h{(1, −2, 0), (0, 0, 1)}i, y

(b) Img(T ) = h{(1, 0, 0)}i

(4) Determine T ∈ LR (MR (2)) tal que

(a) ker(T ) = {A ∈ MR (2) | A = At }, e

(b) Img(T ) = {A ∈ MR (2) | A = −At }


c(2)
(5) Si T : R3 7−→ R2 ; tal que T (x, y, z) = (x + y − z, x − y − z); determine [T ]c(3)
c(3)
(6) Si T : R2 7−→ R3 ; tal que T (x, y) = (x + y, x − y, x − 3y); determine [T ]c(2)
c(n)
(7) Si T : Rn 7−→ Rn ; tal que T (u) = 2u; determine [T ]c(n)
3
!
X p(2)
(8) Si T : R3 [x] 7−→ R2 [x]; tal que T ai xi = a2 + a0 x − a1 x2 ; determine [T ]p(3)
i=0
n
! n−1
X X p(n)
i
(9) T : Rn+1 [x] 7−→ Rn [x]; tal que T ai x = jaj xj−1 ; determine [T ]p(n+1)
i=0 j=0
m(3)
(10) T : MR (3) 7−→ MR (3); tal que T (aij ) = (aji ); determine[T ]m(3)

(11) Sean T ∈ LR (R2 ) tal que T (x, y) = (x + 2y, x − y) y α = {(1, −2), (3, 1)} una base de R2

• Determine [T ]αα
c(2)
• Determine [T ]α

• Determine [T ]αc(2)
c(2)
• Calcule [T ]αα · [I]α
c(2) c(2)
• Calcule [I]αc(2) · [T ]c(2) · [I]α
c(2)
• Calcule [I]α · [T ]αα · [I]αc(2)

(12) Sea T ∈ LR (R3 ) tal que, T (x, y, z) = (x + 2y + 2z, x + y, 2y − z) y α = {(1, 0, 1), (0, 1, 1), (0, 0, 1)}, una
base de R3

• Determine [T ]αα
c(3)
• Determine [T ]α
22 Profesor Ricardo Santander Baeza 2010

• Determine [T ]αc(3)
c(3)
• Calcule [T ]αα · [I]α
c(3) c(3)
• Calcule [I]αc(3) · [T ]c(3) · [I]α
c(3) α)
• Calcule [I]α · [T ]αα · [I]c(3)

(13) Sea T ∈ LR (R1 [x], R3 [x]) definida por T (p(x)) = x2 p(x) y considera las bases α = {1, x}, y α′ =
{x, x + 1} de R1 [x] y la base β = {x, x + 1, x2 + 1, x3 } de R3 [x]
p(3)
• Determine [T ]α
p(3)
• Determine [T ]α′

• Determine [T ]βα

(14) Sea T ∈ LK (V ) y α = {v1 , v2 , . . . , vn } una base de V . Demuestre que

T (α) := {T (v1 ), T (v2 ); . . . , T (vn )} base de V =⇒ T inyectiva

(15) Sea T ∈ LK (V ) y α = {v1 , v2 , . . . , vn } una base de V . Demuestre que

T (α) := {T (v1 ), T (v2 ); . . . , T (vn )} base de V =⇒ T sobreyectiva

(16) Sea α = {v1 , v2 , . . . , vn } una base del K espacio vectorial V . Sea


V ∗ = {T : V 7−→ K | T ∈ LK (V, K)}
(i) Demuestre que V ∗ es un K espacio vectorial
(
1: i=j
(ii) Sea α = {v1 , v2 , . . . , vn } tal que vj (vi )=
∗ ∗ ∗ ∗ ∗ . Demuestre que
6 j
0: i=
• vi∗ ∈ LK (V, K); para i = 1, 2, . . . , n

• α∗ es una base de V ∗
CAPITULO 5

Diagonalización de operadores

El trabajo solidario es lo único que hace


humano al ser humano

Este capitulo esta destinado a estudiar esencialmente las relaciones que existen entre los isomorfismos y
las representaciones a través de matrices diagonales. Las competencias que adquirirá el alumno después de
interactuar con esta información, se resumen en los siguientes procesos:
• Verificar a través de un cálculo directo, si una transformación de un espacio en si mismo (operador),
puede o no representarse a través de una matriz diagonal.
• Concluir si un operador que se representa a través de una matriz diagonal es o no un isomorfismo.
• Determinar la existencia o la no existencia de una base que permita representar a un operador a través
de una matriz diagonal.

1. Revisión de la Información y Planteamiento Del Problema


(1) Para fijar ideas diremos que una transformación lineal T. Será llamada un operador lineal en un K
espacio vectorial V si T ∈ LK (V).

(2) Si V es un K espacio vectorial de dimensión n ∈ N, y T ∈ LK (V) entonces para cada base α de V


tenemos la representación matricial [T ]αα ∈ MK (n) de T.

(3) T ∈ LK (V) isomorfismo si y sólo si det[T ]αα 6= 0

(4) En particular, si [T ]αα es una matriz diagonal, es decir,


 
a11 0 0 ··· 0
 0 a22 0 · · · 0 
 
 0 a33 · · · 
[T ]αα =  0 0 
 .. .. .. .. .. 
 . . . . . 
0 0 0 ··· ann
entonces T isomorfismo si y sólo si aii 6= 0 para i = 1, 2, . . . , n

(5) ¿Bajo que condiciones existe una tal base α de V que representa en forma diagonal a un operador T ?

2. Estudio Preliminar Del Proceso De diagonalización


Motivación 2.1. Supongamos que para un K espacio vectorial V de dimensión n ∈ N, y T ∈ LK (V) existe
una base α = {v1 , v2 , . . . , vn } tal que [T ]αα es una matriz diagonal

(1) Por construcción tenemos que:


 
a11 0 0 ··· 0
 0 a22 0 ··· 0 
 
 0 0 a33 ··· 0 
[T ]αα = ([T (v1 )]α [T (v2 )]α [T (v3 )]α · · · [T (vn )]α ) =  
 .. .. .. .. .. 
 . . . . . 
0 0 0 ··· ann
3
4 Profesor Ricardo Santander Baeza 2010

Ası́ que,

T (v1 ) = a11 v1 + 0v2 + 0v3 + ··· 0vn = a11 v1


T (v2 ) = 0v1 + a22 v2 + 0v3 + ··· 0vn = a22 v2
T (v2 ) = 0v1 + 0v2 + a33 v3 + ··· 0vn = a33 v3
.. .. .. .. .. .. .. .. ..
. . . . . . . . .
T (vn ) = 0v1 + 0v2 + a33 v3 + ··· ann vn = ann vn

(2) Es claro que si una tal base existe, debe satisfacer la propiedad
T (vi ) = aii vi ( para cada i = 1, 2, . . . , n)
Ası́ que la vı́a para encontrar una tal base α, es estudiar este tipo de comportamiento, es decir estudiar
la solución en V de una ecuación del tipo
T (v) = λv (Para cada λ ∈ K)
Observación 2.2. Si V es un K espacio vectorial, y consideremos la ecuación T (v) = λv, para algún λ ∈ K
entonces
 Si v = 0V entonces como T (0V ) = 0V , λ puede ser cualquier escalar.

 Si v 6= 0V entonces podemos analizar esta situación

T (v) = λv ⇐⇒ λv − T (v) = 0V
⇐⇒ λ1V (v) − T (v) = 0V (1V es el operador identidad)
⇐⇒ (λ1V − T )(v) = 0V
⇐⇒ v ∈ ker(λ1V − T ) ((λ1V − T ), es un operador lineal)
⇐⇒ dimK ker(λ1V − T ) ≥ 1 (v 6= 0V )
⇐⇒ ker(λ1V − T )) 6= 0V ( No inyectiva)
⇐⇒ det([λ1V − T ]αα ) = 0V (Para cualquier base α de V) (⋆)
Detengamos un momento nuestro análisis, para determinar quien es este determinante, que aparece en
la etapa marcada (⋆)

[λ1V − T ]αα = [λ1V ]αα − [T ]αα


= λ[1V ]αα − [T ]αα
= λIn − (aij )
 
(λ − a11 ) −a12 −a13 ··· −a1n
 −a21 (λ − a ) −a13 ··· −a2n 
 22 
 −a31 −a (λ − a33 ) ··· −a3n 
=  32  (⋆⋆)
 .. .. .. .. .. 
 . . . . . 
−an1 −an2 −an3 ··· (λ − ann
Retornado a (⋆⋆) a (⋆) podemos concluir nuestro análisis como sigue
 
(λ − a11 ) −a12 −a13 ··· −a1n
 −a21 (λ − a22 ) −a13 ··· −a2n 
 
 −a31 −a32 (λ − a33 ) ··· −a3n 
T (v) = λv ⇐⇒ det  =0
 .. .. .. .. .. 
 . . . . . 
−an1 −an2 −an3 ··· (λ − ann

⇐⇒ λn + cn−1 λn−1 + cn−2 λn−2 + · · · + c1 λ + c0 = 0 (⋆ ⋆ ⋆)


Profesor Ricardo Santander Baeza 2010 5

Para formalizar esta observación hacemos las siguientes definiciones

Definición 2.3. Sea V un K espacio vectorial de dimensión n ∈ N, y T ∈ LK (V). diremos que v es un


vector propio del operador T si,

(1) v 6= 0V

(2) (∃λ; λ ∈ K) tal que T (v) = λv

λ, será llamado valor propio asociado al vector propio v

Definición 2.3.1. Llamaremos polinomio caracterı́stico de T al polinomio


PT (λ) = det([λ1V − T ]αα ) ( Para cualquier base de V) (1)
De acuerdo a las definiciones hechas podemos caracterizar al nexo que existe entre los valores propios y los
vectores propios como sigue.
Lema 2.3.2. Sea V un K espacio vectorial de dimensión n ∈ N, y T ∈ LK (V), v es un vector propio del
operador T si y sólo si (∃λ0 ; λ0 ∈ K) tal que PT (λ0 ) = 0

Teorema 2.4. Sea V un K espacio vectorial de dimensión n ∈ N, y T ∈ LK (V) entonces para cada λ ∈ K

Vλ = {v ∈ V | T (v) = λv} ≤ V

En efecto

(1) 0V ∈ V ∧ T (0V ) = 0V = λ0V . Ası́ que 0V ∈ Vλ , y Vλ 6= ∅

(2) Si u ∈ Vλ y v ∈ Vλ entonces

u ∈ Vλ ⇐⇒ u ∈ V ∧ T (u) = λu
=⇒ (u + v) ∈ V ∧ T (u + v) = T (u) + T (v) = λu + λv = λ(u + v)
v ∈ Vλ ⇐⇒ v ∈ V ∧ T (v) = λv

Ası́ que, (u + v) ∈ Vλ

(3) Si u ∈ Vλ y γ ∈ K entonces
u ∈ Vλ ⇐⇒ u ∈ V ∧ T (u) = λu
=⇒ γu ∈ V ∧ T (γu) = γT (u)
=⇒ γu ∈ V ∧ T (γu) = γλu
=⇒ γu ∈ V ∧ T (γu) = λγu
=⇒ γu ∈ Vλ

Luego, Vλ ≤ V (∀λ; λ ∈ K)

Definición 2.4.1. Vλ se llamará subespacio propio asociado al valor propio λ


6 Profesor Ricardo Santander Baeza 2010

  
x x + 2z
Ejemplo 2.4.2. Sea T ∈ LR (MR (3 × 1)) tal que T  y  =  y − z .
z −z
(1) En primer lugar, determinemos los valore propios de T
       
1 0 2  1 0 0 
c(3)
• [T ]c(3) =  0 1 −1 , donde c(3) =  0  ,  1  ,  0 
 
0 0 −1 0 0 1
• Entonces el polinomio caracterı́stico es del tipo
 
(λ − 1) 0 −2
PT (λ) = det  0 (λ − 1) 1  = (λ − 1)2 (λ + 1)
0 0 (λ + 1)
Ası́ que los valores propios son V.P = {1, −1}

(2) Determinemos los vectores propios de T

En general
A ∈ (MR (3 × 1))λ ⇐⇒ A ∈ MR (3 × 1) ∧ T (A) = λA
    
x x x
⇐⇒ A =  y  ∧ T  y  = λ y 
z z z
     
x x + 2z x
⇐⇒ A =  y  ∧  y − z  = λ y 
z −z z
 
x x + 2z = λx
⇐⇒ A =  y  ∧ y−z = λy (∗)
z −z = λz
Caso 1. λ = 1. De (∗) sigue que

A ∈ (MR (3 × 1))1 ⇐⇒ A ∈ (MR (3 × 1) ∧ T (A) = A


 
x x + 2z = x
⇐⇒ A =  y  ∧ y − z = y
z −z = z
 
x
⇐⇒ A =  y  ∧ z = 0
z
   
1 0
⇐⇒ A = x  0  + y  1 
0 0
*     +
 1 0 
Luego, (MR (3 × 1))1 =  0 , 1 
 
0 0

Caso 2. Caso 2. λ = −1. De (∗) sigue que


Profesor Ricardo Santander Baeza 2010 7

A ∈ (MR (3 × 1))−1 ⇐⇒ A ∈ (MR (3 × 1) ∧ T (A) = −A



x x + 2z = −x
⇐⇒ A =  y  ∧ y − z = −y
z −z = −z
 
x
1
⇐⇒ A =  y  ∧ x = −z ∧ y = z
z 2
 
−1
 1 
⇐⇒ A = z  
2
1
 
* −1 +
 
 1 
Luego, (MR (3 × 1))−1 =  

 2  
1
(3) Finalmente podemos observar que
     

 1 0 −1 
 0 , 1 , 1 
α =  

 0 2 
0 1

Es una base de MR (3 × 1) y que en esa base el operador T se representa como una matriz diagonal

En efecto
          
1 0 −1
   1  
[T ]αα =  T  0  T  1  T   
0 0 2
α α 1 α
 
1 0 0
=  0 1 0 
0 0 −1
Ejemplo 2.4.3. Sea T ∈ LR (R3 ) tal que T (x, y, z) = (3x + z, 3y + 2z, −z). Determinemos valores y vectores
propios de T .

Etapa 1. Determinemos los valores propios de T .

(1) Construimos PT (λ), el polinomio caracterı́stico de T .


   
3 0 1 λ 0 0
c(3) c(3)
• [T ]c(3) =  0 3 2  ∧ [λ1V ]c(3) =  0 λ 0 
0 0 −1 0 0 λ
 
(λ − 3) 0 −1
• PT (λ) = det  0 (λ − 3) −2  = (λ − 3)2 (λ + 1)
0 0 (λ + 1)
8 Profesor Ricardo Santander Baeza 2010

(2) Hacemos PT (λ) = 0

PT (λ) = 0 ⇐⇒ (λ − 3)2 (λ + 1) = 0
=⇒ λ1 = 3 ∨ λ2 = −1)
. Luego, los valores propios son V.P = {3, −1}

Etapa 2. Determinamos los subespacios propios.

(1) Proceso general:


u ∈ R3 λ
⇐⇒ u ∈ R3 ∧ T (u) = λu
⇐⇒ u = (x, y, z) ∧ T (x, y, z) = λ(x, y, z)
⇐⇒ u = (x, y, z) ∧ T (x, y, z) = (λx, λy, λz)
⇐⇒ u = (x, y, z) ∧ (3x + z, 3y + 2z, −z) = (λx, λy, λz)
3x + z = λx
⇐⇒ u = (x, y, z) ∧ 3y + 2z = λy (⋆)
−z = λz
(2) Evaluamos (⋆) en los valores propios:

• λ=3

De (⋆), sigue que

 3x + z = 3x
3
u∈ R 3
⇐⇒ u = (x, y, z) ∧ 3y + 2z = 3y
−z = 3z

⇐⇒ u = (x, y, z) ∧ z = 0
⇐⇒ u = (x, y, 0); x ∈ R; y ∈ R
⇐⇒ u = x(1, 0, 0) + y(0, 1, 0)


⇐⇒ R3 3
= h{(1, 0, 0), (0, 1, 0)}i
• λ = −1

De (⋆), sigue que

 3x + z = −x
3
u∈ R −1
⇐⇒ u = (x, y, z) ∧ 3y + 2z = −y
−z = −z

⇐⇒ u = (x, y, z) ∧ z = −4x : y = 2x
⇐⇒ u = (x, 2x, −4x); x ∈ R
⇐⇒ u = x(1, 2, −4)

⇐⇒ R3 −1 = h{(1, 2, −4)}i
(3) Sea α = {(1, 0, 0), (0, 1, 0), (1, 2, −4)} entonces como

[T ]αα = [T (1, 0, 0)]α [T (0, 1, 0)] α [T (1, 2, −4)]α (2)
Profesor Ricardo Santander Baeza 2010 9

y,
• T (1, 0, 0) = 3(1, 0, 0)
• T (0, 1, 0) = 3(0, 1, 0)
• T (1, 2, −4) = −(1, 2, −4)

Sustituyendo en (2) tenemos que


 
3 0 0
[T ]αα =  0 3 0  (3)
0 0 −1
Es una matriz diagonal, o mejor el operador T se representa como una matriz diagonal, en la base de
vectores propios α.
Ejemplo 2.4.4. Sea T ∈ LR (R3 ) tal que T (x, y, z) = (3x + 2y + z, 3y + 2z, −z). Determinemos valores y
vectores propios de T .

Etapa 1. Determinemos los valores propios de T .

(1) Construimos PT (λ), el polinomio caracterı́stico de T .

   
3 2 1 λ 0 0
c(3) c(3)
• [T ]c(3) = 0 3 2  ∧ [λ1V ]c(3) = 0 λ 0 
0 0 −1 0 0 λ
 
(λ − 3) −2 −1
• PT (λ) = det  0 (λ − 3) −2  = (λ − 3)2 (λ + 1)
0 0 (λ + 1)

(2) Hacemos PT (λ) = 0


PT (λ) = 0 ⇐⇒ (λ − 3)2 (λ + 1) = 0
=⇒ λ1 = 3 ∧ λ2 = −1

Luego, los valores propios son V.P = {3, −1}

Etapa 2. Determinamos los subespacios propios.

(1) Proceso general:



u ∈ R3 λ
⇐⇒ u ∈ R3 ∧ T (u) = λu
⇐⇒ u = (x, y, z) ∧ T (x, y, z) = λ(x, y, z)
⇐⇒ u = (x, y, z) ∧ T (x, y, z) = (λx, λy, λz)
⇐⇒ u = (x, y, z) ∧ (3x + 2y + z, 3y + 2z, −z) = (λx, λy, λz)
3x + 2y + z = λx
⇐⇒ u = (x, y, z) ∧ 3y + 2z = λy (⋆)
−z = λz
(2) Evaluamos (⋆) en los valores propios:
10 Profesor Ricardo Santander Baeza 2010

• λ=3

De (⋆), sigue que

 3x + 2y + z = 3x
3
u∈ R 3
⇐⇒ u = (x, y, z) ∧ 3y + 2z = 3y
−z = 3z

⇐⇒ u = (x, y, z) ∧ z = 0; y = 0
⇐⇒ u = (x, 0, 0); x ∈ R
⇐⇒ u = x(1, 0, 0)


⇐⇒ R3 3
= h{(1, 0, 0)}i
• λ = −1

De (⋆), sigue que

 3x + 2y + z = −x
3
u∈ R −1
⇐⇒ u = (x, y, z) ∧ 3y + 2z = −y
−z = −z

⇐⇒ u = (x, y, z) ∧ z = −2y; x = 0
⇐⇒ u = (0, y, −2y); y ∈ R
⇐⇒ u = x(0, 1, −2)


⇐⇒ R3 −1
= h{(0, 1, −2)}i
Luego, no existe una base de vectores propios α tal que T se represente como una matriz diagonal.
Los Ejemplos 2.4.2, 2.4.3 y 2.4.4 sugieren las siguientes reflexiones:

Reflexiones 2.4.5. En ejemplo 2.4.2 y 2.4.3 aseguramos que el conjunto α de vectores propios era una base
de MR (3 × 1) y R3 respectivamente, en realidad esto es producto del siguiente suceso

Sea V es un K espacio vectorial de dimensión n ∈ N y T ∈ LK (V). Supongamos que λ y µ son valores


propios de T y que u ∈ (Vλ − {0V }) y v ∈ (Vµ − {0V }) entonces
λ 6= µ =⇒ α = {u, v} es un conjunto linealmente independiente
En efecto
a1 u + a2 v = 0V =⇒ T (a1 u + a2 v) = T (0V )
=⇒ a1 T (u) + a2 T (v) = 0V
=⇒ a1 λu + a2 µv = 0V
Juntando la información obtenemos que

a1 u + a2 v = 0V a λu + a2 λv = 0V
=⇒ 1 =⇒ a2 (λ − µ)v = 0V =⇒ a2 = 0
a1 λu + a2 µv = 0V a1 λu + a2 µv = 0V
Profesor Ricardo Santander Baeza 2010 11

Análogamente,
a1 u + a2 v = 0V a µu + a2 µv = 0V
=⇒ 1 =⇒ a1 (λ − µ)u = 0V =⇒ a1 = 0
a1 λu + a2 µv = 0V a1 λu + a2 µv = 0V

Ası́ que, α = {u, v} es linealmente independiente.


Reflexiones 2.4.6. En Ejemplo 2.4.3 y 2.4.4 el polinomio caracterı́stico PT (λ) es el mismo, sin embargo
en Ejemplo 2.4.3 existe la base que permite representar a T como una matriz diagonal y en Ejemplo 2.4.4
no existe una tal base.

(1) La conclusión inicial es que el polinomio caracterı́stico PT (λ), no es la herramienta de clasificación


para la existencia de la base que representa diagonalmente a un operador lineal

(2) Si llamamos multiplicidad algebraica de λ en sı́mbolos m.a.(λ) a las veces que el valor propio λ, aparece
repetido enPT (λ), y multiplicidad geométrica de λ en sı́mbolos, m.g.(λ) a la dimensión del subespacio
propio R3 λ entonces

• En Ejemplo (2.4.3), tenemos el siguiente comportamiento:

m.a.(3)=2 m.g.(3)=2 m.a.(3)=m.g.(3)


(4)
m.a.(-1)=1 m.g.(-1)=1 m.a.(-1)=m.g.(-1)

(5)
Lo que significa que:
 
PT (λ) = (λ − 3)2 (λ + 1) ∧ R3 = R3 3 ⊕ R3 −1
| {z } | {z }
dim 2 dim 1
• En (2.4.4), tenemos el siguiente comportamiento:

m.a.(3)=2 m.g.(3)=1 m.a.(3)¿m.g.(3)


(6)
m.a.(-1)=1 m.g.(-1)=1 m.a.(-1)=m.g.(-1)

(7)
Lo que se traduce en:
 
PT (λ) = (λ − 3)2 (λ + 1) ∧ R3 3 ⊕ R3 −1 ≤ R3
| {z } | {z }
dim 1 dim 1
(3) Luego, existe una relación importante entre los conceptos: m.a.(λ), m.g.(λ) y la existencia de una base
de vectores propios de V .

Ası́ que llega la hora de formalizar y buscar relaciones entre estos conceptos claves.
12 Profesor Ricardo Santander Baeza 2010

Definición 2.5. Sea V un K espacio vectorial y λ, un valor propio de T ∈ LK (V ) entonces notaremos:


(i) m.a.(λ)= multiplicidad algebraica de λ
(ii) m.g.(λ) = dimK (V )λ
Lema 2.5.1. Sea V un K espacio vectorial y λ0 , un valor propio de T entonces
m.g.(λ0 ) ≤ m.a.(λ0 ) (8)
La demostración es un poco técnica, pero útil para el desarrollo algorı́tmico del pensamiento modelı́stico

(1) Supongamos que m.a.(λ0 ) = s, con s ≥ 1 y m.g.(λ0 ) = r

(2) Sea u ∈ (V )λ0 entonces T (u) = λ0 u. Ahora atención con la siguiente idea central !!!
T (T (u)) = T (λ0 u)
= λ0 T (u)
Luego,
u ∈ (V )λ0 =⇒ T (u) ∈ (V )λ0 (9)
(3) Lo obtenido en (9), nos permite decir que
 
T (V )λ0 ⊂ (V )λ0 (10)
La propiedad expresada en (10), técnicamente significa” (V )λ0 es un subespacio invariante de T ”, pero
más allá de tecnicismos, esta propiedad se usa para definir nuevas funciones a partir de la función
original, como sigue:

T0 : (V )λ0 7−→ (V )λ0 tal que T0 (u) = T (u)


Ası́ T0 es una restricción de T al subespacio (V )λ0 y por ende satisface las siguientes propiedades:
 
• T0 ∈ LK (V )λ0 ) , es decir T0 es un operador de (V )λ0
• PT0 (λ) = (λ − λ0 )r y ∂(PT0 (λ)) ≤ ∂(PT (λ))

Ası́, m.g.(λ0 ) ≤ m.a.(λ0 )


Motivados por el Lema 2.5.1 y por el Ejemplo 2.4.4, se justifica la siguiente definición.
Definición 2.6. Sea V un K espacio vectorial y T ∈ LK (V ). Diremos que T es un operador diagonalizable
si existe una base de vectores propios, α de V . Caso contrario decimos que T no es diagonalizable.
Teorema 2.7. Sea V un K espacio vectorial de dimensión n y T ∈ LK (V ) tal que:
s
Y
• PT (λ) = (λ − λi )ni ; (λi 6= λj si i 6= j)
i=1
s
X
• ni = n
i=1
entonces T diagonalizable si y sólo si m.a.(λi ) = m.g.(λi ) para i = 1, . . . , n

En efecto

(1) Sea αi una base de Vλi , para i = 1, 2, . . . s


[s
(2) Sea α = αi
i=1
entonces m.a.(λi ) = m.g.(λi ) ⇐⇒ α es una base de V
Profesor Ricardo Santander Baeza 2010 13

Conclusión 2.8. Si V un K espacio vectorial de dimensión finita n y T ∈ LK (V ) tal que

s
Y
PT (λ) = (λ − λi )ni ; (λi 6= λj si i 6= j)
i=1

es el polinomio caracterı́stico de T entonces


Xs
(1) PT (λ) ∈ K[λ] con ∂(PT (λ)) = n, pues m.a.(λi ) = n
i=1
(2) λ0 es un valor propio de T si PT (λ0 ) = 0
(3) T diagonalizable si y sólo si m.a.(λi ) = m.g.(λi ) para i = 1, . . . , n y en tal caso tenemos que:

• Existe una base α = α1 ∪ α2 · · · ∪ αs de V tal que αi es base de Vλi , para cada i = 1, . . . s y


 
λ1
 .. 
 . 
 
 λ1 
 .. 
α 
[T ]α =  .  (11)

 λs 
 
 .. 
 . 
λs
• V se descompone en suma directa de subespacios propios:

V = Vλ1 ⊕ Vλ2 · · · ⊕ Vλs (12)


Es decir,

Vλ2 . . .

Vλs

Vλ1

Figura 1: V = Vλ1 ⊕ Vλ2 · · · ⊕ Vλs

• T se descompone en una suma de operadores del tipo:


T = T1 + T2 + · · · + Ts (13)
donde Ti (u) = λi u, para cada i = 1, 2, . . . , s
Observación 2.9. Es evidente, que esta forma de verificar si un operador es o no diagonalizable tiene
inconvenientes tales como:
14 Profesor Ricardo Santander Baeza 2010

(1) Es impracticable si el número de valores propios es grande (a menos que usemos el computador, Maple,
Matlab, Matemática, etc. )
(2) Es posible que en muchos casos, se desee saber sólo, si el operador es diagonalizable o no; en tal caso
se necesita una técnica diferente.

3. Ejercicios Propuestos De Valores y Vectores Propios


Determine valores y vectores propios de las siguientes transformaciones lineales y matrices:

(1) T ∈ LR (R2 ), tal que T (x, y) = (3y, 2x)

(2) T ∈ LR (R2 ), tal que T (x, y) = (x + y, 2x + y)

(3) T ∈ LR (R3 ), tal que T (x, y, z) = (x + y, x − y + 2z, 2x + y − z)

(4) T ∈ R2 [x], tal que T (a0 + a1 x + a2 x2 ) = a1 + a0 x + a2 x2

(5) T ∈ MR (2), tal que T (A) = At

(6) T ∈ LR (R4 ), tal que T (x, y, z, w) = (x, x + y, x + y + z, x + y + z + w)


 
1 2
(7) A =
0 −1
 
1 1
(8) A =
1 1
 
1 2 3
(9) A =  0 1 2 
0 0 1
 
0 1 0
(10) A =  0 0 1 
−1 0 0
(11) Determine T ∈ LR (R2 ), tal que:

(a) (R2 )−2 = h{(3, 1)}i y


(b) (R2 )3 = h{(−2, 1)}i

(12) Determine T ∈ LR (R3 ), tal que:

(a) (R3 )0 = h{(1, 1, 1), (−1, −1, 0)}i y


(b) (R3 )1 = h{(1, 0, 0)}i

(13) Sea T ∈ LK (V) tal que T ◦ T = T . Determine valores y vectores propios de T .

(14) Sea T ∈ LK (V). Demuestre que.


V0 6= {0V } ⇐⇒ T no inyectiva

4. Un Criterio de Diagonalización
Como vimos en los ejemplos (2.4.3) (2.4.4) el polinomio caracterı́stico es PT (λ) = (λ − 3)2 (λ + 1). Sin em-
bargo en un caso T diagonaliza y en el otro no diagonaliza, la razón expuesta es que la m.a(3) = m.g(3) = 2
en el primer caso y m.a(3) = 2 > m.g(3) = 1 en el segundo caso, pero por las precisiones anteriores resulta
demasiado caro en tiempo y espacio esta solución, ası́ que implementaremos otra técnica que no tenga tales
Profesor Ricardo Santander Baeza 2010 15

deficiencias, pero como siempre nada es gratis ası́ que de acuerdo a la ley de costo beneficio hay que asumir
algún costo, que en este caso consiste en generar o mejor generalizar alguna ideas.

4.1. El Fundamento Conocido de Kn [x]. En este apartado, revisaremos las propiedades fundamentales
del anillo de polinomios, con miras a ser generalizadas en beneficio de nuestro estudio.

(1) Los polinomios se caracterizan como sigue:

n
X
2 n
p(x) ∈ Kn [x] ⇐⇒ p(x) = a0 + a1 x + a2 x + · · · + an x ⇐⇒ p(x) = ai xi , donde x0 = 1
i=0

n
X
(2) Cada polinomio de la forma; p(x) = ai xi ∈ Kn [x], ”actúa naturalmente como función sobre el
i=0
cuerpo K”, como sigue

n
X
p(x) : K 7−→ K; tal que u ∈ K 7−→ p(u) = ai ui
i=0

(3) En particular, sabemos que:

(u es una raı́z de p(x) ⇐⇒ u ∈ K ∧ p(u) = 0) ⇐⇒ (p(x) ∈ ker(ϕ(u)))

(4) En realidad, lo anterior tiene sentido porque en K, se verifican naturalmente las siguientes propiedades:

• u ∈ K ∧ a ∈ K =⇒ a · u ∈ K

• En particular, u ∈ K =⇒ us ∈ K (∀s; s ∈ N)

(5) Ası́ que ” en cualquier conjunto que sus elementos posean estas propiedades, podemos hacer actuar al
anillo de polinomios”, Kn [x]

4.2. Generalización al Anillo de Matrices. En concordancia con las ideas desarrolladas en la sección
anterior, podemos iniciar nuestro proceso de generalización haciendo la definición

Definición 4.2.1. Cada p(x) ∈ Kn [x] actuará sobre el anillo y espacio vectorial MK (s) como sigue:

n
X
p(x) : MK (s) 7−→ MK (s) tal que A ∈ MK (s) 7−→ p(A) = ai Ai donde A0 = In
i=0

Ejemplo 4.2.2. En este ejemplo aprovecharemos, valga la redundancia, de analizar la situación presentada
por los ejemplos (2.4.3) y (2.4.4) a la luz de esta nueva herramienta. Sabemos que en ambos ejemplos el
polinomio caracterı́stico es PT (λ) = (λ − 3)2 (λ + 1) entonces

(1) En Ejemplo (2.4.3) tenemos que,


16 Profesor Ricardo Santander Baeza 2010

   2    
  3 0 1 1 0 0 3 0 1 1 0 0
c(3)
PT [T ]c(3) =  0 3 2  − 3 0 1 0   0 3 2  + 0 1 0
0 0 −1 0 0 1 0 0 −1 0 0 1
 2     
0 0 1 4 0 1 0 0 −4 4 0 1
=  0 0 2   0 4 2  =  0 0 −8   0 4 2 
0 0 −4 0 0 0 0 0 16 0 0 0
 
0 0 0
=  0 0 0 
0 0 0

(1)
Si llamamos mT (λ) = (λ − 3)(λ + 1) entonces en Ejemplo (2.4.3) tenemos que

       
  3 0 1 1 0 0 3 0 1 1 0 0
(1) c(3)
mT [T ]c(3) =  0 3 2  − 3 0 1 0  0 3 2  + 0 1 0
0 0 −1 0 0 1 0 0 −1 0 0 1
  
0 0 1 4 0 1
=  0 0 2  0 4 2 
0 0 −4 0 0 0
 
0 0 0
=  0 0 0 
0 0 0

(2) Un cálculo análogo para el Ejemplo (2.4.4) nos dice que

   2    
  3 2 1 1 0 0 3 0 1 1 0 0
c(3)          
PT [T ]c(3) = 0 3 2 −3 0 1 0 0 3 2 + 0 1 0
0 0 −1 0 0 1 0 0 − 0 0 1
 2     
0 2 1 4 0 1 0 0 0 4 0 1
=  0 0 2   0 4 2 = 0 0 −8   0 4 2 
0 0 −4 0 0 0 0 0 16 0 0 0
 
0 0 0
=  0 0 0 
0 0 0

(2)
Y si llamamos mT (λ) = (λ − 3)(λ + 1) entonces en el Ejemplo (2.4.4) tenemos que
Profesor Ricardo Santander Baeza 2010 17

       
  3 2 1 1 0 0 3 0 1 1 0 0
(2) c(3)
mT [T ]c(3) =  0 3 2  − 3 0 1 0  0 3 2  + 0 1 0
0 0 −1 0 0 1 0 0 −1 0 0 1

  
0 2 1 4 0 1
=  0 0 2  0 4 2 
0 0 −4 0 0 0

 
0 8 4
=  0 0 0 
0 0 0

Ası́ que tenemos las siguientes conclusiones:


 
c(3)
(1) En (2.4.3) y (2.4.4) se verificó que PT [T ]c(3) = (0)
 
(1) c(3)
(2) En (2.4.3) mT [T ]c(3) = (0)
 
(2) c(3)
(3) En (2.4.4) mT [T ]c(3) 6= (0)

Lo anterior nos motiva para hacer la siguiente:

Definición 4.3. Si A ∈ MK (n) entonces llamaremos anulador de la matriz A, al conjunto

I(A) = {p(x) ∈ K[x] | p(A) = (0)}

 
3 2 1
Ejemplo 4.3.1. p(x) = (x − 3)2 (x + 1) ∈ I(A) si A =  0 3 2 
0 0 −1
Observación 4.3.2. Para el conjunto I(A) tenemos las siguientes propiedades:

(1) Si p(x) ∈ I(A) y q(x) ∈ I(A) entonces (p(x) − q(x))(A) = p(A) − q(A) = (0)

Conclusión, para cualquier A ∈ MK (n) tenemos que


p(x) ∈ I(A) ∧ q(x) ∈ I(A) =⇒ (p(x) − q(x)) ∈ I(A)
(2) Sea a ∈ K y p(x) ∈ I(A) entonces (a · p(x))(A) = a · p(A) = a · (0) = (0)

Conclusión, para cualquier A ∈ MK (n) tenemos que


a∈K ∧ p(x) ∈ I(A) =⇒ (a · p(x)) ∈ I(A)

Teorema 4.4. (Teorema de Cayley) Si A ∈ MK (n) entonces PA (λ) = det(λIn − A) ∈ I(A), es decir
PA (A) = (0)

En efecto
18 Profesor Ricardo Santander Baeza 2010

En primer lugar, sabemos que,


   t
a11 a12 a13 ... a1n ∆11 ∆12 ∆13 ... ∆1n
 a21 a22 a23 ... a2n   ∆21 ∆22 ∆23 ... ∆2n 
   
   ∆31 ∆32 ∆33 ∆3n 
Si A =  a31 a32 a33 ... a3n  entonces Adj(A) =  ... 
 .. .. .. .. ..   .. .. .. .. .. 
 . . . . .   . . . . . 
an1 an2 an3 . . . ann ∆n1 ∆n2 ∆n3 . . . ∆nn
Y que
(λIn − A)Adj(λIn − A) = det(λIn − A)In (14)
Además, ∆ij = (−1)i+j det((λIn − A)ij ) es un polinomio de grado (n − 1), para cada i y para cada j, ası́
que:

Adj(λIn − A) = λn−1 + λn−2 Bn−2 + λn−3 Bn−3 + · · · + B0 (15)


Donde cada Bi para i = 0, 1, . . . , n − 1, es una matriz de orden n, y

det(λIn − A) = λn + bn−1 λn−1 + bn−2 λn−2 + · · · + b0 (16)

Ahora, aplicando, (15) y (16) en (14) tenemos;

n−1
!
X
(λIn − A)Adj(λIn − A) = (λIn − A) λi Bi
i=0
n−1
X n−1
X
= λi+1 Bi − λi ABi
i=0 i=0

= −AB0 + λ(B0 − AB1 ) + · · · + λn−1 (Bn−2 − ABn−1 ) + λn In


Aplicando este resultado en (14) e igualando coeficientes tenemos el sistema de ecuaciones:

−AB0 = b0 In
−AB0 = b0 In
AB0 − A2 B1 = b1 A
B0 − AB1 = b1 In
A2 B1 − A3 B2 = b2 A2
B1 − AB2 = b2 In
A3 B2 − A4 B3 = b3 A3
B2 − AB3 = b3 In
=⇒ . . . . . . . . . . . . . . . . . . . . . . . .........
.............. . ......
An−2 Bn−3 − An−1 Bn−2 = bn−2 An−2
Bn−3 − ABn−2 = bn−2 In
An−1 Bn−2 − An Bn−1 = bn−1 An−1
Bn−2 − ABn−1 = bn−1 In
An Bn−1 = An
Bn−1 = In
(0) = PA (A)
(Hemos multiplicado por A, A2 , . . . , An−2 , y sumado miembro a miembro)
Corolario 4.4.1. Si T ∈ LK (V) entonces para cualquier base α de V,
PT (λ) = det(λIn − [T ]αα ) ∈ I([T ]αα )

Definición 4.5. Sea A ∈ MK (n) entonces diremos que mA (λ) es el polinomio mı́nimo de A si:
Profesor Ricardo Santander Baeza 2010 19

1. mA (A) = (0), es decir mA (λ) ∈ IA


2. mA (λ) es mónico, es decir su coeficiente lider es uno.
3. Si p(λ) ∈ K[λ] tal que p(A) = (0) entonces ∂(mA (λ)) ≤ ∂(p(λ))
Ejemplo 4.5.1. En (2.4.3) PT (λ) = (λ − 3)2 (λ + 1) y el polinomio minimal es: mT (λ) = (λ − 3)(λ + 1)

Ejemplo 4.5.2. En (2.4.4) PT (λ) = (λ − 3)2 (λ + 1) y el polinomio minimal es: mT (λ) = (λ − 3)2 (λ + 1)
Como también sabemos en (2.4.3) T es diagonalizable y en (2.4.4) T no es diagonalizable, luego la diferencia
es el polinomio minimal, respecto de este tenemos los siguientes resultados:

Lema 4.5.3. Si T ∈ LK (V) entonces vale la equivalencia


PT (λ0 ) = 0 ⇐⇒ mT (λ0 ) = 0 (17)
Es decir, el polinomio caracterı́stico y minimal tienen las mismas raı́ces, para una demostración ver [9]
s
Y
Teorema 4.6. Si T ∈ LK (V) tal que PT (λ) = (λ − λi )ni para (λi 6= λj ) entonces
i=1
s
Y
T diagonalizable ⇐⇒ mT (λ) = (λ − λi ) (18)
i=1
en efecto

Sea A = [T ]αα , donde α es una base cualquiera de V entonces sabemos que A diagonalizable si y sólo si existe
una base β; de vectores propios de V; y en tal caso se verifica la identidad:
 −1
A = [I]αβ [T ]ββ [I]βα = [I]αβ [T ]ββ [I]αβ

Donde, [T ]ββ es una matriz diagonal del tipo:


 
λ1
 .. 
 . 
 
 λ1 
 .. 
 . 
 
 
 λs 
 .. 
 . 
λs
Finalmente,
 −1  −1
mT (A) = mT ([I]αβ [T ]ββ [I]αβ ) = [I]αβ mT ([T ]ββ ) [I]αβ , y mT ([T ]ββ ) = (λ − λ1 )(λ − λ2 ) · · · (λ − λs )

5. Ejercicios Resueltos de Diagonalización


(1) Sea T ∈ LR (R3 ) tal que T (x, y, z) = (−x + z, 2x + 3y + 4z, −x − 3z) entonces

Etapa 1. Construyamos el polinomio caracterı́stico:


c(3)
(i) Determinemos [T ]c(3)
 
−1 0 1
c(3)
A = [T ]c(3) = 2 3 4 
−1 0 −3
20 Profesor Ricardo Santander Baeza 2010

(ii) Determinemos el polinomio caracterı́stico:


 
λ+1 0 −1
PT (λ) = det  −2 λ − 3 −4 
1 0 λ+3

= (λ − 3)[(λ + 1)(λ + 3) + 1]

= (λ − 3)[λ2 + 4λ + 4]

= (λ − 3)(λ + 2)2
Luego, los valores propios son:
V.P = {−2, 3}
Etapa 2. Verifiquemos si T es diagonalizable:
  
−4 0 1 1 0 1
(A − 3I3 )(A + 2I3 ) =  2 0 4  2 5 4 
−1 0 −6 −1 0 −1

6= 0
Ası́ que T no es diagonalizable.

(2) Sea T ∈ LR (R2 [x]) tal que T (a0 + a1 x + a2 x2 ) = a2 + a0 x + a1 x2 entonces

Etapa 1. Construyamos el polinomio caracterı́stico:


p(2)
(i) Determinemos [T ]p(2) , donde p(2) = {1, x, x2 }
 
0 0 1
p(2)
A = [T ]p(2) = 1 0 0 
0 1 0
(ii) Determinemos el polinomio caracterı́stico:
 
λ 0 −1
PT (λ) = det  −1 λ 0 
0 −1 λ

= λλ2 − 1

= λ3 − 1

= (λ − 1)(λ2 + λ + 1)
Luego, el valor propio real es:
V.P = {1}
Etapa 2. Verifiquemos si T es diagonalizable:

Como m.a(1) = 1 entonces m.g(1) = 1, ası́ que T no es diagonalizable.

(3) Sea T ∈ LR (MR (2)) tal que T (A) = A − At entonces


Profesor Ricardo Santander Baeza 2010 21

Etapa 1. Construyamos el polinomio caracterı́stico:


m(2)
(i) Determinemos [T ]m(2) , donde
       
1 0 0 1 0 0 0 0
m(2) = , , ,
0 0 0 0 1 0 0 1

 
0 0 0 0
m(2)  0 1 −1 0 
A = [T ]m(2) =
 0 −1

1 0 
0 0 0 0

(ii) Determinemos el polinomio caracterı́stico:


 
λ 0 0 0
 0 (λ − 1) 1 0 
PT (λ) = det   0

1 (λ − 1) 0 
0 0 0 λ

= λ3 (λ − 2)

Luego, los valores propios son:

V.P = {0, 2}

Etapa 2. Verifiquemos si T es diagonalizable:

A ∈ (MR (2))λ ⇐⇒ A ∈ (MR (2)) ∧ T (A) = λA


⇐⇒ A ∈ (MR (2)) ∧ A − At = λA (∗)

Ası́ que de (*) sigue que:

A ∈ (MR (2))0 ⇐⇒ A ∈ (MR (2)) ∧ A − At = (0)


⇐⇒ A ∈ (MR (2)) ∧ A = At
     
1 0 0 1 0 0
=⇒ (MR (2))0 = , ,
0 0 1 0 0 1

Luego,

m.a(0) = 3 ∧ m.g(0) = 3
=⇒ T diagonalizable
m.a(2) = 1 ∧ m.g(2) = 1

 
3 1 −1
(4) Sea A =  2 2 −1  entonces
2 2 0
• det(A) = 4, luego A es invertible

• Calculemos su polinomio caracterı́stico:


22 Profesor Ricardo Santander Baeza 2010

 
(λ − 3) −1 1
PT (λ) = det  −2 (λ − 2) 1 
−2 −2 λ
 
(λ − 1) 1 − λ 0
= det  −2 (λ − 2) 1 
−2 −2 λ
   
(λ − 2) 1 −2 1
= (λ − 1) det − (1 − λ) det
−2 λ −2 λ

= (λ − 1)(λ(λ − 2) + 2) + (λ − 1)(−2λ + 2)

= (λ − 1)[λ2 − 2λ + 2 − 2λ + 2]

= (λ − 1)(λ − 2)2

= −λ3 + 5λ2 − 8λ + 4

• Estudiemos si es diagonalizable; es decir, veamos si el polinomio minimal es


?
mT (λ) = (λ − 1)(λ − 2)

  
2 1 −1 1 1 −1
(A − I3 )(A − 2I3 ) =  2 1 −1   2 0 −1 
2 2 −1 2 2 −2
 
2 0 −1
=  2 0 −1 
2 0 2

6= (0)
Luego A, no es diagonalizable.
• Podemos usar el polinomio caracterı́stico para, calcular A−1 , como sigue:

PA (λ) = λ3 − 5λ2 + 8λ − 4 =⇒ A3 − 5A2 + 8A − 4 = 0

=⇒ A(A2 − 5A + 8I3 ) = 4I3


 
1 2 5
=⇒ A A − A + 2I3 = I3
4 4
1 2 5
=⇒ A−1 = A − A + 2I3
4 4
(5) Sea V, un K espacio vectorial y α = {v1 , v2 , v3 , . . . , vn } una base de V tal que:

(i) Vλ1 = h{v1 , v2 , . . . , vr }i ∧ λ1 ∈ K


Profesor Ricardo Santander Baeza 2010 23

(ii) Vλ2 = h{vr+1 , vr+2 , . . . , vs }i ∧ λ2 ∈ K

(iii) Vλ3 = h{vs+1 , vs+2 , . . . , vn }i ∧ λ3 ∈ K

(a) Determine T ∈ LK (V)

Etapa 1. Lo que debo hacer o me están pidiendo:

Debemos determinar T (u), (∀u; u ∈ V)

Etapa 2. Datos:

• vi ∈ Vλ1 ⇔ T (vi ) = λ1 vi (∀i; 1 ≤ i ≤ r)

• vi ∈ Vλ2 ⇔ T (vi ) = λ2 vi (∀i; r + 1 ≤ i ≤ s)

• vi ∈ Vλ3 ⇔ T (vi ) = λ3 vi (∀i; s + 1 ≤ i ≤ n)

• Como α es una base de V, entonces para cada u ∈ V existen únicos escalares en K,


tales que:
Xn
u= ai vi (∗)
i=1
Etapa 3. Ejecución.

De (∗), sigue que:

r s n
!
X X X
T (u) = T ai vi + ai vi + ai vi
i=1 i=r+1 i=s+1
r
X s
X n
X
= ai T (vi ) + ai T (vi ) + ai T (vi )
i=1 i=r+1 i=s+1
r
X s
X n
X
= ai λ1 vi + ai λ2 vi + ai λ3 vi
i=1 i=r+1 i=s+1
r
X s
X n
X
= λ1 ai vi + λ2 ai vi + λ3 ai vi
i=1 i=r+1 i=s+1

(b) ¿ T es diagonalizable ?

Como α es una base de vectores propios de T entonces T , es diagonalizable y


24 Profesor Ricardo Santander Baeza 2010

 
λ1
 .. 
 . 
 
 λ1 
 
 λ2 
 .. 
[T ]αα = 
 . 
 (19)
 λ2 
 
 λ3 
 
 .. 
 . 
λ3
(c) ¿ T es un isomorfismo ?

Sabemos que T es un isomorfismo si y sólo si det(T ) 6= 0, ası́ que en este caso;

T isomorfismo ⇐⇒ λ1 λ2 λ3 6= 0

⇐⇒ λi 6= 0 (∀i; i = 1, 2, 3)
(d) ¿ T −1 es invertible ?

Observamos que si λi 6= 0 (∀i; i = 1, 2, 3) entonces T −1 existe y vale la fórmula fundamental

T (u) = v ⇐⇒ u = T −1 (v)
Ası́ que en particular, tenemos

Para 1 ≤ i ≤ r

1
T (vi ) = λ1 vi ⇐⇒ vi = λ1 T −1 (vi ) ⇐⇒ T −1 (vi ) = λ1 vi

Para r + 1 ≤ i ≤ s

1
T (vi ) = λ2 vi ⇐⇒ vi = λ2 T −1 (vi ) ⇐⇒ T −1 (vi ) = λ2 vi

Para s + 1 ≤ i ≤ n

1
T (vi ) = λ3 vi ⇐⇒ vi = λ3 T −1 (vi ) ⇐⇒ T −1 (vi ) = λ3 vi

6. Ejercicios Propuestos de Diagonalización


(1) Verifique ¿cuál de los operadores propuestos en la Sección 3. es diagonalizable?

(2) Sea A = (aij ) ∈ MR (3) tal que


(
aij 6= 0 : si i ≤ j
aij =
0 : en otro caso
• Determine valores propios y subespacios propios de A.

• Determine el polinomio minimal de A.


Profesor Ricardo Santander Baeza 2010 25
 
1 1
(3) Dada la matriz A = . Determine el conjunto:
0 a

S = {a ∈ R | A es diagonalizable}
 
1 a
(4) Dada la matriz A = . Determine el conjunto:
0 1

S = {a ∈ R | A es diagonalizable}
(5) Sea T ∈ LK (V) tal que T ◦ T = 0. Determine valores y vectores propios de T .

(6) Sea A ∈ MR (2) tal que det(A) 6= 0.

• Demuestre que:
A diagonalizable =⇒ A−1 diagonalizable
• Si A diagonalizable. Determine los subespacios propios de A−1

(7) Considere la matriz A = (aij ) ∈ MR (n) tal que:


(
m : si i = j
aij =
6 j
a : si i =

Donde, m 6= 0 y a 6= 0. Demuestre que

• PA (λ) = (λ − (m − a))n−1 (λ − (m + (n − 1)a))

• det(A) = (m − a)n−1 · (m + (n − 1)a)


 
  0 7 −6
−3 4
(8) Determine An . Si (a) A = y (b) A =  −1 4 0 
−1 2
0 2 −2

7. Aplicaciones

7.1. Modelo de Crecimiento Poblacional.


(1) Planteamiento del Problema

Análisis de un modelo que describa el crecimiento de una población usando valores y


vectores propios.

(2) Modelo 1
Hipótesis de Trabajo

Suponemos que una cierta especie crece a una tasa de crecimiento constante en el tiempo (el tiempo,
puede ser una hora, un dı́a, una semana, un mes, un año, etc.)

Un tal caso, es dado si por ejemplo:

• Cada generación es distinta y,

• Cada organismo produce ”r” crı́os y después muere.


26 Profesor Ricardo Santander Baeza 2010

Ası́ si pt , representa la población después de t, periodos entonces la ecuación que rige el crecimiento de
dicha población es:

pt = rpt−1 equivalentemente pt = r t p0 (20)

donde, p0 representa la población inicial.

(3) Conclusión al Modelo 1

(i) r > 1 =⇒ lim pt = lim r t p0 =6 ∃.


t→∞ t→∞

Es decir, la población aumenta geométricamente (sin cota superior) en el tiempo.


(ii) r = 1 =⇒ lim pt = lim r t p0 = p0 .
t→∞ t→∞

Es decir, la población mantiene crecimiento constante independiente del tiempo.


(iii) r < 1 =⇒ lim pt = lim r t p0 = 0.
t→∞ t→∞

Es decir, la población disminuye geométricamente a cero en el tiempo y por tanto se extinguirá.

(4) Algunos problemas del Modelo 1

(i) El crecimiento de una población en general no es a tasa constante.

(ii) En general el número de crı́as que puede generar una hembra depende de su edad

(5) Modelo 2

Hipótesis de Trabajo

Se estudiará un modelo de crecimiento poblacional, para una especie de pájaros, que satisface las sigu-
ientes condiciones:

(1) Número de hembras = Número de machos

(2.1) p(j, n − 1) = Población juvenil de hembras en el año (n − 1)

(2.2) p(a, n − 1) = Población adulta de hembras en el año (n − 1)

(3) α=probabilidad con que los pájaros jóvenes que sobreviven y llegan a adulto en el año n.

(4) k= promedio de pájaros hembras jóvenes, generado por las hembras adultas que sobreviven.

(5) β= probabilidad con que los pájaros adultos sobreviven de una primavera para otra.

(6) Toda la información anterior puede ser computada vı́a las ecuaciones:

p(j, n) = kp(α, n − 1)
(21)
p(a, n) = αp(j, n − 1) + βp(a, n − 1)
Profesor Ricardo Santander Baeza 2010 27

Equivalentemente
    
p(j, n) 0 k p(j, n − 1)
= (22)
p(j, n − 1) α β p(a, n − 1)
| {z } | {z } | {z }
p(n) A p(n−1)

Análisis matemático del modelo

• De (22), sigue que


p(1) = AP (0)
p(2) = AP (1) = A2 p(0)
p(3) = AP (2) = A3 p(0)
..
.
p(n) = AP (n − 1) = An p(0)

• Determinemos el polinomio caracterı́stico de A:


 
λ −k
PA (λ) = det
−α (λ − β)
= λ(λ − β) − kα
= λ2 − λβ − kα
Luego,
PA (λ) = λ2 − λβ − kα

• Ahora, para calcular los valores propios hacemos PA (λ) = 0

Es decir;

PA (λ) = 0 ⇐⇒ λ2 − λβ − kα = 0
p
β± β 2 + 4kα
⇐⇒ λ =
2

Luego, los valores propios son:


( p p )
β− β 2 + 4kα β + β 2 + 4kα
V.P = ,
2 2

Además λ1 y λ2 satisfacen las propiedades:

(i) α ∈ [0, 1] y β ∈ [0, 1] y k > 0 entonces β 2 + 4kα > 0

√ √
β+ β 2 +4kα β+ β 2 −4kα
(ii) Si λ1 = 2 y λ2 = 2 entonces λ1 > λ2 y |λ1 | > |λ2 |
28 Profesor Ricardo Santander Baeza 2010

• Sea α = {v1 , v2 }, base de vectores propios de MR (2), correspondiente a los valores propios
λ1 y λ2 , respectivamente entonces valen las siguientes propiedades:

(i) Como p(0) ∈ MR (2) y α es base de MR (2) entonces existen únicos escalares a1 , a2 tales
que  
p(j, 0)
p(0) = = a1 v1 + a2 v2
p(a, 0)

(ii) Sustituyendo en la ecuación central p(n) = An p(0) tenemos que


p(n) = An (a1 v1 + a2 v2 )
= a1 An v1 + a2 An v2
= a1 λn1 v1 + a2 λn2 v2
  n 
λ2
= λn1 a1 v1 + a2 v2
λ1

(6) Conclusión al Modelo 2


  n 
n λ2
• lim p(n) = lim λ1 a1 v1 + a2 v2 ≈ λn1 a1 v1
n→∞ n→∞ λ1
(7) Algunos problemas del Modelo 2

(i) La tasa de nacimiento y muerte cambia con frecuencia de un año para otro y depende del clima,
este modelo supone clima constante.

(ii) Muchas especies poseen una tasa de nacimiento y muerte que varia con el tamaño de la población,
en particular una población no puede crecer indefinidamente a una tasa constante, caso contrario
dominarı́a la tierra.
Ejemplo 7.2. Apliquemos el modelo para el siguiente caso:
(1) Datos particulares:
• k=2
• α = 0.3
• β = 0.5 
0
• p(0) =
10
 
0.0 2.0
(2) Determinamos los valores y vectores propios de A =
0.3 0.5
(i) Sus valores propios son:

V.P = {−05639, 1.0639} = {λ2 , λ1 }


(ii) Sus vectores propios son:
   
−0.9625
−0.8829
α = ,
−0.4697
0.2714
   
0.9625 0.8829
= ,
−0.2714 0.4697

= {v2 , v1 }
Profesor Ricardo Santander Baeza 2010 29

(3) Aplicando las conclusiones del modelo 2, tenemos que:


p(n) ≈ λn1 a1 v1
≈ 1.0639n a1 v1
Como λ1 > 1 entonces la población crecerá.
30 Profesor Ricardo Santander Baeza 2010

8. Rudimentos sobre Operadores Especiales


8.1. Nueva mirada para las matrices cambio de coordenadas. Los elementos descritos aquı́, son los
que se analizaron en la sección Coordenadas y Matrices.

(1) Si V es un K-espacio vectorial con producto interno, donde K = R o K = C y α = {v1 , v2 , . . . , vn }


es una base de V , que podemos asumir ortonormal, entonces tenemos el isomorfismo naturalmente
inducido por al base α, entre V y su espacio coordenado MK (n × 1);

 
hv, v1 i
 hv, v2 i  n
X
[ ]α : V 7−→ MK (n × 1)  
tal que [v]α =  ..  ⇐⇒ v = hv, vi ivi
v 7−→ [v]α  . 
i=1
hv, vn i

(2) Si u ∈ V y v ∈ V entonces del teorema (??) sigue que


n
X
hu, vi = hu, vi ihv, vi i
i=1

(3) Juntando la información de los ı́temes anteriores tenemos que, Si h, i es un producto interno en el
espacio vectorial V sobre el cuerpo K entonces MK (n × 1) es un espacio con producto interno, sobre
K, donde

n
X
hu, vi = h[u]α , [v]α i = [u]tα [v]α = hu, vi ihv, vi i
i=1

(4) Si β = {w1 , w2 , . . . , wn } es otra base ortonormal de V entonces del diagrama conmutativo;

1V
(V, α) 7−→ (V, β)
↓ ↓ (23)
[I]β
α
MK (n × 1) 7−→ MK (n × 1)

Sigue que,

[I]βα = ([v1 ]β , [v2 ]β , . . . , [vn ]β ) = (hvi , wj i) ∈ MK (n)

En particular

(
1 : k 6= s
h[vk ]β , [vs ]β i = hvk , vs i =⇒ h[vk ]β , [vs ]β i =
0 : otro caso

Es decir, las columnas de la matriz cambio de base [I]βα son ortogonales dos a dos. Por tanto, Si V
un K-espacio vectorial con producto interno y α = {v1 , v2 , . . . , vn } y β = {w1 , w2 , . . . , wn } dos bases
ortonormales de V entonces

 t  t  −1  t
[I]βα [I]βα = In ⇐⇒ [I]βα = [I]βα ⇐⇒ [I]βα = [I]αβ
Profesor Ricardo Santander Baeza 2010 31

 t
(5) Finalmente, como hu, vi = h[u]β , [v]β i y [I]βα = [I]αβ entonces

h[I]βα · [u]α , [v]β i = ([I]βα · [u]α )t · [v]β


= ([u]α )t · ([I]βα )t · [v]β
= ([u]α )t · [I]αβ · [v]β
= ([u]α )t · ([I]αβ · [v]β )
= h[u]α , [I]αβ · [v]β i

Ası́ que si llamamos ([I]βα )∗ = [I]αβ entonces tenemos la identidad

h[I]βα · [u]α , [v]β i = h[u]α , ([I]βα )∗ · [v]β i


Ejemplo 8.1.1. En R2 con el producto interno usual considera las bases ortonormales
 
1 1
c(2) = {(1, 0), (0, 1)} ∧ α = √ (1, 2), √ (−2, 1)
5 5

entonces
 1 1 
 1 2 
h(1, 0), √ (1, 2)i h(0, 1), √ (1, 2)i
 5 5  √ √
   5 5 
[I]αc(2) =  = 2 1 
 1 1  −√ √
h(1, 0), √ (−2, 1)i h(0, 1), √ (−2, 1)i 5 5
5 5
Y, usando la notación anterior tenemos que
 1 2 
√ −√
 5 5 
 
([I]αc(2) )∗ = [I]c(2)
α =  
 2 1 
√ √
5 5
8.2. Operador Adjunto.
Teorema 8.2.1. (Teorema de Representación de Riesz) Si consideremos un K-espacio vectorial V con pro-
ducto interno, α = {v1 , v2 , . . . , vn } una base ortonormal de V y L ∈ LK (V, K) entonces existe v ∈ V tal que
L(w) = hw, vi (∀w, w ∈ V).

En efecto
(1) Como α = {v1 , v2 , . . . , vn } es una base ortonormal de V entonces cada w ∈ V, se escribe de forma
única como
Xn
w= hw, vi ivi
i=1

(2) Luego, aplicando la forma lineal L a cada w ∈ V tenemos que


 
! L(v1 )
n
X n
X  
 L(v2 ) 

L(w) = L hw, vi ivi = hw, vi iL(vi ) = hw, v1 i hw, v2 i · · · hw, vn i · .. 
 . 
i=1 i=1
L(vn )
32 Profesor Ricardo Santander Baeza 2010

n
X
(3) Ası́ que, si definimos v = L(vi ) vi entonces usando la identidad de encima, sigue que
i=1
 
L(v1 )
 
 L(v2 ) 

L(w) = hw, v1 i hw, v2 i · · · hw, vn i · ..  = hw, vi
 . 
L(vn )
(4) Finalmente, supongamos que v no es único, es decir, existe v ′ ∈ V tal que L(w) = hw, v ′ i (∀w, w ∈ V)
entonces usando la técnica usual cuando hay producto interno obtenemos que,

hv − v ′ , v − v ′ i = hv, vi − hv, v ′ i − hv ′ , vi + hv ′ , v ′ i
= L(v) − L(v) − L(v ′ ) + L(v ′ )
= 0
Por tanto, v = v ′ , y v es único con esta propiedad.
Corolario 8.2.2. Sean V un K-espacio vectorial con producto interno, α = {v1 , v2 , . . . , vn } una base
ortonormal de V y T ∈ LK (V) entonces existe un único operador T ⋆ de V tal que satisface la ecuación
vectorial.
hT (w), ui = hw, T ⋆ (u)i (24)
En efecto

Como queremos aplicar el teorema de representación de Riesz (8.2.1) entonces debemos construir una forma
lineal, y para ello procedemos como sigue. Para cada u ∈ V, definimos
ϕu : V −
7 → K
w −7 → ϕu (w) = hT (w), ui
entonces
(1) ϕu ∈ LK (V, K), (∀u; u ∈ V), pues,

• ϕu (w1 + w2 ) = hT (w1 + w2 ), ui = hT (w1 ) + T (w2 ), ui = hT (w1 ), ui + hT (w2 ), ui = ϕu (w1 ) + ϕ(w2 )

• ϕu (λw) = hT (λw), ui = hλT (w), ui = λhT (w), ui = λϕu (w)

(2) Como ϕu ∈ LK (V, K) entonces por una aplicación directa del teorema de representación de Riesz existe
“para cada u ∈ V un único v ∈ V tal que ϕu (w) = hw, vi”. es decir tenemos por una parte,
hT (w), ui = hw, vi
(3) Por otra parte, de la lectura “para cada u ∈ V un único v ∈ V tal que ϕu (w) = hw, vi”, sigue que
tenemos bien definida una función T ∗ : V 7−→ V tal que T ∗ (u) = v. Es decir
T ∗ (u) = v ⇐⇒ ϕu (w) = hT (w), ui = hw, vi = hw, T ∗ (u)i
Ası́ que,
hT (w), ui = hw, T ∗ (u)i
(4) En particular, para el operador T

n
X
T (vi ) = hT (vi ), vj ivj (1 ≤ i ≤ n) =⇒ [T ]αα = (hT (vi ), vj i)t ∈ MK (n)
j=1

Y para T∗ tenemos que,


Profesor Ricardo Santander Baeza 2010 33

n
X
T ⋆ (vi ) = hT ⋆ (vi ), vj ivj (1 ≤ i ≤ n)
j=1
Xn
= hvj , T ⋆ (vi )ivj (1 ≤ i ≤ n)
j=1
n
X
= hT (vj ), vi ivj (1 ≤ i ≤ n)
j=1

Ası́ que

 t
[T ⋆ ]αα = [T ]αα

(5) Finalmente, si β otra base ortonormal de V entonces

[T ⋆ ]ββ = [I]βα [T ⋆ ]αα [I]αβ


 t
= [I]βα [T ]αα [I]αβ
 t  t  t
= [I]αβ [T ]αα [I]βα
 t
= [I]βα [T ]αα [I]αβ
 t
= [T ]ββ

Definición 8.2.3. Sea V un K-espacio vectorial con producto interno y T ∈ LK (V ) entonces llamaremos
operador adjunto de T al único operador T ⋆ de V que satisface la ecuación hT (w), ui = hw, T ∗ (u)i

Ejemplo 8.2.4. Sea T ∈ LC (C2 ) tal que T (1, 0) = (1 + i, 2) y T (0, 1) = (i, i) entonces
   
c(2) 1+i i ⋆ c(2) 1−i 2
[T ]c(2) = y [T ]c(2) =
2 i −i −i

c(3)
Ejemplo 8.2.5. Si [T ]c(3) = (aks ) ∈ MC (3) tal que aks = ik+s entonces T ⋆ es diagonalizable.

En efecto

c(3)
(1) Como, [T ]c(3) = (ik+s ) entonces

   
−1 −i 1 −1 i 1
c(3) c(3)
[T ]c(3) =  −i 1 i  y [T ⋆ ]c(3) =  i 1 −i 
1 i −1 1 −i −1

(2) Ahora calculamos los valores propios de T ⋆ , vı́a el polinomio caracterı́stico PT ⋆ (λ).
34 Profesor Ricardo Santander Baeza 2010

 
(λ + 1) −i −1
PT ⋆ (λ) = det  −i (λ − 1) i 
−1 i (λ + 1)
 
(λ + 1) −i −1
= det  0 λ −iλ 
−1 i (λ + 1)
= (λ + 1)[λ(λ + 1) − λ] − [−λ + λ]
= λ2 (λ + 1)
Luego, los valores propios de T ⋆ son λ = 0 y λ = −1

(3) Aplicando ahora el criterio del polinomio minimal tenemos que,


    
  −1 i 1 0 i 1 0 0 0
c(3) c(3)
[T ⋆ ]c(3) [T ⋆ ]c(3) + I3 =  i 1 −i   i 2 −i  =  0 0 0 
1 −i −1 1 −i 0 0 0 0
T ⋆ es diagonalizable
c(3)
(4) Para determinar la base que diagonaliza la matriz [T ⋆ ]c(3) , usemos el procedimiento,

v ∈ C3 λ
⇐⇒ v ∈ C3 ∧ T ⋆ (v) = λv
c(3)
⇐⇒ v = [(x, y, z)]c(3) ∧ [T ⋆ ]c(3) [(x, y, z)]c(3) = [(λx, λy, λz]c(3)
 
x −x + iy + z = λx
⇐⇒ v =  y  ∧ ix + y − iz = λy (⋆)
z x − iy − z = λz
(a) En particular;
 
 x −x + iy + z = 0
3
v∈ C 0
⇐⇒ v =  y  ∧ ix + y − iz = 0
z x − iy − z = 0

⇐⇒ v ∈ h{(1, −i, 0), (0, i, 1)}i


Luego,

C3 0
= h{(1, −i, 0), (0, i, 1)}i

(b) Analogamente,
 
 x −x + iy + z = −x
v ∈ C3 −1
⇐⇒ v =  y  ∧ ix + y − iz = −y
z x − iy − z = −z

⇐⇒ v ∈ h{(i, 1, −i)}i
Luego,

C3 −1
= h{(i, 1, −i)}i
Ası́, la base de diagonalización es
α = {(1, −i, 0), (0, i, 1), (i, 1, −i)}
Profesor Ricardo Santander Baeza 2010 35

8.3. Propiedades del Operador Adjunto. Si V es un K-espacio vectorial con producto interno y T ∈
LK (V) entonces usando el teorema de representación (se transforma ya en una técnica), podemos verificar
las siguientes propiedades:
Propiedad 8.3.1. (T ⋆ )⋆ = T

En efecto

• Por una parte, hT ∗ (w), ui = hw, T ∗∗ (u)i

• Y por otra parte, hT ∗ (w), ui = hu, T ∗ (w)i = hT (u), wi = hw, T (u)i

• Finalmente, si definimos ϕ∗u (w) = hT ∗ (w), ui entonces ϕ∗u ∈ LK (V, K), ası́ que una nueva aplicación del
teorema de representación nos permite decir que, T ∗∗ (u) = T (u) para cada u ∈ V, por tanto T ∗∗ = T
Propiedad 8.3.2. (T + L)⋆ = T ⋆ + L⋆ y (λ · T )⋆ = λ · T ⋆

En efecto

Por una parte,

ϕu (w) = h(T + L)(w), ui = hw, (T + L)∗ (u)i

Y por otra,

ϕu (w) = h(T + L)(w), ui = hT (w), ui + hL(w), ui = hw, T ∗ (u)i + hw, L∗ (u)i = hw, (T ∗ + L∗ )(u)i

Ası́ que (T + L)∗ (u) = (T ∗ + L∗ )(u) y entonces (T + L)∗ = T ∗ + L∗

Análogamente,

ϕu (w) = h(λT )(w), ui = hw, (λT )∗ (u)i y,

ϕu (w) = h(λT )(w), ui = λhT (w), ui = λhw, T ∗ (u)i = hw, λ · T ∗ (u)i.

Ası́ que, (λT )∗ (u) = λT ∗ (u), de donde (λT )∗ = λT ∗

Propiedad 8.3.3. (T ◦ L)⋆ = (L)⋆ ◦ (T )⋆


En efecto
Por una parte, ϕu (w) = h(T ◦ L)(w), ui = h(w), (T ◦ L)∗ (u)i, y por otra parte,

ϕu (w) = h(T ◦ L)(w), ui = hT (L(w)), ui = hL(w), T ∗ (u)i = hw, L∗ (T ∗ (u)) = hw, (L∗ ◦ T ∗ )(u))

Ası́ que, aplicando el teorema de representación tenemos que (T ◦ L)∗ = L∗ ◦ T ∗

Propiedad 8.3.4. Si L\ ⋆ \
K (V ) = {T | T ∈ LK (V )} y definimos φ : LK (V ) 7−→ LK (V ) tal que φ(T ) = T

entonces φ es un isomorfismo de grupos con la adición.

En efecto

• Del teorema de representación sigue que φ es una biyección, pues para cada T ∈ LK (V ) existe un
único T ∗ ∈ L\
K (V ), y en particular de la propiedad (8.3.1) de los operadores adjuntos, sigue que
36 Profesor Ricardo Santander Baeza 2010

φ(T ∗ ) = T ∗∗ = T , es decir φ−1 = φ, luego φ es una biyección

• De la propiedad (8.3.2) de los operadores adjuntos, sigue que φ es un homomorfismo de grupos, pues
φ(T + L) = (T + L)∗ = T ∗ + L∗ = φ(T ) + φ(L)

• De la misma propiedad (8.3.2) de los operadores adjuntos, φ(λ · T ) = λ · T ∗ . Sigue que, si K = R


entonces φ es un isomorfismo de R espacios vectoriales.

Propiedad 8.3.5. T (W) ⊂ W =⇒ T ⋆ (W⊥ ) ⊂ W⊥ , (∀ W, W ≤ V).

En efecto

v ∈ W ⊥ ⇒ hv, T (w)i = 0 (∀w; w ∈ W ) =⇒ hT ⋆ (v), wi = 0 (∀w; w ∈ W ) =⇒ T ⋆ (W ⊥ ) ⊂ W ⊥

Propiedad 8.3.6. λ valor propio de T entonces λ valor propio de T ∗

En efecto

Si T (v) = λv entonces por una parte, hT (v), ui = hλv, ui = λhv, ui = hv, λ ui, y por otra parte, hT (v), ui =
hv, T ∗ (u)i. Ası́ T ∗ (u) = λ u

Propiedad 8.3.7. T diagonalizable =⇒ T ◦ T ⋆ = T ⋆ ◦ T

En efecto

Si T es diagonalizable entonces existe una base ortonormal α de vectores propios de V tal que

• [T ]αα = diag{λ1 , λ2 , . . . , λs } =⇒ [T ⋆ ]αα = diag{λ1 , λ2 , . . . , λs }

• En particular, T ◦ T ⋆ = T ⋆ ◦ T

8.4. Operador Hermitiano y Autoadjunto. Si V es un K espacio vectorial con producto interno en-
tonces ¿bajo que condiciones T ∈ LK (V) tiene un valor propio real?. Iniciamos el estudio con la siguiente,

Definición 8.4.1. Sea (V, h, i) tal que dimK (V ) = n y T ∈ LK (V ). T será llamado un operador autoadjunto
o hermitiano si T = T ⋆ . Para fijar ideas, diremos que T es autoadjunto si K = R y que T es hermitiano si
K = C.
Ejemplo 8.4.2. Consideremos T ∈ LC (C2 ) tal que T (x, y) = (5x + (1 + i)y, (1 − i)x + 2y) entonces
   
c(2) 5 1+i λ−5 1+i
(1) [T ]c(2) = =⇒ PT (λ) = det = (λ − 5)(λ − 2) − 2 = λ2 − 7λ + 8.
1−i 2 1−i λ−2
√ √
49 − 32 7±
7 ± 17
Ası́ los valores propios de T son λ = = ∈ R, y T es diagonalizable.
2 2
 t    
∗ c(2) 5 1+i 5 1−i 5 1+i c(2)
(2) [T ]c(2) = = = = [T ]c(2)
1−i 2 1+i 2 1−i 2
(3) Es decir T = T ∗ˆ y T es un operador hermitiano. En particular T ◦ T ∗ = T ∗ ◦ T
Profesor Ricardo Santander Baeza 2010 37

Ejemplo 8.4.3. Sea T : R2 7−→ R2 tal que T (x, y) = (−y, x) entonces

(1) Es claro que T ∈ LR (R2 )

(2) Para verificar si T es diagonalizable, determinamos sus valores propios y como


 
c(2)  0 −1
[T ]c(2) = [T (1, 0)]c(2) [T (0, 1)]c(2) = entonces
  1 0
λ −1
PT (λ) = det = λ2 + 1 > 0 (∀λ; λ ∈ R), y
1 λ
Luego, T no tiene ningún valor propio real y por tanto no es diagonalizable

(3) Ahora podemos calcular directamente T ∗

En primer lugar, calculamos T ∗ en la base canónica.


T ∗ (1, 0) = hT ∗ (1, 0), (1, 0)i(1, 0) + hT ∗ (1, 0), (0, 1)i(0, 1)
= h(1, 0), T (1, 0)i(1, 0) + h(1, 0), T (0, 1)i(0, 1)
= h(1, 0), (0, 1)i(1, 0) + h(1, 0), (−1, 0)i(0, 1)
= (0, −1)

T ∗ (0, 1) = hT ∗ (0, 1), (1, 0)i(1, 0) + hT ∗ (0, 1), (0, 1)i(0, 1)


= h(0, 1), T (1, 0)i(1, 0) + h(0, 1), T (0, 1)i(0, 1)
= h(0, 1), (0, 1)i(1, 0) + h(0, 1), (−1, 0)i(0, 1)
= (1, 0)
Ahora, calculamos T ∗ en el espacio total

T ∗ (x, y) = T ∗ (x(1, 0) + y(0, 1))


= xT ∗ (1, 0) + yT ∗ (0, 1)
= x(0, −1) + y(1, 0)
= (y, −x)
Finalmente, verificamos la definición de T ∗ .
hT (x, y), (u, v)i = h(−y, x), (u, v)i = vx − uy
Y,
h(x, y), T ∗ (u, v)i = h(x, y), (v, −u)i = vx − uy
Ası́ que,
hT (x, y), (u, v)i = h(x, y), T ∗ (u, v)i
En particular,

(T ∗ ◦ T )(x, y) = T ∗ (T (x, y)) = T ∗ (−y, x) = (x, y)


(T ◦ T ∗ )(x, y) = T (T ∗ (x, y)) = T (y, −x) = (x, y)
Equivalentemente,
     
∗ c(2) c(2) 0 1 0 −1 1 0
[T ]c(2) · [T ]c(2) = · ·= ,y
−1 0 1 0 0 1
38 Profesor Ricardo Santander Baeza 2010
     
c(2) c(2) 0 −1 0 1 1 0
[T ]c(2) · [T ∗ ]c(2) = · =
1 0 −1 0 0 1
(4) Luego, T no es un operador autoadjunto

Ejemplo 8.4.4. Sea V un K espacio vectorial y T ∈ LK (V) entonces

U = T + T ∗ =⇒ U ∗ = (T + T ∗ )∗ = T ∗ + (T ∗ )∗ = T ∗ + T = U

8.5. Propiedades de los Operadores Hermitianos y Autoadjuntos. En esta sección daremos res-
puesta a la pregunta: ¿Bajo que condiciones T ∈ LK (V) tiene un valor propio real?
Supongamos entonces que V es un K espacio vectorial y que T ∈ LK (V) tal que T = T ∗

Propiedad 8.5.1. hT (u), vi = hu, T (v)i

En efecto

Una tal propiedad sigue de las propias definiciones, pues,


hT (u), vi = hu, T ∗ (v)i = hu, T (v)i
Propiedad 8.5.2. Si λ es valor propio de T entonces λ ∈ R

En efecto

El resultado sigue de la propiedad (8.3.6), y del hecho que T = T ∗

Propiedad 8.5.3. Sean λ1 y λ2 valores propios de T y Vλ1 y Vλ2 los correspondientes subespacios propios
entonces
u ∈ Vλ1 ; v ∈ Vλ2 ∧ λ1 6= λ̄2 =⇒ hu, vi = 0
En efecto

La idea es componer correctamente la siguiente información


• u ∈ Vλ1 ⇐⇒ u ∈ V ∧ T (u) = λ1 u
• v ∈ Vλ2 ⇐⇒ v ∈ V ∧ T (v) = λ2 v
• hT (u), vi = hu, T (v)i

Entonces componiendo lo anterior, tenemos que

hT (u), vi = hu, T (v)i ⇐⇒ hλ1 u, vi = hu, λ2 vi ⇐⇒ λ1 hu, vi = λ̄2 hu, vi ⇐⇒ (λ1 − λ̄2 ) hu, vi = 0V
Y, como λ1 6= λ̄2 entonces hu, vi = 0

Propiedad 8.5.4. T posee un valor propio

En efecto

El polinomio caracterı́stico PT (λ) = det (λIn − [T ]αα ) ∈ PC [λ] y entonces posee una raı́z λ en C, y además
de la propiedad (8.5.2) sigue que λ ∈ R.
Profesor Ricardo Santander Baeza 2010 39

Propiedad 8.5.5. Existe una base ortonormal, formada por vectores propios de T, esto es, T es diagonali-
zable

En efecto

(1) Sea λ ∈ R un valor propio de T, que existe por la propiedad (8.5.4) y sea v ∈ V su correspondiente
vector propio, es decir, T (v) = λv
v
(2) Si llamamos u1 = entonces T (u1 ) = λu1 y ku1 k = 1, y si dimK (V) = 1 V posee una base ortonor-
||v||
mal de vectores propios de T y en particular T es diagonalizable.

(3) Haremos Inducción Matemática sobre n = dimK (V), y para ello consideraremos la siguiente Hipótesis
de inducción.

H : Si (U, h, i) ≤ (V, h, i) tal que dimK (U) ≤ n − 1 entonces U posee una base ortonormal de vectores
propios de T

Etapas básicas:

(a) Si W = h{u1 }i entonces V = W ⊕ W⊥

(b) De la propiedad (8.3.5), tenemos que T (W) ⊂ W =⇒ T ⋆ (W⊥ ) ⊂ W⊥

(c) Como T = T ⋆ entonces T (W⊥ ) ⊂ W⊥ y esto permite definir la transformación lineal restricción
de T .
Tb = T |W⊥ : W⊥ 7−→ W⊥
v 7−→ Tb(v) = T (v)
(d) Como dimK (W⊥ ) = n − 1 < n entonces la hipótesis de Inducción H aplica, y W⊥ posee una base
ortonormal de vectores propios de Tb, digamos β = {u2 , u3 , . . . , un } y finalmente de V = W ⊕ W⊥ ,
sigue que α = {u1 , u2 , . . . , un } es una base ortonormal de vectores propios de T .

8.6. Operador Unitario.


Definición 8.6.1. Sea V un K espacio vectorial tal que dimK (V ) = n, n ∈ N y T ∈ LK (V). T es un
operador Unitario si y sólo si
hT (u), T (v)i = hu, vi
Ejemplo 8.6.2. Del ejemplo 8.4.3 sabemos que si T ∈ LR (R2 ) tal que T (x, y) = (−y, x) entonces podemos
verificar directamente que
(1) hT (x1 , y1 ), T (x2 , y2 )i = h(−y1 , x1 ), (−y2 , x2 )i = y1 y2 + x1 x2 = h(x1 , y1 ), (x2 , y2 )i, es decir T es un ope-
rador unitario

(2) T ∗ (x, y) = (y, −x) es el operador adjunto de T y (T ∗ ◦ T )(x, y) = (x, y) y (T ◦ T ∗ )(x, y) = (x, y), es
decir T −1 = T ∗

(3) kT (x, y)k2 = hT (x, y), T (x, y)i = h(−y, x), (−y, x)i = x2 + y 2 = k(x, y)k2
Lema 8.6.3. Sea V un K espacio vectorial tal que dimK (V ) = n, n ∈ N y T ∈ LK (V). Si T es un operador
Unitario entonces T es un isomorfismo, y T −1 = T ∗
40 Profesor Ricardo Santander Baeza 2010

En efecto

Aplicando el teorema de representación de Riesz 8.2.1, la definición de operador unitario, y el teorema de


la dimensión tenemos

• En primer lugar,

hT (u), T (v)i = hu, vi
=⇒ T ∗ (T (v)) = v
hT (u), T (v)i = hu, T ∗ (T (v))i
• Es decir, T es inyectiva y por el teorema de la dimensión es sobreyectiva. Análogamente T ∗ es so-
breyectiva y por el teorema de la dimensión inyectiva. Ası́ que T es un isomorfismo, y T −1 = T ∗

Lema 8.6.4. Sea V un K espacio vectorial tal que dimK (V ) = n, n ∈ N y T ∈ LK (V). Si T es un isomor-
fismo y T −1 = T ∗ entonces T es un operador unitario

En efecto

Para cada u ∈ V y v ∈ V tenemos que hT (u), T (v)i = hu, T ∗ (T (v))i = hu, T −1 (T (v))i = hu, vi. Luego T es
un operador unitario

Lema 8.6.5. Sea V un K espacio vectorial tal que dimK (V ) = n, n ∈ N y T ∈ LK (V). T operador unitario
si y sólo si kT (u)k = kuk

En efecto

Si T es unitario entonces para cada u ∈ V y v ∈ V tenemos que hT (u), T (v)i = hu, vi. En particular, para
cada u ∈ V hT (u), T (u)i = hu, ui, ası́ que

kT (u)k2 = hT (u), T (u)i = hu, ui = kuk2

Recı́procamente,

En primer lugar observamos que T es inyectiva, y por ende como consecuencia del teorema de la dimensión
un isomorfismo pues, si suponemos que u ∈ ker(T ) entonces u ∈ V ∧ T (u) = 0V , y

0 = kT (u)k2 = kuk2 = hu, ui =⇒ u = 0V

En segundo lugar,

kT (u)k2 = kuk2 =⇒ hT (u), T (u)i = hu, ui =⇒ T ∗ (T (u)) = u =⇒ T −1 = T ∗

Lema 8.7. Sea V un K espacio vectorial tal que dimK (V ) = n, n ∈ N y T ∈ LK (V). Si T es un operador
unitario y λ ∈ K es un valor propio de T entonces |λ| = 1

En efecto

Si λ ∈ K es un valor propio de T entonces T (v) = λv. Ası́ que



hT (v), T (v)i = hv, vi
=⇒ hv, vi = hλv, λvi =⇒ hv, vi = λλhv, vi =⇒ |λ| = 1
hT (v), T (v)i = hλv, λvi
Profesor Ricardo Santander Baeza 2010 41

9. Ejercicios Propuestos
(1) Si ϕ ∈ LR (R3 , R) tal que ϕ(x, y, z) = 2x + 3y − z. Usando el teorema 8.2.1, (teorema de representación
de Riesz), y el producto interno usual de R3 . Determine u ∈ R3 tal que ϕ(x, y, z) = h(x, y, z), ui

(2) Si ϕ ∈ LC (C3 , C) tal que ϕ(x, y, z) = x−i(4z−6y). Usando el teorema 8.2.1, (teorema de representación
de Riesz), y el producto interno usual de C3 . Determine u ∈ C3 tal que ϕ(x, y, z) = h(x, y, z), ui

(3) Si ϕ ∈ LR (R2 [x], R) tal que ϕ(p(x)) = p(0) − 2p′ (0). Usando el teorema 8.2.1, (teorema de repre-
Z 1
sentación de Riesz), y el producto interno de R2 [x], definido por hp(x), q(x)i = p(x) · q(x) dx.
0
Determine q(x) ∈ R2 [x] tal que ϕ(p(x)) = hp(x), q(x)i

(4) Si ϕ ∈ LR (R2 [x], R) tal que ϕ(p(x)) = p(0)−2p′ (0). Usando el teorema 8.2.1, (teorema de representación
de Riesz), y el producto interno de R2 [x], definido por hp(x), q(x)i = p(0) · q(0) + p(1) · q(1) + p(2) · q(2),
donde p(x) = a0 +ax +a2 x2 y q(x) = b0 +bx +b2 x2 . Determine q(x) ∈ R2 [x] tal que ϕ(p(x)) = hp(x), q(x)i

(5) Si T : R2 [x] 7−→ R2 [x] tal que T (a0 + a1 x + a2 x2 ) = a1 − a2 x + a0 x2 entonces respecto del producto
Z 1
interno hp(x), q(x)i = p(x) · q(x) dx
0

• Determine T∗

• Muestre que (ker(T ))⊥ = Img(T ∗ )

• Muestre que T ∗ es un isomorfismo y que (T ∗ )−1 = (T −1 )∗

(6) Si T : R2 [x] 7−→ R2 [x] tal que T (a0 + a1 x + a2 x2 ) = a1 + 2a2 x entonces respecto del producto interno
hp(x), q(x)i = p(0) · q(0) + p(1) · q(1) + p(2) · q(2), donde p(x) = a0 + ax + a2 x2 y q(x) = b0 + bx + b2 x2

• Determine T ∗

• Muestre que (ker(T ))⊥ = Img(T ∗ )

(7) Sea V un K espacio vectorial tal que dimK (V ) = n, n ∈ N y T ∈ LK (V)

• Demuestre que (ker(T ))⊥ = Img(T ∗ )

• Concluya que: Si T es un isomorfismo entonces T ∗ es un isomorfismo y (T ∗ )−1 = (T −1 )∗

(8) Sea V un C espacio vectorial tal que dimC (V ) = n, n ∈ N y T ∈ LC (V). Si T ◦ T ∗ = T ∗ ◦ T entonces


demuestre que ker(T ) = ker(T ∗ ) e Img(T ) = Img(T ∗ )

(9) Sea V un C espacio vectorial tal que dimC (V ) = n, n ∈ N y T ∈ LC (V). Demuestre que si

• T autoadjunto entonces kT (u) ± iuk2 = kT (u)k2 + kuk2

• T autoadjunto entonces hT (u), ui ∈ R (∀u; u ∈ V)

• hT (u), ui = 0 (∀u; u ∈ V) entonces T = 0

• hT (u), ui ∈ R (∀u; u ∈ V) entonces T = T ∗


CAPITULO 6

Preliminares sobre Formas

El trabajo solidario es lo único que hace


humano al ser humano

El objetivo central de este capitulo es caracterizar cónicas y cuádricas, usando esencialmente técnicas de
Algebra Lineal.

1. Formas Lineales
Motivación 1.1. Consideremos una vez más la situación central del Algebra Lineal, es decir. Dado un K
espacio vectorial V y una base α = {v1 , v2 , . . . , vn } de V entonces todo vector v ∈ V puede ser reescrito de
forma única com combinación lineal de los elementos de la base α, en sı́mbolos

 
a1
n
X  a2 
 
v= ai vi ai ∈ K ⇐⇒ [v]α =  ..  (1)
.
i=1
an
Ası́ que el problema vuelve a ser como determinamos las coordenadas del vector v que nos interesa ubicar,
la técnica que introduce un producto interno en V , ya nos dio una respuesta, pero queremos aquı́ desarrollar
una técnica alternativa e independiente de la del producto interno.

Partamos examinando lo básico, siempre da resultado,

     
1 0 0
0 1 0
     
[v1 ]α =  ..  [v2 ]α =  ..  . . . [vn ]α =  ..  (2)
. . .
0 0 1
entonces el lector de coordenadas de los vi , lee un 1 en la posición i y 0 en las otras posiciones.

En el caso general,

     
1 0 0
0 1 0
     
[v]α = a1  ..  + a2  ..  + · · · + an  ..  (3)
. . .
0 0 1

De (3) vemos que cada v ∈ V necesita n lectores, pues dicho lector cuando menos debe ser lineal y entregar
como valor un escalar, ası́ que la idea ya está.

3
4 Profesor Ricardo Santander Baeza 2010

Definición 1.2. Sea V un K espacio vectorial y α = {v1 , v2 , . . . , vn } una base de V entonces llamaremos
α-lector al conjunto α⋆ = {v1⋆ , v2⋆ , . . . , vn⋆ }, donde para cada i = 1, 2 . . . , n
 
a1
⋆  a2 
vi : V 7−→ K  
⇐⇒ [v]α =  ..  (4)
v 7−→ ai .
an
En particular vale siguiente propiedad para los α − lectores
(
⋆ 1 si i = j
vi (vj ) =
0 si i 6= j
Lema 1.2.1. Para cada i = 1, 2, . . . , n, vi⋆ es una transformación lineal del espacio vectorial V en su cuerpo
de escalares K. En sı́mbolos, para cada i = 1, 2, . . . , n, vi⋆ ∈ LK (V ), equivalentemente α⋆ ⊂ LK (V, K)
En efecto
n
X n
X
Si v = bi vi y u = bi vi entonces
i=1 i=1
" n #
X
vs⋆ (v + u) = vs⋆ (ai + bi )vi = as + bs = vs⋆ (v) + vs⋆ (u)
i=1
Análogamente, si λ ∈ K entonces
" n #
X
vs⋆ (λ v) = vs⋆ (λ ai )vi = λ as = λ vs⋆ (v)
i=1

Teorema 1.3. α⋆ es una base del espacio vectorial, LK (V, K)


En efecto

• α⋆ es un conjunto de generadores de LK (V, K)

Sea T ∈ LK (V, K) entonces


Xn n
X
v= ai vi =⇒ T (v) = ai T (vi ) T es lineal
i=1 i=1
Xn
ai = vi⋆ (v) =⇒ T (v) = vi⋆ (v)T (vi ) ver (1.2)
i=1
Ası́ que;

n
" n #
X X
T (v) = T (vi )vi⋆ (v) = T (vi )vi⋆ (v)
i=1 i=1
Aplicando la definición de igualdad de funciones tenemos que;

n
X
T = T (vi ) vi⋆
| {z }
i=1
∈K

o equivalentemente,

T ∈ h{v1⋆ , v2⋆ , . . . , vn⋆ }i


Profesor Ricardo Santander Baeza 2010 5

• α⋆ es un conjunto linealmente independiente en LK (V, K)

En efecto
Xn
Si suponemos que ri vi⋆ = 0 entonces lo que dices es que, para cada v ∈ V esa función en v es nula
n
! i=1
X
ó ker ri vi⋆ = V .
i=1
El punto, es como usamos esa información para concluir que los rj son todos nulos, porque eso es lo que
hay que mostrar. Para ello observamos lo siguiente, si esa función anula todo el espacio, en particular
anula a los básicos vj .
Ası́ que vale para cada j = 1, 2, . . . , n,

n
X
0 = ri vi⋆ (vj ) = rj ver (1.2)
i=1
Conclusión, α⋆ es una base del espacio vectorial LK (V, K) y procederemos a darle los nombres que usual-
mente se usan para estos conceptos.

Definición 1.4. V ⋆ = LK (V, K), se llama “Espacio Dual del espacio vectorial V ”. Si α = {v1 , v2 , v3 , . . . , vn }
es una base de vectores de V entonces α⋆ = {v1⋆ , v2⋆ , . . . , vn⋆ } se llama ” Base Dual ” de la base α.

Conclusión 1.4.1. Si V es un K espacio vectorial y α = {v1 , v2 , . . . , vv } una base de V entonces


 
v1⋆ (v)
n
X v ⋆ (v)
 2 
v= vi⋆ (v)vi ⇐⇒ [v]α =  ..  (5)
 . 
i=1
vn⋆ (v)

2. Ejercicios Resueltos de espacio dual


(1) Sea V un K espacio vectorial y α = {v1 , v2 , . . . , vv } una base de V . Determinemos su base dual α⋆ .

Etapa 1. Determinamos [v]α , para un v ∈ V , genérico, digamos,


 
a1

 a2 

[v]α =  .. 
 . 
an
Etapa 2. Si Definimos vi⋆ (v) = ai para i = 1, 2, . . . , n entonces α⋆ = {v1⋆ , v2⋆ , . . . , vn⋆ } es la base dual
pedida.

(2) Sea α = {(1, 2), (2, −1)} una base de R2 entonces usando por ejemplo el producto interno usual de R2
para encontrar las coordenadas tenemos que;

x + 2y 2x − y
(x, y) = (1, 2) + (2, −1)
5 5
6 Profesor Ricardo Santander Baeza 2010

Luego, la base dual α⋆ = {(1, 2)⋆ , (2, −1)⋆ }, se define como en (1), es decir.

x + 2y 2x − y
(1, 2)⋆ (x, y) = (2, −1)⋆ (x, y) =
5 5
Observen que, en particular

(1, 2)⋆ (1, 2) = 1 (1, 2)⋆ (2, −1) = 0


(2, −1)⋆ (1, 2) = 0 (2, −1)⋆ (2, −1) = 1
(3) Si V un K- espacio vectorial no nulo, y φ ∈ V⋆ entonces φ = 0 o φ es sobreyectiva.

En efecto

(dimK (K) = 1 =⇒ dimK (Img(φ)) ≤ 1) =⇒ dimK (Img(φ) = 0 ∨ dimK (Img(φ)) = 1

Luego tenemos dos casos:

dimK (Img(φ) = 1 =⇒ dimK (Img(φ) = dimK (K) =⇒ φ sobreyectiva


O bien,

dimK (Img(φ)) = 0 =⇒ dimK (ker(φ)) = dimK (V) =⇒ φ(v) = 0 (∀v; v ∈ V) =⇒ φ = 0

(4) Dados tres números reales distintos, r1 , r2 y r3 , podemos definir tres funciones como sigue:

Ti : R2 [x] −
7 → R (i = 1, 2, 3)
(6)
p(x) − 7 → p(ri )
entonces

• Ti ∈ LR (R2 [x], R) para (i = 1, 2, 3)

En efecto

Sea p(x) ∈ R2 [x], q(x) ∈ R2 [x] y λ ∈ R entonces

En primer lugar, Ti (p(x) + q(x)) = p(ri ) + q(ri ) = Ti (p(x)) + Ti (q(x)), y

En segundo lugar, Ti (λp(x)) = λp(ri ) = λTi (p(x))

Luego, Ti ∈ LR (R2 [x], R) = (R2 [x])∗

• α⋆ = {T1 , T2 , T3 } es un conjunto linealmente independiente en (R2 [x])∗

En efecto

a1 T1 + a2 T2 + a3 T3 = 0 =⇒ (a1 T1 + a2 T2 + a3 T3 )(p(x)) = 0 (∀p(x); p(x) ∈ R2 [x])


Profesor Ricardo Santander Baeza 2010 7

En particular

(a1 T1 + a2 T2 + a3 T3 )(1) = 0 a1 + a2 + a3 = 0

(a1 T1 + a2 T2 + a3 T3 )(x) = 0 =⇒ a1 r1 + a2 r2 + a3 r3 = 0

(a1 T1 + a2 T2 + a3 T3 )(x2 ) = 0 a1 r12 + a2 r22 + a3 r32 = 0


Pero, como
    
a1 + a2 + a3 = 0 1 1 1 a1 0
a1 r1 + a2 r2 + a3 r3 = 0 ⇐⇒  r1 r2 r3   a2  =  0 
a1 r12 + a2 r22 + a3 r32 = 0 r2 r2 r2 a3 0
| 1 {z2 3 }
A
Y el determinante de la matriz A es un determinante de Vandermonde entonces
det(A) = (r1 − r2 )(r2 − r3 )(r3 − r1 )

Y como por hipótesis los números son distintos entonces det(A) 6= 0 y la solución del sistema es trivial,
es decir a1 = a2 = a3 = 0

• α⋆ = {T1 , T2 , T3 } es una base de (R2 [x])∗

En efecto

dimR (R2 [x])∗ = dimR (R2 [x]) = 3, ası́ que α⋆ es una base de (R2 [x])∗

• Determinemos la correspondiente base α de R2 [x]

Supongamos que α = {p1 (x), p2 (x), p3 (x)} es la base buscada, donde:

2
X
p1 (x) = ci1 xi (7)
i=0
2
X
p2 (x) = ci2 xi (8)
i=0
2
X
p3 (x) = ci3 xi (9)
i=0

entonces por la propia definición de base dual, debemos tener:

Para T1

T1 (p1 (x)) = 1 c01 + c11 r1 + c21 r12 = 1


T1 (p2 (x)) = 0 y luego c02 + c12 r1 + c22 r12 = 0
T1 (p3 (x)) = 0 c03 + c13 r1 + c23 r12 = 0
Para T2
8 Profesor Ricardo Santander Baeza 2010

T2 (p1 (x)) = 0 c01 + c11 r2 + c21 r22 = 0


T2 (p2 (x)) = 1 y luego c02 + c12 r2 + c22 r22 = 1
T2 (p3 (x)) = 0 c03 + c13 r2 + c23 r22 = 0
Para T3

T3 (p1 (x)) = 0 c01 + c11 r3 + c21 r32 = 0


T3 (p2 (x)) = 0 y luego c02 + c12 r3 + c22 r32 = 0
T3 (p3 (x)) = 1 c03 + c13 r3 + c23 r32 = 1
Ası́ que para cada polinomio tenemos:

Para (8)

c01 + c11 r1 + c21 r12 = 1


c (r − r2 ) + c21 (r12 − r22 ) = 1
c01 + c11 r2 + c21 r22 = 0 =⇒ 11 1
c11 (r2 − r3 ) + c21 (r22 − r32 ) = 0
c01 + c11 r3 + c21 r32 = 0

entonces

1
c11 + c21 (r1 + r2 ) =
r1 − r2
c11 + c21 (r2 + r3 ) = 0

Luego,
1
c21 =
(r1 − r2 )(r1 − r3 )
Cálculos analogos permiten mostrar que:

(x − r2 )(x − r3 )
p1 (x) =
(r1 − r2 )(r1 − r3 )

(x − r1 )(x − r3 )
p2 (x) =
(r2 − r1 )(r2 − r3 )

(x − r1 )(x − r2 )
p3 (x) =
(r3 − r1 )(r3 − r2 )

3. Ejercicios Propuestos de Espacio Dual


(1) Demuestre que V es isomorfo a V ⋆

(2) Sea α = {(1, 0, 1) , (0, 1, −2), (−1, −1, 0)} ⊂ R3 .


| {z } | {z } | {z }
v1 v2 v3

• Determine φ ∈ (R3 )∗ tal que

φ(v1 ) = 1, φ(v2 ) = −1 φ(v3 ) = 3


Profesor Ricardo Santander Baeza 2010 9

• Determine φ ∈ (R3 )∗ tal que

ker(φ) = h{v1 , v2 }i ∧ v3 ∈
/ ker(φ)

(3) Sea α = {v1 , v2 } una base de V y β ⋆ = {(v1 + v2 )⋆ , (v1 − v2 )⋆ }.

Demuestre que
(v1 + v2 )⋆ 6= v1⋆ + v2⋆

i
X
(4) Sea α = {v1 , v2 , v3 , . . . , vn } una base de V y β = {w1 , w2 , w3 , . . . , wn } tal que wi = jvj , para
j=1
i = 1, 2, . . . , n.

(i) Determine β ⋆

(ii) Determine [vj∗ ]β ⋆ , para j = 1, 2, . . . , n

(iii) Determine [wj⋆ ]1α

(5) Sea α∗ = {φ1 , φ2 , φ3 } ⊂ (R2 [x])∗ tal que para cada elemento
p(x) = a0 + a1 x + a2 x2 ∈ R2 [x]

R1
φ1 (p(x)) = 0 p(x) dx
R2
φ2 (p(x)) = 0 p(x) dx
R −1
φ3 (p(x)) = 0 p(x) dx
• Demuestre que α∗ es una base de (R2 [x])∗ .

• Determine la correspondiente base α de R2 [x].

4. Preliminares sobre Formas Bilineales


Motivación 4.1. Sea V un R espacio vectorial y supongamos que V , posee un producto interno h, i entonces
observamos lo siguiente:

• El producto interno es una función tal que:

h,i
(u, v) ∈ V × V 7−→ hu, vi ∈ R
• Para cada v ∈ V la función h, vi ∈ V ⋆ , si definimos:
h,vi
u ∈ V 7−→ hu, vi ∈ R
• Para cada u ∈ V la función hu, i ∈ V ⋆ , si definimos:
hu,i
v ∈ V 7−→ hu, vi ∈ R
10 Profesor Ricardo Santander Baeza 2010

• Supongamos que α = {v1 , v2 , . . . , vn }, es una base de V entonces la linealidad de ambas coordenadas se


Xn n
X
exprime (o usa) de la siguiente forma para; u = ai vi y v = bi vi :
i=1 i=1
* n n
+
X X
hu, vi = ai vi , bj vj
i=1 j=1
n X
X n
= ai bj hvi , vj i
j=1 i=1

equivalentemente, si interpretamos (hvi , vj i) ∈ MR (n) entonces


 
b1
 b2 
  
hu, vi = a1 a2 . . . an (hvi , vj i)  .. 
.
bn
= [u]tα (hvi , vj i) [v]α
| {z }
[h,i]α
α

En particular,
(1) Si α es una base ortonormal entonces
 
b1
n
  b2 
 X
an  .  = [u]tα [v]α =

hu, vi = a1 a2 . . . ai bi
 .. 
i=1
bn
(2) Si u = v y α es una base ortonormal entonces

n
X
hu, ui = a2i
i=1
(3) En general, si [h, i]αα es diagonalizable y β es la base ortonormal de vectores propios de h, i entonces

hu, vi = [u]tα [I]αβ (hvi , vj i) [I]βα [v]α


| {z }
[h,i]β
β

= [u]tα [[I]βα ]t (hvi , vj i) [I]βα [v]α


| {z }
[h,i]β
β

= [[I]βα [u]α ]t (hvi , vj i) [I]βα [v]α


| {z }
[h,i]β
β
= [u]tβ (hvi , vj i) [v]β
| {z }
[h,i]β
β
= [u]tβ diag {λ1 , . . . , λn } [v]β
(4) En particular, si β = {w1 , w2 , . . . , wn } entonces

n
X
hu, ui = λi hu, wi i2
i=1
Profesor Ricardo Santander Baeza 2010 11

Definición 4.2. Sea V un K espacio vectorial y B : V × V 7−→ K una función tal que B(u, v) ∈ K para
cada (u, v) ∈ V × V . Diremos que B es una forma bilineal si B es lineal en cada coordenada, esto es, para
cada v ∈ V , Bv ∈ V ⋆ , donde Bv (u) = B(u, v) y para cada u ∈ V , Bu ∈ V ⋆ , donde Bu (v) = B(v, u)
Observación 4.2.1. Antes de dar ningún ejemplo, explicitemos los beneficios por ahora teóricos de la bi-
linealidad.
n
X n
X
Si α = {v1 , . . . , vn } es una base de V entonces para u = ai vi y v = bi vi
i=1 i=1
 
Xn n
X
B(u, v) = B  ai vi , bj vj 
i=1 j=1
n X
X n
= ai bj B(vi , vj )
j=1 i=1  
b1
 b2 
  
= a1 a2 . . . an B(vi , vj )  . 
 .. 
bn
Es decir, tenemos la igualdad fundamental (teorı́a y práctica)

B(u, v) = [u]tα B (vi , vj ) [v]α (10)


| {z }
[B]α
α

Esta observación, por una parte, permite hacer la siguiente identificación.


Teorema 4.3. Si B(V ) = {Formas bilineales de V } y dim K (V ) = n entonces B(V ) ∼
= MK (n) (son iso-
morfos)
En efecto

Basta definir la siguientes funciones:


ϕ
B(V ) −
7 → MK (n)
(11)
B 7 → ϕ(B)

donde ϕ(B) = (B(vi , vj )) y α = {v1 , . . . , vn } es una base de V , es decir
 
B(v1 , v1 ) B(v1 , v2 ) . . . B(v1 , vn )
 B(v2 , v1 ) B(v2 , v2 ) . . . B(v2 , vn ) 
 
(B(vi , vj )) =  .. .. . . ..  (12)
 . . . . 
B(vn , v1 ) B(vn , v2 ) . . . B(vn , vn )
y
ϕ−1
MK (n) −
7 → B(V ) (13)
A 7 → ϕ−1 (A)

donde ϕ−1 (A) = BA y BA (u, v) = [u]tα A[v]α

Ahora basta comprobar que


(i) (11) y (13) son funciones inversas
(ii) (11) es una transformación lineal
12 Profesor Ricardo Santander Baeza 2010

Por una parte,

ϕ ◦ ϕ−1 (A) = ϕ(ϕ−1 (A))


= ϕ(BA )
= BA (vi , vj )
= [vi ]tα A[vj ]α
= A maravilloso

Por otra,

ϕ−1 ◦ ϕ(B) = ϕ−1 (ϕ(B))


= ϕ−1 (B(vi , vj ))
= BB(vi ,vj )

Pero,

BB(vi ,vj ) (u, v) = [u]tα B(vi , vj )[v]α


= B(u, v)

Ası́ que ϕ es una biyección.

Finalmente

ϕ(λB1 + B2 ) = [λB1 + B2 ](vi , vj )


= λB1 (v1 , vj ) + B2 (vi , vj )
= λϕ(B1 ) + ϕ(B2 )

Es el fin, de la construcción de ejemplos.


 
1 2
Ejemplo 4.3.1. Sea A = entonces definimos
3 4
  
 1 2 x2
B((x1 , y1 ), (x2 , y2 )) = x1 y1
3 4 y2  
 x2
= x1 + 3y1 2x1 + 4y1
y2
= x1 x2 + 3y1 x2 + 2x1 y2 + 4y1 y2

Definición 4.4. Si B ∈ B(V ) y α = {v1 , v2 , . . . , vn } es una base de V entonces [B]αα = (B(vi , vj )), será
llamada la matriz de la forma bilineal respecto de la base α.

Si para alguna base α, B(vi , vj ) = B(vj , vi ) para (i = 1, . . . , n) (j = 1, . . . , n) entonces [B]αα es una matriz
simétrica y recı́procamente si [B]αα es simétrica para alguna base α entonces B(u, v) = B(v, u) para u ∈ V
y para v ∈ V . En tal caso diremos que B es una forma bilineal simétrica.
 
1 2
Ejemplo 4.4.1. Sea A = entonces en la base canónica tenemos
2 5
  
 1 2 x2
BA ((x1 , y1 ), (x2 , y2 )) = x1 y1
2 5 y2

c(2)
= [(x1 , y1 )]tc(2) [A]c(2) [(x2 , y2 )]c(2)
Profesor Ricardo Santander Baeza 2010 13

En particular,
  
 1 2 x
BA ((x, y), (x, y)) = x y
2 5 y

c(2)
= [(x, y)]tc(2) [A]c(2) [(x, y)]c(2)

= x2 + 4xy + 5y 2
Si q(x, y) = BA ((x, y), (x, y)) entonces q(x, y) = x2 + 4xy + 5y 2
Definición 4.5. Sea B ∈ B(V ) tal que B es simétrica entonces la función
q
V 7−→ K
u 7−→ q(u)
tal que q(u) = B(u, u), será llamada forma cuadrática de V , inducida por B.

Teorema 4.5.1. (Forma Normal)


Sea V un R espacio vectorial con producto interno h, i y q una forma cuadrática sobre V entonces existe
una base α ortonormal de V tal que

n
X t
q(u) = λi u2i , donde [u]α = u1 u2 . . . un (14)
i=1

En efecto

Consideraremos las siguientes etapas:

(1) Sea α = {v1 , v2 , . . . , vn } una base ortonormal de V entonces tenemos para cada v ∈ V , la representación

n
X
v= ai vi (15)
i=1
(2) Como q es una forma cuadrática entonces por definición, q(v) = B(v, v), donde B es la forma bilineal
de la cual proviene la forma q. Ası́ que, usando (15) tenemos que
q(v) = [v]tα [q]αα [v]α (16)
o equivalentemente
 
B(v1 ,v2 ) B(v1 ,vn )
B(v1 , v1 ) 2 ... 2
 
 B(v1 ,v2 ) B(v2 ,vn ) a1
 2 B(v2 , v2 ) . . . 2
 . 
q(v) = a1 . . . an  .. .. ..  . 
 ..  .
 . . . .  a
B(v1 ,vn ) B(v1 ,vn ) n
2 2 ... B(vn , vn )
(3) Como [q]αα , es simétrica entonces es diagonalizable y entonces existe una base ortonormal de vectores
propios, digamos β = {w1 , w2 , w3 , w4 , . . . , wn } tal que [q]ββ = diag {λ1 , λ2 , . . . , λn }. Ası́ que tenemos la
ecuación fundamental
[q]αα = [I]αβ [q]ββ [I]βα (17)
14 Profesor Ricardo Santander Baeza 2010

(4) Sustituyendo (17) en (16) tenemos que

q(v) = [v]tα [I]αβ [q]ββ [I]βα [v]α (18)

(5) Ahora el punto es, como las bases son ortonormales entonces tenemos la igualdad

[I]αβ = ([I]βα )−1 = ([I]βα )t (19)

Aplicando (19) a (18 tenemos

q(v) = [v]tα ([I]βα )t [q]ββ [I]βα [v]α

= ([I]βα [v]α )t [q]ββ [I]βα [v]α

= [v]tβ [q]ββ [v]β


 
hv, w1 i
hv, w1 i . . . hv, wn i diag{λ1 , . . . , λn }  ... 
  
=
hv, wn i

n
X
= λi hv, wi i2
i=1

Ejemplo 4.5.2. Si definimos la forma cuadrática q : R2 7−→ R tal que q(x, y) = x2 − 2xy − y 2 , entonces
siguiendo los pasos de la demostración del teorema (14)

(1) Expresamos q, en forma matricial:

  
 1 −1 x
q(x, y) = x y (20)
−1 −1 y

Observemos que, (20) se escribe en la base canónica que es ortonormal respecto del producto interno
usual, como:

c(2)
q(x, y) = [(x, y)]tc(2) [q]c(2) [(x, y)]c(2) (21)

c(2)
(2) Ahora diagonalizamos [q]c(2) ;
c(2)
Partimos con el polinomio caracterı́stico de [q]c(2)
 
(λ − 1) 1
Pq (λ) = det
1 (λ + 1)

= (λ2 − 1) − 1

= λ2 − 2
√ √
Ası́ que los valores propios son; V.P={ 2, − 2}.
Profesor Ricardo Santander Baeza 2010 15

c(2)
Seguimos con los subespacios propios de [q]c(2) .
c(2)
v ∈ (MR (2 × 1))λ ⇐⇒ v ∈ MR (2 × 1) ∧ [q]c(2) v = λv
      
x 1 −1 x x
⇐⇒ v = ∧ =λ
y −1 −1 y y
 
x x - y = λx
⇐⇒ v = ∧ (⋆)
y −x - y = λy

Caso 1. λ = 2

x - y = √2x √
De (⋆) sigue que: . Ası́ que, y = (1 − 2)x De donde,
−x - y = 2y
 
x
v ∈ (MR (2 × 1))√2 ⇐⇒ v ∈ MR (2 × 1) ∧ v =  √

(1 − 2)x

 
1
⇐⇒ v ∈ MR (2 × 1) ∧ v = x √
; x∈R
(1 − 2)

* 1
+
 
⇐⇒ (MR (2 × 1))√2 = 


 
(1 − 2)

Caso 2. λ = − 2

De (⋆) sigue que: √


x - y = −√2x √
. Ası́ que, y = (1 + 2)x De donde,
−x - y = − 2y
 
x
v ∈ (MR (2 × 1))−√2 ⇐⇒ v ∈ MR (2 × 1) ∧ v= √

(1 + 2)x

 
1
⇐⇒ v ∈ MR (2 × 1) ∧ v = x √
; x∈R
(1 + 2)

* 1
+
 
⇐⇒ (MR (2 × 1))−√2 = 


 
(1 + 2)
(3) Construimos una base ortonormal de vectores propios, a partir de la base
   
 1 1 
β=  √
,


 
(1 − 2) (1 + 2)
16 Profesor Ricardo Santander Baeza 2010

Como β es ortogonal entonces ortonormalizamos dividiendo por la norma de cada uno de ellos. Es decir

   
q 1 1


 √ q
√ 




 4 − 2 2  
  4 + 2 2 


  
α=  , 
 1 − √2  


 √ 
 q   1 + 2  


 √ √ √ 


4−2 2 4+2 2

(4) Construimos [v]α


     1  1
√ 1 √ √
q 1√  q

*   4−2 2
+  4 − 2 2 *   4 + 2 2 +  4 + 2 2
x    
x    
v = , √   


+ , √   
 1 + √2 
 
y  (1 − 2  
   y  (1 + 2 

q
√  q1 − 2  q

 q 
√ √
4−2 2 4−2 2 4+2 2 4+2 2

 1   1 
q q
√ !  4 − 2√2  √ !  4 + 2√2 
q x y(1 − 2)  
q x y(1 + 2)  
√ + √ +
q   q  
= √  √ + √  √ 
4−2 2 4−2 2   q1 − 2 
 4+2 2 4+2 2   q1 + 2 

√ √
4−2 2 4+2 2

(5) Finalmente

√ !2 √ !2
√ x
√ √ +q y(1 − 2) √ x y(1 + 2)
√ +
q(x, y) = 2 + (− 2) q q
4−2 2 √ √
4−2 2 4+2 2 4+2 2

5. Clasificación de secciones Cónicas


Lo estudiado en la sección anterior, y en particular la forma normal de una forma cuadrática nos permite
dar una nueva mirada a las secciones cónicas y cuádricas, en concordancia con lo dicho entonces iniciamos
aclarando que entenderemos por una sección cónica:

Llamaremos sección cónica, al conjunto

C = {(x, y) ∈ R2 | ax2 + bxy + cy 2 + dx + ey + f = 0} (22)

y, ecuación general de la sección cónica a

C : ax2 + bxy + cy 2 + dx + ey + f = 0; {a, b, c, d, e, f } ⊂ R (23)


Profesor Ricardo Santander Baeza 2010 17

entonces (30), puede ser reescrita como:


ax2 + bxy + cy 2 + dx + ey +f = 0 (24)
| {z } | {z }
q(x,y) L(x,y)

donde q(x, y) = ax2


+ bxy + cy 2 ,
es una forma cuadrática y L(x, y) = dx + ey es una forma lineal.
Pasando a su forma matrical tenemos que (30) se reescribe como:

 b
   
 a x  x
x y 2 + d e +f =0 (25)
b y y
2 c

Aplicamos ahora a (25), el teorema (14) y obtenemos


     
 λ1 0 x1  hv1 , e1 i hv2 , e1 i x1
x1 y1 + d e +f =0
0 λ2 y1 hv1 , e2 i hv2 , e2 i y1
| {z }
c(2)
[I]α

Donde, λ1 y λ2, son


 valores
 propios de ”q”,   α = {v1 , v2 } ⊂ MR (2 × 1) una base ortonormal de vectores
x1 hv1 , e1 i hv1 , e2 i x
propios de q y = .
y1 hv2 , e1 i hv2 , e2 i y
| {z }
[I]α
c(2)
Ası́ que después de las transformaciones hechas en la ecuación de la sección cónica tenemos la ecuación central

λ1 x21 + λ2 y12 + Dx1 + Ey1 + f = 0 (26)


 
  hv1 , e1 i hv2 , e1 i
donde D E = d e
hv1 , e2 i hv2 , e2 i

Caso 1: λ1 λ2 6= 0

En este caso, completamos cuadrados en (26) para obtener


   
D 2 D2 D 2 E2
λ1 x1 + − + λ2 y1 + − +f =0 (27)
2λ1 4λ1 2λ2 4λ2
D D D2 E2
Sea x2 = x1 + 2λ1 ; y2 = y1 + 2λ2 yF =f− 4λ1 − 4λ2 .

Luego tenemos,
λ1 x22 + λ2 y22 + F = 0 (28)

Caso 1.1 λ1 > 0 y λ2 > 0 tenemos los casos posibles

• F > 0 entonces C : ∅
 
D E
• F = 0 entonces C : − 2λ1
, − 2λ2

x22 y22
• F < 0 entonces C : + = 1 es una Elipse.
− λF1 − λE2
18 Profesor Ricardo Santander Baeza 2010

Caso 1.2 λ1 > 0 y λ2 < 0 tenemos los casos


r
λ1
• F = 0 entonces C: y2 = ± − x2 par de rectas concurrentes.
λ2

x22 y2
• F 6= 0 entonces C: F
+ 2E = 1 es una hipérbola.
− λ1 − λ2
Conclusión 5.1. Para el caso de valores propios no nulos con producto no nulo tenemos:

 


 ∅




 (i) λ1 λ2 > 0 =⇒ C : Punto

 



 Elipse


λ1 · λ2 6= 0 =⇒







 (


 par de rectas concurrentes
(ii) λ1 λ2 < 0 =⇒ C : Hipérbola

Caso 2: λ1 λ2 = 0

Caso 2.1 λ1 = 0 y λ2 = 0 en este caso tenemos que

Dx1 + Ey1 + f = 0 es una recta


Caso 2.2 λ1 = 0 y λ2 6= 0
 2
E E2
λ2 y1 + + Dx1 − +f = 0
2λ2 4λ2
E E2
Si y2 = y1 + 2λ2 yF =f− 4λ2 entonces

λ2 y22 + Dx1 + F = 0 parábola o sus degeneraciones


Conclusión 5.2. Para el caso de valores propios con producto nulo tenemos:



 Parábola

Una recta
λ1 λ2 = 0 =⇒ C :
Par de rectas paralelas



c(2) c(2)
Observación 5.3. Sabemos que [q]c(2) = [I]c(2) α α α
α [q]α [I]c(2) de donde sigue que det [q]c(2) = det [q]α Es decir,
Profesor Ricardo Santander Baeza 2010 19

b2 − 4ac
λ1 λ2 = −
4

Teorema 5.4. Clasificación de cónicas vı́a sus coeficientes Si C es una sección cónica entonces

 (
 Hipérbola
b2 − 4ac > 0 =⇒ C


 :


 Par de rectas









 





 ∅

2
b − 4ac < 0 =⇒ C : Punto



C : ax2 + bxy + cy 2 + dx + ey + f = 0 =⇒ 
Elipse









 




 
 Parábola

 
Una Recta



 b2 − 4ac = 0 =⇒ C :


 
 ∅

 

Par de Rectas

6. Ejercicios Resueltos
Ejemplo 6.1. Identifiquemos y grafiquemos la sección cónica

33 √ 31 √
C : 4x2 + 4y 2 − 8xy + 2 x− 2 y + 35 = 0
2 2
Equivalentemente

√ √
C : 8x2 + 8y 2 − 16xy + 33 2 x − 31 2 y + 70 = 0
(1) Identifiquemos la sección cónica, de acuerdo a nuestro criterio:



Parábola

Una Recta
b2 − 4ac = (−16)2 − 4 · 8 · 8 = 0 =⇒

∅


Par de Rectas paralelas

(2) Procedamos ahora a obtener el gráfico de la sección cónica. Para ello consideraremos las etapas sigui-
entes:

• Forma matricial de la cónica C


20 Profesor Ricardo Santander Baeza 2010

    
 8 −8 x √ √  x
x y + 33 2 −31 2 + 70 = 0
−8 8 y y

• El polinomio caracterı́stico P[q] (λ) de la forma cuadrática q es

 
(λ − 8) −8
P[q] (λ) = det = (λ − 8)2 − 64
−8 (λ − 8)

Y si hacemos P[q] (λ) = 0 para determinar los valores propios entonces obtenemos

(λ − 8)2 − 64 = 0 ⇐⇒ (λ − 8)2 = 64
⇐⇒ (λ − 8) = ±8
⇐⇒ λ=8±8
⇐⇒ λ = 16 ∨ λ = 0

Ası́ que V.P. = {16, 0}

• Con esos valores determinamos los subespacios propios

Formato general:

u ∈ (MR (2 × 1))λ ⇐⇒ u ∈ MR (2 × 1) ∧ [q]u = λu


       
x 8 −8 x x
⇐⇒ u = ∧ · =λ
y −8 8 y y
 
x 8x − 8y = λx
⇐⇒ u = ∧ (∗)
y −8x + 8y = λy
Caso 1. λ = 0. De (∗), sigue que
 
x 8x − 8y = 0x
u ∈ (MR (2 × 1))0 ⇐⇒ u = ∧
y −8x + 8y = 0y
 
x
=⇒ u= ∧x=y
y
 
x
=⇒ u= ∧x∈R
x
 
1
=⇒ (MR (2 × 1))0 =
1
Caso 2. λ = 16. De (∗), sigue que
 
x 8x − 8y = 16x
u ∈ (MR (2 × 1))16 ⇐⇒ u = ∧
y −8x + 8y = 16y
 
x
=⇒ u= ∧ −x = y
y
 
x
=⇒ u= ∧x∈R
−x
 
1
=⇒ (MR (2 × 1))16 =
−1
Profesor Ricardo Santander Baeza 2010 21

• La base ortonormal de vectores propios es


 √   √  

 2 2  

 2   
   2 

α =  √ , √ 
    

 2 2  
 − 
2 2
• Ahora transformamos la cónica a su forma normal. Respecto de la diagonalización de q tenemos que

c(2)
[q]c(2) = [I]c(2) α α
α [q]α [I]c(2)

Donde,
√ √ !   √ √ !
2 2 2 2
c(2) 0 0
[I]α = √2 √2 , [q]αα = e [I]αc(2) = √2 √2
2
− 22 0 16 2
− 22
2 2
Es decir,
  √ √ !  √ √ !
8 −8 2 2 0 0 2 2
  = √2 √2   √2 √2 (∗)
2
−8 8 2 − 22 0 16 2
2
− 22

Con la información de (∗), la cónica C de:

    
 8 −8 x √ √  x
x y + 33 2 −31 2 + 70 = 0
−8 8 y y
Se transforma en
√ √ !  √ √ ! 
2 2 2 2

√2 √2
0 0 √2 √2
x
x y +
2
− 22 0 16 2
− 22 y
2 2
 
√ √  x
33 2 −31 2 + 70 = 0
y

Ahora, respecto del cambio de coordenadas tenemos:

√ √ !  √ !
2 2 2
√2 2√ x √2
(x + y)
=
2
− 22 y 2
− y)
2 2 (x
m
  √ √ ! √ !
2 2 2
x √2 2√ √2
(x + y)
=
y 2
− 2 2
− y)
2 2 2 (x

Aplicando las propiedades de trasposición de matrices y las obtenidas anteriormente la cónica se trans-
forma en:
 √ √  t   √ √    √ √  √ 
2 2 2 2 √ √ 2 2 2
x 0 0 x (x + y)
√2
2
2√
2 y 0 16
√2
2
2√
2 y +( 33 2 −31 2 ) √2
2
2√
2
√2
2 + 70 = 0
2
− 2 2
− 2 2
− 2 2
(x − y)
22 Profesor Ricardo Santander Baeza 2010

Equivalentemente,

√ ! √ !
 √ √   2 2
2 2 0 0 √2
(x + y) 
√2
(x + y)
2 (x + y) 2 (x − y) + 2 64 + 70 = 0
0 16 2
− y) 2
− y)
2 (x 2 (x

Multiplicando las matrices obtenemos:

√ !2 √ √
2 2 2
16 (x − y) + 2 (x + y) + 64 (x − y) + 70 = 0
2 2 2

Procedemos a cambiar variables locales (rotar los ejes):


√ √
2 2
Si llamamos x1 = 2 (x + y) e y1 = 2 (x − y) entonces obtenemos la ecuación general de la parábola:

16y12 + 2x1 + 64y1 + 70 = 0 ⇐⇒ 8y12 + x1 + 32y1 + 35 = 0

Si completando cuadrados obtenemos que

8y12 + x1 + 32y1 + 35 = 0 ⇐⇒ 8y12 + 32y1 + x1 + 35 = 0


⇐⇒ 8(y12 + 4y1 ) + x1 + 35 = 0
⇐⇒ 8(y12 + 4y1 + 22 − 22 ) + x1 + 35 = 0
⇐⇒ 8[(y1 + 2)2 − 4] + x1 + 35 = 0
⇐⇒ 8(y1 + 2)2 − 32 + x1 + 35 = 0
⇐⇒ 8(y1 + 2)2 = −x1 − 3
1
⇐⇒ (y1 + 2)2 = − (x1 + 3)
8
2 1
⇐⇒ (y1 − (−2)) = − (x1 − (−3))
8

• El diseño de la cónica es de la forma


Profesor Ricardo Santander Baeza 2010 23

Ejemplo 6.2. Identifiquemos y grafiquemos la sección cónica

C : x2 + xy + y 2 + 2x + 4y = 0

(1) De acuerdo a nuestros criterios identificamos la sección cónica:


Elipse

2
b − 4ac = 1 − 4(1)(1) = −3 < 0 =⇒ Punto


(2) Ahora obtengamos el gráfico de la sección cónica

• Forma matricial de la cónica C

 1
   
 1 2 x  x
x y 1 + 2 4 =0
2 1 y y

• Determinamos P[q] (λ) el polinomio caracterı́stico de la forma cuadrática q


 
λ − 1 − 12
(i) Pq (λ) = det
− 12 λ−1
= (λ − 1)2 − 14
(ii) (λ − 1)2 − 14 = 0 =⇒ (λ − 1)2 = 14q
1
=⇒ (λ − 1) = ± 4
=⇒ λ = 1 ± 12
24 Profesor Ricardo Santander Baeza 2010
 
1 3
Ası́ que, los valores propios de q son V.P = ,
2 2

• Determinamos los subespacios propios

Formato general:

u ∈ (MR (2 × 1))λ ⇐⇒ u ∈ MR (2 × 1) ∧ q(u) = λu


     
x x x
⇐⇒ u = ∧q =λ
y y y
   1
   
x 1 2 x x
⇐⇒ u = ∧ 1 =λ
y 2 1 y y
 
x x + 12 y = λx
⇐⇒ u = ∧ 1 (∗)
y 2x + y = λy
1
Caso 1. λ =
2
De (∗), sigue que

 
x x + 12 y = 1
2x
u ∈ (MR (2 × 1)) 1 ⇐⇒ u = ∧ 1 1
y 2x + y = 2y
2  
x
⇐⇒ u = ∧ y = −x
y

Luego,
 
1
(MR (2 × 1)) 1 =
−1
2
3
Caso 2. λ =
2
De (∗), sigue que

 
x x + 12 y = 3
2x
u ∈ (MR (2 × 1)) 3 ⇐⇒ u = ∧ 1 3
y 2x + y = 2y
2  
x
⇐⇒ u = ∧y =x
y

Luego,
 
1
(MR (2 × 1)) 3 =
1
2
• La base ortonormal de vectores propios es
Profesor Ricardo Santander Baeza 2010 25

   1 
1


 √ √ 

 2   2 
   
α=  , 

  1   1 
 −√
 √ 

2 2

• Transformamos la cónica a su forma normal. Respecto de la diagonalización de q tenemos que

c(2)
[q]c(2) = [I]c(2) α α
α [q]α [I]c(2)

Donde,

√ √ !   √ √ !
2 2 2
c(2)
1
0 − √22
[I]α = √2 √2 , [q]αα = 2
3 e [I]αc(2) = √2
− 22 2 0 2
2 2
2 2 2

Es decir,

  √ √ !  √ √ !
2 2 2
1 1
2 √2 √2
1
2 0 √2
− √22
1 = 3 (∗)
2 1 − 22 2 0 2
2 2
2 2 2

Con la información de (∗), la cónica C de:


    
 1 1 x  x
x y 2 + 2 4 =0
1 y y
2 1
Se transforma en
! !
√1 √1 √1 − √12
1
 
 2 2 2 0 2 x
x y +
− √12 √1
2
0 3
2
√1
2
√1
2
y
 
 x
2 4 =0
y
Ahora, respecto del cambio de coordenadas tenemos:
√ √ !  √ !
2 2 2
√2
− √2
x √2
(x − y)
=
2 2 y 2
(x + y)
2 2 2
m
  √ √ ! √ !
2 2 2
x 2√ √2 √2
(x − y)
=
y − 22 2 2
2 2 (x + y)
Aplicando las propiedades de trasposición de matrices y las obtenidas anteriormente la cónica se trans-
forma en:

  t      √ √  √ 
√1 − √12 x 1
0 √1 − √12 x 2 2 2
(x − y)
√1
2
√1
2
0 3 √1
2
√1
+( 2 4 ) 2√ √2 √2 =0
2 2
y 2 2 2
y − 22 2
2
2
2
(x + y)

Equivalentemente,
26 Profesor Ricardo Santander Baeza 2010

x−y
! x−y
!
  1
 √   √
x−y
√ x+y
√ 2 0 2 −2
√ √6 2
2 2 3 x+y + 2 2 x+y =0
0 2
√ √
2 2

Multiplicando las matrices obtenemos:

 2    2  
1 x−y 2 x−y 3 x+y 6 x+y
√ −√ √ + √ +√ √ =0
2 2 2 2 2 2 2 2

Procedemos a cambiar variables locales (rotar los ejes):


√ √
2 2
Si llamamos x1 = 2 (x − y) e y1 = 2 (x + y) entonces obtenemos la ecuación general de la elipse:

1 2 2 3 6
C : x1 − √ x1 + y12 + √ y1 = 0 (forma normal)
2 2 2 2

Si completando cuadrados obtenemos que

1 2 2 3 6
x1 − √ x1 + y12 + √ y1 = 0
2 2 2 2
   
1 2 4 3 2 4
x1 − √ x1 + y1 + √ y1 = 0
2 2 2 2
 2  2 !
4 2 2
x21 − √ x1 + √ − √ +
2 2 2
    !
2 4 2 2 2 2
3 y1 + √ y1 + √ − √ = 0
2 2 2
 2  2
2 2
x1 − √ − 2 + 3 y1 + √ −6 = 0
2 2
 √ 2  √ 2
x1 − 2 + 3 y 1 + 2 = 8

Luego, la ecuación canónica de la elipse es:

√ 2 √ 2
x1 − 2 y1 − − 2
+ 8 = 1
8 3

• El diseño de la cónica es de la forma


Profesor Ricardo Santander Baeza 2010 27

7. Ejercicios Propuestos
(1) En los siguientes ejercicios identifique la sección cónica

(a) x2 + 9y 2 − 9 = 0

(b) x2 − 2y = 0

(c) 25y 2 − 4x2 = 100

(d) 4x2 + 4y 2 − 9 = 0

(e) −25x2 + 9y 2 + 225 = 0

(2) Identifique la cónica, escriba esta en forma canónica y grafique:

(a) x2 + xy + y 2 = 6

(b) xy = 1

(c) 9x2 + y 2 + 6xy = 4

(d) 4x2 + 4y 2 − 10xy = 0

(e) 9x2 + 6y 2 + 4xy − 5 = 0


√ √
(f) 9x2 + y 2 + 6xy − 10 10 x + 10 10 y + 90 = 0
√ √
(g) 5x2 + 5y 2 − 6xy − 30 2 x + 18 2 y + 82 = 0

(h) 5x2 + 12xy − 2 13 x = 36
√ √
(i) 8x2 + 8y 2 − 16xy + 33 2 x − 31 2 y + 70 = 0

8. Clasificación de Superficies Cuádricas


Lo estudiado en la sección anterior, y en particular la forma normal de una forma cuadrática nos permite
dar una nueva mirada a las superficies cuádricas, en concordancia con lo dicho entonces iniciamos aclarando
28 Profesor Ricardo Santander Baeza 2010

que entenderemos por una superficie cuádrica:

En primer lugar, si q : R3 7−→ R es una forma cuadrática entonces debe ser de la forma
  
 a d e x
q(x, y, z) = x y z  d b f  y 
e f c z
 
 x
= ax + dy + ez dx + by + f z ex + f y + cz  y 
z
= ax2 + dyx + ezx + dxy + by 2 + f zy + exz + f yz + cz 2
= ax2 + by 2 + cz 2 + 2dxy + 2exz + 2f yz
Definición 8.1. Llamaremos superficie cuádrica , al conjunto

C = {(x, y, z) ∈ R3 | ax2 + by 2 + cz 2 + 2dxy + 2exz + 2f yz + gx + hy + iz + j = 0} (29)


Y, ecuación general de la cuádrica a

C : ax2 + by 2 + cz 2 + 2dxy + 2exz + 2f yz + gx + hy + iz + j = 0; {a, b, c, d, e, f, g, h, i, j} ⊂ R (30)

Ejemplo 8.1.1. C: x2 + y 2 − z 2 − 2x − 4y − 4z + 1 = 0

Teorema 8.2. Si C : ax2 +by 2 +cz 2 +2dxy+2exz+2f yz+gx+hy+iz+j = 0; {a, b, c, d, e, f, g, h, i, j} ⊂ R


entonces existe una base ortonormal de MR (3 × 1) tal que la cuádrica se transforma en

λ1 x21 + λ2 y12 + λ3 z12 + Gx1 + Hy1 + Iz1 + j = 0; {λ1 , λ2 , λ3 , G, H, I, j} ⊂ R (31)

En efecto, si consideramos una cuádrica C: ax2 + by 2 + cz 2 + 2dxy + 2exz + 2f yz + gx + hy + iz + j = 0


entonces para analizarla, consideraremos las siguientes etapas.

(1) Notación matricial de C.


    
 a d e x  x
x y z  d b f  y  + g h i  y +j =0
e f c z z

(2) Diagonalizamos la forma cuadrática q(x, y, z) = ax2 + by 2 + cz 2 + 2dxy + 2exz + 2f yz

Conforme a la forma normal obtenida en (14) existe una base ortonormal α de MR (3 × 1) de vectores
propios tal que
c(3)
[q]c(3) = [I]c(3) α α
α [q]α [I]c(3)

Donde
 
λ1 0 0
[q]αα =  0 λ2 0 
0 0 λ3
Profesor Ricardo Santander Baeza 2010 29

La situación explı́cita, es de la siguiente forma: Si α = {v1 , v2 , v3 } y c(3) = {e1 , e2 , e3 } es la base


canónica de α de MR (3 × 1) entonces

(a) Las matrices cambio de coordenadas son:


 
hv1 , e1 i hv2 , e1 i hv3 , e1 i
c(3)
• [I]α =  hv1 , e2 i hv2 , e2 i hv3 , e2 i 
hv1 , e3 i hv2 , e3 i hv3 , e3 i
 
hv1 , e1 i hv1 , e2 i hv1 , e3 i
c(3)
• [I]αc(3) = ([I]α )t =  hv2 , e1 i hv2 , e2 i hv2 , e3 i 
hv3 , e1 i hv3 , e2 i hv3 , e3 i
(b) Los cambios de coordenadas son:
        
x x hv1 , e1 i hv1 , e2 i hv1 , e3 i x x1
• [I]αc(3)  y  =  y  ⇐⇒  hv2 , e1 i hv2 , e2 i hv2 , e3 i   y  =  y1 
z c(3)
z α
hv3 , e1 i hv3 , e2 i hv3 , e3 i z z1


       
x x hv1 , e1 i hv2 , e1 i hv3 , e1 i x1 x
c(3)
• [I]α  y  =  y  ⇐⇒  hv1 , e2 i hv2 , e2 i hv3 , e2 i   y1  =  y 
z α
z c(3)
hv1 , e3 i hv2 , e3 i hv3 , e3 i z1 z
(c) Finalmente la transformación matricial es de la forma:

     
a d e hv1 , e1 i hv2 , e1 i hv3 , e1 i λ1 0 0 hv1 , e1 i hv1 , e2 i hv1 , e3 i
 d b f  =  hv1 , e2 i hv2 , e2 i hv3 , e2 i   0 λ2 0   hv2 , e1 i hv2 , e2 i hv2 , e3 i 
e f c hv1 , e3 i hv2 , e3 i hv3 , e3 i 0 0 λ3 hv3 , e1 i hv3 , e2 i hv3 , e3 i

(3) Ahora procedemos a reescribir la forma en las nuevas coordenadas, es decir:

    
 a d e x  x
x y z  d b f  y  + g h i  y  + j = 0 ⇐⇒
e f c z z
    
 hv1 , e1 i hv2 , e1 i hv3 , e1 i λ1 0 0 hv1 , e1 i hv1 , e2 i hv1 , e3 i x
x y z  hv1 , e2 i hv2 , e2 i hv3 , e2 i   0 λ2 0   hv2 , e1 i hv2 , e2 i hv2 , e3 i   y  +
hv1 , e3 i hv2 , e3 i hv3 , e3 i 0 0 λ3 hv3 , e1 i hv3 , e2 i hv3 , e3 i z
  
 hv1 , e1 i hv2 , e1 i hv3 , e1 i x1
g h i  hv1 , e2 i hv2 , e2 i hv3 , e2 i   y1  + j = 0
hv1 , e3 i hv2 , e3 i hv3 , e3 i z1

O sea que
30 Profesor Ricardo Santander Baeza 2010

    
 a d e x  x
x y z  d b f  y  + g h i  y  + j = 0 ⇐⇒
e f c z z
   t    
hv1 , e1 i hv1 , e2 i hv1 , e3 i x λ1 0 0 hv1 , e1 i hv1 , e2 i hv1 , e3 i x
 hv2 , e1 i hv2 , e2 i hv2 , e3 i   y   0 λ2 0   hv2 , e1 i hv2 , e2 i hv2 , e3 i   y  +
hv3 , e1 i hv3 , e2 i hv3 , e3 i z 0 0 λ3 hv3 , e1 i hv3 , e2 i hv3 , e3 i z
  
 hv1 , e1 i hv2 , e1 i hv3 , e1 i x 1
g h i  hv1 , e2 i hv2 , e2 i hv3 , e2 i   y1  + j = 0
hv1 , e3 i hv2 , e3 i hv3 , e3 i z1

(4) Por tanto se obtiene

    
 λ1 0 0 x1  x1
x1 y1 z1  0 λ2 0   y1  + G H I  y1  + j = 0
0 0 λ3 z1 z1

Donde,

 
 hv1 , e1 i hv2 , e1 i hv3 , e1 i 
g h i  hv1 , e2 i hv2 , e2 i hv3 , e2 i  = G H I
hv1 , e3 i hv2 , e3 i hv3 , e3 i

(5) Finalmente tenemos que

λ1 x21 + λ2 y12 + λ3 z12 + Gx1 + Hy1 + Iz1 + j = 0

Observación 8.2.1. Ahora a la luz de (31) procedemos a analizar el comportamiento de los valores propios.

(1) Si λ1 · λ2 · λ3 6= 0 entonces λi 6= 0 para i = 1, 2, 3 ası́ que podemos completar los cuadrados como sigue
Profesor Ricardo Santander Baeza 2010 31

λ1 x21 + λ2 y12 + λ3 z12 + Gx1 + Hy1 + Iz1 + j = 0 ⇐⇒

(λ1 x21 + Gx1 ) + (λ2 y12 + Hy1 ) + (λ3 z12 + Iz1 ) + j = 0 ⇐⇒


     
G H I
λ1 x21 2 2
+ x1 + λ2 y1 + y1 + λ3 z1 + z1 + j = 0 ⇐⇒
λ1 λ2 λ3
 2  2 !  2  2 !
G G G H H H
λ1 x21 + x1 + − + λ2 y12 + y1 + − +
λ1 2λ1 2λ1 λ2 2λ2 2λ2

 2  2 !
I I I
λ3 z12 + z1 + − + j = 0 ⇐⇒
λ3 2λ3 2λ3

 2  !  2  !
G G2 H H2
λ1 x1 + − + λ2 y1 + − +
2λ1 4λ21 2λ2 4λ22

 2  !
I I2
λ3 z1 + − + j = 0 ⇐⇒
2λ3 4λ23
 2    2    2  
G G2 H H2 I I2
λ1 x1 + − + λ2 y1 + − + λ3 z1 + − + j = 0 ⇐⇒
2λ1 4λ1 2λ2 4λ2 2λ3 4λ3
 2      2  2  2 
G H 2 I 2 G H I
λ1 x1 + + λ2 y1 + + λ3 z1 + − − − +j =0
2λ1 2λ2 2λ3 4λ1 4λ2 4λ3

       2  2  2 
G H I G H I
Si hacemos x2 = x1 + , y2 = y1 + , z2 = z1 + y J = j− − −
2λ1 2λ2 2λ3 4λ1 4λ2 4λ3
entonces la cuádrica se transforma en

λ1 x22 + λ2 y22 + λ3 z22 + J = 0 (32)

(a) Si (λ1 · λ2 · λ3 > 0 ∧ λ1 > 0 ∧ λ2 > 0 ∧ λ3 > 0) entonces de la relación (32) tenemos las
siguientes posibilidades

• J = 0 =⇒ λ1 x22 + λ2 y22 + λ3 z22 = 0 =⇒ x2 = y2 = z2 = 0. Ası́ que

 
G H I
C : = − ,− ,−
2λ1 2λ2 2λ1

• J > 0 =⇒ λ1 x22 + λ2 y22 + λ3 z22 < 0 (⇒⇐). Ası́ que

C =∅

• J < 0 =⇒ λ1 x22 + λ2 y22 + λ3 z22 = −J. Ası́ que


32 Profesor Ricardo Santander Baeza 2010

x22 y22 z22


C: −J
+ −J
+ −J
=1 Es un Elipsoide
λ1 λ2 λ3

(b) Si (λ1 · λ2 · λ3 > 0 ∧ λ1 < 0 ∧ λ2 < 0 ∧ λ3 > 0) entonces de la relación (32) tenemos las
siguientes posibilidades

x22 y22 z22


• J = 0 =⇒ λ1 x22 + λ2 y22 + λ3 z22 = 0 =⇒ 1 + 1 + 1 =0
λ1 λ2 λ3

• Si J 6= 0 =⇒ λ1 x22 + λ2 y22 + λ3 z22 = −J entonces

◦ Para J > 0, tenemos que la cuádrica es

x22 y22 z22


C: −J
+ −J
+ −J
=1 Un Hiperboloide de una hoja
λ1 λ2 λ3

◦ Para J < 0, tenemos que la cuádrica es

x22 y22 z22


C: −J
+ −J
+ −J
=1 Un Hiperboloide de dos hojas
λ1 λ2 λ3

(c) Si (λ1 · λ2 · λ3 < 0 ∧ λ1 < 0 ∧ λ2 < 0 ∧ λ3 < 0) entonces de la relación (32) tenemos las
siguientes posibilidades

• J = 0 =⇒ λ1 x22 + λ2 y22 + λ3 z22 = 0 =⇒ x2 = y2 = z2 = 0. Ası́ que


 
G H I
C : = − ,− ,−
2λ1 2λ2 2λ1

• J < 0 =⇒ λ1 x22 + λ2 y22 + λ3 z22 > 0 (⇒⇐). Ası́ que


C =∅

• J > 0 =⇒ λ1 x22 + λ2 y22 + λ3 z22 = −J. Ası́ que

x22 y22 z22


C: −J
+ −J
+ −J
=1 Es un Elipsoide
λ1 λ2 λ3

(d) Si (λ1 · λ2 · λ3 < 0 ∧ λ1 < 0 ∧ λ2 > 0 ∧ λ3 > 0) entonces de la relación (32) tenemos las
siguientes posibilidades

x22 y22 z22


• J = 0 =⇒ λ1 x22 + λ2 y22 + λ3 z22 = 0 =⇒ 1 + 1 + 1 =0
λ1 λ2 λ3

• Si J 6= 0 =⇒ λ1 x22 + λ2 y22 + λ3 z22 = −J entonces


Profesor Ricardo Santander Baeza 2010 33

◦ Para J > 0, tenemos que la cuádrica es

x22 y22 z22


C: −J
+ −J
+ −J
=1 Un Hiperboloide de dos hojas
λ1 λ2 λ3

◦ Para J < 0, tenemos que la cuádrica es

x22 y22 z22


C: −J
+ −J
+ −J
=1 Un Hiperboloide de una hoja
λ1 λ2 λ3

(2) Si λ1 · λ2 · λ3 = 0 entonces conforme a la ecuación (31), tenemos las siguientes alternativas:

(a) Si λi = 0 para i = 1, 2, 3 entonces la cuádrica es un plano:

Gx1 + Hy1 + Iz1 + j = 0

(b) Si λ1 6= 0 y λ2 6= 0 entonces tenemos que la cuádrica adopta la forma:

 2  2    
G H G2 H2
λ1 x1 + + λ2 y1 + − − + Iz1 + j = 0 ⇐⇒
2λ1 2λ2 4λ1 4λ2
 2  2    
G H G2 H2
λ1 x1 + + λ2 y1 + + Iz1 + j − − = 0 ⇐⇒
2λ1 2λ2 4λ1 4λ2
| {z }
J
 2    
G H 2 J
λ1 x1 + + λ2 y1 + + I z1 + = 0 ⇐⇒
2λ1 2λ2 I
   
G 2 H 2
x1 + y1 +  
2λ1 2λ2 J
+ + z1 + =0
I I I
λ1 λ2

G H J
En este caso, si hacemos X = x1 + , Y = y1 + y Z = z1 + entonces
2λ1 2λ2 I

X2 Y 2
+ +Z = 0 (33)
I I
λ1 λ2

Si λ1 > 0 y λ2 > 0 entonces (33) es un Paraboloide Elı́ptico.

Si λ1 > 0 y λ2 < 0 entonces (33) es un Paraboloide Hiperbólico.


34 Profesor Ricardo Santander Baeza 2010

Ejemplo 8.2.2. Clasifiquemos la cuádrica C: 2x2 + 4y 2 − 4z 2 + 6yz − 5x + 3y = 2 entonces procedemos


como sigue:

(1) La notación matricial de C es la siguiente:

    
 2 0 0 x  x
x y z  0 4 3   y  + −5 3 0  y  = 2
0 3 −4 z z
 
2 0 0
c(3)
(2) diagonalizamos la forma cuadrática [q]c(3) =  0 4 3 
0 3 −4
(a) Su polinomio caracterı́stico es de la forma
 
λ−2 0 0
Pq (λ) = det  0 λ − 4 −3  = (λ − 2)((λ − 4)(λ + 4) − 9) = (λ − 2)(λ2 − 25)
0 −3 λ + 4
Luego, los valores propios son

V.P = {5, 2, −5}


(b) Para determinar los subespacios propios hacemos los siguiente:

c(3)
u ∈ (MR (3 × 1))λ ⇐⇒ u ∈ MR (3 × 1) ∧ [q]c(3) u = λu
      
x 2 0 0 x x
⇐⇒ u =  y  ∧  0 4 3   y  = λ  y 
z 0 3 −4 z z
 
x 2x = λx
⇐⇒ u =  y  ∧ 4y + 3z = λy (∗)
z 3y − 4z = λz

(i) Si λ = 5 entonces sustituyendo en ∗ tenemos que

 
x 2x = 5x
u ∈ (MR (3 × 1))5 ⇐⇒ u =  y  ∧ 4y + 3z = 5y
z 3y − 4z = 5z
 
x
=⇒ u =  y ∧x= 0∧y = 3z
z
 
0
=⇒ u = z  3 ∧z ∈R
1
Ası́ que

* +
 0 
(MR (3 × 1))5 =  3 
 
1
Profesor Ricardo Santander Baeza 2010 35

(ii) Si λ = 2 entonces sustituyendo en ∗ tenemos que




x 2x = 2x
u ∈ (MR (3 × 1))2 ⇐⇒ u =  y  ∧ 4y + 3z = 2y
z 3y − 4z = 2z
 
x
=⇒ u =  y  ∧ y = 0 ∧ z =0
z
 
1
=⇒ u = x  0  ∧ x ∈ R
0
Ası́ que

* +
 1 
(MR (3 × 1))2 =  0 
 
0
(iii) Si λ = −5 entonces sustituyendo en ∗ tenemos que

x 2x = −5x
u ∈ (MR (3 × 1))5 ⇐⇒ u =  y  ∧ 4y + 3z = −5y
z 3y − 4z = −5z
 
x
=⇒ u =  y ∧x = 0∧z = −3y
z
 
0
=⇒ u = y  1  ∧ y ∈ R
−3
Ası́ que

*   +
 0 
(MR (3 × 1))5 =  1 
 
−3
Luego una base de vectores propios ortogonales es
     
 0 1 0 
α =  3 , 0 , 1 
 
1 0 −3
Ahora Ortonormalizamos α y obtenemos
     
0 1 0 
1     1 
β = √ 3 , 0 ,√ 1 
10  1 0 10 −3

(3) Ası́ que, las matrices cambio de base son


   
0 1 0 0 √3 √1
10 10
c(3)  √3 0 √1  β  
[I]β = 10 10  ∧ [I]c(3) = 1 0 0 
√1 0 −3
√ 0 √1 −3

10 10 10 10
Por tanto,
36 Profesor Ricardo Santander Baeza 2010

    3y+z

√3 √1
 
x 0 10 10 x √
10
β     
[I]c(3)  y  =  1 0 0  y = x 
z 0 √1 −3
√ z y−3z

10 10 10

   
√3 √1
 
2 0 0 0 1 0 5 0 0 0 10 10
 0 4 
3  =  √3 0 √1   
10 10  0 2 0   1 0 0 
0 3 −4 √1 0 −3
√ 0 0 −5 0 √1 −3

10 10 10 10

(4) Ahora cambiamos coordenadas en la cuádrica original.


    
 2 0 0 x  x
x y z  0 4 3  y  + −5 3 0  y =2
0 3 −4 z z

Es decir sustituyendo obtenemos:

   
0 √310 √110
  
0 1 0 5 0 0 x x
√3 √1
 
x y z  10
0 10

 0 2 0  
 1 0 0

 y + −5 3 0  y  = 2 ⇐⇒
√1 0 −3
√ 0 0 −5 0 √1 −3
√ z z
10 10 10 10
   3y+z  
3y+z

5 0 0 √ 0 1 0 √
 10  10
    √3 1
3y+z y−3z 0 √   

10
x √
10
 0 2 0   x  + −5 3 0  10 10   x  = 2 ⇐⇒
0 0 −5 y−3z
√ √1 0 √ −3 y−3z

 10  10 10
 10
  3y+z
√ 3y+z

 5 0 0
 10  10
  
3y+z
0   x  + √910 −5 √310 
y−3z  

10
x √
10
 0 2 x  = 2 ⇐⇒
0 0 −5 y−3z
√ y−3z

10 10

 2  2    
3y + z y − 3z 9 3y + z 3 y − 3z
5 √ + 2x2 −5 √ +√ √ − 5x + √ √ =2
10 10 10 10 10 10

Ası́ que si hacemos

3y + z y − 3z
X=x ∧ Y = √ ∧ Z= √
10 10

Obtenemos la Cuádrica

9 3
5Y 2 + 2X 2 − 5Z 2 + √ Y − 5X + √ Z = 2
10 10
Y completando los cuadrados obtendremos lo siguiente:

 2    2
9 5 2 3 72 25
5 Y + √ +2 X − −5 Z − √ =2+ +
10 10 4 10 10 200 8

Luego, la cuádrica se transforma en


Profesor Ricardo Santander Baeza 2010 37

 2  2  2
9 5 3
Y + √ X− Z− √
10 10 4 10 10
+ − =1
5.485 5.485 5.485
5 2 5
Y es un hiperboloide de una hoja.

También podría gustarte