0% encontró este documento útil (0 votos)
10 vistas24 páginas

Resumen - Álgebra I

Descargar como pdf o txt
Descargar como pdf o txt
Descargar como pdf o txt
Está en la página 1/ 24

Resumen de Álgebra I

@Ajarenas
Índice

1. Matrices 3

1.1. Operaciones con matrices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4

1.2. Método de Gauss . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5

1.3. El rango de una matriz . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7

1.4. La inversa de una matriz cuadrada . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8

1.5. El determinante de una matriz cuadrada . . . . . . . . . . . . . . . . . . . . . . . . 10

2. Sistemas lineales 13

2.1. Discusión y resolución de sistemas lineales . . . . . . . . . . . . . . . . . . . . . . . 14

3. Espacios vectoriales 17

3.1. Dependencia e independencia lineal . . . . . . . . . . . . . . . . . . . . . . . . . . . 17

3.2. Sistemas generadores . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18

3.3. Bases . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18

3.4. Rango de un conjunto de vectores . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19

3.5. Matriz de cambio de base . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19

3.6. Subespacios vectoriales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20

3.7. Ecuaciones paramétricas e implícitas . . . . . . . . . . . . . . . . . . . . . . . . . . 21

3.8. Intersección y suma de subespacios vectoriales . . . . . . . . . . . . . . . . . . . . . 22

3.9. El espacio cociente módulo de un subespacio vectorial . . . . . . . . . . . . . . . . . 23

1
@Ajarenas Álgebra I

Leyenda
- Demostración que se pide en la guía de la asignatura.
B Definición o demostración que ha caído en exámenes desde 2016.

Nota
Este resumen está basado en la primera edición del libro base de 2014.

Agradecimientos
Basado en los geniales resúmenes de Alex M. Ascensión.
https://gitlab.com/alexmascension/resumenes-uned.

Esta obra está bajo una licencia Creative Commons “Reconocimiento-


NoCommercial-NoDerivs 3.0 España”.

2
@Ajarenas Álgebra I

1. Matrices

Definición : Una matriz A de tamaño m×n es un conjunto de m·n escalares o elementos de un cuerpo
K que están ordenados en m filas y n columnas de la forma:
 
a 11 a 12 ... a 1n
 a 21 a 22 ... a 2n 
A =  .. .. .. .. 
 
 . . . . 
a m1 a m2 . . . a mn

Definición : La entrada (i , j ) es el elemento de A que se encuentra en la fila i y la columna j , y se


denota por ai j o [A]i j . Una matriz se puede escribir de forma abreviada como A = (ai j ) con i =
1, 2, . . . , m y j = 1, 2, . . . , n o como A = (a i j ) cuando se sobreentienda su tamaño.

Definición : Mm×n (K) es el conjunto de matrices de tamaño m × n cuyas entradas son elementos de
K. Una matriz fila es una matriz de M1×n (K) y una matriz columna es una matriz de Mm×1 (K)

Definición : Una matriz cuadrada es una matriz con igual número de filas que de columnas. Una ma-
triz con n filas y columnas es una matriz de orden n . El conjunto Mn×n (K) se denota abreviadamente
como Mn (K).

Definición : Sea A una matriz de orden n . Se define:


Diagonal o diagonalPprincipal de A : d i ag (A) = (a11 , a22 , . . . , ann )
Traza de A : t r (A) = ni=1 ai i
Subdiagonal de A : (a21 , a32 , . . . , an,n−1 )
Superdiagonal de A : (a12 , a23 , . . . , an−1,n )
Definición : La matriz traspuesta de la matriz A ∈ Mm×n (K) es la matriz A t cuya entrada (i , j ) es
igual a la entrada ( j , i ) de A .

Definición : Una matriz simétrica es una matriz cuadrada que coincide con su traspuesta.

Definición : Una matriz antisimétrica es una matriz cuadrada que coincide con su traspuesta cam-
biada de signo.

Observación : En una matriz antisimétrica, las entradas situadas en la diagonal principal son iguales
a 0.

Definición : La matriz traspuesta conjugada de la matriz A ∈ Mm×n (C) es la matriz A ∗ ∈ Mn×m (C) tal
que ai∗j = ai j . Observación : a + bi = a − bi .

Definición : Una matriz hermítica es una matriz cuadrada que coincide con su traspuesta conjugada.

Observación : En una matriz hermítica, los elementos situados en la diagonal principal son reales.

B Definición : Una matriz triangular superior es una matriz de orden n con todas las entradas
situadas por debajo de su diagonal principal iguales a 0. Una matriz triangular inferior es una matriz
de orden n con todas las entradas situadas por encima de su diagonal principal iguales a 0.

Definición : Una matriz diagonal, d i ag (d1 , . . . , dn ) es una matriz de orden n con todas las entradas
situadas fuera de su diagonal principal iguales a 0 y cuyas entradas situadas en su diagonal principal
son d 1 , . . . , d n .

3
@Ajarenas Álgebra I

Observación : Toda matriz diagonal es triangular superior e inferior.

Definición : La identidad de orden n , I n , es la matriz diagonal de orden n con todas las entradas
situadas en la diagonal principal iguales a 1.

Definición : Una matriz nula, 0m×n , o 0 cuando no haya ambiguedad, es una matriz con todas sus
entradas iguales a 0.

Definición : Una fila de una matriz es una fila nula si todas sus entradas son 0. Una columna de una
matriz es una columna nula si todas sus entradas son 0.

B Definición : Una submatriz de A es cualquier matriz que se obtenga de A eliminando filas y co-
lumnas.

1.1. Operaciones con matrices

Definición : La suma de dos matrices A y B del mismo tamaño es la matriz A + B cuya entrada (i , j )
es: [A + B ]i j = ai j + bi j .

Definición : El producto de un escalar λ por una matriz A es la matriz λA cuya entrada (i , j ) es:
[λA]i j = λa i j .

Teorema 1.2: Leyes de la suma de matrices y del producto por escalares

Sean A, B,C ∈ Mm×n (K) y α, β ∈ K:


1. Asociativa: (A + B ) +C = A + (B +C ).
2. Conmutativa: A + B = B + A .
3. Existencia de elemento neutro: A + 0m×n = A = 0m×n + A .
4. Existencia de elemento inverso: A + (−A) = 0m×n = (−A) + A .
5. Distributiva respecto de la suma de matrices: α(A + B ) = αA + αB .
6. Distributiva respecto de la suma de escalares: (α + β)A = αA + βA .
7. Asociativa respecto del producto por escalares: (αβ)A = α(βA).
8. La unidad del cuerpo, 1 ∈ K, cumple que 1 · A = A .
Definición : El producto de dos matrices, A m×n por B n×p es la matriz AB m×p cuya entrada (i , j ) se
obtiene de la forma:  
b1 j n
¢ .  X
a i n  ..  =
¡
[AB ]i j = a i 1 . . . ai k bk j
k=1
bn j

Teorema 1.4: Leyes del producto de matrices

Sean A ∈ Mm×n (K), B,C ∈ Mn×p (K), D ∈ Mp×q (K) y α ∈ K:


1. Asociativa: (AB )D = A(B D).
2. Existencia de elemento neutro por la derecha: AI n = A .
3. Existencia de elemento neutro por la izquierda: I m A = A .
4. Asociativa respecto del producto por escalares: α(AB ) = (αA)B = A(αB ).
5. Distributiva respecto de la suma de matrices por la derecha: A(B +C ) = AB + AC .
6. Distributiva respecto de la suma de matrices por la izquierda: (B +C )D = B D +C D .

4
@Ajarenas Álgebra I

Observación :
Puede ocurrir que AB = 0 siendo A, B 6= 0.
(A + B )2 = A 2 + 2AB + B 2 ⇔ AB = B A .
Definición : Sean A ∈ Mm×n (K) decimos que:
A es idempotente si A 2 = A .
B A es nilpotente si ∃k ∈ N > 0 tal que A k = 0.
A es involutiva si A 2 = I n .
Teorema 1.7: Si la suma o producto tiene sentido:
1. (A + B )t = A t + B t .
2. (A 1 + · · · + A k )t = A 1t + · · · + A kt .
3. (αA)t = αA t ∀α ∈ K.
4. (AB )t = B t A t .
5. (A 1 . . . A k )t = A kt . . . A 1t .
Corolario 1.8: Sea A una matriz cuadrada:
1. A + A t es simétrica y A − A t es antisimétrica.
2. A se puede escribir como la suma de una matriz simétrica y una antisimétrica.
3. A A t es simétrica.
1.2. Método de Gauss

Definición : Una combinación lineal de matrices fila F1 , . . . , Fk del mismo tamaño es una expresión
α1 F 1 + · · · + αk F k con α1 , . . . , αk ∈ K.
Las matrices fila son dependientes si existe alguna que es combinación lineal de las demás. En caso
contrario, son independientes.
Los escalares α1 , . . . , αk se denominan coeficientes de la combinación lineal.
Se llama combinación lineal trivial a aquella en la que todos los coeficientes son 0.

Proposición 1.12: Sean F1 , . . . , Fk matrices filas del mismo tamaño, entonces F1 , . . . , Fk son dependien-
tes ⇔existe una combinación lineal no trival de la forma
α1 F 1 + · · · + αk F k = 0

Definición : Las transformaciones que se pueden aplicar a una matriz se denominan operaciones
elementales de filas, y son:
Tipo I: Intercambiar dos filas. f i ↔ f j .
Tipo II: Sumar a una fila otra multiplicada por un escalar. f i → f i + β f j con β ∈ K.
Tipo III: Multiplicar una fila por un escalar no nulo. f i → α f i con α 6= 0 ∈ K.
Definición : Una matriz elemental de orden n es la matriz resultante de aplicar a I n una operación
elemental. Hay 3 tipos:
I n −−−−→ E f i ↔ f j
fi ↔ f j

I n −−−−−−−→ E f i → f i +β f j
f i → f i +β f j

I n −−−−−→ E f i →α f i
f i →α f i

Definición : El primer elemento no nulo de cada una de las filas de una matriz se denomina pivote.
Una fila nula no tiene pivote.

5
@Ajarenas Álgebra I

B Definición : Una matriz A es escalonada si cumple:


Si A tiene k filas nulas, éstas son las últimas.
Todo pivote de A tiene más ceros a su izquierda que el pivote de la fila anterior (excepto la pri-
mera fila).
B Definición : Una matriz A es escalonada reducida si es escalonada y además:
Todos los pivotes de A son iguales a 1.
Todo entrada de A situada en la misma columna que un pivote es igual a 0.
B Definición : Dos matrices A y B son equivalentes por filas, A ∼ f B , si A = B o si se puede trans-
formar A en B mediante una sucesión finita de operaciones elementales de filas, o equivalentemente,
existen matrices elementales E 1 , . . . , E k tales que B = E k . . . E 1 A .

Teorema 1.22: La equivalencia por filas es una relación de equivalencia.

Observación : Si A ∼ f B entonces toda fila de B es combinación lineal de filas de A .

Teorema 1.24: Toda matriz es equivalente por filas a una matriz escalonada.

Método de escalonamiento de Gauss


1. Sea j la primera columna de A con algún elemento distinto de 0. Sea h la fila de dicho elemento
y λ 6= 0 su valor. Aplicamos la operación Tipo I f 1 ↔ f h obteniendo un pivote igual a λ en (1, j ).
γ
2. Para cada i 6= 1 sea γ el elemento en (i , j ). Si γ 6= 0 realizamos la operación Tipo II f i → f i − λ f 1 ,
obteniendo un pivote igual a λ en (i , j ) y ceros por debajo. Si γ = 0 se deja la fila i invariante.
3. Si la matriz está escalonada, hemos terminado. En caso contrario, fijamos la primera fila y las
primeras j columnas y aplicamos el proceso de nuevo.
Teorema 1.27: Toda matriz es equivalente por filas a una matriz escalonada reducida.

Método de Gauss-Jordan
1. Aplicando el método de escalonamiento de Gauss transformamos A en una matriz escalonada
B donde los pivotes se encuentran en (1, j 1 ), . . . , (k, j k ) con j 1 < . . . < j k y j i = λi .
2. Empezando por el elemento λk situado en (k, j k ). Si λk 6= 1 realizamos la operación Tipo III
f k → λ1 f k obteniendo un pivote igual a 1 en (k, j k ).
k
3. Para cada i < k sea γ el elemento en (i , j k ). Si γ 6= 0 realizamos la operación Tipo II f i → f i −γ f k
obteniendo ceros en los elementos de la columna j k distintos del pivote.
4. Repetimos 2 y 3 para cada pivote, de derecha a izquierda, del elemento (k − 1, j k−1 ) al elemento
(1, j 1 ).
Lema 1.29: Si A y B son matrices escalonadas reducidas y A ∼ f B entonces A = B .

Teorema 1.30: Toda matriz es equivalente por filas a una única matriz escalonada reducida.

B Definición : La forma de Hermite por filas o forma escalonada reducida de A es la única matriz
escalonada reducida equivalente por filas a A . La denotaremos por H f (A).

Teorema 1.32: A y B son equivalentes por filas ⇔H f (A) = H f (B ).

Definición : Operaciones elementales por columnas


Tipo I: Intercambiar dos columnas. c i ↔ c j .
Tipo II: Sumar a una columna otra multiplicada por un escalar. c i → c i + βc j con β ∈ K.
Tipo III: Multiplicar una columna por un escalar no nulo. c i → αc i con α 6= 0 ∈ K.

6
@Ajarenas Álgebra I

Las matrices elementales que operan por columnas son:


F ci ↔c j = E f i ↔ f j F ci →ci +βc j = E f j → f j +β f i F ci →βci = E f i →β f i

Las operaciones elementales por columnas se corresponden con la multiplicación por la derecha por
dichas matrices elementales:
A −−−−→ A · F ci ↔c j A −−−−−−−→ A · F ci →ci +βc j A −−−−−→ A · F ci →αci
c i ↔c j c i →c i +βc j c i →αc i

B Definición : Dos matrices A y B son equivalentes por columnas, A ∼c B , si A = B o si se puede


transformar A en B mediante una sucesión finita de operaciones elementales de columnas, o equi-
valentemente, existen matrices elementales F1 , . . . , Fh tales que B = AF 1 . . . Fh .

Teorema 1.37: La equivalencia por columnas es una relación de equivalencia.

Definición : Las definiciones de matriz escalonada, escalonada reducida y forma de Hermite por filas
se adaptan a matriz escalonada por columnas, matriz escalonada reducida por columnas y forma
de Hermite por columnas.

B Definición : Dos matrices A y B son equivalentes, A ∼ B , si se puede transformar A en B mediante


una sucesión finita de operaciones elementales por filas o columnas, o equivalentemente, si existen
matrices elementales E 1 , . . . , E k , F1 , . . . , Fh tales que B = E k . . . E 1 AF1 . . . Fh .

Teorema 1.40: La equivalencia de matrices es una relación de equivalencia.

1.3. El rango de una matriz

B Definición : El rango de una matriz A , rg(A), es el máximo número de filas independientes de A .

Proposición 1.42: El rango de una matriz escalonada es igual al número de filas no nulas que tiene.

Teorema 1.43: Dos matrices equivalentes por filas tienen igual rango.

Corolario 1.44: El rango de una matriz es el número de filas no nulas de cualquier matriz escalonada
equivalente por filas.

- Teorema 1.46: Sea A una matriz de orden n . Son equivalentes las afirmaciones:
1. r g (A) = n .
2. A ∼ f I n .
3. A es producto de matrices elementales de orden n .
Demostración. 1 ⇔2: Se sigue del Teorema 1.43 ya que la única matriz escalonada reducida de orden
n con rango igual a n es I n . 2 ⇔3: A ∼ f I n ⇔existen matrices elementales E 1 , . . . , E k tales que A =
Ek . . . E1 In
µ ¶ µ ¶
Ir 0 Is 0
Lema 1.47: Sean Hr = y Hs = de igual tamaño. Entonces Hr ∼ H s ⇔r = s .
0 0 0 0
µ ¶
I 0
Lema 1.48: Sean A y Hr = r de igual tamaño. Entonces A ∼ Hr ⇔r g (A) = r .
0 0

Teorema 1.49: Dos matrices son equivalentes ⇔tienen igual rango.

7
@Ajarenas Álgebra I

µ ¶
I 0
Definición : La forma de Hermite de A , H (A), es la matriz r del tamaño de A y con r = r g (A).
0 0

- Teorema 1.51: Sean A y B dos matrices de tamaño m × n . Son ciertas las afirmaciones:
1. A ∼ B ⇔A t ∼ B t .
2. Si A es cuadrada entonces A ∼ A t .
3. r g (A) = r g (A t ).
4. r g (A) ≤ mi n{m, n}.
Observación : El rango de una matriz es el máximo número de columnas independientes que tiene.

- Teorema 1.53: Sean A, B ∈ Mm×n (K), C ∈ Mn (K) y D ∈ Mn×p (K). Son ciertas las afirmaciones:
1. |r g (A) − r g (B )| ≤ r g (A + B ) ≤ r g (A) + r g (B ).
2. r g (A) = r g (αA) ∀α 6= 0 ∈ K.
3. r g (AD) ≤ mi n{r g (A), r g (D)}.
4. Si r g (C ) = n entonces r g (AC ) = r g (A).
5. Si r g (C ) = n entonces r g (C D) = r g (D).
1.4. La inversa de una matriz cuadrada

Definición : La matriz A de orden n es invertible o regular si existe una matriz de orden n , llamada
matriz inversa de A , A −1 , tal que A · A −1 = I n = A −1 · A . La matriz A es singular si no tiene inversa.

Teorema 1.56: Una matriz invertible tiene una única inversa.

Proposición 1.57: La matriz inversa de cada tipo de matriz elemental viene dada por:
E −1
fi ↔ f j = E fi ↔ f j E −1
f i → f i +α f j = E f i → f i −α f j E −1
f i →α f i = E f i → 1 f i
α

Teorema 1.58: Sean A, B, A 1 , . . . , A k matrices invertibles de orden n . Son ciertas las afirmaciones:
1. (A t )−1 = (A −1 )t .
2. (AB )−1 = B −1 A −1 .
3. (A 1 . . . A k )−1 = A −1
k 1 .
. . . A −1
- Teorema 1.60: Sea A una matriz de orden n . Son equivalentes las afirmaciones:
1. A tiene inversa.
2. B A = C A ⇒ B = C.
3. B A = 0 ⇒ B = 0.
4. A tiene rango n .
5. La forma de Hermite por filas de A es la identidad.
6. A es un producto de matrices elementales.
Teorema 1.62: Sea A una matriz de orden n . Son equivalentes las afirmaciones:
1. A tiene inversa.
2. AB = AC ⇒ B = C .
3. AB = 0 ⇒ B = 0.
4. La forma de Hermite por columnas de A es la identidad.
Corolario 1.63: Sean A y B matrices de orden n . Son ciertas las afirmaciones:
1. Si AB = I n entonces B = A −1 .
2. Si B A = I n entonces B = A −1 .

8
@Ajarenas Álgebra I

Cálculo de las matrices que transforman A en Hf (A) y Hc (A)

Sea A una matriz de tamaño m × n , ¿cómo calcular matrices invertibles P y Q de orden m y n tal que
P A = H f (A) y AQ = Hc (A)?:
1. Aplicar operaciones elementales por filas a A y a I m :
(A|I m ) −−−−→−−−−→ . . . −−−−→ (H f (A)|E k . . . E 1 )
f i 1 →... f i 2 →... f i k →...

2. Aplicar operaciones elementales por columnas a A y a I n :


A Hc (A)
µ ¶ µ ¶
−−−−→−−−−→ . . . −−−−−→
I n c j1 →... c j2 →... c j h →... F 1 . . . F h

3. Obtenemos P = E k . . . E 1 y Q = F1 . . . Fh .
Proposición 1.65: Sean A y B matrices del mismo tamaño. Son ciertas las afirmaciones:
1. A ∼ f B ⇔∃P invertible tal que P A = B .
2. A ∼c B ⇔∃Q invertible tal que AQ = B .
3. A ∼ B ⇔∃P,Q invertibles tales que P AQ = B .
Cálculo de matrices invertibles P, Q tales PAQ = B
1. Se calcula P 1 invertible tal que P 1 A = H f (A).
2. Se calcula Q 1 invertible tal que H f (A)Q 1 = H (A).
3. Se calcula P 2 invertible tal que P 2 B = H f (B ).
4. Se calcula Q 2 invertible tal que H f (B )Q 2 = H (B ).
5. Entonces P = P 2−1 P 1 y Q = Q 1Q 2−1 son matrices invertibles tales que P AQ = B ya que H (A) =
H (B ) ⇒ H f (A)Q 1 = H f (B )Q 2 ⇒ P 1 AQ 1 = P 2 BQ 2 ⇒ P 2−1 P 1 AQ 1Q 2−1 = B .
Cálculo de la matriz inversa usando el método de Gauss
1. Cálculo de la inversa de A con operaciones elementales de filas:
Transformamos (A|I n ) mediante operaciones elementales de filas en la matriz (I n |P ) tal que
P A = In :
(A|I n ) −−−−→ . . . −−−−→ (I n |A −1 )
f i 1 →... f i k →...

2. Cálculo de la inversa
³ ´ de A con operaciones elementales de columnas: ³ ´
Transformamos IAn mediante operaciones elementales de columnas en la matriz IQn tal que
AQ = I n :
A In
µ ¶ µ ¶
−−−−→ . . . −−−−−→ −1
I n c j1 →... c j h →... A
Definición : Sea A m×n :
Una inversa por la izquierda de A es una matriz X n×m tal que X A = I n .
Una inversa por la derecha de A es una matriz Yn×m tal que AY = I m .
Proposición 1.69: Una matriz A m×n tiene inversa por la izquierda ⇔r g (A) = n y tiene inversa por la
derecha ⇔r g (A) = m . Si r g (A) = m = n entonces A −1 coincide con la única inversa por la izquierda
y con la única inversa por la derecha.

9
@Ajarenas Álgebra I

1.5. El determinante de una matriz cuadrada

B Definición : Sea A una matriz de orden n y sea A i j la submatriz de A de orden n −1 que se obtiene
eliminando la fila i y la columna j de A . Llamamos menor adjunto del elemento ai j de A al escalar:

αi j = (−1)i + j d et (A i j )

B Definición : Definimos el determinante de una matriz A n como:

n=1 A = (a) → d et (A) = a


n
a i 1 αi 1 = a 11 α11 + · · · + a n1 αn1 (Fórmula de Laplace por la 1ª columna)
X
n>1 d et (A) =
i =1

Observación : Se empleará la notación:


¯ ¯
¯ a 11 a 12 ... a 1n ¯¯
¯
¯ a 21 a 22 ... a 2n ¯¯
d et (A) = ¯ .. .. .. .. ¯¯
¯
¯ .
¯ . . . ¯
¯a m1 a m2 . . . a mn ¯

Observación : El determinante de una matriz A de orden 2 es:


¯ ¯
¯a 11 a 12 ¯
d et (A) = ¯
¯ ¯ = a 11 a 22 − a 12 a 21
a 21 a 22 ¯

Observación : Regla de Sarrus: El determinante de una matriz A de orden 3 es:


¯ ¯
¯a 11 a 12 a 13 ¯
¯ ¯
d et (A) = ¯¯a 21 a 22 a 23 ¯¯ = a 11 a 22 a 33 + a 12 a 23 a 31 + a 13 a 21 a 32 − a 11 a 23 a 32 − a 12 a 21 a 33 − a 13 a 22 a 31
¯a 31 a 32 a 33 ¯

Proposición 1.73: Si A es una matriz triangular superior de orden n entonces d et (A) = a11 a22 . . . ann .

Proposición 1.75: Si A −−−−→ B entonces d et (B ) = −d et (A).


fk ↔ fh

Corolario 1.76: Si A tiene dos filas iguales entonces d et (A) = 0.

Proposición 1.77: Si A −−−−−→ B entonces d et (B ) = αd et (A).


f k →α f k

Corolario 1.78: Si A tiene una fila nula entonces d et (A) = 0.

Lema 1.79: Sean A, B,C tres matrices que se diferencian únicamente en su fija j , siendo la fila j de A
igual a la suma de las filas j de B y C . Entonces d et (A) = d et (B ) + d et (C ).

Proposición 1.80: Si A −−−−−−−−→ B entonces d et (B ) = d et (A).


f k → f k +α f h

10
@Ajarenas Álgebra I

Corolario 1.81: El determinante de las matrices elementales viene dado por:


1. d et (E f k ↔ f h ) = −1.
2. d et (E f k → f k +α f h ) = 1.
3. d et (E f k →α f k ) = α.
Teorema 1.82: Sea A ∈ Mm×n (K) y E una matriz elemental de orden n entonces:
d et (E A) = d et (E )d et (A)

Cálculo efectivo del determinante


Se transforma la matriz A mediante operaciones elementales de filas en una matriz escalonada B ,
que es triangular superior y por tanto su determinante es el producto de los elementos de la diagonal
principal. El determinante de A será el producto del determinante de B por los factores resultantes
de aplicar las operaciones elementales por filas.

- Teorema 1.84: Sean A y B dos matrices de orden n . Son ciertas las afirmaciones:
1. d et (A) 6= 0 ⇔A es invertible.
2. d et (AB ) = d et (A)d et (B ).
3. d et (A) = d et (A t ).
Proposición 1.85: El determinante de una matriz A de orden n se puede calcular según la fórmula de
Laplace del determinante por la primera fila:
n
a 1 j α1 j
X
d et (A) =
j =1

Observación :
Si A es una matriz triangular inferior de orden n entonces d et (A) = a11 a22 . . . ann .
Si A −−−−→ B entonces d et (B ) = −d et (A).
c k ↔c h
Si A −−−−−−−−→ B entonces d et (B ) = d et (A).
c k →c k +αc h
Si A −−−−−→ B entonces d et (B ) = αd et (A).
c k →αc k
Si A tiene dos columnas iguales entonces d et (A) = 0.
Si A tiene una columna nula entonces d et (A) = 0.
Si A, B,C se diferencian únicamente en su columna j , siendo la columna j de A igual a la suma
de las columna j de B y C . Entonces d et (A) = d et (B ) + d et (C ).
Teorema 1.86: El determinante de una matriz A de orden n se puede calcular según las fórmulas de
Laplace del determinante por la fila i o por la columna j:
n n
a i j αi j a i j αi j
X X
d et (A) = d et (A) =
j =1 i =1

Proposición 1.89: Si A es una matriz de orden n y B es una matriz de orden m entonces


¶µ
A C
d et = d et (A)d et (B )
0 B

Corolario 1.90: Si A es una matriz de orden n triangular superior (inferior) por bloques tal que las
matrices A 1 , A 2 , . . . , A n situadas en su diagonal principal son cuadradas, entonces
d et (A) = d et (A 1 )d et (A 2 ) . . . d et (A n )

11
@Ajarenas Álgebra I

Definición : Sea A es una matriz de orden n . Se llama matriz adjunta de A a la matriz Ad j (A) = (αi j )
donde αi j es el menor adjunto del elemento ai j de A .

Observación : t
α11 α1n

...
Ad j (A)t 1  .. .. .. 
A −1 = =  . . . 
d et (A) d et (A)
αn1 ... αnn

Definición : Un menor de orden p de una matriz A es el determinante de una submatriz de A de


orden p . Si A es cuadrada, de orden n , el menor principal de A de orden k para k = 1, . . . , n es:
 
a 11 ... a 1k
 . .. .. 
∆k = d et  .. . . 
a k1 ... a kk

Proposición 1.94: El rango de A es mayor o igual que el rango de una submatriz de A .

Lema 1.95: Sea A ∈ Mm×n (K) y P una submatriz de A de orden m − 1 y rango m − 1. Si r g (A) = m
entonces A tiene una submatriz de orden m y rango m que contiene a P .

Proposición 1.96: Sea A ∈ Mm×n (K) y P una submatriz de A de orden p −1 y rango p −1. Si r g (A) ≥ p
entonces A tiene una submatriz de orden p y rango p que contiene a P .

Teorema 1.97: El rango de A es igual al mayor orden de un menor no nulo de A .

Cálculo del rango con menores


Sea Q ∈ Mm×n (K), buscamos un menor de orden 1 (esto es, cualquier entrada no nula).
Partiendo de un menor de orden p no nulo, encontramos un menor de orden p + 1 no nulo de la
siguiente forma:
Sea A p una submatriz de Q de orden p tal que r g (A p ) = p , construimos la submatriz de Q
µ ¶
A B
Q p+1 = p
C D

Si r g (Q p+1 ) = p +1 entonces Q p+1 tiene una submatriz A p+1 de orden p +1 y rango p +1 que contiene
a Ap .
Si r g (Q p+1 ) = p , la fila (C D) es dependiente de las filas de (A p B ). Eliminamos la fila (C D) de Q ,
escogemos otra fila y procedemos de igual forma. Si para ninguna de las filas añadidas encontramos
una matriz de rango p + 1 entonces Q tiene rango p .

12
@Ajarenas Álgebra I

2. Sistemas lineales

Definición : Una ecuación lineal con n incógnitas tiene la forma


a1 x1 + a2 x2 + · · · + an xn = b

donde el término independiente b y los coeficientes a1 , . . . , an son elementos de K, mientras que


x 1 , . . . , x n son las incógnitas. Una lista ordenada (s 1 , . . . , s n ) de n elementos de K es una solución de
la ecuación lineal cuando se cumple a1 s 1 + a2 s 2 + · · · + an s n = b .
Todas las ecuaciones lineales tienen solución salvo la ecuación incomplatible 0x 1 +0x 2 +· · ·+0x n = b
con b 6= 0.
En la ecuación trivial todos los valores posibles de las incógnitas son solución: 0x 1 +0x 2 +· · ·+0x n = 0.

Definición : Un sistema lineal de m ecuaciones y n incógnitas es una colección de m ecuaciones li-


neales: 

 a 11 x 1 + a 12 x 2 + · · · + a 1n x n = b 1

a 21 x 1 + a 22 x 2 + · · · + a 2n x n = b 2

A = .
.
.



a m1 x 1 + a m2 x 2 + · · · + a mn x n = b m

Un sistema lineal cumple que b1 , . . . , bn , a11 , . . . , a1n , am1 , . . . , amn son elementos de K, mientras que
x 1 , . . . , x n son las incógnitas. Una lista ordenada (s 1 , . . . , s n ) de n elementos de K es una solución del
sistema lineal A si es solución de cada una de sus m ecuaciones lineales. La solución general del
sistema es el conjunto formado por todas las soluciones del sistema.

Definición : El sistema lineal A es homogéneo cuando b1 = · · · = bm = 0. Todo sistema lineal homo-


géneo tiene al menos la solución dada por x 1 = · · · = x n = 0.

Definición : Dos sistemas lineales son equivalentes si coincide su solución general.

Definición : Dado un sistema lineal A de m ecuaciones y n incógnitas, se definen las siguientes


matrices asociadas al sistema:
     
a 11 a 12 ... a 1n x1 b1
 a 21 a 22 ... a 2n   x2   b2 
A =  .. .. .. ..  X =  ..  B =  .. 
     
 . . . .  .  . 
a m1 a m2 . . . a mn xn bm
matriz de coeficientes matriz de matriz de términos
incógnitas independientes
 
a 11 a 12 ... a 1n b1
 a 21 a 22 ... a 2n b2 
(A|B ) =  .. .. ... .. .. 
 
 . . . . 
a m1 a m2 ... a mn bm
matriz ampliada

Utilizando dicha notación, el sistema lineal A admite la formulación AX = B .

Lema 2.3: Para cada α 6= 0 ∈ K son equivalentes los sistemas lineales:


A ≡ {a11 x 1 + a12 x 2 + · · · + a1n x n = b1
y
A 0 ≡ {αa11 x 1 + αa12 x 2 + · · · + αa1n x n = αb1

13
@Ajarenas Álgebra I

Lema 2.4: Para cada α 6= 0 ∈ K son equivalentes los sistemas lineales:


(
a 11 x 1 + a 12 x 2 + · · · + a 1n x n = b 1
A ≡
a 21 x 1 + a 22 x 2 + · · · + a 2n x n = b 2
y ½
a 11 x 1 + a 12 x 2 + ... + a 1n x n = b1
A ≡0
(a 21 + αa 11 )x 1 + (a 22 + αa 12 )x 2 + . . . + (a 2n + αa 1n )x n = b 2 + αb 1

Teorema 2.5: Dos sistemas lineales con matrices ampliadas equivalentes por filas son sistemas equi-
valentes.

2.1. Discusión y resolución de sistemas lineales

Teorema 2.6: Un sistema lineal puede tener cero, una o infinitas soluciones.

Teorema 2.7: Un sistema lineal A se caracteriza por el número de soluciones:


A es incompatible si no tiene solución.
A es compatible determinado si tiene una única solución.
A es compatible indeterminado si tiene infinitas soluciones.
Resolver A es encontrar su solución general y discutir A es determinar si es incompatible, compa-
tible determinado o compatible indeterminado.

Observación : En un sistema escalonado (o escalonado reducido):


Si existe una ecuación del tipo 0 = b con b 6= 0, equivalente a tener un pivote en la última columna
de la matriz ampliada, el sistema es incompatible.
Una ecuación del tipo 0 = 0, equivalente a tener una fila nula en la matriz ampliada, se puede
eliminar.
Resolución de sistemas lineales escalonados
Sea A un sistema lineal escalonado de m ecuaciones lineales no triviales en las incógnitas x 1 , . . . , x n
con m ≤ n . La matriz ampliada del sistema (A|B ) de tamaño m ×(n +1) es escalonada y no tiene filas
nulas ni pivotes en la última columna. Si los m pivotes se encuentran en las columnas j 1 , . . . , j m a las
incógnitas x j1 , . . . , x jm las denominaremos incógnitas principales y a las n − m restantes incógnitas
secundarias.
Se resuelve el sistema por el método de sustitución de incógnitas de abajo hacia arriba, asignando paráme-
tros a las incógnitas secundarias y despejando las incógnitas principales de las ecuaciones en las que
son pivote.

Resolución de sistemas lineales triangulares


Los sistemas de n ecuaciones y n incógnitas cuya matriz de coeficientes es triangular superior o in-
ferior sin ceros en la diagonal se denominan triangulares. Son compatibles determinados al carecer
de incógnitas secundarias. Se resuelven despejando incógnitas de abajo hacia arriba (si es triangular
superior) o de arriba hacia abajo (si es triangular inferior).

Resolución de sistemas lineales escalonados reducidos


Sea A un sistema lineal escalonado reducido de m ecuaciones lineales no triviales con n incógnitas.
La matriz ampliada del sistema (A|B ) es escalonada reducida y no tiene filas nulas ni pivotes en la
última columna. Existen dos posibilidades:
1. (A|B ) tiene n = m pivotes. La única solución de A es x 1 = b1 , . . . , x n = bn .

14
@Ajarenas Álgebra I

2. (A|B ) tiene m ≤ n pivotes. Los pivotes se encontrarán en (1, j 1 ), (2, j 2 ), . . . , (m, j m ) con 1 ≤ j 1 <
j 2 < . . . < j m ≤ n . Sea el conjunto {k 1 , . . . , k n−m } = {1, . . . , n}\{ j 1 , . . . , j m }, ∀i = 1, . . . , m , la ecuación
de la fila i permite despejar x ji en función de x k1 , . . . , kn−m , obteniendo x ji = f i (x k1 , . . . , x kn−m ).
La solucion general será de la forma x k1 = α1 , . . . , x kn−m = αn−m , x j1 = f 1 (α1 , . . . , αn−m ), . . . , x jm =
f h (α1 , . . . , αn−m ). Por tanto, A es compatible indeterminado.
Teorema 2.11: Sea A un sistema lineal escalonado con n incógnitas y sea (A|B ) su matriz ampliada.
1. Si (A|B ) tiene un pivote en la última columna, entonces A es incompatible.
2. Si (A|B ) no tiene un pivote en la última columna y si además
a) (A|B ) tiene n pivotes, entonces A es compatible determinado.
b) (A|B ) tiene menos de n pivotes, entonces A es compatible indeterminado.
Teorema 2.13: Teorema de Rouche-Fröbenius
Sea A un sistema lineal con n incógnitas y sea (A|B ) su matriz ampliada.
1. A es incompatible ⇔r g (A) < r g (A|B ).
2. A es compatible determinado ⇔r g (A) = r g (A|B ) = n .
3. A es compatible indeterminado ⇔r g (A) = r g (A|B ) < n .
Corolario 2.16: Un sistema lineal AX = B con A de orden n tiene solución única ⇔A es invertible.

Definición : Un sistema lineal AX = B es un sistema regular de orden n o sistema de Cramer si A es


una matriz de orden n invertible.

Teorema 2.17: Regla de Cramer


La única solución de un sistema regular de orden n , AX = B viene dada por
∆1 ∆2 ∆n
x1 = , x2 = , ..., xn =
d et (A) d et (A) d et (A)
donde ∆i es el determinante de la matriz que se obtiene cambiando la columna i de A por B .

15
@Ajarenas Álgebra I

Página en blanco intencionadamente

16
@Ajarenas Álgebra I

3. Espacios vectoriales

Definición : Un conjunto V 6= ; es un espacio vectorial sobre un cuerpo K, o K-espacio vectorial, si:

En V está definida una operación interna (suma)


+ : V ×V −→ V
(u, v) 7→ u + v

tal que (V, +) es un grupo abeliano, cumpliéndose las siguientes propiedades ∀u, v, w ∈ V :
1. Conmutativa: u + v = v + u .
2. Asociativa: u + (v + w) = (u + v) + w .
3. Existencia de elemento neutro, 0 ∈ V , tal que u + 0 = u .
4. Existencia de elemento opuesto, −u ∈ V , tal que u + (−u) = 0.
En V está definida una operación externa (producto por escalares)
· : K × V −→ V
(α, u) 7→ α · u

que cumple las siguientes propiedades ∀u, v ∈ V y ∀α, β ∈ K:


5. Asociativa: α · (β · u) = (α · β) · u .
6. El elemento unidad, 1 ∈ K, cumple 1 · u = u .
7. Distributiva del producto respecto de la suma en V : α · (u + v) = α · u + α · v .
8. Distributiva del producto respecto de la suma de escalares: (α + β) · u = α · u + β · u .

- Proposición 3.2: Leyes de la suma de vectores y del producto por escalares


Sean V un K-espacio vectorial, u, v, w ∈ V y α, β ∈ K:
1. α~0 =~0.
2. 0u =~0.
3. αu =~0 ⇔α = 0 o u =~0.
4. u + v = u + w ⇔v = w .
5. αu = βu y u 6=~0 ⇒ α = β.
6. αu = αv y α 6= 0 ⇒ u = v .
7. (−α)u = −αu = α(−u).

3.1. Dependencia e independencia lineal

Sea V un K-espacio vectorial. El vector v ∈ V es combinación lineal de los vectores v 1 , . . . , v m ∈ V si


∃α1 , . . . , αm ∈ K tal que:
v = α1 v 1 + · · · + αm v m

B Definición : Los vectores v 1 , . . . , v m del K-espacio vectorial V son:


linealmente dependientes si alguno de ellos es combinación lineal de los demás.
linealmente independientes si ninguno de ellos es combinación lineal de los demás.
Observación : ~0 es linealmente dependiente y cualquier vector v 6= 0 es linealmente independiente.

17
@Ajarenas Álgebra I

- Proposición 3.5: Sea V un K-espacio vectorial. Son ciertas las afirmaciones:


1. Si 0 ∈ {v 1 , . . . , v m } entonces {v 1 , . . . , v m } son linealmente dependientes.
2. B {v 1 , . . . , v m } son linealmente dependientes ⇔∃α1 , . . . , αm no todos nulos tal que α1 v 1 + · · · +
αm v m = 0.
3. {v 1 , . . . , v m } son linealmente independientes ⇔los únicos α1 , . . . , αm para los que α1 v 1 + · · · +
αm v m = 0 son α1 = · · · = αm = 0.
B - Proposición 3.8: Si {v 1 , . . . , v m } son vectores linealmente independientes de los cuales v m+1 ∈ V
no es combinación lineal, entonces {v 1 , . . . , v m , v m+1 } son linealmente independientes.

3.2. Sistemas generadores

B Definición : Un sistema generador de un espacio vectorial V es un conjunto S de vectores de V


tal que todo vector de V es combinación lineal de vectores de S . El espacio V es de dimensión finita
si existe un sistema generador de V con un número finito de vectores.

- Proposición 3.13: Si {v 1 , . . . , v m } es un sistema generador de V y v m es combinación lineal de


v 1 , . . . , v m−1 entonces {v 1 , . . . , v m−1 } es un sistema generador de V .

- Proposición 3.14: Si {v 1 , . . . , v r } son vectores linealmente independientes de V y {w 1 , . . . , w s } es un


sistema generador de V entonces r ≤ s .

3.3. Bases

B Definición : Una base de un espacio vectorial V es un conjunto ordenado B = {v 1 , . . . , v n } de vec-


tores de V linealmente independientes que forman un sistema generador de V .

Teorema 3.18: Todas las bases de un espacio vectorial finito V tienen igual número de vectores.

Definición : La dimensión de V , d i m(V ), es el número de vectores de cualquier base de V .

Proposición 3.20: Sea V un espacio vectorial de dimensión n . Son ciertas las afirmaciones:
1. Un sistema generador de V tiene como mínimo n vectores.
2. Un conjunto de vectores linealmente independientes de V tiene como máximo n vectores.
3. Todo sistema generador de V de n vectores es una base de V .
4. Todo conjunto de n vectores linealmente independientes de V es una base de V .
Observación : Todo sistema generador contiene un subconjunto que es una base.

Teorema 3.22: Sea {v 1 , . . . , v m } un sistema generador de un espacio vectorial V de dimensión n . Si


m > n entonces se pueden eliminar m − n vectores de {v 1 , . . . , v m } y quedarnos con una base de V .

- Teorema 3.23: Teorema de ampliación de la base


Sean {v 1 , . . . , v m } vectores linealmente independientes de un espacio vectorial V de dimensión n . Si
m < n entonces ∃n − m vectores v m+1 , . . . , v n ∈ V tales que {v 1 , . . . , v m , v m+1 , . . . , v n } es base de V .

B - Teorema 3.25: El conjunto de vectores {v 1 , . . . , v n } es una base de V ⇔cada vector de V se puede


escribir de forma única como una combinación lineal de v 1 , . . . , v n .

B Definición : Sean B = {v 1 , . . . , v n } una base de un K-espacio vectorial V y v un vector de V . De-


cimos que (α1 , . . . , αn ) son las coordenadas de v respecto de B si α1 , . . . , αn son los únicos escalares
tales que v = α1 v 1 + α2 v 2 + · · · + αn v n y se denota como v = (α1 , α2 , . . . , αn )B .

18
@Ajarenas Álgebra I

Definición : Sea V un K-espacio vectorial de dimensión n . Fijada una base B de V se puede operar
con los vectores de V mediante el uso de sus coordenadas respecto de B como si fueran vectores de
Kn . Dado que las coordenadas de un vector son únicas, se define la biyeccion

V −→ Kn
x = (x 1 , . . . , x n )B 7→ (x 1 , . . . , x n )

que se denomina isomorfismo de coordenadas.

3.4. Rango de un conjunto de vectores

B Definición : El rango de un conjunto de vectores {v 1 , . . . , v n }, r g {v 1 , . . . , v n }, es el mayor número


de vectores linealmente independientes que contiene.

Definición : Sea B una base de un espacio vectorial V de dimensión n . Dado un conjunto de vectores
{v 1 , . . . , v m } con v i = (v i 1 , . . . , v i n )B para i = 1, . . . , m , se definen:
La matriz de coordenadas de {v 1 , . . . , v n } respecto de B por filas a la matriz
   
 v1  v 11 ... v 1n
.. =  .. .. 

..

MB
 .  . . . 
 
vm v m1 ... v mn

cuyas entradas en la fila i son las coordenadas de v i respecto de B .


La matriz de coordenadas de {v 1 , . . . , v n } respecto de B por columnas a la matriz
 
v 11 ... v m1
MB {v 1 , . . . , v m } =  ... ... .. 
. 

v 1n ... v mn

cuyas entradas en la columna i son las coordenadas de v i respecto de B .


Definición : Dos conjuntos de vectores son equivalentes si podemos transformar uno en otro me-
diante operaciones elementales.

Proposición 3.34: Sea B una base de un espacio vectorial V y sean v 1 , . . . , v m ∈ V , se cumple que:
 
 v1 
.
 
r g {v 1 , . . . , v m } = r g MB .. = r g MB {v 1 , . . . , v m }

 
vm

3.5. Matriz de cambio de base

Sean B = {v 1 , . . . , v n } y B 0 = {v 10 , . . . , v n0 } dos bases de un espacio vectorial V . Se puede escribir cual-


quier u ∈ V como:
u = x 1 v 1 + · · · + x n v n = (x 1 , . . . , x n )B
u = x 10 v 10 + · · · + x n0 v n0 = (x 10 , . . . , x n0 )B 0

Por otra parte, se puede escribir cada vector de B como combinación lineal de los elementos de B 0 :

v 1
 = a 11 v 10 + · · · + a 1n v n0
..

 .
= a n1 v 10 + · · · + a nn v n0

v
n

19
@Ajarenas Álgebra I

Y, por tanto:
u = x1 v 1 + · · · + xn v n
= x 1 (a 11 v 10 + · · · + a 1n v n0 ) + · · · + x n (a n1 v 10 + · · · + a nn v n0 )
= (a 11 x 1 + · · · + a n1 x n )v 10 + · · · + (a 1n x 1 + · · · + a nn x n )v n0

Dado que u = (x 10 , . . . , x n0 )B 0 , de la unicidad de las coordenadas de u respecto de B 0 se sigue que



a 11 x 1 + · · · + a n1 x n
 = x 10
..

 .
= x n0

a
1n x 1 + · · · + a nn x n

que escrito en forma matricial es


x 10
    
a 11 ... a n1 x1
 .. ... ..   ..  =  .. 
 . .  .   . 
a 1n ... a nn xn x n0

B Definición : La matriz MBB 0 = (a i j ) se denomina matriz de cambio de base de B = {v 1 , . . . , v m } a


B 0 = {v 10 , . . . , v m
0
}. Tiene orden n y su columna j son las coordenadas de v j respecto de B 0 .

Observación :
MBB 0 = MB 0 {v 1 , . . . , v m } ⇒ r g (MBB 0 ) = n ⇒ MBB 0 es invertible.
MBB 0 X = X 0 ⇒ M−1 −1 0 −1
BB 0 MBB 0 X = MBB 0 X ⇒ X = MBB 0 X
0

MB 0 B = M−1
BB 0
Proposición 3.38: Si A, B y C son tres bases de un espacio vectorial, entonces MAB = MCB MAC .

3.6. Subespacios vectoriales

B Definición : Un subconjunto U no vacío de un K-espacio vectorial V es un subespacio vectorial


si ∀u, w ∈ U y ∀α ∈ K se cumplen las propiedades:
(i) u + v ∈ U y (ii) αu ∈ U
O, equivalentemente, si ∀u, v ∈ U y ∀α, β ∈ K, (iii) αu + βv ∈ K.

Observación : Un subespacio vectorial es un subconjunto no vacío de un espacio vectorial que con-


tiene a todas las combinaciones lineales de sus vectores.

Definición : Sea U un subespacio vectorial de un espacio vectorial V de dimensión n :


Si U = {0}, U se denomina subespacio trivial de V , y por convenio d i m(U ) = 0.
Si d i m(U ) = 1, 2 o n − 1, U se denomina, respectivamente, recta vectorial, plano vectorial o
hiperplano vectorial de V .
Si d i m(U ) = n , entonces U = V y se denomina subespacio total de V .
Si U es distinto del trivial y del total entonces se dice que U es un subespacio propio de V .
∀U subespacio vectorial de V , 0 ∈ U .
Definición : El subespacio vectorial generado por un conjunto no vacío S de V es el conjunto
L(S) = {α1 v 1 + · · · + αm v m : m ∈ N, α1 , . . . , αm ∈ K, v 1 , . . . , v m ∈ S}

20
@Ajarenas Álgebra I

Proposición 3.45: Sea S un conjunto no vacío de vectores de V . Son ciertas las afirmaciones:
1. L(S) es el menor subespacio vectorial de V que contiene a S .
2. Si S es un subespacio vectorial de V entonces L(S) = S .
3. Si R es tal que S ⊆ R ⊆ V entonces L(S) ⊆ L(R) ⊆ L(V ).
Definición : Un sistema generador de un subespacio vectorial U de V es un conjunto {v 1 , . . . , v m } de
vectores de U tal que L(v 1 , . . . , v m ) = U .

Proposición 3.47: Sean v 1 , . . . , v m , w 1 , . . . , w m vectores de un espacio vectorial. Si


{v 1 , . . . , v m } ⊂ L(w 1 , . . . , w m ) y {w 1 , . . . , w m } ⊂ L(v 1 , . . . , v m )

entonces L(v 1 , . . . , v m ) = L(w 1 , . . . , w m ).

Teorema 3.49: Si los conjuntos de vectores R y S son equivalentes entonces L(R) = L(S).

Teorema 3.50: Si U = L(v 1 , . . . , v m ) entonces d i m(U ) = r g {v 1 , . . . , v m }.

3.7. Ecuaciones paramétricas e implícitas

Sea B = {v 1 , . . . , v n } una base de un K-espacio vectorial V de dimensión n , y sea {u 1 , . . . , u m } una


base de un subespacio vectorial U de V de dimensión m < n . Se puede escribir cualquier u i como
combinación lineal única de los vectores de B :

u 1 = a 11 v 1 + · · · + a 1n v n

..

 .

u
m = a m1 v 1 + · · · + a mn v n

Por otra parte, se puede escribir cada vector x ∈ U como combinación lineal de los elementos de B :
x = x1 v 1 + · · · + xn v n

Y, como x ∈ U :
x = λ1 u 1 + · · · + λm u n
= λ1 (a 11 v 1 + · · · + a 1n v n ) + · · · + λm (a m1 v 1 + · · · + a mn v n )
= (λ1 a 11 + · · · + λm a m1 )v 1 + · · · + (λ1 a 1n + · · · + λm a mn )v n

Igualando las coordenadas de ambas expresiones de x con respecto a B tenemos:



x 1
 = λ1 a 11 + · · · + λm a m1
..

. (3.7.1)

= λ1 a 1n + · · · + λm a mn

x
n

que se puede escribir como      


x1 a 11 a m1
 ..   .   . 
 .  = λ1  ..  + · · · + λm  ..  (3.7.2)
xn a 1n a mn
o como
(x 1 , . . . , x n ) = λ1 (a 11 , . . . , a 1n ) + · · · + λm (a m1 , . . . , a mn ) (3.7.3)

Definición : Una ecuaciones paramétricas del subespacio U respecto de la base B son cualquiera de
las expresiones (3.7.1), (3.7.2) o (3.7.3).

21
@Ajarenas Álgebra I

Definición : Una ecuaciones implícitas del subespacio U respecto de la base B son una colección de
r = n − m ecuaciones lineales homogéneas no redundantes en las variables x 1 , . . . , x n

α11 x 1 + · · · + α1n x n = 0

..

 .
α x + · · · + α x

=0
r1 1 rn n

tales que (x 1 , . . . , x n ) es solución del sistema ⇔(x 1 , . . . , x n )B ∈ U .

Observación : d i m(V ) = d i m(U )+ nº de ecuaciones implícitas de U .

- Teorema 3.54: Un subconjunto U de Kn es un subespacio vectorial de Kn ⇔U es el conjunto de


soluciones de algún sistema lineal homogéneo.

Teorema 3.55: La solución general de un sistema lineal homogéneo AX = 0 con n incógnitas y coefi-
cientes en K es un subespacio vectorial de Kn de dimensión n − r g (A).

3.8. Intersección y suma de subespacios vectoriales

Sean V1 , . . . ,Vm subespacios vectoriales de un espacio vectorial V . El conjunto intersección


m
\
Vi = V1 ∩ · · · ∩ Vm
i =1

es un subespacio vectorial de V .

Proposición 3.57: Si V es un espacio vectorial de dimensión n y U es un subespacio vectorial de V de


dimensión k , entonces U es intersección de n − k hiperplanos.

B Definición : La suma de los subespacios vectoriales V1 , . . . ,Vm de V es el menor subespacio vec-


torial que contiene a V1 ∪ · · · ∪ Vm , esto es, V1 + · · · + Vm = L(V1 ∪ · · · ∪ Vm )

Proposición 3.60: Si V1 , . . . ,Vm son subespacios vectoriales de V entonces V1 +· · ·+Vm = {v 1 +· · ·+v m :


v i ∈ Vi , i = 1, . . . , m}.

B Definición : La suma V1 , . . . ,Vm es suma directa si cada vector de V1 + · · · + Vm se puede expresar


de forma única como suma de vectores de V1 , . . . ,Vm . La suma directa se denota V1 ⊕ · · · ⊕ Vm .

- Teorema 3.62: Sean V1 , . . . ,Vm subespacios vectoriales de V . Son equivalentes las afirmaciones:
1. V1 + · · · + Vm es suma directa.
2. Vi ∩ (V1 + · · · + Vi −1 + Vi +1 + · · · + Vm ) = {0} para cada i = 1, . . . , m .
3. Si v 1 + · · · + v m = 0 con v j ∈ V j entonces v 1 = · · · = v m = 0.
Observación : V1 + V2 es suma directa ⇔V1 ∩ V2 = 0.

Lema 3.64: Sea Bi una base del subespacio vectorial Vi de V para i = 1, . . . , m . Es cierto que:
1. B1 ∪ · · · ∪ Bm es sistema generador de V1 + · · · + Vm .
2. V1 + · · · + Vm es suma directa ⇔B1 ∪ · · · ∪ Bm es una base de V1 + · · · + Vm .
3. V1 + · · · + Vm es suma directa ⇔d i m(V1 + · · · + Vm ) = d i m(V1 ) + · · · + d i m(Vm ).
Definición : Los subespacios vectoriales U y W son suplementarios en V si U ⊕W = V , o equivalen-
temente, d i m(U ) + d i m(W ) = d i m(U + W ) = d i m(V ).

Proposición 3.66: B1 ∪ B2 es una base de V ⇔L(B1 ) y L(B2 ) son suplementarios.

22
@Ajarenas Álgebra I

Teorema 3.68: Fórmula de Grassmann: Si U y W son subespacios vectoriales de V entonces


d i m(U + W ) = d i m(U ) + d i m(W ) − d i m(U ∩ W )

3.9. El espacio cociente módulo de un subespacio vectorial

Definición : Para cada subespacio vectorial U de V se define la relación binaria ∼U de manera que
dos vectores de V están relacionados si y sólo si su diferencia es un vector de U : v ∼U w ⇔w − v ∈ U .

Proposición 3.70: Para todo subespacio vectorial U de V la relación ∼U es de equivalencia.

Definición : Sea U subespacio vectorial de V . La clase de equivalencia de v ∈ V módulo U es el con-


junto
v +U = {v + u : u ∈ U }
El espacio cociente de V módulo U es el conjunto de las clases de equivalencia módulo U
V /U = {v +U : v ∈ V }

Observación : El espacio cociente V /U con la operación interna suma y la operación externa producto
por un escalar tiene estructura de K-espacio vectorial.

Teorema 3.72: Si V es un espacio vectorial de dimensión n y U es un subespacio vectorial de V de


dimensión k , entonces V /U es un espacio vectorial de dimensión n − k . Por tanto,
d i m(V /U ) = d i m(V ) − d i m(U )

Además, si {v k+1 , . . . , v n } es un conjunto de vectores que extiende cualquier base de U a una base de
V entonces {v k+1 +U , . . . , v n +U } es una base de V /U .

23
@Ajarenas Álgebra I

Página en blanco intencionadamente

24

También podría gustarte