Resumen - Álgebra I
Resumen - Álgebra I
Resumen - Álgebra I
@Ajarenas
Índice
1. Matrices 3
2. Sistemas lineales 13
3. Espacios vectoriales 17
3.3. Bases . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18
1
@Ajarenas Álgebra I
Leyenda
- Demostración que se pide en la guía de la asignatura.
B Definición o demostración que ha caído en exámenes desde 2016.
Nota
Este resumen está basado en la primera edición del libro base de 2014.
Agradecimientos
Basado en los geniales resúmenes de Alex M. Ascensión.
https://gitlab.com/alexmascension/resumenes-uned.
2
@Ajarenas Álgebra I
1. Matrices
Definición : Una matriz A de tamaño m×n es un conjunto de m·n escalares o elementos de un cuerpo
K que están ordenados en m filas y n columnas de la forma:
a 11 a 12 ... a 1n
a 21 a 22 ... a 2n
A = .. .. .. ..
. . . .
a m1 a m2 . . . a mn
Definición : Mm×n (K) es el conjunto de matrices de tamaño m × n cuyas entradas son elementos de
K. Una matriz fila es una matriz de M1×n (K) y una matriz columna es una matriz de Mm×1 (K)
Definición : Una matriz cuadrada es una matriz con igual número de filas que de columnas. Una ma-
triz con n filas y columnas es una matriz de orden n . El conjunto Mn×n (K) se denota abreviadamente
como Mn (K).
Definición : Una matriz simétrica es una matriz cuadrada que coincide con su traspuesta.
Definición : Una matriz antisimétrica es una matriz cuadrada que coincide con su traspuesta cam-
biada de signo.
Observación : En una matriz antisimétrica, las entradas situadas en la diagonal principal son iguales
a 0.
Definición : La matriz traspuesta conjugada de la matriz A ∈ Mm×n (C) es la matriz A ∗ ∈ Mn×m (C) tal
que ai∗j = ai j . Observación : a + bi = a − bi .
Definición : Una matriz hermítica es una matriz cuadrada que coincide con su traspuesta conjugada.
Observación : En una matriz hermítica, los elementos situados en la diagonal principal son reales.
B Definición : Una matriz triangular superior es una matriz de orden n con todas las entradas
situadas por debajo de su diagonal principal iguales a 0. Una matriz triangular inferior es una matriz
de orden n con todas las entradas situadas por encima de su diagonal principal iguales a 0.
Definición : Una matriz diagonal, d i ag (d1 , . . . , dn ) es una matriz de orden n con todas las entradas
situadas fuera de su diagonal principal iguales a 0 y cuyas entradas situadas en su diagonal principal
son d 1 , . . . , d n .
3
@Ajarenas Álgebra I
Definición : La identidad de orden n , I n , es la matriz diagonal de orden n con todas las entradas
situadas en la diagonal principal iguales a 1.
Definición : Una matriz nula, 0m×n , o 0 cuando no haya ambiguedad, es una matriz con todas sus
entradas iguales a 0.
Definición : Una fila de una matriz es una fila nula si todas sus entradas son 0. Una columna de una
matriz es una columna nula si todas sus entradas son 0.
B Definición : Una submatriz de A es cualquier matriz que se obtenga de A eliminando filas y co-
lumnas.
Definición : La suma de dos matrices A y B del mismo tamaño es la matriz A + B cuya entrada (i , j )
es: [A + B ]i j = ai j + bi j .
Definición : El producto de un escalar λ por una matriz A es la matriz λA cuya entrada (i , j ) es:
[λA]i j = λa i j .
4
@Ajarenas Álgebra I
Observación :
Puede ocurrir que AB = 0 siendo A, B 6= 0.
(A + B )2 = A 2 + 2AB + B 2 ⇔ AB = B A .
Definición : Sean A ∈ Mm×n (K) decimos que:
A es idempotente si A 2 = A .
B A es nilpotente si ∃k ∈ N > 0 tal que A k = 0.
A es involutiva si A 2 = I n .
Teorema 1.7: Si la suma o producto tiene sentido:
1. (A + B )t = A t + B t .
2. (A 1 + · · · + A k )t = A 1t + · · · + A kt .
3. (αA)t = αA t ∀α ∈ K.
4. (AB )t = B t A t .
5. (A 1 . . . A k )t = A kt . . . A 1t .
Corolario 1.8: Sea A una matriz cuadrada:
1. A + A t es simétrica y A − A t es antisimétrica.
2. A se puede escribir como la suma de una matriz simétrica y una antisimétrica.
3. A A t es simétrica.
1.2. Método de Gauss
Definición : Una combinación lineal de matrices fila F1 , . . . , Fk del mismo tamaño es una expresión
α1 F 1 + · · · + αk F k con α1 , . . . , αk ∈ K.
Las matrices fila son dependientes si existe alguna que es combinación lineal de las demás. En caso
contrario, son independientes.
Los escalares α1 , . . . , αk se denominan coeficientes de la combinación lineal.
Se llama combinación lineal trivial a aquella en la que todos los coeficientes son 0.
Proposición 1.12: Sean F1 , . . . , Fk matrices filas del mismo tamaño, entonces F1 , . . . , Fk son dependien-
tes ⇔existe una combinación lineal no trival de la forma
α1 F 1 + · · · + αk F k = 0
Definición : Las transformaciones que se pueden aplicar a una matriz se denominan operaciones
elementales de filas, y son:
Tipo I: Intercambiar dos filas. f i ↔ f j .
Tipo II: Sumar a una fila otra multiplicada por un escalar. f i → f i + β f j con β ∈ K.
Tipo III: Multiplicar una fila por un escalar no nulo. f i → α f i con α 6= 0 ∈ K.
Definición : Una matriz elemental de orden n es la matriz resultante de aplicar a I n una operación
elemental. Hay 3 tipos:
I n −−−−→ E f i ↔ f j
fi ↔ f j
I n −−−−−−−→ E f i → f i +β f j
f i → f i +β f j
I n −−−−−→ E f i →α f i
f i →α f i
Definición : El primer elemento no nulo de cada una de las filas de una matriz se denomina pivote.
Una fila nula no tiene pivote.
5
@Ajarenas Álgebra I
Teorema 1.24: Toda matriz es equivalente por filas a una matriz escalonada.
Método de Gauss-Jordan
1. Aplicando el método de escalonamiento de Gauss transformamos A en una matriz escalonada
B donde los pivotes se encuentran en (1, j 1 ), . . . , (k, j k ) con j 1 < . . . < j k y j i = λi .
2. Empezando por el elemento λk situado en (k, j k ). Si λk 6= 1 realizamos la operación Tipo III
f k → λ1 f k obteniendo un pivote igual a 1 en (k, j k ).
k
3. Para cada i < k sea γ el elemento en (i , j k ). Si γ 6= 0 realizamos la operación Tipo II f i → f i −γ f k
obteniendo ceros en los elementos de la columna j k distintos del pivote.
4. Repetimos 2 y 3 para cada pivote, de derecha a izquierda, del elemento (k − 1, j k−1 ) al elemento
(1, j 1 ).
Lema 1.29: Si A y B son matrices escalonadas reducidas y A ∼ f B entonces A = B .
Teorema 1.30: Toda matriz es equivalente por filas a una única matriz escalonada reducida.
B Definición : La forma de Hermite por filas o forma escalonada reducida de A es la única matriz
escalonada reducida equivalente por filas a A . La denotaremos por H f (A).
6
@Ajarenas Álgebra I
Las operaciones elementales por columnas se corresponden con la multiplicación por la derecha por
dichas matrices elementales:
A −−−−→ A · F ci ↔c j A −−−−−−−→ A · F ci →ci +βc j A −−−−−→ A · F ci →αci
c i ↔c j c i →c i +βc j c i →αc i
Definición : Las definiciones de matriz escalonada, escalonada reducida y forma de Hermite por filas
se adaptan a matriz escalonada por columnas, matriz escalonada reducida por columnas y forma
de Hermite por columnas.
Proposición 1.42: El rango de una matriz escalonada es igual al número de filas no nulas que tiene.
Teorema 1.43: Dos matrices equivalentes por filas tienen igual rango.
Corolario 1.44: El rango de una matriz es el número de filas no nulas de cualquier matriz escalonada
equivalente por filas.
- Teorema 1.46: Sea A una matriz de orden n . Son equivalentes las afirmaciones:
1. r g (A) = n .
2. A ∼ f I n .
3. A es producto de matrices elementales de orden n .
Demostración. 1 ⇔2: Se sigue del Teorema 1.43 ya que la única matriz escalonada reducida de orden
n con rango igual a n es I n . 2 ⇔3: A ∼ f I n ⇔existen matrices elementales E 1 , . . . , E k tales que A =
Ek . . . E1 In
µ ¶ µ ¶
Ir 0 Is 0
Lema 1.47: Sean Hr = y Hs = de igual tamaño. Entonces Hr ∼ H s ⇔r = s .
0 0 0 0
µ ¶
I 0
Lema 1.48: Sean A y Hr = r de igual tamaño. Entonces A ∼ Hr ⇔r g (A) = r .
0 0
7
@Ajarenas Álgebra I
µ ¶
I 0
Definición : La forma de Hermite de A , H (A), es la matriz r del tamaño de A y con r = r g (A).
0 0
- Teorema 1.51: Sean A y B dos matrices de tamaño m × n . Son ciertas las afirmaciones:
1. A ∼ B ⇔A t ∼ B t .
2. Si A es cuadrada entonces A ∼ A t .
3. r g (A) = r g (A t ).
4. r g (A) ≤ mi n{m, n}.
Observación : El rango de una matriz es el máximo número de columnas independientes que tiene.
- Teorema 1.53: Sean A, B ∈ Mm×n (K), C ∈ Mn (K) y D ∈ Mn×p (K). Son ciertas las afirmaciones:
1. |r g (A) − r g (B )| ≤ r g (A + B ) ≤ r g (A) + r g (B ).
2. r g (A) = r g (αA) ∀α 6= 0 ∈ K.
3. r g (AD) ≤ mi n{r g (A), r g (D)}.
4. Si r g (C ) = n entonces r g (AC ) = r g (A).
5. Si r g (C ) = n entonces r g (C D) = r g (D).
1.4. La inversa de una matriz cuadrada
Definición : La matriz A de orden n es invertible o regular si existe una matriz de orden n , llamada
matriz inversa de A , A −1 , tal que A · A −1 = I n = A −1 · A . La matriz A es singular si no tiene inversa.
Proposición 1.57: La matriz inversa de cada tipo de matriz elemental viene dada por:
E −1
fi ↔ f j = E fi ↔ f j E −1
f i → f i +α f j = E f i → f i −α f j E −1
f i →α f i = E f i → 1 f i
α
Teorema 1.58: Sean A, B, A 1 , . . . , A k matrices invertibles de orden n . Son ciertas las afirmaciones:
1. (A t )−1 = (A −1 )t .
2. (AB )−1 = B −1 A −1 .
3. (A 1 . . . A k )−1 = A −1
k 1 .
. . . A −1
- Teorema 1.60: Sea A una matriz de orden n . Son equivalentes las afirmaciones:
1. A tiene inversa.
2. B A = C A ⇒ B = C.
3. B A = 0 ⇒ B = 0.
4. A tiene rango n .
5. La forma de Hermite por filas de A es la identidad.
6. A es un producto de matrices elementales.
Teorema 1.62: Sea A una matriz de orden n . Son equivalentes las afirmaciones:
1. A tiene inversa.
2. AB = AC ⇒ B = C .
3. AB = 0 ⇒ B = 0.
4. La forma de Hermite por columnas de A es la identidad.
Corolario 1.63: Sean A y B matrices de orden n . Son ciertas las afirmaciones:
1. Si AB = I n entonces B = A −1 .
2. Si B A = I n entonces B = A −1 .
8
@Ajarenas Álgebra I
Sea A una matriz de tamaño m × n , ¿cómo calcular matrices invertibles P y Q de orden m y n tal que
P A = H f (A) y AQ = Hc (A)?:
1. Aplicar operaciones elementales por filas a A y a I m :
(A|I m ) −−−−→−−−−→ . . . −−−−→ (H f (A)|E k . . . E 1 )
f i 1 →... f i 2 →... f i k →...
3. Obtenemos P = E k . . . E 1 y Q = F1 . . . Fh .
Proposición 1.65: Sean A y B matrices del mismo tamaño. Son ciertas las afirmaciones:
1. A ∼ f B ⇔∃P invertible tal que P A = B .
2. A ∼c B ⇔∃Q invertible tal que AQ = B .
3. A ∼ B ⇔∃P,Q invertibles tales que P AQ = B .
Cálculo de matrices invertibles P, Q tales PAQ = B
1. Se calcula P 1 invertible tal que P 1 A = H f (A).
2. Se calcula Q 1 invertible tal que H f (A)Q 1 = H (A).
3. Se calcula P 2 invertible tal que P 2 B = H f (B ).
4. Se calcula Q 2 invertible tal que H f (B )Q 2 = H (B ).
5. Entonces P = P 2−1 P 1 y Q = Q 1Q 2−1 son matrices invertibles tales que P AQ = B ya que H (A) =
H (B ) ⇒ H f (A)Q 1 = H f (B )Q 2 ⇒ P 1 AQ 1 = P 2 BQ 2 ⇒ P 2−1 P 1 AQ 1Q 2−1 = B .
Cálculo de la matriz inversa usando el método de Gauss
1. Cálculo de la inversa de A con operaciones elementales de filas:
Transformamos (A|I n ) mediante operaciones elementales de filas en la matriz (I n |P ) tal que
P A = In :
(A|I n ) −−−−→ . . . −−−−→ (I n |A −1 )
f i 1 →... f i k →...
2. Cálculo de la inversa
³ ´ de A con operaciones elementales de columnas: ³ ´
Transformamos IAn mediante operaciones elementales de columnas en la matriz IQn tal que
AQ = I n :
A In
µ ¶ µ ¶
−−−−→ . . . −−−−−→ −1
I n c j1 →... c j h →... A
Definición : Sea A m×n :
Una inversa por la izquierda de A es una matriz X n×m tal que X A = I n .
Una inversa por la derecha de A es una matriz Yn×m tal que AY = I m .
Proposición 1.69: Una matriz A m×n tiene inversa por la izquierda ⇔r g (A) = n y tiene inversa por la
derecha ⇔r g (A) = m . Si r g (A) = m = n entonces A −1 coincide con la única inversa por la izquierda
y con la única inversa por la derecha.
9
@Ajarenas Álgebra I
B Definición : Sea A una matriz de orden n y sea A i j la submatriz de A de orden n −1 que se obtiene
eliminando la fila i y la columna j de A . Llamamos menor adjunto del elemento ai j de A al escalar:
αi j = (−1)i + j d et (A i j )
Proposición 1.73: Si A es una matriz triangular superior de orden n entonces d et (A) = a11 a22 . . . ann .
Lema 1.79: Sean A, B,C tres matrices que se diferencian únicamente en su fija j , siendo la fila j de A
igual a la suma de las filas j de B y C . Entonces d et (A) = d et (B ) + d et (C ).
10
@Ajarenas Álgebra I
- Teorema 1.84: Sean A y B dos matrices de orden n . Son ciertas las afirmaciones:
1. d et (A) 6= 0 ⇔A es invertible.
2. d et (AB ) = d et (A)d et (B ).
3. d et (A) = d et (A t ).
Proposición 1.85: El determinante de una matriz A de orden n se puede calcular según la fórmula de
Laplace del determinante por la primera fila:
n
a 1 j α1 j
X
d et (A) =
j =1
Observación :
Si A es una matriz triangular inferior de orden n entonces d et (A) = a11 a22 . . . ann .
Si A −−−−→ B entonces d et (B ) = −d et (A).
c k ↔c h
Si A −−−−−−−−→ B entonces d et (B ) = d et (A).
c k →c k +αc h
Si A −−−−−→ B entonces d et (B ) = αd et (A).
c k →αc k
Si A tiene dos columnas iguales entonces d et (A) = 0.
Si A tiene una columna nula entonces d et (A) = 0.
Si A, B,C se diferencian únicamente en su columna j , siendo la columna j de A igual a la suma
de las columna j de B y C . Entonces d et (A) = d et (B ) + d et (C ).
Teorema 1.86: El determinante de una matriz A de orden n se puede calcular según las fórmulas de
Laplace del determinante por la fila i o por la columna j:
n n
a i j αi j a i j αi j
X X
d et (A) = d et (A) =
j =1 i =1
Corolario 1.90: Si A es una matriz de orden n triangular superior (inferior) por bloques tal que las
matrices A 1 , A 2 , . . . , A n situadas en su diagonal principal son cuadradas, entonces
d et (A) = d et (A 1 )d et (A 2 ) . . . d et (A n )
11
@Ajarenas Álgebra I
Definición : Sea A es una matriz de orden n . Se llama matriz adjunta de A a la matriz Ad j (A) = (αi j )
donde αi j es el menor adjunto del elemento ai j de A .
Observación : t
α11 α1n
...
Ad j (A)t 1 .. .. ..
A −1 = = . . .
d et (A) d et (A)
αn1 ... αnn
Lema 1.95: Sea A ∈ Mm×n (K) y P una submatriz de A de orden m − 1 y rango m − 1. Si r g (A) = m
entonces A tiene una submatriz de orden m y rango m que contiene a P .
Proposición 1.96: Sea A ∈ Mm×n (K) y P una submatriz de A de orden p −1 y rango p −1. Si r g (A) ≥ p
entonces A tiene una submatriz de orden p y rango p que contiene a P .
Si r g (Q p+1 ) = p +1 entonces Q p+1 tiene una submatriz A p+1 de orden p +1 y rango p +1 que contiene
a Ap .
Si r g (Q p+1 ) = p , la fila (C D) es dependiente de las filas de (A p B ). Eliminamos la fila (C D) de Q ,
escogemos otra fila y procedemos de igual forma. Si para ninguna de las filas añadidas encontramos
una matriz de rango p + 1 entonces Q tiene rango p .
12
@Ajarenas Álgebra I
2. Sistemas lineales
Un sistema lineal cumple que b1 , . . . , bn , a11 , . . . , a1n , am1 , . . . , amn son elementos de K, mientras que
x 1 , . . . , x n son las incógnitas. Una lista ordenada (s 1 , . . . , s n ) de n elementos de K es una solución del
sistema lineal A si es solución de cada una de sus m ecuaciones lineales. La solución general del
sistema es el conjunto formado por todas las soluciones del sistema.
13
@Ajarenas Álgebra I
Teorema 2.5: Dos sistemas lineales con matrices ampliadas equivalentes por filas son sistemas equi-
valentes.
Teorema 2.6: Un sistema lineal puede tener cero, una o infinitas soluciones.
14
@Ajarenas Álgebra I
2. (A|B ) tiene m ≤ n pivotes. Los pivotes se encontrarán en (1, j 1 ), (2, j 2 ), . . . , (m, j m ) con 1 ≤ j 1 <
j 2 < . . . < j m ≤ n . Sea el conjunto {k 1 , . . . , k n−m } = {1, . . . , n}\{ j 1 , . . . , j m }, ∀i = 1, . . . , m , la ecuación
de la fila i permite despejar x ji en función de x k1 , . . . , kn−m , obteniendo x ji = f i (x k1 , . . . , x kn−m ).
La solucion general será de la forma x k1 = α1 , . . . , x kn−m = αn−m , x j1 = f 1 (α1 , . . . , αn−m ), . . . , x jm =
f h (α1 , . . . , αn−m ). Por tanto, A es compatible indeterminado.
Teorema 2.11: Sea A un sistema lineal escalonado con n incógnitas y sea (A|B ) su matriz ampliada.
1. Si (A|B ) tiene un pivote en la última columna, entonces A es incompatible.
2. Si (A|B ) no tiene un pivote en la última columna y si además
a) (A|B ) tiene n pivotes, entonces A es compatible determinado.
b) (A|B ) tiene menos de n pivotes, entonces A es compatible indeterminado.
Teorema 2.13: Teorema de Rouche-Fröbenius
Sea A un sistema lineal con n incógnitas y sea (A|B ) su matriz ampliada.
1. A es incompatible ⇔r g (A) < r g (A|B ).
2. A es compatible determinado ⇔r g (A) = r g (A|B ) = n .
3. A es compatible indeterminado ⇔r g (A) = r g (A|B ) < n .
Corolario 2.16: Un sistema lineal AX = B con A de orden n tiene solución única ⇔A es invertible.
15
@Ajarenas Álgebra I
16
@Ajarenas Álgebra I
3. Espacios vectoriales
tal que (V, +) es un grupo abeliano, cumpliéndose las siguientes propiedades ∀u, v, w ∈ V :
1. Conmutativa: u + v = v + u .
2. Asociativa: u + (v + w) = (u + v) + w .
3. Existencia de elemento neutro, 0 ∈ V , tal que u + 0 = u .
4. Existencia de elemento opuesto, −u ∈ V , tal que u + (−u) = 0.
En V está definida una operación externa (producto por escalares)
· : K × V −→ V
(α, u) 7→ α · u
17
@Ajarenas Álgebra I
3.3. Bases
Teorema 3.18: Todas las bases de un espacio vectorial finito V tienen igual número de vectores.
Proposición 3.20: Sea V un espacio vectorial de dimensión n . Son ciertas las afirmaciones:
1. Un sistema generador de V tiene como mínimo n vectores.
2. Un conjunto de vectores linealmente independientes de V tiene como máximo n vectores.
3. Todo sistema generador de V de n vectores es una base de V .
4. Todo conjunto de n vectores linealmente independientes de V es una base de V .
Observación : Todo sistema generador contiene un subconjunto que es una base.
18
@Ajarenas Álgebra I
Definición : Sea V un K-espacio vectorial de dimensión n . Fijada una base B de V se puede operar
con los vectores de V mediante el uso de sus coordenadas respecto de B como si fueran vectores de
Kn . Dado que las coordenadas de un vector son únicas, se define la biyeccion
V −→ Kn
x = (x 1 , . . . , x n )B 7→ (x 1 , . . . , x n )
Definición : Sea B una base de un espacio vectorial V de dimensión n . Dado un conjunto de vectores
{v 1 , . . . , v m } con v i = (v i 1 , . . . , v i n )B para i = 1, . . . , m , se definen:
La matriz de coordenadas de {v 1 , . . . , v n } respecto de B por filas a la matriz
v1 v 11 ... v 1n
.. = .. ..
..
MB
. . . .
vm v m1 ... v mn
v 1n ... v mn
Proposición 3.34: Sea B una base de un espacio vectorial V y sean v 1 , . . . , v m ∈ V , se cumple que:
v1
.
r g {v 1 , . . . , v m } = r g MB .. = r g MB {v 1 , . . . , v m }
vm
Por otra parte, se puede escribir cada vector de B como combinación lineal de los elementos de B 0 :
v 1
= a 11 v 10 + · · · + a 1n v n0
..
.
= a n1 v 10 + · · · + a nn v n0
v
n
19
@Ajarenas Álgebra I
Y, por tanto:
u = x1 v 1 + · · · + xn v n
= x 1 (a 11 v 10 + · · · + a 1n v n0 ) + · · · + x n (a n1 v 10 + · · · + a nn v n0 )
= (a 11 x 1 + · · · + a n1 x n )v 10 + · · · + (a 1n x 1 + · · · + a nn x n )v n0
.
= x n0
a
1n x 1 + · · · + a nn x n
Observación :
MBB 0 = MB 0 {v 1 , . . . , v m } ⇒ r g (MBB 0 ) = n ⇒ MBB 0 es invertible.
MBB 0 X = X 0 ⇒ M−1 −1 0 −1
BB 0 MBB 0 X = MBB 0 X ⇒ X = MBB 0 X
0
MB 0 B = M−1
BB 0
Proposición 3.38: Si A, B y C son tres bases de un espacio vectorial, entonces MAB = MCB MAC .
20
@Ajarenas Álgebra I
Proposición 3.45: Sea S un conjunto no vacío de vectores de V . Son ciertas las afirmaciones:
1. L(S) es el menor subespacio vectorial de V que contiene a S .
2. Si S es un subespacio vectorial de V entonces L(S) = S .
3. Si R es tal que S ⊆ R ⊆ V entonces L(S) ⊆ L(R) ⊆ L(V ).
Definición : Un sistema generador de un subespacio vectorial U de V es un conjunto {v 1 , . . . , v m } de
vectores de U tal que L(v 1 , . . . , v m ) = U .
Teorema 3.49: Si los conjuntos de vectores R y S son equivalentes entonces L(R) = L(S).
.
u
m = a m1 v 1 + · · · + a mn v n
Por otra parte, se puede escribir cada vector x ∈ U como combinación lineal de los elementos de B :
x = x1 v 1 + · · · + xn v n
Y, como x ∈ U :
x = λ1 u 1 + · · · + λm u n
= λ1 (a 11 v 1 + · · · + a 1n v n ) + · · · + λm (a m1 v 1 + · · · + a mn v n )
= (λ1 a 11 + · · · + λm a m1 )v 1 + · · · + (λ1 a 1n + · · · + λm a mn )v n
Definición : Una ecuaciones paramétricas del subespacio U respecto de la base B son cualquiera de
las expresiones (3.7.1), (3.7.2) o (3.7.3).
21
@Ajarenas Álgebra I
Definición : Una ecuaciones implícitas del subespacio U respecto de la base B son una colección de
r = n − m ecuaciones lineales homogéneas no redundantes en las variables x 1 , . . . , x n
α11 x 1 + · · · + α1n x n = 0
..
.
α x + · · · + α x
=0
r1 1 rn n
Teorema 3.55: La solución general de un sistema lineal homogéneo AX = 0 con n incógnitas y coefi-
cientes en K es un subespacio vectorial de Kn de dimensión n − r g (A).
es un subespacio vectorial de V .
- Teorema 3.62: Sean V1 , . . . ,Vm subespacios vectoriales de V . Son equivalentes las afirmaciones:
1. V1 + · · · + Vm es suma directa.
2. Vi ∩ (V1 + · · · + Vi −1 + Vi +1 + · · · + Vm ) = {0} para cada i = 1, . . . , m .
3. Si v 1 + · · · + v m = 0 con v j ∈ V j entonces v 1 = · · · = v m = 0.
Observación : V1 + V2 es suma directa ⇔V1 ∩ V2 = 0.
Lema 3.64: Sea Bi una base del subespacio vectorial Vi de V para i = 1, . . . , m . Es cierto que:
1. B1 ∪ · · · ∪ Bm es sistema generador de V1 + · · · + Vm .
2. V1 + · · · + Vm es suma directa ⇔B1 ∪ · · · ∪ Bm es una base de V1 + · · · + Vm .
3. V1 + · · · + Vm es suma directa ⇔d i m(V1 + · · · + Vm ) = d i m(V1 ) + · · · + d i m(Vm ).
Definición : Los subespacios vectoriales U y W son suplementarios en V si U ⊕W = V , o equivalen-
temente, d i m(U ) + d i m(W ) = d i m(U + W ) = d i m(V ).
22
@Ajarenas Álgebra I
Definición : Para cada subespacio vectorial U de V se define la relación binaria ∼U de manera que
dos vectores de V están relacionados si y sólo si su diferencia es un vector de U : v ∼U w ⇔w − v ∈ U .
Observación : El espacio cociente V /U con la operación interna suma y la operación externa producto
por un escalar tiene estructura de K-espacio vectorial.
Además, si {v k+1 , . . . , v n } es un conjunto de vectores que extiende cualquier base de U a una base de
V entonces {v k+1 +U , . . . , v n +U } es una base de V /U .
23
@Ajarenas Álgebra I
24