Tema III - Resumen

Descargar como pdf o txt
Descargar como pdf o txt
Está en la página 1de 10

Equipo Docente 25

3 TEMA III: MÁS SOBRE MATRICES. DETERMINANTES

Conceptos clave más importantes Transformación elemental por columnas


• Submatriz • Matriz triangular (superior e inferior) • Matriz ortogonal • Matriz
simétrica y matriz antisimétrica • Matriz idempotente y matriz nilpotente • Inversa
por la izquierda e inversa por la derecha • Matriz dada por bloques • Matriz positiva
y matriz estrictamente positiva • Estructura productiva lineal: coeficiente técnico •
Matriz productiva • Estructura productiva de subsistencia • Conjunto autónomo y
producto fundamental • Matriz indescomponible y matriz descomponible (no com-
pletamente descomponible, o completamente descomponible) • Determinante de or-
den 2 y de orden 3 • Desarrollo de un determinante por los términos de una fila o
columna • Determinante de orden n • Adjunto y matriz adjunta • Sistema de ecua-
ciones lineales de Cramer

Resumen del tema

Transformaciones elementales por columnas  Se denominan transforma-


ciones elementales por columnas de una matriz, de tipo i, ii y iii, respectivamente,
a estos tipos de transformaciones:
• intercambiar dos columnas: Ci ↔ Cj ;
• multiplicar una columna por un número no nulo:
Ci ← λCi (con λ ≠ 0);
• sumar a una columna un múltiplo de otra:
Ci ← Ci + αCj .

 Transformaciones elementales por columnas inversas y matrices elementales por


columnas se definen, mutatis mutandis, como en el caso de las transformaciones
elementales por filas.
Dada una matriz de m columnas, se obtiene el mismo resultado llevando a cabo
una transformación elemental por columnas que multiplicando, por la derecha, por
la matriz elemental de orden m asociada a la transformación elemental.
Si aplicamos una transformación elemental por columnas a una matriz, la matriz
resultante tiene el mismo rango que la original.

 Si dos sistemas de ecuaciones lineales son tales que la matriz ampliada de uno
es el resultado de ejecutar una transformación elemental por columnas en la matriz
ampliada del otro, pero de forma que no se vea afectada la última columna (la de
los términos independientes), entonces ambos sistemas son de la misma clase en lo
que a su discusión se refiere (ambos son incompatibles, o ambos son compatibles
determinados, o ambos son compatibles indeterminados).

Universidad Nacional de Educación a Distancia


26 Matemáticas I (Grado de ADE)

 Dada una matriz A de orden (n, m), y dados dos números naturales p y q con 0 
p  n − 1 y 0  q  m − 1, al suprimir p filas de A y q columnas de A, queda una
nueva matriz, la cual es de orden (n − p, m − q); de esta nueva matriz decimos que
es una submatriz de la matriz A.
El rango de una matriz es mayor o igual que el rango de sus submatrices.
 
Más tipos de matrices  Dada una matriz cuadrada A = aij , de orden n, deci-
mos que A es triangular superior si aij = 0 siempre que i > j (para cada 1  i  n y
cada 1  j  n); es decir: todos los términos que quedan estrictamente “por debajo”
de la diagonal principal son nulos. Y decimos que A es triangular inferior si aij = 0
siempre que i < j (para cada 1  i  n y cada 1  j  n); esto es: todos los términos
que quedan estrictamente “por encima” de la diagonal principal son nulos.
Propiedades:
• si dos matrices cuadradas del mismo orden son triangulares superiores, tam-
bién lo son su suma y su producto, así como el producto de cualquiera de ellas
por un número;
• si una matriz invertible es triangular superior, su inversa también es triangular
superior.
Estas propiedades también son válidas para matrices triangulares inferiores.

 Una matriz cuadrada A es simétrica si At = A, y es antisimétrica si At = −A.


(Una matriz antisimétrica tiene nulos, pues, los términos de la diagonal principal.)
Propiedades:
• si dos matrices cuadradas del mismo orden son simétricas, también lo son su
suma y el producto de cualquiera de ellas por un número, y también lo es el
producto de las dos si las matrices conmutan;
• si una matriz simétrica es invertible, su inversa también es simétrica.
Estas propiedades también son válidas para matrices antisimétricas.
Dada una matriz cuadrada A, existen dos únicas matrices S y T tales que A =
S + T , siendo S simétrica y T antisimétrica. Las matrices S y T vienen dadas por:
1 1
S= (A + At ) y T = (A − At ),
2 2
y se denominan parte simétrica y parte antisimétrica de la matriz A, respectiva-
mente.

 Una matriz A, cuadrada de orden n, es ortogonal si verifica: AAt = At A = In , es


decir: A−1 = At .
Propiedades:
• si dos matrices cuadradas del mismo orden son ortogonales, también lo es su
producto (pero no necesariamente su suma o su producto por un número);

Universidad Nacional de Educación a Distancia


Equipo Docente 27

• la inversa de una matriz ortogonal es invertible.

 Una matriz cuadrada A es idempotente si AA = A (o bien: A2 = A), y es nilpo-


tente si AA = O (o A2 = O).
Propiedades:
• si dos matrices cuadradas del mismo orden son idempotentes y conmutan, tam-
bién es idempotente su producto;
• la única matriz idempotente que es regular (o lo que es equivalente: invertible)
es la identidad;
• la traspuesta de una matriz idempotente es también idempotente;
• cualquier matriz nilpotente es singular (o lo que es lo mismo: no invertible).

 Dada una matriz A de orden (n, m), una inversa por la izquierda de la matriz A
es una matriz B de orden (m, n) tal que BA = Im .
Propiedades:
• una condición necesaria y suficiente para que una matriz admita inversa por la
izquierda es que su rango sea igual al número de columnas;
• si una matriz A tiene su rango igual al número de columnas, entonces la ma-
−1
triz (At A) At es una inversa por la izquierda de A;
• si una matriz A admite inversa por la izquierda y es cuadrada, entonces su
inversa por la izquierda es única y es precisamente la inversa A−1 ;
• si una matriz A admite una inversa por la izquierda B, entonces todas las inver-
sas por la izquierda de A se pueden obtener “dando valores” a la matriz D (del
mismo orden que B) en la siguiente expresión B + D − DAB.

 Dada una matriz A de orden (n, m), una inversa por la derecha de la matriz A
es una matriz C de orden (m, n) tal que AC = In .
Propiedades:
• afirmar que una matriz C es una inversa por la derecha de una matriz A es
lo mismo que afirmar que la matriz C t es una inversa por la izquierda de la
matriz At ;
• una condición necesaria y suficiente para que una matriz admita inversa por la
derecha es que su rango sea igual al número de filas.

 Una matriz dada por bloques, o una matriz particionada, es una matriz en la que
se han distinguido ciertas submatrices trazando alguna o algunas rayas horizontales
o verticales (o de ambos tipos simultáneamente), las cuales se extienden a lo largo de
filas o columnas enteras.
Podemos sumar dos matrices dadas por bloques en tanto tengan la misma estruc-
tura de bloques, y la suma se efectúa como si los bloques fueran términos individua-
les. El producto también se puede efectuar de esta manera si los bloques son matrices

Universidad Nacional de Educación a Distancia


28 Matemáticas I (Grado de ADE)

del orden adecuado.


Dada la matriz por bloques:
⎛ ⎞
A11 A12
A=⎝ ⎠,
A21 A22

que suponemos cuadrada y con los bloques A11 y A22 a su vez matrices cuadradas,
se verifica: si la matriz A es invertible y también lo son los bloques A11 y A22 , y si a
su vez son invertibles las matrices D1 = A11 − A12 A−1 −1
22 A21 y D2 = A22 − A21 A11 A12,
entonces: ⎛ ⎞
D1−1 −A−1 −1
11 A12D2
A −1
=⎝ ⎠.
−A−1 −1
22 A21 D1 D2−1
Caso particular:
⎛ ⎞−1 ⎛ ⎞
A11 A12 A−1
11 −A−1 −1
11 A12 A22
⎝ ⎠ =⎝ ⎠.
O A22 O A−1
22
Una matriz diagonal por bloques es una matriz cuadrada que se puede parti-
cionar así: ⎛ ⎞
A11 O ... O
⎜ ⎟
⎜ O A22 ... O ⎟
⎜ ⎟
⎜ .. .. .. .. ⎟ ,
⎜ . . ⎟
⎝ . . ⎠
O O ... Ann
donde los bloques A11, A22, . . . , Ann son a su vez matrices cuadradas (no necesaria-
mente del mismo orden), y cada bloque fuera de la diagonal principal es una matriz
nula.
Si en la matriz diagonal por bloques anterior son invertibles las matrices cuadra-
das A11 , A22, . . . , Ann , entonces la matriz es invertible, y su inversa toma esta forma:
⎛ ⎞
A−1 O ... O
⎜ 11 ⎟
⎜ ⎟
⎜ O A−1 ... O ⎟
⎜ 22

⎜ . .. .. ⎟ .
⎜ . .. ⎟
⎜ . . . . ⎟
⎝ ⎠
O O . . . A−1
nn

Matrices positivas  Una matriz positiva es una matriz en la que todos sus tér-
minos son números mayores o iguales que 0. Si una matriz A es positiva, se es-
cribe: A  O, o bien: O  A. Dadas dos matrices A y B, escribir A  B significa
escribir B − A  O.
Una matriz estrictamente positiva es una matriz cuyos términos son números
positivos. Si una matriz A es estrictamente positiva, se escribe: A > O, o bien: O < A.
Dadas dos matrices A y B, escribir A < B significa: B − A > O.
Propiedades:

Universidad Nacional de Educación a Distancia


Equipo Docente 29

• una matriz puede ser positiva y no nula, y sin embargo no ser estrictamente
positiva (a diferencia de los números, para los cuales escribir que a  0 y a ≠ 0
implica que a > 0);
• el producto de dos matrices positivas es una matriz positiva;
• el producto de dos matrices estrictamente positivas es una matriz estricta-
mente positiva;
• el producto de dos matrices, una estrictamente positiva y la otra positiva e
invertible, es una matriz estrictamente positiva.

 Consideramos una estructura productiva descrita por un modelo lineal, con n


bienes y n industrias, donde cada bien es producido por una sola industria, y cada
industria produce un solo bien.

 aij  0 del
En este contexto, se define un coeficiente técnico como la cantidad
bien i necesaria para producir una unidad del bien j. La matriz A = aij se deno-
mina matriz de coeficientes técnicos, y es cuadrada de orden n y positiva.
 También

se define la matriz de producción: es la matriz columna positiva X = xi , de or-
den (n, 1), donde cada xi  0 es la cantidad del bien i producida. Por otra parte, el
consumo intermedio del bien i es la suma:
n
ai1 x1 + ai2 x2 + · · · + ain xn = aij xj .
j=1

Y, finalmente,
  se define la matriz de demanda final: es la matriz columna positi-
va Y = yi , de orden (n, 1), donde cada yi  0 es la demanda final del bien i.
Con estas notaciones, se verifica: AX + Y = X; es decir, las cantidades producidas
en la estructura productiva se utilizan de dos formas diferentes: consumo intermedio
y demanda final.

Matrices productivas  Decimos que una matriz A, cuadrada y positiva, es pro-


ductiva si existe una matriz columna X, estrictamente positiva, para la cual se verifica
que X − AX > O.
Condición necesaria y suficiente: A es productiva precisamente si (I − A) es inver-
tible y (I − A)−1 es positiva.
Propiedades: la traspuesta de una matriz productiva es también una matriz pro-
ductiva; una matriz positiva nilpotente es productiva.
Interpretación: si la matriz de coeficientes técnicos de una estructura productiva
es una matriz productiva, entonces puede ser atendida cualquier demanda final.

 Decimos que la estructura productiva representada por una matriz A de coefi-


cientes técnicos es de subsistencia si existe una matriz columna X, positiva y no
nula, tal que AX = X.

Universidad Nacional de Educación a Distancia


30 Matemáticas I (Grado de ADE)

En una estructura productiva de subsistencia, el total de la producción se dedica


exclusivamente al consumo intermedio.
Propiedad: si A es la matriz de coeficientes técnicos de una estructura productiva
de subsistencia, entonces A no es productiva.

Conjuntos autónomos  Consideramos una matriz A, cuadrada de orden n y


positiva, y definimos el conjunto S = {1, 2, . . . , n}. Un conjunto T ⊆ S es un conjunto
autónomo para la matriz A si se cumple una de estas dos condiciones: o bien T = S,
o bien T ≠ S y aij = 0 para cada i ∈ S − T y cada j ∈ T . Es decir: no se necesitan los
bienes de S − T para producir los bienes de T .

 En este contexto, dado un bien j ∈ S, se denota por M(j) el conjunto formado


por el bien j y aquellos bienes que son directa o indirectamente necesarios para la
producción del bien j.
Para el cálculo efectivo del conjunto M(j), se escribe el bien j, y se enlaza con los
bienes que son directamente necesarios para producirlo (es decir, con sus inputs), y
estos con los que son directamente necesarios para producirlos, y así sucesivamente.
Propiedades: cada conjunto M(j) es autónomo, y es el menor conjunto autónomo
al que el bien j pertenece.

 Un producto fundamental es un bien que es utilizado, directa o indirectamente,


en la producción de cada uno de los bienes; es decir, es un bien que pertenece a todos
los conjuntos M(i) para cada i ∈ S = {1, 2, . . . , n}.
Propiedad: el conjunto de los productos fundamentales, si no es vacío, es autó-
nomo y está contenido en cualquier conjunto autónomo.

Matrices indescomponibles y matrices descomponibles  Decimos que una


matriz, cuadrada de orden n y positiva, es una matriz indescomponible (o irre-
ducible) si todos los bienes son productos fundamentales; en otras palabras: el único
conjunto autónomo que admite es S = {1, 2, . . . , n}.
Propiedad: la traspuesta de una matriz indescomponible es indescomponible.

 Decimos que una matriz, cuadrada y positiva, es una matriz descomponible (o


reducible) si no es indescomponible, es decir, si existe algún bien que no es producto
fundamental.
De una matriz descomponible para la cual existen productos fundamentales dec-
imos que es una matriz no completamente descomponible. Si se reordenan los bie-
nes de forma que los primeros bienes sean los productos fundamentales, la matriz
de coeficientes técnicos se puede escribir así:

B11 B12
,
O B22

Universidad Nacional de Educación a Distancia


Equipo Docente 31

donde la submatriz B11 , que es cuadrada, es una matriz indescomponible.


De una matriz descomponible para la cual no existen productos fundamentales
decimos que es una matriz completamente descomponible. Caracterización: una
matriz es completamente descomponible precisamente si admite dos conjuntos au-
tónomos disjuntos (esto es, sin elementos comunes). Si se reordenan los bienes de
forma que los primeros bienes sean los de uno de los dos conjuntos autónomos dis-
juntos, seguidos de los del otro, la matriz de coeficientes técnicos se puede escribir
así:
⎛ ⎞
B11 O B13
⎜ ⎟
⎝ O B22 B23 ⎠ ,
O O B33

donde las submatrices B11 y B22 son cuadradas.

Definición de determinante  Consideramos una matriz cuadrada A. El deter-


minante de la matriz A es un número que se define a partir de sus términos. Se
denota por det(A), o también: |A|; si se escribe la matriz detallando sus términos, se
designa su determinante sustituyendo los paréntesis por barras verticales.
 
El determinante de una matriz cuadrada A = aij de orden 2 se define de esta
forma:

a11 a12
det(A) = = a11 a22 − a12 a21 .
a21 a22

 Para generalizar la definición a matrices cuadradas de cualquier orden, conside-


ramos una matriz A, cuadrada de orden n, y fijamos 1  i  n y 1  j  n. Se
denota por Aij la submatriz de la matriz A que resulta al suprimir en la matriz A
la fila i-ésima y la columna j-ésima; la matriz Aij es cuadrada de orden n − 1, y se
denomina matriz complementaria en la matriz A del término aij . Si A es esta matriz
(donde están señaladas la fila i-ésima y la columna j-ésima):

⎛ ⎞
a11 a12 ... a1j ... a1n
⎜ ⎟
⎜ a21 a22 ... a2j ... a2n ⎟
⎜ ⎟
⎜ . .. .. .. .. .. ⎟
⎜ .. . . . ⎟
⎜ . . ⎟
A=⎜ ⎟,
⎜ ai1 ai2 ... aij ... ain ⎟
⎜ ⎟
⎜ . .. .. .. .. .. ⎟
⎜ . . . ⎟
⎝ . . . . ⎠
an1 an2 ... anj ... ann

Universidad Nacional de Educación a Distancia


32 Matemáticas I (Grado de ADE)

entonces la matriz complementaria Aij es igual a:

⎛ ⎞
a11 ... a1(j−1) a1(j+1) ... a1n
⎜ . ⎟
⎜ . .. .. .. .. .. ⎟
⎜ . . . . . . ⎟
⎜ ⎟
⎜a a(i−1)n⎟
⎜ (i−1)1 ... a(i−1)(j−1) a(i−1)(j+1) ... ⎟
⎜ ⎟.
⎜a(i+1)1 ... a(i+1)(j−1) a(i+1)(j+1) ... a(i+1)n⎟
⎜ ⎟
⎜ . .. .. .. .. .. ⎟
⎜ .. . . ⎟
⎝ . . . ⎠
an1 ... an(j−1) an(j+1) ... ann

Se denomina adjunto, o cofactor, en la matriz A del término aij (el término que
ocupa la posición (i, j)) al número αij = (−1)i+j det(Aij ).
 
 El determinante de una matriz cuadrada A = aij de orden 3 se define de esta
forma:
a11 a12 a13
det(A) = a21 a22 a23 = a11 α11 + a12 α12 + a13 α13 .
a31 a32 a33

Es decir: cada término de la primera fila se multiplica por su adjunto, y se suman


estos productos. Si desarrollamos la expresión anterior, queda:

a11 a12 a13


a21 a22 a23 = a11 a22 a33 − a11 a23 a32 − a12 a21 a33
a31 a32 a33

+ a12 a23 a31 + a13 a21 a32 − a13 a22 a31 .

Un método práctico para calcular esta expresión (solo válido para el orden 3) es la
regla de SARRUS: colocamos “encima del determinante” su tercera fila, y “debajo” su
primera fila:
a31 a32 a33
a11 a12 a13
a21 a22 a23 ,
a31 a32 a33
a11 a12 a13

y escribimos y sumamos todos los productos posibles de tres términos en diagonal,


anteponiendo el signo + a los orientados de la forma:  , y el signo − a los orientados
de la forma:  .
 
 El determinante de una matriz cuadrada A = aij de orden n se define de esta

Universidad Nacional de Educación a Distancia


Equipo Docente 33

manera:

a11 a12 ... a1n


a21 a22 ... a2n
det(A) = .. .. .. ..
. . . .
an1 an2 ... ann

= a11 α11 + a12 α12 + · · · + a1n α1n.

De nuevo: cada término de la primera fila se multiplica por su adjunto, y se suman


estos productos.

Propiedades de los determinantes  En el enunciado de estas propiedades, las


matrices involucradas son cuadradas del mismo orden:
• el determinante de una matriz coincide con el determinante de su traspuesta,
esto es: det(A) = det(At );
• el determinate de una matriz identidad es igual a 1: det(In ) = 1;
• el determinante de una matriz diagonal, o el de una matriz triangular (tanto
superior como inferior), es igual al producto de los términos de su diagonal
principal;
• el valor del determinante de una matriz cambia de signo si se intercambian dos
filas o dos columnas;
• si todos los términos de una fila (o de una columna) de una matriz se multipli-
can por un mismo número, entonces el valor del determinante queda multipli-
cado por tal número;
• el valor del determinante de una matriz no varía si a una fila (o a una columna)
de la matriz se le suma un múltiplo de otra fila (o columna);
• el determinante de una matriz es nulo precisamente si una de sus filas (o colum-
nas) es igual a una suma de múltiplos de las restantes filas (o columnas); en
particular, el determinante es nulo si una fila (o una columna) es nula, o si dos
filas (o dos columnas) son iguales;
• el determinante de un producto de matrices es igual al producto de los deter-
minantes; en símbolos:: det(AB) = det(A) det(B);
• el determinante de una matriz es no nulo precisamente si la matriz es regular
(es decir, de rango máximo), o lo que es lo mismo: el determinante de una
matriz es no nulo precisamente si la matriz es invertible; en símbolos: siendo A
cuadrada de orden n, se tiene: det(A) ≠ 0 ⇐⇒ rango A = n;
• el determinante puede calcularse de esta forma: se elige cualquier fila (o colum-
na), y se multiplica cada uno de sus términos por su adjunto: el determinante es
la suma de estos productos (es decir, no es necesario efectuar estas operaciones

Universidad Nacional de Educación a Distancia


34 Matemáticas I (Grado de ADE)

a partir de los términos de la primera fila —como marca la definición—: se


puede a partir de los términos de cualquier otra fila o a partir de los de una
columna); en símbolos, si 1  i  n: det(A) = ai1 αi1 + ai2 αi2 + · · · + ain αin
(expresión del desarrollo del determinante por los términos de la fila i-ésima);
también, si 1  j  n: det(A) = a1j α1j + a2j α2j + · · · + anj αnj (expresión del
desarrollo del determinante por los términos de la columna j-ésima);
• si la matriz A es invertible: det(A−1 ) = 1/ det(A).

Aplicaciones de los determinantes  Cálculo del rango de una matriz. El rango


de una matriz no nula de cualquier orden (no necesariamente cuadrada) coincide con
el mayor de los órdenes de sus submatrices cuadradas de determinante no nulo.

 Cálculo de la inversa de una matriz cuadrada. La matriz adjunta de una matriz A,


cuadrada de orden n, es la matriz, también cuadrada de orden n, cuyo término de
posición (i, j) (con 1  i  n y 1  j  n) es igual al adjunto en la matriz
 A

∗ ∗ ∗
del término aji (el de posición (j, i)). Se denota por A . Es decir, si A = αij ,
entonces α∗
ij = αji = (−1)
j+i
det(Aji ).
Si A es una matriz cuadrada invertible (con lo que det(A) ≠ 0), se tiene:

1
A−1 = A∗ .
det(A)

 Sistemas de CRAMER. Un sistema de CRAMER es un sistema de ecuaciones lineales


con igual número de ecuaciones que de incógnitas, y tal que la matriz de coeficientes
tiene determinante no nulo. Un sistema de Cramer es compatible determinado.
Regla de CRAMER. Dado un sistema de Cramer, con n ecuaciones y n incógnitas,
y con matriz de coeficientes A, su solución única es la n-upla (s1 , s2 , . . . , sn ), sien-
do si = det(Ai )/ det(A), donde Ai denota aquí la matriz obtenida al sustituir, en
la matriz de coeficientes A, la i-ésima matriz columna por la matriz de términos
independientes del sistema (ello para cada 1  i  n).

Universidad Nacional de Educación a Distancia

También podría gustarte