Blanco Guillén, María Montaña TFG
Blanco Guillén, María Montaña TFG
Blanco Guillén, María Montaña TFG
GENERALIZADAS
A mi esposo, que en todo momento, desde el primer día de esta andadura, com-
prendió mi pasión y nunca reclamó el tiempo que no pudimos compartir. Gracias por
tu amor y paciencia, y, por creer en mi, por creer en esto.
A mi tutor, que me ha apoyado y guiado para realizar este trabajo, y sin el cual nada
de esto hubiera sido posible. Gracias por su confianza, por todos los conocimientos
que me ha transmitido, por su entera disposición y su infinita paciencia.
A mi familia, que aunque al principio les supuso un reto entender este nuevo
camino que decidí tomar, me han hecho más fuerte aún y más incansable.
A mis compañeros, y a todos y cada uno de los han aportado su granito de arena
para que este sueño vaya tomando cuerpo.
A mis amigas, que casi sin darse cuenta, me renuevan cada día, indispensables en
este camino.
Índice general
English Abstract 1
Introducción 3
1. Preliminares 7
1.4. Matrices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10
2. Inversas Generalizadas 33
ii aplicaciones de las inversas generalizadas
2.2. {1}-inversas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 36
3. Inversa de Bott-Duffin 65
4. Inversa de Drazin 97
In this paper we start out the study of the generalized inverse of a matrix and
some of its applications. These applications appear in different areas where it is nec-
essary the computation of an analogous object to the inverse of a matrix. Mainly, we
set out two problems. The first one is to solve problems of system of linear equations
with constraints, where it is used the Bott-Duffin inverse of a matrix. The second
one is to give a closed formula for the solution of a system of linear differential equa-
tions, and the Drazin inverse is defined to express the solution. Some examples and
bibliographical references are given for each problem.
Introducción
Las aplicaciones de la inversa de una matriz son múltiples, entre ellas, la más co-
nocida sin duda, es su aplicación para el cálculo de las soluciones de un sistema de
ecuaciones lineales.
Con el paso de los años, numerosas áreas han necesitado algún tipo de matriz
inversa de una matriz rectangular o bien de una matriz cuadrada singular, como es,
por ejemplo, en el sector de la estadística, ingeniería, programación lineal, análisis
numérico o ecuaciones diferenciales.
Se han utilizado parte de las ecuaciones matriciales que debía satisfacer la inversa
de Moore-Penrose para definir otro tipo de inversas generalizadas, incorporando ade-
más alguna condición adicional. En 1958 M. P. Drazin, [Dra58], introdujo el concepto
de inverso de Drazin en anillos y semigrupos. Posteriormente, se desarrolló el estudio
de la inversa de Drazin para matrices cuadradas. Esta inversa generalizada, que noso-
tros denotaremos AD , posee algunas de las propiedades espectrales de la inversa de
una matriz no singular, ese es el motivo por el que su utilización se reduce solamente
a matrices cuadradas. Tal y como ocurre con la inversa de Moore-Penrose, la inver-
sa de Drazin es única, pudiendo asegurar siempre su existencia. Para poder definirla
tendremos que tener claro el concepto de índice de una matriz. Como aplicación más
notable de la inversa de Drazin sobresale su empleo en el cálculo de soluciones de
sistemas singulares de ecuaciones diferenciales. No nos debe suponer una desventaja
que su uso se restrinja exclusivamente a matrices cuadradas, ya que, en 1980, Cline
y Greville, [CG80], introdujeron el concepto de inversa de Drazin W -Ponderada, ya
extensible a matrices rectangulares.
Este trabajo está organizado como sigue. En el capítulo 1, se darán algunos con-
ceptos básicos y notaciones que serán de utilidad a lo largo de todo el trabajo, como
por ejemplo la descomposición en valores singulares, la factorización de rango pleno
o la forma canónica de Jordan. En el capítulo 2, se introducirá el concepto de inver-
sa generalizada, probaremos algunas de sus propiedades, y estudiaremos algunos de
sus tipos, como es el caso de las {1}-inversas o las {1, 2}-inversas. En el capítulo 3,
se introduciá, a partir del uso de proyectores ortogonales, el concepto de inversa de
Bott-Duffin, se estudiarán algunas de sus propiedades y veremos su utilidad en la reso-
lución de sistemas de ecuaciones con espacio de soluciones restringido. Se establecerá
una relación entre la inversa de Bott-Duffin y un conjunto de {1, 2}-inversas de cier-
tas matrices. Finalmente se dará paso al estudio de su aplicación en redes eléctricas,
viendo, además, algunos resultados relacionados con el cálculo de valores estaciona-
rios. En el capítulo 4, se introducirá, a partir del concepto de índice de una matriz, la
inversa de Drazin. La obtendremos como resultado de una forma canónica de Jordan.
Para concluir, estudiaremos su aplicación más destacada en el cálculo de soluciones de
sistemas singulares de ecuaciones diferenciales. Se hallarán ejemplos constructivos a
lo largo de todos los capítulos.
sas generalizadas que se definen y sobre sus aplicaciones. El estudio de este impacto
no ha sido realizado exclusivamente a través de “Mathematical Reviews”. La razón
es clara, el propósito de esta investigación no podía estar centrado en una base de
datos exclusivamente matemática, debido a que algunas de las aplicaciones que han
formado parte de esa búsqueda se salen fuera del ámbito de indexado de esa base de
datos; artículos que por ejemplo se centraban en el campo de la física, la química o la
biología, hubieran sido imposibles de encontrar. Por ese motivo se ha complementado
con las aplicaciones "Web of Knowledge" y “Google Académico”.
1 Preliminares
En este capítulo se darán una serie de conceptos y enunciados básicos que serán
utilizados en capítulos posteriores. Para su realización se ha tomado como referencia
[BIG03, capítulos 0,6], [MS09], [Mey00].
xn
x = y + z, donde y ∈ L, z ∈ M.
o lo que es lo mismo,
Cn = L ⊕ L⊥ ,
k k : V −→ R,
que satisface:
Observación 1.1. kuk es interpretado como la longitud del vector u. Por tanto, la
desigualdad (1.3), en R2 , establece que la longitud de cualquier lado de un triángulo
no es mayor que la suma de los otros dos lados del triángulo.
Proposición 1.1 (Desigualdad de Cauchy-Schwartz). Sea (V, < , >) un espacio vec-
torial con producto escalar, y x, y ∈ V . Entonces
Proposición 1.2. Las aplicaciones definidas anteriormente, (1.4), (1.5), (1.6), cumplen
las propiedades (1.1), (1.2), (1.3), y por tanto, podemos afirmar que cada una de ellas
es una norma vectorial. Son denominadas l1 -norma, l2 -norma o norma Euclídea, l∞ -
norma o norma de Tchebycheff, respectivamente.
Definición 1.10. Dado un producto escalar < x, y > y la correspondiente norma
kxk =< x, x >1/2 , el ángulo entre dos vectores x, y ∈ Rn , denotado por ∠{x, y}, está
definido como
< x, y >
cos ∠{x, y} =
kxkkyk
1.4 Matrices
A = (aij )
Cm×n
r [Rm×n ] denota la clase de m × n matrices complejas [reales] de rango r.
Definición 1.11. Se dice que A ∈ Fm×n es una matriz cuadrada si m = n, es decir,
si tiene igual número de filas que de columnas; en otro caso se dirá que A es rectangular.
Definición 1.12. Dada una matriz A ∈ Fm×n , los elementos aii , i = 1, . . . , p; donde
p = mı́n{m, n}, constituyen su diagonal principal.
Definición 1.13. La matriz A ∈ Fm×n será:
Diagonal si todos sus elementos fuera de su diagonal principal son cero, es decir,
si aij = 0, ∀i 6= j.
Triangular superior si todos los elementos por debajo de su diagonal principal
son cero, es decir, si aij = 0, ∀i > j.
Triangular inferior si todos los elementos por encima de su diagonal principal
son cero, es decir, si aij = 0, ∀i < j.
Definición 1.14. Llamaremos matriz identidad de orden n a la matriz cuadrada
In que tiene 1 en los elementos de su diagonal principal y 0 en las restantes posiciones,
es decir,
1 0 ... 0
0 1 ... 0
1, si i = j
δij = , In = .. .. . . .. .
0, en otro caso . . . .
0 0 ... 1
Definición 1.15. Dada una matriz A ∈ Fm×n , llamaremos matriz traspuesta de
A a la matriz B = At ∈ Fn×m , donde bij = aji , ∀i, j. Esto es, si A es la matriz de orden
m×n
a11 a12 · · · a1n
a21 a22 · · · a2n
A =; .. ,
.. . .. .
..
. .
am1 am2 · · · amn
12 aplicaciones de las inversas generalizadas
Ejemplo 1.4.1.-
Sean
1 4 7 1 4 7 1 4 7 + 2i
A= 4 5 8 , B= 2 5 8 , C= 4 5 8 − i .
7 8 9 3 6 9 7 − 2i 8 + i 9
Ejemplo 1.4.2.-
Observación 1.2. En general, toda matriz simétrica real, hermitiana o unitaria, es una
matriz normal.
Definición 1.22. Dada un matriz cuadrada A ∈ Fn×n , se dice que A es idempo-
tente, si A = A2 .
14 aplicaciones de las inversas generalizadas
Ejemplo 1.4.3.-
La matriz
2 −3 −5
A = −1 4 5
1 −3 −4
es idempotente, ya que A = A2 .
Definición 1.23. Dada una matriz cuadrada A ∈ Fn×n , se dice que A es nilpotente,
si existe un número entero positivo p tal que Ap = O.
Definición 1.24. Sea A ∈ Fn×n una matriz nilpotente. Denominaremos índice de
nilpotencia de A al menor entero positivo k tal que Ak = O.
Ejemplo 1.4.4.-
Consideremos la matriz
5 −9 −4
A = 6 −11 −5 .
−7 13 6
Se tiene que:
−1 2 1
A2 = −1 2 1
1 −2 −1
y
0 0 0
A3 = 0 0 0 .
0 0 0
Luego la matriz A es una matriz nilpotente, con índice de nilpotencia igual a 3.
1. preliminares 15
AB = BA = In .
Ejemplo 1.4.5.-
Sea
1 2 3
A = 4 5 6 .
7 8 9
null(T ) = {u ∈ U : T u = 0}.
1. null(A) = C(A∗ )⊥ ,
2. null(A∗ ) = C(A)⊥ .
Como
se tiene que
< x, A∗ y >= 0 ⇒ x⊥A∗ y, ∀y ∈ Cm .
Por tanto,
x⊥C(A∗ ) ⇒ x ∈ C(A∗ )⊥ .
< x, A∗ y >= 0, ∀y ∈ Cm ,
luego
< Ax, y >= 0 ⇒ Ax⊥y, ∀y ∈ Cm ,
Por lo tanto
Ax = 0 ⇒ x ∈ null(A).
Ax = λx.
Definición 1.34. Sea A ∈ Fn×n . Llamaremos espectro, denotado por λ(A), al con-
junto de los autovalores de A.
Definición 1.35. Sean A ∈ Fn×n y λ ∈ C un autovalor de A. Denotaremos por
subespacio propio al conjunto
Vλ = {x ∈ Fn : Ax = λx}
Por tanto
−1
V1 (λ1 ) =< v11 = 0 >.
2
Luego la multiplicidad geométrica asociada al autovalor λ1 = 3 es 1.
• Para λ2 = 2,
V1 (λ2 ) = null(A − λ2 I),
−1 1 −3
(A + 2I) = 20 5 10 .
2 −2 6
Aplicando Gauss-Jordan a la matriz (A + 2I),
−1 1 −3 1 0 1 x1 = −x3
(A+2I) = 20 5 10 G−J 0 1 −2 ⇒ x = 2 x3
2
−−−→
2 −2 6 0 0 0 x3 = x3
Por tanto
−1
V1 (λ2 ) =< v21 = 2 >.
1
Luego la multiplicidad geométrica asociada al autovalor λ2 = 2 es 1.
20 aplicaciones de las inversas generalizadas
Ax = λx
Como A es invertible
Ax = λx ⇒ x = λx (x 6= 0)
⇒ λ 6= 0.
por tanto, 0 sería un autovalor de A, lo que nos lleva a una contradicción, ya que por
hipótesis 0 no es autovalor de A.
Por consiguiente, A es no singular.
Ax = λx ⇒ (A − λI)x = 0
⇒ k(A − λI)xk = 0 ((A − λI) normal)
∗
⇒ k(A − λI) xk = 0
⇒ k(A∗ − λI)xk = 0
⇒ kA∗ x − λxk = 0
⇒ A∗ x − λx = 0
⇒ A∗ x = λx.
Ax = λx
Como A es invertible
Ax = λx ⇒ x = λx (x 6= 0)
⇒ λ 6= 0.
por tanto, 0 sería un autovalor de A, lo que nos lleva a una contradicción, ya que por
hipótesis 0 no es autovalor de A.
Por consiguiente, A es no singular.
Definición 1.38. Sea A ∈ Fn×n una matriz hermitiana. Decimos que A es definida
positiva si v ∗ Av > 0 para todo vector v no nulo perteneciente a Fn .
Teorema 1.3 (Caracterización de matrices definidas positivas). Sea A ∈ Fn×n ,
una matriz hermitiana. Las siguientes afirmaciones son equivalentes:
1. A es definida positiva.
2. Todos los autovalores de A son positivos.
3. La matriz A puede ser expresada como A = B ∗ B, para alguna matriz B no
singular.
1. A es semidefinida positiva.
2. Todos los autovalores de A son no negativos.
3. La matriz A puede ser expresada como A = B ∗ B, para alguna matriz B con
rango(B) = rango(A).
1. A es definida negativa.
2. Todos los autovalores de A son negativos.
1. A es semidefinida negativa.
2. Todos los autovalores de A son no positivos.
Ejemplo 1.8.1.-
1. Sea la matriz
3 2 0
A = 2 2 2 .
0 2 1
El espectro de la matriz A es λ(A) = {5, 2, −1}. Por tanto, A es indefinida.
2. La matriz identidad es definida positiva.
24 aplicaciones de las inversas generalizadas
σ1 ≥ σ2 ≥ · · · ≥ σr > 0.
es diagonal.
Demostración. Véase [BIG03, página 206]
1. preliminares 25
Calculamos At A:
80 100 40
At A = 100 170 140 .
40 140 200
Los autovalores de la matriz At A son: λ1 = 360, λ2 = 90, λ3 = 0.
Determinamos los autovalores de At A no nulos, y ordenamos. En nuestro caso,
r = 2.
Los espacios de autovectores de At A correspondientes a cada autovalor son:
Para λ1 = 360,
V1 (λ1 ) = null(At A − λ1 I),
−280 100 40
(At A − 360I) = 100 −190 140
40 140 −160
Aplicando Gauss-Jordan a la matriz (At A − 360I),
1 0 −1/2 x1 = 1/2x3
t
(A A − 360I) G − J 0 −1 1 ⇒ x = x3
2
−−−→
0 0 0 x3 = x3
Por tanto
1/2 1/3
1
w1 = 1 , v1 = w1 = 2/3 .
kw1 k
1 2/3
Para λ2 = 90,
V1 (λ2 ) = null(At A − λ2 I),
−10 100 40
(At A − 90I) = 100 80 140
40 140 110
26 aplicaciones de las inversas generalizadas
Por tanto
−1 −2/3
1
w2 = 1/2 , v2 = w2 = −1/3 .
kw2 k
1 2/3
Para λ3 = 0,
V1 (λ3 ) = null(At A − λ3 I),
80 100 40
(At A − 0I) = 100 170 140
40 140 200
Aplicando Gauss-Jordan a la matriz (At A − 0I),
80 100 40 1 0 −2 x1 = 2 x3
(At A−0I) = 100 170 140 G − J 0 1 2 ⇒ x2 = −2 x3
−−−→
40 140 200 0 0 0 x3 = x3
Por tanto
2 2/3
1
w3 = −2 , v3 = w3 = −2/3 .
kw3 k
1 1/3
con vi asociado a λi .
Los valores singulares de A son:
√ √
σ1 = √360 = 6√ 10,
σ2 = 90 = 3 10.
1. preliminares 27
Si A tiene una fila compuesta enteramente de ceros (fila nula), entonces todas las
filas por debajo de ella son también nulas.
28 aplicaciones de las inversas generalizadas
Los elementos que aparecen en la misma columna que el pivote de una fila y debajo
de él son todos nulos.
El pivote de cada fila es 1.
Todas las entradas por encima del pivote son cero.
Ejemplo 1.10.1.-
1 0 0 1
C = 0 1 0 2 ,
0 0 1 3
Definición 1.45. Sea la matriz A ∈ Cm×n . Se dice que A es de rango pleno por
filas si rango(A) = m, o equivalentemente, si C(A) = Cm .
Ejemplo 1.10.2.-
Consideremos la matriz
1 2 1 2
A= 2 1 3 1
−1 3 2 3
Ejemplo 1.11.1.-
Y uno de orden 3:
λ 1 0
0 λ 1 .
0 0 λ
Definición 1.48. Un segmento de Jordan, J(λ1 ), es una matriz diagonal por blo-
ques
J1 (λ1 ) 0 ... 0
0 J2 (λ1 ) . . . 0
J(λ1 ) =
.. .. . .. .
..
. .
0 0 . . . Jt1 (λ1 )
1. preliminares 31
donde cada J(λi ) es un segmento de Jordan. Dicho de otro modo, una matriz de Jordan
es una matriz diagonal por bloques, donde cada bloque es un bloque de Jordan.
Ejemplo 1.11.2.-
Consideremos la matriz
10 4 13
A= 5 3 7
−9 −4 −12
cuyos autovalores son λ1 = −1 y λ2 = 1, con multiplicidades algebraicas m1 = 1 y
m2 = 2, respectivamente.
J= 0 1 1
0 0 1
con matriz de paso:
−1 1 1
P = −1/2 1 −2 .
1 −1 0
Ejemplo 1.11.3.-
J= 0 1 1
0 0 1
En ella, el índice del autovalor λ1 = −1 es 1, y el índice del autovalor λ2 = 1 es 2.
2 Inversas Generalizadas
AXA = A, (1)
XAX = X, (2)
∗
(AX) = AX, (3)
(XA)∗ = XA. (4)
Dada una matriz A ∈ Cm×n , sabemos ya del carácter único de la {1, 2, 3, 4}-
inversa de A. En las secciones siguientes comprobaremos que otros conjuntos A{i, j, . . . , k}
no constarán de un único elemento.
Ejemplo 2.1.1.-
Consideremos la matriz m × n
2. inversas generalizadas 35
σ1
σ2
..
.
Σ=
σr
0
..
.
0
con σi 6= 0, i ∈ 1, r.
Entonces Σ+ es una matriz n × m de la forma:
1/σ1
1/σ2
...
Σ+ =
1/σr
0
...
0
1. ΣΣ+ Σ = Σ,
2. Σ+ ΣΣ+ = Σ +
,
I O
3. (ΣΣ+ )∗ = = ΣΣ+ ,
O O
I O
4. (Σ+ Σ)∗ = = Σ+ Σ.
O O
Observación 2.2. Veremos en una sección posterior (sección 2.4[página 44]) algorit-
mos para el cálculo de la inversa de Moore-Penrose de una matriz dada.
Proposición 2.2. Sea H una matriz hermitiana e idempotente, entonces
H + = H.
36 aplicaciones de las inversas generalizadas
1. HH + H = HHH = H 2 H = HH = H 2 = H,
2. H + HH + = HHH = H 2 H = HH = H 2 = H,
3. (HH + )∗ = (HH)∗ = H ∗ H ∗ = HH,
4. (H + H)∗ = (HH)∗ = H ∗ H ∗ = HH.
Luego,
H + = H.
2.2 {1}-inversas
Luego,
con rango(A) = 2.
Sean
1 0 0 0
0 0 1 0 0 1 0
E = 1/2 0 1 y P =
0
,
1 0 0
1/2 1/3 0
0 0 0 1
que verifican
1 0 2 1
EAP = 0 1 0 2
0 0 0 0
38 aplicaciones de las inversas generalizadas
Tomemos ahora,
α
L= ,
β
donde α, β ∈ C.
β/2 β/3 0
rango(X1 ) = 3 6= 2 = rango(X2 ).
1. (A{1} )∗ ∈ A∗ {1}.
2. Si la matriz A es no singular, entonces A{1} = A−1 .
3. λ+ A{1} ∈ (λA){1}.
4. rango(A{1} ) ≥ rango(A).
5. Si las matrices S y T son no singulares, entonces T −1 A{1} S −1 ∈ SAT {1}.
6. AA{1} y A{1} A son idempotentes y tienen el mismo rango que A.
1. A∗ X ∗ A∗ = (AXA)∗ = A∗ .
2. Sea ahora A una matriz no singular, es decir, existe A−1 tal que
AA−1 = I = A−1 A.
Entonces
AA−1 A = A.
3. Sea λ ∈ C. Entonces
λAλ+ XλA = λλ+ λAXA = λA.
4. Basta tener en cuenta que el rango de un producto de matrices no es superior
al rango de cualquiera de los factores,
rango(A) = rango(AXA) ≤ rango(X)
5. Sean la matrices S y T no singulares. Entonces
SAT T −1 XS −1 SAT = SAXAT = SAT.
6. Recordemos que una matriz A se dice que es idempotente si A = A2 .
(AX)2 = AXAX = AX,
(XA)2 = XAXA = XA.
Por otro lado,
rango(XA) ≤ rango(A) = rango(AXA) ≤ rango(XA),
rango(AX) ≤ rango(A) = rango(AXA) ≤ rango(AX).
Por tanto, rango(AX) = rango(XA) = rango(A).
40 aplicaciones de las inversas generalizadas
(A{1} A)2 = A{1} A ⇒ A{1} AA{1} A(A{1} A)−1 = A{1} A(A{1} A)−1
⇒ A{1} A = In .
C(AA{1} ) = C(A).
Análogamente,
y por tanto
null(AA{1} ) = null(A).
2. inversas generalizadas 41
Lema 2.3. Sea la matriz A ∈ Cm×n , y sean las matrices Y , Z ∈ A{1}, tales que
X = Y AZ.
Entonces X ∈ A{1, 2}.
42 aplicaciones de las inversas generalizadas
Demostración. Vamos a comprobar que X ∈ A{1, 2}. Para ello, primero veremos
que cumple la propiedad (1) de la definición (2.1, página 33):
XAX = Y AZAY AZ = Y AY AZ = Y AZ = X.
Luego
AX = AXAY = AY,
y de ahí
XAX = X.
Luego,
donde las matrices P y E satisfacen las condiciones del teorema (2.1)[página 36].
0 0 0
Bjerhammar, véase teorema (2.2)[página 42], prueba que la existencia de una {1}-
inversa de un matriz implica la existencia de una {1, 2}-inversa de dicha matriz. Sin
embargo, para la existencia de una {1, 2, 3}-inversa y una {1, 2, 4}-inversa de una
matriz dada, deberemos utilizar la {1}-inversa de una matriz relacionada con ella.
Teorema 2.3. Sea la matriz A ∈ Cm×n , entonces
Y = (A∗ A){1} A∗ ∈ A{1, 2, 3}, y
Z = A∗ (AA∗ ){1} ∈ A{1, 2, 4}.
Demostración. Probemos que Y = (A∗ A){1} A∗ ∈ A{1, 2, 3}: Sabemos que
C(A∗ A) = C(A∗ ),
y por tanto, para alguna matriz U tenemos que
A∗ = A∗ AU.
Si tomamos la traspuesta conjugada
(A∗ )∗ = (A∗ AU )∗ ; A = U ∗ A∗ A.
Luego, tomando Y = (A∗ A){1} A∗ ,
AY A = U ∗ A∗ A(A∗ A){1} A∗ U ∗ A∗ A = U ∗ A∗ A = A.
En consecuencia Y ∈ A{1}.
Por otra parte, tenemos que por el lemma (2.1)[apartado 4, página 39]
rango(Y ) ≥ rango(A).
Pero, por definición de la matriz Y , rango(Y ) ≤ rango(A∗ ) = rango(A). Lo
que nos lleva a que
rango(Y ) = rango(A),
y por el teorema (2.2)[página 42],Y ∈ A{1, 2}.
Veamos ahora que Y ∈ A{3}:
AY = U ∗ A∗ A(A∗ A){1} A∗ A = U ∗ A∗ AU, y
(AY )∗ = (U ∗ A∗ A(A∗ A){1} A∗ )∗ = U ∗ A∗ AU.
Luego
Y = (A∗ A){1} A∗ ∈ A{1, 2, 3}.
2. inversas generalizadas 45
A = AA∗ U.
En consecuencia Z ∈ A{1}.
Por otra parte, tenemos que por el lemma (2.1)[apartado 4, página 39]
rango(Z) ≥ rango(A).
Luego
Z = A∗ (AA∗ ){1} ∈ A{1, 2, 4}.
46 aplicaciones de las inversas generalizadas
Entonces
28 −13 −12
14
28 −42 −8
28 56 −26 −24
A∗ A =
−13 −26 13
, y AA∗ = −42 63 12 ,
13
−8 12 6
−12 −24 13 14
donde rango(A∗ A) = 2 = rango(AA∗ ).
(A∗ A)X(A∗ A) = A∗ A.
2. inversas generalizadas 47
E 0 (AA∗ )P 0 = 0 0 1 .
0 0 0
Tomemos ahora,
0 1
L = .
0
Por tanto, una {1}-inversa de (AA∗ ) es, por el teorema (2.1)[página 36]:
29/52 1/3 1/13
I2 0
X0 = P 0 E0 = 0 0 0 .
0 L0
1/13 0 7/26
Cumpliendo
(AA∗ )X 0 (AA∗ ) = AA∗ .
Por consiguiente, según el teorema (2.3)[página 44], una {1, 2, 3}-inversa de A
vendría dada por:
0 0 1
0 0 0
Y = (A∗ A){1} A∗ = 2/13 −3/13 1 .
0 0 0
A{1,4} AA{1,3} = A+ .
Demostración. Sea X = A{1,4} AA{1,3} . Por el lema (2.3)[página 41], tenemos que
X ∈ A{1, 2}.
Además, tenemos que:
X ∈ A{1, 2, 3, 4}.
−2/169 3/169
3/26
−4/169 6/169 3/13
B = ZAY =
6/169 −9/169 2/13 ,
que cumple:
ABA = A,
BAB = B,
(AB)∗ = AB,
(BA)∗ = BA.
Teorema 2.5 (MacDuffee). Sea A ∈ Cm×n r , con r > 0. Si A tiene una factorización
de rango pleno (véase lema (1.2)[página 29]), tal que
A = F G,
entonces
A+ = G∗ (F ∗ AG∗ )−1 F ∗ .
Demostración. En primer lugar, veamos que la matriz F ∗ AG∗ es no singular:
F ∗ AG∗ = F ∗ F GG∗ .
Por el lema (1.1)[página 24], tenemos que las matrices r×r, (F ∗ F ) y (GG∗ ), son
de rango r. Por tanto, F ∗ AG∗ es igual a producto de dos matrices no singulares
y, en consecuencia, F ∗ AG∗ es no singular. Es más
1.
AXA = F GG∗ (GG∗ )−1 (F ∗ F )−1 F ∗ F G = F G = A.
Luego X ∈ A{1}.
2.
XAX = G∗ (GG∗ )−1 (F ∗ F )−1 F ∗ F GG∗ (GG∗ )−1 (F ∗ F )−1 F ∗ =
= G∗ (GG∗ )−1 (F ∗ F )−1 F ∗ = X.
Luego X ∈ A{1, 2}.
3.
AX = F GG∗ (GG∗ )−1 (F ∗ F )−1 F ∗ = (AX)∗ .
Luego X ∈ A{1, 2, 3}
4.
XA = G∗ (GG∗ )−1 (F ∗ F )−1 F ∗ F G = (XA)∗ .
Por tanto, X ∈ A{1, 2, 3, 4}, siendo única según la proposición (2.1)[página 34].
Con lo que
1/14 −5/14
1/2
1/4 −3/28 1/28
A+ = G∗ (F ∗ AG∗ )−1 F ∗ =
−1/2 5/14
.
3/14
1/4 −3/28 1/28
2. inversas generalizadas 51
A+ = V Σ+ U ∗ .
1.
AA+ A = U ΣV ∗ V Σ+ U ∗ U ΣV ∗ = U ΣΣ+ ΣV ∗ = U ΣV ∗ = A.
2.
A+ AA+ = V Σ+ U ∗ U ΣV ∗ V Σ+ U ∗ = V Σ+ ΣΣ+ U ∗ = V Σ+ U ∗ = A+ .
3.
4.
Ejemplo 2.4.4.-
Consideremos la matriz
4 11 14
A= .
8 7 −2
52 aplicaciones de las inversas generalizadas
Luego
√
√ √
1/3 −2/3 2/3 1/6 10 0√
+ + t 3/√10 1/ √10
A = V Σ U = 2/3 −1/3 −2/3 0 1/3 10 =
1/ 10 −3/ 10
2/3 2/3 1/3 0 0
−1/180 13/180
= 1/45 2/45 .
1/18 −1/18
A partir del teorema (2.1)[página 36] sabemos cómo construir una {1}-inversa de
una matriz A ∈ Cm×n r dada, teniendo ésta un rango entre r y mı́n{m, n}, ambos in-
clusive.
También el lema (2.3)[página 41), nos da un método para construir una {1, 2}-inversa
de una matriz A ∈ Cm×n r dada, que claramente, tendría un rango ≤ r.
Destaquemos que una matriz nula m×n es una {2}-inversa de rango 0, y recordemos
que cualquier A{1,2} es una {2}-inversa de rango r, según el teorema (2.2)[página 42].
Luego, ¿sería posible encontrar una forma de construir una {2}-inversa de rango s,
arbitrario, entre 0 y r? La respuesta es afirmativa, y para ello haremos uso de la fac-
torización de rango pleno.
Dada una matriz X ∈ A{1, 2}, podemos calcular una factorización de rango pleno
de X, tal que
X = Y Z,
2. inversas generalizadas 53
donde Y ∈ Cm×r
r y Z ∈ Cr×n
r , y además, como X ∈ A{2}
Y ZAY Z = Y Z.
Xs AXs = Xs .
Nota 2.2. El conjunto A{i, . . . , j}s denotará el conjunto de todas las {i, . . . , j}-inversas
de A de rango prescrito s.
Ejemplo 2.5.1.-
Sea la matriz
1 0 0 1
1 1 0 0
A=
0
.
1 1 0
0 0 1 1
donde la matriz
1 0 0 0
−1 1 0 0
X2 = Y2 Z2 =
1 −1 0
,
0
0 0 0 0
es una {1, 2}-inversa de A de rango 2.
Se tiene que
X2 AX2 = X2 .
AA{1} DB {1} B = D;
satisface AXB = D.
AX = B, y XD = E, (2.6)
tienen una solución común si y solo si cada ecuación tiene una solución por separado
y
AE = BD.
Demostración. ⇐ Supongamos que cada ecuación (2.6) tiene una solución por sí
misma. Entonces, para el caso en el que AE = BD y
AA{1} B = B, y ED{1} D = E.
Por el teorema (2.7)[página 55], las dos últimas ecuaciones son equivalentes a la
consistencia de las ecuaciones (2.6) consideradas separadamente.
2. inversas generalizadas 57
AE = AXD = BD.
Ax = b, (2.7)
AA{1} b = b,
Ax = AA{1} b,
luego
A{1} b, es una solución de Ax = b.
b = Ax = AA{1} Ax = AA{1} b.
satisface Ax = b.
AXaj = aj , j ∈ 1, n.
Por tanto,
AXA = A.
Y, como consecuencia, X ∈ A{1}.
AXb = b.
Teorema 2.9. Sea la matriz A ∈ Cm×n . El conjunto A{1, 3} consta de todas las
soluciones X de
AX = AA{1,3} ,
donde A{1,3} es un elemento arbitrario de A{1, 3}.
2. inversas generalizadas 59
AXA = AA{1,3} A = A,
AA{1,3} = AXAA{1,3}
= (AX)∗ AA{1,3}
= X ∗ A∗ (A{1,3} )∗ A∗
= X ∗ A∗
= AX,
Corolario 2.3. Sean las matrices A ∈ Cm×n y A{1,3} ∈ A{1, 3}. Entonces
Teorema 2.10. Sea la matriz A ∈ Cm×n . El conjunto A{1, 4} consta de todas las
soluciones X de:
XA = A{1,4} A.
Demostración. Si la matriz X satisface XA = A{1,4} A, entonces, claramente
AXA = AA{1,4} A = A,
60 aplicaciones de las inversas generalizadas
Corolario 2.4. Sean las matrices A ∈ Cm×n y A{1,4} ∈ A{1, 4}. Entonces
Haremos notar primeramente, que siendo A ∈ Cm×n , los conjuntos A{2}0 , A{2, 3}0
y A{2, 3, 4}0 (véase nota (2.2)[página 53]) están formados por un único elemento, que
es la matriz n × m de ceros. Conociendo ya este hecho, para el resto de las secciones
consideraremos s > 0.
Teorema 2.11. Sea la matriz A ∈ Cm×n
r y 0 < s ≤ r. Entonces
XAX = Y ZAY Z = Y Z = X.
Por otro lado, sea X ∈ A{2} y sea X = Y Z una factorización de rango pleno de
X. Entonces Y ∈ Cn×ss , Z ∈ Cs×m
s y
Y ZAY Z = Y Z.
2. inversas generalizadas 61
En consecuencia,
rango(B) = rango(X) = rango(D).
Además
XAX = Y (AY )+ AY (AY )+ = Y (AY )+ = X.
Luego X ∈ A{2, 3}.
Por otro lado, sea X ∈ A{2, 3}s . Entonces AX es hermitiana, y por el lema
(2.1)[apartado 6, página 39] AX es idempotente y de rango s, siendo A ∈ X{1}.
Asimismo, por la proposición (2.2)[página 35]
(AX)+ = AX.
De manera que
X(AX)+ = XAX = X.
XA = (Y A)+ Y A. (2.9)
Además
XAX = (Y A)+ Y A(Y A)+ Y = (Y A)+ Y = X.
Por otro lado, sea X ∈ A{2, 3}s . Entonces AX es hermitiana, y por el lema
(2.1)[apartado 6, página 39] AX es idempotente y de rango s, siendo A ∈ X{1}.
Asimismo, por la proposición (2.2)[página 35]
(XA)+ = XA.
De manera que
(XA)+ X = XAX = X.
Ax + y = b
1. (E ∗ )2 = E ∗ E ∗ = (EE)∗ = E ∗ .
(I − E)2 = I 2 − 2E + E 2 = I − 2E + E = I − E.
2. ⇒ Supongamos que Ex = x. Entonces, por definición,
x ∈ C(E).
x = Ey.
En consecuencia,
Ex = E 2 y (E idempotente)
= Ey
= x.
3. Si x ∈ null(E), entonces Ex = 0 y
x = x − Ex
= (I − E)x,
Ex = Ey − E 2 y (E idempotente)
= Ey − Ey
= 0.
3. inversa de bott-duffin 67
x = x − (I − E)x
= x − x + Ex
= Ex,
de donde x ∈ C(E).
Recíprocamente, si existe y ∈ Cn tal que x = Ey, entonces
(I − E)x = (I − E)Ey
= Ey − E 2 y (E idempotente)
= Ey − Ey
= 0.
E = F G, (3.1)
(F G)2 = F GF G (GF = I)
= F G.
x = u + u0 , u ∈ L, u0 ∈ L⊥ .
PL u = u.
PL x = u.
Luego,
PL2 x = PL u = u = PL x, ∀x ∈ Cn .
l
X
PL = ui u∗i .
i=1
Pl
Demostración. Sea M = i=1 ui u∗i .
Si w ∈ L, entonces
l
X
Mw = ui u∗i w ({u1 , u2 , . . . , ul }base ortonormal de L y w ∈ L)
i=1
= w.
3. inversa de bott-duffin 69
Si z ∈ L⊥ , entonces
l
X
Mz = ui u∗i z ({u1 , u2 , . . . , ul }base ortonormal de L y z ∈ L⊥ )
i=1
= 0.
PL x = PL w + PL z = w = M x.
Ejemplo 3.1.1.-
Y
2
X 1/3 1/3 1/3 1/6 1/6 −1/3 1/2 1/2 0
PL = ui u∗i = 1/3 1/3 1/3 + 1/6 1/6 −1/3 = 1/2 1/2 0 .
i=1 1/3 1/3 1/3 −1/3 −1/3 2/3 0 0 1
70 aplicaciones de las inversas generalizadas
PL z = x, PL⊥ z = y,
es única.
Demostración. Supongamos que (APL +PL⊥ ) es no singular. Entonces, z = (APL +
PL⊥ )−1 b, sería la solución del sistema (3.6).
Por tanto, el sistema (3.5) tendría solución
Ejemplo 3.2.1.-
Si L = hu1 , u2 i, entonces una base ortonormal de L⊥ está formada por los vecto-
res √
−1/2 2 0
√
1/2 2 0
u3 = , u4 = √ .
0 −1/2 2
√
0 1/2 2
1/2 −1/2 0 0
−1/2 1/2 0 0
t t
PL⊥ = u3 u3 + u4 u4 = .
0
0 1/2 −1/2
0 0 −1/2 1/2
3. inversa de bott-duffin 73
Si tomamos
−1 −2 5 5
0 −2 5 −5
A= ,
−5 1 −2 1
−2 −1 −3 1
entonces la matriz APL + PL⊥ es no singular y la inversa de Bott-Duffin de la matriz
A es
3 3 2 2
− 85 − 85 − 17 − 17
−3 −3 −2 −2
A−1 −1 85 85 17 17
(L) = P L (APL + P L⊥) = 7
.
7 1 1
85 − −
85 17 17
7 7 1 1
− −
85 85 17 17
{−1}
El siguiente teorema nos muestra alguna de las propiedades de A(L) .
Teorema 3.2. Sea A ∈ Cn×n y sea L un subespacio de Cn . Si (APL + PL⊥ ) es no
singular, entonces
1. La ecuación
Ax + y = b, x ∈ L, y ∈ L⊥ , (3.7)
tiene para cada b, la única solución
{−1}
x = A(L) b, (3.8)
{−1}
y = (I − AA(L) )b. (3.9)
{−1}
2. A, PL , y A(L) satisfacen:
{−1} {−1}
PL = A(L) APL = PL AA(L) , (3.10)
{−1} {−1} {−1}
A(L) = PL A(L) = A(L) PL . (3.11)
74 aplicaciones de las inversas generalizadas
{−1}
1. Del resultado de la proposición (3.3)[página 71], tomando PL (APL + PL⊥ )−1 = A(L) ,
se tiene que la única solución de la ecuación (3.7) es:
{−1}
x = A(L) b,
{−1} {−1}
y = b − AA(L) b = (I − AA(L) )b.
2.
{−1}
PL A(L) = PL PL (APL + PL⊥ )−1 (PL idempotente)
= PL (APL + PL⊥ )−1
{−1}
= A(L) .
{−1}
A(L) (APL + PL⊥ ) = PL (APL + PL⊥ )−1 (APL + PL⊥ ) = PL .
Si multiplicamos a derecha por PL , nos queda
{−1} {−1} {−1}
A(L) (APL + PL⊥ )PL = A(L) (APL + PL⊥ )PL = A(L) APL = PL .
{−1} {−1}
Por tanto, como A(L) (APL + PL⊥ ) = PL y A(L) APL = PL
Luego,
{−1} {−1}
(PL − PL AA(L) ) = O =⇒ PL = PL AA(L) .
Proposición 3.4. Sea L un subespacio de Cn , y sea A ∈ Cn×n una matriz tal que
{−1}
< Ax, x >6= 0, ∀x ∈ L, con x 6= 0. Entonces, podemos afirmar que la matriz A(L)
existe, es decir, la matriz (APL + PL⊥ ) es no singular.
Demostración. Por reducción al absurdo, supongamos que la matriz (APL + PL⊥ ) es
singular. Entonces, el sistema
Ax + y = 0,
3. inversa de bott-duffin 75
{−1}
Luego la matriz (APL + PL⊥ ) es no singular, y por consiguiente, A(L) existe.
Hasta el momento, no hemos dado ningún resultado que relacione de manera di-
recta la inversa de Bott-Duffin con alguno de los conjuntos de {i, j, . . . , k}-inversas
de cierta matriz. Esto se debe, en mayor medida, a que no parece que exista una rela-
ción que pueda aportarnos nuevas ideas en el estudio de las redes eléctricas. Lo cierto
es que algunos autores, [CM09], analizan las redes eléctricas a partir de inversas ge-
neralizadas sin hacer uso de la inversa de Bott-Duffin.
Al principio de este capítulo se nombró [BIG03] como referencia a seguir. Aunque en
esta publicación se trabaja durante algunas secciones con la inversa de Bott-Duffin,
no se presta realmente una atención importante a su uso práctico como inversa gene-
ralizada.
{−1}
Nuestro próximo resultado establece que cuando la inversa de Bott-Duffin A(L) exis-
te, es la {1, 2}-inversa de ciertas matrices con espacio de columnas L y espacio nulo
L⊥ .
Corolario 3.1. Sea A ∈ Cn×n y sea L un subespacio de Cn . Si (APL + PL⊥ ) no
singular, entonces:
{−1} {1,2} {1,2} {1,2}
A(L) = (APL )L,L⊥ = (PL A)L,L⊥ = (PL APL )L,L⊥ .
{−1} {−1}
Demostración. Veamos que C(A(L) ) = L y null(A(L) ) = L⊥ :
Por el teorema (3.2)[página 73], tenemos que
{−1} {−1}
PL = A(L) APL = PL AA(L) ,
luego,
{−1}
dim(L) = rango(PL ) ≤ rango(A(L) ).
Del mismo modo, por el teorema (3.2)[página 73], tenemos que
{−1} {−1} {−1}
A(L) = PL A(L) = A(L) PL ,
luego,
{−1}
rango(A(L) ) ≤ rango(PL ) = dim(L).
76 aplicaciones de las inversas generalizadas
Dado que
{−1} {−1}
C(A(L) ) ⊂ C(PL ) = L, y null(A(L) ) ⊃ null(PL ) = L⊥ ,
obtenemos que
{−1}
rango(A(L) ) = dim(L) = rango(PL ).
{−1}
Luego, por la proposición (2.4)[página 41)], teniendo en cuenta que rango(A(L) ) = rango(PL )
{−1} {−1} {−1}
y que A(L) = PL A(L) = A(L) PL , se tiene que
{−1} {−1}
C(A(L) ) = L, null((A(L) )) = L⊥ .
{−1}
Comprobemos que la matriz A(L) es una {1, 2}-inversa de APL :
Por el teorema (3.2)[página 73], tenemos que
{−1} {−1}
PL = A(L) APL = PL AA(L)
y
{−1} {−1} {−1}
A(L) = PL A(L) = A(L) PL .
Luego,
{−1}
APL A(L) PL = APL PL (PL idempotente)
= APL .
{−1}
Por tanto, A(L) es una {1, 2}-inversa de APL .
{−1}
Comprobemos que la matriz A(L) es una {1, 2}-inversa de PL A:
Por el teorema (3.2)[página 73], tenemos que
{−1} {−1}
PL = A(L) APL = PL AA(L)
y
{−1} {−1} {−1}
A(L) = PL A(L) = A(L) PL .
3. inversa de bott-duffin 77
Luego,
{−1}
PL AA(L) PL A = PL PL A (PL idempotente)
= PL A.
Definición 3.4. Un grafo queda definido por m elementos llamados nodos, que
denotaremos ni , i ∈ 1, m (gráficamente los representaremos por puntos), y n pares de
nodos no ordenados llamados aristas, que denotaremos aj , j ∈ 1, n (gráficamente los
representaremos por segmentos uniendo nodos dos a dos).
Definición 3.5. Un grafo con m nodos y n aristas, puede ser representado por una
matriz m × n llamada matriz de incidencia, que denotaremos por M = [mij ], y
definiremos de la siguiente manera:
Definición 3.6. Sean nk , nl , dos nodos de un mismo grafo. Se dirá que están direc-
tamente conectados si {nk , nl } o {nl , nk } es una arista, es decir, si existe una columna
de M con sus entradas distintas de cero en las filas k y l.
Definición 3.7. Sean nk , nl , dos nodos de un mismo grafo. Se dirá que están conec-
tados, si existe una sucesión de nodos, {nk , np , . . . , nq , nl }, en la que cada dos nodos
adyacentes están directamente conectados.
Nota 3.1. En el contexto de cadenas de Markov, a este tipo de grafos se los denomi-
nará grafos fuertemente conexos.
Definición 3.8. Se dirá que un grafo es conexo si cada dos nodos están conectados.
3. inversa de bott-duffin 79
Ejemplo 3.3.1.-
Sea el grafo
xk = p k − p l
Proposición 3.5. Sean el grafo G que define una red eléctrica y M la matriz de in-
cidencia que lo representa. Podemos establecer una relación entre el vector de ten-
siones de las aristas, x = [xj ], j ∈ 1, n, y el vector de potenciales de los nodos,
p = [pi ], i ∈ 1, m, de la siguiente forma:
x = M t p. (3.12)
Ejemplo 3.3.2.-
Luego,
x1 = p 1 − p 2
x2 = p 2 − p 3
x3 = p 2 − p 4
,
x4 = −p1 + p3
x5 = p 3 − p 4
x = −p + p
6 1 4
Las corrientes eléctricas y las tensiones satisfacen las leyes de Kirchhoff ([TM10a,
capítulo 25]).
Lema 3.4 (Primera ley de Kirchhoff). La suma algebraica de las variaciones de po-
tencial a lo largo de cualquier bucle o malla del circuito debe ser igual a cero.
Lema 3.5 (Segunda ley de Kirchhoff). En un punto o nudo de ramificación de un
circuito en donde puede dividirse la corriente, la suma de las corrientes que entran en
el nudo debe ser igual a la suma de las corrientes que salen del mismo.
Observación 3.1. Sean el grafo G que define una red eléctrica y M la matriz de inci-
dencia que lo representa. Sea y = [yj ], j ∈ 1, n, el vector de intensidades de corriente
que circula por las aristas del grafo. Entonces, la segunda ley de Kirchhoff puede ser
escrita de la siguiente manera:
M y = 0. (3.13)
82 aplicaciones de las inversas generalizadas
Ejemplo 3.3.3.-
0 −1 0 −1
1 0
−1 1 1 0 0 0
M= 0 −1 0
.
1 1 0
0 0 −1 0 −1 1
Luego,
y1 − y4 − y6 =0
−y1 + y2 + y3 =0
,
−y2 + y4 + y5 =0
−y3 − y5 + y6
=0
C(M t ) y null(M ).
{−1}
Definición 3.13. Llamaremos a la matriz A(C(M t )) matriz transferencia de la
{−1}
red, donde la entrada (i, j)-ésima de A(C(M t )) es la tensión que atraviesa la arista ai , i ∈ 1, n
como resultado de introducir una fuente de corriente de 1 amperio en la arista aj , j ∈ 1, n.
Proposición 3.6. Sea A la matriz que representa las conductividades de las aristas.
Entonces, el sistema (3.14)[página 84], puede ser reescrito de la siguiente manera:
Ax + y = Av + w, x ∈ C(M t ), y ∈ null(M ).
Es decir,
x + A−1 y = v + A−1 w, x ∈ C(M t ), y ∈ null(M ).
Luego, por el teorema (3.2)[página 73], tenemos que la única solución del sistema es
{−1}
y = (A−1 )(null(M )) (A−1 w + v),
{−1}
x = (I − A−1 (A−1 )(null(M )) )(A−1 w + v).
{−1}
Definición 3.14. Llamaremos a la matriz (A−1 )(null(M )) matriz de transferencia
dual, donde su entrada (i, j)-ésima es la intensidad de corriente en la arista ai como
resultado de introducir un generador en paralelo de 1 voltio en la arista aj .
86 aplicaciones de las inversas generalizadas
Al finalizar esta sección tendremos los conocimientos suficientes para conocer los
valores de tensión y corriente con los que el sistema se encuentra en estado estacio-
nario.
Definición 3.15. Sea A ∈ Rn×n una matriz simétrica, y sea L un subespacio de Rn .
Sean v, w dos vectores cualesquiera de Rn . Definimos la forma cuadrática
1
q(x) = (x − v)t A(x − v) − wt x. (3.16)
2
Tomando
Ax + y = Av + w, x ∈ L, y ∈ L⊥ . (3.19)
Debemos recordar, para el siguiente resultado, que representamos las redes eléc-
tricas mediante grafos consistentes en m nodos y n aristas, con
M, matriz de incidencia;
xj , tensión que atraviesa la arista aj , j ∈ 1, n;
x vector de tensiones de las aristas;
yj , intensidad de corriente en la arista aj , j ∈ 1, n;
y vector de intensidades de corriente;
kj > 0, conductancia de la arista aj , j ∈ 1, n;
A, matriz diagonal cuyos elementos distintos de 0 son las conductancias kj , j ∈ 1, n;
vj , voltaje generado por la fuente de tensión en serie con la arista aj , j ∈ 1, n;
v vector de tensiones generadas;
wj , corriente generada por la fuente en paralelo con la arista aj , j ∈ 1, n; y
w vector de corrientes generadas.
Corolario 3.3. Sean las matrices A, M , y los vectores x, y, v, w definidos arriba.
Entonces:
En esta sección se pretende hacer una breve incursión en la bibliografía actual con
el propósito de investigar cuáles han podido ser los diferentes recorridos de la inversa
de Bott-Duffin.
En secciones anteriores hemos visto como Bott-Duffin plantea, dados un subespacio
L de Cn , y una matriz A ∈ Cn×n , una solución al sistema restringido
Ax + y = b, x ∈ L, y ∈ L⊥ ,
{+}
Observación 3.5. La matriz A(L) siempre existe, y, además, cuando (APL + PL ) es
no singular,
{+} {−1}
A(L) = A(L) .
Definición 3.17. ([LWW09])
{−1}
Observación 3.6. Si L = K y (APL + PL⊥ ) es no singular, entonces A+
(L,K) = A(L)
1. x∗ Ax ≥ 0, ∀x ∈ L,
2. x∗ Ax = 0, y x ∈ L, implica que Ax = 0,
Ax + y = b, x ∈ L, y ∈ K ⊥ . (3.21)
(APL + PK ⊥ )u = b
x = A+ +
(L,K) b, y = b − AA(L,K) b.
Ax + y = b, x ∈ L, y ∈ L⊥ ,
Ax + y0 = b, x ∈ L, y0 ∈ K ⊥ ,
By = y0 .
92 aplicaciones de las inversas generalizadas
Si el sistema KKT
A B x b
= ,
B∗ O y d
tiene una solución, su solución mínimo cuadrática es:
+ b B + b
x = (I − G3 G3 ) G1 − G2 (I − PG1 ) .
d O d
3. inversa de bott-duffin 93
Ax + y0 = b, x ∈ L, y0 ∈ K ⊥ ,
By = y0 ,
donde x son todas las posiciones xn , y ẋ son las correspondientes velocidades ẋn .
Si derivamos dos veces hj (x, t) = 0 y una vez gj (x, ẋ) = 0 con respecto al tiempo,
obtenemos un conjunto de s restricciones lineales para la aceleración de las partículas,
de la forma
Aẍ = b, (3.23)
Una solución a la ecuación (3.23), puede ser dada a partir de la inversa de Moore-
Penrose
ẍ = A+ b + y, y ∈ null(A), A+ b ∈ PL⊥ ,
donde L es un subespacio de dimensión s de R3n .
Esta relación presenta la descomposición del vector aceleración ẍ en dos componen-
tes, una ortogonal a L, que denotaremos ẍ⊥ , la cual es conocida (ẍ⊥ = A+ b); y otra
desconocida sobre L, que denotaremos ẍk . Esta última puede ser determinada por la
segunda ley de Newton ([TM10b, página 97])
M ẍ = f + z,
donde f y z son las fuerzas que actúan sobre las partículas. En particular, f consti-
tuyen las fuerzas externas (las cuales están aplicadas a partículas del sistema debidas
a partículas o agentes que no pertenecen al sistema, como el peso y la normal), y z las
fuerzas internas o de contacto (las cuales están aplicadas a las partículas del sistema
debidas a las interacciones con otras partículas del mismo sistema, como la fuerza de
rozamiento); y M es una matriz diagonal 3n × 3n, cuyos elementos distintos de cero
son las masas de cada partícula.
Descomponiendo ẍ como ẍ = ẍ⊥ + ẍk , obtenemos que
M ẍk = M A+ b + z + f . (3.25)
z ⊥ ẍk .
AXA = A, (1)
XAX = X, (2)
∗
(AX) = AX, (3)
(XA)∗ = XA. (4)
Ak XA = Ak , (1k )
AX = XA, (5)
k k
A X = XA , (5k )
AX k = X k A. (6k )
98 aplicaciones de las inversas generalizadas
Ejemplo 4.1.1.-
Consideremos la matriz
5 −9 −4
A = 6 −11 −5 ,
−7 13 6
donde rango(A) = 2.
Sea
−1 2 1
A2 = −1 2 1 ,
1 −2 −1
con rango(A2 ) = 1.
Sea
0 0 0
A3 = 0 0 0 ,
0 0 0
con rango(A3 ) = 0.
J0k = O y J0k−1 6= O.
De este modo,
J1k O J1k O
−1
A =P k
P =P P −1
O J0k O O
y
J1k+1 O J1k+1 O
−1
A k+1
=P P =P P −1 .
O J0k+1 O O
Por tanto,
rango(Ak ) = rango(Ak+1 ).
Por otro lado,
J1k−1 O
A k−1
=P P −1 , donde J0k−1 6= O.
O J0k−1
Luego,
rango(Ak−1 ) > rango(Ak ).
En consecuencia, Ind(A) = k.
100 aplicaciones de las inversas generalizadas
Ejemplo 4.1.2.-
Sea la matriz
5 −9 −4
A = 6 −11 −5 .
−7 13 6
El autovalor de A es λ1 = 0, con multiplicidad algebraica 3.
Proposición 4.2. Sea A ∈ Cn×n . Si existe una matriz X ∈ Cn×n tal que se cumple
Ak+1 X = Ak , (7)
para algún entero positivo k, entonces
rango(Ak+1 ) = rango(Ak ). (4.1)
Demostración. Tenemos que
Ak+1 = Ak A ⇒ rango(Ak+1 ) ≤ rango(Ak ).
Por otro lado,
Ak = Ak+1 X ⇒ rango(Ak ) ≤ rango(Ak+1 ).
Proposición 4.3. Sea A ∈ Cn×n . Si existe una matriz X ∈ Cn×n tal que se cumple
Ak+1 X = Ak , (7)
para algún entero positivo k, entonces se cumple para todo entero l > k.
Demostración. Supongamos que se cumple la igualdad (7) para un entero positivo k.
Sea l = k + 1,
Al+1 X = Ak+1+1 X
= AAk+1 X (por (7))
k
= AA
= Ak+1
= Al .
a) Ind(A) = k.
b) El exponente positivo más pequeño para el cual se cumple
Ak+1 X = Ak , (7)
es k.
rango(Ak+1 ) = rango(Ak ).
Ak+1 X = Ak ,
As+1 X = As ,
luego
C(As+1 ) = C(As ),
y por tanto
rango(As+1 ) = rango(As ),
pero k es el menor entero que cumple esto. En consecuencia s = k.
rango(Ak ) = rango(Ak+1 ).
Por otro lado, por la proposición (4.2)[página 100], como rango(Ak ) = rango(Ak+1 ),
Ak = Ak+1 X.
o lo que es lo mismo:
Al = Al+1 X (l ≥ k).
Por tanto, todas las matrices del conjunto {Al : l ≥ k} tienen el mismo rango,
espacio de columnas y espacio nulo.
2. Partiendo de que (At )l = (Al )t , y, aplicando el apartado a) a At , obtenemos el
resultado buscado.
3. Al igual que en el apartado b), teniendo en cuenta que (A∗ )l = (Al )∗ , ahora
aplicando el apartado a) a A∗ , obtenemos el resultado deseado.
4. Supongamos que, para l < k, se cumple que
C(Al ) = C(Al+1 ).
rango(Al ) = rango(Al+1 ),
y por lo tanto,
Al+1 X = Al .
Lo que es una contradicción, ya que por hipótesis, el índice de A es k, es decir,
k es el menor entero positivo tal que
Ak+1 X = Ak .
C(Al ) = C(Al+1 ).
104 aplicaciones de las inversas generalizadas
null(Al ) = null(Al+1 ).
rango(Al ) = rango(Al+1 ).
Por lo tanto,
Al+1 X = Al .
Lo que es una contradicción, ya que por hipótesis, el índice de A es k, es decir,
k es el menor entero positivo tal que
Ak+1 X = Ak .
null(Al ) = null(Al+1 ).
AP = P J,
J = diag(λ1 , λ2 , . . . , λn ).
4. inversa de drazin 105
A = P JP −1 , X = P J + P −1 ,
AXA = P JP −1 P J + P −1 P JP −1 = P JJ + JP −1 = P JP −1 = A.
XAX = P J + P −1 P JP −1 P J + P −1 = P J + JJ + P −1 = P J + P −1 = X.
AX = P JP −1 P J + P −1
= P JJ + P −1 (J y J + conmutan por ser ambas diagonales)
= P J + JP −1
= P J + P −1 P JP −1
= XA.
Ak XA = Ak , (1k )
XAX = X, (2)
AX = XA. (5)
Ejemplo 4.3.1.-
Sea la matriz
2 0 0
A = 0 0 1 ,
0 0 0
con Ind(A) = 2.
Entonces,
1/2 0 0
AD = 0 0 0 .
0 0 0
Proposición 4.4. Sean las matrices A ∈ Cn×n y X ∈ Cn×n . Entonces, las ecuaciones
Ak XA = Ak , k = Ind(A), (1k )
XAX = X, (2)
AX = XA, (5)
son equivalentes al conjunto de ecuaciones
AX = XA, (5)
Ak+1 X = Ak , k = Ind(A), (7)
2
AX = X. (8)
Demostración. Veamos que de las igualdades (1k ), (2) y (5), podemos obtener (7) y
(8):
Ak+1 X = Ak AX (por (5))
= Ak XA (por (1k ))
= Ak .
Veamos ahora, que si se cumplen las igualdades (5),(7) y (8), entonces, también se
cumplen (1k ) y (2):
Ak XA = Ak AX (por (5))
k+1
=A A (por (7))
k
=A .
108 aplicaciones de las inversas generalizadas
C 2C D = C y C D C 2 = C.
C 2 C D = C.
Además,
C = C 2C D
= CCC D (usando dos veces la propiedad (5))
D
= C CC
= C D C 2.
Luego
C D C 2 = C.
Teorema 4.3. Sea A ∈ Cn×n , y sea Ind(A) = k. Si existe una matriz X tal que
X ∈ A{1k , 2, 5}, entonces X es la única {1k , 2, 5}-inversa de A.
Demostración. Sean X e Y ∈ A{1k , 2, 5}, y consideremos las matrices
E 2 = (AX)(AX) (X ∈ A{2})
= AX
= E,
2
F = (AY )(AY ) (Y ∈ A{2})
= AY
= F.
4. inversa de drazin 109
E = AX (E idempotente)
k k
=A X (Y ∈ A{1k })
= Ak Y AX k
= Al−k AY AX k (Y ∈ A{5})
k−1 k
=A Y AAX
= ... (realizando el mismo proceso)
k k
= AY A X
= F Ak X k
= F AX
= F E.
F =YA (F idempotente)
k k
=Y A (X ∈ A{1k })
= Y k Ak XA
= ... (realizando el mismo proceso)
= Y AE
= F E.
Luego E = F .
Por tanto,
X = XAX (X ∈ A{2})
= EX
= FX
= Y AX
=YE
=YF
= Y AY (Y ∈ A{2})
= Y.
110 aplicaciones de las inversas generalizadas
Entonces
J1−1 O
D
A =P P −1 .
O O
Demostración. Sean las matrices
−1
J1 O −1 J1 O
A=P P y X=P P −1 ,
O J0 O O
Comprobemos que Ak XA = Ak :
k
J1−1 O
J1 O −1 −1 J1 O
k
A XA = P P P P P P −1
O J0 O O O J0
k
J1k O
=P P −1
O J0k
k
J1k O
=P P −1
O O
= Ak .
J1−1 O J1−1 O
−1 J1 O −1
XAX = P P P P P P −1
O O O J0 O O
J1−1 O
=P P −1
O O
= X.
4. inversa de drazin 111
J1−1 O
J1 O −1
AX = P P P P −1 = I
O J0 O O
J1−1
O −1 J1 O
XA = P P P −1 = I.
O O O J0
Ejemplo 4.3.2.-
Sea la matriz
2 −3 −5
A = −1 4 5 .
1 −3 −4
rango(A) = rango(A2 ).
siendo
−1 3 4
P −1 = −2 3 5 .
−1 3 5
que verifican
A = C + N.
Por último,
J12 O J1−1 O
−1 −1 J1 O
2 D
A A =P P P P =P P −1 = C.
O J02 O O O O
N = A − C = A − A2 AD = A(I − AAD ).
1. C D N = N C D = O.
114 aplicaciones de las inversas generalizadas
2. C D = AD .
3. C D (I − AD A) = O.
Demostración. Sean las matrices
J1 O −1 J1 O −1 O O
A=P P , C=P P yN =P P −1 ,
O J0 O O O J0
tales que A = C + N .
1.
J1−1 O
−1 O O
D
C N =P P P P −1 = O
O O O J0
−1
O O J1 O
N CD = P P −1 P P −1 = O,
O J0 O O
luego, C D N = N C D = O.
2. Por el teorema (4.4)[página 110], la expresión para la inversa de Drazin de la
matriz C es: −1
J1 O
D
C =P P −1 ,
O O
que coincide con AD .
3.
C(I − AD A) = C − CAD A (AD = C D )
= C − CC D A (C D C = CC D )
= C − C D CA (A = C + N )
= C − C D C(C + N )
= C − C D CC + C D CN (CN = O, C D C 2 = C)
= C − C = O.
Lema 4.2. Sean las matrices A, B ∈ Cn×n , con Ind(A) = k, tal que A = C + N es
la descomposición corenilpotente de A. Si AB = BA, entonces la matriz B es de la
forma
B1 O
B=P P −1 ,
O B4
cumpliéndose las igualdades:
4. inversa de drazin 115
1. AD B = BAD ,
2. AB D = B D A,
3. AD B D = B D AD = (AB)D ,
4. C D CB = BCC D , y
5. N s B = BN s , ∀s ≥ 0.
J1 B1 = B1 J1 , J1 B2 = B2 J0 , J0 B3 = B3 J1 , J0 B4 = B4 J0 . (4.1)
116 aplicaciones de las inversas generalizadas
J1s B2 = J1 (J1s−1 B2 )
= J1 B2 J0s−1
= B2 J0 J0s−1
= B2 J0s .
1. AD B = BAD :
−1 −1
J1 O −1 B1 O −1 J1 B1 O
D
A B=P P P P = P P −1
O O O B4 O O
y
J1−1 O B1 J1−1 O
B1 O −1 −1
D
BA = P P P P = P P −1
O B4 O O O O
2. AB D = B D A:
Tomemos ahora
J1 O
B=P P −1 ,
O J0
4. inversa de drazin 117
y
A1 O
A=P P −1 .
O A4
Entonces
J1−1 O J1−1 A1 O
−1 A1 O −1
D
B A=P P P P = P P −1
O O O A4 O O
y
J1−1 O A1 J1−1 O
A1 O −1 −1
AB = P D
P P P = P P −1
O A4 O O O O
3. AD B D = B D AD = (AB)D :
Tenemos que
−1 D −1 D
J1 O −1 B1 O −1 J1 B1 O
D D
A B =P P P P =P P −1 ,
O O O B4D O O
y
Quedando
(J1 B1 )l
D
O B1 B1 O
l D D
(AB) (A B )(AB) = P P −1 (Ind(AB) = l)
O (J0 B4 )l O B4D B4
(J1 B1 )l O
D
B1 B1 O
=P D P −1
O O O B4 B4
l D
(J1 B1 ) B1 B1 O
=P P −1
O O
Por la proposición (4.3)[página 101], como l ≥ k, tenemos que B1l B1D B1 = B1l .
Por tanto,
(J1 B1 )l O
l D D
(AB) (A B )(AB) = P P −1
O O
= (AB)l
Finalmente,
y
−1
B1 O −1 J1 O −1 J1 O
BC C = P D
P P P P P −1
O B4 O O O O
B1 0
=P P −1 .
O 0
En consecuencia,
C D CB = BCC D .
5. N s B = BN s , ∀s ≥ 0:
O O −1 B1 O −1 O O
s
N B=P P P P =P P −1 ,
O J0s O B4 O J0s B4
y
B1 O −1 O O −1 O O
s
BN = P P P P =P P −1 .
O B4 O J0s O B4 J0s
Para obtener la igualdad buscada nos quedaría demostrar que J0s B4 = B4 J0s .
B1D O B1 B1D
B1 O −1 −1 O
D
BB = P P P P =P P −1 .
O B4 O B4D O B4 B4D
Luego
B1 B1D
O O −1 O −1 O O
D
(I − AA )BB = P D
P P P =P P −1 .
O I O B4 B4D O B4 B4D
120 aplicaciones de las inversas generalizadas
Si J0 = O, se tiene que
J1 O B1 O
A= , yB= .
O O O B4
De donde
J1 O 0 0
Aw = = = 0 ∈ Cn .
O J0 J0k−1 v J0k v
B1 O 0 0
Bw = = = 0 ∈ Cn .
O B4 J0k−1 v B4 J0k−1 v
Y, como consecuencia, w ∈ null(A) ∩ null(B), w 6= 0, lo que es una contradicción,
ya que, por hipótesis, null(A) ∩ null(B) = {0}. Por tanto, null(B4 ) = {0}, y, por
consiguiente, B4 es invertible.
Ax0 + Bx = f .
El lector quizás estará pensando que este resultado ya es estudiado por la teoría clá-
sica de ecuaciones diferenciales, sin embargo, y aquí es donde entra en juego nuestra
inversa de Drazin, para poder aplicar estos resultados es necesario que las matrices
122 aplicaciones de las inversas generalizadas
A y B sean no singulares. La inversa de Drazin nos hará llegar más allá, resolviendo
estos sistemas incluso cuando las matrices A y B sean singulares.
Llegaremos a conocer una forma cerrada para todas las soluciones de un sistema lineal
de ecuaciones diferenciales.
4.4.1 Ecuación x0 + Ax = f
A2 2 k−1
D D A k−1 A k−1
x = A + (I − AA )t I − t + t − · · · + (−1) t b.
2 3! k!
Ejemplo 4.4.1.-
x0 + Ax = f ,
donde
t 1 1
x = (x1 x2 ) , A = y f = (1 1)t .
−1 −1
Quedando:
x01
1 1 x1 1
+ = .
x02 −1 −1 x2 1
Calculemos AD :
Una matriz de Jordan asociada a la matriz A sería:
0 1
J= ,
0 0
con matriz de paso:
1 1
P = ,
−1 0
siendo
−1 0 −1
P = .
1 1
Por tanto, la inversa de Drazin de la matriz A sería:
D 0 0 −1 0 0
A =P P = .
0 0 0 0
Calculemos el índice de A:
rango(A) = 1
rango(A2 ) = 0
rango(A3 ) = 0,
luego Ind(A) = 2.
Estamos en disposición ya de resolver el sistema:
x1 t 0 1 0 t/2 t/2 1
= − =
x2 0 t 0 1 −t/2 −t/2 1
−t2 /2
(1 − t/2)t 1
= 2 .
t /2 (1 + t/2)t 1
Por tanto,
x1 = (1 − t/2)t − t2 /2 = t − t2
x2 = t2 /2 + (1 + t/2)t = t + t2 .
Ax0 + Bx = f . (4.5)
Ax0 + Bx = 0. (4.6)
AB = BA.
Ax0 + Bx = f .
Observemos que si existe una solución de las ecuaciones (4.7) y (4.8), entonces, su-
mando ambas, se tiene que existe una solución de Ax0 + Bx = f .
126 aplicaciones de las inversas generalizadas
Cx01 + Bx1 = C D Cf
es equivalente a la ecuación
En consecuencia,
x01 + C D Bx1 = C D f .
Cx01 + CC D Bx1 = CC D f .
Nos queda probar que CC D Bx1 = Bx1 . Sea x1 = AD Ax (para lo que viene a
continuación, cuando hagamos referencia a las propiedades (2) y (5), estaremos ha-
4. inversa de drazin 129
En consecuencia,
Cx01 + Bx1 = C D Cf .
Ax0 + Bx = 0. (4.4)
D Bt
Supongamos que las matrices A y B ∈ Cn×n conmutan. Entonces y = e−A AAD q
es una solución del sistema para todo vector columna q ∈ Cn .
D Bt
Demostración. Sea y = e−A AAD q. Entonces
D Bt
Ay 0 = −AAD Be−A AAD q
D Bt
= −Be−A AAD AAD q
D Bt
= −Be−A AAD q
= −By.
Ejemplo 4.4.2.-
130 aplicaciones de las inversas generalizadas
Ax0 + Bx = 0,
donde
t −3 −2 1 1
x = (x1 x2 ) , A = y B= ,
2 1 −1 −1
y, además, se tiene que:
−1 −1
AB = = BA.
1 1
Nos queda, por tanto, el sistema:
0
−3 −2 x1 1 1 x1 0
+ = .
2 1 x02 −1 −1 x2 0
D Bt
Calculamos la matriz exponencial e−A :
D 1 2 1 1 1 1
−A B = − = .
−2 −3 −1 −1 −1 −1
El autovalor de la matriz −AD B es λ1 = 0 con multiplicidad algebraica 2.
Una matriz de Jordan asociada a −AD B es:
0 1
J= ,
0 0
Tomando
y1 q1
y= y q= , con q1 , q2 ∈ C,
y2 q2
se tiene que:
y1 = −tq1 + q2
y2 = tq1 − q1 − q2 ,
con q1 , q2 ∈ C.
El siguiente teorema será fundamental para los resultados que veremos más ade-
lante. Conseguiremos dar una forma cerrada para la solución general del problema
Ax0 + Bx = f añadiendo la condición de que los espacios nulos de A y B tengan
intersección trivial.
132 aplicaciones de las inversas generalizadas
y
x01 + C D Bx1 = 0. (4.12)
Multiplicando la ecuación (4.11) por N k−1 a izquierda, se obtiene que:
o lo que es lo mismo,
N k x02 + N k−1 Bx2 = 0,
Como N es una matriz nilpotente de índice k, es decir, N k = O, entonces
N k−1 Bx2 = 0,
BN k−1 x2 = 0.
N k−1 x2 = 0.
N k−2 x2 = 0.
4. inversa de drazin 133
Finalmente, de
x01 + C D Bx1 = 0, (4.11)
obtenemos, por la expresión (4.3)[página 122] dada para la solución general de un
problema homogéneo del tipo x0 + Ax = 0, que
D Bt
x1 = e−C q (C D = AD )
D Bt
= e−A q, q ∈ Cn .
Luego
D Bt
x = x1 = AAD x = AAD x1 = AAD e−A q, q ∈ Cn
134 aplicaciones de las inversas generalizadas
Ax0 + Bx = f . (4.3)
donde a ∈ R es arbitrario.
Demostración. Supongamos que AB = BA y null(A) ∩ null(B) = {0}. Sean
Z t
D −AD Bt D
x1 = A e eA Bs f ds, a ∈ R
a
y
k−1
X
x2 = (I − AAD ) (−1)n (AB D )n B D f (n) .
n=0
Probaremos que
Ax01 + Bx1 = AAD f (4.13)
y
Ax02 + Bx2 = (I − AAD )f . (4.14)
con lo que x = x1 + x2 es una solución de Ax0 + Bx = f .
Verificaremos primero (4.13):
D Bt D Bt
Ax01 = A(−AD Bx1 + AD e−A eA f)
D D
= −AA Bx1 + AA f
= −Bx1 + AAD f .
Del desarrollo de la demostración del lema (4.2)[página 114], se tiene, para el término
(k − 1) que:
k
O O −1 J1 O
D k D k
(I − AA )A (B ) = P P P P −1 (B D )k = O,
O I O O
quedando:
k−2
X
Ax02 = (I − AA ) D
(−1)n (AB D )n+1 f (n+1)
n=0
k−1
X
D
= −(I − AA ) (−1)n (AB D )n f (n) .
n=1
Por el lema (4.2)[página 114] sabemos que (I − AAD ) = (I − AAD )BB D , luego
k−1
X
Ax02 D
= −(I − AA )BB D
(−1)n (AB D )n f (n) (AB D = B D A)
n=1
k−1
X
= −(I − AAD )B (−1)n (AB D )n B D f (n)
n=1
k−1
!
X
= −(I − AAD )B (−1)n (AB D )n B D f (n) − B D f
n=0
k−1
X
= −(I − AAD )B (−1)n (AB D )n B D f (n) + (I − AAD )BB D f .
n=0
Dado que
obtenemos
k−1
X
Ax02 = −B(I − AAD ) (−1)n (AB D )n B D f (n) + (I − AAD )BB D f .
n=0
Como
k−1
X
D
x2 = (I − AA ) (−1)n (AB D )n B D f (n) ,
n=0
136 aplicaciones de las inversas generalizadas
se tiene que
Volviendo a usar el lema (4.2)[página 114] tenemos que (I −AAD ) = (I −AAD )BB D ,
se sigue finalmente que
Ax0 + Bx = f ,
sin ser necesario imponer, como en el apartado anterior, que las matrices A y B
conmuten. Para ello haremos uso de las matrices Âc y B̂c , tales que
Por tanto,
Ax0 + Bx = 0
tiene solución única para condiciones iniciales compatibles si y solo si existe c ∈ C tal
que la matriz (cA + B) es invertible.
Demostración. ⇐ Supongamos que existe c ∈ C tal que la matriz (cA + B) es
invertible. Entonces null(cA + B) = {0}.
Sea el vector u ∈ Cn tal que
Au = 0 y Bu = 0.
Entonces
cAu + Bu = 0 y (cA + B)u = 0,
de lo que deducimos que u = 0. Por tanto,
Pero
Por consiguiente,
Además, por el lema (4.3)[página 137], tenemos que (cA + B)−1 A y (cA + B)−1 B
conmutan. Como consecuencia, por el teorema (4.9)[página 132],
tiene solución única para una condición inicial compatible. Y, claramente, el sistema
es equivalente al sistema
Ax0 + Bx = 0.
Ax0 + Bx = 0
4. inversa de drazin 139
tiene solución única para una condición inicial compatible. Tenemos que probar que
existe un c ∈ C tal que (cA + B) es invertible. Supongamos que no existe ningún
c ∈ C tal que (cA + B) es invertible. Entonces, para todo c ∈ C existe un vector
φc ∈ Cn distinto de 0 tal que
(cA + B)φc = 0.
Pero, entonces, xc = etc φc es una solución de
Ax0 + Bx = 0,
ya que
Ax0c = Acetc φc
= etc cAφc ((cA + B)φc = 0)
tc
= −e Bφc
= −Bxc .
Como no pueden existir mas de n vectores φc linealmente independientes, tomaremos
un conjunto finito de vectores φc
{φci }li=1 , ci 6= 0,
los cuales son linealmente dependientes, es decir, existen escalares α1 , α2 , . . . , αl ∈ C
tales que
Xl
αi φci = 0,
i=1
= 0.
140 aplicaciones de las inversas generalizadas
Además
l
X
z(0) = αi e0ci φci
i=1
Xl
= αi φci
i=1
= 0.
x(0) = x0
tiene una solución si y solo si x0 es de la forma
k−1
X (n)
x0 = Âc ÂD
c q + (I − Âc ÂD
c ) (Âc B̂cD )n fˆc (0), (4.15)
n=0
donde a ∈ R es arbitrario.
4. inversa de drazin 141
Ax0 + Bx = f
es equivalente al sistema
Âc x0 + B̂c x = fˆc ,
donde Âc = (cA + B)−1 A, B̂c = (cA + B)−1 B y fˆc = (cA + B)−1 f .
Aplicando los teoremas citados anteriormente se llega al resultado deseado.
matrices (αA + B)−1 y (βA + B)−1 existen, se cumplen las siguientes igualdades:
D D
Aˆα Aˆα = Aˆβ Aˆβ
D D
Aˆα Bˆα = Aˆβ Bˆβ
D D
Aˆα Bˆα = Aˆβ Bˆβ
D D
Aˆα (αA + B)−1 = Aˆβ (βA + B)−1
D D
Bˆα (αA + B)−1 = Bˆβ (βA + B)−1
Ind(Aˆα ) = Ind(Aˆβ )
Demostración. Probaremos cada una de las igualdades.
D
Aˆα Aˆα = [(αA + B)−1 A]D Aˆα
= [(αA + B)−1 (βA + B)(βA + B)−1 A]D Aˆα
= [((βA + B)−1 (αA + B))−1 Aˆβ ]D Aˆα
= [(α(βA + B)−1 A + (βA + B)−1 B)−1 Aˆβ ]D Aˆα
= [(αAˆβ + Bˆβ )−1 Aˆβ ]D Aˆα
Se tiene que las matrices (αAˆβ + Bˆβ )−1 y Aˆβ conmutan, ya que:
(αAˆβ + Bˆβ )−1 Aˆβ = Aˆβ (αAˆβ + Bˆβ )−1 ⇔ Aˆβ = (αAˆβ + Bˆβ )Aˆβ (αAˆβ + Bˆβ )−1
⇔ Aˆβ (αAˆβ + Bˆβ ) = (αAˆβ + Bˆβ )Aˆβ
⇔ αAˆβ Aˆβ + Aˆβ Bˆβ = αAˆβ Aˆβ + Bˆβ Aˆβ (Aˆβ Bˆβ = Bˆβ Aˆβ )
⇔ αAˆβ Aˆβ + Aˆβ Bˆβ = αAˆβ Aˆβ + Aˆβ Bˆβ .
Por tanto, aplicando el lema (4.2)[página 114], se tiene que:
D D
Aˆα Aˆα = Aˆβ [(αAˆβ + Bˆβ )−1 ]D Aˆα
Como (αAˆβ + Bˆβ ) es invertible, sabemos que (αAˆβ + Bˆβ )−1 = (αAˆβ + Bˆβ )D , luego
D D
Aˆα Aˆα = Aˆβ (αAˆβ + Bˆβ )Aˆα
D
= Aˆβ (α(βA + B)−1 A + (βA + B)−1 B)Aˆα
D
= Aˆβ (βA + B)−1 (αA + B)Aˆα
D
= Aˆβ (βA + B)−1 (αA + B)(αA + B)−1 A
D
= Aˆβ (βA + B)−1 A
D
= Aˆβ Aˆβ .
4. inversa de drazin 143
D
Aˆα Bˆα = [(αA + B)−1 A]D Bˆα
= [(αA + B)−1 (βA + B)(βA + B)−1 A]D Bˆα
= [((βA + B)−1 (αA + B))−1 Aˆβ ]D Bˆα
= [(α(βA + B)−1 A + (βA + B)−1 B)−1 Aˆβ ]D Bˆα
= [(αAˆβ + Bˆβ )−1 Aˆβ ]D Bˆα
Las matrices (αAˆβ + Bˆβ )−1 y Aˆβ conmutan, y por el lema (4.2)[página 114] se tiene
que:
D D
Aˆα Bˆα = Aˆβ [(αAˆβ + Bˆβ )−1 ]D Bˆα
Como (αAˆβ + Bˆβ ) es invertible, sabemos que (αAˆβ + Bˆβ )−1 = (αAˆβ + Bˆβ )D , luego
D D
Aˆα Bˆα = Aˆβ (αAˆβ + Bˆβ )Bˆα
D
= Aˆβ (α(βA + B)−1 A + (βA + B)−1 B)Bˆα
D
= Aˆβ (βA + B)−1 (αA + B)Bˆα
D
= Aˆβ (βA + B)−1 (αA + B)(αA + B)−1 B
D
= Aˆβ (βA + B)−1 B
D
= Aˆβ Bˆβ .
Luego,
D D
Aˆα Bˆα = Bˆα Aˆα
= [(αA + B)−1 B]D Aˆα
= [(αA + B)−1 (βA + B)(βA + B)−1 B]D Aˆα
= [((βA + B)−1 (αA + B))−1 Bˆβ ]D Aˆα
= [(α(βA + B)−1 A + (βA + B)−1 B)−1 Bˆβ ]D Aˆα
= [(αAˆβ + Bˆβ )−1 Bˆβ ]D Aˆα
144 aplicaciones de las inversas generalizadas
Las matrices (αAˆβ + Bˆβ )−1 y Aˆβ conmutan, y por el lema (4.2)[página 114], se
tiene que:
D D
Aˆα Bˆα = Bˆβ [(αAˆβ + Bˆβ )−1 ]D Aˆα
Como (αAˆβ + Bˆβ ) es invertible, sabemos que (αAˆβ + Bˆβ )−1 = (αAˆβ + Bˆβ )D , luego
D D
Aˆα Bˆα = Bˆβ (αAˆβ + Bˆβ )Aˆα
D
= Bˆβ (α(βA + B)−1 A + (βA + B)−1 B)Aˆα
D
= Bˆβ (βA + B)−1 (αA + B)Aˆα
D
= Bˆβ (βA + B)−1 (αA + B)(αA + B)−1 A
D
= Bˆβ (βA + B)−1 A
D
= Bˆβ Aˆβ .
Volviendo a utilizar los lemas (4.3)[página 137] y (4.2)[página 114],
D D
Aˆα Bˆα = Aˆβ Bˆβ .
D
Aˆα (αA + B)−1 == [(αA + B)−1 A]D (αA + B)−1
= [(αA + B)−1 (βA + B)(βA + B)−1 A]D (αA + B)−1
= [((βA + B)−1 (αA + B))−1 Aˆβ ]D (αA + B)−1
= [(α(βA + B)−1 A + (βA + B)−1 B)−1 Aˆβ ]D (αA + B)−1
= [(αAˆβ + Bˆβ )−1 Aˆβ ]D (αA + B)−1
Las matrices (αAˆβ + Bˆβ )−1 y Aˆβ conmutan, y por el lema (4.2)[página 114], se tiene
que:
D D
Aˆα (αA + B)−1 = Aˆβ [(αAˆβ + Bˆβ )−1 ]D (αA + B)−1
Como (αAˆβ + Bˆβ ) es invertible, sabemos que (αAˆβ + Bˆβ )−1 = (αAˆβ + Bˆβ )D , luego
D D
Aˆα (αA + B)−1 = Aˆβ (αAˆβ + Bˆβ )(αA + B)−1
D
= Aˆβ (α(βA + B)−1 A + (βA + B)−1 B)(αA + B)−1
D
= Aˆβ (βA + B)−1 (αA + B)(αA + B)−1
D
= Aˆβ (βA + B)−1 (αA + B)(αA + B)−1
D
= Aˆβ (βA + B)−1 .
4. inversa de drazin 145
D
Bˆα (αA + B)−1 == [(αA + B)−1 B]D (αA + B)−1
= [(αA + B)−1 (βA + B)(βA + B)−1 B]D (αA + B)−1
= [((βA + B)−1 (αA + B))−1 Bˆβ ]D (αA + B)−1
= [(α(βA + B)−1 A + (βA + B)−1 B)−1 Bˆβ ]D (αA + B)−1
= [(αAˆβ + Bˆβ )−1 Bˆβ ]D (αA + B)−1
Las matrices (αAˆβ + Bˆβ )−1 y Aˆβ conmutan, y por el lema (4.2)[página 114], se tiene
que:
D D
Bˆα (αA + B)−1 = Bˆβ [(αAˆβ + Bˆβ )−1 ]D (αA + B)−1
Como (αAˆβ + Bˆβ ) es invertible, sabemos que (αAˆβ + Bˆβ )−1 = (αAˆβ + Bˆβ )D , luego
D D
Bˆα (αA + B)−1 = Bˆβ (αAˆβ + Bˆβ )(αA + B)−1
D
= Bˆβ (α(βA + B)−1 A + (βA + B)−1 B)(αA + B)−1
D
= Bˆβ (βA + B)−1 (αA + B)(αA + B)−1
D
= Bˆβ (βA + B)−1 (αA + B)(αA + B)−1
D
= Bˆβ (βA + B)−1 .
luego
k k
rango(Aˆα ) ≤ rango(Aˆβ ).
Por otro lado,
k
rango(Aˆβ ) = rango(((βA + B)−1 A)k ) (siguiendo el desarrollo de las igualdades anteriores)
= rango(((β Aˆα + Bˆα ) Aˆα ) )
−1 k
((αAˆβ + Bˆβ )−1 Aˆβ = Aˆβ (αAˆβ + Bˆβ )−1 )
k
= rango((β Aˆα + Bˆα )−k Aˆα ),
146 aplicaciones de las inversas generalizadas
luego
k k
rango(Aˆα ) ≥ rango(Aˆβ ).
Por tanto,
k k
rango(Aˆα ) = rango(Aˆβ ).
Y por consiguiente, Ind(Aˆα ) = Ind(Aˆβ ).
Ejemplo 4.4.3.-
Ax0 + Bx = 0, (4.18)
donde
2 −3 −5 1 0 1
A = −1 4 5 y B = 2 1 3 .
1 −3 −4 3 1 4
Observamos que las matrices A y B son no invertibles, y además no conmutan, ya
que
−19 −8 −2 3 −6 −9
AB = 22 9 31 =6 6 −11 −17 = BA.
−17 −7 −24 9 −17 −26
Âx0 + B̂x = 0,
4. inversa de drazin 147
donde
1/2 −1/10 −3/5 1/2 1/10 3/5
 = 1/2 13/10 4/5 y B̂ = −1/2 −3/10 −4/5 .
−1/2 −3/10 1/5 1/2 3/10 4/5
La solución general para (4.18) viene dada por (teorema (4.13)[página 140]):
D B̂t
x(t) = e−Â ÂÂD q, q ∈ C3 .
Por el teorema (4.13)[página 140], la ecuación diferencial (4.18) tendrá una única so-
lución si y solo si el vector inicial x(0) satisface:
x(0) = ÂÂD q, q ∈ C3 .
Tomando q = x(0)
x(0) = ÂÂD x(0),
o lo que es lo mismo
(I − ÂÂD )x(0) = 0.
rango(Â) = 2 = rango(Â2 ).
Por tanto,
1 −1 0 1/2 −3/10 −4/5
ÂD = PÂ 0 1 0 P −1 = 1/2 11/10 3/5 .
Â
0 0 0 −1/2 −1/10 2/5
rango(B̂) = 2 6= 1 = rango(B̂ 2 )
rango(B̂ 2 ) = 1 = rango(B̂ 3 ).
D B̂t
Calculamos la matriz exponencial e−Â :
0 1/10 1/10
−ÂD B̂ = 0 1/10 1/10 .
0 −1/10 −1/10
1/2 −1/10 −3/5 1/2 −3/10 −4/5
D
ÂÂ = 1/2 13/10 4/5 1/2 11/10 3/5
−1/2 −3/10 1/5 −1/2 −1/10 2/5
1/2 −1/5 −7/10
= 1/2 6/5 7/10 .
−1/2 −1/5 3/10
Simplificando:
5 2
x3 (0) = − x1 (0) − x2 (0), x1 (0), x2 (0) ∈ C.
7 7
t t
x1 (0) − x1 (0) + x2 (0)
14 14
t t
= − x1 (0) + x2 (0) + x2 (0) , x1 (0), x2 (0) ∈ C.
14 14
5 t 2 t
− x1 (0) + x1 (0) − x2 (0) − x2 (0)
7 14 7 14
Ejemplo 4.4.4.-
Ax0 + Bx = b, (4.19)
donde
2 −3 −5 1 0 1 1
A = −1 4 5 , B = 2 1 3 y b = 0 .
1 −3 −4 3 1 4 2
Observamos, al igual que el ejemplo anterior, que las matrices A y B son no in-
vertibles, y además no conmutan. Tomaremos también, como en el anterior ejemplo,
c = 1, y la matriz (cA + B) es invertible. Nos queda
2/5 1/5 −1/10
(cA + B)−1 = (A + B)−1 = 4/5 2/5 −7/10 .
−11/20 −3/20 9/20
donde
1/2 −1/10 −3/5 1/2 1/10 3/5 1/5
 = 1/2 13/10 4/5 , B̂ = −1/2 −3/10 −4/5 y b̂ = −3/5 .
−1/2 −3/10 1/5 1/2 3/10 4/5 7/20
La solución general para la ecuación diferencial (4.19) viene dada por (teorema
(4.13)[página 140]:
Z t
−ÂD B̂t D D −ÂD B̂t D
x(t) = e  q +  e e B̂s b̂ ds
a
k−1
X
+ (I − ÂÂD ) (−1)n (ÂB̂ D )n B̂ D b̂(n) ,
n=0
+ (I − ÂÂ )B̂ D b̂ .
D
| {z }
S3
Por tanto,
D
S1 = e−Â B̂t ÂÂD x(0)
1 1 1 1 7
1 t t − −
10 10 2 5 10
1 1 1 6 7
= 0 1 + 10 t t x(0)
10 2
5 10
1 1 1 1 3
0 − t 1− t − −
10 10 2 5 10
1 1 1 7 1
2 − + t − + t
5 10 10 10 x1 (0)
1 6 1 7 1
= 2 + t + t x2 (0) .
5 10 10 10 x (0)
1 3
1 1 3 1
− − − t − t
2 5 10 10 10
Rt D B̂s
comenzamos por la integral 0
e b̂ ds. Dado que
1 1
1 − 10 s − s
10
D B̂s 1 1
e =
0 1 − 10 s − 10 s
,
1 1
0 s 1+ s
10 10
se tiene que
1 1 2
t+ t
5 80
t
Z
ÂD B̂s
3 1 2
e b̂ ds = − t+ t .
0
5 80
7 1 2
t− t
20 80
154 aplicaciones de las inversas generalizadas
Finalmente,
1
− t2
80
7 1 2
S2 = − t− t .
20 80
1 1 2
t+ t
10 80
Para S3 ,
9
40
D D
9
S3 = (I − ÂÂ )B̂ b̂ = − .
40
9
40
Unimos todo lo anterior para obtener la solución general
1 1 1 7 1 1 9
2 − 5 + 10 t − 10 + 10 t − t2 +
80 40
1 6 1 7 1 7 1 9
x(t) =
2 + t + t x(0) + − t− t2 − .
5 10 10 10
20
80 40
1 1 1 3 1 1 1 2 9
− − − t − t t+ t +
2 5 10 10 10 10 80 40
Por el teorema (4.13)[página 140], para que la ecuación diferencial (4.19) tenga una
única solución, la condición inicial x(0) debe satisfacer
Si q = x(0), resulta
(I − ÂÂD )(x(0) − B̂ D b̂) = 0,
de donde
1 1 7 9
x1 (0) + x2 (0) + x3 (0) −
2 5 10 40
0
D D
1 1 7 9
(I−ÂÂ )(x(0)−B̂ b̂) = − x1 (0) − x2 (0) − x3 (0) + = 0 .
2 5 10 40
0
1 1 7 9
x1 (0) + x2 (0) + x3 (0) −
2 5 10 40
4. inversa de drazin 155
Comentamos, nada más comenzar este capítulo, que una parte del desarrollo del
mismo, en particular la referente a la aplicación de la inversa de Drazin para el cálcu-
lo de soluciones de sistemas de ecuaciones diferenciales, se iba a fundamentar en
[CMR76]. Se ha tratado de realizar un estudio de las referencias encontradas en la
aplicación "web of knowledge", disponible en https://fama.us.es//, a partir de la
búsqueda de dicho artículo. De las 134 referencias que se han obtenido, se ha consi-
derado comentar los siguientes temas.
El lector podría preguntarse por qué, habiendo visto ya toda una sección referente
a la aplicación de la inversa de Drazin como medio para la resolución de sistemas de
ecuaciones diferenciales, volvemos a referirnos a ello. Pues bien, no es excesivo decir
que ésta es la aplicación más relevante de la inversa de Drazin. Sistemas lineales de
ecuaciones diferenciales son utilizados en una gran variedad de ámbitos en la vida
real, modelizando problemas de física, biología, ingeniería o, inclusive, problemas de
ciencias sociales. Pero no todos son capaces de ser resueltos mediante la teoría clási-
ca de ecuaciones diferenciales. Es el caso de los sistemas diferenciales singulares, en
los que la matriz constituida por los coeficientes que acompañan a las derivadas no
posee inversa, y por ello, no pueden ser resueltos por los métodos convencionales.
La inversa de Drazin nos ayuda en la obtención de resultados con los que vamos a
ser capaces de encontrar soluciones para tales sistemas. Parte de estos resultados es
lo que hemos visto hasta ahora, el cálculo de soluciones de sistemas de ecuaciones
diferenciales singulares de primer orden a partir del uso de la inversa de Drazin.
Técnicas numéricas fundamentadas en la formulación basada en la inversa de Drazin
para la solución de sistemas singulares diferenciales son propuestas por [CGST12]
para aproximar la solución de problemas de valor inicial asociados a un sistema sin-
gular.
La incorporación de la inversa de Drazin a la solución de sistemas homogéneos de
ecuaciones diferenciales singulares de segundo de orden tiene su origen en [Cam83],
el cual nos propone, mediante un cambio de variable, reducir el sistema diferencial
singular de segundo orden a un sistema diferencial singular de primer orden, que ya
estaríamos en condiciones de resolver a partir de los resultados conocidos. El mayor
inconveniente que se presenta es el cálculo de la inversa de Drazin de este último sis-
4. inversa de drazin 157
tema. [XSL15] trata de obtener, a partir del sistema diferencial de segundo orden que
poseíamos inicialmente, una ecuación matricial cuadrática que simplifique el cálculo
de dicha inversa de Drazin. Como aplicación, [XSL15], nos describe una solución par-
ticular de un sistema basado en el modelo físico de una varilla uniforme de 2 unidades
de longitud.
No solo vamos a encontrarnos referencias relacionadas con la resolución de sistemas
diferenciales singulares; [FWC13] se basa en el uso de la inversa de Drazin para esta-
blecer condiciones necesarias y suficientes en el estudio de la estabilidad de sistemas
singulares multiagentes de orden superior e invariantes en el tiempo (LTI). Nos en-
contramos aquí con un nuevo concepto que hasta ahora no habíamos introducido, el
de sistemas multiagentes. Se trata de sistemas que están compuestos a nivel indivi-
dual por entidades (agentes) que tienen un comportamiento autónomo y proactivo e
interactúan con el medio ambiente. Como resultado de todas estas actuaciones se ob-
tiene un comportamiento global del sistema. Estos sistemas han sido considerados por
biólogos, físicos e ingenieros; un ejemplo son los llamados MASS (multi-agent suppor-
ting systems), como se muestran en [Ben94] y [Dif12], sistemas desarrollados para
configuraciones formadas por muchos agentes que deben mantenerse incluso cuando
existen alteraciones desconocidas. Es el caso de la prevención de daños producidos
por terremotos en edificios, control de la estabilidad de plantas flotantes, control de
antenas parabólicas de gran diámetro o telescopios.
Por último, cabe destacar una de las referencias más recientes, [Muh16], que incorpo-
ra la inversa de Drazin con la finalidad de realizar una primera toma de contacto en
la detección de la existencia de una realimentación a un sistema lineal de ecuaciones
algebraicas diferenciales tal que el sistema resultante sea positivo y estable.
[AS03] T Aoki and T Sato, Application of Bott-Duffin inverse to static and dynamic
analysis of masonry structures, Structural studies, repairs and maintenan-
ce of heritage architecture VIII (Brebbia, CA, ed.), Advances in architec-
ture series, vol. 16, 2003, pp. 277–286.
[BD53] R. Bott and R. J. Duffin, On the algebra of networks, Trans. Amer. Math.
Soc. 74 (1953), 99–109.
[Cam83] S.L. Campbell, The drazin inverse and systems of second order linear dif-
ferential equations, Linear and Multilinear Algebra 14 (1983), 195–198.
[CGST12] C. Coll, D. Ginestar, E. Sanchez, and N. Thome, Drazin inverse based nu-
merical methods for singular linear differential systems, Advances in En-
gineering Software 50 (2012), 37–43.
[Che90] Yong Lin Chen, The generalized Bott-Duffin inverse and its applications,
Linear Algebra Appl. 134 (1990), 71–91.
160 aplicaciones de las inversas generalizadas
[CMR76] S.L. Campbell, C.D. Meyer, and N.J. Rose, Applications of drazin inverse to
linear-systems of differential equations with singular constant coefficients,
SIAM Journal on Applied Mathematics 31 (1976), no. 3, 411–425.
[FWC13] Mingyu Fu, Shimin Wang, and Yirui Cong, Swarm stability analysis of
high-order linear time-invariant singular multiagent systems, Math. Probl.
Eng. (2013), Art. ID 469747, 11.
[Gan64] F.R. Gantmacher, The theory of matrices, vol. Two, Chelsea Publishing
Company, 1964.
[HK09] Denis Horvath and Gerald R. Kneller, A least-constraint principle for po-
pulation dynamics and reaction kinetics: Modeling entropy-controlled che-
mical hypercycles, Journal of Chemical Physics 131 (2009), no. 17.
[KGW00] C Keller, NIM Gould, and AJ Wathen, Constraint preconditioning for inde-
finite linear systems, SIAM Journal on Matrix Analysis and Applications
21 (2000), no. 4, 1300–1317.
[Kne08] , Eckart axis conditions, Gauss’ principle of least constraint, and the
optimal superposition of molecular structures, Journal of Chemical Physics
128 (2008), no. 19.
[LACCG14] M. Laura Arias, Gustavo Corach, and M. Celeste Gonzalez, Saddle point
problems, Bott-Duffin inverses, abstract splines and oblique projections, Li-
near Algebra and its Applications 457 (2014), 61–75.
[LW07] Yiqin Lin and Yimin Wei, A note on constraint preconditioners for nonsym-
metric saddle point problems, Numerical Linear Algebra with Applica-
tions 14 (2007), no. 8, 659–664.
[LWW09] Xin-Guo Liu, Wei-Guo Wang, and Yi-Min Wei, A generalization of the
Bott-Duffin inverse and its applications, Numer. Linear Algebra Appl. 16
(2009), no. 3, 173–196.
[Mey00] Carl Meyer, Matrix analysis and applied linear algebra, Society for Indus-
trial and Applied Mathematics (SIAM), Philadelphia, PA, 2000.
[MS09] Luis Merino and Evangelina Santos, Álgebra lineal con métodos elemen-
tales, Paraninfo, 2009.
[Son13] Guang Jing Song, Characterization of the W-weighted Drazin inverse over
the quaternion skew field with applications, Electron. J. Linear Algebra 26
(2013), 1–14.
162 aplicaciones de las inversas generalizadas
[SRS15] Juana Sendra and J. Rafael Sendra, Gröbner basis computation of Drazin
inverses with multivariate rational function entries, Appl. Math. Comput.
259 (2015), 450–459.
[SS16] J. Rafael Sendra and Juana Sendra, Symbolic computation of Drazin in-
verses by specializations, J. Comput. Appl. Math. 301 (2016), 201–212.
[TM10a] Paul A. Tipler and Gene Mosca, Física para la ciencia y la tecnología, vol.
2A: electricidad y magnetismo, Editorial Reverté, 2010.
[Wei02] Yimin Wei, A characterization for the W -weighted Drazin inverse and
a Cramer rule for the W -weighted Drazin inverse solution, Appl. Math.
Comput. 125 (2002), no. 2-3, 303–310.
[WS04] Guo-rong Wang and Jie Sun, A Cramer rule for solution of the general
restricted matrix equation, Appl. Math. Comput. 154 (2004), no. 2, 415–
422.
[XSL15] Qingxiang Xu, Chuanning Song, and Xiaofang Liu, General exact solu-
tions of the second-order homogeneous algebraic differential equations, Li-
near Multilinear Algebra 63 (2015), no. 2, 244–263.
[XW07] Hua Xiang and Yimin Wei, On normwise structured backward errors for,
SIAM Journal on Matrix Analysis and Applications 29 (2007), no. 3, 838–
849.
[XWD06] Hua Xiang, Yimin Wei, and Huaian Diao, Perturbation analysis of genera-
lized saddle point systems, Linear Algebra and its Applications 419 (2006),
no. 1, 8–23.