AL Cap4
AL Cap4
AL Cap4
147
148 Valores e vectores próprios
Ax = λx. (4.1)
A um vector não nulo x que verifica a equação (4.1) chama-se vector próprio de A
associado ao valor próprio λ.
O par (λ, x) diz-se um par próprio de A se λ é um valor próprio de A e x é um
vector próprio de A associado a λ.
O conjunto dos valores próprios de uma matriz A designa-se por espectro de A e
denota-se por σ(A).
A terminologia inglesa para valor e vector próprio é respectivamente “eigenvalue” e
“eigenvector”, enquanto que em português do Brasil se usam as designações de auto-
valor e autovector.
4 2
Exemplo 4.1. O vector x = (2, 1) é um vector próprio da matriz A = já que
2 1
4 2 2 10 2
Ax = = =5 = 5x.
2 1 1 5 1
Da igualdade anterior, concluimos que x é um vector próprio de A associado ao valor
próprio λ = 5. Ou seja, (5, x) é um par próprio de A.
A equação Ax = λx pode reescrever-se na seguinte forma equivalente
Ax = λx ⇐⇒ Ax − λx = 0 ⇐⇒ (A − λI)x = 0, (4.2)
onde I é a matriz identidade. Assim, a definição de vector próprio é equivalente à
existência de uma solução não nula do sistema homogéneo (A − λI)x = 0. Ora, um
sistema homogéneo com matriz dos coeficientes quadrada possui soluções não nulas
se e só se o determinante da matriz dos coeficientes é nulo (Proposição 2.2, pág. 84).
Podemos portanto enunciar a proposição:
Proposição 4.1. O escalar λ é um valor próprio da matriz quadrada A se e só se
satisfaz a equação
det(A − λI) = 0. (4.3)
Um vector próprio x associado ao valor próprio λ é uma solução não nula do sistema
homogéneo (A − λI)x = 0.
E(λ) = N (A − λI).
mas de natureza topológica, outras de natureza algébrica ou ainda de natureza analı́tica. As pro-
vas analı́ticas são do âmbito da Análise complexa e usam nomeadamente o Teorema do inte-
gral de Cauchy, ou o Teorema de Liouville ou ainda o designado princı́pio do argumento. No
site http://www.cut-the-knot.org/do_you_know/fundamental2.shtml, poderá encon-
trar várias provas deste teorema bem como várias referências.
Definição 4.5. Chama-se traço de uma matriz quadrada à soma das entradas da sua
diagonal principal, e designamos por tr(A) o traço de A .
det(A) = λ1 λ2 · · · λn ,
e
tr(A) = a11 + a22 + · · · + ann = λ1 + λ2 + · · · + λn .
Por outro lado, se λ1 e λ2 são as raı́zes de p(λ), então podemos escrever o polinómio
na forma
p(λ) = (λ1 − λ)(λ2 − λ) = λ2 − (λ1 + λ2 )λ + λ1 λ2 .
Comparando as duas expressões obtidas para p(λ) segue o resultado enunciado na
proposição.
raı́zes (expressão (4.5)) temos p(0) = λ1 λ2 · · · λn , ficando assim mostrado que o pro-
duto dos valores próprios é igual ao determinante da matriz.
Para provar a relação entre o traço da matriz e os seus valores próprios, note-se que
usando a factorização (4.5), o coeficiente do termo λn−1 de p é
(−1)n−1 (λ1 + λ2 + · · · + λn ).
Se mostrarmos que este coeficiente é igual a (−1)n−1 (a11 +a22 +· · ·+ann ), provamos
que o traço de A é igual à soma dos valores próprios. Para tal, vamos usar indução sobre
n. Quando n = 1, o resultado é trivialmente satisfeito.
Suponha-se (hipótese de indução) que para qualquer matriz de ordem (n − 1),
seja An−1 = [aij ], o coeficiente do termo em λn−2 do seu polinómio caracterı́stico é
(−1)n−2 (a11 + a22 + · · · + an−1,n−1 ). Isto é,
det(An−1 −λI) = (−1)n−1 λn−1 +(−1)n−2 (a11 +a22 +· · ·+an−1,n−1 )λn−2 + t.o.i.,
(4.6)
onde t.o.i. designa termos de ordem inferior, ou seja, termos que envolvem potências
λk com k < n − 2.
Recorrendo ao desenvolvimento de Laplace (ver página 86) segundo a última linha
da matriz A (de ordem n), tem-se
a11 − λ a12 ··· a1n
a12 a22 − λ · · · a2n
det(A − λI) = . . ..
.. .. .
an1 an2 · · · ann − λ
= (ann − λ) det(An−1 − λI) + an1 Cn1 + · · · + an,n−1 Cn,n−1
= (ann − λ) det(An−1 − λI) + an1 q1 (λ) + · · · + an,n−1 qn−1 (λ),
onde os qj ’s designam polinómios em λ de grau menor ou igual a (n − 2).
Usando a hipótese de indução, nomeadamente a expressão (4.6), o primeiro termo
da soma anterior satisfaz a igualdade
(ann − λ) det(An−1 − λI) = (−1)n λn +
+ (−1)n−1 λn−1 (a11 + a22 + · · · + an−1,n−1 + ann ) + t.o.i..
Finalmente, substituindo a expressão anterior na expressão de det(A − λI), tem-se
det(A − λI) = (−1)n λn + (−1)n−1 λn−1 (a11 + a22 + · · · + an−1,n−1 + ann ) + t.o.i.,
e portanto o enunciado é válido para qualquer n.
Exemplo 4.3. Consideremos a matriz
3 1 4
A = 0 2 0 .
0 0 3
Como A é triangular superior, a matriz (A − λI) também o é, e portanto o seu determi-
nante é igual ao produto das entradas da sua diagonal principal. Ou seja, o polinómio
caracterı́stico de A é p(λ) = (3 − λ)2 (2 − λ). Assim, a matriz A tem:
Refira-se que o polinómio caracterı́stico é do terceiro grau e as suas três raı́zes são
contadas considerando a raiz 3 duas vezes e a raiz 2 uma vez.
Confirmando os resultados da proposição anterior, tem-se
det(A) = 3 × 3 × 2 = 18 e tr(A) = 3 + 3 + 2 = 8,
Nota 23. No que se segue abreviamos por vezes o enunciado da proposição anterior
dizendo que o determinante (resp. o traço ) de uma matriz é igual ao produto (resp. a
soma) dos valores próprios da matriz, subentendendo que os valores próprios múltiplos
são considerados de acordo com as suas multiplicidades.
Corolário 4.1. Uma matriz é invertı́vel se e só se zero não é um valor próprio da
matriz.
4.1. Mostre que se (λ, x) é um par próprio de uma matriz invertı́vel A, então
Exercı́cio
1
, x é um par próprio de A−1 . N
λ
Matrizes reais podem ter valores próprios complexos (ver Exemplo 4.4). Como as
raı́zes complexas de polinómios ocorrem aos pares de conjugados, isto significa que se
(a + ib) é um valor próprio de uma matriz então o seu conjugado (a − ib) também é
valor próprio dessa matriz.
Antes de estabelecermos a relação existente entre vectores próprios corresponden-
tes a valores próprios complexos conjugados vamos definir o conjugado de uma matriz.
Demonstração. Seja (λ, u) um par próprio de A, isto é, Au = λu. Tomando o conju-
gado da igualdade Au = λu, tem-se
Au = (λu) ⇐⇒ Au = λu ⇐⇒ Au = λu,
O espaço próprio E(i) é o núcleo da matriz (A − iI), ou seja o conjunto dos vectores
x que verificam
−i −1 a 0
(A − iI)x = 0 ⇐⇒ = ⇐⇒ −ia = b.
1 −i b 0
Logo, E(i) = {(a, −ia) : a ∈ C} = Span{(1, −i)}. Como a valores próprios conju-
gados correspondem vectores próprios conjugados, tem-se
n o
E(−i) = (ā, (−ia)) : a ∈ C = {ā (1, i) : a ∈ C} = Span{(1, i)}.
f (x) = Ax
x x
0 0 f (x) = Ax
E(λ) E(λ)
|λ| > 1 |λ| < 1
Figura 4.1: Os subespaços próprios de valores próprios reais são invariantes por f .
Exemplo 4.5. A matriz A do Exemplo 4.2 (pág. 149) tem espectro σ(A) =
{ 32 , 12 }. A função f (x) = Ax é
x1 − x22
1 −1/2 x1
f (x) = f (x1 , x2 ) = = .
−1/2 1 x2 −x1
2 + x 2
x2 −x1
Ou seja, f (x1 , x2 ) = (x1 − 2 , 2 + x2 ).
Os espaços próprios de A, obtidos no referido exemplo, são
3 1
E = Span{(−1, 1)} e E = Span{(1, 1)}.
2 2
Geometricamente, estes espaços próprios são rectas que passam pela origem e
têm as direcções dos vectores (−1, 1) e (1, 1). Assim, a função
f : contrai vecto-
res na direcção definida por E 12 já que, para x ∈ E 21 a respectiva imagem
3
por f é f (x) = x2 ; e expande
vectores na direcção definida por E 2 , visto que
f (x) = 3x 2 para x ∈ E 3
2 . Na Figura 4.2 ilustramos este facto.
Caso 2: A é uma matriz real, 2 × 2, e tem um par de valores próprios complexos conju-
gados.
Do caso anterior, sabemos que os subespaços próprios de valores próprios reais,
de uma matriz real A, são subespaços invariantes para a função f : Rn → Rn ,
x2
f (x) = 32 x
x
x
f (x) = 12 x
x1
E(1/2) E(3/2)
3
4.2: A função f expande vectores na direcção E
Figura 2 e contrai na direcção
E 12 .
x2 x = f 4 (x)
x = f 4 (x) f (x)
f (x)
x1 f 3 (x)
f 2 (x)
Figura 4.3: A função, f (x) = Ax, em que A tem valores próprios ±i representa uma
rotação em R2 .
√
|λ| = a2 + b2 é a distância de λ à origem, e θ é o ângulo entre a parte positiva
do eixo real e o ponto (a, b) (com −π < θ ≤ π). A Figura A.2 da página 427,
ilustra a representação polar de um número complexo a + ib.
Assim, a matriz A pode escrever-se como um produto de duas matrizes
a −b ρ 0 cos θ − sen θ
A= = = DR.
b a 0 ρ sen θ cos θ
cos θ − sen θ
A matriz R = é uma matriz de rotação, visto que para x ∈ R2
sen θ cos θ
o vector Rx é o vector de R2 que se obtém rodando x de um ângulo θ, no sentido
directo, em torno da origem (como facilmente se verifica).
ρ 0
A matriz D = representa uma expansão se ρ = |λ| > 1, e uma
0 ρ
contracção se ρ = |λ| < 1 já que, Dx = ρx.
Assim, a função f (x) = Ax = DR x actua sobre um vector x ∈ R2 rodando
este vector e depois expandindo, contraindo ou mantendo-o, respectivamente nos
casos em que |λ| > 1, |λ| < 1 e |λ| = 1. A Figura 4.4 ilustra esse comporta-
mento de f sobre vectores de R2 .
f (x)
Rx
x f (x) x Rx x
f (x)
√
3 1
2 −
√2
0
Exemplo 4.6. Consideremos f (x) = Ax com A = 1 3
0 .
2 2
0 0 1.2
√ √
3
A matriz A tem valores próprios λ1 = 2 + i 21 , λ2 = 2
3
− i 12 e λ3 = 1.2.
O valor próprio λ3 é real e o seu espaço próprio é gerado pelo vector (0, 0, 1) (isto
é, E(1.2) é o eixo dos zz). Logo, vectores do eixo dos zz são aplicados por f em
vectores do eixo dos zz por uma expansão de factor 1.2.
Atendendo à forma da matriz A (diagonal por blocos) é fácil verificar que f aplica
vectores do plano xy em vectores deste plano. Como
q o valor próprio λ1 (e portanto
o seu conjugado λ2 ) tem módulo |λ1 | = |λ2 | = 34 + 41 = 1, a função f aplica um
vector u do plano xy num vector que se obtém de u por rotação (em torno do eixo dos
zz).
√
O ângulo
√
desta rotação é π/6 (note que sen π/6 = 1/2). Por exemplo f (1, 1, 0) =
( 3−1
2 , 3+1
2 , 0). Para qualquer outro vector v = (s1 , s2 , s3 ), a imagem por f deste
vector é o vector f (v) que tem terceira coordenada 1.2s3 (expansão na direcção do
eixo dos zz), e duas primeiras coordenadas respectivamente, cos(π/6)s1 − sen(π/6)s2
e sen(π/6)s1 + cos(π/6)s2 (rotação de (s1 , s2 ) de π/6 em torno da origem).
A Figura 4.5 ilustra aplicações sucessivas de f ao vector u do plano xy, ao vector
w do eixo dos zz, e ao vector v que não pertence a estes subespaços. Esta figura ilustra
ainda o facto das imagens de aplicações sucessivas de f a vectores v não pertencentes
ao eixo dos zz nem ao plano xy, estarem sobre hélices inscritas num cilindro (uma vez
que os valores próprios complexos de A têm módulo igual a 1).
f 2 (w)
f (w)
f 2 (v)
w
f (v)
v
f 2 (u)
u f (u)
A = P DP −1 .
A uma matriz P tal que, A = P DP −1 com D diagonal, chama-se matriz que diago-
naliza A, ou matriz diagonalizante de A.
Comecemos por mostrar que os valores próprios de matrizes semelhantes são iguais.
Proposição 4.5. Matrizes semelhantes têm o mesmo polinómio caracterı́stico. Em
particular, os valores próprios são os mesmos e ocorrem com as mesmas multiplici-
dades.
Demonstração. Sejam A e B matrizes semelhantes, isto é, existe uma matriz invertı́vel
P tal que A = P BP −1 . Tem-se
det(A − λI) = det(P BP −1 − λI) = det P (B − λI)P −1
= det P det(B − λI) det(P −1 ) = det(B − λI).
= λ1 c1 λ2 c2 ··· λn cn .
Note-se que nem todas as matrizes são diagonalizáveis como se verifica no exemplo
seguinte.
2 0 0
Exemplo 4.7. Considere a matriz A = 0 1 1.
0 0 1
Verifiquemos se esta matriz é ou não diagonalizável.
Uma vez que a matriz A é triangular, os valores próprios de A são λ1 = 2 e
λ2 = 1 (as entradas da diagonal principal). O valor próprio 2 é simples e o valor
Logo,
E(2) = (a, b, c) ∈ R3 : b = c = 0 = {(a, 0, 0) : a ∈ R} = Span {(1, 0, 0)} .
Para λ2 = 1:
1 0 0 a 0
a=0
(A − I)x = 0 ⇐⇒ 0 0 1 b = 0 ⇐⇒
c=0
0 0 0 c 0
E(1) = (a, b, c) ∈ R3 : a = c = 0 = {(0, b, 0) : b ∈ R} = Span {(0, 1, 0)} .
Como a dimensão de cada espaço próprio é igual a 1, existem no máximo dois vectores
próprios linearmente independentes (um vector retirado de cada espaço próprio). Ou
seja, não existe um número suficiente de vectores próprios (que seria 3) para a matriz
ser diagonalizável. Portanto, a matriz A não é diagonalizável.
Pelo teorema anterior sabemos que é condição necessária e suficiente para uma
matriz A, de ordem n, ser diagonalizável que possua n vectores próprios linearmente
independentes, ou seja, que exista uma base do espaço linear complexo Cn formada
por vectores próprios de A. Como veremos adiante (Proposição 4.6 e Corolário 4.4),
esta condição é equivalente à soma das dimensões dos espaços próprios ser igual a n.
O resultado que segue mostra que vectores próprios de espaços próprios associados
a valores próprios distintos são necessariamente linearmente independentes.
α1 v1 + α2 v2 = 0. (4.7)
α1 λ1 v1 + α2 λ1 v2 = 0.
α2 (λ1 − λ2 )v2 = 0 ⇐⇒ α2 = 0,
= (3 − λ) λ2 − 8λ + 15 = (3 − λ)2 (5 − λ).
E(3) = (a, b, c) ∈ R3 : a = −c = {(−c, b, c) : b, c ∈ R}
= Span {(−1, 0, 1), (0, 1, 0)} .
−1 0 1 a 0
−a + c=0
(A − 5I)x = 0 ⇐⇒ 2 −2 2 b = 0 ⇐⇒
2a − 2b + 2c = 0
1 0 −1 c 0
⇐⇒ a = c e b = 2a.
E(5) = (a, b, c) ∈ R3 : a = c e b = 2a = {(a, 2a, a) : a ∈ R}
= Span {(1, 2, 1)} .
Como {(−1, 0, 1), (0, 1, 0)} e {(1, 2, 1)} são bases, respectivamente, dos subespaços
E(3) e E(5), tem-se
dim E(3) = 2 e dim E(5) = 1.
Conclui-se portanto que a multiplicidade geométrica de λ = 3 é dois, e a de λ = 5 é
um. Por conseguinte, a matriz A só tem valores próprios semi-simples. Existem três
vectores próprios de A linearmente independentes, e portanto A é diagonalizável.
Uma matriz P que diagonaliza A (isto é, A = P DP −1 com D diagonal), é uma
matriz cujas colunas formam uma base constituı́da por vectores próprios de A. É claro
que P depende da forma como se constrói a matriz D. Assim, se escolhermos D =
diag(3, 5, 3), a matriz P possui, na 1a e 3a colunas vectores próprios associados ao
valor próprio λ1 = 3, e na segunda coluna um vector próprio associado a λ2 = 5. Para
que P seja invertı́vel, temos de escolher vectores próprios linearmente independentes.
Por exemplo,
−1 1 0 3 0 0
P = 0 2 1 e D = 0 5 0 .
1 1 0 0 0 3
Também podemos considerar, por exemplo,
−1 0 1 3 0 0
P = 0 1 2 e D = 0 3 0 ,
1 0 1 0 0 5
correspondendo a uma outra colocação dos valores próprios de A na diagonal principal
de D.
2 5 0
Exemplo 4.9. Seja A = −1 0 0.
0 0 5
Usando o desenvolvimento de Laplace ao longo da terceira coluna de (A − λI),
temos
2 − λ 5 0
det(A−λI) = −1 −λ 0 = (5−λ) [−λ(2 − λ) + 5] = (5−λ)(λ2 −2λ+5).
0 0 5 − λ
Logo, 5 e 1 ± 2i são valores próprios de A, já que
√
2 2± −16
(λ − 2λ + 5) = 0 ⇐⇒ λ = = 1 ± 2i.
2
A matriz A é diagonalizável uma vez que tem três valores próprios distintos (cf. Co-
rolário 4.3). Para factorizar A na forma A = P DP −1 vamos calcular os espaços
próprios considerando-os como subespaços de Cn (a matriz é real mas tem valores
próprios complexos).
−3 5 0 a 0
−3a + 5b = 0
(A−5I)x = −1 −5 0 b = 0 ⇐⇒ ⇐⇒ a = b = 0.
−a − 5b = 0
0 0 0 c 0
Logo,
E(5) = {(0, 0, c) : c ∈ C} = Span{(0, 0, 1)}.
1 − 2i 5 0 x 0
(A − (1 + 2i)I)x = −1 −1 − 2i 0 y = 0
0 0 4 − 2i z 0
−x − (1 + 2i)y = 0
⇐⇒ ⇐⇒ x = −(1 + 2i)y e z = 0.
(4 − 2i)z =0
Note-se que a matriz A − (1 + 2i)I deverá ter determinante igual a zero uma vez que
1 + 2i é valor próprio de A. Ou seja, as linhas de A − (1 + 2i)I são linearmente
dependentes. Desta observação podemos concluir (sem verificação adicional) que as
duas primeiras linhas da matriz são linearmente dependentes, e consequentemente o
sistema (A − (1 + 2i)I)x = 0 reduz-se às duas equações indicadas acima. Logo,
E(1 + 2i) = {(−(1 + 2i)y, y, 0) : y ∈ C} = Span{(1 + 2i, −1, 0)}.
Como a valores próprios complexos conjugados correspondem vectores próprios con-
jugados, tem-se
E(1 − 2i) = {(−(1 − 2i)ȳ, ȳ, 0) : y ∈ C} = Span{(1 − 2i, −1, 0)}.
Assim, uma matriz P que diagonaliza A e a correspondente matriz diagonal D podem
ser
1 + 2i 1 − 2i 0 1 + 2i 0 0
P = −1 −1 0 , D = 0 1 − 2i 0 .
0 0 1 0 0 5
Sugere-se que confirme a igualdade A = P DP −1 .
Como vimos, uma matriz A de ordem n é diagonalizável se e só se a soma das
dimensões dos espaços próprios de A (ou seja, a soma das multiplicidades geométricas
dos valores próprios de A) for igual a n. Já se observou no Exemplo 4.7 que existem
matrizes cuja soma das multiplicidades geométricas dos seus valores próprios é inferior
à ordem da matriz. Coloca-se naturalmente a questão de saber se essa soma pode
ser superior a n. A resposta a esta questão é negativa como se deduz da proposição
seguinte.
A soma das multiplicidades algébricas dos valores próprios de uma matriz de ordem
n é exactamente n, consequentemente segue como corolário da proposição anterior, da
Proposição 4.6 e do Teorema 4.1, o seguinte:
Corolário 4.4. Uma matriz é diagonalizável se e só se qualquer valor próprio λ da
matriz verifica
mult alg(λ) = mult geom(λ).
Ou seja, uma matriz é diagonalizável se e só todos os valores próprios são semi-
simples.
Terminamos esta secção referindo alguns resultados sobre diagonalização de ma-
trizes reais com valores próprios complexos.
onde as matrizes Si são da forma (4.9), a matriz D é uma matriz diagonal tendo na sua
diagonal principal os valores próprios reais de A e 0 designa matrizes nulas.
Antes de procedermos à demonstração deste teorema estabelecem-se alguns resul-
tados preliminares.
Define-se a parte real e a parte imaginária de um vector u ∈ Cn como sendo os vec-
tores de Rn cujas componentes são, respectivamente, a parte real e a parte imaginária
de u. Por exemplo, se u = (5 − i, −2 + 3i), então Re u = (5, −2) e Im u = (−1, 3).
= [(α + γ) Re u + (δ − β) Im u] + i [(β + δ) Re u + (α − γ) Im u] .
e
Teorema 4.2. Seja A uma matriz real, n×n, diagonalizável, e com p valores próprios
reais e k pares de valores próprios complexos conjugados (p + 2k = n). Existem
matrizes reais M e Σ tais que A = M ΣM −1 . A matriz Σ é uma matriz diagonal por
blocos da forma
D 0 ··· 0
0 S1 · · · 0
Σ=. .. .. .. .
.. . . .
0 0 ··· Sk
Os blocos (na diagonal) de Σ são:
• O bloco D é uma matriz diagonal de ordem p com entradas na diagonal prin-
cipal iguais aos valores próprios reais de A, repetidos de acordo com as suas
multiplicidades.
a −bj
• Cada bloco Sj é um bloco 2 × 2 da forma j , com aj ± ibj um par de
b j aj
valores próprios complexos conjugados de A.
As colunas de M são:
• As primeiras p colunas são vectores próprios associados aos valores próprios
reais de A.
• As colunas de p + 1 a n são, respectivamente, os pares de vectores Re vj e
Im vj , (j = 1, . . . , k), onde vj é um vector próprio associado ao valor próprio
(complexo) λj = aj − ibj .
B = (u1 , . . . , up , Re v1 , Im v1 , . . . , Re vk , Im vk )
√
Esta matriz possui valores próprios λ = 12 ( 3 ± i). De facto, podemos verificar
√
−i 3 √
que v = é um vector próprio de A associado ao valor próprio λ = 21 ( 3 − i),
1
já que "√
3
√ #
− 3 √ √ √
2 2 −i 3 3 − i −i 3
Av = 1
√
3 = = λv.
√
2
1 2 1
2 3
Ax0 Sx03 x0
A2 x0 S 2 x0
2
-4 -2 2 4
-1
-2
-3
Ak = (P DP −1 )(P DP −1 ) · · · (P DP −1 ) = P Dk P −1 , (4.12)
| {z }
k factores
onde a penúltima igualdade resulta do facto de µ ser valor próprio de A, e portanto raiz
de p.
−Bn−1 = (−1)n I
ABn−k − Bn−k−1 = bn−k I para k = 1, . . . , n − 1
AB0 = b0 I.
Exemplo 4.11. Uma certa universidade tem na totalidade dos seus cursos de licenci-
atura (com a duração de três anos) um numerus clausus de 850 alunos. Em cada ano
lectivo, 80% dos estudantes dos cursos de licenciatura transitam de ano (ou terminam,
caso estejam no terceiro ano) e 20% ficam retidos no mesmo ano. O número de alunos
que frequentam as licenciaturas dessa universidade no ano lectivo k representa-se pelo
vector de estado xk ∈ R3 cujas componentes xk1 , xk2 e xk3 são, respectivamente, o
número de alunos no primeiro, segundo e terceiro ano das licenciaturas. Suponha-se
que número de alunos de licenciatura no ano lectivo 2010/11, era 1600 no primeiro
ano, 950 no segundo ano e 1100 no terceiro. Representamos o número de alunos de
licenciatura no ano lectivo 2010/11 pelo vector de estado x0 = (1600, 950, 1100). O
número de alunos de licenciatura no ano lectivo seguinte é representado pelo vector x1 .
De acordo com os dados do problema o vector x1 é
850 0.2 0 0
x1 = 0 + 0.8 0.2 0 x0 = b + Ax0 .
0 0 0.8 0.2
A equação (4.13) é uma fórmula de recorrência que permite obter o vector de estado de
um determinado ano lectivo à custa dos vectores de estado de anos lectivos anteriores.
Ela é um exemplo de um sistema dinâmico discreto (não homogéneo).
onde A é uma matriz de ordem n. Este tipo de sistemas é também designado por
equação às diferenças, de 1a ordem homogénea.
O análogo contı́nuo de uma equação às diferenças é uma equação diferencial. Uma
equação diferencial modela sistemas fı́sicos em que os estados em causa são observa-
dos de forma contı́nua. No final deste capı́tulo estudaremos este tipo de equações.
= c1 Ak u1 + c2 Ak u2 + · · · + cn Ak un (4.14)
1, 1, 2, 3, 5, 8, 13, . . .
A sucessão de Fibonacci pode ser escrita na forma matricial da maneira que indi-
caremos a seguir. Usaremos os valores próprios e os vectores próprios da matriz que
define a sucessão para obter uma expressão explı́cita (não recursiva) de Fk e provar que
o crescimento da sucessão de Fibonacci
é do tipo exponencial.
Fk+1
Escrevendo xk−1 = , a equação Fk+2 = Fk+1 + Fk é equivalente a
Fk
Fk+2 1 1 Fk+1 1 1
= ⇐⇒ xk = x = Axk−1 , para k = 1, 2, . . .
Fk+1 1 0 Fk 1 0 k−1
(4.16)
1 F2
e x0 = = .
1 F1
Atendendo à expressão obtida em (4.14), se a matriz A for diagonalizável (e com
valores próprios reais), tem-se
Fk+1
xk−1 = = c1 λ1k−1 u1 + c2 λ2k−1 u2 , (4.17)
Fk
5 Leonardo de Pisa (1170 — 1250), matemático italiano considerado um dos mais talentosos matemático
da Idade Média.
onde (λ1 , u1 ) e (λ2 , u2 ) são pares próprios A, e (c1 , c2 ) é o vector das coordenadas de
x0 na base ordenada (u1 , u2 ).
Comecemos por calcular os valores próprios de A.
1 − λ 1
det(A − λI) = = λ2 − λ − 1.
1 −λ
Matrizes de Markov
As chamadas cadeias de Markov6 aparecem naturalmente na modelação matemática
de problemas de biologia, quı́mica, economia, etc.. Trata-se de sistemas dinâmicos
discretos, xk+1 = M xk , em que a matriz M é uma matriz cujos vectores coluna são
vectores de probabilidades, isto é, vectores de componentes não negativas e tais que
soma das suas componentes é igual a 1.
Por exemplo, suponha-se que o administrador de uma firma de aluguer de viaturas
pretende gerir a sua frota que se encontra distribuı́da por três agências localizadas em
cidades distintas. Admita-se que um cliente pode alugar uma viatura numa agência e
entregá-la noutra. É claro que o administrador da firma não pode saber de antemão qual
o número exacto de viaturas que será entregue numa dada agência, mas pode calcular
qual é a probabilidade das viaturas serem entregues numa dada agência. Designe-
se por xk = (xk1 , xk2 , xk3 ) o vector de estado do mês k, isto é, o vector em que
a componente xki representa a probabilidade de um carro da frota se encontrar na
agência i (i = 1, 2, 3) no mês k. Calculando as probabilidades, mensais, dos carros da
firma serem entregues na agência i quando no mês anterior se encontravam na agência
j, o administrador da firma concluiu que xk+1 = M xk , onde
1/2 0 1/10
M = 1/10 7/10 1/10 .
2/5 3/10 4/5
xk+1 = M xk , k = 0, 1, 2, . . . (4.19)
Como se disse, as matrizes de Markov caracterizam-se por terem entradas não negativas
(dizendo-se matrizes não negativas) e a soma das entradas de cada coluna ser igual a 1.
Vemos a seguir que estas duas propriedades têm fortes implicações no tipo de valores
próprios destas matrizes e no comportamento a longo prazo das cadeias de Markov.
Se A é uma matriz tal que a soma das entradas de cada linha é constante igual a s,
então o vector u = (1, 1, . . . , 1) satisfaz a igualdade
Au = su.
6 Andrey Markov (1856-1922), matemático russo.
Proposição 4.10. Se uma matriz A tem a soma das entradas de cada coluna (ou de
cada linha) constante, então esta constante é um valor próprio de A.
Em particular, uma matriz de Markov tem λ = 1 como valor próprio.
Nota 24. Apesar de uma matriz e a sua transposta terem os mesmos valores próprios
isso não significa que pares próprios de A sejam também pares próprios de AT . Ou
seja, se v é um vector próprio de A associado ao valor próprio λ, não significa que v
seja um vector próprio de AT associado ao valor próprio λ. Deixamos como exercı́cio
encontrar um contra-exemplo.
Dada uma cadeia de Markov definida pela matriz M , um vector de equilı́brio, ou
vector estacionário, é um vector de probabilidades q que satisfaz
M q = q. (4.20)
onde λi é um valor próprio da matriz A (de ordem n). Resume-se no quadro seguinte
alguns resultados da Teoria de Perron-Frobenius.
A Teoria de Perron-Frobenius para matrizes não negativas garante que uma matriz
de Markov admite um vector próprio u, associado ao valor próprio λ = 1, com todas
as componentes positivas. Além disso, o raio espectral de uma matriz de Markov é
exactamente 1.
No caso da matriz de Markov M ser positiva (isto é, com todas as entradas posi-
tivas), a multiplicidade algébrica do valor próprio λ = 1 é igual a um.
7 Oskar Perron (1880 – 1975) e Ferdinand Georg Frobenius (1849 – 1917).
Exemplo 4.12. Suponha-se que anualmente 1.5% da população que vive na área me-
tropolitana de Lisboa (AML) muda-se para outras regiões do paı́s, e 9% da população
portuguesa muda-se para AML. Sabendo que no ano de 1970, 18% da população de
Portugal vivia na AML, pertende-se determinar qual a distribuição da população por-
tuguesa a longo prazo.
Tomando para vector de estado inicial x0 = (0.18, 0.82) o qual representa que em
1970 vivia na AML 18% da população de Portugal (e portanto 82% fora desta região),
a evolução no tempo da percentagem da população portuguesa vivendo na AML é
descrita pelo sistema xk = M xk−1 , k = 1, 2, . . . onde M é a matriz de Markov
0.985 0.09
M= .
0.015 0.91
De
AML FAML
AML 0.985 0.09
Para
FAML 0.015 0.91
A matriz M é positiva e tem 1 como valor próprio visto que a soma das entradas
de cada coluna é igual a 1 (cf. Proposição 4.10). Como a soma dos valores próprios
é igual ao traço da matriz (Proposição 4.3), o outro valor próprio é λ2 = 0.895. Uma
vez que M é uma matriz positiva já sabı́amos que λ1 = 1 seria o maior valor próprio e
que a sua multiplicidade algébrica seria igual a um. São vectores próprios associados,
respectivamente a λ1 e a λ2 , os vectores u1 = (0.09, 0.015) e u2 = (−1, 1), como
pode confirmar calculando M u1 e M u2 .
Usando a equação (4.14), no ano k, a percentagem da população portuguesa na
AML e fora desta área é dada por
0.09 −1
xk = c1 + c2 (0.895)k , (4.21)
0.015 1
Sergey Brin como parte de um projecto de investigação. Page e Brin fundaram a companhia Google em
1998.
seta com origem em A e ponto final B, indica um link da página A para a página B.
Um exemplo é a rede com cinco páginas representada pelo grafo direccionado11 da
Figura 4.7.
/
1 o> 2
^>>>> @ O ^>>>>>
>>>> >>>>
>>>> >>>>
> >
/
3 4 o 5
Figura 4.7: Uma rede com cinco páginas. Uma seta de A para B indica um link da
página A para a B.
11 Um grafo consiste num conjunto de vértices e arestas. Cada aresta liga um par de vértices. Um grafo
Para determinar o valor das relevâncias das cinco páginas web representadas no grafo
da Figura 4.7 há que determinar o vector x que verifica as igualdades (4.22), ou seja, um
vector de equilı́brio da cadeia de Markov definida por M . Temos assim de determinar
um vector próprio associado ao valor próprio 1 de M que seja um vector de probabi-
lidades. O vector (15, 18, 5, 12, 9) é um vector próprio associado ao valor próprio 1, e
1
portanto um vector de equilı́brio é 59 (15, 18, 5, 12, 9) ≈ (0.25, 0.31, 0.09, 0.20, 0.15).
Logo, a página mais importante será a página 2, seguida de 1, 4, 5 e 3.
Evidentemente que no caso concreto da seriação realizada pelo Google a matriz M
terá uma grandeza da ordem dos biliões, pelo que no tratamento computacional deste
modelo assumem especial relevância os métodos numéricos para cálculo de valores e
vectores próprios de matrizes de grandes dimensões.
Convém referir que o vector de equilı́brio pode não ser único, uma vez que, como
se observa neste exemplo, a matriz que modela o funcionamento do Google não é
necessariamente positiva. Ou seja, o subespaço próprio associado ao valor próprio
1 pode ter dimensão superior a 1. Este caso, é tratado no artigo [4] anteriormente
referido, sendo aı́ apresentado um algoritmo, baseado numa modificação da matriz
original, que permite que o Google produza sempre uma listagem de sites ordenados
por ordem decrescente de relevância.
Aconselha-se ao leitor interessado em aprofundar os detalhes da implementação do
algoritmo PageRank e de outros motores de busca, a leitura de [7].
x′ (t) = Ax(t)
Esse conjunto solução é constituı́do por todas as funções da forma x(t) = ce3t , onde c
designa uma constante real arbitrária. Não existe outro tipo de funções que verifiquem
a equação, como pode confirmar usando o Exercı́cio 4.3 adiante. Assim, a solução
geral da equação dada, é o subespaço
x(t) = ce3t : c ∈ R = Span{e3t } (4.23)
do espaço linear C das funções reais de variável real, contı́nuas com derivada contı́nua.
As operações de adição e multiplicação por escalares para as quais C é um espaço linear
são as operações definidas na página 142.
O conjunto (4.23) é uma famı́lia de funções parametrizadas por c ∈ R. Na Fi-
gura 4.8 encontram-se representados alguns elementos desta famı́lia.
y
2e3t e3t
5
−2 −1 1 t
−5
- e3t
−10
apenas possui a solução x(t) = e3t , já que impondo a condição inicial x(0) = 1 na
solução geral da equação resulta
Exercı́cio 4.3. Mostre que u(t) é uma solução de x′ = kx (com k uma constante real)
se e só se o produto u(t)e−kt é uma constante. N
c1 u1 (t0 ) + · · · + ck uk (t0 ) = 0,
com pelo menos um dos ci ’s é não nulo. Logo, {u1 (t0 ), . . . , uk (t0 )} é linearmente
dependente.
Para a implicação recı́proca, suponha-se que existem constantes c1 , . . . , ck , não
todas nulas, tais que c1 u1 (t0 ) + · · · + ck uk (t0 ) = 0. Construa-se a função
Como vimos anteriormente, no Exercı́cio 4.3, a solução geral de cada equação x′i =
λi xi é dada por xi (t) = ci eλi t onde ci é uma constante real arbitrária. Logo, a solução
n
onde e1 , e2 , . . . , en são os vectores da base canónica de
R . Assim, um conjunto
λ1 t λ2 t λn t
gerador da solução geral é e e1 , e e2 , . . . , e en . Este conjunto é uma base
em t0 = 0 se obtém
para a solução geral já que, avaliando os elementos deste conjunto
a base canónica de Rn , e portanto a Proposição 4.12 garante que eλ1 t e1 , . . . , eλn t en
é linearmente independente.
Podemos tirar as conclusões que se seguem relativas à solução geral do sistema de
EDOs x′ = Ax em que A é uma matriz diagonal do tipo n × n.
• A matriz X(t) é invertı́vel, visto que as suas colunas são linearmente indepen-
dentes. Consequentemente det X(t) 6= 0 para todo o t.
As conclusões anteriores, válidas para uma matriz diagonal, permanecem válidas para
qualquer matriz quadrada, como veremos a seguir.
Definição 4.9. Seja A uma matriz do tipo n × n. Chama-se matriz solução funda-
mental do sistema x′ = Ax a qualquer matriz X(t) cujas colunas sejam n soluções
linearmente independentes de x′ = Ax.
x(t) = X(t)c,
Proposição 4.13. Seja A uma matriz real n × n, e u um vector constante não nulo.
(1) A função eλt u é solução de x′ = Ax se e só se λ é valor próprio de A com
vector próprio associado u.
(2) Se x(t) = x1 (t) + ix2 (t) é uma solução (complexa) de x′ = Ax, então
Re x(t) = x1 (t) e Im x(t) = x2 (t) são duas soluções reais de x′ = Ax.
(3) Se λ = a + ib, com b 6= 0, é um valor próprio (complexo) de A e u um
vector próprio associado, então Re(eλt u) e Im(eλt u) são duas soluções reais
linearmente independentes de x′ = Ax. Ou seja,
Demonstração. (1) Como (eλt u)′ = λeλt u, tem-se que z′ = Az para z(t) = eλt u
se e só se
λeλt u = A(eλt u) ⇐⇒ λu = Au,
onde na equivalência anterior se aplicou o facto de eλt nunca se anular.
Ou seja, eλt u é solução de x′ = Ax se e só se u é um vector próprio de A
associado ao valor próprio λ.
(2) Dizer que x(t) = x1 (t) + ix2 (t) é uma solução complexa de x′ = Ax é equiva-
lente a
Ou seja, Re x(t) = x1 (t) e Im x(t) = x2 (t) são duas soluções reais de x′ = Ax.
(3) Do item (1) tem-se que eλt u é uma solução (complexa) da equação diferencial,
e pelo item (2) resulta que Re(eλt u) e Im(eλt u) são duas soluções reais da
respectiva equação diferencial. A independência linear destas soluções segue do
Lema 4.1 (na página 166) e da Proposição 4.12 considerando t0 = 0.
Calculemos a parte real e imaginária de eλt u. Para tal, relembremos que eibt =
cos(bt) + i sen(bt) (ver (A.1) no Apêndice A).
E(5) = Span {(0, 0, 1)} , E(1 + 2i) = Span {(1 + 2i, −1, 0)}
Exercı́cio 4.6. Para a matriz A do Exemplo 4.8 (pág. 163), mostre que uma matriz
solução fundamental para o sistema x′ = Ax é
3t
−e 0 e5t
X(t) = 0 e3t 2e5t .
e3t 0 e5t
Da definição de matriz solução fundamental, vê-se facilmente que não existe uma
única matriz solução fundamental. Não é difı́cil mostrar que quaisquer duas matrizes
solução fundamental de um sistema, sejam X(t) e Y (t), satisfazem uma relação do
tipo Y (t) = X(t)K onde K é uma matriz (constante) invertı́vel.
Exercı́cio 4.7. Mostre que se X(t) e Y (t) são duas quaisquer matrizes solução fun-
damental do sistema x′ = Ax, então existe uma matriz real invertı́vel K tal que
Y (t) = X(t)K.
Sugestão: Escrever as colunas de Y como combinação linear das colunas de X e
usar os factos det Y (0) 6= 0 e det X(0) 6= 0 para mostrar que K é invertı́vel. N
A Proposição 4.13 diz-nos como determinar uma base do conjunto das soluções
de x′ = Ax no caso em que A é diagonalizável. Conhecida a solução geral da
equação homogénea x′ = Ax podemos determinar a solução geral da equação não
homogénea x′ = Ax + b(t) desde que se conheça uma solução desta equação. De
facto, à semelhança do que acontece para sistemas de equações lineares (não diferen-
ciais), tem-se:
Exponencial de matrizes
Como se viu, dada uma equação diferencial, x′ = Ax, existem várias matrizes solução
fundamental dessa equação. A exponencial eAt vai ser definida como sendo uma matriz
solução fundamental particular do sistema x′ = Ax. É possı́vel definir a matriz expo-
nencial eAt como uma série de potências da matriz At, semelhante à série de potências
que define a função exponencial real. No entanto essa via sai do âmbito deste texto, o
leitor interessado poderá consultar, por exemplo, Braun [3].
Relembremos (Exercı́cio 4.5) que uma matriz solução fundamental do sistema x′ =
Ax é uma matriz que verifica a equação diferencial para matrizes X ′ (t) = AX(t).
Definição 4.10. Seja A uma matriz quadrada. A exponencial eAt é a matriz solução
fundamental do sistema x′ = Ax cujo valor em t = 0 é a matriz identidade. Ou seja,
eAt é a solução do problema de valor inicial
′
X = AX
X(0) = I,
Proposição 4.14. Seja A uma matriz real n × n e X(t) uma qualquer matriz solução
fundamental do sistema x′ = Ax. A exponencial eAt é dada por
eAt = X(t)X(0)−1 .
eAt = X(t)K,
onde K é uma matriz (constante) invertı́vel. Como por definição eA0 = I, resulta
Nota 26. Uma vez que eAt é solução de um problema de valor inicial, segue da uni-
cidade de soluções deste tipo de problemas que a matriz eAt é única. Além disso,
como eAt é uma matriz solução fundamental de x′ = Ax, é satisfeita a igualdade
d At
(e ) = AeAt (ver Exercı́cio 4.5).
dt
Exercı́cio 4.8. a) Mostre que e(A+B)t = eAt eBt se e só se A e B comutam.
b) Use o resultado anterior para mostrar que a matriz inversa de eAt é e−At .
Sugestão: Para a alı́nea a) mostre os resultados:
• Mostre que eAt eBt e et(A+B) resolve o mesmo problema de valor inicial.
N
0 −1
Exemplo 4.17. Calculemos eAt para A = .
1 0
No Exemplo 4.4 (pág. 154) calculámos os valores próprios e os espaços próprios
desta matriz. Os valores próprios de A são λ = ±i e E(−i) = Span{(1, i)}. Logo,
pelo item (2) da Proposição 4.13, são soluções (reais) linearmente independentes do
sistema x′ = Ax, os vectores
1 1
Re e−it e Im e−it ,
i i
ou, equivalentemente,
1 0 cos t 1 0 − sen t
cos(−t) −sen(−t) = , sen(−t) +cos(−t) = .
0 1 sen t 0 1 cos t
Como X(0) é a matriz identidade, temos eAt = X(t)X(0)−1 = X(t). Verifique ainda
que se tivéssemos considerado para X(t) a matriz que se obtém trocando as colunas
da matriz acima a expressão X(t)X(0)−1 produziria o mesmo resultado (eAt é única).
Uma vez que fizemos y = x1 , a solução geral da equação diferencial de terceira ordem
é
y(t) = x1 (t) = c1 e3t + c2 e2t + c3 et ,
onde c1 , c2 e c3 são constantes arbitrárias.