Int AL
Int AL
3 de março de 2023
Sumário
3 Determinantes 42
3.1 A Função Determinante . . . . . . . . . . . . . . . . . . . 42
3.2 A Função Determinante e Operações Elementares . . . . . 44
3.3 Existência da Função Determinante . . . . . . . . . . . . 50
3.4 Matrizes em blocos . . . . . . . . . . . . . . . . . . . . . 53
3.5 A Regra de Cramer . . . . . . . . . . . . . . . . . . . . . 54
3.6 Exercícios . . . . . . . . . . . . . . . . . . . . . . . . . . 55
4 Base e Dimensão 59
4.1 Subespaços . . . . . . . . . . . . . . . . . . . . . . . . . 59
4.2 Base e Dimensão . . . . . . . . . . . . . . . . . . . . . . 69
4.3 Obtenção de Bases . . . . . . . . . . . . . . . . . . . . . 75
4.4 Representação de um Vetor em uma Base . . . . . . . . . 77
4.5 Somas Diretas . . . . . . . . . . . . . . . . . . . . . . . . 79
4.6 Exercícios . . . . . . . . . . . . . . . . . . . . . . . . . . 82
5 Aplicações Lineares 85
5.1 Teorema do Núcleo e da Imagem . . . . . . . . . . . . . . 85
5.2 Aplicações Lineares e Matrizes . . . . . . . . . . . . . . . 90
5.3 Mudanças de base . . . . . . . . . . . . . . . . . . . . . . 95
5.4 Composição e Multiplicação . . . . . . . . . . . . . . . . 100
5.5 Espaço Linha e Espaço Coluna . . . . . . . . . . . . . . . 101
5.6 Sistemas Lineares, Pivôs e Variáveis Livres . . . . . . . . 106
5.7 Exercícios . . . . . . . . . . . . . . . . . . . . . . . . . . 107
iii
6 Produto Interno 111
6.1 Propriedades Básicas . . . . . . . . . . . . . . . . . . . . 111
6.2 Norma . . . . . . . . . . . . . . . . . . . . . . . . . . . . 115
6.3 Bases Ortonormais . . . . . . . . . . . . . . . . . . . . . 119
6.4 Ortogonalização de Gram-Schmidt . . . . . . . . . . . . . 122
6.5 Bases Ortogonais e Aplicações Lineares . . . . . . . . . . 127
6.6 Aplicações Autoadjuntas . . . . . . . . . . . . . . . . . . 128
6.7 Exercícios . . . . . . . . . . . . . . . . . . . . . . . . . . 130
7 Diagonalização 133
7.1 Subespaços Invariantes . . . . . . . . . . . . . . . . . . . 133
7.2 Autovalores e Autovetores . . . . . . . . . . . . . . . . . 134
7.3 Autovetores e Diagonalização . . . . . . . . . . . . . . . 137
7.4 Diagonalização de Matrizes Autoadjuntas . . . . . . . . . 144
7.5 Exercícios . . . . . . . . . . . . . . . . . . . . . . . . . . 150
ℂ = {𝑎 + 𝑏𝑖 ∶ 𝑎, 𝑏 ∈ ℝ},
1
2 CAPÍTULO 1. MATRIZES E ESPAÇOS VETORIAIS
(𝑧1 )𝑚 = 𝑧𝑚
1 = (𝑧 1 𝑧1 … 𝑧 1 )
⏟⏟⏟⏟⏟⏟⏟⏟⏟
𝑚 vezes
É fácil verificar que, se 𝑚, 𝑛 ∈ ℕ, então (𝑧𝑚 𝑛 𝑚𝑛 𝑚 𝑚 𝑚
1 ) = 𝑧1 e (𝑧1 𝑧2 ) = 𝑧1 𝑧2 .
𝑚
Uma vez que 𝑧1 = 0 implica 𝑧1 = 0, podemos definir, para 𝑧1 ≠ 0
𝑧−𝑚 𝑚
1 = 1/𝑧1 .
ℜ𝔢 𝑧 = 𝑎 ∈ ℝ e ℑ𝔪 𝑧 = 𝑏 ∈ ℝ,
𝑧 ̄ = 𝑎 + 𝑏𝑖 = 𝑎 − 𝑏𝑖 = ℜ𝔢 𝑧 − (ℑ𝔪 𝑧)𝑖
𝑧1̄ = 1 − 𝑖
|𝑧2 | = √12 + (−2)2 = √5
𝑧1 1+𝑖 (1 + 𝑖)(1 + 2𝑖) −1 + 3𝑖
= = =
𝑧2 1 − 2𝑖 5 5 ⊲
Exercício 1.1 Mostre que as seguintes propriedades são verdadeiras para quaisquer números com-
plexos:
(a) 𝑧 + 𝑧 ̄ = 2ℜ𝔢 𝑧;
(b) 𝑧 − 𝑧 ̄ = 2(ℑ𝔪 𝑧)𝑖;
(c) 𝑧1 + 𝑧2 = 𝑧1̄ + 𝑧2̄ ;
(d) 𝑧1 𝑧2 = 𝑧1̄ 𝑧2̄ ;
(e) 𝑧 ̄ = 𝑧;
(f) |ℜ𝔢 𝑧| ≤ |𝑧|;
(g) |ℑ𝔪 𝑧| ≤ |𝑧|;
(h) |𝑧| = |𝑧|;
̄
(i) |𝑧1 𝑧2 | = |𝑧1 | |𝑧2 |;
(j) 𝑧1 𝑧2̄ + 𝑧1̄ 𝑧2 = 2ℜ𝔢 (𝑧1 𝑧2̄ ).
4 CAPÍTULO 1. MATRIZES E ESPAÇOS VETORIAIS
De fato,
Exercício 1.2 Utilizando as propriedades enunciadas no Exercício 1.1, justifique cada passagem
feita no Exemplo anterior.
1.2 Matrizes
Uma matriz 𝑚×𝑛 (com 𝑚, 𝑛 ∈ ℕ = {1, 2, …}) é uma tabela de escalares
(reais ou complexos), dispostos em 𝑚 linhas e 𝑛 colunas:
⎛2⎞
𝐶 = (1 2 3 5 7 ) e 𝐷 = ⎜4⎟
⎜ ⎟
⎝8⎠
são, respectivamente, uma matriz linha 1 × 5 e uma matriz coluna 3 × 1.
Matrizes 1 × 1 podem ser identificadas com números em 𝕂.
A transposta de uma matriz 𝐴, que será denotada por 𝐴𝒕 , é obtida de
𝐴 ao trocar sua linha por suas colunas. Sendo mais preciso, se 𝐴 = (𝑎𝑖𝑗 ),
então
𝐴𝒕 = (𝑎𝑗𝑖 ).
Assim, a transposta da matriz 𝐵 (definida anteriormente) é a matriz
⎛2 7 17⎞
𝒕
𝐵 = ⎜3 11 19⎟ ,
⎜ ⎟
⎝5 13 23⎠
enquanto a transposta da matriz coluna 𝐷 (também definida anteriormente)
é a matriz linha
𝐷 𝒕 = (2 4 8 ) .
A conjugada 𝐴̄ de uma matriz 𝐴 é obtida ao se tomar o conjugado de
cada entrada da matriz 𝐴. Por exemplo, se
⎛ 5 𝑖 1 − 𝑖⎞
𝐴 = ⎜ −𝑖 3 3𝑖 ⎟
⎜ ⎟
⎝1 + 𝑖 −3𝑖 2 ⎠
então
⎛ 5 −𝑖 1 + 𝑖⎞
𝐴̄ = ⎜ 𝑖 3 −3𝑖 ⎟ .
⎜ ⎟
⎝1 − 𝑖 3𝑖 2 ⎠
É claro, se 𝐴 for uma matriz real, então 𝐴̄ = 𝐴.
Denotaremos por 𝐴∗ a matriz transposta conjugada da matriz 𝐴: 𝐴∗ =
𝒕̄
𝐴 . No caso da matriz 𝐴 dada acima, temos
⎛ 5 𝑖 1 − 𝑖⎞
𝐴∗ = ⎜ −𝑖 3 3𝑖 ⎟ .
⎜ ⎟
⎝1 + 𝑖 −3𝑖 2 ⎠
6 CAPÍTULO 1. MATRIZES E ESPAÇOS VETORIAIS
2 3 5 ⎛3 5⎞
𝐸= 𝐹 = ⎜11 13⎟ e 𝐺 = (3)
(7 11 13) ⎜ ⎟
⎝19 23⎠
são submatrizes de 𝐵 (dada anteriormente): em 𝐸, a terceira linha de 𝐵 foi
omitida; em 𝐹, a primeira coluna; e, em 𝐺, a segunda e terceira linhas, bem
como a primeira e terceira colunas.
Mas uma matriz pode ser concebida de duas outras maneiras: como uma
linha de matrizes coluna ou como uma coluna de matrizes linha. Assim, a
matriz 𝐴 que antes definimos pode ser entendida nas formas
⎛ ℓ1 ⎞
𝐴 = (𝒄1 𝒄2 … 𝒄𝑛 ) = ⎜ ⋮ ⎟ , (1.2)
⎜ ⎟
⎝ℓ𝑚 ⎠
em que
⎛ 𝑎1𝑗 ⎞
𝒄𝑗 = ⎜ ⋮ ⎟ e ℓ𝑖 = (𝑎𝑖1 𝑎𝑖2 ⋯ 𝑎𝑖𝑛 ).
⎜ ⎟
⎝𝑎𝑚𝑗 ⎠
Como veremos na sequência, cada coluna 𝒄𝑗 poderá ser interpretada como
um vetor do espaço 𝕂𝑚 , enquanto as linhas ℓ𝑖 podem ser interpretadas como
vetores do espaço 𝕂𝑛 .
1 𝜋 𝑒3 √5 1 3
𝐴= e 𝐵= .
(2 √2 1 ) ( 1 √2 𝑖 )
Então
1 + √5 1 + 𝜋 3 + 𝑒 3 𝜋 𝜋 2 𝜋𝑒3
𝐴+𝐵 = e 𝜋𝐴 = .
( 3 2√2 1 + 𝑖 ) (2𝜋 √2𝜋 𝜋 )
⊲
que é lida como somatório com 𝑘 variando de 1 até 𝑛 de 𝑎𝑖𝑘 𝑏𝑘𝑗 . O símbolo
∑𝑛𝑘=1 indica uma soma de 𝑛 parcelas, obtidas ao variar o índice 𝑘 de 1 até
𝑛.
⎛ 𝑎11 𝑎12 … 𝑎1𝑛 ⎞ 𝑏11 … 𝑏1𝑗 … 𝑏1𝑝
⎜ ⋮ ⋮ ⋮ ⎟⎛ ⎞
⎜ 𝑎𝑖1 𝑎𝑖2 … 𝑎𝑖𝑛 ⎟ ⎜ ⎜ 𝑏21 … 𝑏2𝑗 … 𝑏 2𝑝 ⎟
.
⎜ ⎟⎜ ⋮ ⋮ ⋮⎟
⎟
⎜ ⋮ ⋮ ⋮ ⎟
⎝𝑏𝑛1 … 𝑏𝑛𝑗 … 𝑏𝑛𝑝 ⎠
𝑎 𝑎
⎝ 𝑚1 𝑚2 … 𝑎 𝑚𝑛 ⎠
Entradas correspondentes da linha 𝑖 de 𝐴 e coluna 𝑗 de 𝐵 são multiplicadas
e todos esses produtos então somados.
⎛1 2 3 4⎞
−1 2 √2
𝐴= e 𝐵 = ⎜2 2 2 2⎟ .
( 𝜋 1 2 ) ⎜ ⎟
⎝4 3 2 1⎠
Como o número de colunas de 𝐴 é igual ao número de linhas de 𝐵, o produto
𝐴𝐵 está definido e resulta em uma matriz 2 × 4:
1 1 1 1
𝐴= e 𝐵= .
(1 1) (−1 −1)
Então temos
0 0 2 2
𝐴𝐵 = e 𝐵𝐴 = ,
(0 0) (−2 −2)
Exercício 1.6 Seja 𝐴 uma matriz 𝑛 × 𝑛. Suponha que estejam definidos os produtos 𝐴𝐵 e 𝐵𝐴.
Justifique: 𝐵 também é uma matriz 𝑛 × 𝑛.
⎛1 0 ⋯ 0⎞
⎜0 1 ⋯ 0⎟
I𝑛 = ⎜
⋮ ⋮ ⋱ ⋮⎟
⎜ ⎟
⎝0 0 ⋯ 1⎠
⎛1 0 ⋯ 0⎞
⎜0 1 ⋯ 0⎟
I𝑚 = ⎜
⋮ ⋮ ⋱ ⋮⎟
⎜ ⎟
⎝0 0 ⋯ 1⎠
Exercício 1.7 Explicite condições para que cada um dos itens da Proposição 1.12 esteja bem de-
finido.
Exercício 1.8 Escreva por extenso (tal qual feito na prova da primeira afirmação da Proposição
1.12) os somatórios envolvidos na demonstração da associatividade da multiplicação de matrizes.
Exercício 1.9 Demonstre a propriedade (𝑣) da Proposição 1.12.
𝐽I = I𝐽 = 𝐽 .
I𝐽 = 𝐽I = I,
𝐴𝐵 = 𝐵𝐴 = I, (1.5)
𝐵 = 𝐵I = 𝐵(𝐴𝐶) = (𝐵𝐴)𝐶 = I𝐶 = 𝐶,
1.4 O espaço ℝ𝑛
Fixe 𝑛 ∈ ℕ = {1, 2, …}. Definimos o conjunto ℝ𝑛 por
ℝ𝑛 = {𝒙 = (𝑥1 , 𝑥2 , … , 𝑥𝑛 ) ∶ 𝑥𝑖 ∈ ℝ} .
𝒙 + 𝒚 = (𝑥1 + 𝑦1 , … , 𝑥𝑛 + 𝑦𝑛 ) (1.6)
𝛼𝒙 = (𝛼𝑥1 , … , 𝛼𝑥𝑛 ). (1.7)
⎛𝑥1 ⎞
⎜𝑥 ⎟
𝒙 = (𝑥1 , … , 𝑥𝑛 ) ∈ ℝ𝑛 ↔ ⎜ 2 ⎟ ∈ 𝕄𝑛×1 (ℝ) (1.9)
⋮
⎜ ⎟
⎝ 𝑥𝑛 ⎠
1.5 O espaço ℂ𝑛
De maneira semelhante à definição do espaço ℝ𝑛 , definimos o conjunto
ℂ𝑛 por
ℂ𝑛 = {𝒛 = (𝑧1 , 𝑧2 , … , 𝑧𝑛 ) ∶ 𝑧𝑖 ∈ ℂ} .
𝒛 + 𝒘 = (𝑧1 + 𝑤1 , … , 𝑧𝑛 + 𝑤𝑛 ) (1.11)
𝛽𝒛 = (𝛽𝑧1 , … , 𝛽𝑧𝑛 ). (1.12)
Exercício 1.10 Mostre que tomando vetores em ℂ𝑛 e escalares em ℂ, todas as propriedades listadas
no Teorema 1.16 continuam válidas.
Sintetizando, um vetor no ℝ𝑛 ou no ℂ𝑛 é uma 𝑛-upla 𝒖 = (𝑢1 , 𝑢2 , … , 𝑢𝑛 ),
com 𝑢𝑖 ∈ ℝ ou 𝑢𝑖 ∈ ℂ, respectivamente. Como antes, o escalar 𝑢𝑖 é a 𝑖-
ésima coordenada do vetor 𝒖; a adição de vetores é feita somando-se as
coordenadas correspondentes; a multiplicação de um vetor por escalar (isto
é, um elemento do corpo 𝕂) é feita multiplicando-se o escalar por cada co-
ordenada do vetor. Assim, as propriedades do ℝ𝑛 (respectivamente, ℂ𝑛 ) que
2
Essa identificação será justificada inicialmente no Capítulo 2, mas também em capítulos
subsequentes.
14 CAPÍTULO 1. MATRIZES E ESPAÇOS VETORIAIS
(𝑖) 𝒙 + 𝒚 ∈ 𝑋 (fechamento);
(𝑖𝑖) (𝒙 + 𝒚) + 𝒛 = 𝒙 + (𝒚 + 𝒛) (associatividade);
(𝑖𝑖𝑖) 𝒙 + 𝒚 = 𝒚 + 𝒙 (comutatividade);
(𝑣𝑖) 𝛼𝒙 ∈ 𝑋 (fechamento);
3
Mais geralmente, se você conhece o conceito abstrato de corpo, podemos tomar os
escalares em um corpo qualquer, mas isto está além de nossos propósitos neste curso.
1.6. ESPAÇOS VETORIAIS ABSTRATOS 15
Exemplo 1.21 Seja 𝕄𝑚×𝑛 o conjunto de todas as matrizes 𝑚×𝑛 tendo como
entradas escalares no corpo 𝕂. Com a adição de matrizes e multiplicação
de uma matriz por um escalar 𝛽 ∈ 𝕂 usuais, 𝕄𝑚×𝑛 é um espaço vetorial, de
acordo com o Teorema 1.7. ⊲
Exercício 1.12 Você consegue sugerir outra forma de associar polinômios em 𝒫𝑛 (𝑡) a pontos do
𝕂𝑛 , mantendo a compatibilidade das operações em 𝒫𝑛 (𝑡) e 𝕂𝑛 ?
O mesmo procedimento também pode ser usado no Exemplo 1.21, para
matrizes com entradas no corpo 𝕂:
Exercício 1.13 Seja 𝒫 (𝑡) o conjunto de todos os polinômios na variável 𝑡 com coeficientes no
corpo 𝕂. (Esse conjunto possui polinômios de qualquer grau, enquanto 𝒫𝑛 (𝑡) possui apenas os
polinômios de grau menor do que 𝑛, para 𝑛 ∈ ℕ fixo.) Considere, nesse conjunto, as operações
usuais de adição de polinômios e multiplicação de um polinômio por um escalar real. Verifique
que 𝒫 (𝑡) é um espaço vetorial, isto é, que todas as propriedades listadas na Definição 1.18 são
satisfeitas.
Exercício 1.14 Considere o conjunto
𝕂∞ = {(𝑥1 , … , 𝑥𝑛 , …) ∶ 𝑥𝑖 ∈ 𝕂, ∀𝑖 ∈ ℕ}.
Verifique que 𝕂∞ é um espaço vetorial com a adição de vetores e multiplicação por escalar definidas
analogamente às operações no 𝕂𝑛 , isto é, “coordenada à coordenada”. O espaço 𝕂∞ pode ser
identificado com o conjunto das sequências no corpo 𝕂.
Exercício 1.15 Seja 𝒫 (𝑡) o espaço de todos os polinômios na variável 𝑡 com coeficientes no corpo
𝕂. (Veja o Exercício 1.13.) Continua válida a afirmação que, conhecendo todos os coeficientes
de um polinômio, então conhecemos o polinômio? Podemos identificar vetores em 𝒫 (𝑡) (isto é,
polinômios) com vetores em 𝕂∞ (isto é, sequências numéricas) de maneira a manter a compatibi-
lidade das operações nos dois espaços vetoriais?
para todo (𝑥1 , 𝑥2 ) ∈ ℝ2 . (Você pode achar estranha essa definição, mas
certamente ela define uma multiplicação de vetor por escalar com a propri-
edade que 𝛽𝒙 ∈ 𝑋 para todos 𝒙 ∈ ℝ2 e 𝛽 ∈ ℝ)
Verifique então que, com exceção da propriedade (𝑥), todas as outras
propriedades da Definição 1.18 são satisfeitas. Quer dizer, a propriedade
1.6. ESPAÇOS VETORIAIS ABSTRATOS 17
(𝑥) é indispensável se queremos ter uma multiplicação por escalar que evite
o que aconteceu neste caso: todos os escalares atuam da mesma maneira
sobre os vetores. (Um análogo a isso seria definir, no conjunto dos números
complexos, a multiplicação 𝑧1 𝑧2 = (𝛼1 +𝑖𝛽1 )(𝛼2 +𝑖𝛽2 ) = 𝛼1 𝛼2 , que reduz-se
à multiplicação usual de números reais.) ⊲
𝑋 = {𝒇 ∶ 𝐴 → 𝕂},
e
𝛼𝒇 ∶ 𝐴 → 𝕂 dada por (𝛼𝒇 )(𝑥) = 𝛼𝑓 (𝑥).
(Note que uma função fica definida quando são estabelecidos seu domínio,
contradomínio e a “regra” que a define em cada ponto de seu domínio. As-
sim, 𝒇 + 𝒈 e 𝛼𝒇 estão definidas e pertencem ao conjunto 𝑋.)
Com essas operações, 𝑋 é um espaço vetorial. Note que, se tomarmos
𝐴 = ℝ, não existe maneira de falar em coordenadas de um vetor 𝒇 ∈ 𝑋! ⊲
Exercício 1.18 Considere, no Exemplo 1.24, que 𝐴 = {1, … , 𝑛}. É possível identificar 𝑋 com o
espaço 𝕂𝑛 mantendo a compatibilidade das operações em ambos os espaços? Se sim, como?
Exercício 1.19 Considere, no Exemplo 1.24, que 𝐴 = ℕ = {1, 2, … , 𝑛, …}. É possível identificar
𝑋 com o espaço 𝕂∞ , mantendo a compatibilidade das operações em ambos os espaços? Se sim,
como?
Exercício 1.20 Considere, no Exemplo 1.24, que 𝐴 = ℝ. É possível identificar 𝑋 e 𝕂∞ ?
18 CAPÍTULO 1. MATRIZES E ESPAÇOS VETORIAIS
0𝒙 = 0, (1.14)
isto é,
0 = 0𝒙 + 0 = 0𝒙,
como queríamos mostrar. ⊲
Os exercícios 20 e 21 pedem que se mostre, em um espaço vetorial abs-
trato 𝑋, propriedades que são óbvias no caso de 𝑋 = 𝕂𝑛 .
Exercício 1.21 Compare os Exemplos 1.17 e 1.25. O que justifica a diferença de tratamento entre
esses exemplos?
Qual é o objetivo de estudarmos espaços vetoriais? A resposta é que,
ao trabalharmos abstratamente com espaços vetoriais e obtermos resultados
baseados na Definição 1.18 e suas consequências (tal qual fizemos no Exem-
plo 1.25), estamos ganhando conhecimento válido para qualquer exemplo
específico de espaço vetorial, o que inclui o ℝ𝑛 , ℂ𝑛 e aqueles apresentados
nos Exemplos 1.20, 1.21 e 1.24.
Neste texto, apesar de enunciarmos os resultados em espaços vetoriais
abstratos 𝑋, grande parte de nossos exemplos serão apresentados nos es-
paços ℝ𝑛 e ℂ𝑛 . Em geral, salvo quando explicitamos um espaço vetorial
distinto do 𝕂𝑛 , você pode admitir que o espaço vetorial 𝑋 é o 𝕂𝑛 .
1.7 Exercícios
1. Sejam 𝑧1 = 2 + 3𝑖 e 𝑧2 = 5 − 4𝑖. Calcule 𝑧1 + 𝑧2 , 𝑧1 − 𝑧2 , 𝑧1 𝑧2 e 𝑧1 /𝑧2 .
2. Simplifique as expressões: 𝑖25 , 𝑖26 , 𝑖27 e 𝑖28 .
2+5𝑖
3. Simplifique 5+3𝑖
.
4. Considere as matrizes
1 5 𝜋 𝜋 7 11
𝐴= e 𝐵= .
(2 4 6) (8 10 12)
Calcule as matrizes 𝐴 − 𝐵 e 3𝐴 + 5𝐵.
1.7. EXERCÍCIOS 19
𝑎 𝑏 3𝑎 2 2 𝑎 + 3𝑏
= + .
( 𝑐 𝑑) ( 2 2𝑑) (𝑑 − 𝑐 2𝑑 + 1)
1 𝜋 2 ⎛𝜋 1 2⎞
𝐴= e 𝐵 = ⎜1 3 4⎟ .
(2 3 𝜋) ⎜ ⎟
⎝ 2 4 𝜋⎠
⎛𝜋⎞ 1 2 3 ⎛⎜
2 1 0 5⎞
(1 3 5) ⎜2⎟ e 1 3 5 7⎟ .
⎜ ⎟ (1 𝜋 5) ⎜ ⎟
⎝1⎠ ⎝4 8 2 6⎠
8. Considere as matrizes
2+𝑖 1 2−𝑖 ⎛2 1 0 2⎞
𝐴= e 𝐵 = ⎜3 4 5 1⎟ .
(4 − 2𝑖 2 − 𝑖 3 + 𝑖) ⎜ ⎟
⎝1 2 2 3⎠
Calcule a matriz 𝐴𝐵.
9. Para as matrizes
⎛2 0 0⎞ ⎛1 0 0⎞
𝐴 = ⎜0 3 0⎟ e 𝐵 = ⎜0 7 0⎟ ,
⎜ ⎟ ⎜ ⎟
⎝0 0 5⎠ ⎝0 0 1⎠
calcule as matrizes 𝐴𝐵, 𝐵𝐴, 𝐴2 e 𝐵 2 .
10. Dê exemplo de duas matrizes 𝐴, 𝐵, ambas 2×2, com todas as entradas não nulas, mas 𝐴𝐵 = 0.
11. Suponha que o produto 𝐴𝐵 das matrizes 𝐴 e 𝐵 esteja definido. Mostre que (𝐴𝐵)𝒕 = 𝐵 𝒕 𝐴𝒕 .
12. Ache a matriz 𝐴∗ , se
3 − 5𝑖 2 + 4𝑖
𝐴= .
(2 − 2𝑖 1 + 2𝑖)
13. Seja 𝐴 ∈ 𝕄𝑚×𝑛 e 0 a matrix 𝑛 × 𝑝 com todas as entradas iguais a zero. Verifique que 𝐴0 = 0.
14. Considere números 𝑎1 , … , 𝑎𝑛 ∈ ℝ. Expandindo os dois lados da igualdade, verifique que
𝑛 𝑛
∑ 𝑎𝑖 = ∑ 𝑎𝑗 .
𝑖=1 𝑗=1
∑(𝑎𝑖 + 𝑏𝑖 ) = ∑ 𝑎𝑖 + ∑ 𝑏𝑖 ,
𝑖=1 𝑖=1 𝑖=1
em que 𝑎𝑖 , 𝑏𝑖 ∈ ℝ para 𝑖 ∈ {1, … , 𝑛}.
16. Seja 𝑏𝑘 ∈ ℝ arbitrário e 𝑎1 … , 𝑎𝑛 ∈ ℝ. Mostre que
𝑛 𝑛
∑ 𝑎𝑖 𝑏𝑘 = 𝑏𝑘 ∑ 𝑎𝑖 .
𝑖=1 𝑖=1
20 CAPÍTULO 1. MATRIZES E ESPAÇOS VETORIAIS
17. Suponha definido o produto 𝐴𝐵. Mostre que (𝐴𝐵)𝒕 = 𝐵 𝒕 𝐴𝒕 . Generalize para o produto de 𝑛
matrizes.
18. Considere números 𝑎𝑖𝑗 ∈ ℝ, com 𝑖 ∈ {1, … , 𝑚} e 𝑗 ∈ {1, … , 𝑛}. Verifique que
𝑚 𝑛 𝑛 𝑚
∑ ∑ 𝑎𝑖𝑗 = ∑ ∑ 𝑎𝑖𝑗 .
𝑖=1 𝑗=1 𝑗=1 𝑖=1
19. Justificando sua resposta, verifique se as seguintes afirmações são verdadeiras ou falsas.
(a) Se 𝒘 for um vetor de um espaço vetorial 𝑉, então (−1)𝒘 é o inverso aditivo de 𝒗;
(b) Vetores do 𝕂𝑛 e de um espaço vetorial vetorial abstrato sempre têm coordenadas;
(c) Seja 𝔻 o subconjunto de 𝕄𝑛×𝑛 formado por todas as matrizes diagonais. O conjunto 𝔻
é um espaço vetorial;
(d) O conjunto 𝕋 ⊂ 𝕄𝑛×𝑛 de todas as matrizes triangulares superiores não é um espaço
vetorial.
20. Seja 𝑋 um espaço vetorial. Mostre que, para todo 𝒙 ∈ 𝑋, vale (−1)𝒙 = (−𝒙).
21. Seja 𝒖 um vetor em um espaço vetorial 𝑋. Suponha que 𝛼𝒖 = 0 para algum escalar 𝛼 ≠ 0.
Utilizando as propriedades listadas na Definição 1.18, mostre que 𝒖 = 0.
22. Seja 𝑋 = {𝒙 = (𝑥1 , 𝑥2 ) ∈ ℝ2 ∶ 𝑥1 , 𝑥2 > 0}. Em 𝑋 definimos as operações de adição
Mostre que, com essas operações, 𝑋 é um espaço vetorial real. Qual é o elemento 0 ∈ 𝑋?
23. Sejam 𝑋1 , 𝑋2 espaços vetoriais sobre o mesmo corpo 𝕂. Considere o conjunto
𝑋 = 𝑋1 × 𝑋2 = {(𝑥, 𝑦) ∶ 𝑥 ∈ 𝑋1 , 𝑦 ∈ 𝑋2 }
com as operações
(Observe que tanto na soma como na multiplicação por escalar em 𝑋, no lado direito das
respectivas igualdades as operações são feitas como definidas em 𝑋𝑖 .)
Mostre que 𝑋 é um espaço vetorial, chamado espaço produto de 𝑋1 e 𝑋2 .
Capítulo 2
⎧ 𝑎11 𝑥1 + … + 𝑎1𝑛 𝑥𝑛 = 𝑏1
⎪ 𝑎21 𝑥1 + … + 𝑎2𝑛 𝑥𝑛 = 𝑏2
⎨ (2.1)
⋮ ⋮ ⋮
⎪
𝑎
⎩ 𝑚1 1𝑥 + … + 𝑎 𝑥
𝑚𝑛 𝑛 = 𝑏𝑚 .
Exemplo 2.1 O sistema
𝑥 + 𝑦 = 1
{ 𝑥 − 𝑦 = 1
tem duas equações e duas incógnitas. Esse sistema está na forma (2.1) com
𝑎11 = 1, 𝑥1 = 𝑥, 𝑎12 = 1, 𝑥2 = 𝑦, 𝑏1 = 1, 𝑎21 = 1, 𝑎22 = −1 e 𝑏2 = 1.
Como as incógnitas 𝑥 e 𝑦 aparecem apenas multiplicadas por constantes, o
sistema é linear. (Esse não seria o caso se o sistema tivesse termos como
sen 𝑦 ou 𝑥2 , por exemplo.) ⊲
O produto de matrizes nos permite expressar o sistema (2.1) com nota-
ção matricial:
⎛ 𝑎11 𝑎12 ⋯ 𝑎1𝑛 ⎞ ⎛𝑥1 ⎞ ⎛ 𝑏1 ⎞
⎜ 𝑎21 𝑎22 ⋯ 𝑎2𝑛 ⎟ ⎜𝑥2 ⎟ ⎜ 𝑏2 ⎟
⎜ ⋮ = . (2.2)
⋮ ⋱ ⋮ ⎟⎜ ⋮ ⎟ ⎜ ⋮ ⎟
⎜ ⎟⎜ ⎟ ⎜ ⎟
⎝𝑎𝑚1 𝑎𝑚2 ⋯ 𝑎𝑚𝑛 ⎠ ⎝𝑥𝑛 ⎠ ⎝𝑏𝑚 ⎠
21
22CAPÍTULO 2. SISTEMAS LINEARES E A INVERSA DE UMA MATRIZ
𝐴𝒙 = 𝒃, (2.3)
em que
𝛼
⎛3 2 3 1 ⎞ ⎛ ⎞ ⎛8⎞
⎜1 1 ⎜𝛽⎟
1 −1 ⎟ ⎜ ⎟ = ⎜3⎟ , (2.4)
⎜ ⎟ ⎜𝛾⎟ ⎜ ⎟
⎝ 2 1 −1 3⎠
⎝𝛿⎠ ⎝ ⎠
2
𝐴𝒙 = 𝒃,
com
⎛𝑥1 ⎞
3 2 −1 4 ⎜𝑥 ⎟ 2
𝐴= , 𝒙 = ⎜ 2⎟ e 𝒃= .
(1 −4 2 −1) 𝑥 (5)
⎜ 3⎟
⎝𝑥4 ⎠
Exercício 2.2 Encontre todas as soluções do Exemplo 2.2. Interprete geometricamente sua res-
posta.
3𝑥1 − 2𝑥2 + 𝑥3 = 5
. (2.5)
{ 𝑥1 + 𝑥 2 − 𝑥 3 = 2
(𝑏) Multiplicar a linha 𝑖 por um escalar 𝑐 não nulo, operação que indica-
remos por ℓ𝑖 → 𝑐ℓ𝑖 ;
(𝑐) Substituir a linha 𝑗 por sua soma com um múltiplo 𝑐 da linha 𝑖, ope-
ração que indicaremos por ℓ𝑗 → ℓ𝑗 + 𝑐ℓ𝑖 .
Definição 2.6 As operações (𝑎), (𝑏) e (𝑐) são as operações elementares so-
bre as linhas de uma matriz.
𝑎𝑖1 𝑥1 + … + 𝑎𝑖𝑛 𝑥𝑛 = 𝑏𝑖
𝑎𝑗1 𝑥1 + … + 𝑎𝑗𝑛 𝑥𝑛 = 𝑏𝑗
3 2 −1 4 2
.
(1 −4 2 −15 | 5 ) ⊲
2.1. O MÉTODO DE GAUSS-JORDAN 25
⎛1 0 2 1 | 2⎞
⎜𝜋 −4 cos 1 −1 | −5⎟ .
⎜ | ⎟
⎝3 1 2 1 | 3⎠
⎛1 2 3⎞
𝑥 ⎛0⎞
⎜3 2 1⎟ ⎛⎜ 1 ⎞⎟ ⎜0⎟
⎜1 𝑥 =
1 1⎟ ⎜ 2 ⎟ ⎜0⎟
⎜ ⎟ ⎝𝑥3 ⎠ ⎜ ⎟
⎝0 1 2⎠ ⎝0⎠
será representado simplesmente por
⎛1 2 3⎞
⎜3 2 1⎟
⎜1 .
1 1⎟
⎜ ⎟
⎝0 1 2⎠ ⊲
Observação 2.10 Dada uma matriz 𝐶 com mais de duas colunas, podemos
associar a ela dois sistemas distintos: um sistema homogêneo e também
aquele em que o termo independente é dado pela última coluna de 𝐶. Por
exemplo, a matriz
1 2 1
(2 1 1)
pode ser associada ao sistema homogêneo
𝑥
1 2 1 ⎛⎜ 1 ⎞⎟ 0
𝑥2 =
(2 1 1) ⎜ ⎟ (0)
⎝𝑥3 ⎠
ou ao sistema não homogêneo
1 2 |1
.
(2 1 |1)
Exemplo 2.11 Vamos ilustrar o uso das operações elementares sobre as li-
nhas de uma matriz para resolver um sistema linear. Consideremos o sis-
tema não homogêneo
⎛ 3 1 2 | 1⎞
⎜ 1 1 1 | 2⎟ . (2.8)
⎜ | ⎟
⎝−2 −1 0 | 0 ⎠
26CAPÍTULO 2. SISTEMAS LINEARES E A INVERSA DE UMA MATRIZ
⎛ 3 1 2 | 1⎞ ⎛ 1 1 1 | 2 ⎞ (ℓ1 ↔ ℓ2 )
⎜ 1 1 1 | 2⎟ → ⎜ 3 1 2 | 1⎟ .
⎜ | ⎟ ⎜ | ⎟
⎝−2 −1 0 | 0 ⎠ ⎝−2 −1 0 | 0 ⎠
Como vimos, os sistemas representados por essas duas matrizes aumentadas
possuem as mesmas soluções. Partindo da segunda matriz, substituímos
sua segunda linha pela soma dessa linha com (-3) vezes a primeira linha,
operação indicada por ℓ2 − 3ℓ1 :
⎛ 1 1 1 | 2⎞ ⎛ 1 1 1 | 2⎞
⎜ 3 1 2 | 1⎟ → ⎜ 0 −2 −1 | −5 ⎟ (ℓ2 → ℓ2 − 3ℓ1 ) .
⎜ | ⎟ ⎜ | ⎟
⎝−2 −1 0 | 0 ⎠ ⎝−2 −1 0 | 0⎠
⎛ 1 1 1 | 2⎞ ⎛1 1 1 | 2⎞
⎜ 0 −2 −1 | −5 ⎟ → ⎜0 −2 −1 | −5 ⎟ .
⎜ | ⎟ ⎜ | ⎟
⎝−2 −1 0 | 0⎠ ⎝0 1 2 | 4 ⎠ (ℓ3 → ℓ3 + 2ℓ1 )
⎛1 1 1 | 2⎞ ⎛1 1 1 | 2⎞
⎜0 −2 −1 | −5 ⎟ → ⎜0 1 2 | 4 ⎟ (ℓ ↔ ℓ ) .
⎜ | ⎟ ⎜ | ⎟ 2 3
⎝0 1 2 | 4⎠ ⎝0 −2 −1 | −5 ⎠
⎛1 1 1 | 2⎞ ⎛1 1 1 | 2 ⎞
⎜0 1 2 | 4⎟ → ⎜0 1 2 | 4 ⎟ .
⎜ | ⎟ ⎜ | ⎟
⎝0 −2 −1 | −5 ⎠ ⎝0 0 3 | 3 (ℓ
⎠ 3 → ℓ 3 + 2ℓ 2 )
⎛1 1 1 | 2 ⎞ ⎛1 1 1 | 2 ⎞
⎜0 1 2 | 4 ⎟ → ⎜0 1 2 | 4 ⎟ .
⎜ | ⎟ ⎜ | ⎟
⎝0 0 3 | 3 ⎠ ⎝0 0 1 | 1 (ℓ
⎠ 3 → ℓ 3 /3)
𝑥1 = −1 𝑥2 = 2 e 𝑥3 = 1.
Exercício 2.4 Escreva, para cada matriz aumentada do Exemplo 2.11, a forma completa do sistema
linear, isto é, o sistema na forma (2.1).
Passemos à definição formal:
Definição 2.12 Dizemos que uma matriz 𝐵 está na forma escalonada se:
(𝑖) o primeiro elemento não nulo de cada linha (chamado pivô) for igual
a 1;
(𝑖𝑖𝑖) linhas nulas (isto é, cujas entradas são iguais a zero) ocorrem abaixo
de linhas não nulas.
A rigor, exigirmos que o pivô de cada linha seja igual a 1 não é ne-
cessário para obtermos a solução de um sistema. Observe que a condição
(𝑖𝑖) garante que, na coluna do pivô da linha 𝑖, são nulos todos os elementos
abaixo do pivô.
⎛1 4 7 3⎞
⎜0 0 1 5⎟
𝐵=⎜
0 0 0 1⎟
⎜ ⎟
⎝0 0 0 0⎠
está na forma escalonada: o pivô de uma linha ocorre à esquerda dos pivôs
da linhas seguintes, linhas nulas (se existentes) são as últimas, são nulas as
entradas que estão abaixo de cada pivô, na mesma coluna.
Por outro lado, as matrizes
⎛1 4 7 3⎞
⎜0 1 1 5⎟ 0 1 0
⎜0 e
1 0 1⎟ (1 0 0)
⎜ ⎟
⎝0 0 0 0⎠
1 2 3
.
(1 1 1)
1 2 3
.
(0 1 2) (ℓ2 → (ℓ2 − ℓ1 )/(−1))
Por outro lado, trocando as duas linhas da matriz original e então sub-
traindo a primeira linha da segunda linha, chegamos a
1 1 1 (ℓ1 ↔ ℓ2 ) 1 1 1
→ ,
(1 2 3) (0 1 2) (ℓ2 → ℓ2 − ℓ1 )
Aplicando a operação elementar (𝑐), podemos fazer com que uma matriz
na forma escalonada atinja sua forma reduzida por linhas. De fato, conside-
remos o pivô da última linha não-nula de 𝐸. A aplicação da operação ele-
mentar (𝑐) torna possível zerar os elementos que estão acima do pivô, man-
tendo ainda a matriz na forma escalonada. A demonstração agora segue-se
daí por indução, aplicando o mesmo procedimento ao pivô da penúltima
linha não-nula de 𝐸 e assim sucessivamente.
A forma escalonada reduzida por linhas de uma matriz é única. Mos-
traremos esse resultado no Teorema 2.21.
1 0 0 3
(ℓ1 /2)
2 .
(0 1 2 | 2 ) (ℓ2 /3)
3
𝑥1 + 0𝑥2 + 0𝑥3 = 32
.
0𝑥1 + 𝑥2 + 23 𝑥3 = 2
Definição 2.17 Seja 𝑅 uma matriz na forma escalonada reduzida por li-
nhas. No sistema (𝑅, 𝒄) são chamadas variáveis livres todas aquelas variá-
veis que não correspondam a pivôs.
Exercício 2.6 Escreva a solução do sistema como no Exemplo 2.16, sabendo que sua forma esca-
lonada reduzida por linhas é dada por
⎛1 0 0 2 | 8⎞
⎜0 1 0 3 | 2⎟ .
⎜ | ⎟
⎝0 0 1 0 | 0⎠
⎛−3 6 8 | −5 ⎞ ⎛ 1 −3 −2 | 6 ⎞ (ℓ1 ↔ ℓ2 )
⎜ 1 −3 −2 | 6 ⎟ → ⎜−3 6 8 | −5 ⎟ .
⎜ | ⎟ ⎜ | ⎟
⎝ 2 −4 −3 | 8 ⎠ ⎝ 2 −4 −3 | 8⎠
Multiplicando a primeira linha por 3 e somando à segunda e multiplicando
a primeira linha por −2 e somando à terceira, obtemos
⎛ 1 −3 −2 | 6 ⎞ ⎛ 1 −3 −2 | 6 ⎞
⎜−3 6 8 | −5 ⎟ → ⎜ 0 −3 2 | 13 ⎟ (3ℓ1 + ℓ2 ) .
⎜ | ⎟ ⎜ | ⎟
⎝ 2 −4 −3 | 8⎠ ⎝ 0 2 1 | −4 ⎠ (−2ℓ1 + ℓ3 )
|
⎛ 1 −3 −2 | 6 ⎞ ⎛ 1 −3 −2 | 6⎞
⎜ 0 −3 | ⎟
2 13 → 0 ⎜ 1 − 3 | − 3 (− 13 ℓ2 ) .
2 13 ⎟
⎜ | ⎟ ⎜ ⎟
⎝ 0 2 1 | −4 ⎠ ⎝ 0 2 1 || −4 ⎠
2
Wilhelm Jordan foi um geodesista e matemático, que nasceu na pequena cidade alemã
de Ellwangen, em 1 de março de 1842, e faleceu na cidade alemã de Hannover, em 17 de
abril de 1899. Não deve ser confundido com Camille Jordan.
2.1. O MÉTODO DE GAUSS-JORDAN 31
⎛ 1 −3 −2 | 1 −3 −2 | 6
⎜
6
| 13 ⎞ ⎛⎜ | 13 ⎞
⎜ 0 1 − 23 | −3 ⎟→⎜ 0 1 − 23 | −3 ⎟ .
⎜ | −4 ⎟ ⎜ 7 | 14 ⎟ (−2ℓ + ℓ )
⎝ 0 2 1 | ⎠ ⎝ 0 0 | 3 ⎠ 2 3
3
⎛ 1 −3 −2 | 6 ⎞ ⎛ 1 −3 −2 | 6
| 13 | 13 ⎞
⎜ 0 1 − 23 | −3 ⎟→⎜ 0 1 − 23 | − 3 ⎟⎟ .
⎜ 7 || 14 ⎟ ⎜ || 3
⎝ 0 0 ⎠ ⎝ 0 0 1 (
2⎠ 7 3 ℓ )
3 3
⎛ 1 −3 0 | 10 ⎞ ⎛ 1 0 0 | 1 ⎞ (3ℓ2 + ℓ1 )
⎜ 0 1 0 | −3 ⎟ → ⎜ 0 1 0 | −3 ⎟ ,
⎜ | ⎟ ⎜ | ⎟
⎝ 0 0 1 | 2⎠ ⎝ 0 0 1 | 2⎠
que nos informa que todas as variáveis correspondem a pivôs e que a única
solução do sistema é dada por 𝑥1 = 1, 𝑥2 = −3 e 𝑥3 = 2:
⎛𝑥1 ⎞ ⎛ 1 ⎞
⎜𝑥2 ⎟ = ⎜−3 ⎟ .
⎜ ⎟ ⎜ ⎟
⎝𝑥3 ⎠ ⎝ 2 ⎠ C
⎛1 0 0 0 0 0 | 𝑏1 ⎞
⎜0 1 0 0 0 0 | 𝑏3 ⎟
⎜0 |
0 1 1 0 0 | 𝑏4 − 𝑏1 − 𝑏3 ⎟ . (2.10)
⎜ ⎟
⎜0 0 0 0 1 −3 | 𝑏5 ⎟
||
⎝0 0 0 0 0 0 𝑏1 + 𝑏2 ⎠
𝑥1 = 𝑏1
𝑥2 = 𝑏3
𝑥3 = (𝑏4 − 𝑏1 − 𝑏3 ) − 𝑥4
𝑥4 = 𝑥4
𝑥5 = 𝑏5 + 3𝑥6
𝑥6 = 𝑥6
⎛ 𝑥1 ⎞ ⎛ 𝑏1 ⎞ ⎛ 0⎞ ⎛0⎞
⎜ 𝑥2 ⎟ ⎜ 𝑏3 ⎟ ⎜ 0⎟ ⎜0⎟
⎜ 𝑥 ⎟ ⎜𝑏 − 𝑏 − 𝑏 ⎟ ⎜−1 ⎟ ⎜0⎟
⎜ 3⎟ = ⎜ 4 1 3⎟ + 𝑥 ⎜
4
⎟ + 𝑥 ⎜ ⎟
6 0 . (2.11)
⎜ 𝑥4 ⎟ ⎜ 0 ⎟ ⎜ 1⎟ ⎜ ⎟
⎜𝑥 ⎟ ⎜ 𝑏 ⎟ ⎜ 0⎟ ⎜3⎟
⎜ 5⎟ ⎜ 5 ⎟ ⎜ ⎟ ⎜ ⎟
⎝ 𝑥6 ⎠ ⎝ 0 ⎠ ⎝ 0⎠ ⎝1⎠
Teorema 2.21 Qualquer que seja a matriz 𝐴, ela possui uma única forma
escalonada reduzida por linhas.
⎛1⎞ ⎛0⎞
⎜0⎟ ⎜0⎟
⎜⋮⎟ ou ⎜⋮⎟,
⎜ ⎟ ⎜ ⎟
⎝0⎠ ⎝0⎠
uma matriz coluna não nula (veja a igualdade (2.11)). Atribuindo diferentes
valores à variável livre, encontramos diferentes soluções. Logo, o sistema
possui infinitas soluções.
⎧ 3𝑥 + 2𝑥2 = 5
⎪ 1
⎨ 𝑥1 + 𝑥 2 + 𝑥 3 = 3
⎪
⎩ 2𝑥1 + 𝑥2 − 𝑥3 = 2.
(𝑎) Resolva o sistema, levando sua matriz aumentada à forma escalonada reduzida por linhas;
4
A notação ker vem do inglês: kernel quer dizer núcleo.
2.2. MATRIZES ELEMENTARES E MATRIZ INVERSA 35
(𝑎) Resolva o sistema, levando sua matriz aumentada à forma escalonada reduzida por linhas;
(𝑏) Resolva o sistema homogêneo associado;
(𝑐) Sabendo que (1, 1, 1) é solução do sistema não homogêneo, encontre todas as suas soluções
aplicando o Teorema 2.24;
(𝑑) Compare as soluções encontradas em (𝑎) e (𝑐).
Exercício 2.15 Considere o sistema
⎧ 3𝑥 + 2𝑥2 + 3𝑥3 = 8
⎪ 1
⎨ 𝑥1 + 𝑥 2 + 𝑥 3 = 3
⎪
⎩ 2𝑥1 + 𝑥2 − 𝑥3 = 2.
Sabendo que (1, 1, 1) é uma de suas soluções, ache todas as soluções do sistema aplicando o
Teorema 2.24.
⎛1 0 … 0⎞
⎜⋮ ⋮⎟
𝐸 = ⎜0 … 𝜆 … 1 … 0⎟ ← linha 𝑗
⎜ ⎟
⎜⋮ ⋮⎟
⎝0 0 … 1⎠
↑
coluna 𝑗
Então
O Lema 2.26 nos mostra como é importante saber se uma matriz é inver-
tível. Os próximos resultados simplificam a verificação de que uma matriz
é a inversa da outra e nos ensinam como obter a inversa de uma matriz in-
vertível.
𝑒𝑗 𝑒𝑗−1 … 𝑒1 𝐴 = 𝑅.
𝐸𝑗 𝐸𝑗−1 … 𝐸1 𝐴 = 𝑅,
Como cada matriz elementar 𝐸𝑖 possui inversa (de acordo com o Exercício
2.17), decorre do Lema 1.15 que o lado esquerdo dessa igualdade possui
inversa. Como 𝑅 é uma matriz quadrada, se tivéssemos 𝑅 ≠ 𝐼, então a úl-
tima linha de 𝑅 seria identicamente nula. Em consequência, a última linha
de 𝑅𝐵 seria nula. Isso implica que 𝑅𝐵 não possuiria inversa, uma contra-
dição. Logo, 𝑅 = I e (𝑖) implica (𝑖𝑖).
Se (𝑖𝑖) for válido, temos que 𝐸𝑗 𝐸𝑗−1 … 𝐸1 𝐴 = I e, portanto, 𝐴 =
−1 −1 −1
𝐸1 … 𝐸𝑗−1 𝐸𝑗 , de acordo com o Lema 1.15. Assim, 𝐴 é um produto
de matrizes elementares, pelo Exercício 2.17. Isso mostra que (𝑖𝑖) implica
(𝑖𝑖𝑖).
Como cada matriz elementar possui inversa e o produto de matrizes
invertíveis é invertível (pelo Lema 1.15), temos que (𝑖𝑖𝑖) implica (𝑖𝑣).
É claro que (𝑖𝑣) implica (𝑖).
Observe que a afirmação (𝑖) da Proposição 2.30 apenas nos diz que 𝐴
possui uma inversa à direita, isto é, existe 𝐵 tal que 𝐴𝐵 = I, mas não sa-
bemos se 𝐵𝐴 = I, o que é uma consequência do resultado demonstrado
(como?).
(𝑖𝑖) 𝐴 é invertível.
⎛ 1 1 1 0 ⎞
⎜ 2 1 4 0 ⎟
𝐴=⎜ ⎟,
2 3 5 0
⎜ ⎟
⎝ 0 0 0 1 ⎠
⎛1 1 1 0 | 1 0 0 0 ⎞ ⎛ 1 1 1 0 | 1 0 0 0⎞
⎜2 1 4 0 | 0 1 0 0 ⎟ ⎜ 0 1 −2 0 | 2 −1 0 0 ⎟
⎜2 3 5 0 0 0 1 0 ⎟→ ⎜ 0 1 3 0 −2 0 1 0⎟
→
⎜ | ⎟ ⎜ | ⎟
⎝0 0 0 1 | 0 0 0 1 ⎠ ⎝ 0 0 0 1 | 0 0 0 1⎠
⎛1 0 3 0 | −1 1 0 0⎞ ⎛1 0 3 0 | −1 1 0 0⎞
⎜0 1 −2 0 | 2 −1 0 0 ⎟ ⎜0 1 −2 0 | 2 −1 0 0⎟
⎜0 → →
⎜ 0 5 0 | −4 1 1 0 ⎟⎟ ⎜0 0 1 0 4
| −5
1 1
0⎟
⎜ 5 5 ⎟
⎝0 0 0 1 | 0 0 0 1⎠ ⎝0 0 0 1 | 0 0 0 1⎠
7 2
⎛1 0 0 0 | 5 5
− 35 0⎞
⎜ 2
⎟
⎜0 1 0 0 | 5
− 35 2
5
0⎟
→⎜ ⎟
⎜0 0 1 0 | − 45 1 1
0⎟
⎜ 5 5 ⎟
⎜0 0 0 1 0 0 0 1 ⎟⎠
⎝ |
2.3 Exercícios
1. Considere o sistema de equações
𝑥1 + 5𝑥2 + 7𝑥1 𝑥3 = 2
{ 2𝑥1 − 𝑥2 + 𝑥3 = 0
Esse sistema é linear?
2. Dê exemplo de um sistema com duas equações e duas incógnitas que não possui solução.
3. Dê exemplo de um sistema com três equações e duas incógnitas que possui apenas uma so-
lução.
4. Nos seguintes sistemas, determine pivôs, variáveis livres e termos independentes.
𝑥1 + 4𝑥2 − 5𝑥3 + 2𝑥4 − 𝑥5 = 7
(a)
{ 𝑥3 − 𝑥4 + 𝑥5 = 2;
𝑥1 − 𝑥 2 = 3
(b)
{ 𝑥2 = 0.
5. Utilizando o método de Gauss-Jordan, resolva o sistema
7. Considere a matriz
⎛1 −2 1⎞
𝐴 = ⎜2 −5 1⎟
⎜ ⎟
⎝3 −7 2⎠
e o sistema 𝐴𝒙 = 𝒃, sendo 𝒃 igual a
⎛𝑏1 ⎞
(a) ⎜𝑏2 ⎟;
⎜ ⎟
⎝𝑏3 ⎠
⎛ 1⎞
(b) ⎜ −2 ⎟;
⎜ ⎟
⎝ −1 ⎠
⎛ 2⎞
(c) ⎜ −1 ⎟;
⎜ ⎟
⎝ 2⎠
⎛1⎞
(d) ⎜1⎟.
⎜ ⎟
⎝1⎠
Encontre, em cada caso, todas as soluções do sistema 𝐴𝒙 = 𝒃, se existirem. Em (a), imponha
condições sobre 𝒃 para que a solução exista.
8. Considere o sistema cuja matriz aumentada é
⎛0 0 0 3 −9 | 6⎞
⎜ 0 5 15 −10 40 | − 45⎟ .
⎜ ⎟
⎝ 0 1 3 −1 5 | − 7⎠
⎛ 1 −2 5 | 𝑏1 ⎞
⎜ 4 −5 8 | 𝑏 ⎟.
⎜ | 2⎟
⎝−3 3 −3 | 𝑏3 ⎠
Satisfeita essa condição, escreva as soluções do sistema utilizando a forma utilizada no Exem-
plo 2.16.
10. Determine os valores de 𝑎 de modo que o sistema
⎧ 𝑥 + 𝑦 − 𝑧 = 1
⎪
⎨ 2𝑥 + 3𝑦 + 𝑎𝑧 = 3
⎪
⎩ 𝑥 + 𝑎𝑦 + 3𝑧 = 2
possua:
(a) solução única;
(b) infinitas soluções;
(c) nenhuma solução.
Determine, quando existirem, as soluções deste sistema.
11. Seja 𝐴 uma matriz 𝑚 × 𝑛 e 𝑅 = (𝑟𝑖𝑗 ) a forma escalonada reduzida por linhas de 𝐴. Justifique:
se o sistema 𝐴𝒙 = 0 não tiver solução única, então uma entrada diagonal 𝑟𝑖𝑖 é igual a zero.
2.3. EXERCÍCIOS 41
12. Seja 𝐴 uma matriz 𝑚 × 𝑛, com 𝑚 ≠ 𝑛. Mostre que não pode existir uma matriz 𝐵, 𝑛 × 𝑚, tal
que 𝐵𝐴 = I𝑛 e 𝐴𝐵 = I𝑚 .
13. Sejam 𝐴1 , 𝐴2 , 𝐴3 ∈ 𝕄𝑛×𝑛 matrizes invertíveis. Mostre que
15. Sejam 𝐸1 , 𝐸2 e 𝐸3 matrizes elementares que representam operações elementares dos tipos
(𝑎), (𝑏) e (𝑐), respectivamente. Mostre que 𝐸𝑖𝒕 = 𝐸𝑖 , se 𝑖 = 1 ou 𝑖 = 2. O mesmo resultado
vale se 𝑖 = 3?
16. Calcule as inversas das matrizes
⎛1 0 2⎞ ⎛ 1 −1 2⎞
𝐴 = ⎜2 −1 3⎟ e 𝐵 = ⎜ 2 −1 7⎟ .
⎜ ⎟ ⎜ ⎟
⎝4 1 8⎠ ⎝−4 5 −3⎠
⎛ 1 1 0 ⎞
𝐴=⎜ 1 0 0 ⎟
⎜ ⎟
⎝ 1 2 𝑎 ⎠
possui inversa.
18. Considere a equação matricial 𝐶 −1 (𝐴 + 𝑋)𝐵 −1 = I, supondo que as matrizes 𝐴, 𝐵 e 𝐶 sejam
invertíveis. Obtenha a matriz 𝑋 em função das outras matrizes. A matriz 𝑋 é necessariamente
invertível?
19. Mostre que toda matriz elementar do tipo troca de linha pode ser escrita como produto de
matrizes elementares dos outros dois tipos.
Capítulo 3
Determinantes
𝑎 𝑏 ℓ1
𝐴= =
( 𝑐 𝑑) (ℓ2 )
ℓ1 𝑎 𝑏 ℓ ℓ
det = = det 1 + 𝜆 det 1′ ;
(ℓ2 + 𝜆ℓ′2 ) (𝑐 + 𝜆𝑐 ′ 𝑑 + 𝜆𝑑 ′ ) (ℓ2 ) (ℓ2 )
42
3.1. A FUNÇÃO DETERMINANTE 43
⎛ ℓ1 ⎞ ⎛ℓ1 ⎞ ⎛ℓ1 ⎞
⎜ ⋮ ⎟ ⎜⋮⎟ ⎜⋮⎟
𝐷 ⎜ℓ𝑖 + 𝜆ℓ′𝑖 ⎟ = 𝐷 ⎜ ℓ𝑖 ⎟ + 𝜆𝐷 ⎜ ℓ′𝑖 ⎟ .
⎜ ⎟ ⎜ ⎟ ⎜ ⎟
⎜ ⋮ ⎟ ⎜⋮⎟ ⎜⋮⎟
⎝ ℓ𝑛 ⎠ ⎝ℓ𝑛 ⎠ ⎝ℓ𝑛 ⎠
(𝑑2 ) 𝐷 é uma função alternada, isto é, se duas linhas de 𝐴 forem iguais,
então 𝐷(𝐴) = 0. Isto é, se ℓ𝑖 = ℓ𝑗 para 𝑖 ≠ 𝑗, 𝑖, 𝑗 ∈ {1, … , 𝑛}, então
⎛ℓ1 ⎞
⎜⋮⎟
⎜ℓ ⎟
⎜ 𝑖⎟
𝐷 ⎜ ⋮ ⎟ = 0;
⎜ ℓ𝑗 ⎟
⎜⋮⎟
⎜ ⎟
⎝ℓ𝑛 ⎠
(𝑑3 ) 𝐷(I) = 1, em que I denota a matriz identidades 𝑛 × 𝑛.
44 CAPÍTULO 3. DETERMINANTES
Se bem que saibamos que essas propriedades são verificadas para ma-
trizes 2 × 2 com 𝐷(𝐴) definido por det 𝐴, não é óbvia a existência de uma
função satisfazendo as propriedades (𝑑1 ) − (𝑑2 ) − (𝑑3 ) para matrizes genéri-
cas 𝑛 × 𝑛. Mais do que isso, existe uma única maneira de definir o determi-
nante? Não é possível que definições diferentes do determinante satisfaçam
as propriedades (𝑑1 )-(𝑑2 )-(𝑑3 ) que definem a função determinante?
Antes de provarmos que existe uma única função 𝐷 ∶ 𝕄𝑛×𝑛 → 𝕂 satis-
fazendo as propriedades (𝑑1 )-(𝑑2 )-(𝑑3 ), mostraremos algumas propriedades
que nos permitirão calcular o determinante de uma matriz quadrada. Para
melhor entendermos o significado da hipótese (𝑑3 ), em muitos resultados
consideraremos apenas uma função satisfazendo as propriedades (𝑑1 ) e (𝑑2 ).
Lema 3.2 Seja 𝐷 uma função satisfazendo a propriedade (𝑑1 ). São equi-
valentes as afirmações:
⎛ ℓ1 ⎞
⎜ ⋮ ⎟
⎜ ℓ ⎟
𝐷 ⎜ 𝑖 ⎟ = 0.
⎜ℓ𝑖+1 ⎟
⎜ ⋮ ⎟
⎜ ⎟
⎝ ℓ𝑛 ⎠
⎛ ℓ1 ⎞
⎜ ⋮ ⎟
⎜ ℓ ⎟
⎜ 𝑖 ⎟
𝐷 ⎜ ⋮ ⎟ = 0.
⎜ℓ𝑖+𝑘 ⎟
⎜ ⋮ ⎟
⎜ ⎟
⎝ ℓ𝑛 ⎠
⎛ ℓ1 ⎞
⎜ ⋮ ⎟
⎜ ℓ𝑖 ⎟
⎛ ℓ𝑖 ⎞ ⎜
⋮ ⎟
⎟
𝐷 ⎜ ℓ𝑖+𝑘 ⎟ em vez de 𝐷⎜ .
⎜ ⎟ ⎜ ℓ𝑖+𝑘 ⎟
⎝ℓ𝑖+𝑘+1 ⎠ ⎜ℓ𝑖+𝑘+1 ⎟
⎜ ⋮ ⎟
⎜ ⎟
⎝ ℓ𝑛 ⎠
Suponhamos então que tenhamos ℓ𝑖 = ℓ𝑖+𝑘+1 . Então (verifique cada pas-
sagem cuidadosamente!)
⎛ ℓ𝑖 ⎞ ⎛ ℓ𝑖 ⎞ ⎛ ℓ𝑖 ⎞ ⎛ ℓ𝑖 ⎞
⎜ ⎟ ⎜ ⎟ ⎜ ⎟
𝐷 ℓ𝑖+𝑘 = 𝐷 ℓ𝑖+𝑘 + 𝐷 ℓ𝑖+𝑘 = 𝐷 ⎜ ℓ𝑖+𝑘 ⎟
⎜ ⎟ ⎜ ⎟ ⎜ ⎟ ⎜ ⎟
⎝ℓ𝑖+𝑘+1 ⎠ ⎝ℓ𝑖+𝑘 ⎠ ⎝ℓ𝑖+𝑘+1 ⎠ ⎝ℓ𝑖+𝑘 + ℓ𝑖+𝑘+1 ⎠
⎛ ℓ𝑖 ⎞ ⎛ ℓ𝑖 ⎞
=𝐷 ⎜ ℓ𝑖+𝑘 ⎟ +𝐷 ⎜ ℓ𝑖+𝑘+1 ⎟
⎜ ⎟ ⎜ ⎟
⎝ℓ𝑖+𝑘 + ℓ𝑖+𝑘+1 ⎠ ⎝ℓ𝑖+𝑘 + ℓ𝑖+𝑘+1 ⎠
⎛ ℓ𝑖 ⎞
= 𝐷 ℓ𝑖+𝑘 + ℓ𝑖+𝑘+1 ⎟ = 0.
⎜ (3.1)
⎜ ⎟
⎝ℓ𝑖+𝑘 + ℓ𝑖+𝑘+1 ⎠
Na primeira igualdade, a primeira matriz do lado direito da igualdade é nula,
pois duas linhas consecutivas são iguais; a segunda igualdade decorre de
(𝑑1 ); a segunda matriz no lado direito da terceira igualdade é nula pela hi-
pótese de indução, pois as linhas ℓ𝑖 e ℓ𝑖+𝑘+1 são iguais; a quarta igualdade
decorre da aplicação de (𝑑1 ); a igualdade entre duas linhas consecutivas
garante então a última igualdade.
Exercício 3.3 Considere uma matriz 3 × 3 genérica 𝐴 = (𝑎𝑖𝑗 ), com a primeira e terceira linhas
iguais. Supondo as propriedades (𝑑1 ) e (𝑑2′ ), refaça a demonstração da Proposição 3.2
Exercício 3.4 Estude a sequência de igualdades apresentadas em (3.1) e justifique a explicação
apresentada, utilizando apenas as propriedade (𝑑1 ) e (𝑑2′ ).
(𝑖𝑖𝑖) Se 𝐵 for obtida de 𝐴 substituindo uma linha por ela mesma mais um
múltiplo de outra então 𝐷(𝐵) = 𝐷(𝐴).
46 CAPÍTULO 3. DETERMINANTES
⎛ℓ1 ⎞
⎜⋮⎟
⎜ℓ ⎟
ℓ𝑖 ⎜ 𝑖⎟
𝐷 em vez de 𝐷⎜ ⋮ ⎟.
(ℓ𝑗 )
⎜ ℓ𝑗 ⎟
⎜⋮⎟
⎜ ⎟
⎝ℓ𝑛 ⎠
Então, utilizando as propriedades (𝑑1 ) e (𝑑2 ), temos
ℓ𝑖 + ℓ𝑗 ℓ ℓ𝑖 ℓ ℓ
0=𝐷 =𝐷 𝑖 + +𝐷 𝑗 +𝐷 𝑗
(ℓ𝑖 + ℓ𝑗 ) (ℓ𝑖 ) (ℓ𝑗 ) (ℓ𝑖 ) (ℓ𝑗 )
ℓ𝑖 ℓ
=𝐷 +𝐷 𝑗 .
(ℓ𝑗 ) (ℓ𝑖 )
Logo,
ℓ𝑖 ℓ
𝐷 = −𝐷 𝑗 .
(ℓ𝑗 ) ( ℓ𝑖 )
Mantendo a notação do item anterior, suponhamos que a matriz 𝐵 seja
obtida de 𝐴 ao se somar a 𝜅 vezes a linha 𝑖 à linha 𝑗, todas as outras linhas
permanecendo inalteradas. Então
ℓ𝑖 ℓ ℓ𝑖
𝐷(𝐵) = 𝐷 = 𝜅𝐷 𝑖 + 𝐷 = 𝐷(𝐴),
(𝜅ℓ𝑖 + ℓ𝑗 ) (ℓ𝑖 ) (ℓ𝑗 )
ℓ1
𝐷(𝐵) = 𝐷 .
(𝜅ℓ𝑖 )
Então
ℓ1 ℓ ℓ ℓ1
𝜅𝐷 = 𝐷 1 + 𝜅𝐷 1 = 𝐷
( ℓ𝑖 ) (ℓ 1 ) ( ℓ𝑖 ) (ℓ1 + 𝜅ℓ𝑖 )
ℓ1 ℓ1
=𝐷 + = 𝐷(𝐵),
(ℓ1 ) (𝜅ℓ𝑖 )
ℓ1 ℓ ℓ ℓ1 ℓ
𝐷 =𝐷 1 +𝐷 1 =𝐷 = 𝐷 1 = 0.
( ℓ𝑖 ) (ℓ1 ) ( ℓ𝑖 ) (ℓ1 + ℓ𝑖 ) (ℓ1 )
(𝑖𝑣) Seja 𝐶 uma matriz equivalente por linhas à matriz 𝐴′ . Então 𝐷(𝐴′ ) =
0 se, e somente se, 𝐷(𝐶) = 0.
Exercício 3.8 Escreva detalhadamente a prova dos itens (𝑖𝑣) e (𝑣) do Corolário 3.5.
⎛ 1 2 −1 1⎞
⎜ 0 2 0 0⎟
𝐴=⎜ .
1 2 −1 4⎟
⎜ ⎟
⎝−1 1 3 2⎠
50 CAPÍTULO 3. DETERMINANTES
Escalonamos a matriz 𝐴:
⎛ 1 2 −1 1⎞ ⎛1 2 −1 1⎞
⎜ 0 2 0 0⎟ ⎜0 2 0 0⎟
⎜ 1 →
2 −1 4⎟ ⎜0 0 0 3⎟
⎜ ⎟ ⎜ ⎟
⎝−1 1 3 2⎠ ⎝0 3 2 3⎠
⎛1 2 −1 1⎞ ⎛1 2 −1 1⎞ ⎛1 2 −1 1⎞
⎜0 2 0 0⎟ ⎜0 1 0 0 ⎟ ⎜0 1 0 0⎟
→⎜ → → .
0 3 2 3⎟ ⎜0 3 2 3 ⎟ ⎜0 0 2 3⎟
⎜ ⎟ ⎜ ⎟ ⎜ ⎟
⎝0 0 0 3⎠ ⎝0 0 0 3 ⎠ ⎝0 0 0 3⎠
Sejam 𝐴, 𝐵, 𝐶, 𝐷, 𝐸, respectivamente, as matrizes acima. Do Teorema
3.3 e do Corolário 3.5 deduzimos
1 1 1
det 𝐸 = det 𝐷 = det 𝐶 = (− det 𝐵) = − det 𝐴.
2 2 2
Daí, pela Proposição 3.9, det 𝐴 = −2 det 𝐷 = −12.
Alternativamente,
⎛2 1 3 1⎞
⎜1 0 1 1⎟
⎜0 .
2 1 0⎟
⎜ ⎟
⎝0 1 2 3⎠
Definição 3.11 Seja 𝐴 uma matriz 𝑛 × 𝑛. Para 𝑖, 𝑗 ∈ {1, … , 𝑛}, 𝐴𝑖𝑗 denota
a matriz obtida ao se eliminar a 𝑖-ésima linha e a 𝑗-ésima coluna de 𝐴.
podem não ser nulos em (3.3). Contudo, como as linhas ℓ𝑖 e ℓ𝑖+1 são iguais,
também são iguais as matrizes 𝐴1𝑖 e 𝐴1(𝑖+1) . Do mesmo modo para 𝑎1𝑖 e
𝑎1(𝑖+1) . Disso decorre que (3.3) é igual a zero, mostrando (𝑑2 ).
Se 𝐴 for a matriz identidade I, então apenas a parcela (−1)1+1 𝑎11 𝐷(I11 )
não é nula em (3.3). Como I11 é a matriz identidade (𝑛 − 1) × (𝑛 − 1), a
hipótese de indução nos dá 𝐷(I11 ) = 1. Daí decorre que 𝐷1 (I) = 1, como
queríamos demonstrar.
Exercício 3.10 Considere uma matriz 4 × 4 genérica 𝐴 = (𝑎𝑖𝑗 ). Supondo definido o determinante
de matrizes 3 × 3, reproduza a demonstração do Teorema 3.13 neste caso.
Assim, existe uma função determinante: 𝐷1 satisfaz as propriedades
(𝑑1 ), (𝑑2 ) e (𝑑3 ) e 𝐷1 oferece um método alternativo para o cálculo do de-
terminante de uma matriz. Mas existem outros métodos!
Exercício 3.11 Considere uma matriz 4 × 4 genérica 𝐴 = (𝑎𝑖𝑗 ). Supondo definido o determinante
de matrizes 3 × 3, reproduza a demonstração do Teorema 3.13 desenvolvendo segundo os cofatores
da segunda linha.
Uma vez que já provamos a unicidade da função determinante, concluí-
mos que os valores 𝐷𝑖 (𝐴) são iguais para qualquer 1 ≤ 𝑖 ≤ 𝑛. Mas já
mostramos que det 𝐴 = det 𝐴𝒕 . Assim, podemos concluir o próximo resul-
tado.
Corolário 3.16 A expansão em cofatores pode ser feita também segundo
qualquer coluna da matriz quadrada 𝐴. Isto é,
𝑛
det 𝐴 = ∑(−1)𝑖+𝑗 𝑎𝑖𝑗 det 𝐴𝑖𝑗 .
𝑗=1
⎛ 1 2 −1 1⎞
⎛ 1 −1 1⎞
⎜ 0 2 0 0⎟ ⎜ 1
det 𝐴 = det ⎜ = 2 det −1 4⎟
1 2 −1 4⎟ ⎜ ⎟
⎜ ⎟ ⎝−1 3 2⎠
⎝−1 1 3 2⎠
−1 4 1 4 1 −1
= 2 1 det − (−1) det + 1 det
[ ( 3 2) (−1 2) (−1 3)]
= −12. ⊲
⎛2 1 3 1⎞
⎜1 0 1 1⎟
⎜0 .
2 1 0⎟
⎜ ⎟
⎝0 1 2 3⎠
Exercício 3.13 Utilizando a decomposição em cofatores, produza outra demonstração de que
det 𝐴 = det 𝐴𝒕 .
Observe que o desenvolvimento segundo os cofatores da primeira co-
luna de uma matriz triangular superior oferece uma demonstração simples
da Proposição 3.9.
3.4. MATRIZES EM BLOCOS 53
⎛ 0 1 2 1 2 3 3 3 1 0 ⎞
⎜ 1 1 2 2 2 2 3 3 1 1 ⎟
⎜ 1 2 2 1 3 1 3 1 1 1 ⎟
⎜ ⎟
⎜ 0 1 0 0 1 1 0 0 1 1 ⎟
⎜ 0 0 0 0 1 2 3 1 2 1 ⎟
𝑄=⎜ ⎟
0 0 0 0 1 1 1 2 1 1
⎜ ⎟
⎜ 0 0 0 0 2 2 2 7 1 1 ⎟
⎜ 0 0 0 0 3 4 3 4 1 4 ⎟
⎜ 0 0 0 0 3 1 4 1 5 6 ⎟
⎜ ⎟
⎝ 0 0 0 0 6 3 4 1 2 1 ⎠
pode ser escrita na forma
𝐴 𝐵
𝑄= ,
( 0 𝐷 )
em que
⎛ 1 2 3 1 2 1 ⎞
⎛ 0 1 2 1 ⎞ ⎜ 1 1 1 2 1 1 ⎟
⎜ 1 1 2 2 ⎟ ⎜ 2 2 2 7 1 1 ⎟
𝐴=⎜ ⎟ e 𝐷=⎜ ⎟.
1 2 2 1 ⎜ 3 4 3 4 1 4 ⎟
⎜ ⎟ ⎜ ⎟
⎝ 0 1 0 0 ⎠ 3 1 4 1 5 6
⎜ ⎟
⎝ 6 3 4 1 2 1 ⎠
Os blocos 𝐴 e 𝐷 ajudam no cálculo do determinante da matriz 𝑄. De fato,
vale o seguinte resultado:
Teorema 3.18 Seja 𝑄 uma matriz 𝑛 × 𝑛 com a forma
𝐴 𝐵
𝑄= ,
( 0 𝐷 )
em que 𝐴 é uma matriz 𝑚 × 𝑚 e 𝐷 uma matriz (𝑛 − 𝑚) × (𝑛 − 𝑚). Então,
𝐴′ 𝐵 ′
(−1)𝑗 (−1)𝑘 det 𝑄 = ,
( 0 𝐷′ )
54 CAPÍTULO 3. DETERMINANTES
⎛2 1 −1⎞ ⎛1⎞
𝐴 = ⎜2 2 2⎟ e 𝒃 = ⎜13⎟ .
⎜ ⎟ ⎜ ⎟
⎝4 −2 3⎠ ⎝9⎠
É fácil verificar que det 𝐴 = 33, o que nos permite aplicar a regra de Cramer.
Obtemos as matrizes 𝐴1 , 𝐴2 e 𝐴3 .
⎛1 1 −1⎞ ⎛2 1 −1⎞ ⎛2 1 1⎞
𝐴1 = ⎜13 2 2⎟ , 𝐴2 = ⎜2 13 2⎟ e 𝐴3 = ⎜2 2 13⎟ .
⎜ ⎟ ⎜ ⎟ ⎜ ⎟
⎝ 9 −2 3⎠ ⎝4 9 3⎠ ⎝4 −2 9⎠
Calculando, obtemos det 𝐴1 = 33, det 𝐴2 = 66 e det 𝐴3 = 99. Assim, a
solução do sistema é dada por
3.6 Exercícios
1. Seja 𝕂 = ℝ ou 𝕂 = ℂ e considere a propriedade (𝑖) do Teorema 3.3
da função determinante. Suponha que 𝐷 satisfaça as propriedades
(𝑑1 ) e (𝑖). Mostre que 𝐷 é alternada.
⎛ 2 5 −3 −2 ⎞
⎜−2 −3 2 −5 ⎟
⎜ 1 .
3 −2 2⎟
⎜ ⎟
⎝−1 −6 4 3⎠
56 CAPÍTULO 3. DETERMINANTES
11. Seja 𝐴, 𝐵 ∈ 𝕄𝑛×𝑛 matrizes tais que det 𝐵 ≠ 0. Suponha que 𝐴 tenha
colunas 𝑐1 , … , 𝑐𝑛 . Mostre que det(𝐵𝐴) = det(𝐵𝑐1 , … , 𝐵𝑐𝑛 ), em que
a matriz 𝐵𝐴 está sendo expressa por suas colunas. Em seguida, defina
det(𝐵𝐴)
𝐷∗ (𝑐1 , … , 𝑐𝑛 ) = .
det 𝐵
Mostre que 𝐷∗ satisfaz todas as propriedades da função determinante
e conclua que det(𝐴𝐵) = det 𝐴 det 𝐵 se det 𝐵 ≠ 0,
13. Seja 𝐵(𝜏) uma matriz 𝑛 × 𝑛 cujas entradas 𝛽𝑖𝑗 (𝜏) dependem continua-
mente da variável 𝜏. Mostre que det 𝐵(𝜏) depende continuamente de
𝜏.
15. Seja
⎛2 2 2⎞
𝐴 = ⎜0 2 0⎟ .
⎜ ⎟
⎝0 1 3⎠
Determine todos os valores 𝜆 para os quais existe 𝒙 = (𝑥 𝑦 𝑧)𝒕 , com
𝒙 ≠ 0, tal que 𝐴𝒙 = 𝜆𝒙.
𝐴 𝐵
det 𝑃 = det = det(𝐴𝐷 − 𝐴𝐶𝐴−1 𝐵).
(𝐶 𝐷)
2
Isto é, o coeficiente do termo de maior grau é igual a 1.
3.6. EXERCÍCIOS 57
𝐴 𝐵 𝐴 0 I 𝑌
= .
(𝐶 𝐷) (𝐶 I) (0 𝑋)
2
⎛1 𝜒1 𝜒1 ⎞
det ⎜1 𝜒2 𝜒22 ⎟ = (𝜒2 − 𝜒1 )(𝜒3 − 𝜒1 )(𝜒3 − 𝜒2 ).
⎜ 2⎟
⎝1 𝜒3 𝜒3 ⎠
𝑛−1
⎛ 1 𝜒 1 ⋯ 𝜒1 ⎞
⎜1 𝜒2 ⋯ 𝜒2𝑛−1 ⎟
𝑉𝑛 = det ⎜ = (𝜒𝑖 − 𝜒𝑗 )
⋮ ⋮ ⎟ ∏
⎜ 𝑛−1 ⎟ 𝑖>𝑗
⎝ 1 𝜒 𝑛 ⋯ 𝜒𝑛 ⎠
𝑓1 (𝜏) 𝑓2 (𝜏)
𝜓(𝜏) = det ,
(𝑓1′ (𝜏) 𝑓2′ (𝜏))
então
𝑓1 (𝜏) 𝑓2 (𝜏)
𝜓 ′ (𝜏) = det .
(𝑓1′′ (𝜏) 𝑓2′′ (𝜏))
Generalize então para matrizes 𝑛 × 𝑛:
⎛ 𝑓1′(𝜏) 𝑓2 (𝜏)
′
⋯ 𝑓𝑛 (𝜏) ⎞
⎜ 𝑓 (𝜏) 𝑓2 (𝜏) ⋯ 𝑓𝑛′ (𝜏) ⎟
𝜓(𝜏) = det 𝐴(𝜏) = det ⎜ 1 ⎟.
⋮ ⋮
⎜ (𝑛−1) (𝑛−1) (𝑛−1) ⎟
⎝𝑓1 (𝜏) 𝑓2 (𝜏) ⋯ 𝑓𝑛 (𝜏)⎠
24. Seja 𝐵 ∈ 𝕄𝑛×𝑛 (𝕂) uma matriz fixa. Defina 𝜑𝐵 ∶ 𝕄𝑛×𝑛 (𝕂) → 𝕄𝑛×𝑛 (𝕂)
por
𝜑𝐵 (𝐴) = 𝐴𝐵 − 𝐵𝐴.
Mostre que 𝜑𝐵 é linear e que det 𝜑𝐵 = 0.
Capítulo 4
Base e Dimensão
4.1 Subespaços
Nosso objetivo é definir subconjuntos de um espaço vetorial 𝑋 que se
comportem de maneira semelhante àquela de retas e planos passando pela
origem do ℝ3 : vemos que, considerando apenas elementos (= vetores) des-
ses subconjuntos, a adição de dois vetores quaisquer e a multiplicação de
um vetor por um escalar permanecem nesses subconjuntos.
(1) 𝒙 + 𝒚 ∈ 𝑊;
(2) 𝛼𝒙 ∈ 𝑊.
59
60 CAPÍTULO 4. BASE E DIMENSÃO
Exercício 4.2 Seja 𝑊 ⊂ 𝑋 um subespaço. Mostre que, se existir 𝒘 ∈ 𝑊 tal que 𝒘 ≠ 0, então 𝑊
possui infinitos elementos.
Exercício 4.3 Aplicando diretamente a Definição 4.1, mostre que o conjunto 𝑊 do Exemplo 4.5 é
um subespaço.
Exercício 4.4 Mostre que o conjunto
𝑈 = {(1 + 2𝑖)𝑧1 − 2𝑧2 − (1 + 3𝑖)𝑧3 = 0 ∶ 𝑧𝑖 ∈ ℂ, 1 ≤ 𝑖 ≤ 3}
é um espaço vetorial.
Exercício 4.5 Sejam 𝐴 uma matriz 𝑚 × 𝑛 e 0 ≠ 𝒃 ∈ 𝕂𝑚 . Mostre que as soluções do sistema
𝐴𝒙 = 𝒃 não formam um subespaço do 𝕂𝑛 . Compare com o plano 𝜋2 do Exercício 4.1.
1
Note que o produto 𝐴𝒙 só faz sentido se 𝒙 for uma matriz 5 × 1.
62 CAPÍTULO 4. BASE E DIMENSÃO
⎛3𝛼 + 2𝛽 + 7𝛾⎞ ⎛ 3⎞ ⎛ 2⎞ ⎛7 ⎞
⎜ 𝛼−𝛽+𝛾 ⎟ ⎜ 1⎟ ⎜−1 ⎟ ⎜1 ⎟
⎜ 𝛼+𝛽 ⎟ = 𝛼 ⎜ 1 ⎟ + 𝛽 ⎜ 1 ⎟ + 𝛾 ⎜0 ⎟ .
⎜ ⎟ ⎜ ⎟ ⎜ ⎟ ⎜ ⎟
⎝ 𝛾 −𝛼 ⎠ ⎝−1 ⎠ ⎝ 0⎠ ⎝1 ⎠
Assim, vemos que 𝑊 pode ser interpretado como o espaço gerado pelos
vetores
⎛ 3⎞ ⎛ 2⎞ ⎛7⎞
⎜ 1⎟ ⎜−1 ⎟ ⎜1⎟
𝒗1 = ⎜ ⎟ , 𝒗2 = ⎜ ⎟ e 𝒗3 = ⎜ ⎟ .
1 1 0
⎜ ⎟ ⎜ ⎟ ⎜ ⎟
⎝−1 ⎠ ⎝ 0⎠ ⎝1⎠
Qualquer vetor 𝒘 ∈ 𝑊 fica determinado (em termos dos vetores 𝒗1 , 𝒗2 e
𝒗3 ) se conhecermos os escalares 𝛼, 𝛽 e 𝛾. Ao definirmos base, veremos que
os vetores 𝒗1 , 𝒗2 e 𝒗3 geram um sistema de coordenadas (isto é, uma base),
de modo que vetores de 𝑊 serão descritos em termos das três coordenadas
𝛼, 𝛽 e 𝛾. ⊲
⎛ −2 ⎞ ⎛5⎞ ⎛ −4 ⎞ ⎛7⎞
⎜ 1⎟ ⎜0⎟ ⎜ 0⎟ ⎜0⎟
⎜ 0⎟ , ⎜1⎟, ⎜ 0⎟ e ⎜0⎟
⎜ ⎟ ⎜ ⎟ ⎜ ⎟ ⎜ ⎟
⎜ 0⎟ ⎜0⎟ ⎜ 1⎟ ⎜0⎟
⎝ 0⎠ ⎝0⎠ ⎝ 0⎠ ⎝1⎠
Observe que esse procedimento nada mais é do que explicitar o núcleo
da matriz 𝐴 definida no Exemplo 4.5. ⊲
4.1. SUBESPAÇOS 63
𝒘
-
𝒗
< 𝒗1 , … , 𝒗𝑘 >
Exercício 4.6 Aplicando diretamente a Definição 4.1, mostre que o conjunto 𝑊 do Exemplo 4.7 é
um subespaço.
Exercício 4.7 Sejam 𝒗1 = (1, 2, 1, 1), 𝒗2 = (2, 1, 1, 1), 𝒗3 = (1, 1, 1, 1), 𝒗4 = (0, 1, 0, 1) e 𝒗5 =
(0, 0, 1, 0) vetores do espaço ℝ4 . Descreva o espaço < 𝒗1 , … , 𝒗5 > de maneira semelhante àquela
utilizada no Exemplo 4.7 para descrever 𝑊 .
Os exercícios anteriores deixam claro que existem diferentes maneiras
de mostrar que um subconjunto 𝑊 ⊂ 𝑋 é um subespaço de 𝑋. Mas a
utilização da Proposição 4.6 no Exemplo 4.7 é vantajosa, pois toda a infor-
mação sobre aquele subespaço 𝑊 está sintetizada nos vetores 𝒗1 , 𝒗2 e 𝒗3 :
conhecendo esses vetores, o subespaço 𝑊 está determinado.
𝑥1 𝒗1 + … + 𝑥𝑘 𝒗𝑘 = 𝒗. (4.1)
𝛼1 𝒗1 + 𝛼2 𝒗2 = 𝒖.
𝛼1 + 𝛼2 = 3, 𝛼1 + 𝛼2 = 2, 𝛼1 = 1,
⎛1 1⎞ 𝛼 ⎛3⎞
⎜1 1⎟ 1 = ⎜2⎟ .
⎜ ⎟ (𝛼2 ) ⎜ ⎟
⎝1 0⎠ ⎝1⎠
Note que os vetores 𝒗1 e 𝒗2 aparecem como colunas da matriz
⎛1 1⎞
𝐴 = ⎜1 1⎟ .
⎜ ⎟
⎝1 0⎠ ⊲
Exercício 4.8 Considere os vetores 𝒗1 = (1, 2, 1, 1), 𝒗2 = (2, 1, 1, 1), 𝒗3 = (1, 1, 1, 1), 𝒗4 =
(0, 1, 0, 1) e 𝒗5 = (0, 0, 1, 0) no espaço 𝕂4 . O vetor (5, 2, 3, −1) ∈ 𝕂4 é combinação linear desses
vetores?
Exercício 4.9 Sejam
𝑊 = {𝒙 = (𝑥1 , … , 𝑥𝑛 ) ∈ 𝕂𝑛 ∶ 𝑎1 𝑥1 + … + 𝑎𝑛 𝑥𝑛 = 0}
𝒚 = (𝑦1 , 𝑦2 , 𝑦3 , 𝑦4 ) ∈ 𝕂4
⎛ 3 2 7⎞
⎛
𝑦
𝛼⎞ ⎛ 1 ⎞
⎜ 1 −1 1 ⎟ ⎜ ⎟ ⎜𝑦2 ⎟
⎜ 1 𝛽 = . (4.2)
1 0 ⎟ ⎜ ⎟ ⎜𝑦3 ⎟
⎜ ⎟ 𝛾 ⎜ ⎟
⎝−1 0 1 ⎠ ⎝ ⎠ ⎝𝑦4 ⎠
⎛ 3 2 7⎞
⎜ 1 −1 1 ⎟
𝐴=⎜ . (4.3)
1 1 0⎟
⎜ ⎟
⎝−1 0 1⎠
𝐴𝒙 = 𝒃
𝑥1 𝒗 1 + … + 𝑥 𝑘 𝒗 𝑘 = 0 (4.4)
em que 𝛼1 , 𝛼2 , 𝛼3 ∈ ℕ. Ou seja,
⎛1 0 1⎞ ⎛𝛼1 ⎞ ⎛0⎞
⎜0 1 1⎟ ⎜𝛼2 ⎟ = ⎜0⎟ .
⎜ ⎟⎜ ⎟ ⎜ ⎟
⎝0 0 0⎠ ⎝𝛼3 ⎠ ⎝0⎠
(Repetimos: os vetores 𝒆1 , 𝒆2 e 𝒗 constituem as colunas da matriz 3 × 3.)
A solução do sistema homogêneo é dada por
⎛𝛼1 ⎞ ⎛ −1 ⎞
⎜𝛼2 ⎟ = 𝛼3 ⎜ −1 ⎟ .
⎜ ⎟ ⎜ ⎟
⎝𝛼3 ⎠ ⎝ 1⎠
Como o sistema homogêneo possui solução não trivial, concluímos que
os vetores 𝑒1 , 𝑒2 e 𝑣 são linearmente dependentes.
Substituindo a solução (𝛼1 , 𝛼2 , 𝛼3 ) = (−1, −1, 1) em (4.5), obtemos
−𝒆1 − 𝒆2 + 𝒗 = 0,
Exercício 4.12 Verifique se o conjunto 𝑆 = {(1, 1, 2, 1), (1, 1, 1, 1), (2, 1, 1, 1), (2, 1, 2, 1)} ⊂ 𝕂4 é
linearmente dependente ou linearmente independente. Se for linearmente dependente, escreva um
dos vetores como combinação linear dos vetores restantes.
Exercício 4.13 Suponha que o vetor 𝒗 pertença ao espaço < 𝒗1 , … , 𝒗𝑘 >. Mostre que o conjunto
{𝒗, 𝒗1 , … , 𝒗𝑘 } é linearmente dependente.
𝛼1 0 + 𝛼2 𝒗2 + … + 𝛼𝑘 𝒗𝑘 = 0
Exercício 4.14 Seja 𝑋 um espaço vetorial. Suponha que o conjunto {𝒗1 , … , 𝒗𝑘 } ⊂ 𝑋 seja linear-
mente dependente. Mostre que {𝒗1 , … , 𝒗𝑘 , 𝒗} ⊂ 𝑋 é linearmente dependente, qualquer que seja
o vetor 𝒗 ∈ 𝑋.
𝛼1 𝒗1 + … + 𝛼𝑘 𝒗𝑘 = 0
Exercício 4.15 Seja 𝒗 ≠ 0 um vetor do espaço vetorial 𝑋. Mostre que o conjunto {𝒗} é linear-
mente independente.
Exercício 4.16 Sejam 𝑋 um espaço vetorial e ℬ = {𝒗1 , 𝒗2 , … , 𝒗𝑘 } ⊂ 𝑋 um conjunto linearmente
independente. Mostre que 𝒗𝑘 ∉ < 𝒗1 , … , 𝒗𝑘−1 >.
0 = 𝛼1 𝒆1 + … + 𝛼𝑛 𝒆𝑛
= (𝛼1 , 0, … , 0) + (0, 𝛼2 , 0, … , 0) + … + (0, … , 0, 𝛼𝑛 )
= (𝛼1 , … , 𝛼𝑛 ),
Exercício 4.18 Mostre que o conjunto {(1, 1, 1, 1), (1, 1, 1, 0), (1, 1, 0, 0), (1, 0, 0, 0)} é uma base
do espaço 𝕂4 .
Exercício 4.19 Apresente uma base do espaço 𝕄𝑚×𝑛 .
𝑊 = {𝑡𝒗 ∶ 𝑡 ∈ ℝ}
de modo que os vetores de ℬ estão em < ℬ >. Por definição, todo elemento
de < ℬ > é uma combinação linear de elementos de ℬ, de modo que esse
conjunto gera < ℬ >; como, por hipótese, ℬ é linearmente independente,
nossa prova está completa. ⊲
Exercício 4.20 Se os vetores 𝒖, 𝒗 ∈ ℝ𝑛 não forem colineares (isto é, se não estiverem na mesma
reta), mostre que {𝒖, 𝒗} é uma base do subespaço < 𝒖, 𝒗 >.
𝛼1 𝒗1 + 𝛼2 𝒗2 + … + 𝛼𝑘 𝒗𝑘 = 𝒗 = 𝛽1 𝒗1 + 𝛽2 𝒗2 + … + 𝛽𝑘 𝒗𝑘 .
𝑆 = {𝒖1 , 𝒖2 , 𝒖3 } ⊂ 𝑊 .
𝛽1 𝒖1 + 𝛽2 𝒖2 + 𝛽3 𝒖3 = 0. (4.9)
𝒖1 = 𝛼11 𝒗1 + 𝛼21 𝒗2
𝒖2 = 𝛼12 𝒗1 + 𝛼22 𝒗2
𝒖3 = 𝛼13 𝒗1 + 𝛼23 𝒗2
para determinados escalares 𝛼𝑖𝑗 , com 𝑖 ∈ {1, 2} e 𝑗 ∈ {1, 2, 3}. Note bem:
como pouco sabemos sobre os vetores 𝒗1 , 𝒗2 , não podemos determinar esses
escalares 𝛼𝑖𝑗 , mas eles certamente existem!
Substituindo essas expressões de 𝒖1 , 𝒖2 e 𝒖3 em (4.9), obtemos
ou seja,
(𝛽1 𝛼11 + 𝛽2 𝛼12 + 𝛽3 𝛼13 )𝒗1 + (𝛽1 𝛼21 + 𝛽2 𝛼22 + 𝛽3 𝛼23 )𝒗2 = 0.
isto é,
𝛽 0
𝛼11 𝛼12 𝛼13 ⎛⎜ 1 ⎞⎟ ⎛⎜ ⎞⎟
𝛽 = 0 .
(𝛼21 𝛼22 𝛼23 ) ⎜ 2 ⎟ ⎜ ⎟
⎝𝛽3 ⎠ ⎝0⎠
Como o número de equações nesse sistema homogêneo é menor do que
o número de incógnitas, decorre do Teorema 2.22 que esse sistema possui
solução (𝛽1 𝛽2 𝛽3 )𝒕 ≠ 0, mostrando que 𝒞 é linearmente dependente.
Prove o Teorema 4.29 adaptando a demonstração já apresentada. Deduza daí então o caso 𝒞 =
{𝒖1 , … , 𝒖𝑘 , 𝒖𝑘+1 , … , 𝒖𝑘+𝑟 }, em que 𝑟 ≥ 1.
⎛1 1 1 1⎞ ⎛1 1 1 1⎞
⎜1 2 3 2⎟ ⎜0 1 2 1⎟
𝐴=⎜ → 𝐸=⎜ .
2 5 6 4⎟ 0 0 2 1⎟
⎜ ⎟ ⎜ ⎟
⎝2 6 8 4⎠ ⎝0 0 0 0⎠
Notamos que cada operação elementar sobre as linhas de uma matriz pro-
duz uma nova linha que é combinação linear das linhas envolvidas nessa
operação elementar. Ou seja, operações elementares sobre as linhas de uma
matriz produzem vetores linhas que são combinações lineares dos vetores
linha originais. (Posteriormente vamos dizer que operações elementares so-
bre as linhas de uma matriz não alteram seu espaço linha.) Portanto, vemos
que o espaço gerado pelos vetores 𝒖1 , 𝒖2 , 𝒖3 e 𝒖4 tem dimensão 3 e é gerado
pelos vetores 𝒗1 = (1, 1, 1, 1), 𝒗2 = (0, 1, 2, 1) e 𝒗3 = (0, 0, 2, 1). ⊲
Exercício 4.23 Considere os vetores 𝒖1 = (1, 1, 0), 𝒖2 = (0, 0, 1), 𝒖3 = (0, 0, 2) e 𝒖4 = (0, 1, 0).
Escalone a matriz 𝐴 que tem os vetores dados como linha. Obtenha uma base para o subespaço
gerado pelos vetores dados. As linhas de 𝐴 correspondentes aos vetores não nulos de sua forma
escalonada formam uma base desse subespaço?
Assim, o método utilizado no Exemplo 4.36 certamente produz uma
base à partir de um conjunto que gera um subespaço, mas tem um inconve-
niente: os vetores da base obtida não estão todos no conjunto gerador origi-
nal. No Exemplo 4.36, apenas o primeiro vetor da base obtida faz parte do
conjunto original. Mostraremos posteriormente um método alternativo que
reduz um conjunto gerador a uma base sem alterar os vetores envolvidos.
76 CAPÍTULO 4. BASE E DIMENSÃO
<𝒞 >⊂𝑊.
é linearmente independente.
Esse processo tem fim, pois estamos supondo que 𝑋 tenha dimensão
finita e sabemos que qualquer conjunto com 𝑛 + 1 elementos em 𝑋 é line-
armente dependente, de acordo com o Teorema 4.29. Ou seja, temos
1 2 1 2 1 2 1 2
→ .
(2 1 2 1) (0 −3 0 −3)
Agora obtemos dois vetores que não estão no espaço gerado pelos vetores
𝒕 𝒕
(1 2 1 2) , (0 −3 0 −3) . Para isso, basta escolhermos dois ve-
tores (escritos como linha) de modo que a matriz 4 × 4 resultante tenha a
forma de escada; por exemplo:
⎛1 2 1 2⎞
⎜0 −3 0 −3⎟
⎜0 .
0 1 0⎟
⎜ ⎟
⎝0 0 0 1⎠
Claramente o conjunto
é uma base do ℝ4 . ⊲
2✻ 𝒙
❅
■ ✒
❅ 2
❅ ✒𝒙
❅
❅
❅
𝒗❅
■
2 ❅
✒𝒗
1
❅
❅ ✲
2 𝒙
Proposição 4.43 Nas condições da Definição 4.41, existe uma bijeção en-
tre os espaços 𝑊 e 𝕂𝑗 . Além disso,
Se 𝒙 = 𝛼1 𝒗1 + … + 𝛼𝑗 𝒗𝑗 e 𝒚 = 𝛽1 𝒗1 + … + 𝛽𝑗 𝒗𝑗 , então
𝒙 = 𝛽1 𝒗1 + 𝛽2 𝒗2 ,
isto é,
(3, 2) = 𝛽1 (1, 1) + 𝛽2 (−1, 1),
o que nos dá a solução
5
2
[𝒙]ℬ = .
(− 1 ) ⊲
2
Exercício 4.25 Nas condições da Proposição 4.43, mostre que a aplicação 𝒙 → [𝒙]ℬ satisfaz
[𝒗𝑖 ]ℬ = 𝒆𝑖 , o 𝑖-ésimo vetor da base canônica do 𝕂𝑗 .
𝑈 + 𝑉 = {𝒖 + 𝒗 ∶ 𝒖 ∈ 𝑈 , 𝒗 ∈ 𝑉 }.
e
𝒗1 = (1, 2, 0, −3, 2, 1), 𝒗2 = (3, 6, 1, −9, 4, 3).
Encontraremos uma base para o subespaço 𝑈 + 𝑉
O subespaço 𝑈 + 𝑉 é gerado pelos vetores 𝒖1 , 𝒖2 , 𝒗1 e 𝒗2 . Formamos
assim a matriz 𝐴, que tem esses vetores como linhas, e a escalonamos:3
⎛1 2 0 −3 1 0⎞ ⎛1 2 0 −3 1 0 ⎞
⎜1 2 1 −3 1 2⎟ ⎜0 0 1 0 0 2⎟
𝐴=⎜ → ⎜
1 2 0 −3 2 1⎟ 0 0 0 0 1 1⎟
⎜ ⎟ ⎜ ⎟
⎝3 6 1 −9 4 3⎠ ⎝0 0 1 0 1 3⎠
⎛1 2 0 −3 1 0 ⎞
⎜0 0 1 0 0 2⎟
→ ⎜
0 0 0 0 1 1⎟
⎜ ⎟
⎝0 0 0 0 1 1⎠
⎛1 2 0 −3 1 0 ⎞
⎜0 0 1 0 0 2⎟
→ ⎜ =𝐸
0 0 0 0 1 1⎟
⎜ ⎟
⎝0 0 0 0 0 0⎠
𝒘 = 𝒖 + 𝒗,
Exercício 4.26 Como se generaliza essa definição para o caso da soma direta de 𝑘 subespaços?
Exercício 4.27 Suponha que 𝑊 = 𝑈1 ⊕ 𝑈2 ⊕ ⋯ ⊕ 𝑈𝑘 . Mostre que 𝑈𝑖 ≠ {0} para todo 1 ≤ 𝑖 ≤ 𝑘.
3
Não é necessário obter a forma escalonada reduzida por linhas da matriz 𝐴.
4.5. SOMAS DIRETAS 81
𝑤 = 𝛼1 𝒖1 + … + 𝛼𝑗 𝒖𝑗 + 𝛼𝑗+1 𝒗𝑗+1 + … + 𝛼𝑘 𝒗𝑘 .
Mostre que 𝕂3 = 𝑈 ⊕ 𝑉.
4.6 Exercícios
1. Encontre os valores de 𝑥 e 𝑦 de modo que
(a) (𝑦, 3) = (2, 𝑥 + 𝑦);
(b) (𝑥, 4) = 𝑦(3, 2).
2. Seja 𝑋 um espaço vetorial. Mostre que, para todo 𝒙 ∈ 𝑋, vale (−1)𝒙 = (−𝒙).
3. Seja 𝑉 = {(𝑎, 𝑏, 𝑐) ∈ ℝ3 ∶ 𝑎 > 0} e 𝑊 = {(𝑎, 𝑏, 𝑐) ∈ ℝ3 ∶ 𝑎2 +𝑏2 +𝑐 2 = 1}. Os conjuntos
𝑉 e 𝑊 são subespaços do ℝ3 ?
4. Mostre que o conjunto 𝑊 = {(𝑎, 𝑏, 𝑐) ∈ 𝕂3 ∶ 𝑎 = 𝑏 = 𝑐} é um subespaço do 𝕂3 .
5. Sejam 𝑉 , 𝑊 dois subespaços do espaço vetorial 𝑋. Mostre que 𝑉 ∩ 𝑊 é um subespaço de 𝑋.
Generalize esse resultado para a interseção de 𝑚 subespaços de 𝑋.
6. Interprete a solução de um sistema homogêneo com 𝑚 equações e 𝑛 incógnitas como a inter-
seção de 𝑚 subespaços do 𝕂𝑛 .
7. Sejam 𝑉 , 𝑊 dois subespaços do espaço vetorial 𝑋. Dê um exemplo mostrando que 𝑉 ∪ 𝑊
pode não ser um subespaço do 𝑋.
8. Seja 𝑊 um subconjunto qualquer do 𝕂𝑛 . Mostre que 𝑊 é um subespaço se, e somente se,
𝛽𝒖 + 𝒗 ∈ 𝑊 para quaisquer 𝒖, 𝒗 ∈ 𝑊 e 𝛽 ∈ 𝕂.
9. Seja 𝒞 um conjunto qualquer de elementos do 𝕂𝑛 . (Assim, não sabemos quantos elementos
estão em 𝒞.) Defina
11. No Exemplo 1.24, considere que 𝐴 = [0, 2𝜋] e defina 𝐶([0, 2𝜋], ℝ) ⊂ 𝑋 como o conjunto
de todas as funções contínuas. Mostre que 𝐶([0, 2𝜋], ℝ) é um subespaço de 𝑋. Defina ℐ =
{𝒇 ∶ [0, 2𝜋] → ℝ ∶ 𝒇 é integrável} ⊂ 𝑋 como o conjunto de todas as funções integráveis.
O conjunto ℐ é um subespaço de 𝑋?
12. Considere o conjunto 𝒫 de todos os polinômios na variável 𝑡 com coeficientes complexos.
Determine se 𝑊 é um subespaço de 𝒫, se
(a) 𝑊 é o conjunto de todos os polinômios com coeficientes racionais;
(b) 𝑊 é o conjunto de todos os polinômios de grau menor do que 6 (considerando que o
polinômio nulo tem grau −∞, como anteriormente);
(c) 𝑊 é o conjunto de todos os polinômios de grau par;
13. Escreva o vetor 𝒖 = (1, −2, 5) como combinação linear dos vetores 𝒗1 = (1, 2, 3), 𝒗2 =
(1, 1, 1) e 𝒗3 = (2, 1, −1).
14. Escreva o vetor 𝒖 = (1, 1, 0) como combinação linear dos vetores 𝒗1 = (1, 2, 0), 𝒗2 = (2, 1, 0),
𝒗3 = (0, 0, 1) e 𝒗4 = (3, 3, 0).
15. Escreva o vetor 𝒖 = (4, 7, 7, 9) como combinação linear dos vetores 𝒗1 = (1, 1, 1, 1), 𝒗2 =
(1, 2, 3, 4), 𝒗3 = (1, 1, 4, 5).
16. Verifique que o conjunto {𝒗1 = (1, 1, 1, 1), 𝒗2 = (1, 1, 1, 0), 𝒗3 = (1, 1, 0, 0), 𝒗4 = (1, 0, 0, 0)}
gera o espaço 𝕂4 .
17. Determine condições sobre 𝑎, 𝑏 e 𝑐 de modo que 𝒖 = (𝑎, 𝑏, 𝑐) pertença ao espaço gerado por
{𝒗1 = (3, 0, −4), 𝒗2 = (1, 2, 0), 𝒗3 = (1, −1, −2)} ⊂ 𝕂3 .
18. Verifique se os vetores 𝒗1 = (4, 5, 5), 𝒗2 = (−1, −1, −2) e 𝒗3 = (2, 3, 1) são linearmente
dependentes ou linearmente independentes.
19. O conjunto {𝒗1 = (1, 2, 5), 𝒗2 = (1, 3, 1), 𝒗3 = (3, 1, 4), 𝒗4 = (2, 5, 7)} ⊂ 𝕂3 é linearmente
dependente?
20. O conjunto {(1, 1, 1), (1, 0, 0), (0, 0, 0)} é linearmente dependente ou linearmente indepen-
dente?
21. Suponha que os vetores 𝒗1 , 𝒗2 e 𝒗3 do espaço 𝑋 sejam linearmente independentes. Mostre
que o conjunto {𝒗1 + 𝒗2 , 𝒗1 − 𝒗2 , 𝒗1 − 2𝒗2 + 𝒗3 } ⊂ 𝑋 é linearmente independente.
22. Verifique se o conjunto
1 2 −3 1 3 −4 3 8 −11
, ,
{(4 0 1) (6 5 4) (16 10 9 )}
e
𝑊 = {(𝑥, 𝑦, 𝑧) ∶ 𝑥 = 𝑧}.
Mostre que
(a) ℝ3 = 𝑈 + 𝑉;
(b) ℝ3 = 𝑈 + 𝑊;
(c) ℝ3 = 𝑉 + 𝑊.
Quando temos uma soma direta de subespaços?
33. Considere o espaço 𝒫3 (𝑡) de todos os polinômios com coeficientes em 𝕂 com grau menor
que 3.
(a) Mostre que ℬ = {𝒑1 , 𝒑2 , 𝒑3 } é uma base de 𝒫3 (𝑡), sendo
Aplicações Lineares
𝑇 (𝒙 + 𝜆𝒚) = 𝑇 𝒙 + 𝜆𝑇 𝒚, ∀ 𝒙, 𝒚 ∈ 𝑋 e 𝜆 ∈ 𝕂. (5.1)
85
86 CAPÍTULO 5. APLICAÇÕES LINEARES
Exercício 5.1 Sejam 𝑋, 𝑌 espaços vetoriais e 𝑇 ∶ 𝑋 → 𝑌 uma aplicação linear qualquer. Mostre
que 𝑇 (0) = 0.
Exercício 5.2 Sejam 𝑋, 𝑌 espaços vetoriais e ℬ = {𝒖1 , … , 𝒖𝑛 } uma base de 𝑋. Mostre que existe
uma única aplicação linear 𝑇 ∶ 𝑋 → 𝑌 tal que 𝑇 𝒖𝑖 = 𝒘𝑖 , quaisquer que sejam os vetores 𝒘𝑖 em 𝑌.
Exercício 5.3 Mostre que existe uma única aplicação linear 𝑇 ∶ ℝ3 → ℝ2 que se anula no plano
gerado pelos vetores (1, −1, 0) e (2, −3, 1) e satisfaz 𝑇 (1, 1, 1) = (1, 1). Calcule 𝑇 (1, 2, 2).
5.1. TEOREMA DO NÚCLEO E DA IMAGEM 87
ℬ = {𝒙1 , … , 𝒙𝑗 , 𝒘𝑗+1 , … , 𝒘𝑛 }
𝛼𝑗+1 𝑇 𝒘𝑗+1 + … + 𝛼𝑛 𝑇 𝒘𝑛 = 0.
𝒘 = 𝛼𝑗+1 𝒘𝑗+1 + … + 𝛼𝑛 𝒘𝑛 ,
𝒚 = 𝑇 𝒙 = 𝛼1 𝑇 𝒙1 + … + 𝛼𝑗 𝑇 𝒙𝑗 + 𝛼𝑗+1 𝑇 𝒘𝑗+1 + … + 𝛼𝑛 𝑇 𝒘𝑛
= 𝛼𝑗+1 𝑇 𝒘𝑗+1 + … + 𝛼𝑛 𝑇 𝒘𝑛 ,
⎛𝑥1 ⎞
(𝑥1 , … , 𝑥𝑛 ) ∈ 𝕂𝑛 ⟷ ⎜ ⋮ ⎟ ∈ 𝕄𝑛×1 (5.2)
⎜ ⎟
⎝ 𝑥𝑛 ⎠
é útil no tratamento de vetores. Sem pressupor a escolha de bases, ela iden-
tifica um vetor do 𝕂𝑛 com uma matriz em 𝕄𝑛×1 (𝕂). Se a utilizarmos tanto
no espaço 𝕂𝑛 quanto no espaço 𝕂𝑚 , ela nos permite interpretar uma matriz
𝐴 = (𝑎𝑖𝑗 ), 𝑚 × 𝑛, como uma aplicação linear 𝐴 ∶ 𝕂𝑛 → 𝕂𝑚 . De fato, dado
𝒙 = (𝑥1 , … , 𝑥𝑛 ) ∈ 𝕂𝑛 e utilizando a identificação (5.2), temos
1 2 −1
.
(2 1 1)
⎛𝑥1 ⎞ 𝑥
1 2 −1 ⎛⎜ 1 ⎞⎟ 𝑥1 + 2𝑥2 − 𝑥3
𝐴 ⎜𝑥2 ⎟ = 𝑥2 = .
⎜ ⎟ (2 1 1) ⎜ ⎟ (2𝑥1 + 𝑥2 + 𝑥3 )
𝑥
⎝ 3⎠ 𝑥
⎝ 3⎠ ⊲
Quais são o domínio e o contradomínio da aplicação linear definida por 𝐴? Calcule 𝐴𝒙, se
𝒙 = (1, 1, 1, 1). Calcule também 𝐴𝒆𝑖 , em que os vetores 𝒆𝑖 compõem a base canônica do domínio
de 𝐴 (veja o Exemplo 4.23).
𝑇 𝒙 = 𝑇 (𝑥1 , 𝑥2 ) = (3𝑥1 + 𝑥2 , 𝑥1 + 𝑥2 , 𝑥2 ).
ℬ = {𝒖1 , … , 𝒖𝑛 } ⊂ 𝑋 e 𝒞 = {𝒗1 , … , 𝒗𝑚 } ⊂ 𝑌 ,
em que [𝑇 𝒖𝑗 ]𝒞 ∈ 𝕄𝑚×1 .
Reciprocamente, a cada matriz 𝐴 ∈ 𝕄𝑚×𝑛 corresponde uma única apli-
𝒞
cação linear 𝑇 ∶ 𝑋 → 𝑌 tal que 𝑇ℬ = 𝐴.
De fato, como 𝒞 é uma base do espaço 𝑌, para cada vetor 𝒖𝑖 ∈ ℬ existem
únicos escalares 𝛽𝑗𝑖 ∈ 𝕂, com 𝑗 ∈ {1, … , 𝑚}, tais que
⎛ 𝛽1𝑖 ⎞
⎜⋮⎟
𝑇 𝒖𝑖 = 𝛽1𝑖 𝒗1 + … + 𝛽𝑗𝑖 𝒗𝑗 + … + 𝛽𝑚𝑖 𝒗𝑚 ⇒ [𝑇 𝒖𝑖 ]𝒞 = ⎜ 𝛽𝑗𝑖 ⎟ . (5.5)
⎜ ⎟
⎜⋮⎟
⎝𝛽𝑚𝑖 ⎠
𝒞
Observe que está definida a matriz 𝑇ℬ . Como os escalares 𝛽𝑖𝑗 são únicos, a
𝒞
matriz 𝑇ℬ é única. (Observe que esta matriz depende da base ℬ.)
Por sua vez, dado um vetor qualquer 𝒙 ∈ 𝑋, podemos representá-lo na
base ℬ de maneira única:
⎛𝛼1 ⎞
⎜𝛼 ⎟
𝒙 = 𝛼1 𝒖1 + … + 𝛼𝑛 𝒖𝑛 ⇒ [𝒙]ℬ = ⎜ 2⎟ . (5.6)
⋮
⎜ ⎟
𝛼
⎝ 𝑛⎠
A linearidade de 𝑇 nos garante que
𝑇 𝒙 = 𝑇 (𝛼1 𝒖1 + … + 𝛼𝑛 𝒖𝑛 ) = 𝛼1 𝑇 𝒖1 + … + 𝛼𝑛 𝑇 𝒖𝑛
e, portanto,
Exercício 5.8 Verifique que a Proposição 4.43 garante a existência de uma aplicação linear bijetora
(e, portanto, um isomorfismo) entre o subespaço 𝑊 e 𝕂𝑗 .
Exercício 5.9 Como o Exercício 5.2 e a Proposição 4.43 estão sendo utilizados para demonstrar
que cada matriz 𝐴 ∈ 𝕄𝑚×𝑛 define uma única aplicação linear 𝑇 ∶ 𝕂𝑛 → 𝕂𝑚 ? Apresente os detalhes
dessa demonstração.
𝒞 3 −1 0
𝑇ℬ = ([𝑇 𝒖1 ]𝒞 [𝑇 𝒖2 ]𝒞 [𝑇 𝒖3 ]𝒞 ) = . ⊲
(−5 6 4)
O exemplo anterior foi bastante simples, pois todas as informações ne-
𝒞
cessárias para calcular a matriz 𝑇ℬ foram dadas em seu próprio enunciado.
Vejamos agora um exemplo um pouco mais elaborado.
Exemplo 5.20 Consideremos a aplicação linear 𝑇 ∶ ℝ2 → ℝ3 dada por
𝑇 (𝑥, 𝑦) = (𝑦, 𝑥, 𝑥 + 𝑦). No domínio ℝ2 tomemos a base canônica ℰ =
{𝒆1 , 𝒆2 } e no contradomínio ℝ3 a base ℬ = {𝒗1 , 𝒗2 , 𝒗3 }, em que
𝒗1 = (0, 0, 1), 𝒗2 = (0, 1, 1) e 𝒗3 = (1, 1, 1).
Vamos encontrar a matriz 𝑇ℰℬ que representa 𝑇 com respeito às bases ℰ e
ℬ. Para isso, calculamos
𝑇 𝒆1 = (0, 1, 1) e 𝑇 𝒆2 = (1, 0, 1).
Agora obtemos as expressões de 𝑇 𝒆1 e 𝑇 𝒆2 na base ℬ, ao resolver os sis-
temas
𝑇 𝒆1 = (0, 1, 1) = 𝛼1 𝒗1 + 𝛼2 𝒗2 + 𝛼3 𝒗3
𝑇 𝒆2 = (1, 0, 1) = 𝛽1 𝒗1 + 𝛽2 𝒗2 + 𝛽3 𝒗3 ,
cujas soluções são, respectivamente
(𝛼1 , 𝛼2 , 𝛼3 ) = (0, 1, 0) e (𝛽1 , 𝛽2 , 𝛽3 ) = (1, −1, 1).
Quer dizer,
⎛0 1⎞
𝑇ℰℬ = ⎜1 −1⎟ .
⎜ ⎟ ⊲
⎝0 1⎠
2
Sobre a unicidade, veja o Exercício 5.2.
94 CAPÍTULO 5. APLICAÇÕES LINEARES
(𝕂𝑛 , ℬ) ⟶ (𝕂𝑚 , 𝒞 )
𝒞 . (5.8)
𝑇ℬ
𝒗1 = 𝒘1 + 2𝒘2 e 𝒗2 = 2𝒘1 − 𝒘2 .
5
[𝒙]ℬ ′ = ([𝒗1 ]ℬ ′ [𝒗2 ]ℬ ′ ) ,
(3)
3
Alguns autores preferem chamar essa matriz de “matriz de passagem” da base ℬ ′ para
a base ℬ. Assim, a terminologia utilizada por eles fica invertida com relação à nossa.
5.3. MUDANÇAS DE BASE 97
1 2 5 11
= = [𝒙]ℬ ′ , (5.10)
(2 −1) (3) ( 7 )
Exercício 5.10 Nas mesmas condições do Exemplo 5.24, considere o ponto 𝒙 cujas coordenadas
na base ℬ ′ são dadas por (11 7)𝒕 . Determine as coordenadas de 𝒙 na base ℬ, “esquecendo” que
essas coordenadas são (5 3)𝒕 .
ℰ
Exercício 5.11 Continuando o Exemplo 5.21, calcule a matriz 𝑃ℬ . Verifique que (𝑃ℰℬ )−1 = 𝑃ℬ
ℰ
.
ℰ
Utilize então a matriz 𝑃ℬ para obter [𝑇 (1, 2)]ℰ e compare sua resposta com aquela obtida no
Exemplo 5.21.
Assim,
ℬ ′ 1 −1
𝑃ℬ = .
(2 2)
A segunda solução, mais elaborada, utiliza a base canônica do ℝ2 . No-
tamos que, de maneira natural, os vetores 𝒖1 , 𝒖2 , 𝒗1 , 𝒗2 podem ser interpre-
tados como dados na base canônica do ℝ2 . Assim, na igualdade
ℰ
𝑃ℬ ′ [𝒙]ℬ ′ = [𝒙]ℰ ,
ℬ ′ 1 −1
𝑃ℬ = .
(2 2) ⊲
𝒞
𝑇ℬ
(𝕂𝑛 , ℬ) - (𝕂𝑚 , 𝒞)
ℬ ′ ′
𝑃ℬ 𝑄𝒞
𝒞
? ?
(𝕂𝑛 , ℬ ′ ) - (𝕂𝑛 , 𝒞 ′ )
𝒞′
𝑇ℬ ′
ℬ −1 ℬ ℬ ℬ ′
𝑇ℬ ′ = [𝑃ℬ ′] 𝑇ℬ 𝑃ℬ ′ = 𝑃 ℬ 𝑇ℬ 𝑃ℬ ′ ,
4 −2
𝑇 (1, 0) = e 𝑇 (0, 1) = ,
(2) ( 1)
5.3. MUDANÇAS DE BASE 99
ou seja
4 −2
𝑇ℰ = .
(2 1)
Por outro lado, no Exemplo 5.21 calculamos a matriz 𝑇ℬ :
3 −2
𝑇ℬ = .
(1 2)
Vamos entender a relação entre as matrizes 𝑇ℰ e 𝑇ℬ . Para isso, analisa-
mos o seguinte diagrama
𝑇ℰ
2
(ℝ , ℰ ) ⟶ (ℝ2 , ℰ )
𝑃ℰℬ ↓ ↓ 𝑃ℰℬ .
(ℝ2 , ℬ) ⟶ (ℝ2 , ℬ)
𝑇ℬ
O diagrama anterior garante que
𝑇ℰ = [𝑃ℰℬ ]−1 𝑇ℬ 𝑃ℰℬ .
(𝑆 ∘ 𝑇 )𝒙 = 𝑆(𝑇 𝒙)
𝐷 = (𝑆 ∘ 𝑇 )𝒟
ℬ
= ([(𝑆 ∘ 𝑇 )𝒖1 ]𝒟 [(𝑆 ∘ 𝑇 )𝒖2 ]𝒟 … [(𝑆 ∘ 𝑇 )𝒖𝑛 ]𝒟 )
= ([𝑆(𝑇 𝒖1 )]𝒟 [𝑆(𝑇 𝒖2 )]𝒟 … [𝑆(𝑇 𝒖𝒏 )]𝒟 )
= (𝐶[𝑇 𝒖1 ]𝒞 𝐶[𝑇 𝒖2 ]𝒞 … 𝐶[𝑇 𝒖𝑛 ]𝒞 )
= (𝐶𝒄1 𝐶𝒄2 … 𝐶𝒄𝑛 )
5.4. COMPOSIÇÃO E MULTIPLICAÇÃO 101
⎛ℓ1 𝒄1 ℓ1 𝒄2 … ℓ1 𝒄𝑛 ⎞
⎜ℓ 𝒄 ℓ2 𝒄2 … ℓ2 𝒄𝑛 ⎟
(𝐶𝒄1 𝐶𝒄2 … 𝐶𝒄𝑛 ) = ⎜ 2 1 ⎟,
⋮
⎜ ⎟
⎝ℓ𝑝 𝒄1 ℓ𝑝 𝒄2 … ℓ𝑝 𝒄𝑛 ⎠
⎛ ℓ1 ⎞ ⎛ ℓ1 𝒄1 ℓ1 𝒄2 … ℓ1 𝒄𝑛 ⎞
⎜ ℓ2 ⎟ ⎜ ℓ 𝒄 ℓ2 𝒄2 … ℓ2 𝒄𝑛 ⎟
𝐶𝐵 = ⎜ ⎟ (𝒄1 𝒄2 … 𝒄𝑛 ) = ⎜ 2 1 ,
⋮ ⋮ ⋮ ⋱ ⋮ ⎟
⎜ ⎟ ⎜ ⎟
⎝ℓ𝑚 ⎠ ⎝ℓ𝑚 𝒄1 ℓ𝑚 𝒄2 … ℓ 𝑚 𝒄𝑛 ⎠
em que a matriz 𝐶 está sendo dada por suas linhas e a matriz 𝐵 por suas
colunas.
Agora observe que a propriedade (1) listada no início desta seção nos
garante a associatividade da multiplicação de matrizes. A associação entre a
composição de aplicações lineares e a multiplicação de matrizes sugere que
denotemos 𝑆 ∘ 𝑇 simplesmente por 𝑆𝑇, o que faremos de agora em diante.
Exercício 5.13 Traduza as propriedades (2) e (3) do início dessa seção em termos de propriedades
da multiplicação de matrizes.
(𝑆𝑇 )𝒟
ℬ
= 𝑆𝒞𝒟 𝑇ℬ
𝒞
, (5.11)
de modo que
(𝑆𝑇 )𝒟
ℬ
[𝒙]ℬ = [(𝑆𝑇 )𝒙]𝒟 . (5.12)
(𝑆𝑇 )𝒟
ℬ
= ([(𝑆𝑇 )𝒖1 ]𝒟 [(𝑆𝑇 )𝒖2 ]𝒟 … [(𝑆𝑇 )𝒖𝑛 ]𝒟 ) .
Mas [(𝑆𝑇 )𝒖𝑗 ]𝒟 = [𝑆(𝑇 𝒖𝑗 )]𝒟 = 𝑆𝒞𝒟 [𝑇 𝒖𝑗 ]𝒞 , pelo mesmo Teorema 5.18.
𝒞
Ainda pelo mesmo teorema, [𝑇 𝒖𝑗 ]𝒞 = 𝑇ℬ [𝒖𝑗 ]ℬ , de modo que a 𝑗-ésima
coluna de (𝑆𝑇 )𝒟ℬ
, que é (𝑆𝑇 )𝒟
[𝒖
ℬ 𝑗 ℬ
] , é igual a 𝑆𝒞𝒟 𝑇ℬ𝒞
[𝒖𝑗 ]ℬ . Como as ma-
𝒟 𝒟 𝒞
trizes (𝑆𝑇 )ℬ e 𝑆𝒞 𝑇ℬ são iguais em cada coluna 𝑗, concluímos (5.11).
A equação (5.12) nada mais expressa que o significado de (𝑆𝑇 )𝒟 ℬ
, se-
gundo o Teorema 5.18.
102 CAPÍTULO 5. APLICAÇÕES LINEARES
⎛ 𝑎11 … 𝑎1𝑛 ⎞ ⎛ ℓ1 ⎞
𝐴 = ⋮ ⋱ ⋮ = (𝒄1 … 𝒄𝑛 ) = ⎜ ⋮ ⎟ .
⎜ ⎟ (5.13)
⎜ ⎟ ⎜ ⎟
⎝𝑎𝑚1 … 𝑎𝑚𝑛 ⎠ ⎝ℓ𝑚 ⎠
Os vetores colunas 𝒄1 , … , 𝒄𝑛 são naturalmente identificados com veto-
res do ℝ𝑚 . Se 𝒞 = {𝒄1 , … , 𝒄𝑛 }, chamamos de espaço coluna o espaço
gerado por 𝒞, isto é, < 𝒞 > ⊂ ℝ𝑚 .
Por outro lado, podemos interpretar as linhas de 𝐴 como elementos do
próprio espaço ℝ𝑛 . Se denotarmos ℒ = {ℓ1 , … , ℓ𝑚 } ⊂ 𝕂𝑛 , chamamos de
espaço linha o espaço gerado por ℒ, isto é, < ℒ > ⊂ 𝕂𝑛 .
2 1 1
𝐴= .
(1 1 2)
2 1 1
<𝒞 >= 𝛼 +𝛽 +𝛾 ∶ 𝛼, 𝛽, 𝛾 ∈ ℝ .
{ (1) (1) (2) }
Como as duas primeiras linhas de 𝐴 são dadas por vetores linearmente in-
dependentes, < ℒ > é um plano do ℝ3 . Note que as dimensões de < ℒ >
e < 𝒞 > são iguais. ⊲
Mas, qual o significado dos subespaços < 𝒞 > e < ℒ >? Começamos
interpretando o espaço coluna de uma matriz.
Lema 5.30 Considere o sistema linear não homogêneo 𝐴𝒙 = 𝒃, em que
𝐴 = (𝑎𝑖𝑗 ) é uma matriz 𝑚 × 𝑛. Então são equivalentes:
(𝑖) Existe solução 𝒙 para 𝐴𝒙 = 𝒃;
⎛𝑎11 … 𝑎𝑚1 ⎞
t
𝐴 = ⎜ ⋮ ⋱ ⋮ ⎟.
⎜ ⎟
⎝𝑎1𝑛 … 𝑎𝑚𝑛 ⎠
Assim, as colunas da matriz 𝐴t são justamente as linhas da matriz 𝐴.
Como consequência imediata do Lema 5.30, temos que
Vamos agora relacionar as dimensões dos subespaços < 𝒞 > e < ℒ >
de uma matriz 𝐴. Mostraremos que esses espaços têm a mesma dimensão;
isso é um fato notável, pois eles são subespaços de espaços vetoriais diferen-
tes!
Teorema 5.31 Dada uma matriz 𝑚 × 𝑛, seu espaço linha tem a mesma di-
mensão de seu espaço coluna.
Demonstração: Suponhamos que os vetores
ℓ1 = 𝜆11 𝑏1 + … + 𝜆1𝑟 𝑏𝑟
ℓ2 = 𝜆21 𝑏1 + … + 𝜆2𝑟 𝑏𝑟
⋮ = ⋮
ℓ𝑚 = 𝜆𝑚1 𝑏1 + … + 𝜆𝑚𝑟 𝑏𝑟
Assim,
⎛ 𝑎1𝑗 ⎞ ⎛ 𝜆11 ⎞ ⎛ 𝜆12 ⎞ ⎛ 𝜆1𝑟 ⎞
⎜ 𝑎2𝑗 ⎟ ⎜ 𝜆21 ⎟ ⎜ 𝜆22 ⎟ ⎜ 𝜆2𝑟 ⎟
⎜ ⋮ ⎟ = 𝑏1𝑗 ⎜ ⋮ ⎟ + 𝑏2𝑗 ⎜ ⋮ ⎟ + … + 𝑏𝑟𝑗 ⎜ ⋮ ⎟ ,
⎜ ⎟ ⎜ ⎟ ⎜ ⎟ ⎜ ⎟
⎝𝑎𝑚𝑗 ⎠ ⎝𝜆𝑚1 ⎠ ⎝𝜆𝑚2 ⎠ ⎝𝜆𝑚𝑟 ⎠
104 CAPÍTULO 5. APLICAÇÕES LINEARES
⎛ 𝜆11 ⎞ ⎛ 𝜆1𝑟 ⎞
⎜ 𝜆21 ⎟ ⎜ 𝜆2𝑟 ⎟
⎜ ⋮ ⎟,…,⎜ ⋮ ⎟.
⎜ ⎟ ⎜ ⎟
⎝𝜆𝑚1 ⎠ ⎝𝜆𝑚𝑟 ⎠
Isso quer dizer que o espaço coluna tem dimensão, no máximo, igual a 𝑟,
ou seja,
dim < 𝒞 > ≤ dim < ℒ > .
Procedendo da mesma maneira com relação a uma base do espaço co-
luna, mostramos que
Exercício 5.15 Reescreva a demonstração anterior para uma matriz 2 × 3 qualquer, identificando
as passagens apresentadas na demonstração do Teorema 5.31.
posto 𝑇 = posto 𝐴.
dim(im 𝐴) = dim(im 𝐴t ).
⎛3 1 2 4 1⎞
𝐴 = ⎜1 1 1 1 2⎟ .
⎜ ⎟
⎝2 2 2 1 1⎠
Para obter o núcleo, resolvemos 𝐴𝒙 = 0 levando a matriz 𝐴 à sua forma
escalonada reduzida por linhas 𝑅:
⎛3 1 2 4 1⎞ ⎛1 0 1/2 0 −5⎞
𝐴 = 1 1 1 1 2 ⟶ ⎜0 1 1/2 0
⎜ ⎟ 4⎟ = 𝑅.
⎜ ⎟ ⎜ ⎟
⎝2 2 2 1 1⎠ ⎝0 0 0 1 3⎠
Escrevendo as variáveis correspondentes aos pivôs em termos da variá-
veis livres, obtemos a solução geral do sistema homogêneo associado.
⎛𝑥1 ⎞ ⎛−1/2⎞ ⎛ 5⎞
⎜𝑥2 ⎟ ⎜−1/2⎟ ⎜−4⎟
⎜𝑥3 ⎟ = 𝑥3 ⎜ 1 ⎟ + 𝑥5 ⎜ 0⎟ (5.16)
⎜ ⎟ ⎜ ⎟ ⎜ ⎟
⎜𝑥4 ⎟ ⎜ 0 ⎟ ⎜−3⎟
𝑥
⎝ 5⎠ ⎝ 0 ⎠ ⎝ 1⎠
⎛−1/2⎞ ⎛ 5⎞
⎜−1/2⎟ ⎜−4⎟
𝒖1 = ⎜ 1 ⎟ ∈ 𝕂5 e 𝒖2 = ⎜ 0⎟ ∈ 𝕂5 .
⎜ ⎟ ⎜ ⎟
⎜ 0⎟ ⎜−3⎟
⎝ 0⎠ ⎝ 1⎠
Por outro lado, o Corolário 5.34 garante que a dimensão do espaço co-
luna de 𝑅 (e, portanto, da imagem da aplicação linear 𝑅) é igual ao número
de pivôs na matriz 𝑅 e que esse número é igual à dimensão do espaço co-
luna de 𝐴; ou seja, o número de pivôs da matriz 𝑅 é igual à dimensão da
imagem de 𝐴.
Visto sobre essa ótica, o Teorema do Núcleo e da Imagem é um resultado
trivial quando no contexto de matrizes: se 𝐴 for uma matriz 𝑚×𝑛, passando
6
No Exemplo 2.16, o vetor é (0 −2/3 1)𝒕 e sua coordenada 1 corresponde justamente
à variável 𝑥3 ; no Exemplo 2.19, supondo 𝒃 = 0, os vetores correspondentes às variáveis
livres 𝑥4 e 𝑥6 também tem coordenada igual a 1 nessas posições.
108 CAPÍTULO 5. APLICAÇÕES LINEARES
dimensão da dimensão do
𝑛 = +
imagem de 𝑅 núcleo de 𝑅
5.7 Exercícios
1. Considere a base ℬ = {𝒗1 = (1, 1, 0), 𝒗2 = (1, 2, 0), 𝒗3 = (1, 1, 1)} do ℝ3 . Ache a aplicação
linear 𝑇 ∶ ℝ3 → ℝ4 tal que 𝑇 𝒗1 = (1, 0, 0, 0), 𝑇 𝒗2 = (0, 0, 0, 1) e 𝑇 𝒗3 = (1, 1, 1, 1).
2. Sejam 𝑋 um espaço vetorial e 𝜋 ∶ 𝑋 → 𝑋 um operador linear satisfazendo 𝜋 2 = 𝜋 (𝜋 é uma
projeção). Sejam 𝑈 = im 𝜋 e 𝑊 = ker 𝜋. Mostre:
(a) 𝜋𝒖 = 𝒖 para todo 𝒖 ∈ 𝑈;
(b) 𝒙 − 𝜋(𝒙) ∈ ker 𝜋 para todo 𝒙 ∈ ℝ𝑛 ;
(c) conclua que ℝ𝑛 = ker 𝜋 ⊕ im 𝜋 notando que 𝒙 = [𝒙 − 𝜋(𝒙)] + 𝜋(𝒙);
(d) se 𝜋 ≠ I, então 𝑊 ≠ {0},
3. Sejam 𝑋, 𝑌 espaços vetoriais e 𝑇 ∶ 𝑋 → 𝑌 uma aplicação linear. Se {𝒗1 , … , 𝒗𝑘 } ⊂ 𝑋 for
tal que {𝑇 𝒗1 , … , 𝑇 𝒗𝑘 } é linearmente independente, conclua que {𝒗1 , … , 𝒗𝑘 } é linearmente
independente.
4. Dê exemplos de operadores lineares 𝑇 ∶ ℝ3 → ℝ3 tais que
(a) ker 𝑇 = {𝑥 ∈ ℝ3 ∶ 𝑥3 = −𝑥1 };
(b) im 𝑇 = {𝑥 ∈ ℝ3 ∶ 𝑥1 = 𝑥2 }.
5. Deduza, utilizando o Teorema do Núcleo e da Imagem, que uma matriz quadrada 𝐴 tem
inversa se, e somente se, o sistema 𝐴𝒙 = 0 só possuir a solução trivial.
6. Seja 𝐴 uma matriz 𝑛 × 𝑛. Mostre que 𝐴 possui inversa se, e somente se, suas colunas
𝑐1 , … , 𝑐𝑛 ∈ 𝕂𝑛 forem vetores linearmente independentes.
7. Seja 𝐴 ∈ 𝕄𝑛×𝑛 (𝕂). Utilizando o Exercício 5, mostre a equivalência das seguintes afirmações:
(a) existe uma matriz 𝐵, 𝑛 × 𝑛, tal que 𝐵𝐴 = I;
(b) a matriz 𝐴 é invertível.
8. Escolhendo as bases canônicas dos respectivos espaços, interprete o Corolário 5.13 em termos
de um sistema homogêneo 𝐴𝒙 = 0.
9. Seja 𝑇 ∶ ℝ𝑛 → ℝ𝑚 uma aplicação linear. Mostre que 𝑇 é injetora se, e somente se, a imagem
de todo conjunto linearmente independente (no ℝ𝑛 ) for um conjunto linearmente indepen-
dente (no ℝ𝑚 ).
10. Considere o espaço 𝒫 (𝑡) e o operador 𝑅 definido no Exemplo 5.15. Defina também 𝐿 ∶ 𝒫 (𝑡) →
𝒫 (𝑡) por
𝜋1 ∶ ℝ2 → ℝ2 𝜋2 ∶ ℝ2 → ℝ2
(a) (b)
𝜋1 (𝑥1 , 𝑥2 ) = (𝑥1 , 0) 𝜋2 (𝑥1 , 𝑥2 ) = (0, 𝑥2 )
𝑅1 ∶ ℝ2 → ℝ2 𝑅2 ∶ ℝ 2 → ℝ 2
(c) (d) .
𝑅1 (𝑥1 , 𝑥2 ) = (𝑥1 , −𝑥2 ) 𝑅2 (𝑥1 , 𝑥2 ) = (−𝑥1 , 𝑥2 )
Mostre que cada uma dessas aplicações é linear e encontre sua representação matricial (com
relação à base canônica do ℝ2 ). Interprete-as geometricamente.
12. Considere o operador 𝐴 ∶ 𝕂3 → 𝕂3 definido pela matriz
⎛1 3 1⎞
⎜2 7 4⎟ .
⎜ ⎟
⎝1 4 3⎠
Encontre a matriz que representa esse operador na base ℬ = {(1 1 1)𝒕 , (0 1 1)𝒕 , (1 2 3)𝒕 }.
13. Considere o operador linear 𝑇 ∶ ℝ2 → ℝ2 , definido por 𝑇 (𝑥1 , 𝑥2 ) = (−𝑥1 , 𝑥2 ). Mostre que
𝒞
𝑇 é invertível. Escolha bases ℬ no domínio e 𝒞 no contradomínio de modo que 𝑇ℬ seja a
matriz identidade.
14. Considere o operador linear 𝑇 ∶ ℝ3 → ℝ3 definido por meio da matriz
⎛3 −1 −2⎞
𝐴 = ⎜0 0 −2⎟ .
⎜ ⎟
⎝0 0 −1⎠
⎛1 2 1 1⎞ ⎛1 2 1 1⎞
⎛1 −2 1⎞
⎜2 1 2 1⎟
(a) ⎜2 1 2 1⎟ ; (b) ⎜ (c) ⎜2 1 −2⎟ .
⎜ ⎟ 0 1 1 0⎟ ⎜ ⎟
⎝0 1 1 0⎠ ⎜ ⎟ ⎝0 −1 1⎠
⎝1 0 0 0⎠
⎛1 2 2 3 1 4⎞
⎜2 4 5 5 4 9⎟ .
⎜ ⎟
⎝3 6 7 8 5 9⎠
Determine o posto dessa matriz.
22. Sejam 𝐴, 𝐵 matrizes 𝑛 × 𝑛. Mostre que 𝐴𝐵 = 0 se, e somente se, o espaço coluna de 𝐵 estiver
contido no núcleo de 𝐴.
23. Sejam 𝑉 , 𝑊 e 𝑈 espaços vetoriais de dimensões 83, 63 e 72, respectivamente.
Sejam 𝑇 ∶ 𝑉 → 𝑊 e 𝑆 ∶ 𝑊 → 𝑈 aplicações lineares tais que
Produto Interno
111
112 CAPÍTULO 6. PRODUTO INTERNO
Exercício 6.1 Considere o produto escalar 𝒙 ⋅ 𝒚, já definido para vetores 𝒙, 𝒚 ∈ ℝ3 . Verifique que
esse produto escalar satisfaz a Definição 6.1.
⎛𝑥1 ⎞
⎜𝑥 ⎟
⟨𝒙, 𝒚⟩ = 𝒙 ⋅ 𝒚 = 𝑥1 𝑦1 + … + 𝑥𝑛 𝑦𝑛 = (𝑦1 𝑦2 … 𝑦𝑛 ) ⎜ 2 ⎟ = 𝒚t 𝒙,
⋮
⎜ ⎟
𝑥
⎝ 𝑛⎠
𝒙 = (5, −1, −2, 6), 𝒚 = (4, −2, −2, −1) e 𝒛 = (1, 3, −6, −3)
do espaço ℝ4 . Então
enquanto
⎛𝑧1 ⎞
⎜𝑧 ⎟
⟨𝒛, 𝒘⟩ = 𝒛 ⋅ 𝒘 = 𝑧1 𝑤1 + … + 𝑧𝑛 𝑤𝑛 = (𝑤1 𝑤2 … 𝑤𝑛 ) ⎜ 2 ⎟ = 𝒘t 𝒛,
⋮
⎜ ⎟
⎝ 𝑧𝑛 ⎠
Uma pergunta impõe-se: todo espaço vetorial possui ou nele pode ser
definido um produto interno? A resposta para essa questão é afirmativa, mas
neste texto apenas mostraremos que é possível definir um produto interno
em qualquer espaço 𝑋 de dimensão finita. Tendo em vista a Proposição
4.43, esse resultado é completamente natural.
Proposição 6.4 Sejam ℬ = {v1 , … , v𝑛 } uma base do espaço 𝑋. Então
⟨𝒙, 𝒚⟩ = [𝒙]ℬ ⋅ [𝒚]ℬ
define um produto interno no espaço 𝑋.
(Estamos denotando por 𝒖 ⋅ 𝒗 o produto escalar (produto interno canônico)
dos vetores 𝒖, 𝒗 no espaço 𝕂𝑛 . Assim, o lado direito da igualdade apresen-
tada na definição ocorre no espaço 𝕂𝑛 .)
A demonstração da Proposição 6.4 é simples e será deixada como exer-
cício.
É fácil notar que, na Proposição 6.4, o produto interno canônico do 𝕂𝑛
poderia ser substituído por qualquer produto interno no 𝕂𝑛 . Assim, surge
uma segunda questão: qual a necessidade de considerarmos, no 𝕂𝑛 , um
produto interno qualquer? Não é suficiente considerarmos o produto interno
canônico no 𝕂𝑛 , já que esse é a generalização natural do produto escalar no
ℝ3 ?
Como mostraremos posteriormente, produtos internos proporcionam a
definição de comprimentos e de ortogonalidade de vetores. Uma escolha
adequada desses conceitos pode proporcionar uma grande simplificação ao
considerarmos um problema.
Apesar de nossa abordagem utilizar unicamente as propriedades de um
produto interno abstrato (Definição 6.1), você pode pensar, no decorrer
deste texto, que o produto interno no 𝕂𝑛 é o produto escalar e que, no espaço
𝐸, o produto interno fixado é aquele definido na Proposição 6.4.
Como |𝑥𝑖 𝑦𝑖̄ | ≤ (1/2) [|𝑥𝑖 |2 + |𝑦𝑖 |2 ], temos que ⟨𝒙, 𝒚⟩ < ∞ para todos
𝒙, 𝒚 ∈ ℓ2 . Então ⟨⋅, ⋅⟩ define um produto interno em ℓ2 . ⊲
Exercício 6.8 Verifique todas as afirmações feitas nos Exemplos 6.5 e 6.6. Com respeito ao Exem-
plo 6.5, lembre-se que uma função contínua e positiva em um ponto, também é positiva em uma
vizinhança desse ponto.
6.2 Norma
Definição 6.8 Uma norma no espaço 𝑋 é uma função ‖ ⋅ ‖ ∶ 𝑋 → [0, ∞)
satisfazendo, para todos 𝒙, 𝒚 ∈ 𝑋 e 𝜆 ∈ 𝕂:
Exercício 6.9 Mostre que ‖ ⋅ ‖𝑠 satisfaz as propriedades que caracterizam uma norma no 𝕂𝑛 .
Exercício 6.10 Para os vetores 𝒙, 𝒚 e 𝒛 do ℝ4 , definidos no Exemplo 6.2, calcule ‖𝒙‖𝑠 , ‖𝒚‖𝑠 e
‖𝒛‖𝑠 .
Exercício 6.11 Para 𝒙 = (𝑥1 , 𝑥2 , … , 𝑥𝑛 ) ∈ 𝕂𝑛 , defina ‖𝒙‖∞ = max1≤𝑖≤𝑛 |𝑥𝑖 |. Mostre que assim
está definida uma norma, chamada norma do máximo no 𝕂𝑛 .
Exercício 6.12 Repita o Exercício 6.10 trocando a norma ‖ ⋅ ‖𝑠 pela norma ‖ ⋅ ‖∞ .
Agora vamos mostrar que, qualquer que seja o espaço 𝐸, seu produto
interno produz, de maneira natural, uma norma em 𝐸. Assim, sendo ⟨⋅, ⋅⟩ o
produto interno em 𝐸, denotemos (com abuso de notação) ‖𝒙‖ ∶= ⟨𝒙, 𝒙⟩1/2 .
Vamos mostrar que essa notação é coerente, isto é, que ⟨𝒙, 𝒙⟩1/2 realmente
define uma norma no espaço 𝐸. Notamos que, com essa definição, já temos
(𝑖𝑖) ‖𝛼𝒙‖2 = ⟨𝛼𝒙, 𝛼𝒙⟩ = 𝛼𝛼̄ ⟨𝒙, 𝒙⟩ = |𝛼|2 ‖𝒙‖2 . Ao tomarmos a raiz
quadrada em ambos os lados, obtemos ‖𝛼𝒙‖ = |𝛼| ‖𝒙‖.
116 CAPÍTULO 6. PRODUTO INTERNO
✒✻
𝒚
𝒛
✲ ✲
proj𝒙 𝒚 𝒙
Figura 6.1: O vetor proj𝒙 𝒚 = (⟨𝒚, 𝒙⟩/‖𝒙‖2 )𝒙 é a projeção ortogonal do vetor
𝒚 no vetor 𝒙. O vetor 𝒛 = 𝒚 − proj𝒙 𝒚 é a “componente” de 𝒚 ortogonal ao
vetor 𝒙.
|⟨𝒚, 𝒘⟩|2 = ‖⟨𝒚, 𝒘⟩𝒘‖2 < ‖⟨𝒚, 𝒘⟩𝒘‖2 + ‖(𝒚 − ⟨𝒚, 𝒘⟩𝒘)‖2 = ‖𝒚‖2 ,
o que implica que |⟨𝒚, 𝒘⟩| < ‖𝒚‖. Substituindo 𝒘 = 𝒙/‖𝒙‖, obtemos o
resultado.
Observação 6.13 Note que mostramos que |⟨𝒙, 𝒚⟩| = ‖𝒙‖ ‖𝒚‖ se, e so-
mente se, 𝒙 = 𝛽𝒚, para algum 𝛽 ∈ 𝕂. Observe também que a demonstração
anterior resume-se em garantir que a hipotenusa é o maior lado de um tri-
ângulo retângulo. ⊲
𝒙 𝒚 𝒙 𝒚
, ≤1 ⇒ −1 ≤ , ≤ 1.
|⟨ ‖𝒙‖ ‖𝒚‖ ⟩| ⟨ ‖𝒙‖ ‖𝒚‖ ⟩
Exercício 6.17 Considere os vetores 𝒙 = (5, −1, −2, 6) e 𝒚 = (4, −1, 2, 1) do espaço ℝ4 . Calcule
o ângulo entre 𝒙 e 𝒚.
Exercício 6.18 Discuta: podemos definir o ângulo entre vetores do espaço ℂ𝑛 ?
1
Outra demonstração é sugerida no Exercício 6.
118 CAPÍTULO 6. PRODUTO INTERNO
Essa identidade permanece válida se ‖ ⋅ ‖ for substituída por uma norma qualquer no 𝕂𝑛 ?
6.3. BASES ORTONORMAIS 119
𝛼1 𝒗1 + … + 𝛼𝑟 𝒗𝑟 = 0. (6.1)
⟨𝛼1 𝒗1 + … + 𝛼𝑟 𝒗𝑟 , 𝒗1 ⟩ = ⟨0, 𝒗1 ⟩
𝛼1 ⟨𝒗1 , 𝒗1 ⟩ + 𝛼2 ⟨𝒗2 , 𝒗1 ⟩ + … + 𝛼𝑟 ⟨𝒗𝑟 , 𝒗1 ⟩ = 0
𝛼1 ‖𝒗1 ‖2 = 0,
⟨𝛼1 𝒗1 + … + 𝛼𝑟 𝒗𝑟 , 𝒗𝑖 ⟩ = ⟨0, 𝒗𝑖 ⟩
𝛼1 ⟨𝒗1 , 𝒗𝑖 ⟩ + … + 𝛼𝑖 ⟨𝒗𝑖 , 𝒗𝑖 ⟩ + … + 𝛼𝑟 ⟨𝒗𝑟 , 𝒗𝑖 ⟩ = 0
𝛼𝑖 ‖𝒗𝑖 ‖ = 0,
⟨𝒆𝑖 , 𝒆𝑗 ⟩ = 𝒆𝑖 ⋅ 𝒆𝑗 = 0,
se 𝑖 ≠ 𝑗 e
⟨𝒆𝑖 , 𝒆𝑖 ⟩ = 𝒆𝑖 ⋅ 𝒆𝑖 = 1 ⇒ ‖𝒆𝑖 ‖2 = 1. ⊲
Exercício 6.24 Justifique: qualquer conjunto ortonormal com 𝑛 elementos é uma base do espaço
𝐸 de dimensão 𝑛.
Exercício 6.25 Considere o conjunto 𝒪 = {𝒗1 , 𝒗2 , 𝒗3 , 𝒗4 } em que
𝒗1 = (16, −13, 1, 3), 𝒗2 = (1, 2, 1, 3), 𝒗3 = (1, 1, 0, −1) e 𝒗4 = (1, 1, −9, 2).
Mostre que 𝒪 é uma base ortogonal do 𝕂4 , considerado com seu produto interno canônico.
Vale também uma generalização do Teorema de Pitágoras:
Proposição 6.20 Seja 𝒪 = {𝒗1 , … , 𝒗𝑟 } um conjunto ortonormal. Então
Exercício 6.26 Demonstre a Proposição 6.20 ao expandir o lado esquerdo da igualdade usando a
identidade ‖𝒙‖2 = ⟨𝒙, 𝒙⟩. (Uma outra demonstração é obtida utilizando-se a versão já exposta do
Teorema de Pitágoras.)
Bases ortonormais são especiais. Assim, verificaremos algumas propri-
edades satisfeitas por qualquer base ortonormal.
Proposição 6.21 Sejam 𝐸 um espaço com produto interno e ℬ = {𝒗1 , … , 𝒗𝑟 }
uma base ortogonal do subespaço 𝑈 ⊂ 𝐸. Se 𝒙 = 𝛼1 𝒗1 + … + 𝛼𝑟 𝒗𝑟 , então
⟨𝒙, 𝒗𝑖 ⟩
𝛼𝑖 = , (6.2)
‖𝒗𝑖 ‖2
de modo que
𝑟 𝑟
⟨𝒙, 𝒗𝑖 ⟩
𝒙=∑ 𝒗𝑖 = ∑ proj𝒗𝑖 𝒙.
𝑖=1
‖𝒗𝑖 ‖2 𝑖=1
6.3. BASES ORTONORMAIS 121
1 2 1 2 1 4
𝒗1 = , , , 𝒗2 = − ,− ,
( √6 √6 √6 ) ( √21 √21 √21 )
e
3 2 1
𝒗3 = ,−
. ,
( √14
√14 √14 )
Se 𝒙 = (1, 1, 1) determinamos facilmente os escalares 𝛼𝑖 tais que
𝒙 = 𝛼 1 𝒗1 + 𝛼 2 𝒗2 + 𝛼 3 𝒗3 .
De fato, temos
4 1 2
𝛼1 = 𝒙 ⋅ 𝒗1 = , 𝛼 2 = 𝒙 ⋅ 𝒗2 = e 𝛼3 = 𝒙 ⋅ 𝒗3 = .
√6 √21 √14 ⊲
Exercício 6.27 Compare a solução apresentada no Exemplo 6.22 com o cálculo direto dos coefi-
cientes 𝛼𝑖 (como feito no Capítulo ??, isto é, sem usar o fato que ℬ é uma base ortonormal).
Exercício 6.28 Ache a representação do vetor 𝒙 = (𝑥1 , 𝑥2 , 𝑥3 , 𝑥4 ) ∈ 𝕂4 na base 𝒪 do Exercício
6.25.
A Proposição 6.21 tem várias aplicações. Por exemplo, se tivermos uma
base ortonormal ℬ = {𝒗1 , … , 𝒗𝑛 } for do espaço com produto interno 𝐸 e
𝒙, 𝒚 ∈ 𝐸 com
𝒙 = 𝛼1 𝒗1 + … + 𝛼𝑛 𝒗𝑛 e 𝒚 = 𝛽 1 𝒗1 + … + 𝛽 𝑛 𝒗𝑛 ,
ao expandirmos ambos os lados do produto interno ⟨𝒙, 𝒚⟩ obtemos
⟨𝛼1 𝒗1 + … + 𝛼𝑛 𝒗𝑛 , 𝛽1 𝒗1 + … + 𝛽𝑛 𝒗𝑛 ⟩ = 𝛼1 𝛽1 + … + 𝛼𝑛 𝛽𝑛 , (6.3)
o que mostra que, com relação a essa base ortonormal, o produto interno
em 𝐸 se comporta como o produto interno canônico do 𝕂𝑛 . (Relembramos
que a ortogonalidade de vetores depende do produto interno considerado.
O que é uma base ortonormal para o produto interno canônico não precisa
ser ortogonal para outro produto interno.)
122 CAPÍTULO 6. PRODUTO INTERNO
✻
𝒖
✁✕✻
✁
✁𝒘 proj𝒗2 𝒖
✁ ✲ ✲
❅ 𝒗2
proj𝒗1 𝒖 ✠ ❘
❅
𝒕 = proj𝒗1 𝒖 + proj𝒗2 𝒖
𝒗1 ✠
Figura 6.2: O vetor 𝒘 é a “componente” de 𝒖 ortogonal ao plano gerado por
𝒗1 e 𝒗2 . O vetor 𝒕 nada mais é do que a soma das projeções de 𝒖 sobre os
vetores 𝒗1 e 𝒗2 .
⟨𝒖, 𝒗1 ⟩ ⟨𝒖, 𝒗𝑟 ⟩
⟨𝒘, 𝒗𝑖 ⟩ = 𝒖− 𝒗1 − … − 𝒗𝑟 , 𝒗 𝑖
⟨ ‖𝒗1 ‖ 2 ‖𝒗𝑟 ‖2 ⟩
⟨𝒖, 𝒗1 ⟩ ⟨𝒖, 𝒗𝑟 ⟩
= ⟨𝒖, 𝒗𝑖 ⟩ − 2
⟨𝒗1 , 𝒗𝑖 ⟩ − … − ⟨𝒗𝑟 , 𝒗𝑖 ⟩
‖𝒗1 ‖ ‖𝒗𝑟 ‖2
⟨𝒖, 𝒗𝑖 ⟩
= ⟨𝒖, 𝒗𝑖 ⟩ − ⟨𝒗𝑖 , 𝒗𝑖 ⟩
‖𝒗𝑖 ‖2
= ⟨𝒖, 𝒗𝑖 ⟩ − ⟨𝒖, 𝒗𝑖 ⟩ = 0,
provando o afirmado.
−1 1 −√6 −√6 √6
𝒖1 = ,
,0 , 𝒖2 = , ,
( √2 √2 ) ( 6 6 3 )
e
1 1 1
𝒖3 = , ,
( √3 √3 √3 )
formam uma base ortonormal do ℝ3 .
Se notarmos que os vetores 𝒘1 = 𝒗3 e 𝒘2 = 𝒗2 já são ortogonais e que
o vetor 𝒗1 é ortogonal ao vetor 𝒘1 , podemos aplicar Gram-Schmidt com
relação ao aos vetores 𝒘3 ∶= 𝒗1 e 𝒘2 . A base resultante será diferente da
obtida anteriormente (nesse caso, apenas pela ordem dos vetores), mas uma
observação como essa pode simplificar muito os cálculos. ⊲
Definição 6.26 Seja 𝐸 um espaço com o produto interno ⟨⋅, ⋅⟩. O comple-
mento ortogonal do subespaço 𝑉 ⊂ 𝐸, denotado por 𝑉 ⟂ , é o conjunto
𝑉 ⟂ = {𝒘 ∈ 𝐸 ∶ ⟨𝒘, 𝒗⟩ = 0, ∀ 𝒗 ∈ 𝑉 }.
Claramente 𝑉 ⟂ é um subespaço de 𝐸.
Exercício 6.31 Seja 𝐸 um espaço com produto interno. Mostre que, qualquer que seja o conjunto
𝑆 ⊂ 𝐸 (que não precisa ser um subespaço), temos que 𝑆 ⟂ é um subespaço do 𝐸.
𝐸 = 𝑉 ⊕ 𝑉⟂
𝒙 = 𝒗 + 𝒘.
Além disso,
(𝑉 ⟂ )⟂ = 𝑉 .
𝒗 = ⟨𝒙, 𝒗1 ⟩ 𝒗1 + … + ⟨𝒙, 𝒗𝑛 ⟩ 𝒗𝑟
⎛1 0 0 0 ⎞ ⎛1 0 0 0 ⎞
⎜1 1 0 0 ⎟ → ⎜0 1 0 0 ⎟ .
⎜ ⎟ ⎜ ⎟
⎝1 2 1 2 ⎠ ⎝0 0 1 2 ⎠
126 CAPÍTULO 6. PRODUTO INTERNO
Isso cria a base ortogonal {𝒗1̂ = (1, 0, 0, 0), 𝒗2̂ = (0, 1, 0, 0), 𝒗3̂ = (0, 0, 1, 2)}
do espaço gerado por por 𝒗1 , 𝒗2 , 𝒗3 .
Então, a projeção ortogonal de 𝒙 em 𝑉 é o vetor 𝒗 dado por
𝒗 = proj𝒗1̂ 𝒙 + proj𝒗2̂ 𝒙 + proj𝒗3̂ 𝒙
𝒙 ⋅ 𝒗1̂ 𝒙 ⋅ 𝒗2̂ 𝒙 ⋅ 𝒗3̂
= 𝒗 ̂ +
1 𝒗 ̂ +
2 𝒗3̂
‖𝒗1̂ ‖2 ‖𝒗2̂ ‖2 ‖𝒗3̂ ‖2
1 2 2
= (1, 0, 0, 0) + (0, 1, 0, 0) + (0, 0, 1, 2)
1 1 5
= (1, 2, 2/5, 4/5).
Uma segunda solução do mesmo problema consiste em primeiro ob-
ter uma base para 𝑊 ⟂ . Por simples inspeção, verificamos que o vetor
𝒛1 = (0, 0, 0, 1) não pertence ao espaço gerado por 𝒗1̂ , 𝒗2̂ , 𝒗3̂ . Agora or-
togonalizamos 𝒛1 com respeito aos vetores 𝒗1̂ , 𝒗2̂ , 𝒗3̂ . Note que basta orto-
gonalizar com respeito a 𝒗3̂ . Encontramos 𝒛 = (0, 0, −2, 1). (Este é o vetor
que gera 𝑊 ⟂ .)
Agora projetamos 𝒙 = (1, 2, 0, 1) em 𝑊 ⟂ , o espaço gerado por 𝒛:
⟨𝒙, 𝒛⟩ 1
proj𝑊 ⟂ 𝒙 = 2
𝒛 = (0, 0, −2, 1).
‖𝒛‖ 5
A projeção de 𝒙 em 𝑊 é dada por
𝒘 = 𝒙 − proj𝑊 ⟂ 𝒙 = (1, 2, 0, 1) − (0, 0, −2/5, 1/5) = (1, 2, 2/5, 4/5). ⊲
Exemplo 6.29 Seja 𝑊 ⊂ ℝ5 o espaço gerado pelos vetores 𝒖 e 𝒗, em que
𝒖 = (1, 3, 2, −1, 2) e 𝒗 = (2, 7, 4, 2, −1). Vamos encontrar uma base para
𝑊 ⟂ , com ℝ5 considerado com seu produto interno canônico. (Note que os
vetores 𝒖 e 𝒗 não precisam ser ortogonais.)
Para isso, seja 𝒙 = (𝑥1 , 𝑥2 , 𝑥3 , 𝑥4 , 𝑥5 ) um vetor arbitrário de 𝑊 ⟂ . Como
os vetores 𝒖, 𝒗 são linearmente independentes, o vetor 𝒙 será ortogonal a 𝑊
se for perpendicular a 𝒖 e 𝒗. Assim, devemos ter
𝒙 ⋅ 𝒖 = 𝑥1 + 3𝑥2 + 2𝑥3 − 𝑥4 + 2𝑥5 = 0
𝒙 ⋅ 𝒗 = 2𝑥1 + 7𝑥2 + 4𝑥3 + 2𝑥4 − 𝑥5 = 0,
sistema que conduz à forma escalonada reduzida por linhas
1 0 2 −13 17
,
(0 1 0 4 −5 )
de modo que suas soluções são
Assim,
⎧⎛−2⎞ ⎛ 13⎞ ⎛−17⎞⎫
⎪⎜ 0⎟ ⎜ −4 ⎟ ⎜ 5 ⎟⎪
⎪ ⎪
𝒞 = ⎨⎜ 1⎟ , ⎜ 0 ⎟ , ⎜ 0 ⎟⎬
⎜ ⎟ ⎜ ⎟ ⎜ ⎟
⎪ 0 1 0 ⎪
⎪⎜ 0⎟ ⎜ 0 ⎟ ⎜ 1 ⎟⎪
⎩⎝ ⎠ ⎝ ⎠ ⎝ ⎠⎭
é uma base para 𝑊 ⟂ . Para obter uma base ortogonal para 𝑊 ⟂ , aplicamos
o processo de ortogonalização de Gram-Schmidt a esses vetores. ⊲
𝑇 (𝑥1 , 𝑥2 , 𝑥3 ) = (𝑥1 + 𝑥2 − 𝑥3 , 𝑥2 , 𝑥3 )
e a base
1 1
ℬ= (1, 1, 0), (−1, 1, 0), (0, 0, 1) ⊂ 𝕂3 ,
{ √2 √2 }
2
⎛ √2 ⎞ ⎛0⎞ ⎛−1⎞
⎜ ⎟ 1
𝑇 𝒗1 = ⎜ 1 ⎟ , 𝑇 𝒗2 = ⎜ √2 ⎟ e 𝑇 𝒗3 = ⎜ 0 ⎟ .
⎜ √2 ⎟ ⎜ ⎟ ⎜ ⎟
⎝ 0 ⎠ ⎝0⎠ ⎝ 1⎠
128 CAPÍTULO 6. PRODUTO INTERNO
Calculando, obtemos
𝑇 𝒗1 ⋅ 𝒗1 = 32 , 𝑇 𝒗1 ⋅ 𝒗2 = − 12 , 𝑇 𝒗1 ⋅ 𝒗3 = 0,
𝑇 𝒗2 ⋅ 𝒗1 = 12 , 𝑇 𝒗2 ⋅ 𝒗2 = 12 , 𝑇 𝒗2 ⋅ 𝒗3 = 0,
𝑇 𝒗3 ⋅ 𝒗1 = − 1 , 𝑇 𝒗3 ⋅ 𝒗2 = 1
, 𝑇 𝒗3 ⋅ 𝒗3 = 1.
√2 √2
Portanto,
3 1 1
⎛ 2 2
− ⎞
⎜ √2 ⎟
𝑇ℬ = ⎜− 1 1 1 ⎟.
⎜ 2 2 √2 ⎟
⎜ ⎟ ⊲
⎝ 0 0 1⎠
Exercício 6.34 Sem considerar que a base ℬ do Exemplo 6.31 é ortonormal, obtenha 𝑇ℬ utili-
zando apenas a teoria desenvolvida no Capítulo 5, isto é, utilizando o Teorema 5.18. Compare sua
solução com aquela do Exemplo 6.31.
⎛1 1 + 𝑖 𝑖 ⎞
⎜𝑖 2 1 − 𝑖⎟ .
⎜ ⎟
⎝𝑖 3 5 ⎠
Então
⎛ 1 −𝑖 𝑖 ⎞
∗⎜
𝐴 = 1−𝑖 2 3⎟ .
⎜ ⎟ ⊲
⎝ −𝑖 1 + 𝑖 5⎠
Se a matriz 𝐴 for real, então 𝐴∗ = 𝐴𝒕 .
Exemplo 6.35 Se
1 5
𝐵= ,
(2 𝜋)
então
1 2
𝐵∗ = . ⊲
(5 𝜋)
⎛ 1 1−𝑖 2 ⎞
𝐴 = ⎜1 + 𝑖 4 2 − 𝑖⎟
⎜ ⎟
⎝ 2 2+𝑖 5 ⎠
é autoadjunta.
Exercício 6.36 Verifique que a matriz
⎛1 3 2⎞
𝐵 = ⎜3 4 4⎟
⎜ ⎟
⎝2 4 5⎠
é autoadjunta.
Exercício 6.37 Mostre a última afirmação feita na demonstração da Proposição 6.33, isto é, con-
clua que ⟨𝐴𝒙, 𝒚⟩ = ⟨𝒙, 𝐴𝒚⟩ para todos 𝒙, 𝒚 ∈ 𝕂𝑛 .
Exercício 6.38 Justifique: 𝑃 ∗ 𝑃 = I implica que 𝑃 𝑃 ∗ = I
Exercício 6.39 Justifique as afirmações feitas na Observação 6.38.
6.7 Exercícios
1. Seja ⟨⋅, ⋅⟩ um produto interno. Mostre que ⟨𝒙, 𝒚 + 𝜆𝒛⟩ = ⟨𝒙, 𝒚⟩ + 𝜆⟨𝒙, 𝒛⟩ para todos 𝒙, 𝒚, 𝒛 ∈
ℝ𝑛 e 𝜆 ∈ ℝ.
2. Para os vetores 𝒛 = (𝑧1 , 𝑧2 ) e 𝒘 = (𝑤1 , 𝑤2 ) no espaço ℂ2 ,
(a) verifique que
10. Sejam 𝐸 um espaço com produto interno ⟨⋅, ⋅⟩ e ‖ ⋅ ‖ a norma por ele gerada. Mostre que, se
𝐸 for um espaço real, então
1
⟨𝒙, 𝒚⟩ = ‖𝒙 + 𝒚‖2 − ‖𝒙 − 𝒚‖2 ) .
4(
Por outro lado, se 𝐸 for um espaço complexo, então
1 1 𝑖 𝑖
⟨𝒙, 𝒚⟩ = ‖𝒙 + 𝒚‖2 − ‖𝒙 − 𝒚‖2 + ‖𝒙 + 𝑖𝒚‖2 − ‖𝒙 − 𝑖𝒚‖2 .
4 4 4 4
Essas igualdades são conhecidas como identidade de polarização. Para obtê-las, em cada
caso desenvolva o lado esquerdo da igualdade.
11. Sejam 𝒖 = (2, −1, 𝛼) e 𝒗 = (1, 3, 2). Para que valor de 𝛼 os vetores 𝒖 e 𝒗 são ortogonais com
relação ao produto interno canônico do ℝ3 ?
12. Considere a base ortogonal do ℝ3 definida no Exemplo 6.19. Dado o vetor 𝒙 = (𝑥1 , 𝑥2 , 𝑥3 ),
obtenha as coordenadas de 𝒙 nessa base.
13. Considere o espaço ℝ3 com seu produto interno canônico e o plano 𝜋 dado por 𝑥1 + 𝑥2 + 𝑥3 =
0.
(a) Encontre uma base ortonormal ℬ para 𝜋.
(b) Complete essa base de modo a obter uma base ortonormal para o espaço ℝ3 .
14. Considere o conjunto ℬ = {𝒗1 , 𝒗2 , 𝒗3 , 𝒗4 }, em que
e
𝒗4 = (5, −2, −6, −1).
Seja 𝒙 = (1, 1, 1, 1).
(a) Mostre que ℬ é uma base ortogonal do ℝ4 considerado com seu produto interno canô-
nico;
132 CAPÍTULO 6. PRODUTO INTERNO
16. Escreva o vetor (1, 3) ∈ ℝ2 como combinação linear dos vetores 𝒗1 = (1/√2, 1/√2) e
𝒗2 = (−1/√2, 1/√2).
17. Com ℝ4 considerado com seu produto interno canônico, encontre uma base ortonormal para
o subespaço
18. Seja 𝑉 = < 𝒗1 , 𝒗2 , 𝒗3 >, em que 𝒗1 = (1, 0, 0, −1), 𝒗2 = (2, 2, −2, 0) e 𝒗3 = (0, 1, 0, 2).
Determine uma base ortonormal para 𝑉.
19. Considere a base {𝒗1 = (1, 1, 1), 𝒗2 = (1, 2, 3), 𝒗3 = (1, 1, 0)} ⊂ ℝ3 . Aplique o processo de
ortogonalização de Gram-Schmidt a esses vetores e obtenha uma base ortonormal ℬ do ℝ3
com relação ao seu produto interno canônico, tendo 𝒗1 /‖𝒗1 ‖ como o primeiro vetor de ℬ.
20. Considere os vetores 𝒗1 = (1, 1, 1, 1) e 𝒗2 = (1, 1, −1, −1). Sejam 𝑊 = < 𝒗1 , 𝒗2 > o espaço
gerado por 𝒗1 e 𝒗2 e 𝒙 = (1, 2, 0, −2). Calcule proj𝑊 𝒙.
21. Sejam ℬ = {𝒗1 , … , 𝒗𝑘 } uma base ortonormal do subespaço 𝑊 ⊂ ℝ𝑛 e 𝒗 ∈ ℝ𝑛 um vetor
arbitrário. Suponha que 𝒗 = 𝑐1 𝒗1 + … + 𝑐𝑘 𝒗𝑘 . Mostre a desigualdade de Bessel:
22. Considere ℝ4 com seu produto interno canônico. Seja 𝑊 = < 𝒘 >, em que 𝒘 = (1, 1, 2, 3).
Calcule uma base ortonormal para 𝑊 ⟂ .
23. Seja 𝑊 o subespaço gerado pelos vetores 𝒘1 = (4, 0, −3) e 𝒘2 = (0, 1, 0). Escreva o vetor
𝒙 = (1, 2, 3) na forma 𝒙 = 𝒘 + 𝒛 com 𝒘 ∈ 𝑊 e 𝒛 ∈ 𝑊 ⟂ .
24. Seja 𝑊 ⊂ ℝ𝑛 um subespaço tal que 𝑊 ⟂ = {0}. Mostre que 𝑊 = ℝ𝑛 .
25. Suponha que 𝒗 seja ortogonal aos vetores 𝒗𝑖 , 1 ≤ 𝑖 ≤ 𝑘. Mostre que 𝒗 é ortogonal ao
subespaço < 𝒗1 , … , 𝒗𝑘 >.
26. Suponha que ℝ𝑛 = 𝑊 + 𝑉 e 𝑉 ⊂ 𝑊 ⟂ . Mostre que 𝑉 = 𝑊 ⟂ .
27. Sejam 𝒗 ∈ ℝ𝑛 um vetor arbitrário e 𝑊 um subespaço. Mostre que
‖𝒗 − proj𝑊 𝒗‖ ≤ ‖𝒗 − 𝒘‖
Diagonalização
133
134 CAPÍTULO 7. DIAGONALIZAÇÃO
Exercício 7.1 Sejam ℬ e ℬ ′ duas bases do espaço vetorial de dimensão finita 𝑋. Dada o operador
linear 𝑇 ∶ 𝑋 → 𝑋, verifique que as matrizes 𝑇ℬ e 𝑇ℬ ′ são semelhantes.
O exercício anterior torna possível a seguinte definição:
(Verifique que 𝑇 é linear.) Para obter det 𝑇, escolhemos uma base ℬ e en-
contramos a matriz 𝑇ℬ . Por exemplo, escolhendo a base canônica ℰ, temos
(verifique!)
2 3
𝑇ℰ =
( 4 −5 )
e det 𝑇ℰ = −22. Mas, se ℬ = {𝒗1 = (1, 2), 𝒗2 = (2, 5)}, então (verifique!)
52 129
𝑇ℬ = ,
( −22 −55 )
Exercício 7.2 Seja 𝐴 uma matriz 𝑛 × 𝑛. Mostre que: det(𝜆I − 𝐴) é um polinômio mônico de grau
𝑛 na variável 𝜆.
Exercício 7.3 Sejam 𝑋 um espaço de dimensão finita e 𝑇 ∶ 𝑋 → 𝑋 um operador linear. Mostre
que det(𝜆I − 𝑇 ) = det(𝜆I − 𝑇 )ℬ para qualquer base ℬ do espaço 𝑋, adaptando a demonstração do
Lema 7.5.
Exercício 7.4 Se 𝑇 ∶ 𝑋 → 𝑋 for um operador e dim 𝑋 = 𝑛, mostre que
𝑇 (𝑥1 , 𝑥2 , 𝑥3 , 𝑥4 ) = (3𝑥1 −4𝑥2 +𝑥3 +𝑥4 , 2𝑥1 −6𝑥2 +2𝑥3 +2𝑥4 , 2𝑥3 +2𝑥4 , 𝑥3 +3𝑥4 ).
⎛3 −4 1 1 ⎞ ⎛𝜆 − 3 4 −1 −1 ⎞
⎜2 −6 2 2 ⎟ ⎜ −2 𝜆 + 6 −2 −2 ⎟
𝑇ℰ = ⎜ ⇒ (𝜆I − 𝑇 )ℰ = ⎜
0 0 2 2⎟ 0 0 𝜆 − 2 −2 ⎟
⎜ ⎟ ⎜ ⎟
⎝0 0 1 3⎠ ⎝ 0 0 −1 𝜆 − 3⎠
𝜆−3 4 𝜆 − 2 −2
𝜆I − 𝐴 = e 𝜆I − 𝐷 = .
( −2 𝜆 + 6) ( −1 𝜆 − 3)
⎛1 1 1 1⎞
⎜0 2 3 4⎟
𝐴=⎜ .
0 0 3 3⎟
⎜ ⎟
⎝0 0 0 4⎠
Mas como garantir que o espaço 𝑋 tenha uma base formada por auto-
vetores de 𝑇 ∶ 𝑋 → 𝑋? Vamos mostrar que isso ocorre se 𝑋 for um espaço
de dimensão 𝑛 e se forem distintos todos os autovalores de 𝑇 ∶ 𝑋 → 𝑋.
Teorema 7.15 Se 𝒗𝑖 , 1 ≤ 𝑖 ≤ 𝑘, for um autovetor do operador linear
𝑇 ∶ 𝑋 → 𝑋 associado ao autovalor 𝜆𝑖 ∈ 𝕂, e se 𝜆𝑖 ≠ 𝜆𝑗 para 𝑖 ≠ 𝑗,
então o conjunto {𝒗1 , … , 𝒗𝑘 } é linearmente independente.
Demonstração: Faremos indução no número 𝑘 de elementos do conjunto
{𝒗1 , … , 𝒗𝑘 }. Se 𝑘 = 1, o resultado é óbvio. Suponhamos verdadeiro para
𝑘 − 1 vetores e consideremos o caso de 𝑘 vetores. Se
𝛼1 𝒗1 + 𝛼2 𝒗2 + … + 𝛼𝑘 𝒗𝑘 = 0, (7.1)
𝛼1 𝑇 𝒗1 + 𝛼2 𝑇 𝒗2 + … + 𝛼𝑘 𝑇 𝒗𝑘 = 0.
Mas 𝑇 𝒗𝑖 = 𝜆𝑖 𝒗𝑖 . Assim,
𝛼1 𝜆1 𝒗1 + … + 𝛼𝑘 𝜆𝑘 𝒗𝑘 = 0.
𝛼1 𝜆𝑘 𝒗1 + 𝛼2 𝜆𝑘 𝒗2 + … + 𝛼𝑘 𝜆𝑘 𝒗𝑘 = 0.
3 −4 𝜆−3 4
𝑇ℰ = ⇒ 𝜆I − 𝑇ℰ = (7.2)
(2 −6) ( −2 𝜆 + 6)
𝜆−3 4
𝑝(𝜆) = det(𝜆I − 𝑇 )ℰ = det = 𝜆2 + 3𝜆 − 10
( −2 𝜆 + 6)
= (𝜆 − 2)(𝜆 + 5).
8 −4 𝑥1 0
= ,
(2 −1) (𝑥2 ) (0)
1 − 12
.
(0 0)
1/2
𝒖=𝜆 .
(1)
1/2
𝐸−5 = ker(−5I − 𝑇 ) = 𝒙 ∈ ℝ2 ∶ 𝒙 = 𝜆 , 𝜆∈ℝ .
{ (1) }
4
𝐸2 = ker(2I − 𝑇 ) = 𝒙 ∈ ℝ2 ∶ 𝒙 = 𝜆 , 𝜆∈ℝ ,
{ (1) }
que é gerado pelo vetor
4
𝒗2 = .
(1)
ℰ 1 4
𝑃 = 𝑃ℬ = .
(2 1)
Verifique que 𝐷 = 𝑇ℬ = 𝑃 −1 𝑇ℰ 𝑃. ⊲
Encontre uma base ℬ de modo que a representação de 𝑇 nessa base seja uma matriz diagonal.
Exercício 7.8 De acordo com o Corolário 7.16, o operador 𝑇 definido no Exemplo 7.9 é diagona-
lizável, pois possui 4 autovalores distintos. Você consegue encontrar uma base ℬ de modo que 𝑇ℬ
seja uma matriz diagonal, utilizando apenas os resultados do Exemplo 7.18 e do Exercício 7.7? Se
você não conseguir, ache diretamente a base procurada ℬ e compare seu resultado com aqueles do
Exemplo 7.18 e do Exercício 7.7.
(a) Mostre que 𝜆1 = 1 é um autovalor de 𝐴 e forneça uma base para o autoespaço associado a 𝜆1 .
Qual a dimensão desse autoespaço? (Observação: não é necessário calcular o polinômio
característico de 𝐴.)
(b) Verifique que os vetores 𝒗 = (−1, 1, 0) e 𝒗 = (−1, 0, 1) são autovetores de 𝐴. Eles correspon-
dem a quais autovalores? (Como antes, não é necessário calcular qualquer determinante.)
(c) A matriz 𝐴 é diagonalizável?
2 2
𝐴=
(1 3)
cuja inversa é
1
− 13
𝑃 −1 = 3
.
(1 2
)
3 3
Temos que
1
1 0 − 13 2 2 2 1
= 𝑃 −1 𝐴𝑃 = 31 2
,
(0 4) ( ) (1 3) (−1 1)
3 3
⎛ 3 −2 4⎞
𝐴 = ⎜−2 6 2⎟ .
⎜ ⎟
⎝ 4 2 3⎠
⎛−1 1 −2⎞ ⎛7 0 0⎞
ℰ
𝑃 = 𝑃ℬ = ⎜ 2 0 −1⎟ e 𝐷 = 𝐴ℬ = ⎜0 7 0⎟ ,
⎜ ⎟ ⎜ ⎟
⎝ 0 1 1⎠ ⎝0 0 −2⎠
temos
𝐷 = 𝑃 −1 𝐴𝑃 . ⊲
144 CAPÍTULO 7. DIAGONALIZAÇÃO
Exemplo 7.21 Sem fazer cálculos, vamos encontrar uma base de autoveto-
res para a matriz
⎛1 1 1⎞
⎜1 1 1⎟ .
⎜ ⎟
⎝1 1 1⎠
É fácil ver que seu espaço coluna tem dimensão 1. Pelo Teorema do Nú-
cleo e da Imagem, ker 𝐴 tem dimensão 2. Isso quer dizer que 0 é autovalor
de 𝐴 e que existem dois autovetores associados ao autovalor 0.
Claramente ker 𝐴 é dado por
⎛𝑥⎞ ⎛−1⎞ ⎛ 0⎞
⎜𝑦⎟ = 𝑦 ⎜ 1⎟ + 𝑧 ⎜−1⎟ ,
⎜ ⎟ ⎜ ⎟ ⎜ ⎟
⎝𝑧⎠ ⎝ 0⎠ ⎝ 1⎠
Note que uma matriz autoadjunta pode possuir diversos autovetores li-
nearmente independentes associados ao mesmo autovalor 𝜆. Nesse caso,
aplicamos o processo de ortogonalização de Gram-Schimdt ao autoespaço
associado a esse autovalor, de modo a encontrar uma base ortogonal para
ele.
Dada uma matriz autoadjunta real 𝐴 (isto é, uma matriz simétrica), en-
tão sabemos que seus autovalores são reais. Mas, uma vez que a matriz 𝐴
foi considerada como tendo entradas complexas, pode existir a dúvida se os
autovetores associado a um autovalor têm coordenadas reais ou complexas.
O próximo resultado resolve essa dúvida.
Proposição 7.23 Seja 𝐴 uma matriz real simétrica. Então 𝐴 possui uma
base formada por autovetores reais.
Demonstração: Já sabemos que os autovalores 𝜆 de 𝐴 são reais. Assim, o
sistema (𝐴 − 𝜆I)𝒙 = 0 possui solução 𝒙 ≠ 0 com coordenadas reais. Isso é
suficiente para garantir o afirmado.
Mas podemos dizer algo mais. Note que se 𝒙 for um autovetor de 𝐴 com
entradas complexas, ao escrever 𝒙 = 𝒖 + 𝑖𝒗 com 𝒖 e 𝒗 tendo coordenadas
reais, então temos 𝒖 ≠ 0 ou 𝒗 ≠ 0. É fácil verificar que, se 𝒖 ≠ 0, então 𝒖 é
autovetor de 𝐴. O mesmo acontece com 𝒗.
Teorema 7.25 Seja 𝐴 ∈ 𝕄𝑛×𝑛 (𝕂) uma matriz autoadjunta. Então existe
uma matriz 𝑃 = (𝒗1 𝒗2 … 𝒗𝑛 ) (em que 𝒗𝑖 denota a coluna 𝑖 de 𝑃)
formada pela base ortonormal ℬ = {𝒗1 , … , 𝒗𝑛 } ⊂ 𝕂𝑛 de autovetores de
𝐴, de modo que
𝐷 = 𝑃 ∗ 𝐴𝑃 ,
Teorema 7.28 Seja 𝐴 uma matriz quadrada com ao menos uma entrada
em ℂ ⧵ ℝ e autovalores reais. Então 𝐴 é ortogonalmente diagonalizável se,
e somente se, 𝐴 = 𝐴∗ .
1 𝑖
𝐴= .
( −𝑖 1)
𝒗1 ⋅ 𝒗2 = (−𝑖)(−𝑖) + (1)(1) = 0,
0 0 ℰ 1 −𝑖 𝑖
𝐷= e 𝑃 = 𝑃ℬ = ,
(0 2) √2 ( 1 1)
e também
1 𝑖 1
𝑃 ∗ = 𝑃 −1 = 𝑃ℰℬ = .
√2 (−𝑖 1)
Verifique que 𝐷 = 𝑃 ∗ 𝐴𝑃.
Observe também que as partes real e imaginária dos autovetores 𝒘1 e 𝒘2
continuam sendo autovetores de 𝐴, mas o fato de 𝐴 ter entradas complexas
faz com que os autovetores obtidos tenham coordenadas complexas!
⎛ 11 −8 4⎞
𝐴 = −8 −1 −2⎟ .
⎜
⎜ ⎟
⎝ 4 −2 −4⎠
⎛ 16 −8 4⎞ ⎛4 −2 1⎞
⎜
(𝐴 + 5I) = −8 4 −2⎟ → ⎜0 0 0⎟ .
⎜ ⎟ ⎜ ⎟
⎝ 4 −2 1⎠ ⎝0 0 0⎠
4𝑎 − 2𝑏 + 𝑐 = 0 e 𝑏 + 2𝑐 = 0.
⎛−5 −8 4⎞ ⎛4 −2 −20⎞
𝐴 − 16I = ⎜−8 −17 −2 ⎟ → ⎜0 −21 −42⎟ .
⎜ ⎟ ⎜ ⎟
⎝ 4 −2 −20⎠ ⎝0 0 0⎠
⎛4 −2 −20⎞ ⎛4 0 −16⎞
⎜0 −21 −42⎟ → ⎜0 1 2 ⎟.
⎜ ⎟ ⎜ ⎟
⎝0 0 0⎠ ⎝0 0 0⎠
⎛𝑥⎞ ⎛ 4𝑧⎞ ⎛ 4⎞
⎜𝑦⎟ = ⎜−2𝑧⎟ = 𝑧 ⎜−2⎟ ,
⎜ ⎟ ⎜ ⎟ ⎜ ⎟
⎝𝑧⎠ ⎝ 𝑧 ⎠ ⎝ 1⎠
que nos dá o autovetor 𝒗16 = (4, −2, 1). Note que, de acordo com o Lema
7.22, esse vetor já é ortogonal ao vetores 𝒗−5 e 𝒗′−5 .
Para obter uma matriz ortogonal, basta dividirmos os autovetores 𝒗−5 , 𝒗′−5
e 𝒗16 por sua norma. Chegamos então à matriz ortogonal
−5 4
⎛0 √105 √21
⎞
⎜ 1 −8 −2
⎟
𝑃 = ⎜ √5 √105
⎟.
√21 ⎟
⎜
⎜ 2 4 1 ⎟
⎝ √5 √105 √21 ⎠
7.4. DIAGONALIZAÇÃO DE MATRIZES AUTOADJUNTAS 149
⎛−5 0 0⎞
𝐷 = ⎜ 0 −5 0 ⎟ .
⎜ ⎟
⎝ 0 0 16⎠
⎛2 1 1⎞
𝐴 = ⎜1 2 1⎟ ,
⎜ ⎟
⎝1 1 2⎠
⎛1 0 0⎞
𝐷 = ⎜0 1 0⎟ .
⎜ ⎟
⎝0 0 4⎠
Escalonando a matriz 𝐴 − I, encontramos que o autoespaço bidimensi-
onal 𝑉1 = {(−𝑥2 − 𝑥3 , 𝑥2 , 𝑥3 ) ∈ ℝ3 } está associado ao autovalor 𝜆 = 1, de
modo que
ℬ1 = {𝒖 = (−1, 0, 1), 𝒗 = (−1, 1.0)}
é uma base de 𝑉1 . Uma base ortonormal é encontrada aplicando-se o pro-
cesso de ortogonalização de Gram-Schmidt:
𝒗⋅𝒖
𝒘1 = 𝒗 − proj𝒖 𝒗 = 𝒗 − 𝒖
‖𝒖‖2
(−1, 1, 0) ⋅ (−1, 0, 1)
= (−1, 1, 0) − (−1, 0, 1)
‖(−1, 0, 1)‖2
1
= (−1, 1, 0) − (−1, 0, 1)
2
1 1
= (− , 1, − ) .
2 2
Eliminando frações, concluímos que o vetor (−1, 2, −1) é ortogonal ao vetor
𝒖. Transformando os vetores em unitários, temos que os vetores
−1 1 −1 2 −1
𝒗1 = , 0, e 𝒗′1 = , ,
( √2 √2 ) ( √6 √6 √6 )
1 1 1
𝒗4 = , ,
( √3 √3 √3 )
150 CAPÍTULO 7. DIAGONALIZAÇÃO
é unitária e 𝑃 𝒕 𝐴𝑃 = 𝐷. ⊲
Exercício 7.16 Encontre uma matriz ortogonal 𝑃 e uma matriz diagonal 𝐷 satisfazendo 𝑃 𝒕 𝐴𝑃 =
𝐷, para as matrizes
⎛4 2 2⎞
(a) 𝐴 = ⎜2 4 2⎟;
⎜ ⎟
⎝2 2 4⎠
2 1
(b) ;
(1 2)
⎛2 1 0 0⎞
⎜1 2 0 0⎟
(c) ⎜ .
0 0 2 1⎟
⎜ ⎟
⎝0 0 1 2⎠
Exercício 7.17 A matriz 𝐴 do Exercício 7.12 é ortogonalmente diagonalizável?
Exercício 7.18 Sendo 𝛼 e 𝛽 números reais, considere a matriz
⎛3 −2 4⎞
𝐴 = ⎜𝛼 6 2⎟ .
⎜ ⎟
⎝4 𝛽 3⎠
7.5 Exercícios
1. Sejam 𝑋 um espaço vetorial e 𝑇 ∶ 𝑋 → 𝑋 um operador. Mostre que, se 𝜆 for um autovalor
de 𝑇, então o autoespaço 𝑋𝜆 é invariante por 𝑇.
2. Seja 𝑇 ∶ 𝑋 → 𝑋 um operador no espaço de dimensão finita 𝑋. Mostre que 0 é autovalor de
𝑇 se, e somente se, 𝑇 não possuir inversa.
3. Sem fazer qualquer cálculo, encontre um autovalor para a matriz
⎛1 2 1⎞
𝐴 = ⎜1 2 1⎟ .
⎜ ⎟
⎝1 2 1⎠
Justifique sua resposta.
7.5. EXERCÍCIOS 151
4. Seja 𝐴 uma matriz quadrada triangular (superior ou inferior). Mostre que seus autovalores
são os elementos de sua diagonal principal.
5. Seja uma matriz quadrada. Mostre que 𝐴 e 𝐴𝒕 têm os mesmos autovalores.
6. Seja 𝐴 uma matriz quadrada tal que 𝐴2 é a matriz nula. Mostre que 0 é o único autovalor de
𝐴.
7. Sejam 𝐴, 𝐵 matrizes 𝑛 × 𝑛. Mostre que 𝐴𝐵 e 𝐵𝐴 têm os mesmos autovalores.
8. Seja 𝐴 uma matriz 𝑛×𝑛 invertível e 𝜆 ∈ 𝕂 um autovalor de 𝐴. Mostre que 𝜆−1 é um autovalor
de 𝐴−1 .
9. Seja 𝜆 ∈ 𝕂 um autovalor da matriz quadrada 𝐴. Mostre que 𝜆2 é um autovalor da matriz 𝐴2 .
10. Acho o polinômio característico da matriz
⎛2 1 1 1⎞
⎜1 1 2 2⎟
𝐴=⎜ .
0 0 1 3⎟
⎜ ⎟
⎝0 0 2 1⎠
1 −1
𝐴=
(−4 1)
𝑇 (𝑥1 , 𝑥2 , 𝑥3 ) = (4𝑥1 + 2𝑥2 + 2𝑥3 , 2𝑥1 + 4𝑥2 + 2𝑥3 , 2𝑥1 + 2𝑥2 + 4𝑥3 ).
1 −1
𝐴= .
(2 −1)
17. Encontre uma base ℬ, a matriz 𝑃 e a matriz diagonal 𝐷 = 𝑇ℬ de modo que 𝐷 = 𝑃 −1 𝐴𝑃, se
⎛2 5 1 1⎞
⎜1 4 2 2⎟
𝐴=⎜ .
0 0 6 −5⎟
⎜ ⎟
⎝0 0 2 3⎠
18. Seja 𝑉 = < 𝒄𝒐𝒔 𝑡, 𝒔𝒆𝒏 𝑡 > o espaço das combinações lineares com coeficientes complexos das
funções 𝒄𝒐𝒔 𝑡 e 𝒔𝒆𝒏 𝑡. Considere o operador 𝐷 ∶ 𝑉 → 𝑉 definido por 𝐷𝒇 = 𝒇 ′ , a derivada
da função 𝒇.
(a) Encontre os autovalores de 𝐷.
(b) Se o operador 𝐷 for diagonalizável, encontre uma base ℬ tal que 𝐷ℬ seja uma matriz
diagonal.
19. Encontre os autovalores de matriz
⎛4 1 −1⎞
𝐴 = ⎜2 5 −2⎟ .
⎜ ⎟
⎝1 1 2⎠
⎛ 5 0 0 0⎞
⎜ 0 5 0 0⎟
𝐴=⎜
1 4 −3 0⎟
⎜ ⎟
⎝−1 −2 0 −3⎠
3 1
𝐴= .
(2 2)