0% acharam este documento útil (0 voto)
13 visualizações157 páginas

Int AL

Direitos autorais
© © All Rights Reserved
Levamos muito a sério os direitos de conteúdo. Se você suspeita que este conteúdo é seu, reivindique-o aqui.
Formatos disponíveis
Baixe no formato PDF, TXT ou leia on-line no Scribd
0% acharam este documento útil (0 voto)
13 visualizações157 páginas

Int AL

Direitos autorais
© © All Rights Reserved
Levamos muito a sério os direitos de conteúdo. Se você suspeita que este conteúdo é seu, reivindique-o aqui.
Formatos disponíveis
Baixe no formato PDF, TXT ou leia on-line no Scribd
Você está na página 1/ 157

INTRODUÇÃO À ÁLGEBRA LINEAR

Hamilton Prado Bueno

3 de março de 2023
Sumário

1 Matrizes e Espaços Vetoriais 1


1.1 O Corpo dos Números Complexos . . . . . . . . . . . . . 1
1.2 Matrizes . . . . . . . . . . . . . . . . . . . . . . . . . . . 4
1.3 Multiplicação de Matrizes . . . . . . . . . . . . . . . . . 8
1.4 O espaço ℝ𝑛 . . . . . . . . . . . . . . . . . . . . . . . . . 11
1.5 O espaço ℂ𝑛 . . . . . . . . . . . . . . . . . . . . . . . . . 13
1.6 Espaços Vetoriais Abstratos . . . . . . . . . . . . . . . . . 14
1.7 Exercícios . . . . . . . . . . . . . . . . . . . . . . . . . . 18

2 Sistemas Lineares e a Inversa de uma Matriz 21


2.1 O Método de Gauss-Jordan . . . . . . . . . . . . . . . . . 21
2.2 Matrizes Elementares e Matriz Inversa . . . . . . . . . . . 35
2.3 Exercícios . . . . . . . . . . . . . . . . . . . . . . . . . . 39

3 Determinantes 42
3.1 A Função Determinante . . . . . . . . . . . . . . . . . . . 42
3.2 A Função Determinante e Operações Elementares . . . . . 44
3.3 Existência da Função Determinante . . . . . . . . . . . . 50
3.4 Matrizes em blocos . . . . . . . . . . . . . . . . . . . . . 53
3.5 A Regra de Cramer . . . . . . . . . . . . . . . . . . . . . 54
3.6 Exercícios . . . . . . . . . . . . . . . . . . . . . . . . . . 55

4 Base e Dimensão 59
4.1 Subespaços . . . . . . . . . . . . . . . . . . . . . . . . . 59
4.2 Base e Dimensão . . . . . . . . . . . . . . . . . . . . . . 69
4.3 Obtenção de Bases . . . . . . . . . . . . . . . . . . . . . 75
4.4 Representação de um Vetor em uma Base . . . . . . . . . 77
4.5 Somas Diretas . . . . . . . . . . . . . . . . . . . . . . . . 79
4.6 Exercícios . . . . . . . . . . . . . . . . . . . . . . . . . . 82

5 Aplicações Lineares 85
5.1 Teorema do Núcleo e da Imagem . . . . . . . . . . . . . . 85
5.2 Aplicações Lineares e Matrizes . . . . . . . . . . . . . . . 90
5.3 Mudanças de base . . . . . . . . . . . . . . . . . . . . . . 95
5.4 Composição e Multiplicação . . . . . . . . . . . . . . . . 100
5.5 Espaço Linha e Espaço Coluna . . . . . . . . . . . . . . . 101
5.6 Sistemas Lineares, Pivôs e Variáveis Livres . . . . . . . . 106
5.7 Exercícios . . . . . . . . . . . . . . . . . . . . . . . . . . 107

iii
6 Produto Interno 111
6.1 Propriedades Básicas . . . . . . . . . . . . . . . . . . . . 111
6.2 Norma . . . . . . . . . . . . . . . . . . . . . . . . . . . . 115
6.3 Bases Ortonormais . . . . . . . . . . . . . . . . . . . . . 119
6.4 Ortogonalização de Gram-Schmidt . . . . . . . . . . . . . 122
6.5 Bases Ortogonais e Aplicações Lineares . . . . . . . . . . 127
6.6 Aplicações Autoadjuntas . . . . . . . . . . . . . . . . . . 128
6.7 Exercícios . . . . . . . . . . . . . . . . . . . . . . . . . . 130

7 Diagonalização 133
7.1 Subespaços Invariantes . . . . . . . . . . . . . . . . . . . 133
7.2 Autovalores e Autovetores . . . . . . . . . . . . . . . . . 134
7.3 Autovetores e Diagonalização . . . . . . . . . . . . . . . 137
7.4 Diagonalização de Matrizes Autoadjuntas . . . . . . . . . 144
7.5 Exercícios . . . . . . . . . . . . . . . . . . . . . . . . . . 150

Índice Remissivo 153


Capítulo 1

Matrizes e Espaços Vetoriais

Objetivos: No final do capítulo o aluno deverá:

1. saber operar com matrizes;

2. saber operar com vetores no espaço 𝕂𝑛 ;

3. entender as diferenças entre um espaço vetorial abstrato e os espaços


𝕂𝑛 ;

4. saber operar com a definição abstrata de espaço vetorial.

1.1 O Corpo dos Números Complexos


Em alguns momentos de nosso curso precisaremos de conhecimentos
básicos sobre os números complexos. A exposição que faremos é comple-
tamente elementar.
O corpo dos números complexos é o conjunto

ℂ = {𝑎 + 𝑏𝑖 ∶ 𝑎, 𝑏 ∈ ℝ},

com as operações de adição e multiplicação definidas por

(𝑎1 + 𝑏1 𝑖) + (𝑎2 + 𝑏2 𝑖) = (𝑎1 + 𝑎2 ) + (𝑏1 + 𝑏2 )𝑖


(𝑎1 + 𝑏1 𝑖)(𝑎2 + 𝑏2 𝑖) = (𝑎1 𝑎2 − 𝑏1 𝑏2 ) + (𝑎1 𝑏2 + 𝑎2 𝑏1 )𝑖,

em que 𝑎1 , 𝑏1 , 𝑎2 , 𝑏2 ∈ ℝ. Usualmente denotaremos números complexos


pela letra 𝑧.
Identificaremos o número complexo 𝑎 + 0𝑖 com o número real 𝑎. Com
isso, o conjunto (corpo) dos números reais torna-se um subconjunto dos
números complexos. Em particular, todo resultado válido para quaisquer
números complexos também será válido para quaisquer números reais.
Denotaremos o número complexo 0 + 𝑏𝑖 simplesmente por 𝑏𝑖; se 𝑏 = 1,
escreveremos apenas 𝑖. (Veja a propriedade (𝑣𝑖𝑖), na sequência.) Decorre
da definição de multiplicação de números complexos que 𝑖2 = −1.
É fácil verificar que as operações acima definidas no conjunto dos nú-
meros complexos satisfazem as seguintes propriedades: se 𝑧1 , 𝑧2 e 𝑧3 são
números complexos quaisquer, então temos:

1
2 CAPÍTULO 1. MATRIZES E ESPAÇOS VETORIAIS

(𝑖) 𝑧1 + 𝑧2 = 𝑧2 + 𝑧1 (comutatividade da adição);

(𝑖𝑖) (𝑧1 + 𝑧2 ) + 𝑧3 = 𝑧1 + (𝑧2 + 𝑧3 ) (associatividade da adição);

(𝑖𝑖𝑖) 𝑧1 + 0 = 𝑧1 (elemento neutro aditivo);

(𝑖𝑣) dado 𝑧1 ∈ ℂ, existe um único 𝑧2 ∈ ℂ tal que 𝑧1 + 𝑧2 = 0 (existência


do simétrico);

(𝑣) 𝑧1 𝑧2 = 𝑧2 𝑧1 (comutatividade da multiplicação);

(𝑣𝑖) (𝑧1 𝑧2 )𝑧3 = 𝑧1 (𝑧2 𝑧3 ) (associatividade da multiplicação);

(𝑣𝑖𝑖) 1𝑧1 = 𝑧1 (elemento neutro multiplicativo);

(𝑣𝑖𝑖𝑖) se 𝑧1 ≠ 0, então existe um único 𝑧2 ∈ ℂ tal que 𝑧1 𝑧2 = 1 (existência


do inverso);

(𝑖𝑥) 𝑧1 (𝑧2 + 𝑧3 ) = 𝑧1 𝑧2 + 𝑧1 𝑧3 (distributividade).

Por causa dessas propriedades, ℂ é chamado corpo. Como mencionamos


anteriormente, essas propriedades são válidas, em particular, para o subcon-
junto dos números reais, que também é um corpo.
Também delas decorre que a multiplicação de números complexos é
feita de maneira “usual”, substituindo 𝑖2 = −1.

Exemplo 1.1 A multiplicação de 𝑧1 = (2 + 𝑖) ∈ ℂ por 𝑧2 = (1 − 2𝑖) é feita


da maneira usual:

𝑧1 𝑧2 = (2 + 𝑖)(1 − 2𝑖) = 2(1 − 2𝑖) + 𝑖(1 − 2𝑖)


= 2 − 4𝑖 + 𝑖 − 2𝑖2 = 2 + 2 − 3𝑖 = 4 − 3𝑖. ⊲

É claro que, se 𝑧1 = 𝑎 + 𝑏𝑖, então seu simétrico é 𝑧2 = −𝑎 − 𝑏𝑖. Por isso,


vamos denotar o simétrico de 𝑧1 por −𝑧1 , ou seja, 𝑧1 + (−𝑧1 ) = 0. A intro-
dução dessa notação nos permite definir a subtração de números complexos:
𝑧1 − 𝑧2 = 𝑧1 + (−𝑧2 ), em que −𝑧2 é o simétrico de 𝑧2 .
Note que a comutatividade da multiplicação de números complexos nos
permite escrever 𝑎 + 𝑏𝑖 = 𝑎 + 𝑖𝑏 para quaisquer 𝑎, 𝑏 ∈ ℝ.
Se 𝑧1 ≠ 0, vamos denotar o único inverso de 𝑧1 por 1/𝑧1 . A unicidade
desse inverso nos permite definir a divisão de um número complexo 𝑧2 pelo
número complexo não nulo 𝑧1 : 𝑧2 /𝑧1 = 𝑧2 (1/𝑧1 ) = (1/𝑧1 )𝑧2 .
Se 𝑧1 ∈ ℂ e 𝑚 ∈ ℕ = {1, 2, …}, definimos

(𝑧1 )𝑚 = 𝑧𝑚
1 = (𝑧 1 𝑧1 … 𝑧 1 )
⏟⏟⏟⏟⏟⏟⏟⏟⏟

𝑚 vezes
É fácil verificar que, se 𝑚, 𝑛 ∈ ℕ, então (𝑧𝑚 𝑛 𝑚𝑛 𝑚 𝑚 𝑚
1 ) = 𝑧1 e (𝑧1 𝑧2 ) = 𝑧1 𝑧2 .
𝑚
Uma vez que 𝑧1 = 0 implica 𝑧1 = 0, podemos definir, para 𝑧1 ≠ 0

𝑧−𝑚 𝑚
1 = 1/𝑧1 .

Se 𝑧1 ≠ 0, uma vez que 𝑧𝑚 𝑚 0


1 /𝑧1 = 1, convencionaremos que 𝑧 = 1 para
todo 𝑧 ∈ ℂ.
1.1. O CORPO DOS NÚMEROS COMPLEXOS 3

Dado um número complexo 𝑧 = 𝑎 + 𝑏𝑖, definimos

ℜ𝔢 𝑧 = 𝑎 ∈ ℝ e ℑ𝔪 𝑧 = 𝑏 ∈ ℝ,

chamados, respectivamente, de parte real e parte imaginária do número


complexo 𝑧.
Agora vamos introduzir duas notações que serão muito úteis. Definimos
o conjugado 𝑧 ̄ do número complexo 𝑧 = 𝑎 + 𝑏𝑖 por

𝑧 ̄ = 𝑎 + 𝑏𝑖 = 𝑎 − 𝑏𝑖 = ℜ𝔢 𝑧 − (ℑ𝔪 𝑧)𝑖

e o valor absoluto do número complexo 𝑧 = 𝑎 + 𝑏𝑖 por

|𝑧| = |𝑎 + 𝑏𝑖| = √𝑎2 + 𝑏2 = √𝑧𝑧.̄

(Note que 𝑧𝑧 ̄ = (𝑎 + 𝑏𝑖)(𝑎 − 𝑏𝑖) = (𝑎2 + 𝑏2 ) + (−𝑎𝑏 + 𝑎𝑏)𝑖 = 𝑎2 + 𝑏2 = |𝑧|2 ,


um número real não negativo.)
Se 𝑧1 = 𝑎1 + 𝑏1 𝑖 e 𝑧2 = 𝑎2 + 𝑏2 𝑖 ≠ 0, então
𝑧1 𝑎 + 𝑏1 𝑖 𝑎1 + 𝑏1 𝑖 𝑎2 − 𝑏2 𝑖
= 1 =
𝑧2 𝑎2 + 𝑏2 𝑖 𝑎2 + 𝑏2 𝑖 𝑎2 − 𝑏2 𝑖
(𝑎 + 𝑏1 𝑖)(𝑎2 − 𝑏2 𝑖) (𝑎1 𝑎2 + 𝑏1 𝑏2 ) + (𝑏1 𝑎2 − 𝑎1 𝑏2 )𝑖
= 1 = .
(𝑎2 + 𝑏2 𝑖)(𝑎2 − 𝑏2 𝑖) 𝑎2 + 𝑏2 2 2

Ou seja, a multiplicação pelo conjugado do denominador transforma a di-


visão de números complexos na divisão de um número complexo por um
número real.

Exemplo 1.2 Para 𝑧1 = 1 + 𝑖 e 𝑧2 = 1 − 2𝑖, temos

𝑧1̄ = 1 − 𝑖
|𝑧2 | = √12 + (−2)2 = √5
𝑧1 1+𝑖 (1 + 𝑖)(1 + 2𝑖) −1 + 3𝑖
= = =
𝑧2 1 − 2𝑖 5 5 ⊲

Exercício 1.1 Mostre que as seguintes propriedades são verdadeiras para quaisquer números com-
plexos:
(a) 𝑧 + 𝑧 ̄ = 2ℜ𝔢 𝑧;
(b) 𝑧 − 𝑧 ̄ = 2(ℑ𝔪 𝑧)𝑖;
(c) 𝑧1 + 𝑧2 = 𝑧1̄ + 𝑧2̄ ;
(d) 𝑧1 𝑧2 = 𝑧1̄ 𝑧2̄ ;
(e) 𝑧 ̄ = 𝑧;
(f) |ℜ𝔢 𝑧| ≤ |𝑧|;
(g) |ℑ𝔪 𝑧| ≤ |𝑧|;
(h) |𝑧| = |𝑧|;
̄
(i) |𝑧1 𝑧2 | = |𝑧1 | |𝑧2 |;
(j) 𝑧1 𝑧2̄ + 𝑧1̄ 𝑧2 = 2ℜ𝔢 (𝑧1 𝑧2̄ ).
4 CAPÍTULO 1. MATRIZES E ESPAÇOS VETORIAIS

Exemplo 1.3 Para quaisquer números 𝑧1 , 𝑧2 ∈ ℂ vale

|𝑧1 + 𝑧2 | ≤ |𝑧1 | + |𝑧2 |.

De fato,

|𝑧1 + 𝑧2 |2 = (𝑧1 + 𝑧2 )(𝑧1 + 𝑧2 ) = (𝑧1 + 𝑧2 )(𝑧1̄ + 𝑧2̄ )


= 𝑧1 𝑧1̄ + 𝑧1 𝑧2̄ + 𝑧2 𝑧1̄ + 𝑧2 𝑧2̄
= |𝑧1 |2 + 𝑧1 𝑧2̄ + 𝑧1 𝑧2̄ + |𝑧2 |2 = |𝑧1 |2 + 2ℜ𝔢 (𝑧1 𝑧2̄ ) + |𝑧2 |2
≤ |𝑧1 |2 + 2|𝑧1 𝑧2̄ | + |𝑧2 |2 = |𝑧1 |2 + 2|𝑧1 | |𝑧2 | + |𝑧2 |2
= (|𝑧1 | + |𝑧2 |)2 .

O resultado é obtido ao se tomar a raiz quadrada em ambos os lados dessa


desigualdade. (Note que estamos tomando a raiz quadrada de números reais
não negativos.) ⊲

Exercício 1.2 Utilizando as propriedades enunciadas no Exercício 1.1, justifique cada passagem
feita no Exemplo anterior.

Definição 1.4 Um número 𝜆 ∈ ℝ ou 𝜆 ∈ ℂ é chamado escalar.

1.2 Matrizes
Uma matriz 𝑚×𝑛 (com 𝑚, 𝑛 ∈ ℕ = {1, 2, …}) é uma tabela de escalares
(reais ou complexos), dispostos em 𝑚 linhas e 𝑛 colunas:

⎛ 𝑎11 𝑎12 ⋯ 𝑎1𝑛 ⎞


⎜𝑎 𝑎22 ⋯ 𝑎2𝑛 ⎟
𝐴 = (𝑎𝑖𝑗 ) = ⎜ 21 (1.1)
⋮ ⋮ ⋱ ⋮ ⎟
⎜ ⎟
𝑎 𝑎
⎝ 𝑚1 𝑚2 ⋯ 𝑎𝑚𝑛 ⎠

O elemento 𝑎𝑖𝑗 é a entrada correspondente à linha 𝑖 e à coluna 𝑗 da matriz 𝐴.


Uma matriz é nula se todas as suas entradas forem iguais a zero. Se todas
as entradas 𝑎𝑖𝑗 da matriz 𝐴 forem reais, dizemos que a matriz 𝐴 é real.
Se existir alguma entrada 𝑎𝑖𝑗 ∈ ℂ ⧵ ℝ, então 𝐴 é uma matriz complexa.
(Observe que, se a entrada 𝑎𝑖𝑗 ∈ ℝ então 𝑎𝑖𝑗 ∈ ℂ.)
Denotaremos por 𝕂 o conjunto (corpo) dos números reais ou o conjunto
(corpo) dos números complexos. Um resultado válido para uma matriz 𝐴
com entradas em 𝕂 vale no caso de 𝐴 ser uma matriz real ou uma matriz
complexa. Note que uma matriz real sempre pode ser considerada uma ma-
triz com entradas complexas!
Se 𝑚 = 𝑛, dizemos que a matriz 𝐴 é quadrada. Por exemplo, é quadrada
a matriz 3 × 3
⎛2 3 5⎞
𝐵 = ⎜ 7 11 13⎟ .
⎜ ⎟
⎝17 19 23⎠
1.2. MATRIZES 5

Dada uma matriz quadrada

⎛𝑎11 𝑎12 ⋯ 𝑎1𝑛 ⎞


⎜𝑎21 𝑎22 ⋯ 𝑎2𝑛 ⎟
⎜⋮ ,
⋮ ⋱ ⋮⎟
⎜ ⎟
⎝𝑎𝑛1 𝑎𝑛2 ⋯ 𝑎𝑛𝑛 ⎠
sua diagonal principal é aquela determinada pelas entradas 𝛼11 , 𝛼22 , … , 𝛼𝑛𝑛 .
Uma matriz quadrada é diagonal se forem nulas todas as entradas fora da
diagonal principal. Uma matriz é triangular superior se todas as entradas
abaixo da diagonal principal forem nulas, isto é, 𝑎𝑖𝑗 = 0 se 𝑖 > 𝑗. Analoga-
mente se define matriz triangular inferior: devemos ter 𝑎𝑖𝑗 = 0 se 𝑖 < 𝑗.
Se 𝑚 = 1, temos uma matriz linha e, se 𝑛 = 1, uma matriz coluna.
Assim, as matrizes

⎛2⎞
𝐶 = (1 2 3 5 7 ) e 𝐷 = ⎜4⎟
⎜ ⎟
⎝8⎠
são, respectivamente, uma matriz linha 1 × 5 e uma matriz coluna 3 × 1.
Matrizes 1 × 1 podem ser identificadas com números em 𝕂.
A transposta de uma matriz 𝐴, que será denotada por 𝐴𝒕 , é obtida de
𝐴 ao trocar sua linha por suas colunas. Sendo mais preciso, se 𝐴 = (𝑎𝑖𝑗 ),
então
𝐴𝒕 = (𝑎𝑗𝑖 ).
Assim, a transposta da matriz 𝐵 (definida anteriormente) é a matriz

⎛2 7 17⎞
𝒕
𝐵 = ⎜3 11 19⎟ ,
⎜ ⎟
⎝5 13 23⎠
enquanto a transposta da matriz coluna 𝐷 (também definida anteriormente)
é a matriz linha
𝐷 𝒕 = (2 4 8 ) .
A conjugada 𝐴̄ de uma matriz 𝐴 é obtida ao se tomar o conjugado de
cada entrada da matriz 𝐴. Por exemplo, se

⎛ 5 𝑖 1 − 𝑖⎞
𝐴 = ⎜ −𝑖 3 3𝑖 ⎟
⎜ ⎟
⎝1 + 𝑖 −3𝑖 2 ⎠
então
⎛ 5 −𝑖 1 + 𝑖⎞
𝐴̄ = ⎜ 𝑖 3 −3𝑖 ⎟ .
⎜ ⎟
⎝1 − 𝑖 3𝑖 2 ⎠
É claro, se 𝐴 for uma matriz real, então 𝐴̄ = 𝐴.
Denotaremos por 𝐴∗ a matriz transposta conjugada da matriz 𝐴: 𝐴∗ =
𝒕̄
𝐴 . No caso da matriz 𝐴 dada acima, temos

⎛ 5 𝑖 1 − 𝑖⎞
𝐴∗ = ⎜ −𝑖 3 3𝑖 ⎟ .
⎜ ⎟
⎝1 + 𝑖 −3𝑖 2 ⎠
6 CAPÍTULO 1. MATRIZES E ESPAÇOS VETORIAIS

Uma matriz é chamada de autoadjunta se 𝐴 = 𝐴∗ . A matriz 𝐴 dada acima


é autoadjunta. Mais geralmente, se 𝐴 = (𝑎𝑖𝑗 ) for autoadjunta, é fácil ver que
devemos ter 𝑎𝑖𝑗 = 𝑎𝑗𝑖 ̄ , para quaisquer 𝑖, 𝑗 (e, em particular, 𝑎𝑖𝑖 ∈ ℝ). Se a
matriz 𝐴 for real, uma matriz autoadjunta também é chamada simétrica.
Uma submatriz de 𝐴 é uma matriz obtida de 𝐴 ao se omitir alguma(s)
de sua(s) linha(s) e/ou coluna(s). Assim,

2 3 5 ⎛3 5⎞
𝐸= 𝐹 = ⎜11 13⎟ e 𝐺 = (3)
(7 11 13) ⎜ ⎟
⎝19 23⎠
são submatrizes de 𝐵 (dada anteriormente): em 𝐸, a terceira linha de 𝐵 foi
omitida; em 𝐹, a primeira coluna; e, em 𝐺, a segunda e terceira linhas, bem
como a primeira e terceira colunas.

Exercício 1.3 Considerando as matrizes definidas anteriormente,


(𝑖) escreva todas as submatrizes da matriz 𝐵;
(𝑖𝑖) Escreva as transpostas das matrizes 𝐶, 𝐸, 𝐹, 𝐺 e 𝐵 𝒕 .

Mas uma matriz pode ser concebida de duas outras maneiras: como uma
linha de matrizes coluna ou como uma coluna de matrizes linha. Assim, a
matriz 𝐴 que antes definimos pode ser entendida nas formas

⎛ ℓ1 ⎞
𝐴 = (𝒄1 𝒄2 … 𝒄𝑛 ) = ⎜ ⋮ ⎟ , (1.2)
⎜ ⎟
⎝ℓ𝑚 ⎠
em que
⎛ 𝑎1𝑗 ⎞
𝒄𝑗 = ⎜ ⋮ ⎟ e ℓ𝑖 = (𝑎𝑖1 𝑎𝑖2 ⋯ 𝑎𝑖𝑛 ).
⎜ ⎟
⎝𝑎𝑚𝑗 ⎠
Como veremos na sequência, cada coluna 𝒄𝑗 poderá ser interpretada como
um vetor do espaço 𝕂𝑚 , enquanto as linhas ℓ𝑖 podem ser interpretadas como
vetores do espaço 𝕂𝑛 .

Definição 1.5 Sejam 𝐴 = (𝑎𝑖𝑗 ) e 𝐵 = (𝑏𝑖𝑗 ) matrizes 𝑚 × 𝑛. Definimos a


soma de matrizes 𝐴 + 𝐵 e a multiplicação 𝜆𝐴 da matriz 𝐴 pelo escalar 𝜆
por
𝐴 + 𝐵 = (𝑎𝑖𝑗 + 𝑏𝑖𝑗 ) e 𝜆𝐴 = (𝜆𝑎𝑖𝑗 ).
Em palavras, a matriz 𝐴+𝐵 é obtida ao somar as entradas correspondentes
das matrizes 𝐴 e 𝐵 e a matriz 𝜆𝐴 é obtida ao multiplicar cada entrada
de 𝐴 pelo escalar 𝜆. Com essas operações, o conjunto das matrizes 𝑚 ×
𝑛 é denotado por 𝕄𝑚×𝑛 ou, mais detalhadamente, 𝕄𝑚×𝑛 (𝕂). Quando for
importante ressaltar que 𝐴 é uma matriz real ou complexa, escreveremos
𝐴 ∈ 𝕄𝑚×𝑛 (ℝ) ou 𝐴 ∈ 𝕄𝑚×𝑛 (ℂ), respectivamente.

Dizemos que 𝐴 = (𝑎𝑖𝑗 ) ∈ 𝕄𝑚×𝑛 e 𝐵 = (𝑏𝑖𝑗 ) ∈ 𝕄𝑚×𝑛 são iguais se


𝑎𝑖𝑗 = 𝑏𝑖𝑗 para todos 𝑖 ∈ {1, … , 𝑚} e 𝑗 ∈ {1, … , 𝑛}.
1.2. MATRIZES 7

Exercício 1.4 Sejam


⎛1 2 3⎞ ⎛𝑏 2 3⎞
𝐴 = ⎜3 2 1⎟ e 𝐵 = ⎜3 𝑐 𝑑 ⎟ .
⎜ ⎟ ⎜ ⎟
⎝1 𝑎 7⎠ ⎝1 1 7 ⎠
Determine os valores de 𝑎, 𝑏, 𝑐, 𝑑 ∈ ℝ de modo que as matrizes 𝐴 e 𝐵 sejam iguais.

Exemplo 1.6 Considere as matrizes 2 × 3

1 𝜋 𝑒3 √5 1 3
𝐴= e 𝐵= .
(2 √2 1 ) ( 1 √2 𝑖 )

Então

1 + √5 1 + 𝜋 3 + 𝑒 3 𝜋 𝜋 2 𝜋𝑒3
𝐴+𝐵 = e 𝜋𝐴 = .
( 3 2√2 1 + 𝑖 ) (2𝜋 √2𝜋 𝜋 )

Teorema 1.7 Para quaisquer 𝐴, 𝐵, 𝐶 ∈ 𝕄𝑚×𝑛 (𝕂) e 𝜆, 𝜇 ∈ 𝕂, as seguintes


propriedades são satisfeitas

(𝑖) 𝐴 + 𝐵 ∈ 𝕄𝑚×𝑛 (fechamento da soma);

(𝑖𝑖) (𝐴 + 𝐵) + 𝐶 = 𝐴 + (𝐵 + 𝐶) (associatividade da soma);

(𝑖𝑖𝑖) 𝐴 + 𝐵 = 𝐵 + 𝐴 (comutatividade da soma);

(𝑖𝑣) existe 0 ∈ 𝕄𝑚×𝑛 tal que 𝐴 + 0 = 0 + 𝐴 (elemento neutro aditivo);

(𝑣) existe (−𝐴) ∈ 𝕄𝑚×𝑛 tal que 𝐴 + (−𝐴) = 0 (elemento simétrico);

(𝑣𝑖) 𝜆𝐴 ∈ 𝕄𝑚×𝑛 (fechamento da multiplicação por escalar);

(𝑣𝑖𝑖) 𝜇(𝜆𝐴) = (𝜇𝜆)𝐴 (associatividade da multiplicação por escalar);

(𝑣𝑖𝑖𝑖) 𝜆(𝐴 + 𝐵) = 𝜆𝐴 + 𝜆𝐵 (distributividade da multiplicação por escalar);

(𝑖𝑥) (𝜆 + 𝜇)𝐴 = 𝜆𝐴 + 𝜇𝐴 (distributividade da soma de escalares);

(𝑥) 1𝐴 = 𝐴 (regra da unidade).

A verificação de que todas essas propriedades são válidas em 𝕄𝑚×𝑛 (𝕂) é


simples. É claro que 0 ∈ 𝕄𝑚×𝑛 é a matriz nula (isto é, a matriz com todas
as entradas iguais a zero) e (−𝐴) a matriz cujas entradas são os simétricos
das entradas de 𝐴. Denotaremos 𝐴 − 𝐵 = 𝐴 + (−𝐵), o que introduz a
subtração de matrizes.
Exercício 1.5 Demonstre o Teorema 1.7.
8 CAPÍTULO 1. MATRIZES E ESPAÇOS VETORIAIS

1.3 Multiplicação de Matrizes


Consideremos duas matrizes 𝐴 e 𝐵. Se o número de colunas de 𝐴 for
igual ao número de linhas de 𝐵, é possível definir uma multiplicação de
matrizes. Sendo mais preciso, considere as matrizes 𝐴, 𝑚 × 𝑛, e 𝐵, 𝑛 × 𝑝.
Então seu produto 𝐶 = 𝐴𝐵 é definido como sendo a matriz 𝑚 × 𝑝 cuja
entrada 𝑐𝑖𝑗 satisfaz

𝑐𝑖𝑗 = 𝑎𝑖1 𝑏1𝑗 + 𝑎𝑖2 𝑏2𝑗 + … + 𝑎𝑖𝑛 𝑏𝑛𝑗 , (1.3)


para 𝑖 ∈ {1, … , 𝑚} e 𝑗 ∈ {1, … , 𝑝}.
A igualdade (1.3) pode ser abreviada utilizando a notação de somatório:
𝑛
𝑐𝑖𝑗 = ∑ 𝑎𝑖𝑘 𝑏𝑘𝑗 , (1.4)
𝑘=1

que é lida como somatório com 𝑘 variando de 1 até 𝑛 de 𝑎𝑖𝑘 𝑏𝑘𝑗 . O símbolo
∑𝑛𝑘=1 indica uma soma de 𝑛 parcelas, obtidas ao variar o índice 𝑘 de 1 até
𝑛.
⎛ 𝑎11 𝑎12 … 𝑎1𝑛 ⎞ 𝑏11 … 𝑏1𝑗 … 𝑏1𝑝
⎜ ⋮ ⋮ ⋮ ⎟⎛ ⎞
⎜ 𝑎𝑖1 𝑎𝑖2 … 𝑎𝑖𝑛 ⎟ ⎜ ⎜ 𝑏21 … 𝑏2𝑗 … 𝑏 2𝑝 ⎟
.
⎜ ⎟⎜ ⋮ ⋮ ⋮⎟

⎜ ⋮ ⋮ ⋮ ⎟
⎝𝑏𝑛1 … 𝑏𝑛𝑗 … 𝑏𝑛𝑝 ⎠
𝑎 𝑎
⎝ 𝑚1 𝑚2 … 𝑎 𝑚𝑛 ⎠
Entradas correspondentes da linha 𝑖 de 𝐴 e coluna 𝑗 de 𝐵 são multiplicadas
e todos esses produtos então somados.

Exemplo 1.8 Consideremos as matrizes 𝐴 e 𝐵

⎛1 2 3 4⎞
−1 2 √2
𝐴= e 𝐵 = ⎜2 2 2 2⎟ .
( 𝜋 1 2 ) ⎜ ⎟
⎝4 3 2 1⎠
Como o número de colunas de 𝐴 é igual ao número de linhas de 𝐵, o produto
𝐴𝐵 está definido e resulta em uma matriz 2 × 4:

3 + 4√2 2 + 3√2 1 + 2√2 √2


𝐴𝐵 = .
( 10 + 𝜋 8 + 2𝜋 6 + 3𝜋 4 + 4𝜋 ) ⊲

Note que, no exemplo anterior, o produto 𝐵𝐴 não está definido. Em


casos que 𝐴𝐵 e 𝐵𝐴 estão ambos definidos, não temos, em geral, 𝐴𝐵 = 𝐵𝐴.
Exemplo 1.9 Consideremos as matrizes quadradas

1 1 1 1
𝐴= e 𝐵= .
(1 1) (−1 −1)

Então temos
0 0 2 2
𝐴𝐵 = e 𝐵𝐴 = ,
(0 0) (−2 −2)

mostrando que 𝐴𝐵 ≠ 𝐵𝐴. Note, em particular, que podemos ter 𝐴𝐵 = 0


sem termos 𝐴 = 0 ou 𝐵 = 0. ⊲
1.3. MULTIPLICAÇÃO DE MATRIZES 9

Exercício 1.6 Seja 𝐴 uma matriz 𝑛 × 𝑛. Suponha que estejam definidos os produtos 𝐴𝐵 e 𝐵𝐴.
Justifique: 𝐵 também é uma matriz 𝑛 × 𝑛.

Observação 1.10 O produto de duas matrizes, quando possível, tem uma


definição aparentemente esdrúxula. No Capítulo 5 mostraremos que essa
definição é inteiramente natural. ⊲

Definição 1.11 A matriz 𝑛 × 𝑛

⎛1 0 ⋯ 0⎞
⎜0 1 ⋯ 0⎟
I𝑛 = ⎜
⋮ ⋮ ⋱ ⋮⎟
⎜ ⎟
⎝0 0 ⋯ 1⎠

é chamada matriz identidade 𝑛 × 𝑛. Muitas vezes denotaremos I𝑛 simples-


mente por I.

Proposição 1.12 Sejam 𝐴, 𝐵 e 𝐶 matrizes e 𝜆 um escalar. Suponha que as


operações abaixo sejam possíveis. Então vale:
(𝑖) (𝐴 + 𝐵)𝐶 = 𝐴𝐶 + 𝐵𝐶 (distributividade);

(𝑖𝑖) 𝐴(𝐵 + 𝐶) = 𝐴𝐵 + 𝐴𝐶 (distributividade);

(𝑖𝑖𝑖) (𝐴𝐵)𝐶 = 𝐴(𝐵𝐶) (associatividade);

(𝑖𝑣) Seja 𝐴 uma matriz 𝑚 × 𝑛. Então 𝐴I𝑛 = I𝑚 𝐴 = 𝐴 (existência das


identidades laterais);

(𝑣) 𝜆(𝐴𝐵) = (𝜆𝐴)𝐵 = 𝐴(𝜆𝐵).

Demonstração: Suponhamos que 𝐴 e 𝐵 sejam matrizes 𝑚 × 𝑛 e 𝐶 seja uma


matriz 𝑛 × 𝑝. Denotemos por 𝐷 = (𝑑𝑖𝑗 ) a matriz (𝐴 + 𝐵)𝐶. Então1
𝑛
𝑑𝑖𝑗 = ∑(𝐴 + 𝐵)𝑖𝑘 𝑐𝑘𝑖 = (𝐴 + 𝐵)𝑖1 𝑐1𝑗 + (𝐴 + 𝐵)𝑖2 𝑐2𝑗 + … + (𝐴 + 𝐵)𝑖𝑛 𝑐𝑛𝑖
𝑘=1
𝑛
= ∑ (𝑎𝑖𝑘 + 𝑏𝑖𝑘 ) 𝑐𝑘𝑗 = (𝑎𝑖1 + 𝑏𝑖1 ) 𝑐1𝑗 + (𝑎𝑖2 + 𝑏𝑖2 ) 𝑐2𝑗 + … + (𝑎𝑖𝑛 + 𝑏𝑖𝑛 ) 𝑐𝑛𝑗
𝑘=1
𝑛
= ∑ (𝑎𝑖𝑘 𝑐𝑘𝑗 + 𝑏𝑖𝑘 𝑐𝑘𝑗 ) = (𝑎𝑖1 𝑐1𝑗 + 𝑏𝑖1 𝑐1𝑗 ) + … + (𝑎𝑖𝑛 𝑐𝑛𝑗 + 𝑏𝑖𝑛 𝑐𝑛𝑗 )
𝑘=1
𝑛 𝑛
= ∑ 𝑎𝑖𝑘 𝑐𝑘𝑗 + ∑ 𝑏𝑖𝑘 𝑐𝑘𝑗 = (𝑎𝑖1 𝑐1𝑗 + … + 𝑎𝑖𝑛 𝑐𝑛𝑗 ) + (𝑏𝑖1 𝑐1𝑗 + … + 𝑏𝑖𝑛 𝑐𝑛𝑗 )
𝑘=1 𝑘=1
= 𝐴𝐶 + 𝐵𝐶.

A prova da afirmação (𝑖𝑖) é análoga e será deixada como exercício.


1
A primeira igualdade utiliza a notação de somatório; a segunda igualdade escreve esse
somatório por extenso. É possível entender a demonstração sem ler a igualdade envolvendo
o somatório.
10 CAPÍTULO 1. MATRIZES E ESPAÇOS VETORIAIS

Suponhamos que as matrizes 𝐴 = (𝑎𝑖𝑗 ), 𝐵 = (𝑏𝑖𝑗 ) e 𝐶 = (𝑐𝑖𝑗 ) sejam,


respectivamente, 𝑚 × 𝑛, 𝑛 × 𝑝 e 𝑝 × 𝑟. Então
𝑝 𝑝 𝑛
((𝐴𝐵)𝐶)𝑖𝑗 = ∑(𝐴𝐵)𝑖𝑘 𝑐𝑘𝑗 = ∑ ∑ 𝑎𝑖ℓ 𝑏ℓ𝑘 𝑐𝑘𝑗
𝑘=1
(
𝑘=1 ℓ=1
)
𝑛 𝑝 𝑛
= ∑ 𝑎𝑖ℓ ∑ 𝑏ℓ𝑘 𝑐𝑘𝑗 = ∑ 𝑎𝑖ℓ (𝐵𝐶)ℓ𝑗
ℓ=1
(𝑘=1 ) ℓ=1
= (𝐴(𝐵𝐶))𝑖𝑗 .

Suponhamos que 𝐴 seja uma matriz 𝑚 × 𝑛 qualquer. Então

⎛1 0 ⋯ 0⎞
⎜0 1 ⋯ 0⎟
I𝑚 = ⎜
⋮ ⋮ ⋱ ⋮⎟
⎜ ⎟
⎝0 0 ⋯ 1⎠

satisfaz I𝑚 𝐴 = 𝐴, como verificamos facilmente. A igualdade 𝐴I𝑛 é análoga.


Deixaremos a demonstração de (𝑣) como Exercício. 

Exercício 1.7 Explicite condições para que cada um dos itens da Proposição 1.12 esteja bem de-
finido.
Exercício 1.8 Escreva por extenso (tal qual feito na prova da primeira afirmação da Proposição
1.12) os somatórios envolvidos na demonstração da associatividade da multiplicação de matrizes.
Exercício 1.9 Demonstre a propriedade (𝑣) da Proposição 1.12.

Observação 1.13 Sem uma boa experiência com o uso de somatórios, a


prova da associatividade do produto de matrizes é difícil de acompanhar. O
Exercício 1.8 pode ajudar na compreensão desta prova. Contudo, na Seção
5.4, justificaremos a definição da multiplicação de matrizes e apresenta-
remos uma demonstração independente da associatividade do produto de
matrizes. ⊲

Para toda matriz 𝐴, 𝑛 × 𝑛, temos I = I𝑛 satisfaz 𝐴I = I𝐴 = 𝐴. Mas


pode existir outra matriz 𝐽 satisfazendo essa propriedade para toda matriz
𝐴? (Note que, necessariamente, 𝐽 deve ser uma matriz 𝑛 × 𝑛.) A resposta é
negativa. Sendo mais preciso, se tivéssemos 𝐴I = I𝐴 = 𝐴 e 𝐴𝐽 = 𝐽 𝐴 = 𝐴
para toda matriz 𝐴 ∈ 𝕄𝑛×𝑛 , então I = 𝐽. De fato, escolhendo 𝐴 = 𝐽 na
primeira identidade, temos

𝐽I = I𝐽 = 𝐽 .

Por outro lado, escolhendo 𝐴 = I na segunda identidade, temos

I𝐽 = 𝐽I = I,

o que nos força a concluir que I = 𝐽.


1.4. O ESPAÇO ℝ𝑁 11

Definição 1.14 Seja 𝐴 uma matriz 𝑛 × 𝑛. Dizemos que 𝐴 é invertível, se


existir uma matriz 𝐵 tal que

𝐴𝐵 = 𝐵𝐴 = I, (1.5)

em que I denota a matriz identidade. Denotamos 𝐵 = 𝐴−1 e chamamos


𝐴−1 de inversa da matriz 𝐴.

Supondo 𝐴 invertível, ao denotar 𝐵 = 𝐴−1 , a definição anterior assume


que existe uma única matriz 𝐵 satisfazendo 𝐴𝐵 = 𝐵𝐴 = I. Vamos provar
esse fato. Se tivermos 𝐴𝐵 = 𝐵𝐴 = I e 𝐴𝐶 = 𝐶𝐴 = I, decorre das
igualdades anteriores e da associatividade do produto de matrizes que

𝐵 = 𝐵I = 𝐵(𝐴𝐶) = (𝐵𝐴)𝐶 = I𝐶 = 𝐶,

garantindo a unicidade da inversa de 𝐴. Assim, escrevemos a igualdade


(1.5) na forma
𝐴𝐴−1 = 𝐴−1 𝐴 = I,
−1
que nos diz também que a inversa de 𝐴−1 é igual a 𝐴, isto é, (𝐴−1 ) = 𝐴.

Lema 1.15 Suponhamos que 𝐴, 𝐵 ∈ 𝕄𝑛×𝑛 sejam matrizes invertíveis. En-


tão 𝐴𝐵 é invertível e (𝐴𝐵)−1 = 𝐵 −1 𝐴−1 .

Demonstração: Basta notar que (𝐴𝐵)(𝐵 −1 𝐴−1 ) = 𝐼 = (𝐵 −1 𝐴−1 )(𝐴𝐵). 

A demonstração simples do lema anterior não deixa transparecer como


se encontrou a expressão para (𝐴𝐵)−1 . Mas, supondo 𝐴𝐵 invertível, te-
mos (𝐴𝐵)(𝐴𝐵)−1 = 𝐼. Multiplicando essa expressão por 𝐴−1 pelo lado
esquerdo, obtemos 𝐵(𝐴𝐵)−1 = 𝐴−1 . Multiplicando então por 𝐵 −1 pela
esquerda, chegamos ao resultado.
No Capítulo 2 aprenderemos a calcular a inversa de uma matriz qua-
drada, se essa existir.

1.4 O espaço ℝ𝑛
Fixe 𝑛 ∈ ℕ = {1, 2, …}. Definimos o conjunto ℝ𝑛 por

ℝ𝑛 = {𝒙 = (𝑥1 , 𝑥2 , … , 𝑥𝑛 ) ∶ 𝑥𝑖 ∈ ℝ} .

Nesse conjunto, definimos duas operações: para 𝒙 = (𝑥1 , … , 𝑥𝑛 ) ∈ ℝ𝑛 ,


𝒚 = (𝑦1 , … , 𝑦𝑛 ) ∈ ℝ𝑛 e 𝛼 ∈ ℝ, definimos:

𝒙 + 𝒚 = (𝑥1 + 𝑦1 , … , 𝑥𝑛 + 𝑦𝑛 ) (1.6)
𝛼𝒙 = (𝛼𝑥1 , … , 𝛼𝑥𝑛 ). (1.7)

Com essas operações, o conjunto ℝ𝑛 é chamado espaço vetorial e seus ele-


mentos são chamados de vetores ou pontos. Por outro lado, números reais
são chamados escalares. Observe que, quando 𝑛 = 1, podemos considerar
𝑥 ∈ ℝ tanto como um vetor quanto como um escalar.
12 CAPÍTULO 1. MATRIZES E ESPAÇOS VETORIAIS

Sinteticamente, dizemos que ℝ𝑛 possui uma adição (de vetores) e uma


multiplicação (de vetor) por escalar.
Em geral, denotaremos escalares por letras minúsculas, gregas ou lati-
nas (𝛼, 𝛽, 𝑥, 𝑦 etc) e vetores por letras latinas minúsculas em negrito (𝒙,
𝒚, 𝒖, 𝒗, 𝒘 etc). Dado 𝒙 = (𝑥1 , … , 𝑥𝑛 ) ∈ ℝ𝑛 , os escalares 𝑥𝑖 são as coorde-
nadas de 𝒙. O número de coordenadas do vetor 𝒙 dependerá do problema
considerado; mas ele pode ser associado ao número de incógnitas 𝑛 em um
sistema linear, veja o Exemplo 2.2, no próximo capítulo. Os casos 𝑛 = 1,
𝑛 = 2 e 𝑛 = 3 correspondem a pontos da reta real, do plano e do espaço,
respectivamente. Ao mostrarmos que algum resultado é válido para o ℝ𝑛
(com 𝑛 fixo, mas arbitrário), esse resultado será verdadeiro para qualquer
valor de 𝑛 ∈ {1, 2, …}.
A denominação de vetor para os elementos do ℝ𝑛 tem por base o se-
guinte resultado, que resulta imediatamente da maneira que as operações
no ℝ𝑛 foram definidas.
Teorema 1.16 Para quaisquer 𝒙, 𝒚, 𝒛 ∈ ℝ𝑛 e 𝛼, 𝛽 ∈ ℝ, as seguintes pro-
priedades são satisfeitas
(𝑖) 𝒙 + 𝒚 ∈ ℝ𝑛 (fechamento);
(𝑖𝑖) (𝒙 + 𝒚) + 𝒛 = 𝒙 + (𝒚 + 𝒛) (associatividade);
(𝑖𝑖𝑖) 𝒙 + 𝒚 = 𝒚 + 𝒙 (comutatividade);
(𝑖𝑣) existe 0 ∈ ℝ𝑛 tal que 𝒙 + 0 = 𝒙 (elemento neutro);
(𝑣) existe (−𝒙) ∈ ℝ𝑛 tal que 𝒙 + (−𝒙) = 0 (inverso aditivo);
(𝑣𝑖) 𝛼𝒙 ∈ ℝ𝑛 (fechamento);
(𝑣𝑖𝑖) 𝛽(𝛼𝒙) = (𝛽𝛼)𝒙 (associatividade);
(𝑣𝑖𝑖𝑖) 𝛼(𝒙 + 𝒚) = 𝛼𝒙 + 𝛼𝒚 (distributividade);
(𝑖𝑥) (𝛼 + 𝛽)𝒙 = 𝛼𝒙 + 𝛽𝒙 (distributividade);
(𝑥) 1𝒙 = 𝒙 (regra da unidade).
A verificação de que todas essas propriedades são válidas no espaço ℝ𝑛 é
muito simples e será deixada como exercício. (Se você tiver dificuldades,
fixe 𝑛 = 3 - por exemplo - e então as verifique.) É claro que 0 = (0, … , 0).
Assim, as propriedades (𝑖𝑣) e (𝑥) parecem óbvias e, portanto, supérfluas;
isso é verdade no caso do espaço ℝ𝑛 , mas não em um contexto mais geral,
como veremos na Seção 1.6.

Exemplo 1.17 Afirmamos que vale


0𝒙 = 0, para todo 𝒙 ∈ ℝ𝑛 . (1.8)
Quer dizer, o escalar 0 multiplicado por qualquer vetor 𝒙 ∈ ℝ𝑛 sempre re-
sulta no vetor 0. A verificação de (1.8) decorre imediatamente da definição
de multiplicação de um vetor por um escalar: se 𝒙 = (𝑥1 , 𝑥2 , … , 𝑥𝑛 ) ∈ ℝ𝑛
é um vetor qualquer, então
0𝒙 = 0(𝑥1 , 𝑥2 … , 𝑥𝑛 ) = (0𝑥1 , 0𝑥2 , … , 0𝑥𝑛 ) = (0, 0, … , 0) = 0. ⊲
1.5. O ESPAÇO ℂ𝑁 13

Utilizaremos corriqueiramente a identicação

⎛𝑥1 ⎞
⎜𝑥 ⎟
𝒙 = (𝑥1 , … , 𝑥𝑛 ) ∈ ℝ𝑛 ↔ ⎜ 2 ⎟ ∈ 𝕄𝑛×1 (ℝ) (1.9)

⎜ ⎟
⎝ 𝑥𝑛 ⎠

que permite interpretar um vetor do ℝ𝑛 como uma matriz coluna.2 Em al-


guns casos também utilizaremos a identificação

𝒙 = (𝑥1 , … , 𝑥𝑛 ) ∈ ℝ𝑛 ↔ (𝑥1 𝑥2 … 𝑥𝑛 ) ∈ 𝕄1×𝑛 (ℝ) (1.10)

que interpreta vetores do ℝ𝑛 como matrizes linha. Observe que, em ambos


os casos, as operações definidas no ℝ𝑛 correspondem às operações de soma
de matrizes e multiplicação de matriz por escalar. Mais geralmente, muitas
vezes identificaremos vetores do ℝ𝑛 com colunas (respectivamente, linhas)
de uma matriz com 𝑛 linhas (respectivamente, 𝑛 colunas)!

1.5 O espaço ℂ𝑛
De maneira semelhante à definição do espaço ℝ𝑛 , definimos o conjunto
ℂ𝑛 por
ℂ𝑛 = {𝒛 = (𝑧1 , 𝑧2 , … , 𝑧𝑛 ) ∶ 𝑧𝑖 ∈ ℂ} .

Nesse conjunto, definimos duas operações: para 𝒛 = (𝑧1 , … , 𝑧𝑛 ) ∈ ℂ𝑛 ,


𝒘 = (𝑤1 , … , 𝑤𝑛 ) ∈ ℂ𝑛 e 𝛽 ∈ ℂ, definimos:

𝒛 + 𝒘 = (𝑧1 + 𝑤1 , … , 𝑧𝑛 + 𝑤𝑛 ) (1.11)
𝛽𝒛 = (𝛽𝑧1 , … , 𝛽𝑧𝑛 ). (1.12)

Com essas operações, o conjunto ℂ𝑛 é chamado espaço vetorial e seus ele-


mentos são chamados de vetores ou pontos. Por outro lado, números com-
plexos são chamados escalares.
No Teorema 1.16, se substituirmos os vetores 𝒙, 𝒚, 𝒛 ∈ ℝ𝑛 por vetores
𝒖, 𝒗, 𝒘 ∈ ℂ𝑛 e os escalares 𝛼, 𝛽 ∈ ℝ por escalares 𝛼, 𝛽 ∈ ℂ, é fácil verificar
o mesmo resultado permanece válido. (Também esse resultado justifica a
denominação de espaço vetorial para ℂ𝑛 .)

Exercício 1.10 Mostre que tomando vetores em ℂ𝑛 e escalares em ℂ, todas as propriedades listadas
no Teorema 1.16 continuam válidas.
Sintetizando, um vetor no ℝ𝑛 ou no ℂ𝑛 é uma 𝑛-upla 𝒖 = (𝑢1 , 𝑢2 , … , 𝑢𝑛 ),
com 𝑢𝑖 ∈ ℝ ou 𝑢𝑖 ∈ ℂ, respectivamente. Como antes, o escalar 𝑢𝑖 é a 𝑖-
ésima coordenada do vetor 𝒖; a adição de vetores é feita somando-se as
coordenadas correspondentes; a multiplicação de um vetor por escalar (isto
é, um elemento do corpo 𝕂) é feita multiplicando-se o escalar por cada co-
ordenada do vetor. Assim, as propriedades do ℝ𝑛 (respectivamente, ℂ𝑛 ) que
2
Essa identificação será justificada inicialmente no Capítulo 2, mas também em capítulos
subsequentes.
14 CAPÍTULO 1. MATRIZES E ESPAÇOS VETORIAIS

o definem como espaço vetorial decorrem de propriedades de ℝ (respecti-


vamente, ℂ).
Para nos referirmos indistintamente aos espaços vetoriais ℝ𝑛 e ℂ𝑛 , de-
notaremos esses espaços por 𝕂𝑛 , conforme os escalares considerados este-
jam em 𝕂 = ℝ ou 𝕂 = ℂ, respectivamente. A nossa ênfase sempre será o
espaço ℝ𝑛 , mas algumas propriedades importantes dependerão de lidarmos
com escalares no corpo ℂ. Resultados mostrados para o 𝕂𝑛 serão válidos
tanto para o ℝ𝑛 quanto para o ℂ𝑛 .
Como no caso do ℝ𝑛 , identificaremos vetores 𝒙 ∈ ℂ𝑛 com matrizes
coluna em 𝕄𝑛×1 (ℂ) e, algumas vezes, com matrizes linha em 𝕄1×𝑛 (ℂ).

1.6 Espaços Vetoriais Abstratos


Considerando as propriedades satisfeitas pelo ℝ𝑛 (Teorema 1.16) e pelo
ℂ𝑛 (análogo do Teorema 1.16), podemos definir abstratamente um espaço
vetorial. Lembramos que 𝕂 denota seja o corpo dos reais, seja o corpo dos
complexos.

Definição 1.18 Um espaço vetorial 𝑋 sobre o corpo 𝕂 é um conjunto cu-


jos elementos (chamados vetores) podem ser somados e multiplicados por
escalares, isto é, elementos3 do corpo 𝕂. Para quaisquer 𝒙, 𝒚, 𝒛 ∈ 𝑋 e
𝛼, 𝛽 ∈ 𝕂, as seguintes propriedades devem ser satisfeitas pela adição e
multiplicação por escalar:

(𝑖) 𝒙 + 𝒚 ∈ 𝑋 (fechamento);

(𝑖𝑖) (𝒙 + 𝒚) + 𝒛 = 𝒙 + (𝒚 + 𝒛) (associatividade);

(𝑖𝑖𝑖) 𝒙 + 𝒚 = 𝒚 + 𝒙 (comutatividade);

(𝑖𝑣) para todo 𝒙 ∈ 𝑋, existe 0 ∈ 𝑋 tal que 𝒙 + 0 = 𝒙 (elemento neutro);

(𝑣) para cada 𝑥 ∈ 𝑋, existe (−𝒙) ∈ 𝑋 tal que 𝒙 + (−𝒙) = 0 (inverso


aditivo);

(𝑣𝑖) 𝛼𝒙 ∈ 𝑋 (fechamento);

(𝑣𝑖𝑖) 𝛽(𝛼𝒙) = (𝛽𝛼)𝒙 (associatividade);

(𝑣𝑖𝑖𝑖) 𝛼(𝒙 + 𝒚) = 𝛼𝒙 + 𝛼𝒚 (distributividade);

(𝑖𝑥) (𝛼 + 𝛽)𝒙 = 𝛼𝒙 + 𝛽𝒙 (distributividade);

(𝑥) 1𝒙 = 𝒙 (regra da unidade).

3
Mais geralmente, se você conhece o conceito abstrato de corpo, podemos tomar os
escalares em um corpo qualquer, mas isto está além de nossos propósitos neste curso.
1.6. ESPAÇOS VETORIAIS ABSTRATOS 15

Observação 1.19 Repetindo, um conjunto 𝑋 é um espaço vetorial apenas


se nele estiverem definidas operações de adição de vetores e multiplicação
por escalar satisfazendo as propriedades listadas no Teorema 1.18.
Se o corpo considerado no espaço vetorial 𝑋 for o corpo 𝕂 = ℝ, te-
mos um espaço vetorial real; se tivermos 𝕂 = ℂ, temos um espaço vetorial
complexo. Ao escrevermos que 𝑋 é um espaço vetorial, deixaremos suben-
tendido que 𝑋 é um espaço vetorial sobre o corpo 𝕂, em que 𝕂 = ℝ ou
𝕂 = ℂ. ⊲

Note que a definição anterior apenas relaciona propriedades das opera-


ções definidas no conjunto 𝑋, mas detalhes do conjunto 𝑋 não são conheci-
dos. Assim, em particular, não podemos assumir que um vetor em 𝑋 possua
“coordenadas” semelhantes às de um vetor no ℝ𝑛 ou ℂ𝑛 . Veja o Exemplo
1.24, que apresentaremos na sequência.
Em todos a continuação, se isso facilitar a compreensão, você pode as-
sumir que 𝕂 = ℝ.
Exemplo 1.20 Seja 𝒫𝑛 (𝑡) = {𝑎0 + 𝑎1 𝑡 + … + 𝑎𝑛−1 𝑡𝑛−1 } o conjunto de
polinômios em 𝑡 com coeficientes 𝑎𝑖 ∈ 𝕂 e grau menor do que ou igual a
𝑛 − 1, em que 𝑛 ∈ ℕ = {1, 2, …} está fixo. (Estamos considerando que
o polinômio identicamente nulo tem grau −∞, de modo que ele faz parte
desse conjunto.) Por exemplo, se 𝑛 = 3, então 𝒫3 (𝑡) é o conjunto de todos
os polinômios cujo grau é menor do que ou igual a 2: se 𝒑 ∈ 𝒫3 (𝑡), então
𝒑(𝑡) = 𝑎0 + 𝑎1 𝑡 + 𝑎2 𝑡2 para certos escalares 𝑎0 , 𝑎1 , 𝑎2 ∈ 𝕂.
Com a adição usual de polinômios e a multiplicação de polinômio por
um escalar em 𝕂, 𝒫𝑛 (𝑡) é um espaço vetorial, pois as operações mencionadas
satisfazem todas as propriedades listadas na Definição 1.18. ⊲

Exercício 1.11 Verifique a afirmação do Exemplo 1.20.

Exemplo 1.21 Seja 𝕄𝑚×𝑛 o conjunto de todas as matrizes 𝑚×𝑛 tendo como
entradas escalares no corpo 𝕂. Com a adição de matrizes e multiplicação
de uma matriz por um escalar 𝛽 ∈ 𝕂 usuais, 𝕄𝑚×𝑛 é um espaço vetorial, de
acordo com o Teorema 1.7. ⊲

De certa forma, o Exemplo 1.20 é “semelhante” ao 𝕂𝑛 . Conhecendo


todos os coeficientes associados aos monômios 𝑡𝑘 (0 ≤ 𝑘 ≤ 𝑛 − 1) de um
polinômio em 𝒫𝑛 (𝑡), temos este polinômio; assim, podemos identificar cada
polinômio com um vetor do 𝕂𝑛 :

𝑎0 + 𝑎1 𝑡 + 𝑎2 𝑡2 + … + 𝑎𝑛−1 𝑡𝑛−1 ⟷ (𝑎0 , 𝑎1 , … , 𝑎𝑛−1 ) ∈ 𝕂𝑛 .

Como a adição de polinômios é feita adicionando os coeficientes corres-


pondentes aos termos de mesmo grau, essa identificação é coerente com a
operação de soma em 𝕂𝑛 . Da mesma forma para a multiplicação por escalar.
Exemplo 1.22 Os polinômios 𝒑(𝑡) = −7+3𝑡+𝑡2 e 𝒒(𝑡) = 3−𝑡+5𝑡2 em 𝒫3 (𝑡)
podem ser identificados com os pontos (−7, 3, 1) e (3, −1, 5) no espaço ℝ3 .
A soma (𝒑+𝒒)(𝑡) = −4+2𝑡+6𝑡2 corresponde à soma (−7, 3, 1)+(3, −1, 5) =
(−4, 2, 6). Essa identificação entre 𝒫3 (𝑡) e ℝ3 também é compatível com a
multiplicação de um polinômio por um escalar. (Verifique!) ⊲
16 CAPÍTULO 1. MATRIZES E ESPAÇOS VETORIAIS

Exercício 1.12 Você consegue sugerir outra forma de associar polinômios em 𝒫𝑛 (𝑡) a pontos do
𝕂𝑛 , mantendo a compatibilidade das operações em 𝒫𝑛 (𝑡) e 𝕂𝑛 ?
O mesmo procedimento também pode ser usado no Exemplo 1.21, para
matrizes com entradas no corpo 𝕂:

⎛ 𝑎11 𝑎12 … 𝑎1𝑛 ⎞


⎜ 𝑎21 𝑎22 … 𝑎2𝑛 ⎟ 𝑚𝑛
⎜ ⋮ ⋮ ⋱ ⋮ ⎟ ⟷ (𝑎11 , … , 𝑎1𝑛 , … , 𝑎𝑚1 , … , 𝑎𝑚𝑛 ) ∈ 𝕂 .
⎜ ⎟
⎝ 𝑎𝑚1 𝑎𝑚2 … 𝑎𝑚𝑛 ⎠
(1.13)

Note que, também nesse caso, as operações de soma e multiplicação por


escalar em 𝕄𝑚×𝑛 correspondem às operações em 𝕂𝑚𝑛 .

Exercício 1.13 Seja 𝒫 (𝑡) o conjunto de todos os polinômios na variável 𝑡 com coeficientes no
corpo 𝕂. (Esse conjunto possui polinômios de qualquer grau, enquanto 𝒫𝑛 (𝑡) possui apenas os
polinômios de grau menor do que 𝑛, para 𝑛 ∈ ℕ fixo.) Considere, nesse conjunto, as operações
usuais de adição de polinômios e multiplicação de um polinômio por um escalar real. Verifique
que 𝒫 (𝑡) é um espaço vetorial, isto é, que todas as propriedades listadas na Definição 1.18 são
satisfeitas.
Exercício 1.14 Considere o conjunto

𝕂∞ = {(𝑥1 , … , 𝑥𝑛 , …) ∶ 𝑥𝑖 ∈ 𝕂, ∀𝑖 ∈ ℕ}.

Verifique que 𝕂∞ é um espaço vetorial com a adição de vetores e multiplicação por escalar definidas
analogamente às operações no 𝕂𝑛 , isto é, “coordenada à coordenada”. O espaço 𝕂∞ pode ser
identificado com o conjunto das sequências no corpo 𝕂.
Exercício 1.15 Seja 𝒫 (𝑡) o espaço de todos os polinômios na variável 𝑡 com coeficientes no corpo
𝕂. (Veja o Exercício 1.13.) Continua válida a afirmação que, conhecendo todos os coeficientes
de um polinômio, então conhecemos o polinômio? Podemos identificar vetores em 𝒫 (𝑡) (isto é,
polinômios) com vetores em 𝕂∞ (isto é, sequências numéricas) de maneira a manter a compatibi-
lidade das operações nos dois espaços vetoriais?

Observação 1.23 No contexto abstrato de espaço vetorial, é mais fácil en-


tender o significado da propriedade (𝑥) na Definição 1.18. Consideremos
𝑋 = ℝ2 , com as seguintes operações: a adição de vetores usual

(𝑥1 , 𝑥2 ) + (𝑦1 , 𝑦2 ) = (𝑥1 + 𝑦1 , 𝑥2 + 𝑦2 )

e a multiplicação por escalar definida por

𝛽(𝑥1 , 𝑥2 ) = (0, 0),

para todo (𝑥1 , 𝑥2 ) ∈ ℝ2 . (Você pode achar estranha essa definição, mas
certamente ela define uma multiplicação de vetor por escalar com a propri-
edade que 𝛽𝒙 ∈ 𝑋 para todos 𝒙 ∈ ℝ2 e 𝛽 ∈ ℝ)
Verifique então que, com exceção da propriedade (𝑥), todas as outras
propriedades da Definição 1.18 são satisfeitas. Quer dizer, a propriedade
1.6. ESPAÇOS VETORIAIS ABSTRATOS 17

(𝑥) é indispensável se queremos ter uma multiplicação por escalar que evite
o que aconteceu neste caso: todos os escalares atuam da mesma maneira
sobre os vetores. (Um análogo a isso seria definir, no conjunto dos números
complexos, a multiplicação 𝑧1 𝑧2 = (𝛼1 +𝑖𝛽1 )(𝛼2 +𝑖𝛽2 ) = 𝛼1 𝛼2 , que reduz-se
à multiplicação usual de números reais.) ⊲

O Exercício 22 apresenta um espaço vetorial real 𝑋 no qual 0 ∈ 𝑋 foge


completamente à nossa intuição sobre esse vetor.
Ao definirmos abstratamente a noção de espaço vetorial, obtemos con-
juntos que satisfazem todas as propriedades da Definição 1.18, mas que não
se assemelham ao 𝕂𝑛 . Por exemplo, consideremos o conjunto 𝑋 = {0} ⊂
𝕂. Utilizando a adição e a multiplicação por escalar definidas em 𝕂, veri-
ficamos que esse é um espaço vetorial. Note que, para todo 𝛼 ∈ 𝕂 e todo
vetor 𝒙 ∈ 𝑋, então
𝛼𝒙 = 0,
o que está relacionado com a Observação 1.23. Mas esse caso não assusta,
pois se 𝒙 ∈ 𝑋, então 𝒙 = 0! Mas o próximo exemplo já difere completa-
mente de nossa intuição do 𝕂𝑛 :

Exemplo 1.24 Seja 𝐴 ≠ ∅ um conjunto qualquer. (Se você quiser, pense


que 𝐴 = ℝ.) Considere então o conjunto 𝑋 de todas as funções 𝒇 ∶ 𝐴 → 𝕂:

𝑋 = {𝒇 ∶ 𝐴 → 𝕂},

no qual definimos as operações de adição e multiplicação por escalar:

𝒇 + 𝒈∶ 𝐴 → 𝕂 dada por (𝒇 + 𝒈)(𝑥) = 𝑓 (𝑥) + 𝑔(𝑥)

e
𝛼𝒇 ∶ 𝐴 → 𝕂 dada por (𝛼𝒇 )(𝑥) = 𝛼𝑓 (𝑥).
(Note que uma função fica definida quando são estabelecidos seu domínio,
contradomínio e a “regra” que a define em cada ponto de seu domínio. As-
sim, 𝒇 + 𝒈 e 𝛼𝒇 estão definidas e pertencem ao conjunto 𝑋.)
Com essas operações, 𝑋 é um espaço vetorial. Note que, se tomarmos
𝐴 = ℝ, não existe maneira de falar em coordenadas de um vetor 𝒇 ∈ 𝑋! ⊲

Exercício 1.16 Tome 𝐴 = {1, 2, 3} e 𝒇 , 𝒈 ∶ 𝐴 → ℝ definidas por 𝒇 (𝑘) = 3𝑘 + 5 e 𝒈(𝑘) = 7/𝑘,


para 𝑘 ∈ 𝐴. Obtenha 𝒇 + 𝒈 e 5𝒈.
Exercício 1.17 Mostre que o conjunto 𝑋 do Exemplo 1.24 é um espaço vetorial.

Os próximos três exercícios são mais difíceis.

Exercício 1.18 Considere, no Exemplo 1.24, que 𝐴 = {1, … , 𝑛}. É possível identificar 𝑋 com o
espaço 𝕂𝑛 mantendo a compatibilidade das operações em ambos os espaços? Se sim, como?
Exercício 1.19 Considere, no Exemplo 1.24, que 𝐴 = ℕ = {1, 2, … , 𝑛, …}. É possível identificar
𝑋 com o espaço 𝕂∞ , mantendo a compatibilidade das operações em ambos os espaços? Se sim,
como?
Exercício 1.20 Considere, no Exemplo 1.24, que 𝐴 = ℝ. É possível identificar 𝑋 e 𝕂∞ ?
18 CAPÍTULO 1. MATRIZES E ESPAÇOS VETORIAIS

Exemplo 1.25 Seja 𝑋 um espaço vetorial qualquer sobre o corpo 𝕂. Con-


sideremos o escalar 0 ∈ 𝕂 e um vetor qualquer 𝒙 ∈ 𝑋. Então vale

0𝒙 = 0, (1.14)

resultado que foi provado apenas no caso 𝑋 = ℝ𝑛 .


Para verificarmos a igualdade (1.14) no espaço vetorial abstrato 𝑋, po-
demos utilizar apenas as propriedades descritas na Definição 1.18. Assim,

0𝒙 = (0 + 0)𝒙 = 0𝒙 + 0𝒙. (1.15)

Na primeira igualdade, utilizamos uma propriedade de números no corpo 𝕂:


0 = 0+0; na segunda igualdade, utilizamos a propriedade (𝑖𝑥) da Definição
1.18.
Como 0𝒙 é um vetor, a propriedade (𝑣) da definição de espaço vetorial
garante então a existência do vetor −0𝒙, que somamos aos dois lados da
igualdade (1.15) e então aplicamos a propriedade (𝑖𝑖):

0𝒙 + (−0𝒙) = (0𝒙 + 0𝒙) + (−0𝒙)


= 0𝒙 + [0𝒙 + (−0𝒙)],

isto é,
0 = 0𝒙 + 0 = 0𝒙,
como queríamos mostrar. ⊲
Os exercícios 20 e 21 pedem que se mostre, em um espaço vetorial abs-
trato 𝑋, propriedades que são óbvias no caso de 𝑋 = 𝕂𝑛 .

Exercício 1.21 Compare os Exemplos 1.17 e 1.25. O que justifica a diferença de tratamento entre
esses exemplos?
Qual é o objetivo de estudarmos espaços vetoriais? A resposta é que,
ao trabalharmos abstratamente com espaços vetoriais e obtermos resultados
baseados na Definição 1.18 e suas consequências (tal qual fizemos no Exem-
plo 1.25), estamos ganhando conhecimento válido para qualquer exemplo
específico de espaço vetorial, o que inclui o ℝ𝑛 , ℂ𝑛 e aqueles apresentados
nos Exemplos 1.20, 1.21 e 1.24.
Neste texto, apesar de enunciarmos os resultados em espaços vetoriais
abstratos 𝑋, grande parte de nossos exemplos serão apresentados nos es-
paços ℝ𝑛 e ℂ𝑛 . Em geral, salvo quando explicitamos um espaço vetorial
distinto do 𝕂𝑛 , você pode admitir que o espaço vetorial 𝑋 é o 𝕂𝑛 .

1.7 Exercícios
1. Sejam 𝑧1 = 2 + 3𝑖 e 𝑧2 = 5 − 4𝑖. Calcule 𝑧1 + 𝑧2 , 𝑧1 − 𝑧2 , 𝑧1 𝑧2 e 𝑧1 /𝑧2 .
2. Simplifique as expressões: 𝑖25 , 𝑖26 , 𝑖27 e 𝑖28 .
2+5𝑖
3. Simplifique 5+3𝑖
.
4. Considere as matrizes
1 5 𝜋 𝜋 7 11
𝐴= e 𝐵= .
(2 4 6) (8 10 12)
Calcule as matrizes 𝐴 − 𝐵 e 3𝐴 + 5𝐵.
1.7. EXERCÍCIOS 19

5. Obtenha os valores de 𝑎, 𝑏, 𝑐 e 𝑑 tais que

𝑎 𝑏 3𝑎 2 2 𝑎 + 3𝑏
= + .
( 𝑐 𝑑) ( 2 2𝑑) (𝑑 − 𝑐 2𝑑 + 1)

6. Calcule as transpostas das matrizes

1 𝜋 2 ⎛𝜋 1 2⎞
𝐴= e 𝐵 = ⎜1 3 4⎟ .
(2 3 𝜋) ⎜ ⎟
⎝ 2 4 𝜋⎠

7. Calcule, se possível, os produtos

⎛𝜋⎞ 1 2 3 ⎛⎜
2 1 0 5⎞
(1 3 5) ⎜2⎟ e 1 3 5 7⎟ .
⎜ ⎟ (1 𝜋 5) ⎜ ⎟
⎝1⎠ ⎝4 8 2 6⎠

8. Considere as matrizes

2+𝑖 1 2−𝑖 ⎛2 1 0 2⎞
𝐴= e 𝐵 = ⎜3 4 5 1⎟ .
(4 − 2𝑖 2 − 𝑖 3 + 𝑖) ⎜ ⎟
⎝1 2 2 3⎠
Calcule a matriz 𝐴𝐵.
9. Para as matrizes
⎛2 0 0⎞ ⎛1 0 0⎞
𝐴 = ⎜0 3 0⎟ e 𝐵 = ⎜0 7 0⎟ ,
⎜ ⎟ ⎜ ⎟
⎝0 0 5⎠ ⎝0 0 1⎠
calcule as matrizes 𝐴𝐵, 𝐵𝐴, 𝐴2 e 𝐵 2 .
10. Dê exemplo de duas matrizes 𝐴, 𝐵, ambas 2×2, com todas as entradas não nulas, mas 𝐴𝐵 = 0.
11. Suponha que o produto 𝐴𝐵 das matrizes 𝐴 e 𝐵 esteja definido. Mostre que (𝐴𝐵)𝒕 = 𝐵 𝒕 𝐴𝒕 .
12. Ache a matriz 𝐴∗ , se
3 − 5𝑖 2 + 4𝑖
𝐴= .
(2 − 2𝑖 1 + 2𝑖)
13. Seja 𝐴 ∈ 𝕄𝑚×𝑛 e 0 a matrix 𝑛 × 𝑝 com todas as entradas iguais a zero. Verifique que 𝐴0 = 0.
14. Considere números 𝑎1 , … , 𝑎𝑛 ∈ ℝ. Expandindo os dois lados da igualdade, verifique que
𝑛 𝑛

∑ 𝑎𝑖 = ∑ 𝑎𝑗 .
𝑖=1 𝑗=1

15. Mostre que


𝑛 𝑛 𝑛

∑(𝑎𝑖 + 𝑏𝑖 ) = ∑ 𝑎𝑖 + ∑ 𝑏𝑖 ,
𝑖=1 𝑖=1 𝑖=1
em que 𝑎𝑖 , 𝑏𝑖 ∈ ℝ para 𝑖 ∈ {1, … , 𝑛}.
16. Seja 𝑏𝑘 ∈ ℝ arbitrário e 𝑎1 … , 𝑎𝑛 ∈ ℝ. Mostre que
𝑛 𝑛

∑ 𝑎𝑖 𝑏𝑘 = 𝑏𝑘 ∑ 𝑎𝑖 .
𝑖=1 𝑖=1
20 CAPÍTULO 1. MATRIZES E ESPAÇOS VETORIAIS

17. Suponha definido o produto 𝐴𝐵. Mostre que (𝐴𝐵)𝒕 = 𝐵 𝒕 𝐴𝒕 . Generalize para o produto de 𝑛
matrizes.
18. Considere números 𝑎𝑖𝑗 ∈ ℝ, com 𝑖 ∈ {1, … , 𝑚} e 𝑗 ∈ {1, … , 𝑛}. Verifique que
𝑚 𝑛 𝑛 𝑚

∑ ∑ 𝑎𝑖𝑗 = ∑ ∑ 𝑎𝑖𝑗 .
𝑖=1 𝑗=1 𝑗=1 𝑖=1

19. Justificando sua resposta, verifique se as seguintes afirmações são verdadeiras ou falsas.
(a) Se 𝒘 for um vetor de um espaço vetorial 𝑉, então (−1)𝒘 é o inverso aditivo de 𝒗;
(b) Vetores do 𝕂𝑛 e de um espaço vetorial vetorial abstrato sempre têm coordenadas;
(c) Seja 𝔻 o subconjunto de 𝕄𝑛×𝑛 formado por todas as matrizes diagonais. O conjunto 𝔻
é um espaço vetorial;
(d) O conjunto 𝕋 ⊂ 𝕄𝑛×𝑛 de todas as matrizes triangulares superiores não é um espaço
vetorial.
20. Seja 𝑋 um espaço vetorial. Mostre que, para todo 𝒙 ∈ 𝑋, vale (−1)𝒙 = (−𝒙).
21. Seja 𝒖 um vetor em um espaço vetorial 𝑋. Suponha que 𝛼𝒖 = 0 para algum escalar 𝛼 ≠ 0.
Utilizando as propriedades listadas na Definição 1.18, mostre que 𝒖 = 0.
22. Seja 𝑋 = {𝒙 = (𝑥1 , 𝑥2 ) ∈ ℝ2 ∶ 𝑥1 , 𝑥2 > 0}. Em 𝑋 definimos as operações de adição

𝒙 + 𝒚 = (𝑥1 , 𝑥2 ) + (𝑦1 , 𝑦2 ) = (𝑥1 𝑦1 , 𝑥2 𝑦2 )

e multiplicação pelo escalar 𝛽 ∈ ℝ


𝛽 𝛽
𝛽𝒙 = 𝛽(𝑥1 , 𝑥2 ) = (𝑥1 , 𝑥2 ).

Mostre que, com essas operações, 𝑋 é um espaço vetorial real. Qual é o elemento 0 ∈ 𝑋?
23. Sejam 𝑋1 , 𝑋2 espaços vetoriais sobre o mesmo corpo 𝕂. Considere o conjunto

𝑋 = 𝑋1 × 𝑋2 = {(𝑥, 𝑦) ∶ 𝑥 ∈ 𝑋1 , 𝑦 ∈ 𝑋2 }

com as operações

(𝑥1 , 𝑦1 ) + (𝑥2 , 𝑦2 ) = (𝑥1 + 𝑥2 , 𝑦1 + 𝑦2 ) e 𝜆(𝑥, 𝑦) = (𝜆𝑥, 𝜆𝑦).

(Observe que tanto na soma como na multiplicação por escalar em 𝑋, no lado direito das
respectivas igualdades as operações são feitas como definidas em 𝑋𝑖 .)
Mostre que 𝑋 é um espaço vetorial, chamado espaço produto de 𝑋1 e 𝑋2 .
Capítulo 2

Sistemas Lineares e a Inversa


de uma Matriz

Objetivos: No final do capítulo o aluno deverá:


1. saber resolver um sistema pelo método de Gauss-Jordan;
2. saber relacionar as soluções de um sistema linear com o sistema ho-
mogêneo associado;
3. saber justificar o algoritmo que calcula a inversa de uma matriz.

2.1 O Método de Gauss-Jordan


Para 1 ≤ 𝑖 ≤ 𝑚 e 1 ≤ 𝑗 ≤ 𝑛, suponhamos conhecidos os escalares 𝑎𝑖𝑗 e
os escalares 𝑏𝑖 . Um sistema linear em 𝑚 equações e 𝑛 incógnitas procura a
solução 𝑥1 , … , 𝑥𝑛 que satisfaz

⎧ 𝑎11 𝑥1 + … + 𝑎1𝑛 𝑥𝑛 = 𝑏1
⎪ 𝑎21 𝑥1 + … + 𝑎2𝑛 𝑥𝑛 = 𝑏2
⎨ (2.1)
⋮ ⋮ ⋮

𝑎
⎩ 𝑚1 1𝑥 + … + 𝑎 𝑥
𝑚𝑛 𝑛 = 𝑏𝑚 .
Exemplo 2.1 O sistema
𝑥 + 𝑦 = 1
{ 𝑥 − 𝑦 = 1
tem duas equações e duas incógnitas. Esse sistema está na forma (2.1) com
𝑎11 = 1, 𝑥1 = 𝑥, 𝑎12 = 1, 𝑥2 = 𝑦, 𝑏1 = 1, 𝑎21 = 1, 𝑎22 = −1 e 𝑏2 = 1.
Como as incógnitas 𝑥 e 𝑦 aparecem apenas multiplicadas por constantes, o
sistema é linear. (Esse não seria o caso se o sistema tivesse termos como
sen 𝑦 ou 𝑥2 , por exemplo.) ⊲
O produto de matrizes nos permite expressar o sistema (2.1) com nota-
ção matricial:
⎛ 𝑎11 𝑎12 ⋯ 𝑎1𝑛 ⎞ ⎛𝑥1 ⎞ ⎛ 𝑏1 ⎞
⎜ 𝑎21 𝑎22 ⋯ 𝑎2𝑛 ⎟ ⎜𝑥2 ⎟ ⎜ 𝑏2 ⎟
⎜ ⋮ = . (2.2)
⋮ ⋱ ⋮ ⎟⎜ ⋮ ⎟ ⎜ ⋮ ⎟
⎜ ⎟⎜ ⎟ ⎜ ⎟
⎝𝑎𝑚1 𝑎𝑚2 ⋯ 𝑎𝑚𝑛 ⎠ ⎝𝑥𝑛 ⎠ ⎝𝑏𝑚 ⎠

21
22CAPÍTULO 2. SISTEMAS LINEARES E A INVERSA DE UMA MATRIZ

Exercício 2.1 Conhecidos os escalares 𝑎𝑖𝑗 e os escalares 𝑏𝑖 para 1 ≤ 𝑖 ≤ 𝑚 e 1 ≤ 𝑗 ≤ 𝑛, verifique


que (2.2) é o mesmo que (2.1).
Escreveremos (2.2) condensadamente como

𝐴𝒙 = 𝒃, (2.3)

em que

⎛ 𝑎11 𝑎12 ⋯ 𝑎1𝑛 ⎞ ⎛𝑥1 ⎞ ⎛ 𝑏1 ⎞


⎜𝑎 𝑎22 ⋯ 𝑎2𝑛 ⎟ ⎜𝑥 ⎟ ⎜𝑏 ⎟
𝐴 = ⎜ 21 , 𝒙 = ⎜ 2⎟ e 𝒃 = ⎜ 2⎟ .
⋮ ⋮ ⋱ ⋮ ⎟ ⋮ ⋮
⎜ ⎟ ⎜ ⎟ ⎜ ⎟
𝑎 𝑎
⎝ 𝑚1 𝑚2 ⋯ 𝑎𝑚𝑛 ⎠ 𝑥
⎝ 𝑛⎠ 𝑏
⎝ 𝑚⎠

A matriz coluna 𝒃 é o termo independente.

Exemplo 2.2 Considere o sistema de 3 equações nas 4 incógnitas 𝛼, 𝛽, 𝛾 e


𝛿:
3𝛼 + 2𝛽 + 3𝛾 + 𝛿 = 8
𝛼 + 𝛽 + 𝛾 − 𝛿 = 3
2𝛼 + 𝛽 − 𝛾 + 3𝛿 = 2.
Esse sistema pode ser escrito utilizando matrizes:

𝛼
⎛3 2 3 1 ⎞ ⎛ ⎞ ⎛8⎞
⎜1 1 ⎜𝛽⎟
1 −1 ⎟ ⎜ ⎟ = ⎜3⎟ , (2.4)
⎜ ⎟ ⎜𝛾⎟ ⎜ ⎟
⎝ 2 1 −1 3⎠
⎝𝛿⎠ ⎝ ⎠
2

Nessa forma matricial, as incógnitas 𝛼, 𝛽, 𝛾 e 𝛿 são dadas por uma matriz


coluna, que pode ser identificada - de acordo com (1.9) - com um vetor do
ℝ4 . Assim, procurar as soluções do sistema dado é o mesmo que encontrar
quais pontos do ℝ4 satisfazem a equação matricial (2.4).
O mesmo acontece com um sistema com escalares reais e 𝑛 incógnitas:
essas incógnitas podem ser identificadas com as coordenadas do vetor 𝒙 =
(𝑥1 , … , 𝑥𝑛 ) ∈ ℝ𝑛 .
Este exemplo, generalizado para um sistema linear qualquer com 𝑛 in-
cógnitas, nos mostra que sempre podemos interpretar o ℝ𝑛 como o conjunto
das 𝑛 incógnitas desse sistema, se todos os escalares forem reais. Como
existem sistemas com números de incógnitas arbitrariamente grande, é me-
lhor não fixar um valor máximo para 𝑛 e estudarmos ℝ𝑛 com 𝑛 ∈ ℕ fixo,
mas arbitrário. Deve ser claro que as mesmas observações são válidas se
as 𝑛 incógnitas no sistema forem números complexos, de modo que ℂ𝑛 é o
conjunto das incógnitas do sistema. ⊲

Note que, se o número de incógnitas for grande, a utilização de diferen-


tes letras (𝑥, 𝑦, 𝑧, …) para denotá-las passa a ser inviável. Como queremos
estudar sistemas lineares arbitrários e o número 𝑛 de incógnitas pode ser
grande, a notação 𝑥1 , … , 𝑥𝑛 é adequada e sempre será adotada na sequên-
cia.
2.1. O MÉTODO DE GAUSS-JORDAN 23

Exemplo 2.3 O sistema

3𝑥1 + 2𝑥2 − 𝑥3 + 4𝑥4 = 2


{ 𝑥1 − 4𝑥2 + 2𝑥3 − 𝑥4 = 5

possui 4 incógnitas e 2 equações e pode ser escrito matricialmente na forma

𝐴𝒙 = 𝒃,

com
⎛𝑥1 ⎞
3 2 −1 4 ⎜𝑥 ⎟ 2
𝐴= , 𝒙 = ⎜ 2⎟ e 𝒃= .
(1 −4 2 −1) 𝑥 (5)
⎜ 3⎟
⎝𝑥4 ⎠

Observe que 𝒙 pode ser interpretado como um vetor do ℝ4 . ⊲

Exercício 2.2 Encontre todas as soluções do Exemplo 2.2. Interprete geometricamente sua res-
posta.

De volta ao sistema (2.2), se a matriz coluna 𝒃 for nula, isto é, se 𝑏𝑖 = 0


para todo 𝑖 ∈ {1, … , 𝑚}, o sistema é chamado homogêneo e essa matriz
𝒃 será denotada por 0; caso contrário, o sistema é não homogêneo. Como
veremos, os sistemas 𝐴𝒙 = 𝒃 e 𝐴𝒙 = 0 relacionam-se de um modo es-
pecial, de modo que informações sobre as soluções de um fornecem dados
importantes para a solução do outro. Por esse motivo, no estudo do sistema
𝐴𝒙 = 𝒃, o sistema 𝐴𝒙 = 0 é chamado sistema homogêneo associado.

Exemplo 2.4 Consideremos o sistema linear

3𝑥1 − 2𝑥2 + 𝑥3 = 5
. (2.5)
{ 𝑥1 + 𝑥 2 − 𝑥 3 = 2

É claro que, se alterarmos a ordem das linhas desse sistema ou se multi-


plicarmos uma de suas linhas por uma constante não nula, não afetaremos
suas soluções: se uma tripla (𝑥1 , 𝑥2 , 𝑥3 ) for solução do sistema, essa mesma
tripla será solução do sistema alterado e vice-versa. Assim, se um sistema
não possuir solução, o outro também não possuirá.
Também podemos somar a uma linha um múltiplo de outra linha. As-
sim, as soluções dos sistemas

3𝑥1 − 2𝑥2 + 𝑥3 = 5 − 5𝑥2 + 4𝑥3 = −1


e
{ 𝑥1 + 𝑥 2 − 𝑥 3 = 2 { 𝑥1 + 𝑥 2 − 𝑥 3 = 2

são as mesmas. (O segundo sistema foi obtido multiplicando a segunda


linha do primeiro sistema por -3 e somando esse resultado à primeira linha.)
Note que, partindo do segundo sistema, multiplicando sua segunda linha por
3 e somando à sua primeira linha, obtemos o primeiro sistema. Quer dizer,
esses procedimentos são todos reversíveis. ⊲
24CAPÍTULO 2. SISTEMAS LINEARES E A INVERSA DE UMA MATRIZ

Exemplo 2.5 (Continuação do Exemplo 2.4) Consideremos novamente o


sistema (2.5). Multiplicando sua primeira linha por zero, obtemos o sistema

0𝑥1 + 0𝑥2 + 0𝑥3 = 0


. (2.6)
{ 𝑥1 + 𝑥 2 − 𝑥 3 = 2

Observe que (3, 0, 1) (isto é, 𝑥1 = 3, 𝑥2 = 0 e 𝑥3 = 1) é solução de (2.6),


mas não é uma solução de (2.5). Note também que não podemos recuperar
o sistema (2.5) partindo de (2.6). ⊲

Concluímos que as seguintes operações sobre as linhas da matriz 𝑨 não


alteram o conjunto de soluções do sistema 𝐴𝒙 = 𝒃:
(𝑎) Transpor as linhas 𝑖 e 𝑗, operação que indicaremos por ℓ𝑖 ↔ ℓ𝑗 ;

(𝑏) Multiplicar a linha 𝑖 por um escalar 𝑐 não nulo, operação que indica-
remos por ℓ𝑖 → 𝑐ℓ𝑖 ;

(𝑐) Substituir a linha 𝑗 por sua soma com um múltiplo 𝑐 da linha 𝑖, ope-
ração que indicaremos por ℓ𝑗 → ℓ𝑗 + 𝑐ℓ𝑖 .

Definição 2.6 As operações (𝑎), (𝑏) e (𝑐) são as operações elementares so-
bre as linhas de uma matriz.

Chamaremos essas operações simplemente de operações elementares.

Observação 2.7 Consideremos a operação elementar (𝑐) aplicada ao sis-


tema (2.2). Note que (𝑥1 , 𝑥2 , … , 𝑥𝑛 ) satisfaz

𝑎𝑖1 𝑥1 + … + 𝑎𝑖𝑛 𝑥𝑛 = 𝑏𝑖
𝑎𝑗1 𝑥1 + … + 𝑎𝑗𝑛 𝑥𝑛 = 𝑏𝑗

se, e somente se, satisfizer


𝑎𝑖1 𝑥1 + … + 𝑎𝑖𝑛 𝑥𝑛 = 𝑏𝑖
(𝑎𝑗1 + 𝑐𝑎𝑖1 )𝑥1 + … + (𝑎𝑗𝑛 + 𝑐𝑎𝑖𝑛 )𝑥𝑛 = 𝑏𝑗 + 𝑐𝑏𝑖 . ⊲

Vamos estudar o sistema 𝐴𝒙 = 𝒃. Para isso, mais sinteticamente do


que em (2.2), representaremos esse sistema por uma única matriz, chamada
matriz aumentada do sistema:

⎛ 𝑎11 𝑎12 ⋯ 𝑎1𝑛 | 𝑏1 ⎞


⎜𝑎 𝑎22 ⋯ 𝑎2𝑛 |𝑏 ⎟
𝑨 = (𝐴 | 𝒃) = ⎜ 21 | 2 ⎟. (2.7)
⋮ ⋮ ⋱ ⋮ | ⋮⎟
⎜ || 𝑏 ⎠
⎝𝑎𝑚1 𝑎𝑚2 ⋯ 𝑎𝑚𝑛 𝑚

Para justificar a introdução da matriz aumentada de um sistema, basta


notar que as operações elementares não alteram a matriz coluna 𝒙 no sistema
𝐴𝒙 = 𝒃. Assim, a sua manutenção é desnecessária.
Exemplo 2.8 (Continuação do Exemplo 2.3) O sistema apresentado no Exem-
plo 2.3 tem matriz aumentada dada por

3 2 −1 4 2
.
(1 −4 2 −15 | 5 ) ⊲
2.1. O MÉTODO DE GAUSS-JORDAN 25

Exercício 2.3 Escreva explicitamente o sistema descrito pela matriz aumentada

⎛1 0 2 1 | 2⎞
⎜𝜋 −4 cos 1 −1 | −5⎟ .
⎜ | ⎟
⎝3 1 2 1 | 3⎠

Ao considerarmos o sistema 𝐴𝒙 = 0, também é fácil verificar que o


termo 0 não é alterado pela aplicação de operações elementares. Assim,
esse sistema homogêneo pode ser representados simplesmente pela matriz
𝐴.
Exemplo 2.9 O sistema homogêneo

⎛1 2 3⎞
𝑥 ⎛0⎞
⎜3 2 1⎟ ⎛⎜ 1 ⎞⎟ ⎜0⎟
⎜1 𝑥 =
1 1⎟ ⎜ 2 ⎟ ⎜0⎟
⎜ ⎟ ⎝𝑥3 ⎠ ⎜ ⎟
⎝0 1 2⎠ ⎝0⎠
será representado simplesmente por

⎛1 2 3⎞
⎜3 2 1⎟
⎜1 .
1 1⎟
⎜ ⎟
⎝0 1 2⎠ ⊲

Observação 2.10 Dada uma matriz 𝐶 com mais de duas colunas, podemos
associar a ela dois sistemas distintos: um sistema homogêneo e também
aquele em que o termo independente é dado pela última coluna de 𝐶. Por
exemplo, a matriz
1 2 1
(2 1 1)
pode ser associada ao sistema homogêneo

𝑥
1 2 1 ⎛⎜ 1 ⎞⎟ 0
𝑥2 =
(2 1 1) ⎜ ⎟ (0)
⎝𝑥3 ⎠
ou ao sistema não homogêneo

1 2 |1
.
(2 1 |1)

A utilização da barra separando a última coluna de uma matriz torna claro


que a estamos interpretando como sendo a matriz aumentada de um sistema
não homogêneo. ⊲

Exemplo 2.11 Vamos ilustrar o uso das operações elementares sobre as li-
nhas de uma matriz para resolver um sistema linear. Consideremos o sis-
tema não homogêneo
⎛ 3 1 2 | 1⎞
⎜ 1 1 1 | 2⎟ . (2.8)
⎜ | ⎟
⎝−2 −1 0 | 0 ⎠
26CAPÍTULO 2. SISTEMAS LINEARES E A INVERSA DE UMA MATRIZ

Começamos trocando sua primeira linha pela segunda, operação indicada


por ℓ1 ↔ ℓ2 :

⎛ 3 1 2 | 1⎞ ⎛ 1 1 1 | 2 ⎞ (ℓ1 ↔ ℓ2 )
⎜ 1 1 1 | 2⎟ → ⎜ 3 1 2 | 1⎟ .
⎜ | ⎟ ⎜ | ⎟
⎝−2 −1 0 | 0 ⎠ ⎝−2 −1 0 | 0 ⎠
Como vimos, os sistemas representados por essas duas matrizes aumentadas
possuem as mesmas soluções. Partindo da segunda matriz, substituímos
sua segunda linha pela soma dessa linha com (-3) vezes a primeira linha,
operação indicada por ℓ2 − 3ℓ1 :

⎛ 1 1 1 | 2⎞ ⎛ 1 1 1 | 2⎞
⎜ 3 1 2 | 1⎟ → ⎜ 0 −2 −1 | −5 ⎟ (ℓ2 → ℓ2 − 3ℓ1 ) .
⎜ | ⎟ ⎜ | ⎟
⎝−2 −1 0 | 0 ⎠ ⎝−2 −1 0 | 0⎠

Agora substituímos a terceira linha por ela somada a 2 vezes a primeira


linha:

⎛ 1 1 1 | 2⎞ ⎛1 1 1 | 2⎞
⎜ 0 −2 −1 | −5 ⎟ → ⎜0 −2 −1 | −5 ⎟ .
⎜ | ⎟ ⎜ | ⎟
⎝−2 −1 0 | 0⎠ ⎝0 1 2 | 4 ⎠ (ℓ3 → ℓ3 + 2ℓ1 )

Prosseguimos trocando a terceira pela segunda linha:

⎛1 1 1 | 2⎞ ⎛1 1 1 | 2⎞
⎜0 −2 −1 | −5 ⎟ → ⎜0 1 2 | 4 ⎟ (ℓ ↔ ℓ ) .
⎜ | ⎟ ⎜ | ⎟ 2 3
⎝0 1 2 | 4⎠ ⎝0 −2 −1 | −5 ⎠

Somamos então à terceira linha a segunda linha multiplicada por 2:

⎛1 1 1 | 2⎞ ⎛1 1 1 | 2 ⎞
⎜0 1 2 | 4⎟ → ⎜0 1 2 | 4 ⎟ .
⎜ | ⎟ ⎜ | ⎟
⎝0 −2 −1 | −5 ⎠ ⎝0 0 3 | 3 (ℓ
⎠ 3 → ℓ 3 + 2ℓ 2 )

Finalmente, dividimos a última linha por 3:

⎛1 1 1 | 2 ⎞ ⎛1 1 1 | 2 ⎞
⎜0 1 2 | 4 ⎟ → ⎜0 1 2 | 4 ⎟ .
⎜ | ⎟ ⎜ | ⎟
⎝0 0 3 | 3 ⎠ ⎝0 0 1 | 1 (ℓ
⎠ 3 → ℓ 3 /3)

Agora examinemos o sistema representado pela última matriz obtida. Sua


última equação nos garante que 𝑥3 = 1. Substituindo esse valor em sua
segunda equação (que nos informa que 𝑥2 + 2𝑥3 = 4), concluímos que
𝑥2 = 2. Sua primeira equação é dada por 𝑥1 + 𝑥2 + 𝑥3 = 2. Substituindo
os valores obtidos para 𝑥2 e 𝑥3 , concluímos que 𝑥1 = −1, de forma que
obtemos a única solução do sistema representado pela última matriz:

𝑥1 = −1 𝑥2 = 2 e 𝑥3 = 1.

Como vimos, as soluções desse sistema são as mesmas do sistema inicial,


de modo que obtivemos a (única) solução do sistema (2.8).
2.1. O MÉTODO DE GAUSS-JORDAN 27

O método utilizado neste exemplo é conhecido como eliminação gaussi-


1
ana e a matriz final, que nos possibilitou a obtenção da solução do sistema,
está na forma escalonada, isto é, em forma de escada. ⊲

Exercício 2.4 Escreva, para cada matriz aumentada do Exemplo 2.11, a forma completa do sistema
linear, isto é, o sistema na forma (2.1).
Passemos à definição formal:

Definição 2.12 Dizemos que uma matriz 𝐵 está na forma escalonada se:

(𝑖) o primeiro elemento não nulo de cada linha (chamado pivô) for igual
a 1;

(𝑖𝑖) se o pivô da linha 𝑖 ocorre na coluna 𝑗 então, se existir o pivô da linha


𝑖 + ℓ, com ℓ ∈ ℕ, esse ocorre numa coluna 𝑘, com 𝑘 > 𝑗;

(𝑖𝑖𝑖) linhas nulas (isto é, cujas entradas são iguais a zero) ocorrem abaixo
de linhas não nulas.

Uma sucessão de operações elementares utilizadas para levar uma matriz


𝐵 até uma matriz na forma escalonada é um escalonamento da matriz 𝐵.

A rigor, exigirmos que o pivô de cada linha seja igual a 1 não é ne-
cessário para obtermos a solução de um sistema. Observe que a condição
(𝑖𝑖) garante que, na coluna do pivô da linha 𝑖, são nulos todos os elementos
abaixo do pivô.

Exemplo 2.13 A matriz

⎛1 4 7 3⎞
⎜0 0 1 5⎟
𝐵=⎜
0 0 0 1⎟
⎜ ⎟
⎝0 0 0 0⎠

está na forma escalonada: o pivô de uma linha ocorre à esquerda dos pivôs
da linhas seguintes, linhas nulas (se existentes) são as últimas, são nulas as
entradas que estão abaixo de cada pivô, na mesma coluna.
Por outro lado, as matrizes

⎛1 4 7 3⎞
⎜0 1 1 5⎟ 0 1 0
⎜0 e
1 0 1⎟ (1 0 0)
⎜ ⎟
⎝0 0 0 0⎠

não estão na forma escalonada: na primeira delas, existe um elemento não


nulo abaixo do pivô da segunda linha; na segunda, o pivô da segunda linha
ocorre à esquerda do pivô da primeira linha. ⊲
1
Em homenagem a Johann Carl Friedrich Gauss, que nasceu na cidade alemã de Braun-
schweig, em 30 de abril de 1777, e morreu na cidade alemã de Göttingen, em 23 de fevereiro
de 1855, é conhecido como princeps mathematicorum: o príncipe da matemática, em latim.
28CAPÍTULO 2. SISTEMAS LINEARES E A INVERSA DE UMA MATRIZ

Dada uma matriz arbitrária 𝐴 = (𝑎𝑖𝑗 ), a sucessiva aplicação de ope-


rações elementares (sobre suas linhas) pode levá-la até uma forma escalo-
nada. De fato, se existir algum elemento não nulo na primeira coluna de 𝐴,
ao aplicarmos as operações elementares (𝑎) e (𝑏) obtemos uma nova ma-
triz 𝐴′ = (𝑎′𝑖𝑗 ), com 𝑎′11 = 1. A aplicação da operação elementar (𝑐) torna
possível transformar em zero todas as outras entradas na mesma coluna do
pivô e abaixo dele. Considerando então a submatriz obtida de 𝐴′ ao se eli-
minar a sua primeira linha e primeira coluna, aplicando sucessivamente o
mesmo procedimento, chegamos à forma escalonada da matriz 𝐴. (Uma
prova formal é obtida por indução).
Contudo, dada uma matriz 𝐴, a sucessiva aplicação de operações ele-
mentares pode conduzir a diferentes formas escalonadas para essa matriz.
É o que veremos no próximo exemplo.

Exemplo 2.14 Considere a matriz

1 2 3
.
(1 1 1)

Subtraindo da segunda linha a primeira e então dividindo a linha resul-


tante por (−1), obtemos uma matriz escalonada:

1 2 3
.
(0 1 2) (ℓ2 → (ℓ2 − ℓ1 )/(−1))

Por outro lado, trocando as duas linhas da matriz original e então sub-
traindo a primeira linha da segunda linha, chegamos a

1 1 1 (ℓ1 ↔ ℓ2 ) 1 1 1
→ ,
(1 2 3) (0 1 2) (ℓ2 → ℓ2 − ℓ1 )

matriz que também está na forma escalonada.


Assim, a uma mesma matriz podem corresponder diferentes formas es-
calonadas! Mas, como sabemos as soluções dos sistemas lineares dados
por essa formas escalonadas são iguais às soluções do sistema original e,
portanto, todas iguais. C

Examinando a solução do sistema apresentado no Exemplo 2.11, ve-


mos que, depois de atingida a forma escalonada, ainda precisamos efetuar
alguns cálculos para obter a solução do sistema. Esses cálculos são sim-
ples, é claro. Mas queremos produzir um algoritmo que permita que um
computador nos forneça diretamente essa solução. (No Exemplo 2.11, o
sistema tem solução. Por outro lado, a forma escalonada de um sistema já
nos informa quando o sistema não tem solução. Para isso, basta existir uma
linha 𝑖 da matriz 𝐴 não tendo pivô e com entrada correspondente do termo
independente 𝑏𝑖 ≠ 0.)

Exercício 2.5 Justifique: um sistema homogêneo 𝐴𝒙 = 0 sempre possui solução.


Voltando ao nosso objetivo de obter um algoritmo que nos permita re-
solver um sistema linear, suponhamos que uma matriz 𝐸 esteja na forma
escalonada.
2.1. O MÉTODO DE GAUSS-JORDAN 29

Definição 2.15 Seja 𝐴 uma matriz na forma escalonada. Se cada pivô de


𝐴 for o único elementos não nulo de sua coluna, dizemos que a matriz 𝐴
está na forma escalonada reduzida por linhas.

Aplicando a operação elementar (𝑐), podemos fazer com que uma matriz
na forma escalonada atinja sua forma reduzida por linhas. De fato, conside-
remos o pivô da última linha não-nula de 𝐸. A aplicação da operação ele-
mentar (𝑐) torna possível zerar os elementos que estão acima do pivô, man-
tendo ainda a matriz na forma escalonada. A demonstração agora segue-se
daí por indução, aplicando o mesmo procedimento ao pivô da penúltima
linha não-nula de 𝐸 e assim sucessivamente.
A forma escalonada reduzida por linhas de uma matriz é única. Mos-
traremos esse resultado no Teorema 2.21.

Exemplo 2.16 Consideremos o sistema 𝐴𝒙 = 𝒃, cuja matriz aumentada é


dada por
2 0 0 3
.
(0 3 2 | 6 )
Sua forma escalonada reduzida por linhas é obtida ao dividirmos a primeira
linha por 2 e a segunda linha por 3:

1 0 0 3
(ℓ1 /2)
2 .
(0 1 2 | 2 ) (ℓ2 /3)
3

(Estamos simplificando a notação antes empregada para denotar operações


elementares.)
Voltando a expressar o sistema na forma (2.1), percebemos que os pivôs
correspondem às variáveis 𝑥1 e 𝑥2 . A variável 𝑥3 , que não corresponde a
um pivô, é chamada variável livre:

𝑥1 + 0𝑥2 + 0𝑥3 = 32
.
0𝑥1 + 𝑥2 + 23 𝑥3 = 2

Essa forma escalonada reduzida por linhas nos dá diretamente a solução do


sistema e, em particular, a expressão de 𝑥1 e 𝑥2 . Vamos explicitar 𝑥1 , 𝑥2 , 𝑥3
escrevendo essa solução na forma de uma matriz coluna:
3
⎛ 𝑥1 ⎞ ⎛ 2 ⎞
⎜𝑥2 ⎟ = ⎜⎜2 − 2 𝑥 ⎟⎟ .
⎜ ⎟ ⎜ 3 3

⎝ 𝑥3 ⎠ ⎝ 𝑥3 ⎠

Note que expressamos os pivôs em função das variáveis livres e termo


independente. (Nesse caso, o pivô 𝑥1 independe da variável livre 𝑥3 .) Po-
demos escrever essa resposta de uma maneira que se mostrará bastante útil,
ao isolarmos o termo independente e a variável livre:
3
⎛𝑥1 ⎞ ⎛ 2 ⎞ ⎛ 0⎞
⎜𝑥2 ⎟ = ⎜ 2 ⎟⎟ + 𝑥3 ⎜⎜− 2 ⎟⎟ .

(2.9)
⎜ ⎟ ⎜ ⎟ 3
𝑥 0 ⎜ ⎟
⎝ 3⎠ ⎝ ⎠ ⎝ ⎠1
30CAPÍTULO 2. SISTEMAS LINEARES E A INVERSA DE UMA MATRIZ

Essa maneira de escrever a solução nos mostra que todas as soluções do


𝒕
sistema são obtidas somando-se à matriz coluna ( 32 2 0) um múltiplo
𝒕
(dado pela variável livre 𝑥3 ) da matriz coluna (0 − 23 1) . Assim, o sis-
tema possui infinitas soluções, obtidas ao escolhermos diferentes valores
para a variável livre 𝑥3 . A solução do sistema, dada por (2.9), representa
uma reta passando pelo ponto (3/2, 2, 0) e com vetor direção (0, −2/3, 1). C
A solução de um sistema linear levando sua matriz aumentada à forma
escalonada reduzida por linhas é conhecida como método de Gauss-Jordan.2

Definição 2.17 Seja 𝑅 uma matriz na forma escalonada reduzida por li-
nhas. No sistema (𝑅, 𝒄) são chamadas variáveis livres todas aquelas variá-
veis que não correspondam a pivôs.

Exercício 2.6 Escreva a solução do sistema como no Exemplo 2.16, sabendo que sua forma esca-
lonada reduzida por linhas é dada por

⎛1 0 0 2 | 8⎞
⎜0 1 0 3 | 2⎟ .
⎜ | ⎟
⎝0 0 1 0 | 0⎠

Exemplo 2.18 Consideremos o sistema 𝐴𝒙 = 𝒃, cuja matriz aumentada é


dada por
⎛−3 6 8 | −5 ⎞
⎜ 1 −3 −2 | 6 ⎟ .
⎜ | ⎟
⎝ 2 −4 −3 | 8 ⎠
Trocando a primeira pela segunda linha, obtemos um pivô na primeira
linha evitando frações:

⎛−3 6 8 | −5 ⎞ ⎛ 1 −3 −2 | 6 ⎞ (ℓ1 ↔ ℓ2 )
⎜ 1 −3 −2 | 6 ⎟ → ⎜−3 6 8 | −5 ⎟ .
⎜ | ⎟ ⎜ | ⎟
⎝ 2 −4 −3 | 8 ⎠ ⎝ 2 −4 −3 | 8⎠
Multiplicando a primeira linha por 3 e somando à segunda e multiplicando
a primeira linha por −2 e somando à terceira, obtemos

⎛ 1 −3 −2 | 6 ⎞ ⎛ 1 −3 −2 | 6 ⎞
⎜−3 6 8 | −5 ⎟ → ⎜ 0 −3 2 | 13 ⎟ (3ℓ1 + ℓ2 ) .
⎜ | ⎟ ⎜ | ⎟
⎝ 2 −4 −3 | 8⎠ ⎝ 0 2 1 | −4 ⎠ (−2ℓ1 + ℓ3 )

Obtemos um pivô na segunda linha ao multiplicá-la por − 13 :

|
⎛ 1 −3 −2 | 6 ⎞ ⎛ 1 −3 −2 | 6⎞
⎜ 0 −3 | ⎟
2 13 → 0 ⎜ 1 − 3 | − 3 (− 13 ℓ2 ) .
2 13 ⎟
⎜ | ⎟ ⎜ ⎟
⎝ 0 2 1 | −4 ⎠ ⎝ 0 2 1 || −4 ⎠
2
Wilhelm Jordan foi um geodesista e matemático, que nasceu na pequena cidade alemã
de Ellwangen, em 1 de março de 1842, e faleceu na cidade alemã de Hannover, em 17 de
abril de 1899. Não deve ser confundido com Camille Jordan.
2.1. O MÉTODO DE GAUSS-JORDAN 31

Multiplicando a segunda linha por −2 e somando à terceira linha:

⎛ 1 −3 −2 | 1 −3 −2 | 6

6
| 13 ⎞ ⎛⎜ | 13 ⎞
⎜ 0 1 − 23 | −3 ⎟→⎜ 0 1 − 23 | −3 ⎟ .
⎜ | −4 ⎟ ⎜ 7 | 14 ⎟ (−2ℓ + ℓ )
⎝ 0 2 1 | ⎠ ⎝ 0 0 | 3 ⎠ 2 3
3

Chegamos a uma forma escalonada ao multiplicar a terceira linha por 37 :

⎛ 1 −3 −2 | 6 ⎞ ⎛ 1 −3 −2 | 6
| 13 | 13 ⎞
⎜ 0 1 − 23 | −3 ⎟→⎜ 0 1 − 23 | − 3 ⎟⎟ .
⎜ 7 || 14 ⎟ ⎜ || 3
⎝ 0 0 ⎠ ⎝ 0 0 1 (
2⎠ 7 3 ℓ )
3 3

Agora transformamos em zero as entradas acima do último pivô:


|
⎛ 1 −3 −2 | 6 ⎞ ⎛ 1 −3 0 | 10 ⎞ (2ℓ3 + ℓ1 )
⎜ 0 2 13 ⎟
1 −3 | − 3 → ⎜ 0 1 0 | −3 ⎟ ( 23 ℓ3 + ℓ2 ) .
⎜ ⎟ ⎜ | ⎟
⎝ 0 0 1 || 2⎠ ⎝ 0 0 1 | 2⎠

Finalmente, chegamos à forma escalonada reduzida por linhas:

⎛ 1 −3 0 | 10 ⎞ ⎛ 1 0 0 | 1 ⎞ (3ℓ2 + ℓ1 )
⎜ 0 1 0 | −3 ⎟ → ⎜ 0 1 0 | −3 ⎟ ,
⎜ | ⎟ ⎜ | ⎟
⎝ 0 0 1 | 2⎠ ⎝ 0 0 1 | 2⎠

que nos informa que todas as variáveis correspondem a pivôs e que a única
solução do sistema é dada por 𝑥1 = 1, 𝑥2 = −3 e 𝑥3 = 2:

⎛𝑥1 ⎞ ⎛ 1 ⎞
⎜𝑥2 ⎟ = ⎜−3 ⎟ .
⎜ ⎟ ⎜ ⎟
⎝𝑥3 ⎠ ⎝ 2 ⎠ C

Exemplo 2.19 Consideremos o sistema 𝐴𝒙 = 𝒃, cuja matriz aumentada é


dada por
⎛ 1 0 0 0 0 0 | 𝑏1 ⎞
⎜−1 0 0 0 0 0 | 𝑏2 ⎟
⎜ 0 1 0 0 0 |
0 | 𝑏3 ⎟
⎜ ⎟
⎜ 1 1 1 1 0 0 | 𝑏4 ⎟
||
⎝ 0 0 0 0 1 −3 𝑏5 ⎠
Queremos determinar para quais valores de 𝑏1 , … , 𝑏5 o sistema tem solução.
Levando a matriz aumentada do sistema à forma escalonada reduzida
por linhas, obtemos (confira!)

⎛1 0 0 0 0 0 | 𝑏1 ⎞
⎜0 1 0 0 0 0 | 𝑏3 ⎟
⎜0 |
0 1 1 0 0 | 𝑏4 − 𝑏1 − 𝑏3 ⎟ . (2.10)
⎜ ⎟
⎜0 0 0 0 1 −3 | 𝑏5 ⎟
||
⎝0 0 0 0 0 0 𝑏1 + 𝑏2 ⎠

A última linha nos mostra que, se tivermos 𝑏1 + 𝑏2 ≠ 0, o sistema não tem


solução.
32CAPÍTULO 2. SISTEMAS LINEARES E A INVERSA DE UMA MATRIZ

Se tivermos 𝑏1 + 𝑏2 = 0, podemos determinar as soluções do sistema.3


Escrevemos as variáveis correspondentes aos pivôs (isto é, 𝑥1 , 𝑥2 , 𝑥3 e 𝑥5 )
em termos das variáveis livres 𝑥4 e 𝑥6 e do termo independente:

𝑥1 = 𝑏1
𝑥2 = 𝑏3
𝑥3 = (𝑏4 − 𝑏1 − 𝑏3 ) − 𝑥4
𝑥4 = 𝑥4
𝑥5 = 𝑏5 + 3𝑥6
𝑥6 = 𝑥6

Escrevemos essa solução em forma de uma matriz coluna, como no


Exemplo 2.16:

⎛ 𝑥1 ⎞ ⎛ 𝑏1 ⎞ ⎛ 0⎞ ⎛0⎞
⎜ 𝑥2 ⎟ ⎜ 𝑏3 ⎟ ⎜ 0⎟ ⎜0⎟
⎜ 𝑥 ⎟ ⎜𝑏 − 𝑏 − 𝑏 ⎟ ⎜−1 ⎟ ⎜0⎟
⎜ 3⎟ = ⎜ 4 1 3⎟ + 𝑥 ⎜
4
⎟ + 𝑥 ⎜ ⎟
6 0 . (2.11)
⎜ 𝑥4 ⎟ ⎜ 0 ⎟ ⎜ 1⎟ ⎜ ⎟
⎜𝑥 ⎟ ⎜ 𝑏 ⎟ ⎜ 0⎟ ⎜3⎟
⎜ 5⎟ ⎜ 5 ⎟ ⎜ ⎟ ⎜ ⎟
⎝ 𝑥6 ⎠ ⎝ 0 ⎠ ⎝ 0⎠ ⎝1⎠

Quer dizer, para quaisquer valores de 𝑏1 , 𝑏3 , 𝑏4 e 𝑏5 , e para quaisquer


valores escolhidos para as variáveis livres 𝑥4 e 𝑥6 , a solução do sistema
𝐴𝒙 = 𝒃 (com a igualdade 𝑏1 +𝑏2 = 0 sendo satisfeita) é dada pela expressão
anterior. O sistema tem infinitas soluções, resultantes de escolhas arbitrárias
de valores para 𝑥4 e 𝑥6 .
Se tomarmos 𝑏1 = 𝑏2 = 𝑏3 = 𝑏4 = 𝑏5 = 𝑏6 = 0, a solução apre-
sentada nos dá a solução geral do sistema homogêneo associado a 𝐴𝒙 = 𝒃
apresentado neste exemplo. C

Observação 2.20 Os exemplos anteriores deixam claro que a existência de


soluções para um sistema 𝐴𝒙 = 𝒃, sendo 𝐴 uma matriz 𝑚 × 𝑛, não depende
diretamente de 𝑚 e 𝑛. Esse sistema não possuirá solução se, na forma es-
calonada reduzida por linhas de (𝐴|𝒃), não tivermos uma linha no formato
(0|𝑐), com 𝑐 ≠ 0. (Esse é o formato da última linha no sistema anterior,
se tivermos 𝑏1 + 𝑏2 ≠ 0; veja a equação (2.10).) Se esse não for o caso, o
sistema sempre possuirá solução: se existirem variáveis livres (quer dizer,
o número de pivôs não for igual a 𝑛), então o sistema possuirá infinitas so-
luções, resultantes das infinitas escolhas de valores para as variáveis livres.
Se não existirem variáveis livres, o sistema possuirá uma única solução. C

Exercício 2.7 Escreva o sistema considerado no Exemplo 2.19 na forma (2.1).


Exercício 2.8 Dê um exemplo de um sistema com uma equação e duas incógnitas que possua as
mesmas soluções de um sistema com duas equações e duas incógnitas.
Exercício 2.9 Dê um exemplo de um sistema com duas equações e duas incógnitas que não possua
solução.
3
Sendo mais incisivo, estou dizendo que a denominação “sistema indeterminado”, utili-
zada no ensino médio, é imprecisa.
2.1. O MÉTODO DE GAUSS-JORDAN 33

Teorema 2.21 Qualquer que seja a matriz 𝐴, ela possui uma única forma
escalonada reduzida por linhas.

Demonstração: Faremos indução no número de colunas da matriz 𝐴. Se


𝐴 possuir uma única coluna, sua forma escalonada reduzida por linhas é

⎛1⎞ ⎛0⎞
⎜0⎟ ⎜0⎟
⎜⋮⎟ ou ⎜⋮⎟,
⎜ ⎟ ⎜ ⎟
⎝0⎠ ⎝0⎠

a primeira possibilidade ocorrendo se 𝐴 possuir um elemento não nulo.


Suponhamos, portanto, o resultado válido para qualquer matriz com
𝑛 − 1 colunas e consideremos uma matriz 𝐴 com 𝑛 colunas, 𝑛 ≥ 2. Su-
ponhamos que 𝑅1 e 𝑅2 sejam formas escalonadas reduzidas por linhas da
matriz 𝐴. Interpretando essas matrizes como matrizes aumentadas de um
sistema, então 𝑅1 = (𝑅|𝒂) e 𝑅2 = (𝑅|𝒃), já que nossa hipótese de indução
aplica-se às colunas de 𝑅. Agora consideramos duas opções para a coluna
𝒂: se ela possuir um pivô, então o sistema 𝑅𝒙 = 𝒂 não possui solução, pois
a linha de 𝑅 correspondente à posição desse pivô seria identicamente nula,
já que 𝑅1 está na forma escalonada reduzida por linhas. Como as soluções
de 𝑅𝒙 = 𝒂 e 𝑅𝒙 = 𝒃 são as mesmas, 𝒃 também possui um pivô e, portanto,
𝒂 = 𝒃, já que 𝑅1 e 𝑅2 estão na forma escalonada reduzida por linhas. Se
em 𝒂 não existir um pivô, então o sistema 𝑅𝒙 = 𝒂 possui uma solução 𝒙0 .
Mas então 𝒂 = 𝑅𝒙0 = 𝒃, provando que 𝒂 = 𝒃 e que 𝑅1 = 𝑅2 . 

Vamos agora explicitar a relação entre o sistema 𝐴𝒙 = 𝒃 e seu sistema


homogêneo associado, 𝐴𝒙 = 0. Partimos de uma observação muito sim-
ples: o sistema homogêneo sempre tem solução! De fato, se tomarmos o
valor de todas as incógnitas como sendo igual a zero, obtemos uma solução
do sistema, chamada solução trivial.
A solução trivial será única, se não existirem variáveis livres. Isso im-
plica, em particular, que a forma escalonada reduzida por linhas do sistema
possui o mesmo número de pivôs e de incógnitas. Assim, desprezadas as
possíveis linhas identicamente nulas da forma escalonada reduzida por li-
nhas, o que resta é a matriz identidade.

Exercício 2.10 Justifique a afirmação feita no parágrafo anterior.


Se existir ao menos uma variável livre, o sistema 𝐴𝒙 = 0 possuirá infi-
nitas soluções, obtidas ao se atribuir diferentes valores à cada variável livre.
É o que garante o próximo resultado:

Teorema 2.22 Considere um sistema homogêneo 𝐴𝒙 = 0. Se 𝐴 for uma


matriz 𝑚 × 𝑛, com 𝑚 < 𝑛, então 𝐴𝒙 = 0 possui infinitas soluções. Ou seja,
qualquer sistema homogêneo com mais incógnitas do que equações possui
infinitas soluções.

Demonstração: A forma escalonada reduzida por linhas de 𝐴 possui um


número 𝑟 de pivôs que é, no máximo, igual ao número de equações. Assim,
ela possui 𝑛 − 𝑟 de variáveis livres. A cada variável livre está associado
34CAPÍTULO 2. SISTEMAS LINEARES E A INVERSA DE UMA MATRIZ

uma matriz coluna não nula (veja a igualdade (2.11)). Atribuindo diferentes
valores à variável livre, encontramos diferentes soluções. Logo, o sistema
possui infinitas soluções. 

Definição 2.23 Sejam 𝐴 uma matriz 𝑚 × 𝑛. Definimos o núcleo de 𝐴, de-


notado ker 𝐴,4 como sendo o conjunto de soluções 𝒙 do sistema 𝐴𝒙 = 0.

Teorema 2.24 Suponha que 𝒙0 seja uma solução do sistema 𝐴𝒙 = 𝒃, isto


é, 𝐴𝒙0 = 𝒃. Então 𝒙0 +𝒛 é solução de 𝐴𝒙 = 𝒃, qualquer que seja 𝒛 ∈ ker 𝐴.
Se 𝒙1 também for uma solução do sistema 𝐴𝒙 = 𝒃, então 𝒙1 = 𝒙0 + 𝒛, para
algum 𝒛 ∈ ker 𝐴.

Demonstração: Suponhamos que 𝒛 ∈ ker 𝐴. Então 𝒙0 + 𝒛 é solução do


sistema 𝐴𝒙 = 𝒃, pois 𝐴(𝒙0 + 𝒛) = 𝐴𝒙0 + 𝐴𝒛 = 𝒃 + 0 = 𝒃. Quer dizer,
𝒙0 + 𝒛 é solução de 𝐴𝒙 = 𝒃, para todo 𝒛 ∈ ker 𝐴.
Suponhamos agora que 𝐴𝒙1 = 𝒃, ou seja, que 𝒙1 seja também solução
de 𝐴𝒙 = 𝒃. Consideremos 𝒙1 − 𝒙0 . Então 𝐴(𝒙1 − 𝒙0 ) = 𝐴𝒙1 − 𝐴𝒙0 =
𝒃 − 𝒃 = 0, que dizer, (𝒙1 − 𝒙0 ) ∈ ker 𝐴. Denotando 𝒛 = 𝒙1 − 𝒙0 , temos
𝒙1 = 𝒙0 + (𝒙1 − 𝒙0 ) = 𝒙0 + 𝒛, o que completa a demonstração. 

Exercício 2.11 Podemos concluir do Teorema 2.24 que,


(𝑖) se 𝐴𝒙 = 0 só possuir a solução trivial, então a solução de 𝐴𝒙 = 𝒃 será única?
(𝑖𝑖) se 𝐴𝒙 = 𝒃 possuir solução e 𝐴𝒙 = 0 possuir infinitas soluções, então 𝐴𝒙 = 𝒃 possuirá
infinitas soluções?

Exemplo 2.25 [Continuação do Exemplo 2.19] Voltando ao Exemplo 2.19,


podemos agora interpretar a equação (2.11). O primeiro termo do lado di-
reito (correspondente ao termo independente) é uma solução particular de
𝐴𝒙 = 𝒃 (no caso em que a igualdade 𝑏1 + 𝑏2 = 0 é satisfeita). Os termos
seguintes (correspondentes às variáveis livres 𝑥4 e 𝑥6 nos fornecem todas
as soluções do sistema homogêneo associado. Observe que isso é imediato,
pois corresponde à escolha 𝑏1 = ⋯ = 𝑏6 = 0. ⊲

Lema 2.26 Se a matriz 𝐴 ∈ 𝕄𝑛×𝑛 for invertível, então o sistema 𝐴𝒙 = 𝒃


possui solução única 𝒙 = 𝐴−1 𝒃. Em particular, o sistema 𝐴𝒙 = 0 só possui
a solução trivial 𝒙 = 0.

Demonstração: Basta multiplicar a igualdade 𝐴𝒙 = 𝒃 por 𝐴−1 . 

Exercício 2.12 Considere o sistema

⎧ 3𝑥 + 2𝑥2 = 5
⎪ 1
⎨ 𝑥1 + 𝑥 2 + 𝑥 3 = 3

⎩ 2𝑥1 + 𝑥2 − 𝑥3 = 2.
(𝑎) Resolva o sistema, levando sua matriz aumentada à forma escalonada reduzida por linhas;
4
A notação ker vem do inglês: kernel quer dizer núcleo.
2.2. MATRIZES ELEMENTARES E MATRIZ INVERSA 35

(𝑏) Resolva o sistema homogêneo associado;


(𝑐) Sabendo que (1, 1, 1) é solução do sistema não homogêneo, encontre todas as suas soluções
aplicando o Teorema 2.24;
(𝑑) Compare as soluções encontradas em (𝑎) e (𝑐).
Exercício 2.13 Considere o sistema
⎧ 3𝑥 + 2𝑥2 + 3𝑥3 = 8
⎪ 1
⎨ 𝑥1 + 𝑥 2 + 𝑥 3 = 3

⎩ 2𝑥1 + 𝑥2 − 𝑥3 = 2.
Sabendo que (1, 1, 1) é uma de suas soluções, ache todas as soluções do sistema aplicando o
Teorema 2.24.

Exercício 2.14 Considere o sistema


⎧ 3𝑥 + 2𝑥2 = 5
⎪ 1
⎨ 1𝑥 + 𝑥 2 + 𝑥 3 = 3
⎪ 2𝑥
⎩ 1 + 𝑥 2 − 𝑥 3 = 2.

(𝑎) Resolva o sistema, levando sua matriz aumentada à forma escalonada reduzida por linhas;
(𝑏) Resolva o sistema homogêneo associado;
(𝑐) Sabendo que (1, 1, 1) é solução do sistema não homogêneo, encontre todas as suas soluções
aplicando o Teorema 2.24;
(𝑑) Compare as soluções encontradas em (𝑎) e (𝑐).
Exercício 2.15 Considere o sistema
⎧ 3𝑥 + 2𝑥2 + 3𝑥3 = 8
⎪ 1
⎨ 𝑥1 + 𝑥 2 + 𝑥 3 = 3

⎩ 2𝑥1 + 𝑥2 − 𝑥3 = 2.
Sabendo que (1, 1, 1) é uma de suas soluções, ache todas as soluções do sistema aplicando o
Teorema 2.24.

2.2 Matrizes Elementares e Matriz Inversa


Definição 2.27 Uma matriz 𝐸 é elementar se puder ser obtida da matriz
identidade 𝑛 × 𝑛 por meio da aplicação de uma única operação elementar
sobre linhas.

Exemplo 2.28 Consideremos as operações elementares 𝑒1 ∶ ℓ1 → ℓ1 /2,


𝑒2 ∶ ℓ1 ↔ ℓ2 e 𝑒3 ∶ ℓ2 → ℓ2 + ℓ1 . Se aplicarmos essas operações à matriz
identidade 2 × 2
1 0
𝐼= ,
(0 1)
obtemos, respectivamente, matrizes elementares
1
0 0 1
𝐸1 = 𝑒1 (𝐼) = 2 , 𝐸2 = 𝑒2 (𝐼) = ,
( 0 1) (1 0)
e
1 0
𝐸3 = 𝑒3 (𝐼) = . ⊲
(1 1)
36CAPÍTULO 2. SISTEMAS LINEARES E A INVERSA DE UMA MATRIZ

Exercício 2.16 Considere a matriz


2 4 6
𝐴=
(2 3 3)
e as operações elementares 𝑒1 , 𝑒2 e 𝑒3 definidas no Exemplo 2.28. Obtenha as matrizes 𝑒1 (𝐴), 𝑒2 (𝐴)
e 𝑒3 (𝐴), resultantes da aplicação dessas operações elementares sobre a matriz 𝐴. Em seguida, sendo
𝐸1 , 𝐸2 e 𝐸3 as matrizes obtidas naquele exemplo, verifique que os produtos 𝐸1 𝐴, 𝐸2 𝐴 e 𝐸3 𝐴 são
iguais, respectivamente, às matrizes 𝑒1 (𝐴), 𝑒2 (𝐴) e 𝑒3 (𝐴).
Exercício 2.17 Mostre que toda matriz elementar possui inversa. Em seguida, mostre que a inversa
de uma matriz elementar é uma matriz elementar.

O próximo resultado mostra que o que aconteceu no Exercício 2.16 é um


fato geral: a aplicação de uma operação elementar sobre as linhas da matriz
𝐴, 𝑚 × 𝑛, é equivalente à multiplicação dessa matriz pela matriz elementar
𝑚 × 𝑚 resultante da mesma operação elementar.

Proposição 2.29 Sejam 𝑒 uma operação elementar sobre as linhas da ma-


triz 𝐴 ∈ 𝕄𝑚×𝑛 e 𝐸 a matriz elementar 𝑒(I), sendo I a matriz identidade
𝑚 × 𝑚. Então 𝑒(𝐴) = 𝐸𝐴.

Demonstração: A demonstração deve ser feita para todos os tipos de ope-


ração elementar. Consideraremos apenas a aplicação de uma operação ele-
mentar do tipo (𝑐): a linha 𝑗 será substituída pela soma da linha 𝑗 com 𝜆
vezes a linha 𝑖. Como a matriz 𝐴 é 𝑚 × 𝑛, obtemos a matriz elementar que
nos interessa ao aplicar essa operação à matriz identidade 𝑚 × 𝑚:

⎛1 0 … 0⎞
⎜⋮ ⋮⎟
𝐸 = ⎜0 … 𝜆 … 1 … 0⎟ ← linha 𝑗
⎜ ⎟
⎜⋮ ⋮⎟
⎝0 0 … 1⎠


coluna 𝑗
Então

⎛1 0 … 0⎞ ⎛ 𝑎11 𝑎12 … 𝑎1𝑛 ⎞


⎜⋮ ⋮⎟ ⎜ ⋮ ⋮ ⎟
𝐸𝐴 = ⎜0 … 𝜆 … 1 … 0⎟ ⎜ 𝑎𝑗1 𝑎𝑗2 … 𝑎𝑗𝑛 ⎟
⎜ ⎟⎜ ⎟
⎜⋮ ⋮⎟ ⎜ ⋮ ⋮ ⎟
⎝0 0 … 1⎠ ⎝𝑎𝑚1 𝑎𝑚2 … 𝑎𝑚𝑛 ⎠
⎛ 𝑎11 𝑎12 … 𝑎1𝑛 ⎞
⎜ ⋮ ⋮ ⎟
= ⎜𝑎𝑗1 + 𝜆𝑎𝑖1 𝑎𝑗2 + 𝜆𝑎𝑖2 … 𝑎𝑗𝑛 + 𝜆𝑎𝑖𝑛 ⎟ ,
⎜ ⎟
⎜ ⋮ ⋮ ⎟
⎝ 𝑎𝑚1 𝑎𝑚2 … 𝑎𝑚𝑛 ⎠

que é igual 𝑒(𝐴). 


2.2. MATRIZES ELEMENTARES E MATRIZ INVERSA 37

O Lema 2.26 nos mostra como é importante saber se uma matriz é inver-
tível. Os próximos resultados simplificam a verificação de que uma matriz
é a inversa da outra e nos ensinam como obter a inversa de uma matriz in-
vertível.

Proposição 2.30 Seja 𝐴 ∈ 𝕄𝑛×𝑛 . São equivalentes as seguintes afirma-


ções:
(𝑖) existe uma matriz 𝐵, 𝑛 × 𝑛, tal que 𝐴𝐵 = I;
(𝑖𝑖) a matriz 𝐴 é equivalente por linhas à matriz identidade 𝐼;
(𝑖𝑖𝑖) 𝐴 é um produto de matrizes elementares.
(𝑖𝑣) a matriz 𝐴 é invertível;
Demonstração: Seja 𝑅 a forma escalonada reduzida por linhas de 𝐴. Con-
sidere uma sequência de operações elementares 𝑒𝑖 tal que

𝑒𝑗 𝑒𝑗−1 … 𝑒1 𝐴 = 𝑅.

Pela Proposição 2.29 temos que

𝐸𝑗 𝐸𝑗−1 … 𝐸1 𝐴 = 𝑅,

em que a matriz elementares 𝐸𝑖 está associadas à operação elementar 𝑒𝑖 ,


1 ≤ 𝑖 ≤ 𝑗. Multiplicando essa igualdade por 𝐵 pelo lado direito, obtemos

𝐸𝑗 𝐸𝑗−1 … 𝐸1 𝐴𝐵 = 𝑅𝐵 ⇒ 𝐸𝑗 𝐸𝑗−1 … 𝐸1 = 𝑅𝐵.

Como cada matriz elementar 𝐸𝑖 possui inversa (de acordo com o Exercício
2.17), decorre do Lema 1.15 que o lado esquerdo dessa igualdade possui
inversa. Como 𝑅 é uma matriz quadrada, se tivéssemos 𝑅 ≠ 𝐼, então a úl-
tima linha de 𝑅 seria identicamente nula. Em consequência, a última linha
de 𝑅𝐵 seria nula. Isso implica que 𝑅𝐵 não possuiria inversa, uma contra-
dição. Logo, 𝑅 = I e (𝑖) implica (𝑖𝑖).
Se (𝑖𝑖) for válido, temos que 𝐸𝑗 𝐸𝑗−1 … 𝐸1 𝐴 = I e, portanto, 𝐴 =
−1 −1 −1
𝐸1 … 𝐸𝑗−1 𝐸𝑗 , de acordo com o Lema 1.15. Assim, 𝐴 é um produto
de matrizes elementares, pelo Exercício 2.17. Isso mostra que (𝑖𝑖) implica
(𝑖𝑖𝑖).
Como cada matriz elementar possui inversa e o produto de matrizes
invertíveis é invertível (pelo Lema 1.15), temos que (𝑖𝑖𝑖) implica (𝑖𝑣).
É claro que (𝑖𝑣) implica (𝑖). 

Observe que a afirmação (𝑖) da Proposição 2.30 apenas nos diz que 𝐴
possui uma inversa à direita, isto é, existe 𝐵 tal que 𝐴𝐵 = I, mas não sa-
bemos se 𝐵𝐴 = I, o que é uma consequência do resultado demonstrado
(como?).

Exercício 2.18 Justifique as afirmações feitas na demonstração anterior:


(a) se 𝑅 ≠ 𝐼, então 𝑅 possui uma linha nula;
(b) se 𝑅 possui uma linha nula e se existe o produto 𝑅𝐵, então 𝑅𝐵 possui uma linha nula;
(c) uma matriz que possui uma linha nula não possui inversa.
38CAPÍTULO 2. SISTEMAS LINEARES E A INVERSA DE UMA MATRIZ

Corolário 2.31 Seja 𝐴 ∈ 𝕄𝑛×𝑛 . Se existe uma matriz 𝐵, 𝑛 × 𝑛, tal que


𝐵𝐴 = I, então 𝐵 = 𝐴−1 .

Demonstração: Se aplicarmos o Teorema 2.30 com os papéis de 𝐴 e 𝐵


trocados, concluímos que 𝐵 tem inversa. Multiplicando 𝐵𝐴 = I por 𝐵 −1
−1
pelo lado esquerdo, obtemos 𝐴 = 𝐵 −1 . Daí decorre que 𝐴−1 = (𝐵 −1 ) =
𝐵. 

Decorre do Teorema 2.30 e do Corolário 2.31 que, para verificar que


uma matriz 𝐵 ∈ 𝕄𝑛×𝑛 é a inversa da matriz 𝐴 ∈, não precisamos verificar
que 𝐴𝐵 = 𝐼 e 𝐵𝐴 = 𝐼; basta uma dessas igualdades!

Corolário 2.32 Seja 𝐴 uma matriz quadrada. As seguintes afirmações são


equivalentes:

(𝑖) O sistema homogêneo 𝐴𝒙 = 0 possui solução única.

(𝑖𝑖) 𝐴 é invertível.

Demonstração: Suponhamos que 𝐴𝒙 = 0 possua uma única solução (ne-


cessariamente temos então 𝒙 = 0). Isso quer dizer que a forma escalonada
reduzida por linhas da matriz 𝐴 possui um pivô em cada uma de suas colu-
nas, sendo, portanto, igual a matriz identidade. Logo, pela Proposição 2.30,
𝐴 possui inversa, mostrado que (𝑖) implica (𝑖𝑖). A outra implicação resulta
imediatamente do Lema 2.26. 

Exercício 2.19 Mostre o Corolário 2.32 raciocinando em termos de variáveis livres.

Corolário 2.33 (Cálculo da Inversa) Seja 𝐴 ∈ 𝕄𝑛×𝑛 . Monte a matriz


𝐶 = (𝐴|𝐼 ), em que 𝐼 é a matriz identidade 𝑛 × 𝑛. Aplique as mesmas
operações elementares sobre linha à matriz 𝐴 e à matriz 𝐼, de forma a ob-
ter a matriz 𝐶 ′ = (𝑅, 𝐷), em que 𝑅 é a forma escalonada reduzida por
linhas de 𝐴. Se 𝑅 = 𝐼, então 𝐷 = 𝐴−1 . Se 𝑅 ≠ 𝐼, 𝐴 não possui inversa.

Demonstração: Se 𝑅 = 𝐼, como 𝐸𝑗 𝐸𝑗−1 … 𝐸1 𝐴 = 𝐼, temos que 𝐷𝐴 = 𝐼,


para 𝐷 = 𝐸𝑗 𝐸𝑗−1 … 𝐸1 = 𝐸𝑗 𝐸𝑗−1 … 𝐸1 𝐼. Pelo Corolário 2.31, temos
𝐷 = 𝐴−1 . 

Exemplo 2.34 Para obter a inversa da matriz

⎛ 1 1 1 0 ⎞
⎜ 2 1 4 0 ⎟
𝐴=⎜ ⎟,
2 3 5 0
⎜ ⎟
⎝ 0 0 0 1 ⎠

consideramos (𝐴| I), em que I é a matriz identidade 4 × 4 e levamos a matriz


𝐴 à sua forma escalonada reduzida por linhas:
2.3. EXERCÍCIOS 39

⎛1 1 1 0 | 1 0 0 0 ⎞ ⎛ 1 1 1 0 | 1 0 0 0⎞
⎜2 1 4 0 | 0 1 0 0 ⎟ ⎜ 0 1 −2 0 | 2 −1 0 0 ⎟
⎜2 3 5 0 0 0 1 0 ⎟→ ⎜ 0 1 3 0 −2 0 1 0⎟

⎜ | ⎟ ⎜ | ⎟
⎝0 0 0 1 | 0 0 0 1 ⎠ ⎝ 0 0 0 1 | 0 0 0 1⎠

⎛1 0 3 0 | −1 1 0 0⎞ ⎛1 0 3 0 | −1 1 0 0⎞
⎜0 1 −2 0 | 2 −1 0 0 ⎟ ⎜0 1 −2 0 | 2 −1 0 0⎟
⎜0 → →
⎜ 0 5 0 | −4 1 1 0 ⎟⎟ ⎜0 0 1 0 4
| −5
1 1
0⎟
⎜ 5 5 ⎟
⎝0 0 0 1 | 0 0 0 1⎠ ⎝0 0 0 1 | 0 0 0 1⎠

7 2
⎛1 0 0 0 | 5 5
− 35 0⎞
⎜ 2

⎜0 1 0 0 | 5
− 35 2
5
0⎟
→⎜ ⎟
⎜0 0 1 0 | − 45 1 1
0⎟
⎜ 5 5 ⎟
⎜0 0 0 1 0 0 0 1 ⎟⎠
⎝ |

A matriz do lado direito é a inversa da matriz 𝐴. C

Observação 2.35 Se 𝐴 for uma matriz invertível, observe que a coluna 𝑖 de


𝐴−1 é obtida ao se resolver o sistema 𝐴𝒙 = 𝒆𝑖 . C

2.3 Exercícios
1. Considere o sistema de equações
𝑥1 + 5𝑥2 + 7𝑥1 𝑥3 = 2
{ 2𝑥1 − 𝑥2 + 𝑥3 = 0
Esse sistema é linear?
2. Dê exemplo de um sistema com duas equações e duas incógnitas que não possui solução.
3. Dê exemplo de um sistema com três equações e duas incógnitas que possui apenas uma so-
lução.
4. Nos seguintes sistemas, determine pivôs, variáveis livres e termos independentes.
𝑥1 + 4𝑥2 − 5𝑥3 + 2𝑥4 − 𝑥5 = 7
(a)
{ 𝑥3 − 𝑥4 + 𝑥5 = 2;
𝑥1 − 𝑥 2 = 3
(b)
{ 𝑥2 = 0.
5. Utilizando o método de Gauss-Jordan, resolva o sistema

⎧ 𝑥 + 2𝑥2 − 3𝑥3 − 2𝑥4 + 4𝑥5 = 1


⎪ 1
⎨ 1 + 5𝑥2 − 8𝑥3 − 𝑥4 + 6𝑥5 = 4
2𝑥

⎩ 𝑥1 + 4𝑥2 − 7𝑥3 + 5𝑥4 + 2𝑥5 = 8
Escreva suas soluções, se existirem, na forma utilizada no Exemplo 2.16.
6. Considere a matriz
⎛0 0 2⎞
𝐴 = ⎜0 0 3⎟ .
⎜ ⎟
⎝0 0 2⎠
Obtenha todas as soluções do sistema 𝐴𝒙 = 0.
40CAPÍTULO 2. SISTEMAS LINEARES E A INVERSA DE UMA MATRIZ

7. Considere a matriz
⎛1 −2 1⎞
𝐴 = ⎜2 −5 1⎟
⎜ ⎟
⎝3 −7 2⎠
e o sistema 𝐴𝒙 = 𝒃, sendo 𝒃 igual a
⎛𝑏1 ⎞
(a) ⎜𝑏2 ⎟;
⎜ ⎟
⎝𝑏3 ⎠
⎛ 1⎞
(b) ⎜ −2 ⎟;
⎜ ⎟
⎝ −1 ⎠
⎛ 2⎞
(c) ⎜ −1 ⎟;
⎜ ⎟
⎝ 2⎠
⎛1⎞
(d) ⎜1⎟.
⎜ ⎟
⎝1⎠
Encontre, em cada caso, todas as soluções do sistema 𝐴𝒙 = 𝒃, se existirem. Em (a), imponha
condições sobre 𝒃 para que a solução exista.
8. Considere o sistema cuja matriz aumentada é

⎛0 0 0 3 −9 | 6⎞
⎜ 0 5 15 −10 40 | − 45⎟ .
⎜ ⎟
⎝ 0 1 3 −1 5 | − 7⎠

Determine todas soluções desse sistema.


9. Encontre condições sobre o termo independente 𝒃 de modo que o sistema 𝐴𝒙 = 𝒃 tenha
solução, se sua matriz aumentada for

⎛ 1 −2 5 | 𝑏1 ⎞
⎜ 4 −5 8 | 𝑏 ⎟.
⎜ | 2⎟
⎝−3 3 −3 | 𝑏3 ⎠

Satisfeita essa condição, escreva as soluções do sistema utilizando a forma utilizada no Exem-
plo 2.16.
10. Determine os valores de 𝑎 de modo que o sistema

⎧ 𝑥 + 𝑦 − 𝑧 = 1

⎨ 2𝑥 + 3𝑦 + 𝑎𝑧 = 3

⎩ 𝑥 + 𝑎𝑦 + 3𝑧 = 2
possua:
(a) solução única;
(b) infinitas soluções;
(c) nenhuma solução.
Determine, quando existirem, as soluções deste sistema.
11. Seja 𝐴 uma matriz 𝑚 × 𝑛 e 𝑅 = (𝑟𝑖𝑗 ) a forma escalonada reduzida por linhas de 𝐴. Justifique:
se o sistema 𝐴𝒙 = 0 não tiver solução única, então uma entrada diagonal 𝑟𝑖𝑖 é igual a zero.
2.3. EXERCÍCIOS 41

12. Seja 𝐴 uma matriz 𝑚 × 𝑛, com 𝑚 ≠ 𝑛. Mostre que não pode existir uma matriz 𝐵, 𝑛 × 𝑚, tal
que 𝐵𝐴 = I𝑛 e 𝐴𝐵 = I𝑚 .
13. Sejam 𝐴1 , 𝐴2 , 𝐴3 ∈ 𝕄𝑛×𝑛 matrizes invertíveis. Mostre que

(𝐴1 𝐴2 𝐴3 )−1 = 𝐴−1 −1 −1


3 𝐴2 𝐴1 .

Conclua que o produto de matrizes invertíveis é uma matriz invertível.


14. Considere a matriz
⎛ 1 −2 5 1⎞

𝐴 = 4 −5 8 −1 ⎟ .
⎜ ⎟
⎝−3 3 −3 2⎠
Seja 𝑅 sua forma escalonada reduzida por linhas. Encontre matrizes elementares 𝐸1 , … , 𝐸𝑗
de modo que
𝐸𝑗 … 𝐸2 𝐸1 𝐴 = 𝑅.

15. Sejam 𝐸1 , 𝐸2 e 𝐸3 matrizes elementares que representam operações elementares dos tipos
(𝑎), (𝑏) e (𝑐), respectivamente. Mostre que 𝐸𝑖𝒕 = 𝐸𝑖 , se 𝑖 = 1 ou 𝑖 = 2. O mesmo resultado
vale se 𝑖 = 3?
16. Calcule as inversas das matrizes

⎛1 0 2⎞ ⎛ 1 −1 2⎞
𝐴 = ⎜2 −1 3⎟ e 𝐵 = ⎜ 2 −1 7⎟ .
⎜ ⎟ ⎜ ⎟
⎝4 1 8⎠ ⎝−4 5 −3⎠

17. Encontre todos os valores de 𝑎 para os quais a matriz

⎛ 1 1 0 ⎞
𝐴=⎜ 1 0 0 ⎟
⎜ ⎟
⎝ 1 2 𝑎 ⎠
possui inversa.
18. Considere a equação matricial 𝐶 −1 (𝐴 + 𝑋)𝐵 −1 = I, supondo que as matrizes 𝐴, 𝐵 e 𝐶 sejam
invertíveis. Obtenha a matriz 𝑋 em função das outras matrizes. A matriz 𝑋 é necessariamente
invertível?
19. Mostre que toda matriz elementar do tipo troca de linha pode ser escrita como produto de
matrizes elementares dos outros dois tipos.
Capítulo 3

Determinantes

3.1 A Função Determinante


Restringindo nosso interesse a matrizes quadradas sobre o corpo 𝕂,
definiremos o determinante de uma matriz 𝐴, 𝑛 × 𝑛, como sendo um escalar
no corpo 𝕂, obtido utilizando as entradas da matriz 𝐴.
Começamos considerando uma matriz 𝐴 = (𝑎), 1×1. Definimos det 𝐴 =
𝑎. Esse caso não traz qualquer interesse.
Assim, consideremos uma matriz genérica 2 × 2.

𝑎 𝑏 ℓ1
𝐴= =
( 𝑐 𝑑) (ℓ2 )

com entradas no corpo 𝕂 e linhas ℓ1 , ℓ2 . Denota-se por det 𝐴 o determi-


nante de 𝐴, que é definido por det 𝐴 = 𝑎𝑑 − 𝑏𝑐.
As seguintes propriedades são de verificação imediata:

(𝑖) O determinante é linear em cada uma de suas linhas. Mais precisa-


mente, quaisquer que sejam as linhas ℓ′𝑖 (𝑖 = 1, 2) e 𝜆 ∈ 𝕂, temos

ℓ1 + 𝜆ℓ′1 𝑎 + 𝜆𝑎′ 𝑏 + 𝜆𝑏′


det = = (𝑎 + 𝜆𝑎′ )𝑑 − (𝑏 + 𝜆𝑏′ )𝑑
( ℓ2 ) ( 𝑐 𝑑 )
ℓ1 ℓ′
= (𝑎𝑑 − 𝑏𝑐) + 𝜆(𝑎′ 𝑑 − 𝑐𝑏′ ) = det + 𝜆 det 1
(ℓ2 ) (ℓ2 )

ℓ1 𝑎 𝑏 ℓ ℓ
det = = det 1 + 𝜆 det 1′ ;
(ℓ2 + 𝜆ℓ′2 ) (𝑐 + 𝜆𝑐 ′ 𝑑 + 𝜆𝑑 ′ ) (ℓ2 ) (ℓ2 )

(𝑖𝑖) Se duas linha de 𝐴 forem iguais, então o determinante da matriz 𝐴 é


igual a zero:
𝑎 𝑏
det = 0;
(𝑎 𝑏)

(𝑖𝑖𝑖) O determinante da matriz identidade 2 × 2 é igual a 1.

42
3.1. A FUNÇÃO DETERMINANTE 43

Exercício 3.1 Dê exemplos de matrizes 2𝑥2 mostrando que


ℓ1 + 𝜆ℓ′1
det
(ℓ2 + 𝜆ℓ′2 )
pode ser igual ou diferente de
ℓ1 ℓ′
det + 𝜆 1′ .
(ℓ2 ) (ℓ2 )
Exercício 3.2 Mostre que, definindo
⎛𝑎11 𝑎12 𝑎13 ⎞
det ⎜𝑎21 𝑎22 𝑎23 ⎟ = 𝑎11 (𝑎22 𝑎33 − 𝑎23 𝑎32 ) − 𝑎12 (𝑎21 𝑎33 − 𝑎23 𝑎31 )
⎜ ⎟
⎝𝑎31 𝑎32 𝑎33 ⎠
+ 𝑎13 (𝑎21 𝑎32 − 𝑎22 𝑎31 ).
as propriedades (𝑖) − (𝑖𝑖𝑖) satisfeitas pelo determinante de uma matriz 2 × 2 são satisfeitas.
Em vez de definirmos o determinante para matrizes 4×4, 5×5, … , 𝑛×𝑛
sucessivamente, definiremos, por suas propriedades, uma função determi-
nante, a qual nos permitirá definir (e calcular) o determinante de qualquer
matriz 𝑛 × 𝑛.
Definiremos uma função determinante a partir das propriedades (𝑖) −
(𝑖𝑖𝑖) satisfeitas pelo determinante de uma matriz 2 × 2. Temos em mente
uma matriz quadrada
⎛ℓ1 ⎞
⎜ℓ ⎟
𝐴 = ⎜ 2⎟

⎜ ⎟
⎝ ℓ𝑛 ⎠
expressa em termos de suas linhas ℓ1 , … , ℓ𝑛 .
Definição 3.1 Sejam ℓ1 , ℓ2 , … , ℓ𝑛 vetores linha em 𝕂𝑛 . Uma função de-
terminante é uma função 𝐷 ∶ 𝕄𝑛×𝑛 → 𝕂 satisfazendo as propriedades:
(𝑑1 ) 𝐷 é uma função 𝑛-linear, isto é, se todos os ℓ𝑗 com 𝑗 ≠ 𝑖 estiverem
fixos e ℓ′𝑖 for outro vetor linha em 𝕂𝑛 , então

⎛ ℓ1 ⎞ ⎛ℓ1 ⎞ ⎛ℓ1 ⎞
⎜ ⋮ ⎟ ⎜⋮⎟ ⎜⋮⎟
𝐷 ⎜ℓ𝑖 + 𝜆ℓ′𝑖 ⎟ = 𝐷 ⎜ ℓ𝑖 ⎟ + 𝜆𝐷 ⎜ ℓ′𝑖 ⎟ .
⎜ ⎟ ⎜ ⎟ ⎜ ⎟
⎜ ⋮ ⎟ ⎜⋮⎟ ⎜⋮⎟
⎝ ℓ𝑛 ⎠ ⎝ℓ𝑛 ⎠ ⎝ℓ𝑛 ⎠
(𝑑2 ) 𝐷 é uma função alternada, isto é, se duas linhas de 𝐴 forem iguais,
então 𝐷(𝐴) = 0. Isto é, se ℓ𝑖 = ℓ𝑗 para 𝑖 ≠ 𝑗, 𝑖, 𝑗 ∈ {1, … , 𝑛}, então

⎛ℓ1 ⎞
⎜⋮⎟
⎜ℓ ⎟
⎜ 𝑖⎟
𝐷 ⎜ ⋮ ⎟ = 0;
⎜ ℓ𝑗 ⎟
⎜⋮⎟
⎜ ⎟
⎝ℓ𝑛 ⎠
(𝑑3 ) 𝐷(I) = 1, em que I denota a matriz identidades 𝑛 × 𝑛.
44 CAPÍTULO 3. DETERMINANTES

Se bem que saibamos que essas propriedades são verificadas para ma-
trizes 2 × 2 com 𝐷(𝐴) definido por det 𝐴, não é óbvia a existência de uma
função satisfazendo as propriedades (𝑑1 ) − (𝑑2 ) − (𝑑3 ) para matrizes genéri-
cas 𝑛 × 𝑛. Mais do que isso, existe uma única maneira de definir o determi-
nante? Não é possível que definições diferentes do determinante satisfaçam
as propriedades (𝑑1 )-(𝑑2 )-(𝑑3 ) que definem a função determinante?
Antes de provarmos que existe uma única função 𝐷 ∶ 𝕄𝑛×𝑛 → 𝕂 satis-
fazendo as propriedades (𝑑1 )-(𝑑2 )-(𝑑3 ), mostraremos algumas propriedades
que nos permitirão calcular o determinante de uma matriz quadrada. Para
melhor entendermos o significado da hipótese (𝑑3 ), em muitos resultados
consideraremos apenas uma função satisfazendo as propriedades (𝑑1 ) e (𝑑2 ).

3.2 A Função Determinante e Operações Elementa-


res
Neste seção, sempre supondo a existência de uma função 𝐷 satisfazendo
as propriedades listadas na Definição 3.1, vamos mostrar como calcular o
determinante de uma matriz quadrada, utilizando operações elementares so-
bre suas linhas.

Lema 3.2 Seja 𝐷 uma função satisfazendo a propriedade (𝑑1 ). São equi-
valentes as afirmações:

(𝑑2 ) 𝐷 é uma função alternada, isto é, a propriedade (𝑑2 ) é satisfeita;

(𝑑2′ ) se as linhas consecutivas ℓ𝑖 e ℓ𝑖+1 de 𝐷 forem iguais, então

⎛ ℓ1 ⎞
⎜ ⋮ ⎟
⎜ ℓ ⎟
𝐷 ⎜ 𝑖 ⎟ = 0.
⎜ℓ𝑖+1 ⎟
⎜ ⋮ ⎟
⎜ ⎟
⎝ ℓ𝑛 ⎠

Demonstração: É claro que (𝑑2 ) implica (𝑑2′ ). Para mostrar a implicação


contrária, suponhamos que, se ℓ𝑖 = ℓ𝑖+𝑘 em que 𝑘 ≥ 1, então

⎛ ℓ1 ⎞
⎜ ⋮ ⎟
⎜ ℓ ⎟
⎜ 𝑖 ⎟
𝐷 ⎜ ⋮ ⎟ = 0.
⎜ℓ𝑖+𝑘 ⎟
⎜ ⋮ ⎟
⎜ ⎟
⎝ ℓ𝑛 ⎠

Se tivermos 𝑘 = 1, então temos a própria afirmação (𝑑2′ ), de modo que


podemos proceder a prova por indução.
3.2. A FUNÇÃO DETERMINANTE E OPERAÇÕES ELEMENTARES 45

Simplificando a notação, escreveremos

⎛ ℓ1 ⎞
⎜ ⋮ ⎟
⎜ ℓ𝑖 ⎟
⎛ ℓ𝑖 ⎞ ⎜
⋮ ⎟

𝐷 ⎜ ℓ𝑖+𝑘 ⎟ em vez de 𝐷⎜ .
⎜ ⎟ ⎜ ℓ𝑖+𝑘 ⎟
⎝ℓ𝑖+𝑘+1 ⎠ ⎜ℓ𝑖+𝑘+1 ⎟
⎜ ⋮ ⎟
⎜ ⎟
⎝ ℓ𝑛 ⎠
Suponhamos então que tenhamos ℓ𝑖 = ℓ𝑖+𝑘+1 . Então (verifique cada pas-
sagem cuidadosamente!)

⎛ ℓ𝑖 ⎞ ⎛ ℓ𝑖 ⎞ ⎛ ℓ𝑖 ⎞ ⎛ ℓ𝑖 ⎞
⎜ ⎟ ⎜ ⎟ ⎜ ⎟
𝐷 ℓ𝑖+𝑘 = 𝐷 ℓ𝑖+𝑘 + 𝐷 ℓ𝑖+𝑘 = 𝐷 ⎜ ℓ𝑖+𝑘 ⎟
⎜ ⎟ ⎜ ⎟ ⎜ ⎟ ⎜ ⎟
⎝ℓ𝑖+𝑘+1 ⎠ ⎝ℓ𝑖+𝑘 ⎠ ⎝ℓ𝑖+𝑘+1 ⎠ ⎝ℓ𝑖+𝑘 + ℓ𝑖+𝑘+1 ⎠
⎛ ℓ𝑖 ⎞ ⎛ ℓ𝑖 ⎞
=𝐷 ⎜ ℓ𝑖+𝑘 ⎟ +𝐷 ⎜ ℓ𝑖+𝑘+1 ⎟
⎜ ⎟ ⎜ ⎟
⎝ℓ𝑖+𝑘 + ℓ𝑖+𝑘+1 ⎠ ⎝ℓ𝑖+𝑘 + ℓ𝑖+𝑘+1 ⎠
⎛ ℓ𝑖 ⎞
= 𝐷 ℓ𝑖+𝑘 + ℓ𝑖+𝑘+1 ⎟ = 0.
⎜ (3.1)
⎜ ⎟
⎝ℓ𝑖+𝑘 + ℓ𝑖+𝑘+1 ⎠
Na primeira igualdade, a primeira matriz do lado direito da igualdade é nula,
pois duas linhas consecutivas são iguais; a segunda igualdade decorre de
(𝑑1 ); a segunda matriz no lado direito da terceira igualdade é nula pela hi-
pótese de indução, pois as linhas ℓ𝑖 e ℓ𝑖+𝑘+1 são iguais; a quarta igualdade
decorre da aplicação de (𝑑1 ); a igualdade entre duas linhas consecutivas
garante então a última igualdade. 

Exercício 3.3 Considere uma matriz 3 × 3 genérica 𝐴 = (𝑎𝑖𝑗 ), com a primeira e terceira linhas
iguais. Supondo as propriedades (𝑑1 ) e (𝑑2′ ), refaça a demonstração da Proposição 3.2
Exercício 3.4 Estude a sequência de igualdades apresentadas em (3.1) e justifique a explicação
apresentada, utilizando apenas as propriedade (𝑑1 ) e (𝑑2′ ).

No próximo resultado, observe que os itens (𝑖), (𝑖𝑖) e (𝑖𝑖𝑖) correspondem,


respectivamente, às operações elementares (𝑎), (𝑏) e (𝑐) da Definição 2.6.
Teorema 3.3 (Determinante e operações elementares)
Suponhamos que exista uma função 𝐷 satisfazendo as propriedades
(𝑑1 ) − (𝑑2 ).
(𝑖) 𝐷 é uma função antissimétrica. Isto é, se 𝐵 for obtida de 𝐴 trocando
duas linhas quaisquer, então 𝐷(𝐵) = −𝐷(𝐴).

(𝑖𝑖) Se 𝐵 for obtida de 𝐴 multiplicando uma linha por 𝜅 ≠ 0, então


𝐷(𝐵) = 𝜅𝐷(𝐴).

(𝑖𝑖𝑖) Se 𝐵 for obtida de 𝐴 substituindo uma linha por ela mesma mais um
múltiplo de outra então 𝐷(𝐵) = 𝐷(𝐴).
46 CAPÍTULO 3. DETERMINANTES

Demonstração: Para mostrar (𝑖), como vamos trocar apenas as linhas ℓ𝑖 e


ℓ𝑗 as outras linhas permanecendo fixas, denotaremos

⎛ℓ1 ⎞
⎜⋮⎟
⎜ℓ ⎟
ℓ𝑖 ⎜ 𝑖⎟
𝐷 em vez de 𝐷⎜ ⋮ ⎟.
(ℓ𝑗 )
⎜ ℓ𝑗 ⎟
⎜⋮⎟
⎜ ⎟
⎝ℓ𝑛 ⎠
Então, utilizando as propriedades (𝑑1 ) e (𝑑2 ), temos

ℓ𝑖 + ℓ𝑗 ℓ ℓ𝑖 ℓ ℓ
0=𝐷 =𝐷 𝑖 + +𝐷 𝑗 +𝐷 𝑗
(ℓ𝑖 + ℓ𝑗 ) (ℓ𝑖 ) (ℓ𝑗 ) (ℓ𝑖 ) (ℓ𝑗 )
ℓ𝑖 ℓ
=𝐷 +𝐷 𝑗 .
(ℓ𝑗 ) (ℓ𝑖 )

Logo,
ℓ𝑖 ℓ
𝐷 = −𝐷 𝑗 .
(ℓ𝑗 ) ( ℓ𝑖 )
Mantendo a notação do item anterior, suponhamos que a matriz 𝐵 seja
obtida de 𝐴 ao se somar a 𝜅 vezes a linha 𝑖 à linha 𝑗, todas as outras linhas
permanecendo inalteradas. Então

ℓ𝑖 ℓ ℓ𝑖
𝐷(𝐵) = 𝐷 = 𝜅𝐷 𝑖 + 𝐷 = 𝐷(𝐴),
(𝜅ℓ𝑖 + ℓ𝑗 ) (ℓ𝑖 ) (ℓ𝑗 )

mostrando a propriedade (𝑖𝑖𝑖).


Para mostrar (𝑖𝑖), ainda de acordo com a notação anterior, denotaremos

ℓ1
𝐷(𝐵) = 𝐷 .
(𝜅ℓ𝑖 )

Então
ℓ1 ℓ ℓ ℓ1
𝜅𝐷 = 𝐷 1 + 𝜅𝐷 1 = 𝐷
( ℓ𝑖 ) (ℓ 1 ) ( ℓ𝑖 ) (ℓ1 + 𝜅ℓ𝑖 )
ℓ1 ℓ1
=𝐷 + = 𝐷(𝐵),
(ℓ1 ) (𝜅ℓ𝑖 )

o que conclui a demonstração de (𝑖𝑖). 

Exercício 3.5 Na demonstração do Teorema 3.3, utilizando as propriedades da função determi-


nante, justifique todas as passagens utilizadas na demonstração do resultado.
Exercício 3.6 Considere uma matriz 3×3 genérica 𝐴 = (𝑎𝑖𝑗 ). Seja 𝐵 a matriz obtida pela aplicação
de cada uma das operações elementares sobre linhas, isto é, aquelas descritas no Teorema 3.3.
Repita a demonstração apresentada no teorema para esse caso específico.

Corolário 3.4 Seja 𝐴 uma matriz 𝑛 × 𝑛. Então, se 𝐴 possuir uma linha


identicamente ℓ𝑖 nula, então det 𝐴 = 0.
3.2. A FUNÇÃO DETERMINANTE E OPERAÇÕES ELEMENTARES 47

Demonstração: Suponhamos que a linha ℓ𝑖 seja identicamente nula. Man-


tendo a notação empregada na demonstração do Teorema 3.3, temos

ℓ1 ℓ ℓ ℓ1 ℓ
𝐷 =𝐷 1 +𝐷 1 =𝐷 = 𝐷 1 = 0.
( ℓ𝑖 ) (ℓ1 ) ( ℓ𝑖 ) (ℓ1 + ℓ𝑖 ) (ℓ1 )


Exercício 3.7 Justifique as igualdades na demonstração do corolário anterior.

O próximo resultado é fundamental, pois nos permitirá calcular o de-


terminante de qualquer matriz 𝑛 × 𝑛, supondo a existência de uma função
determinante.

Corolário 3.5 Suponhamos a existência de uma função determinante, isto


é, uma função satisfazendo as propriedades (𝑑1 )−(𝑑2 )−(𝑑3 ). Sejam 𝐴, 𝐴′ ∈
𝕄𝑛×𝑛 matrizes quaisquer.

(𝑖) Se 𝐸 for a matriz que representa a operação elementar (𝑎), então


𝐷(𝐸) = −1 e 𝐷(𝐸𝐴) = −𝐷(𝐴) = 𝐷(𝐸)𝐷(𝐴).

(𝑖𝑖) Se 𝐸 for a matriz que representa a operação elementar (𝑏), então


𝐷(𝐸) = 𝜅 e 𝐷(𝐸𝐴) = 𝜅𝐷(𝐴) = 𝐷(𝐸)𝐷(𝐴).

(𝑖𝑖𝑖) Se 𝐸 for a matriz que representa a operação elementar (𝑐), então


𝐷(𝐸) = 1 e 𝐷(𝐸𝐴) = 𝐷(𝐴) = 𝐷(𝐸)𝐷(𝐴).

(𝑖𝑣) Seja 𝐶 uma matriz equivalente por linhas à matriz 𝐴′ . Então 𝐷(𝐴′ ) =
0 se, e somente se, 𝐷(𝐶) = 0.

(𝑣) A matriz 𝐴 é invertível se, e somente se, 𝐷(𝐴) ≠ 0.

(𝑣𝑖) 𝐷(𝐴𝐴′ ) = 𝐷(𝐴)𝐷(𝐴′ ).

(𝑣𝑖𝑖) A função 𝐷 (se existir) é única.

Demonstração: Uma vez que 𝐷(𝐸) = 𝐷(𝐸𝐼), ao considerarmos suces-


sivamente as operações elementares (𝑎), (𝑏) e (𝑐), como consequência do
Teorema 3.3 obtemos a valor de 𝐷(𝐸) e a primeira igualdade na expressão
de 𝐷(𝐸𝐴) nos itens (𝑖), (𝑖𝑖) e (𝑖𝑖𝑖) . A segunda igualdade na expressão de
𝐷(𝐸𝐴) então é imediata.
Suponhamos que 𝐸𝑗 ⋯ 𝐸1 𝐴′ = 𝐶 para uma sequência de matrizes ele-
mentares 𝐸𝑖 , 1 ≤ 𝑖 ≤ 𝑗. Decorre por indução dos itens (𝑖)-(𝑖𝑖𝑖) que

𝐷(𝐶) = 𝐷(𝐸𝑗 ) ⋯ 𝐷(𝐸1 )𝐷(𝐴′ ). (3.2)

Como 𝐷(𝐸𝑖 ) ≠ 0 para 1 ≤ 𝑖 ≤ 𝑗, temos (𝑖𝑣).


Seja 𝑅 a forma escalonada reduzida por linhas de 𝐴. Se 𝑅 = 𝐼, então
𝐷(𝐴) ≠ 0 decorre de (𝑖𝑣). Se 𝐴 não for invertível, então 𝑅 tem uma linha
identicamente nula. Pelo Corolário 3.4, 𝐷(𝑅) = 0 e (𝑣) resulta de (𝑖𝑣).
Se 𝐴 não for invertível, então 𝐴𝐴′ não é invertível e 𝐷(𝐴𝐴′ ) = 0, pelo
item (𝑣). Como (𝑣) implica 𝐷(𝐴) = 0, temos também 𝐷(𝐴)𝐷(𝐴′ ) = 0.
48 CAPÍTULO 3. DETERMINANTES

Se 𝐴 for invertível, então 𝐴 = 𝐸𝑗 ⋯ 𝐸1 e temos a igualdade (3.2) para


𝐶 = 𝐴𝐴′ . Como 𝐷(𝐴) = 𝐷(𝐸𝑗 ) ⋯ 𝐷(𝐸1 ), temos (𝑣𝑖).
Suponhamos que 𝐷 e 𝐷′ sejam duas funções satisfazendo as proprieda-
des (𝑑1 ) − (𝑑3 ). A argumentação apresentada na prova de (𝑖) − (𝑖𝑖𝑖) é válida
para qualquer matriz elementar, logo 𝐷(𝐸) = 𝐷′ (𝐸) para qualquer matriz
elementar 𝐸. Se 𝐴 ∈ 𝕄𝑛×𝑛 for invertível, então 𝐷(𝐴) = 𝐷′ (𝐴), pois 𝐴 é
produto de matrizes elementares e vale (𝑣). Se 𝐴 não for invertível, então
𝐷(𝐴) = 0 = 𝐷′ (𝐴), de acordo com (𝑖𝑣). Isso conclui a demonstração. 

Observação 3.6 A demonstração do Corolário 3.5 depende fortemente da


propriedade 𝐷(I) = 1. Se tivéssemos definido 𝐷(I) = 𝜃 para 0 ≠ 𝜃 ∈ 𝕂, e
𝐸 fosse a matriz da operação elementar (𝑐), então o Teorema 3.3 implicaria
det 𝐸 = 𝜃 e a propriedade (𝑖𝑖𝑖) só seria válida se 𝜃 = 1. Examine os casos
das operações elementares (𝑎) e (𝑏). C

Exercício 3.8 Escreva detalhadamente a prova dos itens (𝑖𝑣) e (𝑣) do Corolário 3.5.

Corolário 3.7 Suponhamos a existência da função determinante. Seja 𝐴


uma matriz 𝑛 × 𝑛 e 𝐴t sua transposta. Então
(𝑖) A matriz 𝐴 tem inversa se, e somente se, 𝐴𝒕 for invertível

(𝑖𝑖) det 𝐴 = det 𝐴t .

Demonstração: Se 𝐴 for invertível, então 𝐴 = 𝐸𝑟 ⋯ 𝐸1 para matrizes ele-


mentares 𝐸𝑚 , 1 ≤ 𝑚 ≤ 𝑟, de acordo com a Proposição 2.30. Então, pelo
Exercício 17 do Capítulo 1, temos 𝐴𝒕 = 𝐸1𝒕 ⋯ 𝐸𝑟𝒕 e, pelo Corolário 3.5 (𝑣),

det 𝐴𝒕 = det 𝐸1𝒕 ⋯ det 𝐸𝑟𝒕 .

Se 𝐸𝑖 for uma matriz que representa uma operação elementar do tipo


(𝑎) ou (𝑏), então 𝐸𝑖 = 𝐸𝑖𝒕 (veja o Exercício 15 do Capítulo 2). E se 𝐸𝑖
for uma matriz que representa uma operação elementar do tipo (𝑐), então
det 𝐸𝑖 = 1 = det 𝐸𝑖𝒕 . Em qualquer caso, temos det 𝐸𝑖 = det 𝐸𝑖𝒕 , provando
que det 𝐴 = det 𝐴𝒕 , se 𝐴 for invertível. Como toda a argumentação vale
para 𝐴𝒕 no caso desta matriz ser invertível, provamos (𝑖) e (𝑖𝑖) no caso de 𝐴
invertível.
Assim, se 𝐴 não for invertível, 𝐴𝒕 também não é. De acordo com o
Corolário 3.5 (iv), temos det 𝐴 = det 𝐴𝒕 também nesse caso, concluindo a
prova de (𝑖𝑖). 

Nosso objetivo é, dada uma matriz 𝐴 ∈ 𝕄𝑛×𝑛 , definir o determinante


da matriz 𝐴 por det 𝐴 = 𝐷(𝐴). Se isso for possível, poderemos calcular o
determinante de qualquer matriz quadrada. No restante desta seção, vamos
supor a existência da função determinante, fato que será provado na Seção
3.3.
Relembramos uma definição apresentada no Capítulo 1.
Definição 3.8 Uma matriz quadrada é triangular superior, se todas as
suas entradas abaixo da diagonal principal forem nulas..
3.2. A FUNÇÃO DETERMINANTE E OPERAÇÕES ELEMENTARES 49

Quer dizer, uma matriz triangular superior tem a forma

⎛𝑎11 𝑎12 𝑎13 ⋯ 𝑎1𝑛 ⎞


⎜ 0 𝑎22 𝑎23 ⋯ 𝑎2𝑛 ⎟
⎜0 0 𝑎33 ⋯ 𝑎3𝑛 ⎟ .
⎜ ⎟
⎜ ⋮ ⋮ ⋮ ⋱ ⋮⎟
⎝0 0 0 ⋯ 𝑎𝑛𝑛 ⎠

De forma análoga, uma matriz 𝐴 é triangular inferior, se todas as suas


entradas acima da diagonal principal forem nulas. Alternativamente, se sua
transposta for triangular superior.
Observe que uma matriz na forma escalonada é triangular superior. As-
sim, utilizando o Teorema 3.3 e o Corolário 3.5, poderíamos calcular o de-
terminante de qualquer matriz quadrada, desde que saibamos calcular o de-
terminante de uma matriz triangular superior. Mostraremos agora que isso
é possível.

Proposição 3.9 Suponhamos a existência da função determinante. Seja


𝐴 = (𝑎𝑖𝑗 ) uma matriz triangular superior. Então det 𝐴 é igual ao produto
de suas entradas diagonais. Isto é,

det 𝐴 = 𝑎11 𝑎22 ⋯ 𝑎𝑛𝑛 .

Demonstração: Se 𝐴 não for invertível, então det 𝐴 = 0, de acordo com o


Corolário 3.5. Mas o fato de 𝐴 não ser invertível garante que houve perda
de pivô no escalonamento de 𝐴. Isso quer dizer que alguma das entradas
diagonais 𝑎𝑖𝑖 é nula, para 1 ≤ 𝑖 ≤ 𝑛. Mas então o produto das entradas
diagonais de 𝐴 também é nulo.
Assim, podemos supor que 𝐴 seja invertível, o que implica que todas as
entradas diagonais 𝑎𝑖𝑖 de 𝐴, 1 ≤ 𝑖 ≤ 𝑛, são não nulas. Aplicando unicamente
a operação elementar (𝑐), podemos levar essa matriz à sua forma diagonal,
sem alterar suas entradas 𝑎𝑖𝑖 (verifique!).
Ou seja, podemos supor que a matriz invertível 𝐴 seja diagonal, com
elementos 𝑎𝑖𝑖 ≠ 0, para 1 ≠ 𝑖 ≠ 𝑛. Sejam 𝐸𝑖 as matrizes correspondentes às
operações elementares que transformam cada elemento diagonal 𝑎𝑖𝑖 em um
pivô, isto é, fazem esse elemento diagonal ser igual a 1 e a matriz resultante
é a identidade. Então, pelo Corolário 3.5 (𝑖𝑖), obtemos

1 = det I = det(𝐸𝑛 ⋯ 𝐸1 𝐴) = det 𝐸𝑛 ⋯ det 𝐸1 det 𝐴


1 1 1
= ⋯ det 𝐴,
𝑎11 𝑎22 𝑎𝑛𝑛

de onde decorre o afirmado. 

Exemplo 3.10 Calcule o determinante de

⎛ 1 2 −1 1⎞
⎜ 0 2 0 0⎟
𝐴=⎜ .
1 2 −1 4⎟
⎜ ⎟
⎝−1 1 3 2⎠
50 CAPÍTULO 3. DETERMINANTES

Escalonamos a matriz 𝐴:

⎛ 1 2 −1 1⎞ ⎛1 2 −1 1⎞
⎜ 0 2 0 0⎟ ⎜0 2 0 0⎟
⎜ 1 →
2 −1 4⎟ ⎜0 0 0 3⎟
⎜ ⎟ ⎜ ⎟
⎝−1 1 3 2⎠ ⎝0 3 2 3⎠
⎛1 2 −1 1⎞ ⎛1 2 −1 1⎞ ⎛1 2 −1 1⎞
⎜0 2 0 0⎟ ⎜0 1 0 0 ⎟ ⎜0 1 0 0⎟
→⎜ → → .
0 3 2 3⎟ ⎜0 3 2 3 ⎟ ⎜0 0 2 3⎟
⎜ ⎟ ⎜ ⎟ ⎜ ⎟
⎝0 0 0 3⎠ ⎝0 0 0 3 ⎠ ⎝0 0 0 3⎠
Sejam 𝐴, 𝐵, 𝐶, 𝐷, 𝐸, respectivamente, as matrizes acima. Do Teorema
3.3 e do Corolário 3.5 deduzimos
1 1 1
det 𝐸 = det 𝐷 = det 𝐶 = (− det 𝐵) = − det 𝐴.
2 2 2
Daí, pela Proposição 3.9, det 𝐴 = −2 det 𝐷 = −12.
Alternativamente,

det 𝐴 = det 𝐵 = − det 𝐶 = −2 det 𝐷 = −2 det 𝐸 = −12. ⊲

Exercício 3.9 Calcule o determinante da matriz

⎛2 1 3 1⎞
⎜1 0 1 1⎟
⎜0 .
2 1 0⎟
⎜ ⎟
⎝0 1 2 3⎠

3.3 Existência da Função Determinante


Existe uma função determinante? Sabemos que sim para matrizes 𝑛 × 𝑛
com 𝑛 ≤ 3, mas essa função existe para qualquer matriz 𝑛 × 𝑛? Essa é
uma questão delicada: o Corolário 3.5 no ensina que, se a função determi-
nante existir, então poderemos calcular, via escalonamento, o determinante
de qualquer matriz. Mas a hipótese daquele corolário é a existência dessa
função!

Definição 3.11 Seja 𝐴 uma matriz 𝑛 × 𝑛. Para 𝑖, 𝑗 ∈ {1, … , 𝑛}, 𝐴𝑖𝑗 denota
a matriz obtida ao se eliminar a 𝑖-ésima linha e a 𝑗-ésima coluna de 𝐴.

Exemplo 3.12 Seja


⎛2 3 5⎞
𝐴 = ⎜ 7 11 13⎟ .
⎜ ⎟
⎝17 19 23⎠
Então
11 13 7 13 7 11
𝐴11 = , 𝐴12 = , 𝐴13 =
(19 23) (17 23) (17 19)
e assim por diante. C
3.3. EXISTÊNCIA DA FUNÇÃO DETERMINANTE 51

Teorema 3.13 Existe uma função determinante.

Demonstração: Se 𝐴 for uma matriz 𝑛×𝑛, faremos indução em 𝑛. Se 𝑛 = 2,


então todas as propriedades da função determinante já foram verificadas
anteriormente.1 Suponhamos a existência de uma função determinante 𝐷
para matrizes (𝑛−1)×(𝑛−1) e consideremos uma matriz 𝐴 = (𝑎𝑖𝑗 ) ∈ 𝕄𝑛×𝑛 .
Definimos,
𝑛
𝐷1 (𝐴) = ∑(−1)1+𝑖 𝑎𝑖1 𝐷(𝐴𝑖1 ) (3.3)
𝑖=1
Mostraremos que 𝐷1 (𝐴) satisfaz as propriedades (𝑑1 ) − (𝑑3 ).
Suponhamos que 𝑖-ésima linha de 𝐴 seja ℓ𝑖 +𝜅ℓ′𝑖 , isto é, que para 𝑖 fixo,
a sua entrada 𝑖𝑗 seja 𝑎𝑖1 + 𝜅𝑎′𝑖1 para todo 𝑖 = 1, … , 𝑛, os valores 𝑎𝑖1 , 𝑎′𝑖1 e 𝜅
sendo arbitrários.
De acordo com a hipótese de indução, se 𝑘 ≠ 𝑖, 𝐴𝑘1 depende linear-
mente da linha 𝑖 de 𝐴. Como a entrada 𝑎𝑘1 não depende de 𝑖, (−1)1+𝑘 𝑎𝑘1 𝐴𝑘1
depende linearmente da 𝑖-ésima linha de 𝐴 para todo 𝑘 ≠ 𝑖. Por outro lado,
se 𝑘 = 𝑖, temos (𝑎𝑖1 + 𝜆𝑎′𝑖1 )𝐴𝑖1 = 𝑎𝑖1 𝐴𝑖1 + 𝜆𝑎′𝑖1 𝐴𝑖1 , pois 𝐴𝑖1 não depende
da 𝑖-ésima linha de 𝐴. Mostramos, assim, que todos os termos de (3.3)
dependem linearmente da linha 𝑖 da matriz 𝐴, o que prova (𝑑1 ).
Suponhamos que duas linhas ℓ𝑖 e ℓ𝑖+1 de 𝐴 sejam iguais. Em particular,
duas linhas de 𝐴𝑘1 são iguais, se 𝑘 ∉ {𝑖, 𝑖 + 1}. Assim, apenas os termos

(−1)1+𝑖 𝑎𝑖1 𝐷(𝐴𝑖1 ) e (−1)1+(𝑖+1) 𝑎(𝑖+1)1 𝐷(𝐴(𝑖+1)1 )

podem não ser nulos em (3.3). Contudo, como as linhas ℓ𝑖 e ℓ𝑖+1 são iguais,
também são iguais as matrizes 𝐴1𝑖 e 𝐴1(𝑖+1) . Do mesmo modo para 𝑎1𝑖 e
𝑎1(𝑖+1) . Disso decorre que (3.3) é igual a zero, mostrando (𝑑2 ).
Se 𝐴 for a matriz identidade I, então apenas a parcela (−1)1+1 𝑎11 𝐷(I11 )
não é nula em (3.3). Como I11 é a matriz identidade (𝑛 − 1) × (𝑛 − 1), a
hipótese de indução nos dá 𝐷(I11 ) = 1. Daí decorre que 𝐷1 (I) = 1, como
queríamos demonstrar. 

Exercício 3.10 Considere uma matriz 4 × 4 genérica 𝐴 = (𝑎𝑖𝑗 ). Supondo definido o determinante
de matrizes 3 × 3, reproduza a demonstração do Teorema 3.13 neste caso.
Assim, existe uma função determinante: 𝐷1 satisfaz as propriedades
(𝑑1 ), (𝑑2 ) e (𝑑3 ) e 𝐷1 oferece um método alternativo para o cálculo do de-
terminante de uma matriz. Mas existem outros métodos!

Definição 3.14 Seja 𝐴 = (𝑎𝑖𝑗 ) uma matriz 𝑛 × 𝑛. Sendo 𝐷 uma função


determinante definida para matrizes (𝑛−1)×(𝑛−1), definimos indutivamente

𝐷𝑖 (𝐴) = (−1)𝑖+1 𝑎𝑖1 𝐷(𝐴𝑖1 ) + ⋯ + (−1)𝑖+𝑛 𝑎𝑖𝑛 𝐷(𝐴𝑖𝑛 ).

Os termos (−1)𝑖+𝑗 𝐷(𝐴𝑖𝑗 ) são chamados cofatores da matriz 𝐴 e 𝐷𝑖 (𝐴) é a


expansão do determinante de 𝐴 segundo os cofatores da 𝑖-ésima linha de
𝐴.
1
Não há impedimento em se tomar 𝑛 = 1 e considerar 𝐷(𝛼) = 𝛼. As propriedades
(𝑑1 ) e (𝑑3 ) da função determinante são obviamente verdadeiras e a propriedade (𝑑2 ) vale por
vacuidade.
52 CAPÍTULO 3. DETERMINANTES

Corolário 3.15 A função 𝐷𝑖 é uma função determinante para todo 1 ≤ 𝑖 ≤


𝑛.
Demonstração: Basta verificar que pode ser repetido todo o procedimento
utilizado na demonstração de que 𝐷1 (𝐴) é uma função determinante pode
ser repetido. 

Exercício 3.11 Considere uma matriz 4 × 4 genérica 𝐴 = (𝑎𝑖𝑗 ). Supondo definido o determinante
de matrizes 3 × 3, reproduza a demonstração do Teorema 3.13 desenvolvendo segundo os cofatores
da segunda linha.
Uma vez que já provamos a unicidade da função determinante, concluí-
mos que os valores 𝐷𝑖 (𝐴) são iguais para qualquer 1 ≤ 𝑖 ≤ 𝑛. Mas já
mostramos que det 𝐴 = det 𝐴𝒕 . Assim, podemos concluir o próximo resul-
tado.
Corolário 3.16 A expansão em cofatores pode ser feita também segundo
qualquer coluna da matriz quadrada 𝐴. Isto é,
𝑛
det 𝐴 = ∑(−1)𝑖+𝑗 𝑎𝑖𝑗 det 𝐴𝑖𝑗 .
𝑗=1

Exemplo 3.17 Utilizando a expansão em cofatores, calcule o determinante


de
⎛ 1 2 −1 1⎞
⎜ 0 2 0 0⎟
𝐴=⎜ .
1 2 −1 4⎟
⎜ ⎟
⎝−1 1 3 2⎠
Desenvolvemos em cofatores pela segunda linha:

⎛ 1 2 −1 1⎞
⎛ 1 −1 1⎞
⎜ 0 2 0 0⎟ ⎜ 1
det 𝐴 = det ⎜ = 2 det −1 4⎟
1 2 −1 4⎟ ⎜ ⎟
⎜ ⎟ ⎝−1 3 2⎠
⎝−1 1 3 2⎠
−1 4 1 4 1 −1
= 2 1 det − (−1) det + 1 det
[ ( 3 2) (−1 2) (−1 3)]
= −12. ⊲

Exercício 3.12 Utilizando a expansão em cofatores, calcule o determinante da matriz

⎛2 1 3 1⎞
⎜1 0 1 1⎟
⎜0 .
2 1 0⎟
⎜ ⎟
⎝0 1 2 3⎠
Exercício 3.13 Utilizando a decomposição em cofatores, produza outra demonstração de que
det 𝐴 = det 𝐴𝒕 .
Observe que o desenvolvimento segundo os cofatores da primeira co-
luna de uma matriz triangular superior oferece uma demonstração simples
da Proposição 3.9.
3.4. MATRIZES EM BLOCOS 53

3.4 Matrizes em blocos


Algumas vezes, a divisão de uma matriz quadrada em blocos pode ser
muito útil para o cálculo de seu determinante. Por exemplo, a matriz

⎛ 0 1 2 1 2 3 3 3 1 0 ⎞
⎜ 1 1 2 2 2 2 3 3 1 1 ⎟
⎜ 1 2 2 1 3 1 3 1 1 1 ⎟
⎜ ⎟
⎜ 0 1 0 0 1 1 0 0 1 1 ⎟
⎜ 0 0 0 0 1 2 3 1 2 1 ⎟
𝑄=⎜ ⎟
0 0 0 0 1 1 1 2 1 1
⎜ ⎟
⎜ 0 0 0 0 2 2 2 7 1 1 ⎟
⎜ 0 0 0 0 3 4 3 4 1 4 ⎟
⎜ 0 0 0 0 3 1 4 1 5 6 ⎟
⎜ ⎟
⎝ 0 0 0 0 6 3 4 1 2 1 ⎠
pode ser escrita na forma

𝐴 𝐵
𝑄= ,
( 0 𝐷 )
em que

⎛ 1 2 3 1 2 1 ⎞
⎛ 0 1 2 1 ⎞ ⎜ 1 1 1 2 1 1 ⎟
⎜ 1 1 2 2 ⎟ ⎜ 2 2 2 7 1 1 ⎟
𝐴=⎜ ⎟ e 𝐷=⎜ ⎟.
1 2 2 1 ⎜ 3 4 3 4 1 4 ⎟
⎜ ⎟ ⎜ ⎟
⎝ 0 1 0 0 ⎠ 3 1 4 1 5 6
⎜ ⎟
⎝ 6 3 4 1 2 1 ⎠
Os blocos 𝐴 e 𝐷 ajudam no cálculo do determinante da matriz 𝑄. De fato,
vale o seguinte resultado:
Teorema 3.18 Seja 𝑄 uma matriz 𝑛 × 𝑛 com a forma
𝐴 𝐵
𝑄= ,
( 0 𝐷 )
em que 𝐴 é uma matriz 𝑚 × 𝑚 e 𝐷 uma matriz (𝑛 − 𝑚) × (𝑛 − 𝑚). Então,

det 𝑄 = det 𝐴 det 𝐷.

Demonstração: Utilizando as operações elementares (𝑎) e (𝑐), transforma-


mos os blocos 𝐴 e 𝐷 em matrizes triangulares superior. A operação elemen-
tar (𝑐) não altera o determinante de 𝑄 (nem o de 𝐴 ou 𝐷), mas a operação
(𝑎) inverte o sinal do determinante de 𝑄. Mas, se ela for aplicada em uma li-
nha da matriz 𝐴 (ou da matriz 𝑄) ela também altera o sinal do determinante
de 𝐴 (respectivamente, de 𝐷). Assim, suponhamos que ao transformar 𝐴 e
𝐷 em matrizes triangulares superior tenhamos feito 𝑗 e 𝑘 trocas de linhas,
respectivamente. Teremos

𝐴′ 𝐵 ′
(−1)𝑗 (−1)𝑘 det 𝑄 = ,
( 0 𝐷′ )
54 CAPÍTULO 3. DETERMINANTES

em que 𝐴′ e 𝐷′ são matrizes triangulares superior. Como a matriz 𝑄 é


triangular superior, seu determinante é o produto de suas entradas diagonais,
de modo que

(−1)𝑗 (−1)𝑘 det 𝑄 = 𝑎′11 ⋯ 𝑎′𝑚𝑚 𝑑11


′ ′
⋯ 𝑑(𝑛−𝑚)(𝑛−𝑚)
= det 𝐴′ det 𝐷′ ,

em que 𝑎′11 , … , 𝑎′𝑚𝑚 e 𝑑11


′ ′
, … , 𝑑(𝑛−𝑚)(𝑛−𝑚) são, respectivamente, as entra-
′ ′
das diagonais da matriz 𝐴 e 𝐷 .
Mas det 𝐴 = (−1)𝑗 det 𝐴′ e det 𝐷 = (−1)𝑘 det 𝐷′ , como vimos anteri-
ormente. Substituindo na igualdade anterior, obtemos

det 𝑄 = det 𝐴 det 𝐷. 

Exercício 3.14 Considere a matriz


⎛1 1
1⎞ 1
⎜1 1⎟
2 1
⎜3 .
1⎟
1 1
⎜ ⎟
⎝3 2
2⎠ 1
(𝑖) Utilizando operações elementares, leve essa matriz à forma
𝐴 𝐵
,
( 0 𝐷 )
em que os blocos 𝐴 e 𝐷 são 2 × 2.
(𝑖𝑖) Utilizando o item anterior, calcule seu determinante.

3.5 A Regra de Cramer


Sejam 𝐴 = (𝑎𝑖𝑗 ) uma matriz 𝑛 × 𝑛 e 𝒃 ∈ 𝕂𝑛 um vetor. Consideremos a
equação 𝐴𝒙 = 𝒃.
Suponhamos que 𝑥 = ∑𝑛𝑗=1 𝑥𝑗 𝑒𝑗 ∈ 𝕂𝑛 seja uma solução dessa equação.
Denotando por 𝒄𝑗 a 𝑗-ésima coluna de 𝐴, o Lema 5.30 garante que 𝐴𝒙 =
∑𝑛𝑗=1 𝑥𝑗 𝒄𝑗 = 𝒃.
Definimos 𝐴𝑘 como sendo a matriz obtida ao se substituir a 𝑘-ésima co-
luna de 𝐴 pelo vetor 𝒃. Descrevendo essa matriz em termos de suas colunas,
temos
𝑛
𝐴𝑘 = (𝒄1 … 𝒄𝑘−1 𝒃 𝒄𝑘+1 … 𝒄𝑛 ) = (𝒄1 … 𝒄𝑘−1 ∑ 𝑥𝑗 𝒄𝑗 𝒄𝑘+1 … 𝒄𝑛 ).
𝑗=1
(3.4)
Assim,
𝑛
det 𝐴𝑘 = ∑ 𝑥𝑗 det(𝒄1 , … , 𝒄𝑘−1 , 𝒄𝑗 , 𝒄𝑘+1 , … , 𝒄𝑛 ) = 𝑥𝑘 det 𝐴, (3.5)
𝑗=1

pois todos os outros termos se anulam no somatório. Portanto,


det 𝐴𝑘
𝑥𝑘 = , (3.6)
det 𝐴
3.6. EXERCÍCIOS 55

desde que det 𝐴 ≠ 0. Essa é a regra de Cramer para se obter a solução da


equação 𝐴𝒙 = 𝒃, para um dado 𝒃. Ela garante que, se det 𝐴 ≠ 0, então a
det 𝐴
(única) solução 𝒙 de 𝐴𝒙 = 𝒃 tem coordenadas 𝑥𝑘 = det 𝐴𝑘 .

Exemplo 3.19 Consideremos o sistema 𝐴𝒙 = 𝒃, com

⎛2 1 −1⎞ ⎛1⎞
𝐴 = ⎜2 2 2⎟ e 𝒃 = ⎜13⎟ .
⎜ ⎟ ⎜ ⎟
⎝4 −2 3⎠ ⎝9⎠
É fácil verificar que det 𝐴 = 33, o que nos permite aplicar a regra de Cramer.
Obtemos as matrizes 𝐴1 , 𝐴2 e 𝐴3 .

⎛1 1 −1⎞ ⎛2 1 −1⎞ ⎛2 1 1⎞
𝐴1 = ⎜13 2 2⎟ , 𝐴2 = ⎜2 13 2⎟ e 𝐴3 = ⎜2 2 13⎟ .
⎜ ⎟ ⎜ ⎟ ⎜ ⎟
⎝ 9 −2 3⎠ ⎝4 9 3⎠ ⎝4 −2 9⎠
Calculando, obtemos det 𝐴1 = 33, det 𝐴2 = 66 e det 𝐴3 = 99. Assim, a
solução do sistema é dada por

⎛det 𝐴1 / det 𝐴⎞ ⎛1⎞


𝒙 = ⎜det 𝐴2 / det 𝐴⎟ = ⎜2⎟ .
⎜ ⎟ ⎜ ⎟
⎝det 𝐴3 / det 𝐴⎠ ⎝3⎠ ⊲

A utilização da regra de Cramer na solução de sistemas lineares restrin-


ge-se a matrizes 𝑛 × 𝑛 com 𝑛 ≤ 3 ou a casos especiais, em que os determi-
nantes envolvidos são facilmente calculáveis.

3.6 Exercícios
1. Seja 𝕂 = ℝ ou 𝕂 = ℂ e considere a propriedade (𝑖) do Teorema 3.3
da função determinante. Suponha que 𝐷 satisfaça as propriedades
(𝑑1 ) e (𝑖). Mostre que 𝐷 é alternada.

2. Sejam ℓ1 , … , ℓ𝑛 ∈ 𝕂𝑛 as linhas da matriz 𝐴. Mostre que det 𝐴 = 0


se, e somente se, os vetores ℓ1 , … , ℓ𝑛 forem linearmente dependen-
tes.

3. Suponha que a matriz 𝐴 ∈ 𝕄𝑛×𝑛 possua uma coluna nula. Mostre


que det 𝐴 = 0.

4. Suponha que det 𝐴 ≠ 0. Mostre que det 𝐴−1 = (det 𝐴)−1 .

5. Reproduza a demonstração do Teorema 3.13 para o caso de uma ma-


triz 4 × 4 genérica.

6. Utilizando o desenvolvimento do determinante por cofatores, calcule


o determinante da matriz

⎛ 2 5 −3 −2 ⎞
⎜−2 −3 2 −5 ⎟
⎜ 1 .
3 −2 2⎟
⎜ ⎟
⎝−1 −6 4 3⎠
56 CAPÍTULO 3. DETERMINANTES

7. Repita o exercício anterior utilizando escalonamento.

8. Mostre que det(𝜆𝐴) = 𝜆𝑛 det 𝐴.

9. Seja 𝐴 uma matriz antissimétrica (isto é, 𝐴𝒕 = −𝐴) e 𝑛 ∈ ℕ ímpar.


Mostre que det 𝐴 = 0.

O objetivo dos Exercícios 11-14 é provar que det(𝐴𝐵) = det 𝐴 det 𝐵


sem utilizar matrizes elementares. Vamos utilizar a notação 𝐷(𝑐1 , … , 𝑐𝑛 )
para a função determinante de uma matriz qualquer dada por suas colunas.

11. Seja 𝐴, 𝐵 ∈ 𝕄𝑛×𝑛 matrizes tais que det 𝐵 ≠ 0. Suponha que 𝐴 tenha
colunas 𝑐1 , … , 𝑐𝑛 . Mostre que det(𝐵𝐴) = det(𝐵𝑐1 , … , 𝐵𝑐𝑛 ), em que
a matriz 𝐵𝐴 está sendo expressa por suas colunas. Em seguida, defina
det(𝐵𝐴)
𝐷∗ (𝑐1 , … , 𝑐𝑛 ) = .
det 𝐵
Mostre que 𝐷∗ satisfaz todas as propriedades da função determinante
e conclua que det(𝐴𝐵) = det 𝐴 det 𝐵 se det 𝐵 ≠ 0,

12. Seja 𝐴 uma matriz 𝑛 × 𝑛. Mostre que det(𝜁I − 𝐴) é um polinômio


mônico2 de grau 𝑛 na variável 𝜁.

13. Seja 𝐵(𝜏) uma matriz 𝑛 × 𝑛 cujas entradas 𝛽𝑖𝑗 (𝜏) dependem continua-
mente da variável 𝜏. Mostre que det 𝐵(𝜏) depende continuamente de
𝜏.

14. Sem utilizar matrizes elementares, suponha provado que det(𝐴𝐵) =


det 𝐴 det 𝐵, se det 𝐵 ≠ 0. Usando os Exercícios 7.2 e 13, defina
𝐵(𝜏) = 𝐵 + 𝜏I e mostre a validade do resultado também no caso em
que det 𝐵 = 0.

15. Seja
⎛2 2 2⎞
𝐴 = ⎜0 2 0⎟ .
⎜ ⎟
⎝0 1 3⎠
Determine todos os valores 𝜆 para os quais existe 𝒙 = (𝑥 𝑦 𝑧)𝒕 , com
𝒙 ≠ 0, tal que 𝐴𝒙 = 𝜆𝒙.

16. (Teorema de Kronecker) Considerando a forma escalonada reduzida


por linhas da matriz, mostre o seguinte resultado: se 𝐴 for uma matriz
𝑚 × 𝑛 e 1 ≤ 𝑟 ≤ 𝑛, então posto 𝐴 = 𝑟 se, e somente se, existir uma
submatriz 𝑟 × 𝑟 de 𝐴 com determinante não nulo, enquanto qualquer
submatriz 𝑘 × 𝑘 de 𝐴 tem determinante nulo, para todo 𝑘 > 𝑟.

17. Mostre o Corolário 3.16.

18. Sejam 𝐴, 𝐵, 𝐶, 𝐷 ∈ 𝕄𝑛×𝑛 (𝕂), com det 𝐴 ≠ 0. Mostre que

𝐴 𝐵
det 𝑃 = det = det(𝐴𝐷 − 𝐴𝐶𝐴−1 𝐵).
(𝐶 𝐷)
2
Isto é, o coeficiente do termo de maior grau é igual a 1.
3.6. EXERCÍCIOS 57

Para isso, encontre 𝑋 e 𝑌 tais que

𝐴 𝐵 𝐴 0 I 𝑌
= .
(𝐶 𝐷) (𝐶 I) (0 𝑋)

(A matriz 𝑋 é chamada complemento de Schur de 𝐴 em 𝑃.)


Em particular, se 𝐴𝐶 = 𝐶𝐴, isso implica que det 𝑃 = det(𝐴𝐷−𝐶𝐵).
Nesse caso, utilizando a continuidade da função determinante (veja
o Exercício 13), mostre que o resultado continua válido também se
det 𝐴 = 0.

19. Mostre o seguinte resultado, devido a Sylvester : sejam 𝐴, 𝐵 matrizes


𝑚 × 𝑛 e 𝑛 × 𝑚, respectivamente. Mostre que det(I𝑚 + 𝐴𝐵) = det(I𝑛 +
𝐵𝐴), em que I𝑚 e I𝑛 denotam as matrizes identidade 𝑚 × 𝑚 e 𝑛 × 𝑛,
respectivamente.

20. Sejam 𝜒1 , 𝜒2 , 𝜒3 ∈ 𝕂. Mostre que

2
⎛1 𝜒1 𝜒1 ⎞
det ⎜1 𝜒2 𝜒22 ⎟ = (𝜒2 − 𝜒1 )(𝜒3 − 𝜒1 )(𝜒3 − 𝜒2 ).
⎜ 2⎟
⎝1 𝜒3 𝜒3 ⎠

Se 𝜒1 , … , 𝜒𝑛 ∈ 𝕂, mostre então por indução que

𝑛−1
⎛ 1 𝜒 1 ⋯ 𝜒1 ⎞
⎜1 𝜒2 ⋯ 𝜒2𝑛−1 ⎟
𝑉𝑛 = det ⎜ = (𝜒𝑖 − 𝜒𝑗 )
⋮ ⋮ ⎟ ∏
⎜ 𝑛−1 ⎟ 𝑖>𝑗
⎝ 1 𝜒 𝑛 ⋯ 𝜒𝑛 ⎠

em que o produtório é tomado sobre todos os termos (𝜒𝑖 − 𝜒𝑗 ) com


𝑖 > 𝑗. Esse é o determinante de Vandermonde de ordem 𝑛.

21. Mostre que, se as funções 𝑓1 , 𝑓2 forem de classe 𝐶 2 e se

𝑓1 (𝜏) 𝑓2 (𝜏)
𝜓(𝜏) = det ,
(𝑓1′ (𝜏) 𝑓2′ (𝜏))

então
𝑓1 (𝜏) 𝑓2 (𝜏)
𝜓 ′ (𝜏) = det .
(𝑓1′′ (𝜏) 𝑓2′′ (𝜏))
Generalize então para matrizes 𝑛 × 𝑛:

⎛ 𝑓1′(𝜏) 𝑓2 (𝜏)

⋯ 𝑓𝑛 (𝜏) ⎞
⎜ 𝑓 (𝜏) 𝑓2 (𝜏) ⋯ 𝑓𝑛′ (𝜏) ⎟
𝜓(𝜏) = det 𝐴(𝜏) = det ⎜ 1 ⎟.
⋮ ⋮
⎜ (𝑛−1) (𝑛−1) (𝑛−1) ⎟
⎝𝑓1 (𝜏) 𝑓2 (𝜏) ⋯ 𝑓𝑛 (𝜏)⎠

com 𝑓𝑗 (𝜏) suficientemente suave para 𝑗 = 1, … , 𝑛. A função 𝜓(𝜏) é


muitas vezes denotada por 𝑊 (𝑓1 , … , 𝑓𝑛 )(𝜏) e chamada wronskiano
das funções 𝑓1 , … , 𝑓𝑛 .
58 CAPÍTULO 3. DETERMINANTES

22. Sejam 𝑓1 , … , 𝑓𝑛 ∶ 𝐼 ⊂ ℝ → ℝ funções de classe 𝐶 𝑛−1 . Mostre que,


se existir um ponto 𝜏0 ∈ 𝐼 tal que 𝑊 (𝑓1 , … , 𝑓𝑛 )(𝜏0 ) ≠ 0, então essas
funções são linearmente independentes no espaço 𝐶 𝑛−1 (𝐼) de todas
as funções de classe 𝐶 𝑛−1 definidas no intervalo 𝐼. Generalize para
funções analíticas definidas num aberto 𝑈 ⊂ ℂ. Mostre então que, se
𝜆1 , … , 𝜆𝑛 ∈ ℂ forem distintos e não nulos, as funções 𝑒𝜆1 𝜏 , … , 𝑒𝜆𝑛 𝜏
são linearmente independentes.

23. Usando a regra de Cramer, determine os valores de 𝜅 para os quais o


sistema
𝜅𝜒1 + 𝜒2 + 𝜒3 = 1
𝜒1 + 𝜅𝜒2 + 𝜒3 = 1
𝜒1 + 𝜒2 + 𝜅𝜒3 = 1
possui solução única. Compare com o resultado obtido por meio de
escalonamento.

24. Seja 𝐵 ∈ 𝕄𝑛×𝑛 (𝕂) uma matriz fixa. Defina 𝜑𝐵 ∶ 𝕄𝑛×𝑛 (𝕂) → 𝕄𝑛×𝑛 (𝕂)
por
𝜑𝐵 (𝐴) = 𝐴𝐵 − 𝐵𝐴.
Mostre que 𝜑𝐵 é linear e que det 𝜑𝐵 = 0.
Capítulo 4

Base e Dimensão

Objetivos: No final do capítulo o aluno deverá:

1. saber operar com a definição abstrata de espaço vetorial e subespaço;

2. saber operar com os conceitos de combinação linear, espaço gerado,


conjunto linearmente independente, base e dimensão;

3. entender como esses conceitos traduzem-se no caso do espaço veto-


rial 𝕂𝑛 .

4.1 Subespaços
Nosso objetivo é definir subconjuntos de um espaço vetorial 𝑋 que se
comportem de maneira semelhante àquela de retas e planos passando pela
origem do ℝ3 : vemos que, considerando apenas elementos (= vetores) des-
ses subconjuntos, a adição de dois vetores quaisquer e a multiplicação de
um vetor por um escalar permanecem nesses subconjuntos.

Exercício 4.1 Considere os planos 𝜋1 ∶ 𝑥 + 𝑦 + 𝑧 = 0 e 𝜋2 ∶ 𝑥 + 𝑦 + 𝑧 = 1, ambos no espaço


ℝ3 . Verifique que os vetores 𝒖1 = (1, 0, −1) e 𝒗1 = (1, −1, 0) pertencem ao plano 𝜋1 , enquanto os
vetores 𝒖2 = (1, 0, 0) e 𝒗2 = (0, 1, 0) pertencem a 𝜋2 . Verifique então que 𝒖1 + 𝒗1 pertence a 𝜋1 ,
enquanto 𝒖2 + 𝒗2 não pertence a 𝜋2 . Mostre também que 𝛼𝒖1 ∈ 𝜋1 para todo 𝛼 ∈ ℝ, enquanto
𝛼𝒖2 ∉ 𝜋2 , para todo 1 ≠ 𝛼 ∈ ℝ.
Assim, de acordo com o nosso objetivo, 𝜋2 não se comporta da maneira
que queremos. (Note que 𝜋2 não é um plano passando pela origem.)

Definição 4.1 Sejam 𝑋 um espaço vetorial e 𝑊 ⊂ 𝑋 um subconjunto não


vazio. Dizemos que 𝑊 é um subespaço de 𝑋 se, para quaisquer 𝒙, 𝒚 ∈ 𝑊
e, para qualquer 𝛼 ∈ 𝕂, tivermos

(1) 𝒙 + 𝒚 ∈ 𝑊;

(2) 𝛼𝒙 ∈ 𝑊.

59
60 CAPÍTULO 4. BASE E DIMENSÃO

Uma vez que 0𝒙 = 0 para qualquer 𝒙 ∈ 𝑋, vemos que 0 ∈ 𝑋 é um


elemento de qualquer subespaço do 𝑊 ⊂ 𝕂𝑛 . No Exercício 4.1, observe que
0 = (0, 0, 0) ∈ 𝜋1 , enquanto 0 ∉ 𝜋2 . (Desse modo, temos uma verificação
rápida que 𝜋2 não é um subespaço do ℝ3 .)
A definição de subespaço implica que, restringindo as operações de 𝑋
aos elementos do subespaço 𝑊, esse subconjunto é, em si, um espaço ve-
torial. De fato, se o subconjunto 𝑊 satisfizer (1) e (2), todas as proprieda-
des da Definição 1.18 são automaticamente satisfeitas quando consideradas
apenas em elementos de 𝑊, com exceção da propriedade (𝑣). De fato, as
propriedades (𝑖𝑖)-(𝑖𝑖𝑖) e (𝑣𝑖𝑖)-(𝑣𝑖𝑖𝑖)-(𝑖𝑥)-(𝑥) são válidas para todos os ele-
mentos do 𝑋 e, em particular, para os elementos de 𝑊; as propriedades (1)
e (2) do subespaço asseguram a validade de (𝑖) e (𝑣𝑖); como já vimos que
0𝒙 = 0, vemos que 0 ∈ 𝑋, de modo que (𝑖𝑣) vale. Finalmente, uma vez
que (−𝒖) = (−1)𝒖 (veja o Exercício 2 no final do capítulo), vemos que (2)
implica que (𝑣) também se verifica.

Exercício 4.2 Seja 𝑊 ⊂ 𝑋 um subespaço. Mostre que, se existir 𝒘 ∈ 𝑊 tal que 𝒘 ≠ 0, então 𝑊
possui infinitos elementos.

Exemplo 4.2 Seja 𝑋 um espaço vetorial. Considere o subconjunto 𝑊 =


{0} ⊂ 𝑋. Então 𝑊 é um subespaço de 𝑋, pois 0+0 = 0 ∈ 𝑊 e 𝛽0 = 0 ∈ 𝑊,
para todo 𝛽 ∈ 𝕂. Considere também o subconjunto 𝑌 = 𝑋. Claramente
𝑌 é um subespaço de 𝑋. Os subespaços 𝑊 = {0} e 𝑌 = 𝑋 são chamados
subespaços triviais de 𝑋. ⊲

Exemplo 4.3 Sejam 0 ≠ 𝒗 um vetor fixo do espaço 𝑋 e


𝑊 = {𝑡𝒗 ∶ 𝑡 ∈ 𝕂}.
(No caso 𝑋 = ℝ2 ou 𝑋 = ℝ3 , sabemos que 𝑊 descreve uma reta passando
pela origem.)
Então 𝑊 é um subespaço de 𝑋. De fato, se 𝒘1 , 𝒘2 ∈ 𝑊, então 𝒘1 = 𝑡1 𝒗
e 𝒘2 = 𝑡2 𝒗, para certos escalares 𝑡1 , 𝑡2 . Logo, 𝒘1 + 𝒘2 = 𝑡1 𝒗 + 𝑡2 𝒗 =
(𝑡1 + 𝑡2 )𝒗 é um elemento de 𝑊. Também, se 𝛼 ∈ 𝕂, então 𝛼𝒘1 = 𝛼(𝑡1 𝒗) =
(𝛼𝑡1 )𝒗 ∈ 𝑊. Isso mostra o afirmado. Generalizando os casos de ℝ2 e ℝ3 ,
dizemos então que 𝑊 descreve uma reta passando pela origem do espaço 𝑋
e que quaisquer vetores de 𝑊 são colineares. Note que o vetor 𝒗 gera um
sistema de coordenadas em que os vetores da reta 𝑊 são descritos por um
único parâmetro: o valor de 𝑡 ∈ 𝕂. Quer dizer, se temos 𝑡, conhecemos o
elemento 𝑡𝒗 ∈ 𝑊. ⊲
Como já dissemos anteriormente, usualmente identificamos pontos do
𝕂𝑛 com matrizes coluna 𝑛 × 1. Essa identificação já nos foi útil ao tratarmos
de sistemas lineares; outra aplicação será mostrada no Capítulo 5.
Dois tipos de subespaços merecem especial atenção, pois eles nos per-
mitem uma verificação indireta de que certos subconjuntos do 𝕂𝑛 são su-
bespaços. Começamos mostrando que o conjunto de soluções de qualquer
sistema linear homogêneo com 𝑚 equações e 𝑛 incógnitas é um subespaço
do 𝕂𝑛 . Para isso, lembramos que tais sistemas podem ser escritos na forma
𝐴𝒙 = 0, em que 𝐴 é uma matriz 𝑚 × 𝑛 e 𝒙 ∈ 𝕂𝑛 está sendo interpretados
como uma matriz coluna.
4.1. SUBESPAÇOS 61

Proposição 4.4 Seja 𝐴 uma matriz 𝑚 × 𝑛 com entradas no corpo 𝕂. O


conjunto
ker 𝐴 = {𝒙 ∈ 𝕂𝑛 ∶ 𝐴𝒙 = 0}
é um subespaço do 𝕂𝑛 , chamado núcleo de 𝐴.
Demonstração: Sejam 𝒙, 𝒚 ∈ ker 𝐴. Como sabemos, propriedades básicas
da multiplicação de matrizes mostram que
𝐴(𝒙 + 𝒚) = 𝐴𝒙 + 𝐴𝒚 = 0 + 0 = 0 e 𝐴(𝛽𝒙) = 𝛽𝐴𝒙 = 𝛽0 = 0,
provando o afirmado. 

Exemplo 4.5 O subconjunto


𝑊 = {𝑥1 + 2𝑥2 − 5𝑥3 + 4𝑥4 − 7𝑥5 = 0 ∶ 𝑥𝑖 ∈ ℝ, 1 ≤ 𝑖 ≤ 5}
é um subespaço do ℝ5 . De fato, definindo a matriz 1 × 5
𝐴 = ( 1 2 −5 4 −7 ) ,

temos que 𝒙 = (𝑥1 , 𝑥2 , 𝑥3 , 𝑥4 , 𝑥5 ) ∈ ℝ5 pertence a 𝑊 se, e somente se,1


𝐴𝒙 = 0. ⊲

Exercício 4.3 Aplicando diretamente a Definição 4.1, mostre que o conjunto 𝑊 do Exemplo 4.5 é
um subespaço.
Exercício 4.4 Mostre que o conjunto
𝑈 = {(1 + 2𝑖)𝑧1 − 2𝑧2 − (1 + 3𝑖)𝑧3 = 0 ∶ 𝑧𝑖 ∈ ℂ, 1 ≤ 𝑖 ≤ 3}
é um espaço vetorial.
Exercício 4.5 Sejam 𝐴 uma matriz 𝑚 × 𝑛 e 0 ≠ 𝒃 ∈ 𝕂𝑚 . Mostre que as soluções do sistema
𝐴𝒙 = 𝒃 não formam um subespaço do 𝕂𝑛 . Compare com o plano 𝜋2 do Exercício 4.1.

Um segundo tipo importante de subespaço é dado pela


Proposição 4.6 Para 𝑗 ∈ ℕ fixo, sejam 𝒗1 , … , 𝒗𝑗 vetores quaisquer do
espaço vetorial 𝑋. Então
𝑊 = {𝛼1 𝒗1 + 𝛼2 𝒗2 + … + 𝛼𝑗 𝒗𝑗 ∶ 𝛼𝑖 ∈ 𝕂, 1 ≤ 𝑖 ≤ 𝑗}
é um subespaço de 𝑋. O subespaço 𝑊 é chamado espaço gerado por 𝑆 =
{𝒗1 , … , 𝒗𝑗 } e usualmente denotado por < 𝒗1 , … , 𝒗𝑗 > ou < 𝑆 >.
Demonstração: Sejam 𝒖, 𝒗 ∈ 𝑊. Então, pela definição de 𝑊, existem
escalares 𝛼1 , … , 𝛼𝑗 e 𝛽1 , … , 𝛽𝑗 tais que
𝒖 = 𝛼1 𝒗1 + … + 𝛼𝑗 𝒗𝑗 e 𝒗 = 𝛽1 𝒗1 + … + 𝛽𝑗 𝒗𝑗 .
Assim,
𝒖 + 𝒗 = (𝛼1 + 𝛽1 )𝒗1 + … + (𝛼𝑘 + 𝛽𝑘 )𝒗𝑗
𝛾𝒖 = (𝛾𝛼1 )𝒗1 + … + (𝛾𝛼𝑗 )𝒗𝑗 ,
que também são elementos de 𝑊, se 𝛾 ∈ 𝕂. Isso prova o afirmado. 

1
Note que o produto 𝐴𝒙 só faz sentido se 𝒙 for uma matriz 5 × 1.
62 CAPÍTULO 4. BASE E DIMENSÃO

Exemplo 4.7 Consideremos o conjunto

𝑊 = {(3𝛼 + 2𝛽 + 7𝛾, 𝛼 − 𝛽 + 𝛾, 𝛼 + 𝛽, 𝛾 − 𝛼) ∶ 𝛼, 𝛽, 𝛾 ∈ 𝕂}.

Escrevendo os elementos de 𝑊 como matrizes 4 × 1, temos

⎛3𝛼 + 2𝛽 + 7𝛾⎞ ⎛ 3⎞ ⎛ 2⎞ ⎛7 ⎞
⎜ 𝛼−𝛽+𝛾 ⎟ ⎜ 1⎟ ⎜−1 ⎟ ⎜1 ⎟
⎜ 𝛼+𝛽 ⎟ = 𝛼 ⎜ 1 ⎟ + 𝛽 ⎜ 1 ⎟ + 𝛾 ⎜0 ⎟ .
⎜ ⎟ ⎜ ⎟ ⎜ ⎟ ⎜ ⎟
⎝ 𝛾 −𝛼 ⎠ ⎝−1 ⎠ ⎝ 0⎠ ⎝1 ⎠
Assim, vemos que 𝑊 pode ser interpretado como o espaço gerado pelos
vetores
⎛ 3⎞ ⎛ 2⎞ ⎛7⎞
⎜ 1⎟ ⎜−1 ⎟ ⎜1⎟
𝒗1 = ⎜ ⎟ , 𝒗2 = ⎜ ⎟ e 𝒗3 = ⎜ ⎟ .
1 1 0
⎜ ⎟ ⎜ ⎟ ⎜ ⎟
⎝−1 ⎠ ⎝ 0⎠ ⎝1⎠
Qualquer vetor 𝒘 ∈ 𝑊 fica determinado (em termos dos vetores 𝒗1 , 𝒗2 e
𝒗3 ) se conhecermos os escalares 𝛼, 𝛽 e 𝛾. Ao definirmos base, veremos que
os vetores 𝒗1 , 𝒗2 e 𝒗3 geram um sistema de coordenadas (isto é, uma base),
de modo que vetores de 𝑊 serão descritos em termos das três coordenadas
𝛼, 𝛽 e 𝛾. ⊲

Exemplo 4.8 (Continuação do Exemplo 4.5) Podemos descrever o subes-


paço 𝑊, do Exemplo 4.5, de maneira semelhante à do Exemplo 4.7. De fato,
a definição de 𝑊 nos informa que

𝑥1 = −2𝑥2 + 5𝑥3 − 4𝑥4 + 7𝑥5 .

Assim, um vetor 𝒙 = (𝑥1 , 𝑥2 , 𝑥3 , 𝑥4 , 𝑥5 ) ∈ ℝ5 está em 𝑊 se, e somente se,

⎛𝑥1 ⎞ ⎛−2𝑥2 + 5𝑥3 − 4𝑥4 + 7𝑥5 ⎞


⎜𝑥2 ⎟ ⎜ 𝑥2 ⎟
⎜𝑥3 ⎟ = ⎜ 𝑥3 ⎟
⎜ ⎟ ⎜ ⎟
⎜𝑥4 ⎟ ⎜ 𝑥4 ⎟
⎝𝑥5 ⎠ ⎝ 𝑥5 ⎠
⎛ −2 ⎞ ⎛5⎞ ⎛ −4 ⎞ ⎛7⎞
⎜ ⎟1 0
⎜ ⎟ ⎜ ⎟ 0 ⎜0⎟
= 𝑥 2 0 + 𝑥 3 1 + 𝑥4 0 + 𝑥5 ⎜ 0 ⎟ .
⎜ ⎟ ⎜ ⎟ ⎜ ⎟
⎜ ⎟ ⎜ ⎟ ⎜ ⎟ ⎜ ⎟
⎜ 0⎟ ⎜0⎟ ⎜ 1⎟ ⎜0⎟
⎝ 0⎠ ⎝0⎠ ⎝ 0⎠ ⎝1⎠
Mostramos assim que 𝑊 é o espaço gerado pelos vetores

⎛ −2 ⎞ ⎛5⎞ ⎛ −4 ⎞ ⎛7⎞
⎜ 1⎟ ⎜0⎟ ⎜ 0⎟ ⎜0⎟
⎜ 0⎟ , ⎜1⎟, ⎜ 0⎟ e ⎜0⎟
⎜ ⎟ ⎜ ⎟ ⎜ ⎟ ⎜ ⎟
⎜ 0⎟ ⎜0⎟ ⎜ 1⎟ ⎜0⎟
⎝ 0⎠ ⎝0⎠ ⎝ 0⎠ ⎝1⎠
Observe que esse procedimento nada mais é do que explicitar o núcleo
da matriz 𝐴 definida no Exemplo 4.5. ⊲
4.1. SUBESPAÇOS 63

𝒘



  
  
  - 
 𝒗 
 
 
 < 𝒗1 , … , 𝒗𝑘 > 
 

Figura 4.1: Se representarmos o subespaço < 𝒗1 , … , 𝒗𝑘 > ⊂ ℝ𝑛 como um


plano, então 𝒗 ∈ < 𝒗1 , … , 𝒗𝑘 >, enquanto 𝒘 ∉ < 𝒗1 , … , 𝒗𝑘 >.

Exercício 4.6 Aplicando diretamente a Definição 4.1, mostre que o conjunto 𝑊 do Exemplo 4.7 é
um subespaço.
Exercício 4.7 Sejam 𝒗1 = (1, 2, 1, 1), 𝒗2 = (2, 1, 1, 1), 𝒗3 = (1, 1, 1, 1), 𝒗4 = (0, 1, 0, 1) e 𝒗5 =
(0, 0, 1, 0) vetores do espaço ℝ4 . Descreva o espaço < 𝒗1 , … , 𝒗5 > de maneira semelhante àquela
utilizada no Exemplo 4.7 para descrever 𝑊 .
Os exercícios anteriores deixam claro que existem diferentes maneiras
de mostrar que um subconjunto 𝑊 ⊂ 𝑋 é um subespaço de 𝑋. Mas a
utilização da Proposição 4.6 no Exemplo 4.7 é vantajosa, pois toda a infor-
mação sobre aquele subespaço 𝑊 está sintetizada nos vetores 𝒗1 , 𝒗2 e 𝒗3 :
conhecendo esses vetores, o subespaço 𝑊 está determinado.

Definição 4.9 Seja 𝑘 um número natural fixo e 𝑋 um espaço vetorial. Um


vetor 𝒗 é combinação linear dos vetores 𝒗1 , … , 𝒗𝑘 ∈ 𝑋 se existirem esca-
lares 𝑥1 , … , 𝑥𝑘 ∈ 𝕂 tais que

𝑥1 𝒗1 + … + 𝑥𝑘 𝒗𝑘 = 𝒗. (4.1)

Quer dizer, 𝒗 ∈ < 𝒗1 , … , 𝒗𝑘 > é o mesmo que 𝒗 ser combinação linear


dos vetores 𝒗1 , … , 𝒗𝑘 . Veja a Figura 4.1
Assim, o que fizemos no Exemplo 4.7 nada mais foi do que mostrar
que o espaço 𝑊 é dado como combinação linear dos vetores 𝒗1 , 𝒗2 e 𝒗3 lá
definidos. Observação análoga é válida para o Exemplo 4.8.

Exemplo 4.10 O vetor 𝒖 = (3, 2, 1) ∈ ℝ3 não é combinação linear dos


vetores 𝒗1 = (1, 1, 1) e 𝒗2 = (1, 1, 0). De fato, consideremos a equação

𝛼1 𝒗1 + 𝛼2 𝒗2 = 𝒖.

O vetor 𝒖 é combinação linear dos vetores 𝒗1 e 𝒗2 se, e somente se, essa


equação tiver solução. Essa equação é equivalente a

𝛼1 (1, 1, 1) + 𝛼2 (1, 1, 0) = (3, 2, 1),

que produz o sistema

𝛼1 + 𝛼2 = 3, 𝛼1 + 𝛼2 = 2, 𝛼1 = 1,

que não possui solução.


64 CAPÍTULO 4. BASE E DIMENSÃO

É interessante escrever o sistema obtido em forma matricial. Fazendo


isso, obtemos o sistema não homogêneo

⎛1 1⎞ 𝛼 ⎛3⎞
⎜1 1⎟ 1 = ⎜2⎟ .
⎜ ⎟ (𝛼2 ) ⎜ ⎟
⎝1 0⎠ ⎝1⎠
Note que os vetores 𝒗1 e 𝒗2 aparecem como colunas da matriz

⎛1 1⎞
𝐴 = ⎜1 1⎟ .
⎜ ⎟
⎝1 0⎠ ⊲

Exercício 4.8 Considere os vetores 𝒗1 = (1, 2, 1, 1), 𝒗2 = (2, 1, 1, 1), 𝒗3 = (1, 1, 1, 1), 𝒗4 =
(0, 1, 0, 1) e 𝒗5 = (0, 0, 1, 0) no espaço 𝕂4 . O vetor (5, 2, 3, −1) ∈ 𝕂4 é combinação linear desses
vetores?
Exercício 4.9 Sejam

𝒗1 = (2, 3, 1, 1), 𝒗2 = (−2, −2, 2, 1), e 𝒗3 = (1, 0, −2, −1)

vetores em 𝕂4 . O vetor 𝒗 = (1, 1, 1, 1) pertence a < 𝒗1 , 𝒗2 , 𝒗3 >?

Definição 4.11 Sejam 𝑊 ⊂ 𝑋 um subespaço e 𝑘 um número natural fixo.


Dizemos que o conjunto 𝑆 = {𝒗1 , … , 𝒗𝑘 } ⊂ 𝑊 gera o subespaço 𝑊 se
qualquer vetor 𝒘 ∈ 𝑊 for combinação linear desses vetores.

Note que essa definição está completamente relacionada com a Propo-


sição 4.6.
Se o problema que estivermos considerando tratar do subespaço 𝑊, o
fato de 𝑆 gerar 𝑊 garante que esse conjunto contém todas as informações
relevantes sobre 𝑊, pois todos os vetores em 𝑊 podem ser descritos utili-
zando apenas os elementos de 𝑆.
Exemplo 4.12 Consideremos os vetores

𝒆1 = (1, 0, … , 0), 𝒆2 = (0, 1, 0, … , 0), … , 𝒆𝑛 = (0, 0, … , 0, 1) ∈ 𝕂𝑛 .

Esses vetores geram o 𝕂𝑛 , pois se 𝒙 = (𝑥1 , … , 𝑥𝑛 ) ∈ 𝕂𝑛 , então

𝒙 = 𝑥1 (1, 0, … , 0) + 𝑥2 (0, 1, 0, …) + … + 𝑥𝑛 (0, … , 0, 𝑥𝑛 )


= 𝑥1 𝒆1 + … + 𝑥𝑛 𝒆𝑛 .

Note que as coordenadas 𝑥1 , 𝑥2 , … , 𝑥𝑛 do vetor 𝒙 são justamente os


escalares que tornam 𝒙 combinação linear dos vetores 𝒆1 , 𝒆2 , … , 𝒆𝑛 . ⊲

De acordo com o Exemplo 4.5, se 𝑎1 , … , 𝑎𝑛 forem quaisquer escalares,


então

𝑊 = {𝒙 = (𝑥1 , … , 𝑥𝑛 ) ∈ 𝕂𝑛 ∶ 𝑎1 𝑥1 + … + 𝑎𝑛 𝑥𝑛 = 0}

é um subespaço do 𝕂𝑛 . Mas, se 𝑎1 ≠ 0, por exemplo, os vetores 𝒆1 , … , 𝒆𝑛


não geram o subespaço 𝑊, pois 𝒆1 ∉ 𝑊.
4.1. SUBESPAÇOS 65

Exemplo 4.13 (Continuação do Exemplo 4.7) Podemos descrever o subes-


paço 𝑊 do Exemplo 4.7 utilizando matrizes. De fato,

𝒚 = (𝑦1 , 𝑦2 , 𝑦3 , 𝑦4 ) ∈ 𝕂4

pertence a 𝑊 se, e somente se, existirem escalares 𝛼, 𝛽 e 𝛾 tais que

⎛ 3 2 7⎞

𝑦
𝛼⎞ ⎛ 1 ⎞
⎜ 1 −1 1 ⎟ ⎜ ⎟ ⎜𝑦2 ⎟
⎜ 1 𝛽 = . (4.2)
1 0 ⎟ ⎜ ⎟ ⎜𝑦3 ⎟
⎜ ⎟ 𝛾 ⎜ ⎟
⎝−1 0 1 ⎠ ⎝ ⎠ ⎝𝑦4 ⎠

Note que os vetores 𝒗1 , 𝒗2 e 𝒗3 , obtidos no Exemplo 4.7, geram o espaço


𝑊 e correspondem às colunas da matriz

⎛ 3 2 7⎞
⎜ 1 −1 1 ⎟
𝐴=⎜ . (4.3)
1 1 0⎟
⎜ ⎟
⎝−1 0 1⎠

Note também que (4.2) é um sistema não homogêneo. ⊲

Generalizando o Exemplo 4.13, a verificação de que um vetor 𝒃 ∈ 𝕂𝑛


pertence ao subespaço 𝑊 = < 𝒗1 , 𝒗2 , … , 𝒗𝑘 > (com 𝒗𝑖 ∈ 𝕂𝑛 resume-se a
resolver o sistema não homogêneo

𝐴𝒙 = 𝒃

em que a matriz 𝐴 tem como colunas os vetores 𝒗1 , 𝒗2 , … , 𝒗𝑘 .

Definição 4.14 Sejam 𝑋 um espaço vetorial e 𝑘 um número natural fixo.


Um conjunto 𝑆 = {𝒗1 , … , 𝒗𝑘 } ⊂ 𝑋 é linearmente independente se

𝑥1 𝒗 1 + … + 𝑥 𝑘 𝒗 𝑘 = 0 (4.4)

só tem a solução trivial 𝑥1 = … = 𝑥𝑘 = 0. Caso contrário, dizemos que 𝑆


é linearmente dependente.

Se 𝑋 = 𝕂𝑛 , substituindo as coordenadas dos vetores 𝒗1 , … , 𝒗𝑘 , a equa-


ção (4.4) dá origem a um sistema homogêneo. Assim, para verificar se os
vetores 𝒗1 , … , 𝒗𝑘 ∈ 𝕂𝑛 são linearmente independentes, formamos a matriz
𝐴 = (𝒗1 … 𝒗𝑘 ), que tem os vetores 𝒗1 , … , 𝒗𝑘 como colunas, e conside-
ramos o sistema 𝐴𝒙 = 0. Se esse sistema tiver apenas a solução trivial
𝒙 = 0, então {𝒗1 , … , 𝒗𝑘 } é linearmente independente; caso contrário, é
linearmente dependente.

Exemplo 4.15 Consideremos os vetores 𝒆1 = (1, 0, 0), 𝒆2 = (0, 1, 0) e


𝒗 = (1, 1, 0) do espaço ℝ3 . Queremos verificar se esses vetores são linear-
mente independentes ou linearmente dependentes. Para isso, examinamos
a igualdade vetorial
𝛼1 𝒆1 + 𝛼2 𝒆2 + 𝛼3 𝒗 = 0, (4.5)
66 CAPÍTULO 4. BASE E DIMENSÃO

em que 𝛼1 , 𝛼2 , 𝛼3 ∈ ℕ. Ou seja,

𝛼1 (1, 0, 0) + 𝛼2 (0, 1, 0) + 𝛼3 (1, 1, 0) = (0, 0, 0).

Essa última igualdade dá origem ao sistema homogêneo

⎛1 0 1⎞ ⎛𝛼1 ⎞ ⎛0⎞
⎜0 1 1⎟ ⎜𝛼2 ⎟ = ⎜0⎟ .
⎜ ⎟⎜ ⎟ ⎜ ⎟
⎝0 0 0⎠ ⎝𝛼3 ⎠ ⎝0⎠
(Repetimos: os vetores 𝒆1 , 𝒆2 e 𝒗 constituem as colunas da matriz 3 × 3.)
A solução do sistema homogêneo é dada por

⎛𝛼1 ⎞ ⎛ −1 ⎞
⎜𝛼2 ⎟ = 𝛼3 ⎜ −1 ⎟ .
⎜ ⎟ ⎜ ⎟
⎝𝛼3 ⎠ ⎝ 1⎠
Como o sistema homogêneo possui solução não trivial, concluímos que
os vetores 𝑒1 , 𝑒2 e 𝑣 são linearmente dependentes.
Substituindo a solução (𝛼1 , 𝛼2 , 𝛼3 ) = (−1, −1, 1) em (4.5), obtemos

−𝒆1 − 𝒆2 + 𝒗 = 0,

ou, o que é o mesmo,


𝒗 = 𝒆 1 + 𝒆2 . (4.6)
Essa equação garante que 𝒗 é combinação linear dos vetores 𝒆1 e 𝒆2 .
Geometricamente, isso significa que 𝒗 pertence ao plano 𝜋 gerado pelos
vetores 𝒆1 e 𝒆2 . Quer dizer, se tivermos os vetores 𝒆1 e 𝒆2 , então duas coor-
denadas bastarão para descrever todos os pontos do plano gerado por esses
vetores e o vetor 𝒗 não é necessário, sendo uma informação supérflua. Veja
a Figura 4.2.

Figura 4.2: O vetor 𝒗 é combinação linear dos vetores 𝒆1 e 𝒆2 , pois per-


tence ao plano 𝜋 gerado por estes vetores. Todos os pontos do plano 𝜋 são
combinações lineares dos vetores 𝒆1 e 𝒆2 .

É claro que, no Exemplo 4.15, também podemos escrever 𝒆1 (ou 𝒆2 )
como combinação linear dos vetores restantes. Nesse caso, 𝒆1 (ou, respec-
tivamente, 𝒆2 ) seria a informação supérflua.
4.1. SUBESPAÇOS 67

Exercício 4.10 Verifique se os vetores do ℝ3


𝒗1 = (1, 1, 1), 𝒗2 = (1, 1, 0) e 𝒗3 = (1, 0, 0)
são linearmente dependentes. E se considerarmos esses vetores no espaço ℂ3 ?
Exercício 4.11 Sejam 𝑋 um espaço vetorial e 𝑊 = {𝑡𝒗 ∶ 𝑡 ∈ 𝕂}, em que 0 ≠ 𝒗 ∈ 𝑋. Mostre
que quaisquer vetores em 𝑊 são linearmente dependentes.

Observação 4.16 Enfatizamos: dado um conjunto de vetores


𝑆 = {𝒗1 , 𝒗2 , … , 𝒗𝑘 } ⊂ 𝕂𝑛
e um vetor 𝒖 ∈ 𝕂𝑛 , o sistema que verifica se 𝑆 é linearmente independente
é o sistema homogêneo associado àquele que verifica se 𝒖 é combinação
linear dos vetores de 𝑆. ⊲

Podemos formular de maneira geral o que aconteceu no Exemplo 4.15.


Por lidar com um espaço abstrato 𝑋, a Proposição 4.17 trata a equação (4.4)
sem considerar coordenadas para os vetores do conjunto 𝑆!
Proposição 4.17 Seja 𝑋 um espaço vetorial e 𝑆 = {𝒗1 , … , 𝒗𝑘 } ⊂ 𝑋. En-
tão 𝑆 é linearmente dependente se, e somente se, algum dos vetores de 𝑆
for combinação linear dos vetores restantes.
Demonstração: Suponhamos que 𝑆 seja linearmente dependente. Então
existem escalares 𝛼1 , … , 𝛼𝑘 , nem todos nulos, tais que
𝛼1 𝒗1 + … + 𝛼𝑘 𝒗𝑘 = 0.
Para simplificar a notação, vamos supor que 𝛼1 ≠ 0. Nesse caso, temos
𝛼1 𝒗1 = −𝛼2 𝒗2 − … − 𝛼𝑘 𝒗𝑘 , (4.7)
ou seja,
𝒗1 = 𝛽2 𝒗2 + … + 𝛽𝑘 𝒗𝑘 ,
em que 𝛽𝑖 = −𝛼𝑖 /𝛼1 para 𝑖 = 2, … , 𝑘. Assim, 𝒗1 é combinação linear dos
vetores {𝒗2 , … , 𝒗𝑘 }.
Reciprocamente, se (por exemplo) 𝒗1 = 𝛼2 𝒗2 + … + 𝛼𝑘 𝒗𝑘 , então
1𝒗1 − 𝛼2 𝒗2 − … − 𝛼𝑘 𝒗𝑘 = 0
e ao menos um dos escalares (qual seja, o coeficiente de 𝒗1 ) é não nulo,
mostrando que esse conjunto é linearmente dependente. 

Note que, se tivermos 𝛼1 𝒗1 +…+𝛼𝑘 𝒗𝑘 = 0, podemos escrever qualquer


vetor relacionado a um coeficiente 𝛼𝑖 ≠ 0 como combinação linear dos
vetores restantes: na demonstração anterior, esse fato é usado ao dividirmos
a equação (4.7) pelo escalar 𝛼1 ≠ 0.
O significado da Proposição 4.17 pode ser resumido em palavras: con-
sideremos o conjunto 𝑆 = {𝒗1 , … , 𝒗𝑘 } e o espaço < 𝑆 > . Se 𝑆 for linear-
mente dependente, então ele possui informação supérflua, isto é, um de seus
vetores pode ser retirado de 𝑆 sem afetar o espaço < 𝑆 >. Por outro lado,
se 𝑆 for linearmente independente, todos os vetores de 𝑆 são essenciais: a
retirada de um desses vetores altera o subespaço < 𝑆 >.
68 CAPÍTULO 4. BASE E DIMENSÃO

Observação 4.18 A Proposição 4.17 garante que podemos retirar um vetor


de um conjunto linearmente dependente. Retirado esse vetor supérfluo, não
podemos garantir que o conjunto restante seja formado apenas por vetores
essenciais. Isto é, pode ser que o conjunto restante ainda seja linearmente
dependente. Veremos, no Exemplo 4.36, um método para retirar de uma
vez todos os vetores supérfluos de um conjunto linearmente dependente de
vetores do 𝕂𝑛 . Compare com a Observação 5.36. ⊲

Exercício 4.12 Verifique se o conjunto 𝑆 = {(1, 1, 2, 1), (1, 1, 1, 1), (2, 1, 1, 1), (2, 1, 2, 1)} ⊂ 𝕂4 é
linearmente dependente ou linearmente independente. Se for linearmente dependente, escreva um
dos vetores como combinação linear dos vetores restantes.
Exercício 4.13 Suponha que o vetor 𝒗 pertença ao espaço < 𝒗1 , … , 𝒗𝑘 >. Mostre que o conjunto
{𝒗, 𝒗1 , … , 𝒗𝑘 } é linearmente dependente.

Exemplo 4.19 Sejam 𝒗2 , … , 𝒗𝑘 vetores quaisquer do espaço vetorial 𝑋.


Então o conjunto {0, 𝒗2 , … , 𝒗𝑘 } é linearmente dependente. Assim, qual-
quer conjunto que contém o vetor nulo é linearmente dependente.
De fato, temos que

𝛼1 0 + 𝛼2 𝒗2 + … + 𝛼𝑘 𝒗𝑘 = 0

possui a solução não trivial 𝛼1 = 1, 𝛼2 = … = 𝛼𝑛 = 0. ⊲

Exercício 4.14 Seja 𝑋 um espaço vetorial. Suponha que o conjunto {𝒗1 , … , 𝒗𝑘 } ⊂ 𝑋 seja linear-
mente dependente. Mostre que {𝒗1 , … , 𝒗𝑘 , 𝒗} ⊂ 𝑋 é linearmente dependente, qualquer que seja
o vetor 𝒗 ∈ 𝑋.

Observação 4.20 Seja 𝑋 um espaço vetorial. Se 𝑆 = {𝒗1 , … , 𝒗𝑘 } ⊂ 𝑋


for linearmente independente e se 𝒗 ∉ < 𝑆 >, então {𝒗1 , … , 𝒗𝑘 , 𝒗} é line-
armente independente. Esse resultado é consequência da Proposição 4.17
(justifique!), mas vamos apresentar uma outra demonstração desse fato: su-
ponhamos que
𝛼1 𝒗1 + … + 𝛼𝑘 𝒗𝑘 + 𝛽𝒗 = 0. (4.8)
Então 𝛽 = 0 pois, caso contrário, 𝒗 seria combinação linear dos vetores
𝒗1 , … , 𝒗𝑘 . Mas então temos

𝛼1 𝒗1 + … + 𝛼𝑘 𝒗𝑘 = 0

e, como esses vetores são linearmente independentes, 𝛼𝑖 = 0 para 𝑖 ∈


{1, … , 𝑘}. Assim, todos os escalares em (4.8) são nulos, mostrando nossa
afirmação.
Suponhamos agora que 𝒗 ∉ < 𝑆 >, sem supor que 𝑆 seja linearmente
independente. Com a linguagem pictórica introduzida anteriormente, isso
quer dizer que o vetor 𝒗 traz uma informação que não está contida no su-
bespaço < 𝑆 >.
Mas não podemos garantir que o conjunto {𝒗1 , … , 𝒗𝑘 , 𝒗} ⊂ ℝ𝑛 seja
linearmente independente, pois não sabemos se seu subconjunto 𝑆 é linear-
mente independente, conforme o Exercício 4.14. ⊲
4.2. BASE E DIMENSÃO 69

Exercício 4.15 Seja 𝒗 ≠ 0 um vetor do espaço vetorial 𝑋. Mostre que o conjunto {𝒗} é linear-
mente independente.
Exercício 4.16 Sejam 𝑋 um espaço vetorial e ℬ = {𝒗1 , 𝒗2 , … , 𝒗𝑘 } ⊂ 𝑋 um conjunto linearmente
independente. Mostre que 𝒗𝑘 ∉ < 𝒗1 , … , 𝒗𝑘−1 >.

4.2 Base e Dimensão


Dado um subespaço 𝑊 e vetores 𝒗1 , … , 𝒗𝑘 ∈ 𝑊, estão definidos dois
conceitos fundamentais: se 𝑆 = {𝒗1 , … , 𝒗𝑘 } gerar 𝑊, todas as informa-
ções essenciais sobre o subespaço 𝑊 estão contidas no conjunto 𝑆; por ou-
tro lado, se 𝑆 for linearmente independente, então não existe informação
supérflua nesse conjunto. Assim, um conjunto 𝑆 que satisfaz essas duas
condições é especial...
Definição 4.21 Seja 𝑋 um espaço vetorial. Uma base ℬ = {𝒗1 , … , 𝒗𝑘 }
de um subespaço 𝑊 ⊂ 𝑋 é um conjunto ordenado de vetores de 𝑊 que gera
esse subespaço e é linearmente independente.
Por conjunto ordenado queremos dizer que a ordem dos elementos é
importante. Quer dizer, os conjuntos ordenados
{𝒖, 𝒗, 𝒘}, {𝒖, 𝒘, 𝒗} e {𝒘, 𝒖, 𝒗}
são distintos! Posteriormente explicaremos a razão de definirmos uma base
como um conjunto ordenado. (Veja a Observação 4.42.)
Observação 4.22 A definição de base como um conjunto ordenado não é
necessária, mas adequada ao nosso propósito de concentrar nosso estudo em
espaços de dimensão finita, conceito que definiremos na sequência. Veja, a
esse respeito, a Observação 4.42. ⊲
Assim, para verificar que um conjunto ℬ é uma base do subespaço 𝑊,
precisamos verificar três afirmações independentes:
(1) os elementos de ℬ pertencem a 𝑊;
(2) todo elemento de 𝑊 é combinação linear dos elementos de ℬ (isto é,
ℬ gera 𝑊);
(3) o conjunto ℬ é linearmente independente.
No caso específico 𝑋 = 𝕂𝑛 , apesar das condições (2) e (3) serem inde-
pendentes, elas estão relacionadas: montamos a matriz 𝐴 que tem os vetores
𝒗1 , … , 𝒗𝑘 como colunas:
𝐴 = (𝒗1 𝒗2 … 𝒗𝑘 )
↑ ↑ ↑
colunas
Sendo 𝒘 ∈ 𝑊 um vetor qualquer em 𝑊, consideramos o sistema
𝐴𝒙 = 𝒘.
Se esse sistema tiver solução para todo 𝒘 ∈ 𝑊, então ℬ = {𝒗1 , … , 𝒗𝑘 }
gera 𝑊; se o sistema homogêneo associado tiver apenas a solução trivial
𝒙 = 0, então ℬ é linearmente independente.
70 CAPÍTULO 4. BASE E DIMENSÃO

Exemplo 4.23 Os vetores 𝒆1 , 𝒆2 , … , 𝒆𝑛 ∈ 𝕂𝑛 do Exemplo 4.12 formam


uma base do espaço 𝕂𝑛 . De fato, já vimos naquele exemplo que eles geram
o ℝ𝑛 . Além disso,

0 = 𝛼1 𝒆1 + … + 𝛼𝑛 𝒆𝑛
= (𝛼1 , 0, … , 0) + (0, 𝛼2 , 0, … , 0) + … + (0, … , 0, 𝛼𝑛 )
= (𝛼1 , … , 𝛼𝑛 ),

o que implica que 𝛼1 = … = 𝛼𝑛 = 0.


A base ℰ = {𝒆1 , … , 𝒆𝑛 } é chamada base canônica do 𝕂𝑛 . ⊲

Exercício 4.17 Verifique se {𝒗1 , 𝒗2 , 𝒗3 } é uma base do 𝕂3 , sendo

𝒗1 = (1, 3, 3), 𝒗2 = (2, 1, 1) e 𝒗3 = (1, 1, 1).

Exercício 4.18 Mostre que o conjunto {(1, 1, 1, 1), (1, 1, 1, 0), (1, 1, 0, 0), (1, 0, 0, 0)} é uma base
do espaço 𝕂4 .
Exercício 4.19 Apresente uma base do espaço 𝕄𝑚×𝑛 .

Exemplo 4.24 Se 𝒗 ≠ 0, o conjunto {𝒗} é uma base do subespaço

𝑊 = {𝑡𝒗 ∶ 𝑡 ∈ ℝ}

do Exemplo 4.3. De fato, 𝒗 = 1𝒗 ∈ 𝑊 e {𝒗} é linearmente independente,


de acordo com o Exercício 4.15. Além disso, se 𝒗1 for um elemento de 𝑊,
então 𝒗1 = 𝑡𝒗 para algum 𝑡 ∈ ℝ, de modo que {𝒗} gera 𝑊. ⊲

A base canônica ℰ introduz no 𝕂𝑛 um sistema de coordenadas seme-


lhante ao sistema com eixos 𝑥, 𝑦 e 𝑧 do ℝ3 . Assim, a base canônica ℰ produz
um sistema de coordenadas completamente natural: se 𝒙 = (𝑥1 , 𝑥2 , … , 𝑥𝑛 ),
então
𝒙 = 𝑥 1 𝒆1 + … + 𝑥 𝑛 𝒆𝑛 .

Para que estudar outras bases no 𝕂𝑛 ? A resposta é simples: a base


canônica produz um sistema de coordenadas que pode não ser o mais ade-
quado ao problema que estamos tratando. Com um sistema de eixos mais
adequado, o nosso problema pode se tornar bem mais simples. (Veremos
exemplos dessa situação com o decorrer do curso.)
Além disso, muitas vezes estamos interessados em um subespaço par-
ticular do 𝕂𝑛 , subespaço esse que pode funcionar como um plano ou uma
reta, por exemplo. Pode acontecer que nenhum dos vetores da base canônica
pertença a esse subespaço. Além disso, os pontos desse subespaço podem
ser caracterizados por um número menor de coordenadas do que as 𝑛 coor-
denadas utilizadas para determinar um vetor do 𝕂𝑛 . Voltemos aos Exemplos
4.3 e 4.24 para ilustrar essa afirmação: ao invés de precisarmos conhecer as
𝑛 coordenadas de cada vetor 𝒘 ∈ 𝑊, basta conhecermos o vetor 𝒗 e o valor
do parâmetro 𝑡, pois se 𝒘 ∈ 𝑊, então 𝒘 = 𝑡𝒗 para algum 𝑡 ∈ ℝ.
4.2. BASE E DIMENSÃO 71

Exemplo 4.25 Seja ℬ = {𝒗1 , … , 𝒗𝑘 } um conjunto linearmente indepen-


dente de vetores do espaço vetorial 𝑋. Então o subespaço < ℬ > ⊂ 𝑋 (de
todas as combinações lineares de elementos em ℬ) tem ℬ como base. De
fato, notamos inicialmente que, para todo 𝑖 ∈ {1, … , 𝑗} vale

𝒗𝑖 = 0𝒗1 + … + 0𝒗𝑖−1 + 1𝒗𝑖 + 0𝒗𝑖+1 + … + 0𝒗𝑘 ,

de modo que os vetores de ℬ estão em < ℬ >. Por definição, todo elemento
de < ℬ > é uma combinação linear de elementos de ℬ, de modo que esse
conjunto gera < ℬ >; como, por hipótese, ℬ é linearmente independente,
nossa prova está completa. ⊲

Exercício 4.20 Se os vetores 𝒖, 𝒗 ∈ ℝ𝑛 não forem colineares (isto é, se não estiverem na mesma
reta), mostre que {𝒖, 𝒗} é uma base do subespaço < 𝒖, 𝒗 >.

Proposição 4.26 Seja 𝑋 um espaço vetorial. Se ℬ = {𝒗1 , … , 𝒗𝑘 } for uma


base de um subespaço 𝑉 ⊂ 𝑋, então cada vetor 𝒗 ∈ 𝑉 é escrito de maneira
única como combinação linear dos elementos de ℬ.

Demonstração: Seja 𝒗 ∈ 𝑉 tal que

𝛼1 𝒗1 + 𝛼2 𝒗2 + … + 𝛼𝑘 𝒗𝑘 = 𝒗 = 𝛽1 𝒗1 + 𝛽2 𝒗2 + … + 𝛽𝑘 𝒗𝑘 .

Queremos mostrar que 𝛼𝑖 = 𝛽𝑖 para 𝑖 ∈ {1, … , 𝑘}. Ora, da igualdade


anterior deduzimos que

(𝛼1 − 𝛽1 )𝒗1 + (𝛼2 − 𝛽2 )𝒗2 + … + (𝛼𝑘 − 𝛽𝑘 )𝒗𝑘 = 0.

Como ℬ é linearmente independente, devemos ter 𝛼𝑖 − 𝛽𝑖 = 0 para todo


𝑖 ∈ {1, … , 𝑘}, o que prova nosso resultado. 

Veja também o Exercício 28, no final do capítulo.


Agora passamos a considerar o conceito de dimensão de um subespaço.

Definição 4.27 Dizemos que um espaço vetorial 𝑋 tem dimensão finita se


𝑋 = {0} ou se 𝑋 tiver uma base com um número finito de elementos. Caso
contrário, 𝑋 tem dimensão infinita.

Exemplo 4.28 Consideremos os vetores 𝒖 = (1, 0, 0) e 𝒗 = (0, 1, 0). De


acordo com o Exercício 4.20, {𝒖, 𝒗} é uma base do subespaço

𝑍 = < 𝒖, 𝒗 > = {𝛼𝒖 + 𝛽𝒗 ∶ 𝛼, 𝛽 ∈ 𝕂} ⊂ 𝕂3 .

Seja 𝒘 = 𝒖 + 𝒗 = (1, 1, 0). Afirmamos que {𝒖, 𝒘} é outra base de 𝑍.


Temos que 𝒘 ∈ 𝑍, pois 𝒘 = 1𝒖 + 1𝒗. Assim, {𝒖, 𝒘} ⊂ 𝑍. Se 𝒛 ∈ 𝑍,
então
𝒛 = 𝛼𝒖 + 𝛽𝒗 = 𝛼(1, 0, 0) + 𝛽(0, 1, 0) = (𝛼, 𝛽, 0).
Afirmamos que 𝒛 é combinação linear de 𝒖 e 𝒘. De fato,

(𝛼, 𝛽, 0) = 𝛽1 𝒖 + 𝛽2 𝒘 ⇔ (𝛼, 𝛽, 0) = (𝛾1 + 𝛾2 , 𝛾2 , 0).


72 CAPÍTULO 4. BASE E DIMENSÃO

É claro então que 𝛾2 = 𝛽 e 𝛾1 + 𝛾2 = 𝛼, o que implica 𝛾1 = 𝛼 − 𝛾2 =


𝛼 − 𝛽. Mostramos assim que qualquer elemento de 𝑍 é combinação linear
dos elementos 𝒖 e 𝒘: se 𝒘 ∈ 𝑍, então 𝒘 = (𝛼, 𝛽, 0) = (𝛼 − 𝛽)𝒖 + 𝛽𝒗.
Mas o conjunto {𝒖, 𝒘} é linearmente independente, pois

(0, 0, 0) = 𝛾1 𝒖 + 𝛾2 𝒘 ⇔ (0, 0, 0) = (𝛾1 + 𝛾2 , 𝛾2 , 0).

Assim, 𝛾1 = 𝛾2 = 0 é a única solução de 0 = 𝛾1 𝒖 + 𝛾2 𝒘. ⊲

Uma generalização simples do exemplo anterior nos permite concluir


que um mesmo subespaço do 𝕂𝑛 possui diferentes bases. (Se considerar-
mos diferentes ordenamentos dos vetores de uma base, isso já era óbvio.)
Todas essas bases possuem algo em comum: o número de elementos. Uti-
lizaremos, para mostrar esse fato, o seguinte resultado:

Teorema 4.29 Sejam 𝑋 um espaço vetorial e ℬ = {𝒗1 , … , 𝒗𝑘 } uma base


do subespaço 𝑊 ⊂ 𝑋. Então qualquer conjunto 𝒞 ⊂ 𝑊 com mais que 𝑘
elementos é linearmente dependente.

Demonstração: Mostraremos esse resultado em uma situação particular,


com uma notação mais simples. Para isso, suponhamos que ℬ = {𝒗1 , 𝒗2 }
seja uma base de 𝑊. Consideremos um conjunto qualquer

𝑆 = {𝒖1 , 𝒖2 , 𝒖3 } ⊂ 𝑊 .

Vamos mostrar que 𝑆 é linearmente dependente.


Para isso, consideremos a equação

𝛽1 𝒖1 + 𝛽2 𝒖2 + 𝛽3 𝒖3 = 0. (4.9)

Como ℬ é uma base de 𝑊, cada elemento de 𝑆 é combinação linear dos


elementos em ℬ. Assim,

𝒖1 = 𝛼11 𝒗1 + 𝛼21 𝒗2
𝒖2 = 𝛼12 𝒗1 + 𝛼22 𝒗2
𝒖3 = 𝛼13 𝒗1 + 𝛼23 𝒗2

para determinados escalares 𝛼𝑖𝑗 , com 𝑖 ∈ {1, 2} e 𝑗 ∈ {1, 2, 3}. Note bem:
como pouco sabemos sobre os vetores 𝒗1 , 𝒗2 , não podemos determinar esses
escalares 𝛼𝑖𝑗 , mas eles certamente existem!
Substituindo essas expressões de 𝒖1 , 𝒖2 e 𝒖3 em (4.9), obtemos

𝛽1 (𝛼11 𝒗1 + 𝛼21 𝒗2 ) + 𝛽2 (𝛼12 𝒗1 + 𝛼22 𝒗2 ) + 𝛽3 (𝛼13 𝒗1 + 𝛼23 𝒗2 ) = 0,

ou seja,

(𝛽1 𝛼11 + 𝛽2 𝛼12 + 𝛽3 𝛼13 )𝒗1 + (𝛽1 𝛼21 + 𝛽2 𝛼22 + 𝛽3 𝛼23 )𝒗2 = 0.

Como ℬ é um conjunto linearmente independente, devemos ter

𝛽1 𝛼11 + 𝛽2 𝛼12 + 𝛽3 𝛼13 = 0


𝛽1 𝛼21 + 𝛽2 𝛼22 + 𝛽3 𝛼23 = 0,
4.2. BASE E DIMENSÃO 73

isto é,
𝛽 0
𝛼11 𝛼12 𝛼13 ⎛⎜ 1 ⎞⎟ ⎛⎜ ⎞⎟
𝛽 = 0 .
(𝛼21 𝛼22 𝛼23 ) ⎜ 2 ⎟ ⎜ ⎟
⎝𝛽3 ⎠ ⎝0⎠
Como o número de equações nesse sistema homogêneo é menor do que
o número de incógnitas, decorre do Teorema 2.22 que esse sistema possui
solução (𝛽1 𝛽2 𝛽3 )𝒕 ≠ 0, mostrando que 𝒞 é linearmente dependente. 

Exercício 4.21 Verifique se os conjuntos são linearmente dependentes ou linearmente indepen-


dentes:
(𝑎) 𝑆 = {(1, 1), (2, 1), (1, 0)} ⊂ 𝕂2 ;
(𝑏) 𝑅 = {(1, 1, 1, 1), (0, 0, 0, 0), (1, 2, 1, 1)} ⊂ 𝕂4
(𝑐) 𝑃 = {(1, 1, 2), (1, 0, 1), (1, 2, 1), (0, 0, 1)} ⊂ 𝕂3 .
Exercício 4.22 Com a notação do Teorema 4.29, sejam

ℬ = {𝒗1 , … , 𝒗𝑘 } e 𝒞 = {𝒖1 , … , 𝒖𝑘 , 𝒖𝑘+1 }.

Prove o Teorema 4.29 adaptando a demonstração já apresentada. Deduza daí então o caso 𝒞 =
{𝒖1 , … , 𝒖𝑘 , 𝒖𝑘+1 , … , 𝒖𝑘+𝑟 }, em que 𝑟 ≥ 1.

Exemplo 4.30 Considere o espaço 𝕂∞ , definido no Exercício 1.14. Su-


ponhamos que 𝕂∞ possua uma base com 𝑘 elementos. Definindo 𝒆𝑖 =
(0, … , 0, 1, 0, …) como o vetor (isto é, sequência) cuja 𝑖-ésima coordenada
é igual a 1, as outras sendo nulas, é fácil verificar que ℬ = {𝑒𝑖 ∶ 𝑖 ∈ ℕ} é
linearmente independente, o que contradiz o Teorema 4.29. Portanto, 𝕂∞
tem dimensão infinita. (É fácil verificar que ℬ é uma base de 𝕂∞ .) ⊲

Corolário 4.31 Seja 𝑊 ≠ {0} um subespaço de um espaço vetorial de


dimensão finita. Então todas as bases de 𝑊 possuem o mesmo número de
elementos.

Demonstração: Suponhamos que existam bases ℬ e ℬ ′ , com ℬ tendo me-


nos elementos do que ℬ ′ . De acordo com o Teorema 4.29, o conjunto ℬ ′
seria linearmente dependente. Mas isso é impossível, pois ℬ ′ é uma base
de 𝑆 e, consequentemente, um conjunto linearmente independente. Chega-
mos a uma contradição que mostra que todas as bases devem ter o mesmo
número de elementos. 

Definição 4.32 Seja 𝑊 um subespaço de um espaço vetorial de dimensão


finita. Se 𝑊 ≠ {0}, definimos a dimensão de 𝑊 como o número de elemen-
tos de uma de suas bases. Escrevemos dim 𝑊 = 𝑘, se existir uma base de
𝑊 com 𝑘 elementos. Se 𝑊 = {0}, dizemos que 𝑊 tem dimensão igual a 0.

Como todas as bases de um subespaço tem o mesmo número de elemen-


tos, está bem definida a dimensão do subespaço 𝑊.
Qualquer que seja o espaço vetorial 𝑋, observe que o subespaço {0} ⊂
𝑋 não possui base.
74 CAPÍTULO 4. BASE E DIMENSÃO

Exemplo 4.33 Seja 𝑋 um espaço vetorial de dimensão 𝑛 ∈ ℕ. (Por exem-


plo, 𝑋 = 𝕂𝑛 .) Já vimos que o 𝑋 tem dois subespaços triviais: o espaço
{0}, de dimensão igual a 0, e o próprio 𝑋, de dimensão igual a 𝑛. Agora
podemos caracterizar todos os subespaços do 𝑋. Além desses, existem to-
das as retas passando pela origem (que são os subespaços de dimensão 1),
todos os planos passando pela origem (que são os subespaços de dimensão
2), todos os subespaços de dimensão 3 passando pela origem e assim por
diante, até chegarmos a todos os subespaços de dimensão 𝑛 − 1. O próprio
𝑋 é seu único subespaço com dimensão 𝑛. (Note que, por falta de nomes
adequados, mudamos a maneira de nos referir aos subespaços do 𝑋: come-
çamos com retas e planos e passamos a falar de subespaços de dimensão 3
etc.) ⊲
Agora mostraremos que, se tivermos um conjunto 𝒮 que gera o subes-
paço 𝑊, sempre podemos retirar de 𝒮 vetores supérfluos, de modo a obter
uma base:
Proposição 4.34 Suponha que o conjunto 𝒮 = {𝒗1 , … , 𝒗𝑘 } ⊂ 𝑊 gere o
subespaço 𝑊 ≠ {0}. Então existe um subconjunto de 𝑆 que é uma base de
𝑊.
Demonstração: Podemos supor que todos os vetores 𝒗𝑖 ∈ 𝒮 não sejam nu-
los, pois 𝑊 ≠ {0} e vetores nulos podem ser retirados de 𝑆 sem afetar o fato
de 𝒮 gerar 𝑊. Se 𝒮 for linearmente independente, temos uma base de 𝑊.
Caso contrário, um dos vetores desse conjunto é combinação linear dos ve-
tores restantes. Retirando esse vetor, o conjunto restante continua gerando
𝑊. Continuamos retirando vetores que são combinação linear dos elemen-
tos restantes até obter um conjunto linearmente independente que continua
gerando 𝑊. Este conjunto linearmente independente sempre existe, pois
um conjunto composto por um único vetor não nulo é sempre linearmente
independente. 

Se já sabemos qual a dimensão do subespaço 𝑊 ⊂ 𝑋, então a verifica-


ção de que um conjunto é uma base de 𝑊 pode ser simplificada.
Teorema 4.35 Sejam 𝑊 ⊂ 𝑋 um subespaço de dimensão 𝑘 e
ℬ = {𝒗1 , … , 𝒗𝑘 } ⊂ 𝑊 .
Então, se uma das condições seguintes for satisfeita, ℬ é uma base de 𝑊:
(𝑖) o conjunto ℬ gera 𝑊;
(𝑖𝑖) o conjunto ℬ é linearmente independente.
Demonstração: Suponhamos inicialmente que ℬ gere 𝑊. Se esse conjunto
fosse linearmente dependente, aplicando a Proposição 4.34 obteríamos en-
tão um subconjunto de ℬ, com menos que 𝑘 elementos, que seria uma base
de 𝑊. Mas isso contradiz a hipótese de 𝑊 ter dimensão 𝑘.
Por outro lado, se ℬ fosse linearmente independente e não gerasse 𝑊,
existiria 𝒗𝑘+1 ∈ 𝑊 que não é combinação linear dos vetores de ℬ. De
acordo com a Proposição 4.17 (ou a Observação 4.20), seria linearmente
independente o conjunto {𝒗1 , … , 𝒗𝑘 , 𝒗𝑘+1 } . Mas isso contradiz o Teorema
4.29, pois existiria um conjunto linearmente independente com mais vetores
do que a dimensão do espaço. 
4.3. OBTENÇÃO DE BASES 75

4.3 Obtenção de Bases


A demonstração da Proposição 4.34 mostra como obter uma base à par-
tir de um conjunto que gera um subespaço. Contudo, esse processo é muito
trabalhoso: se o conjunto for linearmente dependente, precisamos obter um
de seus vetores como combinação linear dos vetores restantes, retirar esse
vetor do conjunto e novamente verificar se o conjunto restante é linearmente
dependente, repetindo o processo até obter um conjunto linearmente inde-
pendente. Em cada etapa, retiramos apenas um vetor supérfluo. No caso
de vetores no 𝕂𝑛 , podemos retirar todos os vetores supérfluos de uma única
vez:

Exemplo 4.36 Consideremos os vetores 𝒖1 = (1, 1, 1, 1), 𝒖2 = (1, 2, 3, 2),


𝒖3 = (2, 5, 6, 4) e 𝒖4 = (2, 6, 8, 4) do espaço 𝕂4 . Queremos achar uma base
para o subespaço do ℝ4 gerado por esses vetores.
Para isso, vamos formar a matriz 𝐴 que tem esses vetores como linhas
e obter uma forma escalonada por linhas 𝐸 de 𝐴:

⎛1 1 1 1⎞ ⎛1 1 1 1⎞
⎜1 2 3 2⎟ ⎜0 1 2 1⎟
𝐴=⎜ → 𝐸=⎜ .
2 5 6 4⎟ 0 0 2 1⎟
⎜ ⎟ ⎜ ⎟
⎝2 6 8 4⎠ ⎝0 0 0 0⎠

Notamos que cada operação elementar sobre as linhas de uma matriz pro-
duz uma nova linha que é combinação linear das linhas envolvidas nessa
operação elementar. Ou seja, operações elementares sobre as linhas de uma
matriz produzem vetores linhas que são combinações lineares dos vetores
linha originais. (Posteriormente vamos dizer que operações elementares so-
bre as linhas de uma matriz não alteram seu espaço linha.) Portanto, vemos
que o espaço gerado pelos vetores 𝒖1 , 𝒖2 , 𝒖3 e 𝒖4 tem dimensão 3 e é gerado
pelos vetores 𝒗1 = (1, 1, 1, 1), 𝒗2 = (0, 1, 2, 1) e 𝒗3 = (0, 0, 2, 1). ⊲

No Exemplo 4.36, se fizermos corresponder a primeira linha de 𝐸 à pri-


meira linha de 𝐴 e assim sucessivamente, podemos concluir que {𝒖1 , 𝒖2 , 𝒖3 }
é uma base do espaço gerado por {𝒖1 , 𝒖2 , 𝒖3 , 𝒖4 }. (Uma maneira simples de
verificar isso é considerar a matriz formada apenas por essas linhas e ve-
rificar que seu escalonamento produz as linhas não nulas de 𝐸. Mas nem
sempre uma conclusão como essa é imediata:

Exercício 4.23 Considere os vetores 𝒖1 = (1, 1, 0), 𝒖2 = (0, 0, 1), 𝒖3 = (0, 0, 2) e 𝒖4 = (0, 1, 0).
Escalone a matriz 𝐴 que tem os vetores dados como linha. Obtenha uma base para o subespaço
gerado pelos vetores dados. As linhas de 𝐴 correspondentes aos vetores não nulos de sua forma
escalonada formam uma base desse subespaço?
Assim, o método utilizado no Exemplo 4.36 certamente produz uma
base à partir de um conjunto que gera um subespaço, mas tem um inconve-
niente: os vetores da base obtida não estão todos no conjunto gerador origi-
nal. No Exemplo 4.36, apenas o primeiro vetor da base obtida faz parte do
conjunto original. Mostraremos posteriormente um método alternativo que
reduz um conjunto gerador a uma base sem alterar os vetores envolvidos.
76 CAPÍTULO 4. BASE E DIMENSÃO

Note que a a Proposição 4.34 garante que qualquer subespaço 𝑊 ge-


rado por um número finito de vetores em 𝑊 possui base, mas não garante
que qualquer subespaço 𝑊 de um espaço de dimensão finita 𝑋 possui base.
(Talvez a questão fique mais clara em um contexto concreto: um subespaço
𝑊 de 𝕂𝑛 possui base? Lembre-se que vetores de uma base do 𝕂𝑛 não pre-
cisam estar em 𝑊.)
O próximo resultado mostra que todo subespaço 𝑊 de um espaço veto-
rial 𝑥 de dimensão finita possui uma base:

Teorema 4.37 Seja 𝒞 = {𝒖1 , … , 𝒖𝑗 } ⊂ 𝑊 um subconjunto linearmente


independente do subespaço 𝑊 do espaço 𝑋 de dimensão 𝑛. Então existem
vetores 𝒖𝑗+1 , … , 𝒖𝑗+𝑘 em 𝑊 de modo que

ℬ = {𝒖1 , … , 𝒖𝑗 , 𝒖𝑗+1 , … , 𝒖𝑗+𝑘 }

seja uma base de 𝑊.

Demonstração: Como 𝑊 é um subespaço e 𝒞 ⊂ 𝑊, toda combinação


linear de elementos de 𝒞 pertence a 𝑊. Assim,

<𝒞 >⊂𝑊.

Se < 𝒞 > = 𝑊, então 𝒞 é uma base de 𝑊, de acordo com o Exemplo 4.25.


Caso contrário, existiria 𝒖𝑗+1 ∈ 𝑊 tal que 𝒖𝑗+1 ∉ < 𝒞 >. De acordo com a
Observação 4.20, o conjunto {𝒖1 , … , 𝒖𝑗 , 𝒖𝑗+1 } é linearmente independente.
Agora repetimos o raciocínio. Se < 𝒖1 , … , 𝒖𝑗 , 𝒖𝑗+1 > = 𝑊, então o
conjunto {𝒖1 , … , 𝒖𝑗+1 } é uma base de 𝑊. Caso contrário, existiria 𝒖𝑗+2 ∈
𝑊 tal que 𝒖𝑗+2 ∉ < 𝒖1 , … , 𝒖𝑗 , 𝒖𝑗+1 >. Nesse caso, o conjunto

{𝒖1 , … , 𝒖𝑗 , 𝒖𝑗+1 , 𝒖𝑗+2 }

é linearmente independente.
Esse processo tem fim, pois estamos supondo que 𝑋 tenha dimensão
finita e sabemos que qualquer conjunto com 𝑛 + 1 elementos em 𝑋 é line-
armente dependente, de acordo com o Teorema 4.29. Ou seja, temos

< 𝒖1 , … , 𝒖𝑗 , … , 𝒖𝑗+𝑘 > = 𝑊

para algum 𝑘 ∈ {0, 1, … , 𝑛 − 𝑗}. 

Corolário 4.38 Todo subespaço 𝑊 ≠ {0} do espaço 𝑋 de dimensão 𝑛


possui uma base.

Demonstração: De fato, basta tomar um vetor 0 ≠ 𝒗1 ∈ 𝑊 e aplicar o


Teorema 4.37 ao conjunto linearmente independente 𝒞 = {𝒗1 }. 

A demonstração do Corolário 4.38 garante a existência de uma infini-


dade de bases para qualquer subespaço 𝑊 ≠ {0} de um espaço vetorial 𝑋
de dimensão 𝑛.
4.4. REPRESENTAÇÃO DE UM VETOR EM UMA BASE 77

Exemplo 4.39 Consideremos o conjunto linearmente independente 𝒞 =


{(1, 2, 1, 2), (2, 1, 2, 1)} ⊂ ℝ4 . Vamos obter vetores 𝒗1 , 𝒗2 de modo que

{(1, 2, 1, 2), (2, 1, 2, 1), 𝒗1 , 𝒗2 } = 𝒞 ∪ {𝒗1 , 𝒗2 }

seja uma base do ℝ4 .


Para isso, vamos adaptar o método utilizado no Exemplo 4.36. Monta-
mos a matriz que temos os vetores dados como linha e escalonamos (não
precisamos que cada pivô seja igual a 1):

1 2 1 2 1 2 1 2
→ .
(2 1 2 1) (0 −3 0 −3)

Agora obtemos dois vetores que não estão no espaço gerado pelos vetores
𝒕 𝒕
(1 2 1 2) , (0 −3 0 −3) . Para isso, basta escolhermos dois ve-
tores (escritos como linha) de modo que a matriz 4 × 4 resultante tenha a
forma de escada; por exemplo:

⎛1 2 1 2⎞
⎜0 −3 0 −3⎟
⎜0 .
0 1 0⎟
⎜ ⎟
⎝0 0 0 1⎠

Claramente o conjunto

ℬ = {(1, 2, 1, 2), (0, −3, 0, −3), (0, 0, 1, 0), (0, 0, 0, 1)}

é uma base do ℝ4 . ⊲

4.4 Representação de um Vetor em uma Base


Como dissemos, uma base em um subespaço 𝑊 ⊂ 𝕂𝑛 equivale a um
sistema referencial, isto é, a um sistema de coordenadas. Mudando o sistema
de coordenadas, mudam as coordenadas do vetor, mas o vetor permanece o
mesmo.

Exemplo 4.40 Sejam 𝒗1 = (1, 1) e 𝒗2 = (−1, 1). É claro que ℬ = {𝒗1 , 𝒗2 }


é uma base do ℝ2 . Consideremos 𝒙 = (2, 2) ∈ ℝ2 . Na base ℬ, temos
𝒙 = 2𝒗1 + 0𝒗2 . É natural dizer que as coordenadas de 𝒙 na base ℬ são 2 e
0. Veja a Figura 4.3. ⊲

Exercício 4.24 Seja ℬ = {𝒗1 , 𝒗2 } ⊂ ℝ3 , com 𝒗1 = (1, 1, 0) e 𝒗2 = (−1, 1, 0). Considere o


subespaço 𝑊 = < 𝒗1 , 𝒗2 > ⊂ ℝ3 . (Compare com o Exemplo 4.40.) Mostre que o vetor (2, 2, 0) ∈
𝑊. Em seguida, encontre as coordenadas desse vetor com relação à base ℬ. (Note que, apesar de
todos os pontos de 𝑊 estarem no ℝ3 , eles podem ser descritos utilizando apenas duas coordenadas!)

Para encontrarmos a coordenadas de 𝒙 em uma base ℬ arbitrária, sim-


plesmente escrevemos o vetor 𝒙 como combinação linear dos elementos de
ℬ e coletamos os escalares encontrados.
78 CAPÍTULO 4. BASE E DIMENSÃO

2✻ 𝒙

■ ✒
❅ 2
❅ ✒𝒙



𝒗❅

2 ❅
✒𝒗
1

❅ ✲
2 𝒙

Figura 4.3: As coordenadas do vetor 𝒙 = (2, 2) na base ℬ são 2 e 0, pois


𝒙 = 2𝒗1 + 0𝒗2 .

Definição 4.41 Sejam 𝑋 um espaço vetorial e ℬ = {𝒗1 , … , 𝒗𝑗 } uma base


do subespaço 𝑊. Se 𝒙 ∈ 𝑊, então existem (únicos) escalares 𝛼1 , … , 𝛼𝑗 ∈
𝕂 tais que
𝒙 = 𝛼 1 𝒗1 + … + 𝛼 𝑗 𝒗𝑗 .
O vetor
⎛𝛼1 ⎞
⎜𝛼 ⎟
[𝒙]ℬ = ⎜ 2 ⎟ ∈ 𝕂𝑗

⎜ ⎟
𝛼
⎝ 𝑗⎠
é chamado representação de 𝒙 na base ℬ e 𝛼1 , … , 𝛼𝑗 as coordenadas de
𝒙 na base ℬ.
Se ℰ for a base canônica do 𝕂𝑛 , escrevemos simplesmente 𝒙 ao invés
de [𝒙]ℰ .

Observação 4.42 Ressaltamos que o fato de uma base2 ser um conjunto


ordenado permite dar sentido à representação de um vetor em uma base.
Dado um vetor 𝒖 = (𝑢1 , … , 𝑢𝑛 ) ∈ 𝕂𝑛 , anteriormente utilizamos a de-
nominação de coordenada para o escalar 𝑢𝑖 , sem mencionar qualquer base.
Nesse caso, está implícita a base canônica do 𝕂𝑛 :

(𝑢1 , … , 𝑢𝑛 ) = 𝑢1 (1, 0, … , 0) + 𝑢2 (0, 1, 0, … , 0) + … + 𝑢𝑛 (0, … , 0, 1)


= 𝑢1 𝒆1 + 𝑢2 𝒆2 + … + 𝑢𝑛 𝒆𝑛 .

Proposição 4.43 Nas condições da Definição 4.41, existe uma bijeção en-
tre os espaços 𝑊 e 𝕂𝑗 . Além disso,

[𝒙 + 𝒚]ℬ = [𝒙]ℬ + [𝒚]ℬ


[𝛽𝒙]ℬ = 𝛽[𝒙]ℬ

Demonstração: Fixada a base ℬ, é claro que a aplicação 𝒙 → [𝒙]ℬ é


injetora. Dado (𝛾1 , … , 𝛾𝑗 ) ∈ 𝕂𝑗 , definindo 𝒘 = 𝛾1 𝒗1 + … + 𝛾𝑗 𝒗𝑗 , então
[𝒘]ℬ = (𝛾1 , … , 𝛾𝑗 ), utilizando a identificação de vetores em 𝕂𝑗 com matri-
zes coluna.
2
De um espaço de dimensão finita.
4.5. SOMAS DIRETAS 79

Se 𝒙 = 𝛼1 𝒗1 + … + 𝛼𝑗 𝒗𝑗 e 𝒚 = 𝛽1 𝒗1 + … + 𝛽𝑗 𝒗𝑗 , então

⎛𝛼1 + 𝛽1 ⎞ ⎛𝛼1 ⎞ ⎛𝛽1 ⎞


⎜𝛼 + 𝛽2 ⎟ ⎜𝛼2 ⎟ ⎜𝛽2 ⎟
[𝒙 + 𝒚]ℬ =⎜ 2 = + = [𝒙]ℬ + [𝒚]ℬ .
⋮ ⎟ ⎜⋮⎟ ⎜⋮⎟
⎜ ⎟ ⎜ ⎟ ⎜ ⎟
⎝ 𝛼𝑗 + 𝛽𝑗 ⎠ ⎝ 𝛼𝑗 ⎠ ⎝ 𝛽𝑗 ⎠

A outra demonstração é análoga. 

A Proposição 4.43 mostra que, se um espaço vetorial 𝑋 tiver uma base


{𝒗1 , … , 𝒗𝑛 }, então esse espaço pode ser identificado com o espaço 𝕂𝑛 , de
maneira semelhante à identificação feita entre 𝒫𝑛 (𝑡) e 𝕂𝑛 na Seção 1.6. Em
outras palavras, todo espaço vetorial de dimensão finita 𝑛 pode ser identifi-
cado com o espaço 𝕂𝑛 .

Exemplo 4.44 Seja 𝒙 = (3, 2) ∈ 𝕂2 . Considere a base

ℬ = {𝒗1 = (1, 1), 𝒗2 = (−1, 1)}

do 𝕂2 . Para encontrar [𝒙]ℬ , resolvemos o sistema

𝒙 = 𝛽1 𝒗1 + 𝛽2 𝒗2 ,

isto é,
(3, 2) = 𝛽1 (1, 1) + 𝛽2 (−1, 1),
o que nos dá a solução
5
2
[𝒙]ℬ = .
(− 1 ) ⊲
2

Exercício 4.25 Nas condições da Proposição 4.43, mostre que a aplicação 𝒙 → [𝒙]ℬ satisfaz
[𝒗𝑖 ]ℬ = 𝒆𝑖 , o 𝑖-ésimo vetor da base canônica do 𝕂𝑗 .

4.5 Somas Diretas


Vamos definir a soma direta de subespaços vetoriais, que consiste em
uma generalização da decomposição de um vetor em uma base.

Definição 4.45 Sejam 𝑈 , 𝑉 subespaços quaisquer do 𝕂𝑛 . Definimos

𝑈 + 𝑉 = {𝒖 + 𝒗 ∶ 𝒖 ∈ 𝑈 , 𝒗 ∈ 𝑉 }.

Proposição 4.46 Sejam 𝑈 , 𝑉 subespaços do 𝕂𝑛 . Então 𝑈 + 𝑉 é subespaço


do 𝕂𝑛 . O subespaço 𝑊 = 𝑈 + 𝑉 é chamado soma dos subespaços 𝑈 e 𝑉.

Demonstração: Se 𝒘1 = 𝒖1 + 𝒗1 e 𝒘2 = 𝒖2 + 𝒗2 forem elementos de 𝑈 + 𝑉


e 𝛽 ∈ 𝕂, então claramente 𝛽𝒘1 + 𝒘2 = 𝛽(𝒖1 + 𝒖2 ) + (𝒗1 + 𝒗2 ) ∈ 𝑈 + 𝑉. 

Não custa salientar que os elementos de 𝑊 são combinações lineares


dos elementos de 𝑈 e de 𝑉.
80 CAPÍTULO 4. BASE E DIMENSÃO

Exemplo 4.47 Sejam 𝑈 = < 𝒖1 , 𝒖2 > e 𝑉 = < 𝒗1 , 𝒗2 > subespaços do


𝕂6 , em que

𝒖1 = (1, 2, 0, −3, 1, 0), 𝒖2 = (1, 2, 1, −3, 1, 2)

e
𝒗1 = (1, 2, 0, −3, 2, 1), 𝒗2 = (3, 6, 1, −9, 4, 3).
Encontraremos uma base para o subespaço 𝑈 + 𝑉
O subespaço 𝑈 + 𝑉 é gerado pelos vetores 𝒖1 , 𝒖2 , 𝒗1 e 𝒗2 . Formamos
assim a matriz 𝐴, que tem esses vetores como linhas, e a escalonamos:3

⎛1 2 0 −3 1 0⎞ ⎛1 2 0 −3 1 0 ⎞
⎜1 2 1 −3 1 2⎟ ⎜0 0 1 0 0 2⎟
𝐴=⎜ → ⎜
1 2 0 −3 2 1⎟ 0 0 0 0 1 1⎟
⎜ ⎟ ⎜ ⎟
⎝3 6 1 −9 4 3⎠ ⎝0 0 1 0 1 3⎠
⎛1 2 0 −3 1 0 ⎞
⎜0 0 1 0 0 2⎟
→ ⎜
0 0 0 0 1 1⎟
⎜ ⎟
⎝0 0 0 0 1 1⎠
⎛1 2 0 −3 1 0 ⎞
⎜0 0 1 0 0 2⎟
→ ⎜ =𝐸
0 0 0 0 1 1⎟
⎜ ⎟
⎝0 0 0 0 0 0⎠

Assim, as linhas não nulas de 𝐸 formam uma base para 𝑊 = 𝑈 + 𝑉:

𝒘1 = (1, 2, 0, −3, 1, 0), 𝒘2 = (0, 0, 1, 0, 0, 2) e 𝒘3 = (0, 0, 0, 0, 1, 1).

Nesse exemplo, os vetores dados não formam uma base de 𝑈 + 𝑉: como


a linha nula da matriz 𝐸 nos mostra, existe um vetor supérfluo. Assim, a
nossa intuição nos diz que devem existir vetores que pertencem tanto a 𝑈
quanto a 𝑉. ⊲

Definição 4.48 Sejam 𝑈 , 𝑉 subespaços do espaço vetorial 𝑋. O subespaço


𝑊 = 𝑈 + 𝑉 é a soma direta dos subespaços 𝑈 e 𝑉 se cada elemento 𝑤 ∈ 𝑊
puder ser escrito de maneira única como

𝒘 = 𝒖 + 𝒗,

com 𝒖 ∈ 𝑈 e 𝒗 ∈ 𝑉. Nesse caso denotamos 𝑊 por 𝑊 = 𝑈 ⊕ 𝑉. (Veja a


Figura 4.4.)

Assim, de maneira semelhante à representação de um vetor em uma


base, a definição de soma direta de dois subespaços possibilita a decompo-
sição de um vetor 𝒘 = 𝒖 + 𝒗 em duas componentes (os vetores 𝒖 e 𝒗), sem
escolhermos bases nos espaços 𝑈 e 𝑉!

Exercício 4.26 Como se generaliza essa definição para o caso da soma direta de 𝑘 subespaços?
Exercício 4.27 Suponha que 𝑊 = 𝑈1 ⊕ 𝑈2 ⊕ ⋯ ⊕ 𝑈𝑘 . Mostre que 𝑈𝑖 ≠ {0} para todo 1 ≤ 𝑖 ≤ 𝑘.
3
Não é necessário obter a forma escalonada reduzida por linhas da matriz 𝐴.
4.5. SOMAS DIRETAS 81

Figura 4.4: Se 𝑊 = 𝑈 ⊕ 𝑉, um vetor 𝒘 ∈ 𝑊 escreve-se de maneira única


como 𝒘 = 𝒖 + 𝒗.

Proposição 4.49 Sejam ℬ = {𝒖1 , … , 𝒖𝑗 } e 𝒞 = {𝒗𝑗+1 , … , 𝒗𝑘 } bases dos


subespaços 𝑈 e 𝑉, respectivamente. Então 𝑊 = 𝑈 ⊕ 𝑉 se, e somente se,
𝒟 = {𝒖1 , … , 𝒖𝑗 , 𝒗𝑗+1 , … , 𝒗𝑘 } for uma base do espaço 𝑊.

Demonstração: Se 𝒟 for uma base de 𝑊, então cada vetor 𝑤 ∈ 𝑊 escreve-


se de maneira única como

𝑤 = 𝛼1 𝒖1 + … + 𝛼𝑗 𝒖𝑗 + 𝛼𝑗+1 𝒗𝑗+1 + … + 𝛼𝑘 𝒗𝑘 .

Definindo 𝒖 = 𝛼1 𝒖1 + … + 𝛼𝑗 𝒖𝑗 ∈ 𝑈 e 𝒗 = 𝛼𝑗+1 𝒗𝑗+1 + … + 𝛼𝑘 𝒗𝑘 ∈ 𝑉,


temos que 𝒖 e 𝒗 são unicamente determinados, de modo que 𝑊 é a soma
direta dos espaços 𝑈 e 𝑉.
Reciprocamente, suponhamos que para todo 𝒘 ∈ 𝑊 existam únicos
𝒖 ∈ 𝑈 e 𝒗 ∈ 𝑉 tais que 𝒘 = 𝒖 + 𝒗. Como ℬ e 𝒞 são bases de 𝑈 e 𝑉,
respectivamente, temos que 𝒖 = 𝛼1 𝒖1 +…+𝛼𝑗 𝒖𝑗 e 𝒗 = 𝛼𝑗+1 𝒗𝑗+1 +…+𝛼𝑘 𝒗𝑘
para (únicos) escalares 𝛼1 , … , 𝛼𝑘 .4 Isso mostra que 𝒟 gera o subespaço 𝑊.
Como 𝒖 + 𝒗 = 0 implica 𝒖 = 0 e 𝒗 = 0 (pela unicidade dada na definição de
soma direta), a igualdade 0 = (𝛼1 𝒖1 + … + 𝛼𝑗 𝒖𝑗 ) + (𝛼𝑗+1 𝒗𝑗+1 + … + 𝛼𝑘 𝒗𝑘 )
implica 𝛼1 𝒖1 + … + 𝛼𝑗 𝒖𝑗 = 0 e 𝛼𝑗+1 𝒗𝑗+1 + … + 𝛼𝑘 𝒗𝑘 = 0. Mas ℬ e 𝒞 são
linearmente independentes, de modo que 𝛼𝑖 = 0 para todo 𝑖 ∈ {1, … , 𝑘}.
Isso prova que 𝒟 é linearmente independente e, assim, uma base de 𝑊. 

Tendo em vista esse resultado, podemos concluir que, no Exemplo 4.47,


não temos uma soma direta dos subespaços 𝑈 e 𝑉, confirmando nossa in-
tuição: tanto 𝑈 quanto 𝑉 tem dimensão 2, enquanto 𝑈 + 𝑉 tem dimensão
menor do que 4.

Exercício 4.28 Na demonstração da Proposição 4.49, justifique: 𝒟 ⊂ 𝑊.


Exercício 4.29 Justifique: se 𝑊 = 𝑈 ⊕ 𝑉, então dim 𝑊 = dim 𝑈 + dim 𝑉.
Exercício 4.30 Tendo em vista a Figura 4.4, dê exemplos de subespaços 𝑈 , 𝑉 ⊂ ℝ3 tais que
ℝ3 = 𝑈 ⊕ 𝑉.
Exercício 4.31 Generalize a Proposição 4.49 para a soma de 𝑘 subespaços.
Exercício 4.32 Dê um exemplo mostrando que uma base qualquer de 𝑊 = 𝑈 ⊕ 𝑉 não precisa ser
composta de vetores em 𝑈 e vetores em 𝑉.

Uma outra maneira prática de verificar que 𝑊 é a soma direta de dois


subespaços é dada por
4
Aplicando o Exercício 28, a demonstração está completa.
82 CAPÍTULO 4. BASE E DIMENSÃO

Proposição 4.50 O subespaço 𝑊 = 𝑈 + 𝑉 é a soma direta dos subespaços


𝑈 e 𝑉 se, e somente se, 𝑈 ∩ 𝑉 = {0}.

Demonstração: Suponhamos que 𝑊 = 𝑈 ⊕ 𝑉. Se 𝒛 ∈ 𝑈 ∩ 𝑉 então


𝒘 = 𝒖 + 𝒗 também pode ser escrito como 𝒘 = (𝒖 + 𝒛) + (𝒗 − 𝒛). Como a
decomposição 𝒘 = 𝒖 + 𝒗 é única, devemos ter 𝒖 = 𝒖 + 𝒛 e 𝒗 = 𝒗 − 𝒛. Isso
implica que 𝒛 = 0.
Reciprocamente, suponhamos que 𝒖1 +𝒗1 = 𝒘 = 𝒖2 +𝒗2 , com 𝒖𝑖 ∈ 𝑈 e
𝒗𝑖 ∈ 𝑉 para 𝑖 = {1, 2}. Então 𝒖1 − 𝒖2 ∈ 𝑈. Uma vez que 𝒖1 − 𝒖2 = 𝒗2 − 𝒗1 ,
também temos 𝒖1 − 𝒖2 ∈ 𝑉. Como 𝑈 ∩ 𝑉 = {0}, concluímos que 𝒖1 = 𝒖2 ,
o que implica 𝒗1 = 𝒗2 e garante a unicidade da decomposição de 𝒘. 

Exercício 4.33 Considere os subespaços

𝑈 = {(𝑎, 𝑏, 𝑐) ∶ 𝑎 = 𝑏 = 𝑐 ∈ 𝕂} e 𝑉 = {(𝑐, 𝑑, 0) ∶ 𝑐, 𝑑 ∈ 𝕂}.

Mostre que 𝕂3 = 𝑈 ⊕ 𝑉.

4.6 Exercícios
1. Encontre os valores de 𝑥 e 𝑦 de modo que
(a) (𝑦, 3) = (2, 𝑥 + 𝑦);
(b) (𝑥, 4) = 𝑦(3, 2).
2. Seja 𝑋 um espaço vetorial. Mostre que, para todo 𝒙 ∈ 𝑋, vale (−1)𝒙 = (−𝒙).
3. Seja 𝑉 = {(𝑎, 𝑏, 𝑐) ∈ ℝ3 ∶ 𝑎 > 0} e 𝑊 = {(𝑎, 𝑏, 𝑐) ∈ ℝ3 ∶ 𝑎2 +𝑏2 +𝑐 2 = 1}. Os conjuntos
𝑉 e 𝑊 são subespaços do ℝ3 ?
4. Mostre que o conjunto 𝑊 = {(𝑎, 𝑏, 𝑐) ∈ 𝕂3 ∶ 𝑎 = 𝑏 = 𝑐} é um subespaço do 𝕂3 .
5. Sejam 𝑉 , 𝑊 dois subespaços do espaço vetorial 𝑋. Mostre que 𝑉 ∩ 𝑊 é um subespaço de 𝑋.
Generalize esse resultado para a interseção de 𝑚 subespaços de 𝑋.
6. Interprete a solução de um sistema homogêneo com 𝑚 equações e 𝑛 incógnitas como a inter-
seção de 𝑚 subespaços do 𝕂𝑛 .
7. Sejam 𝑉 , 𝑊 dois subespaços do espaço vetorial 𝑋. Dê um exemplo mostrando que 𝑉 ∪ 𝑊
pode não ser um subespaço do 𝑋.
8. Seja 𝑊 um subconjunto qualquer do 𝕂𝑛 . Mostre que 𝑊 é um subespaço se, e somente se,
𝛽𝒖 + 𝒗 ∈ 𝑊 para quaisquer 𝒖, 𝒗 ∈ 𝑊 e 𝛽 ∈ 𝕂.
9. Seja 𝒞 um conjunto qualquer de elementos do 𝕂𝑛 . (Assim, não sabemos quantos elementos
estão em 𝒞.) Defina

< 𝒞 >= {𝒗 ∈ 𝕂𝑛 ∶ ∃ 𝑗 ∈ ℕ tal que 𝒗 = 𝛼1 𝒗1 + … + 𝛼𝑗 𝒗𝑗 , },

em que 𝒗𝑖 ∈ 𝒞 e 𝛼𝑖 ∈ 𝕂, para todo 1 ≤ 𝑖 ≤ 𝑗.


Mostre que < 𝒞 > é um subespaço do 𝕂𝑛 . (Compare com a Proposição 4.6, em que o natural
𝑗 foi fixado.)
10. Generalize o Exercício 9, mostrando que 𝕂𝑛 pode ser substituído por qualquer espaço vetorial
𝑋.
4.6. EXERCÍCIOS 83

11. No Exemplo 1.24, considere que 𝐴 = [0, 2𝜋] e defina 𝐶([0, 2𝜋], ℝ) ⊂ 𝑋 como o conjunto
de todas as funções contínuas. Mostre que 𝐶([0, 2𝜋], ℝ) é um subespaço de 𝑋. Defina ℐ =
{𝒇 ∶ [0, 2𝜋] → ℝ ∶ 𝒇 é integrável} ⊂ 𝑋 como o conjunto de todas as funções integráveis.
O conjunto ℐ é um subespaço de 𝑋?
12. Considere o conjunto 𝒫 de todos os polinômios na variável 𝑡 com coeficientes complexos.
Determine se 𝑊 é um subespaço de 𝒫, se
(a) 𝑊 é o conjunto de todos os polinômios com coeficientes racionais;
(b) 𝑊 é o conjunto de todos os polinômios de grau menor do que 6 (considerando que o
polinômio nulo tem grau −∞, como anteriormente);
(c) 𝑊 é o conjunto de todos os polinômios de grau par;
13. Escreva o vetor 𝒖 = (1, −2, 5) como combinação linear dos vetores 𝒗1 = (1, 2, 3), 𝒗2 =
(1, 1, 1) e 𝒗3 = (2, 1, −1).
14. Escreva o vetor 𝒖 = (1, 1, 0) como combinação linear dos vetores 𝒗1 = (1, 2, 0), 𝒗2 = (2, 1, 0),
𝒗3 = (0, 0, 1) e 𝒗4 = (3, 3, 0).
15. Escreva o vetor 𝒖 = (4, 7, 7, 9) como combinação linear dos vetores 𝒗1 = (1, 1, 1, 1), 𝒗2 =
(1, 2, 3, 4), 𝒗3 = (1, 1, 4, 5).
16. Verifique que o conjunto {𝒗1 = (1, 1, 1, 1), 𝒗2 = (1, 1, 1, 0), 𝒗3 = (1, 1, 0, 0), 𝒗4 = (1, 0, 0, 0)}
gera o espaço 𝕂4 .
17. Determine condições sobre 𝑎, 𝑏 e 𝑐 de modo que 𝒖 = (𝑎, 𝑏, 𝑐) pertença ao espaço gerado por
{𝒗1 = (3, 0, −4), 𝒗2 = (1, 2, 0), 𝒗3 = (1, −1, −2)} ⊂ 𝕂3 .
18. Verifique se os vetores 𝒗1 = (4, 5, 5), 𝒗2 = (−1, −1, −2) e 𝒗3 = (2, 3, 1) são linearmente
dependentes ou linearmente independentes.
19. O conjunto {𝒗1 = (1, 2, 5), 𝒗2 = (1, 3, 1), 𝒗3 = (3, 1, 4), 𝒗4 = (2, 5, 7)} ⊂ 𝕂3 é linearmente
dependente?
20. O conjunto {(1, 1, 1), (1, 0, 0), (0, 0, 0)} é linearmente dependente ou linearmente indepen-
dente?
21. Suponha que os vetores 𝒗1 , 𝒗2 e 𝒗3 do espaço 𝑋 sejam linearmente independentes. Mostre
que o conjunto {𝒗1 + 𝒗2 , 𝒗1 − 𝒗2 , 𝒗1 − 2𝒗2 + 𝒗3 } ⊂ 𝑋 é linearmente independente.
22. Verifique se o conjunto

1 2 −3 1 3 −4 3 8 −11
, ,
{(4 0 1) (6 5 4) (16 10 9 )}

é linearmente dependente ou linearmente independente. Compare sua solução com aquela


apresentada no Exemplo 4.15. Como sua solução se relaciona com a identificação apresen-
tada na equação (1.13)?
23. Verifique se os seguintes conjuntos são bases do 𝕂3 :
(a) {(1, 1, 1), (1, 1, 0)};
(b) {(1, 1, 1), (1, 2, 1), (2, 3, 4), (0, 0, 1)};
(c) {(2, 2, 4), (5, 3, 4), (1, 2, 5)};
(d) {(1, 1, 1), (−1, −2, −3), (−2, 1, −1)}.
24. Determine uma base e a dimensão do espaço gerado pelos vetores 𝒗1 = (1, 1, 1, 1), 𝒗2 =
(2, 6, 8, 5), 𝒗3 = (4, 10, 12, 8) e 𝒗4 = (1, 2, 3, 2).
25. Seja 𝑊 o subespaço do 𝕂5 gerado pelos vetores 𝒗1 = (2, 4, −2, 6, 8), 𝒗2 = (1, 3, 2, 2, 6),
𝒗3 = (1, 4, 5, 1, 8) e 𝒗4 = (−2, −4, 2, 6, 8). Encontre uma base e a dimensão de 𝑊.
84 CAPÍTULO 4. BASE E DIMENSÃO

26. Seja 𝑊 = {(𝑎, 𝑏, 𝑏, 𝑐) ∶ 𝑎, 𝑏, 𝑐 ∈ 𝕂}. Determine uma base e a dimensão de 𝑊.


27. Considere o conjunto {𝒗1 = (2, 2, 3, 4), 𝒗2 = (2, 2, 2, 2)} ⊂ 𝕂4 . Complete esse conjunto de
modo a obter uma base do 𝕂4 .
28. Mostre a recíproca da Proposição 4.26. Isto é, suponhamos que 𝑉 ⊂ 𝑋 seja um subespaço e
ℬ = {𝒗1 , … , 𝒗𝑘 } ⊂ 𝑉. Mostre que, se cada vetor 𝒗 ∈ 𝑉 for escrito de maneira única como
combinação linear dos elementos de ℬ, então ℬ é uma base de 𝑉.
29. Sejam 𝑋 um espaço vetorial de dimensão 𝑛 e 𝑊 ⊂ 𝕂𝑛 um subespaço, com dim 𝑊 = 𝑛.
Mostre que 𝑊 = 𝑋.
30. Verifique que o espaço 𝕄𝑚×𝑛 do Exemplo 1.21 tem dimensão 𝑚𝑛. Exiba uma base desse
espaço.
31. Sejam 𝑈 , 𝑉 subespaços de dimensão finita do espaço vetorial 𝑋. Mostre que 𝑈 + 𝑉 tem
dimensão finita, valendo

dim(𝑈 + 𝑉 ) = dim 𝑈 + dim 𝑉 − dim(𝑈 ∩ 𝑉 ).

32. Considere os subespaços 𝑈 , 𝑉 e 𝑊 do espaço ℝ3 , com

𝑈 = {(𝑥, 𝑦, 𝑧) ∶ 𝑥 + 𝑦 + 𝑧 = 0}, 𝑉 = {(𝑥, 0, 0)}

e
𝑊 = {(𝑥, 𝑦, 𝑧) ∶ 𝑥 = 𝑧}.
Mostre que
(a) ℝ3 = 𝑈 + 𝑉;
(b) ℝ3 = 𝑈 + 𝑊;
(c) ℝ3 = 𝑉 + 𝑊.
Quando temos uma soma direta de subespaços?
33. Considere o espaço 𝒫3 (𝑡) de todos os polinômios com coeficientes em 𝕂 com grau menor
que 3.
(a) Mostre que ℬ = {𝒑1 , 𝒑2 , 𝒑3 } é uma base de 𝒫3 (𝑡), sendo

𝒑1 (𝑡) = 𝑡 + 1, 𝒑2 (𝑡) = 𝑡 − 1 e 𝒑3 (𝑡) = 𝑡2 − 2𝑡 + 1;

(b) Obtenha as coordenadas de 𝒒(𝑡) = 2𝑡2 − 5𝑡 + 9 na base ℬ.


34. Mostre que ℬ = {𝒑1 , 𝒑2 , 𝒑3 , 𝒑4 } é uma base de 𝒫4 (𝑡), sendo

𝒑1 = (𝑡 − 1)3 , 𝒑2 (𝑡) = (𝑡 − 1)2 , 𝒑3 (𝑡) = (𝑡 − 1) e 𝒑4 (𝑡) = 1.

Em seguida, encontre as coordenadas de 𝒒(𝑡) = 3𝑡3 − 4𝑡2 + 2𝑡 − 5 nessa base.


Capítulo 5

Aplicações Lineares

Objetivos: No final do Capítulo o aluno deve saber:

1. aplicar o teorema do núcleo e da imagem; obter bases para o núcleo


e imagem de uma matriz;

2. obter diferentes representações matriciais de uma aplicação linear e


saber como elas se relacionam;

3. fixadas bases nos espaços envolvidos, entender que a multiplicação


de matrizes que representam aplicações lineares corresponde à com-
posição dessas aplicações;

4. entender o significado dos espaços linha e coluna de uma matriza e


suas consequências.

5.1 Teorema do Núcleo e da Imagem


Já vimos o tipo de conjunto que estudaremos neste curso: espaços ve-
toriais, com ênfase naqueles de dimensão finita. Agora veremos as funções
que nos interessam entre esses conjuntos: as aplicações lineares.

Definição 5.1 Sejam 𝑋, 𝑌 espaços vetoriais. Uma aplicação linear (ou


transformação linear) é uma aplicação 𝑇 ∶ 𝑋 → 𝑌 tal que

𝑇 (𝒙 + 𝜆𝒚) = 𝑇 𝒙 + 𝜆𝑇 𝒚, ∀ 𝒙, 𝒚 ∈ 𝑋 e 𝜆 ∈ 𝕂. (5.1)

Se 𝑌 = 𝕂, uma aplicação linear é chamada funcional linear. Se 𝑋 = 𝑌,


isto é, se a aplicação 𝑇 ∶ 𝑋 → 𝑋 for linear, então 𝑇 é chamado operador
linear.
Uma aplicação linear 𝑇 ∶ 𝑋 → 𝑌 é um isomorfismo se for uma bijeção.1

Alguns comentários sobre essa definição. Em primeiro lugar, estamos


denotando a imagem do ponto 𝒙 ∈ 𝑋 por 𝑇 𝒙 em vez de 𝑇 (𝒙). Essa será
nossa prática: parênteses só serão utilizados para ajudar na interpretação.
1
Uma função 𝑓 ∶ 𝑋 → 𝑌 é injetora, se 𝑓 (𝑥1 ) = 𝑓 (𝑥2 ) implicar 𝑥1 = 𝑥2 ; uma função
𝑓 ∶ 𝑋 → 𝑌 é sobrejetora se, para todo 𝑦 ∈ 𝑌, existir 𝑥 ∈ 𝑋 tal que 𝑓 (𝑥) = 𝑦. Uma função
𝑓 ∶ 𝑋 → 𝑌 é uma bijeção, se 𝑓 for injetora e sobrejetora.

85
86 CAPÍTULO 5. APLICAÇÕES LINEARES

Em segundo lugar, notamos que a soma de vetores e a multiplicação por es-


calar presentes em (5.1) possuem significados diferentes: no lado esquerdo
da igualdade, a soma de vetores e a multiplicação por escalar ocorrem no
espaço 𝑋, enquanto no lado direito da igualdade elas acontecem em 𝑌. Fi-
nalmente, essa definição pode ser generalizada para aplicações lineares defi-
nidas em subespaços 𝑈 ⊂ 𝑋: basta considerar apenas 𝒙, 𝒚 ∈ 𝑈 na igualdade
(5.1). Lembre, contudo, que um subespaço é, em si, um espaço vetorial.

Exemplo 5.2 Seja I ∶ 𝑋 → 𝑋 a aplicação dada por I𝒙 = 𝒙. Então I é linear


pois, para 𝒙, 𝒚 ∈ 𝑋 e 𝛼 ∈ 𝕂, temos I(𝒙 + 𝛼𝒚) = 𝒙 + 𝛼𝒚 = I𝒙 + 𝛼I𝒚. A
aplicação I é chamada operador identidade no espaço 𝑋. Claramente I é
um isomorfismo. ⊲

Exemplo 5.3 Sejam 𝑋, 𝑌 espaços vetoriais e 𝑁 ∶ 𝑋 → 𝑌 a aplicação de-


finida por 𝑁𝒙 = 0 para todo 𝒙 ∈ 𝑋. É fácil verificar que 𝑁 é linear; a
aplicação 𝑁 é chamada aplicação nula, qualquer que seja o espaço 𝑌. ⊲

Exemplo 5.4 Seja 𝑓 ∶ ℝ → ℝ definida por 𝑓 (𝑥) = 𝑥2 . A função 𝑓 é uma


aplicação linear? (Lembre-se: ℝ = ℝ1 é um espaço vetorial!)
Uma vez que 𝑓 (𝑥 + 𝑦) = (𝑥 + 𝑦)2 = 𝑥2 + 2𝑥𝑦 + 𝑦2 = 𝑓 (𝑥) + 𝑓 (𝑦) + 2𝑥𝑦,
vemos que 𝑓 não é linear, pois podemos ter 2𝑥𝑦 ≠ 0. ⊲

Exemplo 5.5 Para x = (𝑥1 , 𝑥2 ) ∈ ℝ2 , considere a aplicação 𝑇 ∶ ℝ2 → ℝ2


definida por
𝑇 𝒙 = (𝑥2 , 𝑥1 + 𝑥2 ).
Por exemplo, se x = (1, 1), então 𝑇 𝒙 = (1, 2); se 𝒙 = (1, 2), então 𝑇 𝒙 =
(2, 3) etc.
Temos que 𝑇 é linear, isto é, 𝑇 é um operador linear. Para mostrar esse
fato, temos que verificar que 𝑇 satisfaz a igualdade (5.1). Isto é, precisamos
mostrar que

𝑇 ((𝑥1 , 𝑥2 ) + 𝜆(𝑦1 , 𝑦2 )) = (𝑥2 , 𝑥1 + 𝑥2 ) + 𝜆(𝑦2 , 𝑦1 + 𝑦2 ) = 𝑇 𝒙 + 𝜆𝑇 𝒚,

para 𝒙 = (𝑥1 , 𝑥2 ) e 𝒚 = (𝑦1 , 𝑦2 ).


Como

𝑇 ((𝑥1 , 𝑥2 ) + 𝜆(𝑦1 , 𝑦2 )) = 𝑇 (𝑥1 + 𝜆𝑦1 , 𝑥2 + 𝜆𝑦2 )


= (𝑥2 + 𝜆𝑦2 , 𝑥1 + 𝜆𝑦1 + 𝑥2 + 𝜆𝑦2 )
= (𝑥2 , 𝑥1 + 𝑥2 ) + 𝜆(𝑦2 , 𝑦1 + 𝑦2 ) = 𝑇 𝒙 + 𝜆𝑇 𝒚,

nossa afirmação está provada e 𝑇 é um operador linear. ⊲

Exercício 5.1 Sejam 𝑋, 𝑌 espaços vetoriais e 𝑇 ∶ 𝑋 → 𝑌 uma aplicação linear qualquer. Mostre
que 𝑇 (0) = 0.
Exercício 5.2 Sejam 𝑋, 𝑌 espaços vetoriais e ℬ = {𝒖1 , … , 𝒖𝑛 } uma base de 𝑋. Mostre que existe
uma única aplicação linear 𝑇 ∶ 𝑋 → 𝑌 tal que 𝑇 𝒖𝑖 = 𝒘𝑖 , quaisquer que sejam os vetores 𝒘𝑖 em 𝑌.
Exercício 5.3 Mostre que existe uma única aplicação linear 𝑇 ∶ ℝ3 → ℝ2 que se anula no plano
gerado pelos vetores (1, −1, 0) e (2, −3, 1) e satisfaz 𝑇 (1, 1, 1) = (1, 1). Calcule 𝑇 (1, 2, 2).
5.1. TEOREMA DO NÚCLEO E DA IMAGEM 87

Definimos agora dois subespaços fundamentais associados a uma apli-


cação linear. (Dada uma matriz 𝐴, 𝑚 × 𝑛, já havíamos definido ker 𝐴.)
Definição 5.6 Seja 𝑇 ∶ 𝑋 → 𝑌 uma aplicação linear. Definimos a imagem
de 𝑇, denotada por im 𝑇, por
im 𝑇 = {𝒚 ∈ 𝑌 ∶ 𝒚 = 𝑇 𝒙}.
Definimos o núcleo de 𝑇, denotado por ker 𝑇, por
ker 𝑇 = {𝒙 ∈ 𝑋 ∶ 𝑇 𝒙 = 0}.
O núcleo e a imagem de 𝑇 são subespaços vetoriais do domínio de 𝑇
(isto é, 𝑋) e do contradomínio de 𝑇 (isto é, 𝑌), respectivamente. De fato, se
𝒙1 , 𝒙2 ∈ ker 𝑇 e 𝛽 ∈ 𝕂, então 𝑇 (𝒙1 + 𝛽𝒙2 ) = 𝑇 𝒙1 + 𝛽𝑇 𝒙2 = 0 + 𝛽0 = 0,
provando que 𝒙1 +𝛽𝒙2 ∈ ker 𝑇. Se 𝒚1 , 𝒚2 ∈ im 𝑇, então existem 𝒙1 , 𝒙2 ∈ 𝑋
tais que 𝒚1 = 𝑇 𝒙1 e 𝒚2 = 𝑇 𝒙2 . Logo, se 𝛽 ∈ 𝕂, 𝒚1 + 𝛽𝒚2 = 𝑇 𝒙1 +
𝛽𝑇 𝒙2 = 𝑇 (𝒙1 + 𝛽𝒙2 ), o que mostra que 𝒚1 + 𝛽𝒚2 ∈ im 𝑇. Observe que,
nas demonstrações anteriores, não utilizamos bases, seja no domínio, seja
no contradomínio.

Observação 5.7 O subespaço 𝑊, introduzido no Exemplo 4.7, é caracteri-


zado como a sendo a imagem da aplicação linear 𝐴, definida no Exemplo
4.13.

Lema 5.8 Sejam 𝑋, 𝑌 espaços vetoriais. Uma aplicação linear 𝑇 ∶ 𝑋 → 𝑌


é injetora se, e somente se, ker 𝑇 = {0}, ou seja, dim ker 𝑇 = 0.

Demonstração: Se existir 𝒙 ≠ 0 tal que 𝑇 𝒙 = 0, então 𝑇 não é injetora,


pois também temos 𝑇 (0) = 0. (Veja o Exercício 5.1.)
Suponhamos agora ker 𝑇 = {0} e que existam 𝒙1 , 𝒙2 tais que 𝑇 𝒙1 =
𝑇 𝒙2 . Daí decorre que 𝑇 𝒙1 − 𝑇 𝒙2 = 0, ou seja, 𝑇 (𝒙1 − 𝒙2 ) = 0. A última
igualdade mostra que 𝒙1 −𝒙2 ∈ ker 𝑇. Como ker 𝑇 = {0}, temos 𝒙1 −𝒙2 = 0
e, portanto, 𝒙1 = 𝒙2 . Logo, 𝑇 é injetora. 

Exemplo 5.9 Considere a aplicação 𝑆 ∶ ℝ2 → ℝ3 dada por


𝑆(𝑥1 , 𝑥2 ) = (𝑥1 , 𝑥2 , 𝑥1 + 𝑥2 ).
Quer dizer, se 𝒙 = (𝑥1 , 𝑥2 ), então 𝑆𝒙 = (𝑥1 , 𝑥2 , 𝑥1 + 𝑥2 ), que é um vetor
𝒘 ∈ ℝ3 .
É fácil verificar que 𝑆 é uma aplicação linear:
𝑆 ((𝑥1 , 𝑥2 ) + 𝜆(𝑦1 , 𝑦2 )) = 𝑆(𝑥1 + 𝜆𝑦1 , 𝑥2 + 𝜆𝑦2 )
= (𝑥1 + 𝜆𝑦1 , 𝑥2 + 𝜆𝑦2 , 𝑥1 + 𝜆𝑦1 + 𝑥2 + 𝜆𝑦2 )
= (𝑥1 , 𝑥2 , 𝑥1 + 𝑥2 ) + 𝜆(𝑦1 , 𝑦2 , 𝑦1 + 𝑦2 )
= 𝑆(𝑥1 , 𝑥2 ) + 𝜆𝑆(𝑦1 , 𝑦2 ).
Além disso, 𝑆 é injetora: 𝑆(𝑥1 , 𝑥2 ) = 0 quer dizer
(𝑥1 , 𝑥2 , 𝑥1 + 𝑥2 ) = (0, 0, 0),
igualdade que implica (𝑥1 , 𝑥2 ) = 0 ∈ ℝ2 , ou seja, ker 𝑆 = {0}. Mas 𝑆 não
é sobrejetora, pois não existe 𝒙 = (𝑥1 , 𝑥2 ) ∈ ℝ2 tal que 𝑆𝒙 = (1, 1, 0). ⊲
88 CAPÍTULO 5. APLICAÇÕES LINEARES

A verificação de que uma aplicação linear 𝑇 não é sobrejetora parece


difícil: como encontrar pontos que não pertencem à imagem de 𝑇? Para
verificar que uma aplicação linear 𝑇 ∶ 𝑋 → 𝑌 é sobrejetora, se dim 𝑌 < ∞,
temos que verificar que dim im 𝑇 = dim 𝑌 (pois isso implica que im 𝑇 =
𝑌). Mas podemos simplificar esse procedimento aplicando o Teorema do
Núcleo e da Imagem.

Teorema 5.10 (do Núcleo e da Imagem)


Sejam 𝑋, 𝑌 espaços vetoriais, com dim 𝑋 = 𝑛 e dim 𝑌 = 𝑚. Então,
para toda aplicação linear 𝑇 ∶ 𝑋 → 𝑌 vale

dim 𝑋 = dim ker 𝑇 + dim im 𝑇 .

Demonstração: Se ker 𝑇 ≠ {0}, seja {𝒙1 , … , 𝒙𝑗 } uma base de ker 𝑇.


Como esse é um conjunto linearmente independente no espaço 𝑋, pode-
mos aplicar a Proposição 4.37 e obter uma base

ℬ = {𝒙1 , … , 𝒙𝑗 , 𝒘𝑗+1 , … , 𝒘𝑛 }

do espaço 𝑋. (Se ker 𝑇 = {0}, simplesmente tomamos uma base de 𝑋.)


Afirmamos que {𝑇 𝒘𝑗+1 , … , 𝑇 𝒘𝑛 } é uma base de im 𝑇 ⊂ 𝑌. Mostrare-
mos inicialmente que esses vetores são linearmente independentes. De fato,
suponhamos que

𝛼𝑗+1 𝑇 𝒘𝑗+1 + … + 𝛼𝑛 𝑇 𝒘𝑛 = 0.

Daí decorre que 𝑇 (𝛼𝑗+1 𝒘𝑗+1 + … + 𝛼𝑛 𝒘𝑛 ) = 0; definindo

𝒘 = 𝛼𝑗+1 𝒘𝑗+1 + … + 𝛼𝑛 𝒘𝑛 ,

concluímos que 𝒘 ∈ ker 𝑇. Como {𝒙1 , … , 𝒙𝑗 } é uma base de ker 𝑇, temos


que
𝒘 = 𝛽 1 𝒙1 + … + 𝛽 𝑗 𝒙𝑗 .
Ou seja,
𝛽1 𝒙1 + … + 𝛽𝑗 𝒙𝑗 − 𝛼𝑗+1 𝒘𝑗 − … − 𝛼𝑛 𝒘𝑛 = 0.
Como ℬ é uma base do ℝ𝑛 , concluímos que 𝛽1 = … = 𝛽𝑗 = −𝛼𝑗+1 =
… = −𝛼𝑛 = 0. Isso mostra que os vetores 𝑇 𝒘𝑗+1 , … , 𝑇 𝒘𝑛 são linearmente
independentes.
Seja agora 𝒚 ∈ im 𝑇. Então existe 𝒙 ∈ 𝑋 tal que 𝑇 𝒙 = 𝒚. Como ℬ é
base de 𝑋, 𝒙 = 𝛼1 𝒙1 + … + 𝛼𝑗 𝒙𝑗 + 𝛼𝑗+1 𝒘𝑗+1 + … + 𝛼𝑛 𝒘𝑛 e, portanto,

𝒚 = 𝑇 𝒙 = 𝛼1 𝑇 𝒙1 + … + 𝛼𝑗 𝑇 𝒙𝑗 + 𝛼𝑗+1 𝑇 𝒘𝑗+1 + … + 𝛼𝑛 𝑇 𝒘𝑛
= 𝛼𝑗+1 𝑇 𝒘𝑗+1 + … + 𝛼𝑛 𝑇 𝒘𝑛 ,

pois 𝑇 𝒙𝑖 = 0, 𝑖 ∈ {1, … , 𝑗}. Isso mostra que {𝑇 𝒘𝑗+1 , … , 𝑇 𝒘𝑛 } gera im 𝑇


e conclui a demonstração. 

Observação 5.11 Observe que a escolha da base ℬ foi um passo funda-


mental na demonstração do Teorema do Núcleo e da Imagem. Se tivésse-
mos partido de uma base qualquer (como, por exemplo, a base canônica do
ℝ𝑛 ), a demonstração seria muito mais difícil. ⊲
5.1. TEOREMA DO NÚCLEO E DA IMAGEM 89

Para espaços de dimensão finita 𝑋 e 𝑌, vamos mostrar que, se dim 𝑋 ≠


dim 𝑌, então 𝑇 ∶ 𝑋 → 𝑌 não é um isomorfismo.
Corolário 5.12 A aplicação linear 𝑇 ∶ 𝑋 → 𝑌 não é sobrejetora, se dim 𝑌 >
dim 𝑋.
Demonstração: Pelo Teorema do Núcleo e da Imagem, temos que
dim im 𝑇 = dim 𝑋 − dim ker 𝑇 ≤ dim 𝑋.
Como dim 𝑋 < dim 𝑌, concluímos que dim im 𝑇 < dim 𝑌 e 𝑇 não é sobre-
jetora. 

Comparando com o Exemplo 5.9, vemos que poderíamos dizer imedia-


tamente que 𝑆 não é sobrejetora!

Corolário 5.13 A aplicação linear 𝑇 ∶ 𝑋 → 𝑌 não é injetora, se dim 𝑌 <


dim 𝑋.

Demonstração: Pelo Teorema do Núcleo e da Imagem, temos


dim 𝑋 = dim ker 𝑇 + dim im 𝑇 ≤ dim ker 𝑇 + dim 𝑌 .
Como dim 𝑌 < dim 𝑋, temos dim ker 𝑇 ≥ 1 e o afirmado decorre do Lema
5.8. 

Sintetizando os resultados anteriores, se 𝑋 e 𝑌 são espaços de dimensão


finita, aplicações lineares 𝑇 ∶ 𝑋 → 𝑌 podem ser isomorfismos apenas se
dim 𝑋 = dim 𝑌. Claro, essa condição não é suficiente; existem operadores
lineares que não são isomorfismos. Mas, sendo 𝑋, 𝑌 de mesma dimensão
finita, é simples verificar se um operador linear 𝑇 ∶ 𝑋 → 𝑌 é um isomor-
fismo:
Corolário 5.14 Seja 𝑋, 𝑌 espaços de dimensão finita, com dim 𝑋 = dim 𝑌.
Uma aplicação linear 𝑇 ∶ 𝑋 → 𝑌 é injetora se, e somente se, for sobrejetora.
Em outras palavras, 𝑇 ∶ 𝑋 → 𝑌 é um isomorfismo se, e somente se, ker 𝑇 =
{0}.
Demonstração: De fato, se tivermos ker 𝑇 = {0}, então
dim im 𝑇 = dim 𝑋 − dim ker 𝑇 = dim 𝑋.
Como a dimensão da imagem de 𝑇 é igual a dimensão do contradomínio de
𝑇, temos que 𝑇 é sobrejetora. Da mesma forma, se 𝑇 for sobrejetora, então
dim im 𝑇 = dim 𝑋 e daí deduzimos, como antes, dim ker 𝑇 = 0. 

Assim, se 𝑋 tiver dimensão finita, para que 𝑇 ∶ 𝑋 → 𝑋 seja um isomor-


fismo, basta verificar que ker 𝑇 = {0}. Considerando uma função qualquer
𝑓 ∶ ℝ → ℝ e comparando com esse resultado, temos uma ideia de quão
especiais são as aplicações lineares !

Exercício 5.4 Se dim 𝑋 < ∞, dê um exemplo de um operador linear 𝑇 ∶ 𝑋 → 𝑋 que não é um


isomorfismo.
Exercício 5.5 Mostre que a aplicação identidade I ∶ ℝ𝑛 → ℝ𝑛 , definida no Exemplo 5.2, é um
isomorfismo.
90 CAPÍTULO 5. APLICAÇÕES LINEARES

Exemplo 5.15 No Corolário 5.14, a hipótese dos espaços envolvidos terem


a mesma dimensão finita é essencial.
Consideremos o espaço 𝒫 (𝑡) de todos os polinômios com coeficientes
no corpo 𝕂. Dado o polinômio 𝒑(𝑡) = 𝑎0 + 𝑎1 𝑡 + … + 𝑎𝑠−1 𝑡𝑠−1 + 𝑎𝑠 𝑡𝑠 , defina
𝑅 ∶ 𝒫 (𝑡) → 𝒫 (𝑡) por

𝑅𝒑(𝑡) = 𝑎0 𝑡 + 𝑎1 𝑡2 + … + 𝑎𝑠−1 𝑡𝑠 + 𝑎𝑠 𝑡𝑠+1 .

A linearidade de 𝑅 é clara. Além disso, é fácil verificar que 𝑅𝒑(𝑡) = 0


implica 𝒑(𝑡) = 0. Assim, 𝑅 é injetora. Contudo, não existe 𝒑(𝑡) ∈ 𝒫 (𝑡) tal
que 𝑅𝒑(𝑡) = 1 ∈ 𝒫 (𝑡), mostrando que 𝑅 não é sobrejetora. ⊲

5.2 Aplicações Lineares e Matrizes


Em várias oportunidades verificamos que a identificação

⎛𝑥1 ⎞
(𝑥1 , … , 𝑥𝑛 ) ∈ 𝕂𝑛 ⟷ ⎜ ⋮ ⎟ ∈ 𝕄𝑛×1 (5.2)
⎜ ⎟
⎝ 𝑥𝑛 ⎠
é útil no tratamento de vetores. Sem pressupor a escolha de bases, ela iden-
tifica um vetor do 𝕂𝑛 com uma matriz em 𝕄𝑛×1 (𝕂). Se a utilizarmos tanto
no espaço 𝕂𝑛 quanto no espaço 𝕂𝑚 , ela nos permite interpretar uma matriz
𝐴 = (𝑎𝑖𝑗 ), 𝑚 × 𝑛, como uma aplicação linear 𝐴 ∶ 𝕂𝑛 → 𝕂𝑚 . De fato, dado
𝒙 = (𝑥1 , … , 𝑥𝑛 ) ∈ 𝕂𝑛 e utilizando a identificação (5.2), temos

⎛ 𝑎11 𝑎12 … 𝑎1𝑛 ⎞ ⎛𝑥1 ⎞ ⎛ 𝑎11 𝑥1 + 𝑎12 𝑥2 + … + 𝑎1𝑛 𝑥𝑛 ⎞


⎜ 𝑎21 𝑎22 … 𝑎2𝑛 ⎟ ⎜𝑥2 ⎟ ⎜ 𝑎 𝑥 + 𝑎22 𝑥2 + … + 𝑎2𝑛 𝑥𝑛 ⎟
⎜ ⋮ ⎟ ⎜ ⎟ = ⎜ 21 1 ⎟
⋮ ⋱ ⋮ ⋮ ⋮
⎜ ⎟⎜ ⎟ ⎜ ⎟
𝑎 𝑎
⎝ 𝑚1 𝑚2 … 𝑎𝑚𝑛 ⎠ ⎝𝑥𝑛 ⎠ ⎝𝑎𝑚1 𝑥1 + 𝑎𝑚2 𝑥2 + … + 𝑎𝑚𝑛 𝑥𝑛 ⎠
= 𝐴𝒙 ∈ 𝕄𝑚×1 . (5.3)

Identificando 𝕄𝑚×1 com o 𝕂𝑚 (identificação idêntica àquela feita em (5.2)),


vemos que a matriz 𝐴 = (𝑎𝑖𝑗 ) associa, a cada vetor 𝒙 ∈ 𝕂𝑛 ≃ 𝕄1×𝑛 , um
vetor 𝐴𝒙 ∈ 𝕂𝑚 ≃ 𝕄𝑚×1 . Para mostrar que essa função é linear (e, por-
tanto, uma aplicação linear) basta aplicar propriedades básicas de matrizes,
mostradas no Teorema 1.7 e Proposição 1.12:

𝐴(𝒙 + 𝜆𝒚) = 𝐴𝒙 + 𝜆𝐴𝒚.

Note também que, se tomarmos o vetor 𝒆𝒋 da base canônica do 𝕂𝑛 es-


crito como uma matriz coluna, obtemos justamente a coluna 𝑗 da matriz 𝐴.
Por exemplo,

⎛ 𝑎11 𝑎12 … 𝑎1𝑛 ⎞ ⎛1⎞ ⎛ 𝑎11 ⎞


⎜𝑎 𝑎22 … 𝑎2𝑛 ⎟ ⎜0⎟ ⎜ 𝑎21 ⎟
𝐴𝒆1 = ⎜ 21 = .
⋮ ⋮ ⋱ ⋮ ⎟ ⎜⋮⎟ ⎜ ⋮ ⎟
⎜ ⎟⎜ ⎟ ⎜ ⎟
⎝𝑎𝑚1 𝑎𝑚2 … 𝑎𝑚𝑛 ⎠ ⎝0⎠ ⎝𝑎𝑚1 ⎠

Uma das consequência da interpretação de uma matriz como definindo


uma aplicação linear diz respeito ao sistema linear 𝐴𝒙 = 𝒃. Se 𝐴 for uma
5.2. APLICAÇÕES LINEARES E MATRIZES 91

matriz 𝑚 × 𝑛, esse sistema pode ser entendido como a procura de pontos


𝒙 ∈ 𝕂𝑛 que são levados pela aplicação linear 𝐴 no ponto 𝒃 ∈ 𝕂𝑚 . Ou, dito
de outra forma, as soluções do sistema são as pré-imagens 𝒙 ∈ 𝕂𝑛 do ponto
𝒃 ∈ 𝕂𝑚 pela aplicação linear 𝐴.

Exemplo 5.16 Considere a matriz 𝐴 dada por

1 2 −1
.
(2 1 1)

Como a matriz 𝐴 é 2 × 3, ela define uma aplicação linear 𝑇 ∶ ℝ3 → ℝ2 .


Para 𝒙 = (𝑥1 , 𝑥2 , 𝑥3 ), então

⎛𝑥1 ⎞ 𝑥
1 2 −1 ⎛⎜ 1 ⎞⎟ 𝑥1 + 2𝑥2 − 𝑥3
𝐴 ⎜𝑥2 ⎟ = 𝑥2 = .
⎜ ⎟ (2 1 1) ⎜ ⎟ (2𝑥1 + 𝑥2 + 𝑥3 )
𝑥
⎝ 3⎠ 𝑥
⎝ 3⎠ ⊲

Exercício 5.6 Considere a matriz


2 1 7 5
𝐴= .
(1 1 1 1)

Quais são o domínio e o contradomínio da aplicação linear definida por 𝐴? Calcule 𝐴𝒙, se
𝒙 = (1, 1, 1, 1). Calcule também 𝐴𝒆𝑖 , em que os vetores 𝒆𝑖 compõem a base canônica do domínio
de 𝐴 (veja o Exemplo 4.23).

Exemplo 5.17 Generalizando o Exemplo 5.9, consideremos a aplicação 𝑇 ∶ 𝕂𝑛 →


𝕂𝑚 definida, para 𝒙 = (𝑥1 , … , 𝑥𝑛 ), por

𝑇 𝒙 = 𝑇 (𝑥1 , … , 𝑥𝑛 ) = (𝑎11 𝑥1 + … + 𝑎1𝑛 𝑥𝑛 , … , 𝑎𝑚1 𝑥1 + … + 𝑎𝑚𝑛 𝑥𝑛 ),

em que os escalares 𝑎𝑖𝑗 , 𝑖 ∈ {1, … , 𝑚} e 𝑗 ∈ {1, … , 𝑛} são arbitrários.


Afirmamos que 𝑇 é uma aplicação linear. De fato, basta notar que, em
cada uma das coordenadas de 𝑇 𝒙, temos

𝑎𝑖1 (𝑥1 + 𝜆𝑦1 ) + … + 𝑎𝑖𝑛 (𝑥𝑛 + 𝜆𝑦𝑛 ) = (𝑎𝑖1 𝑥1 + … + 𝑎𝑖𝑛 𝑥𝑛 ) + … +


𝜆(𝑎𝑖1 𝑦1 + … + 𝑎𝑖𝑛 𝑦𝑛 ).

Dessa igualdade, válida para todo 𝑖 ∈ {1, … , 𝑚}, deduzimos que 𝑇 é


linear. (Justifique!) ⊲

Exercício 5.7 Considere 𝑇 ∶ 𝕂2 → 𝕂3 definida por

𝑇 𝒙 = 𝑇 (𝑥1 , 𝑥2 ) = (3𝑥1 + 𝑥2 , 𝑥1 + 𝑥2 , 𝑥2 ).

Verifique que 𝑇 é uma aplicação linear.

Dada uma aplicação linear 𝑇 ∶ 𝑋 → 𝑌 entre os espaços 𝑋 e 𝑌, com bases


ℬ = {𝒖1 , … , 𝒖𝑛 } ⊂ 𝑋 e 𝒞 = {𝒗1 , … , 𝒗𝑚 } ⊂ 𝑌, podemos representar 𝑇
𝒞
por uma (única) matriz, que denotaremos 𝑇ℬ .
92 CAPÍTULO 5. APLICAÇÕES LINEARES

Teorema 5.18 Fixadas bases

ℬ = {𝒖1 , … , 𝒖𝑛 } ⊂ 𝑋 e 𝒞 = {𝒗1 , … , 𝒗𝑚 } ⊂ 𝑌 ,

uma aplicação linear 𝑇 ∶ 𝑋 → 𝑌 pode ser representada por uma única


𝒞
matriz 𝑇ℬ , 𝑚 × 𝑛, satisfazendo
𝒞
[𝑇 𝒙]𝒞 = 𝑇ℬ [𝒙]ℬ . (5.4)
𝒞
A matriz 𝑇ℬ é dada por
𝒞
𝑇ℬ = ([𝑇 𝒖1 ]𝒞 [𝑇 𝒖2 ]𝒞 ⋯ [𝑇 𝒖𝑛 ]𝒞 ),

em que [𝑇 𝒖𝑗 ]𝒞 ∈ 𝕄𝑚×1 .
Reciprocamente, a cada matriz 𝐴 ∈ 𝕄𝑚×𝑛 corresponde uma única apli-
𝒞
cação linear 𝑇 ∶ 𝑋 → 𝑌 tal que 𝑇ℬ = 𝐴.
De fato, como 𝒞 é uma base do espaço 𝑌, para cada vetor 𝒖𝑖 ∈ ℬ existem
únicos escalares 𝛽𝑗𝑖 ∈ 𝕂, com 𝑗 ∈ {1, … , 𝑚}, tais que

⎛ 𝛽1𝑖 ⎞
⎜⋮⎟
𝑇 𝒖𝑖 = 𝛽1𝑖 𝒗1 + … + 𝛽𝑗𝑖 𝒗𝑗 + … + 𝛽𝑚𝑖 𝒗𝑚 ⇒ [𝑇 𝒖𝑖 ]𝒞 = ⎜ 𝛽𝑗𝑖 ⎟ . (5.5)
⎜ ⎟
⎜⋮⎟
⎝𝛽𝑚𝑖 ⎠
𝒞
Observe que está definida a matriz 𝑇ℬ . Como os escalares 𝛽𝑖𝑗 são únicos, a
𝒞
matriz 𝑇ℬ é única. (Observe que esta matriz depende da base ℬ.)
Por sua vez, dado um vetor qualquer 𝒙 ∈ 𝑋, podemos representá-lo na
base ℬ de maneira única:

⎛𝛼1 ⎞
⎜𝛼 ⎟
𝒙 = 𝛼1 𝒖1 + … + 𝛼𝑛 𝒖𝑛 ⇒ [𝒙]ℬ = ⎜ 2⎟ . (5.6)

⎜ ⎟
𝛼
⎝ 𝑛⎠
A linearidade de 𝑇 nos garante que

𝑇 𝒙 = 𝑇 (𝛼1 𝒖1 + … + 𝛼𝑛 𝒖𝑛 ) = 𝛼1 𝑇 𝒖1 + … + 𝛼𝑛 𝑇 𝒖𝑛

e, portanto,

⎛ 𝛽11 ⎞ ⎛ 𝛽12 ⎞ ⎛ 𝛽1𝑛 ⎞


⎜𝛽 ⎟ ⎜𝛽 ⎟ ⎜𝛽 ⎟
[𝑇 𝑥]𝒞 = 𝛼1 [𝑇 𝑢1 ]𝒞 + 𝛼𝑛 [𝑇 𝑢1 ]𝒞 = 𝛼1 ⎜ 21 ⎟ + 𝛼2 ⎜ 22 ⎟ + … + 𝛼𝑛 ⎜ 2𝑛 ⎟
⋮ ⋮ ⋮
⎜ ⎟ ⎜ ⎟ ⎜ ⎟
𝛽
⎝ 𝑚1 ⎠ 𝛽
⎝ 𝑚2 ⎠ 𝛽
⎝ 𝑚𝑛 ⎠
⎛ 𝛽11 𝛽12 ⋯ 𝛽1𝑛 ⎞ ⎛𝛼1 ⎞
⎜ ⋮ ⎟⎜⋮⎟
= 𝛽𝑖1 𝛽𝑖2 ⋯ 𝛽𝑖𝑛 ⎟ ⎜ 𝛼𝑖 ⎟

⎜ ⎟⎜ ⎟
⎜ ⋮ ⋮ ⋱ ⋮ ⎟⎜⋮⎟
⎝𝛽𝑚1 𝛽𝑚2 … 𝛽𝑚𝑛 ⎠ ⎝𝛼𝑛 ⎠
𝒞
= 𝑇ℬ [𝒙]ℬ . (5.7)
5.2. APLICAÇÕES LINEARES E MATRIZES 93

Por outro lado, dada uma matriz 𝐴 ∈ 𝕄𝑚×𝑛 qualquer, ao definirmos


𝑇 ∶ 𝑋 → 𝑌 por [𝑇 𝒖𝑖 ]𝒞 = 𝐴[𝒖𝑖 ]ℬ (= 𝐴𝒆𝑖 ), 𝑇 está definida em uma base, o
𝒞
que garante sua unicidade. (Veja o Exercício 5.2.) Note que, então, 𝑇ℬ é
igual a 𝐴.
No caso de operadores lineares 𝑇 ∶ 𝑋 → 𝑋, a mesma base ℬ do espaço
𝑋 pode ser escolhida tanto no domínio quanto no contradomínio. Nesse

caso, denotamos 𝑇ℬ em vez de 𝑇ℬ .

Exercício 5.8 Verifique que a Proposição 4.43 garante a existência de uma aplicação linear bijetora
(e, portanto, um isomorfismo) entre o subespaço 𝑊 e 𝕂𝑗 .
Exercício 5.9 Como o Exercício 5.2 e a Proposição 4.43 estão sendo utilizados para demonstrar
que cada matriz 𝐴 ∈ 𝕄𝑚×𝑛 define uma única aplicação linear 𝑇 ∶ 𝕂𝑛 → 𝕂𝑚 ? Apresente os detalhes
dessa demonstração.

Exemplo 5.19 Sejam ℬ = {𝒖1 , 𝒖2 , 𝒖3 } e 𝒞 = {𝒗1 , 𝒗2 } bases dos espaços


𝑋 e 𝑌, respectivamente. Seja 𝑇 ∶ 𝑋 → 𝑌 a única aplicação linear2 que
satisfaz
𝑇 𝒖1 = 3𝒗1 − 5𝒗2 , 𝑇 𝒖2 = −𝒗1 + 6𝒗2 e 𝑇 𝒖3 = 4𝒗2 .
𝒞
Então a matriz 𝑇ℬ é dada por

𝒞 3 −1 0
𝑇ℬ = ([𝑇 𝒖1 ]𝒞 [𝑇 𝒖2 ]𝒞 [𝑇 𝒖3 ]𝒞 ) = . ⊲
(−5 6 4)
O exemplo anterior foi bastante simples, pois todas as informações ne-
𝒞
cessárias para calcular a matriz 𝑇ℬ foram dadas em seu próprio enunciado.
Vejamos agora um exemplo um pouco mais elaborado.
Exemplo 5.20 Consideremos a aplicação linear 𝑇 ∶ ℝ2 → ℝ3 dada por
𝑇 (𝑥, 𝑦) = (𝑦, 𝑥, 𝑥 + 𝑦). No domínio ℝ2 tomemos a base canônica ℰ =
{𝒆1 , 𝒆2 } e no contradomínio ℝ3 a base ℬ = {𝒗1 , 𝒗2 , 𝒗3 }, em que
𝒗1 = (0, 0, 1), 𝒗2 = (0, 1, 1) e 𝒗3 = (1, 1, 1).
Vamos encontrar a matriz 𝑇ℰℬ que representa 𝑇 com respeito às bases ℰ e
ℬ. Para isso, calculamos
𝑇 𝒆1 = (0, 1, 1) e 𝑇 𝒆2 = (1, 0, 1).
Agora obtemos as expressões de 𝑇 𝒆1 e 𝑇 𝒆2 na base ℬ, ao resolver os sis-
temas
𝑇 𝒆1 = (0, 1, 1) = 𝛼1 𝒗1 + 𝛼2 𝒗2 + 𝛼3 𝒗3
𝑇 𝒆2 = (1, 0, 1) = 𝛽1 𝒗1 + 𝛽2 𝒗2 + 𝛽3 𝒗3 ,
cujas soluções são, respectivamente
(𝛼1 , 𝛼2 , 𝛼3 ) = (0, 1, 0) e (𝛽1 , 𝛽2 , 𝛽3 ) = (1, −1, 1).
Quer dizer,
⎛0 1⎞
𝑇ℰℬ = ⎜1 −1⎟ .
⎜ ⎟ ⊲
⎝0 1⎠
2
Sobre a unicidade, veja o Exercício 5.2.
94 CAPÍTULO 5. APLICAÇÕES LINEARES

Exemplo 5.21 Considere a aplicação linear 𝑇 ∶ 𝕂2 → 𝕂2 definida por

𝑇 (𝑥, 𝑦) = (4𝑥 − 2𝑦, 2𝑥 + 𝑦).

Seja ℬ a base do 𝕂2 formada pelos vetores 𝒖1 = (1, 1) e 𝒖2 = (−1, 0).


Vamos achar a matriz que representa 𝑇 com relação à base ℬ. (Quer dizer,

estamos procurando a matriz 𝑇ℬ = 𝑇ℬ .) Para isso, calculamos

𝑇 𝒖1 = (2, 3) = 3(1, 1) + (−1, 0) = 3𝒖1 + 𝒖2 .

Note que escrevemos a imagem de 𝑇 (𝒖1 ) na base ℬ, utilizada também no


contradomínio. Temos
3
[𝑇 (𝒖1 )]ℬ = .
(1)
Da mesma forma, 𝑇 (𝒖2 ) = (−4, −2) = −2(1, 1) + 2(−1, 0) = −2𝒖1 + 2𝒖2
e, portanto,
−2
[𝑇 (𝒖2 )]ℬ = .
( 2)
Assim,
3 −2
𝑇ℬ = ([𝑇 𝒖1 ]ℬ [𝑇 𝒖2 ]ℬ ) = .
(1 2)
As colunas de 𝑇ℬ são as imagens dos vetores da base ℬ, escritas na própria
base ℬ utilizada, nesse caso, também no contradomínio.
Vamos aproveitar para mostrar como se calcula utilizando a matriz 𝑇ℬ .
Lembramos que essa matriz recebe vetores escritos na base ℬ e, ao mul-
tiplicar 𝑇ℬ por esse vetor, fornece um vetor escrito na base ℬ. Se o vetor
não estiver na base ℬ, primeiro precisamos expressá-lo nessa base. Por
exemplo, se quisermos calcular a imagem do vetor (1, 2) ∈ 𝕂2 utilizando
a matriz 𝑇ℬ , primeiro expressamos esse vetor na base ℬ (veja o Exemplo
4.44):
(1, 2) = 2(1, 1) + 1(−1, 0) = 2𝒖1 + 𝒖2 .
Calculando
2 3 −2 2 4
𝑇ℬ = = ,
(1) (1 2) (1) (4)
obtemos a “resposta” na base ℬ. Se quisermos a resposta como calculado
usando diretamente a aplicação linear 𝑇, precisamos “interpretar” a resposta
obtida:
4𝒖1 + 4𝒖2 = 4(1, 1) + 4(−1, 0) = (0, 4),
que é o mesmo resultado que obtemos ao calcular 𝑇 (1, 2) utilizando a ex-
pressão 𝑇 (𝑥, 𝑦) = (4𝑥 − 2𝑦, 2𝑥 + 𝑦). ⊲

Exemplo 5.22 Se compararmos a definição de 𝑇 𝒙 no Exemplo 5.17 com


a expressão de 𝐴𝒙 na igualdade (5.3), não podemos deixar de perceber a
semelhança: cada uma das coordenadas de 𝑇 𝒙 coincide com as coordena-
das de 𝐴𝒙, com uma única diferença: em 𝑇 𝒙 essas coordenadas são escri-
tas como um vetor do 𝕂𝑚 , enquanto que em 𝐴𝒙 são representadas como
uma matriz coluna. Mas o Teorema 5.18 garante que a aplicação linear
𝑇 ∶ ℝ𝑛 → ℝ𝑚 pode ser representada por uma matriz quando escolhemos
5.3. MUDANÇAS DE BASE 95

bases no domínio e no contradomínio, mas essas não foram escolhidas no


Exemplo 5.17. Então o que explica a semelhança observada?
Isso se deve à utilização implícita das bases canônicas ℰ𝑛 e ℰ𝑚 do do-
mínio e contradomínio, respectivamente.
Como 𝑇 (𝑥1 , … , 𝑥𝑛 ) = (𝑎11 𝑥1 + … + 𝑎1𝑛 𝑥𝑛 , … , 𝑎𝑚1 𝑥1 + … + 𝑎𝑚𝑛 𝑥𝑛 ),
temos 𝑇 𝒆𝑗 = (𝑎1𝑗 , 𝑎2𝑗 , … , 𝑎𝑚𝑗 ), vetor que representado na base canônica do

ℝ𝑚 corresponde justamente à 𝑗-ésima coluna da matriz 𝐴. Assim, 𝑇ℰ 𝑚 é
𝑛
justamente a matriz 𝐴.
Mas e a expressão (5.4)? Essa questão for abordada na Observação ??:

Observação 5.23 Se 𝑋 for um espaço de dimensão finita, dada uma aplica-


ção linear 𝑇 ∶ 𝑋 → 𝑋, a escolha de bases ℬ (no domínio) e 𝒞 no contrado-
mínio pode fazer com que a representação matricial de 𝑇 assuma formas
bem gerais. Por exemplo, se 𝑇 for um isomorfismo, 𝑇ℬ𝒞 pode ser a matriz
identidade! Assim, a representação de 𝑇 ∶ 𝑋 → 𝑌 em bases completamente
arbitrárias quase não nos passa informação relevante sobre a aplicação 𝑇.
Essa questão será tratada no Capítulo 7, no contexto 𝑋 = 𝑌. ⊲

5.3 Mudanças de base


Dada uma aplicação linear 𝑇 ∶ 𝑋 → 𝑌 entre espaços de dimensão finita,
𝒞
a cada escolha de bases ℬ em 𝑋 e 𝒞 em 𝑌 está associada uma matriz 𝑇ℬ ,
cuja expressão depende das bases ℬ e 𝒞. Uma vez que podemos escolher
diferentes bases ℬ em 𝑋 e 𝒞 em 𝑌, vemos que existem muitas maneiras
distintas de representar uma transformação linear por meio de uma matriz.
Como se relacionam essas matrizes que representam a mesma aplicação
linear 𝑇?
Para responder a essa pergunta, começamos apresentando um diagrama
que ilustra a representação de uma aplicação linear 𝑇 ∶ 𝑋 → 𝑌 entre espaços
de dimensão finita, escolhidas bases ℬ em 𝑋 e 𝒞 em 𝑌. Note que 𝑋 e 𝑌
podem ser espaços bastante gerais, nos quais não se pode falar, por exemplo,
de coordenadas de um vetor sem a utilização de bases.
𝑇
𝑋 ⟶ 𝑌
𝐵 ↓ ↓ 𝐶 .
𝑛 𝑚
(𝕂 , ℬ) ⟶ (𝕂 , 𝒞 )
𝒞
𝑇ℬ

Na notação (𝕂𝑛 , ℬ) utilizada nesse diagrama, note que ℬ não é uma


base do 𝕂𝑛 e sim do espaço 𝑋; da mesma forma para (𝕂𝑚 , 𝒞 ). Na verdade,
em virtude do isomorfismo apresentado na Proposição 4.43, os espaços 𝕂𝑛
e 𝕂𝑚 estão sendo considerados sem qualquer base e a notação utilizada ape-
nas enfatiza as bases utilizadas nos espaços 𝑋 e 𝑌 para torná-los isomorfos
a 𝕂𝑛 e 𝕂𝑚 , com esses isomorfismos sendo denotados pelas aplicações 𝐵 e
𝐶, respectivamente. (Observe que a Proposição 4.43 garante que 𝐵 e 𝐶 são
isomorfismos.) Ao utilizarmos um diagrama, setas verticais sempre repre-
sentarão isomorfismos.
96 CAPÍTULO 5. APLICAÇÕES LINEARES

Considerando a aplicação linear 𝑇 ∶ 𝑋 → 𝑌, algumas vezes simplifica-


remos o diagrama anterior, deixando implícitos o domínio 𝑋 e o contrado-
mínio 𝑌, mas mantendo o mesmo significado:

(𝕂𝑛 , ℬ) ⟶ (𝕂𝑚 , 𝒞 )
𝒞 . (5.8)
𝑇ℬ

Para mostrar como se relacionam diferentes representação de 𝑇, co-


meçamos estudando como se relacionam as representações de 𝒙 em bases
ℬ = {𝒖1 , … , 𝒖𝑛 } e ℬ ′ = {𝒖′1 , … , 𝒖′𝑛 } do espaço 𝑋. Como o ponto 𝒙 não
varia, mas apenas as bases nas quais ele é representado, a aplicação linear
que estamos considerando é a identidade I ∶ 𝑋 → 𝑋, que pode ser repre-
ℬ′
sentada pela matriz 𝑃ℬ . (Para sermos coerentes com a notação anterior,
′ ′
deveríamos escrever Iℬ ℬ

em vez de 𝑃ℬ . Entretanto, é usual denotar esse
tipo de matriz por letras como 𝑃 ou 𝑄.)
I
𝑋 ⟶ 𝑋
𝐵 ↓ ↓ 𝐵′ .
𝑛 𝑛 ′
(𝕂 , ℬ) ⟶ (𝕂 , ℬ )
ℬ′
𝑃ℬ
ℬ ′
Pelo Teorema 5.18, a 𝑗-ésima coluna de 𝑃ℬ é dada por [I𝒖𝑖 ]ℬ ′ =
ℬ ′
[𝒖𝑖 ]ℬ ′ . A matriz 𝑃ℬ é chamada matriz de mudança3 (de coordenadas)
da base ℬ para a base ℬ ′ . Dadas as coordenadas de 𝒙 na base ℬ, isto é,
[𝒙]ℬ , as coordenadas de 𝒙 na base ℬ ′ são dadas por
ℬ ′
𝑃ℬ [𝒙]ℬ = [𝒙]ℬ ′ . (5.9)


Ou seja, ao aplicar a matriz 𝑃ℬ a um vetor com coordenadas na base ℬ,
obtemos o mesmo vetor, mas com suas coordenadas agora escritas na base
ℬ′.
ℬ′ ℬ
Claramente a matriz 𝑃ℬ possui inversa 𝑃ℬ ′.

Exemplo 5.24 Suponha que ℬ = {𝒗1 , 𝒗2 } e ℬ ′ = {𝒘1 , 𝒘2 } sejam bases


do mesmo espaço vetorial 𝑋, com

𝒗1 = 𝒘1 + 2𝒘2 e 𝒗2 = 2𝒘1 − 𝒘2 .

Suponha que [𝒙]ℬ = (5 3)𝒕 , isto é, 𝒙 = 5𝒗1 + 3𝒗2 . Vamos encontrar


as coordenadas de 𝒙 na base ℬ ′ . Temos que

[𝒙]ℬ ′ = [5𝒗1 + 3𝒗2 ]ℬ ′ = 5[𝒗1 ]ℬ ′ + 3[𝒗2 ]ℬ ′ ,

expressão que pode ser escrita matricialmente como

5
[𝒙]ℬ ′ = ([𝒗1 ]ℬ ′ [𝒗2 ]ℬ ′ ) ,
(3)
3
Alguns autores preferem chamar essa matriz de “matriz de passagem” da base ℬ ′ para
a base ℬ. Assim, a terminologia utilizada por eles fica invertida com relação à nossa.
5.3. MUDANÇAS DE BASE 97

em que a matriz do lado direito da igualdade está escrita em termos de suas


colunas (assim como [𝒙]ℬ ′ é uma matriz coluna). Ou seja,

1 2 5 11
= = [𝒙]ℬ ′ , (5.10)
(2 −1) (3) ( 7 )

mostrando que as coordenadas de 𝒙 na base ℬ ′ são dadas por (11 7)𝒕 .


Note que 5.10 é justamente a igualdade 5.9. ⊲

Exercício 5.10 Nas mesmas condições do Exemplo 5.24, considere o ponto 𝒙 cujas coordenadas
na base ℬ ′ são dadas por (11 7)𝒕 . Determine as coordenadas de 𝒙 na base ℬ, “esquecendo” que
essas coordenadas são (5 3)𝒕 .

Exercício 5.11 Continuando o Exemplo 5.21, calcule a matriz 𝑃ℬ . Verifique que (𝑃ℰℬ )−1 = 𝑃ℬ

.

Utilize então a matriz 𝑃ℬ para obter [𝑇 (1, 2)]ℰ e compare sua resposta com aquela obtida no
Exemplo 5.21.

Exemplo 5.25 Consideremos as bases ℬ = {𝒖1 = (3, 1), 𝒖2 = (1, 3)} e


ℬ ′ = {𝒗1 = (1, −1), 𝒗2 = (1, 1)} do espaço ℝ2 . Queremos determinar a
ℬ′
matriz 𝑃ℬ . Para obter essa matriz, precisamos encontrar [𝒖1 ]ℬ ′ e [𝒖2 ]ℬ ′ .
Vamos calcular esses vetores de duas maneiras diferentes.
A primeira solução (mais simples) começa expressando os vetores 𝒖𝑖 na
base ℬ ′ .

(3, 1) = 𝛼1 (1, −1) + 𝛼2 (1, 1) e (1, 3) = 𝛽1 (1, −1) + 𝛽2 (1, 1)

e resolvendo os sistemas não homogêneos envolvidos, cujas soluções são

(𝛼1 , 𝛼2 ) = (1, 2) e (𝛽1 , 𝛽2 ) = (−1, 2).

Assim,
ℬ ′ 1 −1
𝑃ℬ = .
(2 2)
A segunda solução, mais elaborada, utiliza a base canônica do ℝ2 . No-
tamos que, de maneira natural, os vetores 𝒖1 , 𝒖2 , 𝒗1 , 𝒗2 podem ser interpre-
tados como dados na base canônica do ℝ2 . Assim, na igualdade

𝑃ℬ ′ [𝒙]ℬ ′ = [𝒙]ℰ ,

conhecemos tanto os vetores 𝒙 = 𝒖1 = [𝒖1 ]ℰ = (3 1)𝒕 e 𝒙 = 𝒖2 =


[𝒖2 ]ℰ = (1 3)𝒕 , quanto a matriz
ℰ 1 1
𝑃ℬ ′ = ([𝒗1 ]ℰ [𝒗2 ]ℰ ) = .
(−1 1)
Assim, as soluções dos sistemas
1 1 𝑥1 3 1 1 𝑥1 1
= e =
(−1 1) (𝑥2 ) (1) (−1 1) (𝑥2 ) (3)

nos darão, respectivamente, [𝒖1 ]ℬ ′ e [𝒖2 ]ℬ ′ . Existem vários métodos para


resolver simultaneamente esses dois sistemas; aqui vamos escalonar o sis-
tema não homogêneo
1 1 | 𝑏1
( −1 1 | 𝑏2 )
98 CAPÍTULO 5. APLICAÇÕES LINEARES

e substituir 𝑏1 e 𝑏2 sucessivamente pelas coordenadas de 𝒖1 e 𝒖2 . Temos


1 1 | 𝑏1 1 0 | (𝑏1 − 𝑏2 )/2
→ .
( −1 1 | 𝑏2 ) ( 0 1 | (𝑏1 + 𝑏2 )/2 )

Substituindo (𝑏1 𝑏2 )𝒕 = (3 1)𝒕 , encontramos [𝒖1 ]ℬ ′ = (1 2)𝒕 . Do


mesmo modo, [𝒖2 ]ℬ ′ = (−1 2)𝒕 . Portanto,

ℬ ′ 1 −1
𝑃ℬ = .
(2 2) ⊲

Passemos então à pergunta feita anteriormente, utilizando diagramas:


dada uma aplicação linear 𝑇 ∶ 𝑋 → 𝑌 entre espaços de dimensão finita,
𝒞 𝒞′
como se relacionam as matrizes 𝑇ℬ e 𝑇ℬ ′ ? Veja a Figura 5.1.

𝒞
𝑇ℬ
(𝕂𝑛 , ℬ) - (𝕂𝑚 , 𝒞)

ℬ ′ ′
𝑃ℬ 𝑄𝒞
𝒞

? ?

(𝕂𝑛 , ℬ ′ ) - (𝕂𝑛 , 𝒞 ′ )
𝒞′
𝑇ℬ ′

Figura 5.1: Utilizando o diagrama sintético apresentado em (5.8), escolhi-


das as bases ℬ e ℬ ′ em 𝑋 e 𝒞 e 𝒞 ′ em 𝑌, obtemos as representações

matriciais 𝑇ℬ𝒞 , 𝑇ℬ𝒞′ da aplicação linear 𝑇 ∶ 𝑋 → 𝑌 e as matrizes mudança
′ ′
de base 𝑃ℬℬ e 𝑄𝒞
𝒞
, no domínio e contradomínio, respectivamente.

Esse diagrama nos mostra que


𝒞 ′ ′ ′ ′
𝑇ℬ = [𝑄𝒞
𝒞
𝒞
]−1 𝑇ℬ ℬ 𝒞 𝒞 ℬ
′ 𝑃ℬ = 𝑄 𝒞 ′ 𝑇ℬ ′ 𝑃ℬ .

O caso em que 𝑛 = 𝑚 permite que se tome a mesma base no domínio e


contradomínio. Nesse caso, a relação entre 𝑇ℬ e 𝑇ℬ ′ é dada por

ℬ −1 ℬ ℬ ℬ ′
𝑇ℬ ′ = [𝑃ℬ ′] 𝑇ℬ 𝑃ℬ ′ = 𝑃 ℬ 𝑇ℬ 𝑃ℬ ′ ,

para qualquer outra base ℬ ′ do 𝕂𝑛 .

Exemplo 5.26 (Continuação do Exemplo 5.21) Temos a aplicação linear


𝑇 ∶ ℝ2 → ℝ2 definida por

𝑇 (𝑥, 𝑦) = (4𝑥 − 2𝑦, 2𝑥 + 𝑦).

A representação de 𝑇 na base canônica (do domínio e contradomínio) é


a matriz cujas colunas são

4 −2
𝑇 (1, 0) = e 𝑇 (0, 1) = ,
(2) ( 1)
5.3. MUDANÇAS DE BASE 99

ou seja
4 −2
𝑇ℰ = .
(2 1)
Por outro lado, no Exemplo 5.21 calculamos a matriz 𝑇ℬ :
3 −2
𝑇ℬ = .
(1 2)
Vamos entender a relação entre as matrizes 𝑇ℰ e 𝑇ℬ . Para isso, analisa-
mos o seguinte diagrama
𝑇ℰ
2
(ℝ , ℰ ) ⟶ (ℝ2 , ℰ )
𝑃ℰℬ ↓ ↓ 𝑃ℰℬ .
(ℝ2 , ℬ) ⟶ (ℝ2 , ℬ)
𝑇ℬ
O diagrama anterior garante que
𝑇ℰ = [𝑃ℰℬ ]−1 𝑇ℬ 𝑃ℰℬ .

Vamos obter a matriz 𝑃ℰℬ , matriz mudança da base ℰ para a base ℬ.


Ela é dada pelo Teorema 5.18: escrevemos a imagem dos vetores 𝒆1 , 𝒆2 pela
aplicação identidade na base ℬ. Temos
(1, 0) = 0(1, 1) − 1(−1, 0) = 0𝒖1 − 𝒖2
e
(0, 1) = 1(1, 1) + 1(−1, 0) = 1𝒖1 + 1𝒖2 .
A matriz 𝑃ℰℬ é, então,
0 1
𝑃ℰℬ = .
(−1 1)
No Exemplo 5.21, calculamos a imagem do vetor (1, 2) = 1𝒆1 + 2𝒆2 ∈
ℝ2 utilizando a matriz 𝑇ℬ . Para isso, tivemos inicialmente que expressar
esse vetor na base ℬ, isto é, tivemos que obter [(1, 2)]ℬ = 2𝒖1 + 1𝒖2 .
Utilizando a matriz 𝑃ℰℬ , basta multiplicar:
0 1 1 2
= ,
(−1 1) (2) (1)
que nos dá a mesma informação: [(1, 2)]ℬ = 2𝒖1 + 1𝒖2 .
Substituindo as matrizes calculadas na igualdade 𝑇ℰ = [𝑃ℰℬ ]−1 𝑇ℬ 𝑃ℰℬ ,
concluímos que
4 −2 0 1 −1 3 −2 0 1
= .
(2 1) (−1 1) (1 2) (−1 1)

Se calcularmos a inversa da matriz 𝑃ℰℬ , verificaremos esse fato. En-



tretanto, é fácil obter 𝑃ℬ . Essa matriz tem como colunas a expressão dos
vetores 𝒗1 e 𝒗2 na base canônica. Assim, é claro que
ℰ 1 −1
𝑃ℬ = .
(1 0)

Verifique que 𝑃ℬ = [𝑃ℰℬ ]−1 e que 𝑇ℰ = 𝑃ℬ

𝑇ℬ 𝑃ℰℬ . ⊲
100 CAPÍTULO 5. APLICAÇÕES LINEARES

Seja I ∶ 𝑋 → 𝑋 o operador identidade e ℬ uma base qualquer do es-


paço de dimensão finita 𝑋. Convencionamos que a matriz Iℬ será denotada
simplesmente por I. Essa convenção tem uma motivação clara: a represen-
tação de I em qualquer base do espaço 𝑋 é dada pela matriz I. Assim, essa
convenção apenas simplifica a notação que utilizamos.

5.4 Composição e Multiplicação


Lema 5.27 Sejam 𝑋, 𝑌 , 𝑍 espaços vetoriais. Se 𝑇 ∶ 𝑋 → 𝑌 e 𝑆 ∶ 𝑌 → 𝑍
são aplicações lineares, então a composta 𝑆 ∘ 𝑇

(𝑆 ∘ 𝑇 )𝒙 = 𝑆(𝑇 𝒙)

é uma aplicação linear. Assim, 𝑆 ∘ 𝑇 ∈ ℒ (𝑋, 𝑍).

Demonstração: (𝑆 ∘ 𝑇 )(𝒙 + 𝛽𝒚) = 𝑆(𝑇 (𝒙 + 𝛽𝒚)) = 𝑆(𝑇 𝒙 + 𝛽𝑇 𝒚) =


𝑆(𝑇 𝒙) + 𝛽𝑆(𝑇 𝒚) = (𝑆 ∘ 𝑇 )𝒙 + 𝛽(𝑆 ∘ 𝑇 )𝒚. 

As próximas propriedades são de fácil verificação:


(1) 𝑅 ∘ (𝑆 ∘ 𝑇 ) = (𝑅 ∘ 𝑆) ∘ 𝑇 , ∀ 𝑅 ∈ ℒ (𝑍, 𝑊 );
(2) (𝑃 + 𝑆) ∘ 𝑇 = 𝑃 ∘ 𝑇 + 𝑆 ∘ 𝑇 , ∀ 𝑃 ∈ ℒ (𝑌 , 𝑍);
(3) 𝑆 ∘ (𝑇 + 𝑄) = 𝑆 ∘ 𝑇 + 𝑆 ∘ 𝑄, ∀ 𝑄 ∈ ℒ (𝑋, 𝑌 ).
(As propriedades (1) e (2) independem das aplicações envolvidas serem li-
neares.)

Exercício 5.12 Mostre as propriedades (1),(2) e (3) da composição de aplicações lineares.

Como a composta de aplicações lineares é uma aplicação linear, também


podemos representá-la por uma matriz. É o que passaremos a tratar.
Mostraremos que a definição da multiplicação de matrizes é uma con-
sequência de um fato muito mais elementar: a composição aplicações line-
ares, que é um caso particular da composição de funções. Assim, em toda a
sequência, vamos supor que a multiplicação de matrizes não esteja definida.
Consideremos uma aplicação linear 𝑇 ∶ 𝑋 → 𝑌, representada pela ma-
𝒞
triz 𝐵 = 𝑇ℬ com relação às bases {𝒖1 , … , 𝒖𝑛 } ⊂ 𝑋 e 𝒞 = {𝒗1 , … , 𝒗𝑚 } ⊂
𝑌. Consideremos também a aplicação 𝑆 ∶ 𝑌 → 𝑍, representada pela ma-
triz 𝐶 = 𝑆𝒞𝒟 , sendo 𝒟 = {𝒘1 , … , 𝒘𝑝 } ⊂ 𝑍 uma base do espaço 𝑍. Uma
vez que 𝑆 ∘ 𝑇 ∶ 𝑋 → 𝑍 é linear, ela pode ser representada (com relação às
bases ℬ e 𝒟) por uma matriz 𝐷. Vamos caracterizá-la. Pelo Teorema 5.18,
𝒞
[𝑇 𝒖𝑗 ]𝒞 é igual a 𝒄𝑗 , a 𝑗-ésima coluna da matriz 𝐵 = 𝑇ℬ . Do mesmo modo,
[(𝑆 ∘ 𝑇 )𝒖𝑗 ]𝒟 corresponde à 𝑗-ésima coluna da matriz 𝐷 = (𝑆 ∘ 𝑇 )𝒟 𝒞
. Uma
vez que o Teorema 5.18 garante que [𝑆(𝑇 𝒖𝑗 )]𝒟 = 𝐶[𝑇 𝒖𝑗 ]𝒞 , temos

𝐷 = (𝑆 ∘ 𝑇 )𝒟

= ([(𝑆 ∘ 𝑇 )𝒖1 ]𝒟 [(𝑆 ∘ 𝑇 )𝒖2 ]𝒟 … [(𝑆 ∘ 𝑇 )𝒖𝑛 ]𝒟 )
= ([𝑆(𝑇 𝒖1 )]𝒟 [𝑆(𝑇 𝒖2 )]𝒟 … [𝑆(𝑇 𝒖𝒏 )]𝒟 )
= (𝐶[𝑇 𝒖1 ]𝒞 𝐶[𝑇 𝒖2 ]𝒞 … 𝐶[𝑇 𝒖𝑛 ]𝒞 )
= (𝐶𝒄1 𝐶𝒄2 … 𝐶𝒄𝑛 )
5.4. COMPOSIÇÃO E MULTIPLICAÇÃO 101

Aplicando a fórmula (5.4) para 𝒙 = 𝒄𝑗 = [𝑇 𝒗𝑗 ]𝒞 , obtemos

⎛ℓ1 𝒄1 ℓ1 𝒄2 … ℓ1 𝒄𝑛 ⎞
⎜ℓ 𝒄 ℓ2 𝒄2 … ℓ2 𝒄𝑛 ⎟
(𝐶𝒄1 𝐶𝒄2 … 𝐶𝒄𝑛 ) = ⎜ 2 1 ⎟,

⎜ ⎟
⎝ℓ𝑝 𝒄1 ℓ𝑝 𝒄2 … ℓ𝑝 𝒄𝑛 ⎠

em que ℓ𝑖 é a 𝑖-ésima linha da matriz 𝐷 = (𝑑𝑖𝑗 ). Como as matrizes 𝐵 =


𝒞
𝑇ℬ e 𝐷 = 𝑆𝒞𝒟 podem ser tomadas arbitrariamente, acabamos de deduzir
a fórmula de multiplicação 𝐶𝐵 de uma matriz 𝐶 ∈ 𝕄𝑝×𝑚 por uma matriz
𝐵 ∈ 𝕄𝑚×𝑛 :

⎛ ℓ1 ⎞ ⎛ ℓ1 𝒄1 ℓ1 𝒄2 … ℓ1 𝒄𝑛 ⎞
⎜ ℓ2 ⎟ ⎜ ℓ 𝒄 ℓ2 𝒄2 … ℓ2 𝒄𝑛 ⎟
𝐶𝐵 = ⎜ ⎟ (𝒄1 𝒄2 … 𝒄𝑛 ) = ⎜ 2 1 ,
⋮ ⋮ ⋮ ⋱ ⋮ ⎟
⎜ ⎟ ⎜ ⎟
⎝ℓ𝑚 ⎠ ⎝ℓ𝑚 𝒄1 ℓ𝑚 𝒄2 … ℓ 𝑚 𝒄𝑛 ⎠

em que a matriz 𝐶 está sendo dada por suas linhas e a matriz 𝐵 por suas
colunas.
Agora observe que a propriedade (1) listada no início desta seção nos
garante a associatividade da multiplicação de matrizes. A associação entre a
composição de aplicações lineares e a multiplicação de matrizes sugere que
denotemos 𝑆 ∘ 𝑇 simplesmente por 𝑆𝑇, o que faremos de agora em diante.

Exercício 5.13 Traduza as propriedades (2) e (3) do início dessa seção em termos de propriedades
da multiplicação de matrizes.

Teorema 5.28 Fixadas bases

ℬ = {𝒖1 , … , 𝒖𝑛 } ⊂ 𝑋, 𝒞 = {𝒗1 , … , 𝒗𝑚 } ⊂ 𝑌 e 𝒟 = {𝒘1 , … , 𝒘𝑝 } ⊂ 𝑍,

então a composição das aplicações lineares 𝑇 ∶ 𝑋 → 𝑌 e 𝑆 ∶ 𝑌 → 𝑍 é


representada pela matriz (𝑆𝑇 )𝒟

, com

(𝑆𝑇 )𝒟

= 𝑆𝒞𝒟 𝑇ℬ
𝒞
, (5.11)

de modo que
(𝑆𝑇 )𝒟

[𝒙]ℬ = [(𝑆𝑇 )𝒙]𝒟 . (5.12)

Demonstração: O Teorema 5.18 garante que

(𝑆𝑇 )𝒟

= ([(𝑆𝑇 )𝒖1 ]𝒟 [(𝑆𝑇 )𝒖2 ]𝒟 … [(𝑆𝑇 )𝒖𝑛 ]𝒟 ) .

Mas [(𝑆𝑇 )𝒖𝑗 ]𝒟 = [𝑆(𝑇 𝒖𝑗 )]𝒟 = 𝑆𝒞𝒟 [𝑇 𝒖𝑗 ]𝒞 , pelo mesmo Teorema 5.18.
𝒞
Ainda pelo mesmo teorema, [𝑇 𝒖𝑗 ]𝒞 = 𝑇ℬ [𝒖𝑗 ]ℬ , de modo que a 𝑗-ésima
coluna de (𝑆𝑇 )𝒟ℬ
, que é (𝑆𝑇 )𝒟
[𝒖
ℬ 𝑗 ℬ
] , é igual a 𝑆𝒞𝒟 𝑇ℬ𝒞
[𝒖𝑗 ]ℬ . Como as ma-
𝒟 𝒟 𝒞
trizes (𝑆𝑇 )ℬ e 𝑆𝒞 𝑇ℬ são iguais em cada coluna 𝑗, concluímos (5.11).
A equação (5.12) nada mais expressa que o significado de (𝑆𝑇 )𝒟 ℬ
, se-
gundo o Teorema 5.18. 
102 CAPÍTULO 5. APLICAÇÕES LINEARES

5.5 Espaço Linha e Espaço Coluna


Nesta seção estudaremos mais detalhadamente a matriz 𝐴 = (𝑎𝑖𝑗 ). Como
sabemos, 𝐴 pode ser vista por meio de suas linhas ou colunas:

⎛ 𝑎11 … 𝑎1𝑛 ⎞ ⎛ ℓ1 ⎞
𝐴 = ⋮ ⋱ ⋮ = (𝒄1 … 𝒄𝑛 ) = ⎜ ⋮ ⎟ .
⎜ ⎟ (5.13)
⎜ ⎟ ⎜ ⎟
⎝𝑎𝑚1 … 𝑎𝑚𝑛 ⎠ ⎝ℓ𝑚 ⎠
Os vetores colunas 𝒄1 , … , 𝒄𝑛 são naturalmente identificados com veto-
res do ℝ𝑚 . Se 𝒞 = {𝒄1 , … , 𝒄𝑛 }, chamamos de espaço coluna o espaço
gerado por 𝒞, isto é, < 𝒞 > ⊂ ℝ𝑚 .
Por outro lado, podemos interpretar as linhas de 𝐴 como elementos do
próprio espaço ℝ𝑛 . Se denotarmos ℒ = {ℓ1 , … , ℓ𝑚 } ⊂ 𝕂𝑛 , chamamos de
espaço linha o espaço gerado por ℒ, isto é, < ℒ > ⊂ 𝕂𝑛 .

Exemplo 5.29 Considere a matriz

2 1 1
𝐴= .
(1 1 2)

O espaço coluna de 𝐴 é o subespaço do ℝ2

2 1 1
<𝒞 >= 𝛼 +𝛽 +𝛾 ∶ 𝛼, 𝛽, 𝛾 ∈ ℝ .
{ (1) (1) (2) }

Como as duas primeiras colunas de 𝐴 são dadas por vetores linearmente


independentes, é claro que < 𝒞 > = ℝ2 .
Por outro lado, o espaço linha de 𝐴 é o subespaço do ℝ3

< ℒ > = {𝛼(2, 1, 1) + 𝛽(1, 1, 2) ∶ 𝛼, 𝛽 ∈ ℝ} .

Como as duas primeiras linhas de 𝐴 são dadas por vetores linearmente in-
dependentes, < ℒ > é um plano do ℝ3 . Note que as dimensões de < ℒ >
e < 𝒞 > são iguais. ⊲

Mas, qual o significado dos subespaços < 𝒞 > e < ℒ >? Começamos
interpretando o espaço coluna de uma matriz.
Lema 5.30 Considere o sistema linear não homogêneo 𝐴𝒙 = 𝒃, em que
𝐴 = (𝑎𝑖𝑗 ) é uma matriz 𝑚 × 𝑛. Então são equivalentes:
(𝑖) Existe solução 𝒙 para 𝐴𝒙 = 𝒃;

(𝑖𝑖) O vetor 𝒃 é combinação linear das colunas de 𝐴.


Demonstração: Basta notar que o sistema 𝐴𝒙 = 𝒃 é equivalente à equação

⎛ 𝑎11 ⎞ ⎛ 𝑎12 ⎞ ⎛ 𝑎1𝑛 ⎞ ⎛ 𝑏1 ⎞


⎜ 𝑎21 ⎟ ⎜ 𝑎22 ⎟ ⎜𝑎 ⎟ ⎜𝑏 ⎟
𝑥1 ⎜ ⎟ + 𝑥2 ⎜ ⎟ + … + 𝑥𝑛 ⎜ 2𝑛 ⎟ = ⎜ 2 ⎟ . (5.14)
⋮ ⋮ ⋮ ⋮
⎜ ⎟ ⎜ ⎟ ⎜ ⎟ ⎜ ⎟
⎝𝑎𝑚1 ⎠ ⎝𝑎𝑚2 ⎠ ⎝𝑎𝑚𝑛 ⎠ ⎝𝑏𝑚 ⎠
Quer dizer, se 𝒙 = (𝑥1 , … , 𝑥𝑛 ) ∈ ℝ𝑛 for uma solução de 𝐴𝒙 = 𝒃, então
𝒃 é combinação linear das colunas de 𝐴 por meio dos escalares 𝑥1 , … , 𝑥𝑛 .
5.5. ESPAÇO LINHA E ESPAÇO COLUNA 103

Reciprocamente, se existirem escalares 𝑥1 , … , 𝑥𝑛 de modo que 𝒃 seja com-


binação linear das colunas de 𝐴, então o vetor 𝒙 = (𝑥1 , … , 𝑥𝑛 ) ∈ ℝ𝑛 é
solução de 𝐴𝒙 = 𝒃. 

Exercício 5.14 Reveja o Exercício ??.

Se existe solução para o sistema 𝐴𝒙 = 𝒃, isso quer dizer que 𝒃 ∈ im 𝐴.


Em outras palavras, acabamos de mostrar que < 𝒞 > é o subespaço im 𝐴.
Lembramos que, se 𝐴 for a matriz 𝑚 × 𝑛 dada por (5.13), então sua
transposta 𝐴t é a matriz 𝑛 × 𝑚 dada por

⎛𝑎11 … 𝑎𝑚1 ⎞
t
𝐴 = ⎜ ⋮ ⋱ ⋮ ⎟.
⎜ ⎟
⎝𝑎1𝑛 … 𝑎𝑚𝑛 ⎠
Assim, as colunas da matriz 𝐴t são justamente as linhas da matriz 𝐴.
Como consequência imediata do Lema 5.30, temos que

< ℒ > = im 𝐴t . (5.15)

Vamos agora relacionar as dimensões dos subespaços < 𝒞 > e < ℒ >
de uma matriz 𝐴. Mostraremos que esses espaços têm a mesma dimensão;
isso é um fato notável, pois eles são subespaços de espaços vetoriais diferen-
tes!
Teorema 5.31 Dada uma matriz 𝑚 × 𝑛, seu espaço linha tem a mesma di-
mensão de seu espaço coluna.
Demonstração: Suponhamos que os vetores

𝑏1 = (𝑏11 , 𝑏12 , … , 𝑏1𝑛 ), 𝑏2 = (𝑏21 , 𝑏22 , … , 𝑏2𝑛 ), … , 𝑏𝑟 = (𝑏𝑟1 , 𝑏𝑟2 , … , 𝑏𝑟𝑛 )

formem uma base do espaço linha da matriz 𝐴. Então cada linha ℓ𝑖 de 𝐴 é


combinação linear desses elementos:

ℓ1 = 𝜆11 𝑏1 + … + 𝜆1𝑟 𝑏𝑟
ℓ2 = 𝜆21 𝑏1 + … + 𝜆2𝑟 𝑏𝑟
⋮ = ⋮
ℓ𝑚 = 𝜆𝑚1 𝑏1 + … + 𝜆𝑚𝑟 𝑏𝑟

Igualando a componente 𝑗 de cada uma dessas equações, obtemos

𝑎1𝑗 = 𝜆11 𝑏1𝑗 + 𝜆12 𝑏2𝑗 + … + 𝜆1𝑟 𝑏𝑟𝑗


𝑎2𝑗 = 𝜆21 𝑏1𝑗 + 𝜆22 𝑏2𝑗 + … + 𝜆2𝑟 𝑏𝑟𝑗
⋮ = ⋮
𝑎𝑚𝑗 = 𝜆𝑚1 𝑏1𝑗 + 𝜆𝑚2 𝑏2𝑗 + … + 𝜆𝑚𝑟 𝑏𝑟𝑗 .

Assim,
⎛ 𝑎1𝑗 ⎞ ⎛ 𝜆11 ⎞ ⎛ 𝜆12 ⎞ ⎛ 𝜆1𝑟 ⎞
⎜ 𝑎2𝑗 ⎟ ⎜ 𝜆21 ⎟ ⎜ 𝜆22 ⎟ ⎜ 𝜆2𝑟 ⎟
⎜ ⋮ ⎟ = 𝑏1𝑗 ⎜ ⋮ ⎟ + 𝑏2𝑗 ⎜ ⋮ ⎟ + … + 𝑏𝑟𝑗 ⎜ ⋮ ⎟ ,
⎜ ⎟ ⎜ ⎟ ⎜ ⎟ ⎜ ⎟
⎝𝑎𝑚𝑗 ⎠ ⎝𝜆𝑚1 ⎠ ⎝𝜆𝑚2 ⎠ ⎝𝜆𝑚𝑟 ⎠
104 CAPÍTULO 5. APLICAÇÕES LINEARES

mostrando que as colunas de 𝐴 são combinações lineares dos 𝑟 vetores

⎛ 𝜆11 ⎞ ⎛ 𝜆1𝑟 ⎞
⎜ 𝜆21 ⎟ ⎜ 𝜆2𝑟 ⎟
⎜ ⋮ ⎟,…,⎜ ⋮ ⎟.
⎜ ⎟ ⎜ ⎟
⎝𝜆𝑚1 ⎠ ⎝𝜆𝑚𝑟 ⎠

Isso quer dizer que o espaço coluna tem dimensão, no máximo, igual a 𝑟,
ou seja,
dim < 𝒞 > ≤ dim < ℒ > .
Procedendo da mesma maneira com relação a uma base do espaço co-
luna, mostramos que

dim < ℒ > ≤ dim < 𝒞 > .

Assim, essas duas dimensões são iguais.4 

Exercício 5.15 Reescreva a demonstração anterior para uma matriz 2 × 3 qualquer, identificando
as passagens apresentadas na demonstração do Teorema 5.31.

Definição 5.32 Definimos o posto da matriz 𝐴, denotado por posto 𝐴, como


sendo
dim < 𝒞 > = dim < ℒ > .
Se 𝐴 for uma representação matricial da aplicação linear 𝑇, definimos

posto 𝑇 = posto 𝐴.

O seguinte resultado decorre imediatamente do Teorema 5.31:

Corolário 5.33 Seja 𝐴 uma matriz 𝑚 × 𝑛. Então

dim(im 𝐴) = dim(im 𝐴t ).

Utilizando essas interpretações para os espaços linha e coluna de uma


matriz, estamos em condições de resolver um problema fundamental: dada
uma matriz 𝐴, encontrar, com um único procedimento,5 bases para os es-
paços ker 𝐴 e im 𝐴. Para isso, enunciamos o seguinte

Corolário 5.34 Seja 𝐴 uma matriz 𝑚 × 𝑛 e 𝑅 sua forma escalonada redu-


zida por linhas. Então as colunas de 𝐴 correspondentes aos pivôs de 𝑅
formam uma base do espaço coluna de 𝐴.

Demonstração: Considere a forma escalonada reduzida por linhas 𝑅 da


matriz 𝐴. É fácil ver que as colunas de 𝑅 correspondentes aos pivôs for-
mam uma base do espaço coluna de 𝑅. Como as soluções de 𝐴𝒙 = 0 e
4
De maneira mais elegante, podemos notar que mostramos dim < 𝒞 > ≤ dim < ℒ >
para qualquer matriz. Aplicando esse fato à matriz 𝐴t , obtemos o resultado.
5
Note que o procedimento apresentado no Exemplo 4.36 não coincide com aquele utili-
zado para se obter o núcleo de uma matriz.
5.5. ESPAÇO LINHA E ESPAÇO COLUNA 105

𝑅𝒙 = 0 são as mesmas, escolhendo 𝒙 com as coordenadas nulas nas posi-


ções correspondentes às variáveis livres em 𝑅𝒙 = 0, vemos que as colunas
de 𝐴 correspondentes aos pivôs em 𝑅 são linearmente independentes. Do
mesmo modo, escrevendo uma coluna 𝑖 de 𝑅 como combinação linear das
colunas dos pivôs de 𝑅 e definindo o vetor 𝒙 à partir dessa combinação li-
near, o fato das soluções de 𝐴𝒙 = 0 e 𝑅𝒙 = 0 serem as mesmas, vemos que
a coluna 𝑖 de 𝐴 pode ser escrita como combinação linear das colunas em 𝐴
correspondentes às colunas dos pivôs em 𝑅. 

A demonstração do Corolário 5.34 não é simples de ser acompanhada.


Estude o próximo exemplo e então releia essa demonstração.

Exemplo 5.35 Vamos obter bases para o núcleo e a imagem da matriz

⎛3 1 2 4 1⎞
𝐴 = ⎜1 1 1 1 2⎟ .
⎜ ⎟
⎝2 2 2 1 1⎠
Para obter o núcleo, resolvemos 𝐴𝒙 = 0 levando a matriz 𝐴 à sua forma
escalonada reduzida por linhas 𝑅:

⎛3 1 2 4 1⎞ ⎛1 0 1/2 0 −5⎞
𝐴 = 1 1 1 1 2 ⟶ ⎜0 1 1/2 0
⎜ ⎟ 4⎟ = 𝑅.
⎜ ⎟ ⎜ ⎟
⎝2 2 2 1 1⎠ ⎝0 0 0 1 3⎠
Escrevendo as variáveis correspondentes aos pivôs em termos da variá-
veis livres, obtemos a solução geral do sistema homogêneo associado.

⎛𝑥1 ⎞ ⎛−1/2⎞ ⎛ 5⎞
⎜𝑥2 ⎟ ⎜−1/2⎟ ⎜−4⎟
⎜𝑥3 ⎟ = 𝑥3 ⎜ 1 ⎟ + 𝑥5 ⎜ 0⎟ (5.16)
⎜ ⎟ ⎜ ⎟ ⎜ ⎟
⎜𝑥4 ⎟ ⎜ 0 ⎟ ⎜−3⎟
𝑥
⎝ 5⎠ ⎝ 0 ⎠ ⎝ 1⎠

Assim, podemos concluir que o núcleo de 𝐴 é um subespaço de dimen-


são 2, gerado pelos vetores

⎛−1/2⎞ ⎛ 5⎞
⎜−1/2⎟ ⎜−4⎟
𝒖1 = ⎜ 1 ⎟ ∈ 𝕂5 e 𝒖2 = ⎜ 0⎟ ∈ 𝕂5 .
⎜ ⎟ ⎜ ⎟
⎜ 0⎟ ⎜−3⎟
⎝ 0⎠ ⎝ 1⎠

Agora passamos a considerar im 𝐴. De acordo com o Corolário 5.34,


temos que os vetores

⎛3⎞ ⎛1⎞ ⎛4⎞


𝒗1 = ⎜1⎟ ∈ 𝕂3 , 𝒗2 = ⎜1⎟ ∈ 𝕂3 e 𝒗4 = ⎜1⎟ ∈ 𝕂3
⎜ ⎟ ⎜ ⎟ ⎜ ⎟
⎝2⎠ ⎝2⎠ ⎝1⎠
formam uma base da imagem de 𝐴, pois estes vetores coluna correspondem
às posições dos pivôs na forma escalonada reduzida por linhas de 𝐴.
106 CAPÍTULO 5. APLICAÇÕES LINEARES

Vamos aproveitar este exemplo e esclarecer a demonstração do Corolá-


rio 5.34. Se denotarmos por 𝒄1 , … , 𝒄5 as colunas tanto de 𝑅 como de 𝐴, e
tomarmos 𝑥3 = 0 e 𝑥5 = 1 em (5.16), é claro que o vetor 𝒙t = (5 −4 0 −3 1)
é uma solução de 𝑅𝒙 = 0. Logo, esse vetor é solução de 𝐴𝒙 = 0. Portanto,

⎛3⎞ ⎛1⎞ ⎛2⎞ ⎛4⎞ ⎛1⎞ ⎛0⎞


5 ⎜1⎟ − 4 ⎜1⎟ + 0 ⎜1⎟ − 3 ⎜1⎟ + 1 ⎜2⎟ = ⎜0⎟ ,
⎜ ⎟ ⎜ ⎟ ⎜ ⎟ ⎜ ⎟ ⎜ ⎟ ⎜ ⎟
⎝2⎠ ⎝2⎠ ⎝2⎠ ⎝1⎠ ⎝1⎠ ⎝0⎠
ou seja,
⎛1⎞ ⎛3⎞ ⎛1⎞ ⎛4⎞
⎜2⎟ = −5 ⎜1⎟ + 4 ⎜1⎟ + 3 ⎜1⎟ .
⎜ ⎟ ⎜ ⎟ ⎜ ⎟ ⎜ ⎟
⎝1⎠ ⎝2⎠ ⎝2⎠ ⎝1⎠
Quer dizer, a coluna 𝒄5 de 𝐴 é combinação linear das colunas 𝒄1 , 𝒄2 e 𝒄4 de
𝐴. Analogamente, tomando 𝑥5 = 0 e 𝑥3 = 1 em (5.16), concluímos que
a coluna 𝒄3 de 𝐴 é combinação linear das colunas 𝒄1 e 𝒄2 de 𝐴. Assim, as
colunas de 𝐴 são combinações lineares das colunas 𝒄1 , 𝒄2 e 𝒄4 dessa matriz.
Agora vamos mostrar que essas colunas são linearmente independentes.
Suponhamos que
𝑦1 𝒄1 + 𝑦2 𝒄2 + 𝑦4 𝒄4 = 0.
Tomando o vetor 𝒚 = (𝑦1 𝑦2 0 𝑦4 0)t , isso implica que 𝐴𝒚 = 0 e, por-
tanto, 𝑅𝒚 = 0. Mas o fato das colunas dos pivôs de 𝑅 serem linearmente
independentes implica que 𝑦1 = 𝑦2 = 𝑦4 = 0. Assim, as colunas de 𝐴
correspondentes aos pivôs de 𝑅 são linearmente independentes e formam
uma base do espaço coluna de 𝐴, o que ilustra o Corolário 5.34. ⊲

Observação 5.36 Comparando os métodos apresentado no Corolário 5.34


(e Exemplo 5.35) com aquele introduzido no Exemplo 4.36, notamos que,
para obter bases para o núcleo e imagem de uma matriz 𝐴, nesse último
temos que escalonar duas matrizes distintas: a matriz 𝐴, para obter uma
base para ker 𝐴, e a matriz 𝐴t , para produzir uma base para im 𝐴. O método
do Corolário 5.34 é mais eficaz, pois faz isso apenas levando a matriz 𝐴 à
sua forma escalonada reduzida por linhas. Por outro lado, a base de im 𝐴
obtida ao se escalonar 𝐴t tem vetores com mais entradas nulas do que o
método do Corolário 5.34. Veja novamente o Exemplo 4.36. ⊲

5.6 Sistemas Lineares, Pivôs e Variáveis Livres


É certo que, após a apresentação do Teorema do Núcleo e da Imagem,
mostramos algumas consequências deste no estudo de sistemas lineares.
Mas agora podemos aprofundar nossas conclusões, no caso em que eles
conduzam a sistemas lineares da forma 𝐴𝒙 = 𝒃.
Para isso, restringiremos nossa atenção a sistemas na forma (𝑅|𝒄), em
que 𝑅 é uma matriz na forma escalonada reduzida por linhas. Esse sistema
não tem solução se, e somente se, tiver uma linha no formato (0 0 … 0|𝑐1 ),
com 𝑐1 ≠ 0. De fato, é claro que um sistema com uma linha nesse formato
não tem solução. Reciprocamente, supondo que tal tipo de linha não exista,
o número de linhas não nulas da matriz 𝑅 corresponde ao número máximo
5.6. SISTEMAS LINEARES, PIVÔS E VARIÁVEIS LIVRES 107

de coordenadas não nulas do vetor 𝒄. Como as colunas de 𝑅 corresponden-


tes aos pivôs formam uma base do espaço coluna, o vetor 𝒄 está no espaço
coluna e o sistema tem solução.
Consideremos então um sistema (𝑅|𝒄) que possua solução. O Teorema
2.24 nos mostra como os sistemas (𝑅|𝒄) e (𝑅|0) estão relacionados: solu-
ções do sistema não homogêneo são obtidas à partir de uma única solução
(no teorema denotada por 𝒙0 ), se conhecermos todas as soluções do sistema
homogêneo associado.
Por esse motivo, podemos restringir nossa análise ao caso de sistemas
homogêneos 𝑅𝒙 = 0. A dimensão do núcleo de 𝑅 é dada pelo número de
variáveis livres em 𝑅. De fato, a cada variável livre corresponde um vetor
coluna com entrada igual a 1 justamente na coordenada correspondente à
variável livre.6 Uma vez que apenas o vetor correspondente à variável li-
vre tem coordenada igual a 1 nessa posição, esses vetores são linearmente
independentes.

Exemplo 5.37 Consideremos a matriz (já dada na forma escalonada redu-


zida por linhas)
⎛1 2 0 0 0 2⎞
⎜0 0 0 1 0 3⎟ .
⎜ ⎟
⎝0 0 0 0 1 1⎠
No sistema homogêneo associado, as variáveis 𝑥1 , 𝑥4 e 𝑥5 correspondem
aos pivôs; as variáveis 𝑥2 , 𝑥3 e 𝑥6 são variáveis livres.
A solução do sistema pode ser escrita na forma

⎛𝑥1 ⎞ −2𝑥2 − 2𝑥6 ⎞ ⎛−2⎞ ⎛0⎞ ⎛−2⎞


⎜𝑥2 ⎟ ⎛ ⎜ 1⎟ ⎜0⎟ ⎜ 0⎟
⎜𝑥 ⎟ ⎜ 𝑥2 ⎟ ⎜ 0⎟ ⎜1⎟ ⎜ ⎟
⎜ 3⎟ = ⎜ 𝑥3 ⎟ = 𝑥 2 ⎜ ⎟ + 𝑥3 ⎜ ⎟ + 𝑥 6 ⎜ 0 ⎟ .
⎜𝑥4 ⎟ ⎜ ⎟ ⎜ 0⎟ ⎜0⎟ ⎜ 0⎟
⎜𝑥 ⎟ ⎜ −3𝑥6 ⎟ ⎜ 0⎟ ⎜0⎟ ⎜−3⎟
⎜ 5⎟ ⎝ −𝑥6 ⎠ ⎜ ⎟ ⎜ ⎟ ⎜ ⎟
⎝𝑥6 ⎠ ⎝ 0⎠ ⎝0⎠ ⎝ 1⎠

As soluções do sistema homogêneo são obtidas como combinação linear


dos vetores 𝒗1 = (−2 1 0 0 0 0)𝒕 , 𝒗2 = (0 0 1 0 0 0)𝒕 e
𝒗3 = (−2 0 0 0 −3 1)𝒕 . Esses vetores são linearmente independen-
tes, pois apenas o vetor associado à variável livre 𝑥2 tem entrada não nula
(igual a 1) na segunda coordenada; e assim por diante. ⊲

Por outro lado, o Corolário 5.34 garante que a dimensão do espaço co-
luna de 𝑅 (e, portanto, da imagem da aplicação linear 𝑅) é igual ao número
de pivôs na matriz 𝑅 e que esse número é igual à dimensão do espaço co-
luna de 𝐴; ou seja, o número de pivôs da matriz 𝑅 é igual à dimensão da
imagem de 𝐴.
Visto sobre essa ótica, o Teorema do Núcleo e da Imagem é um resultado
trivial quando no contexto de matrizes: se 𝐴 for uma matriz 𝑚×𝑛, passando
6
No Exemplo 2.16, o vetor é (0 −2/3 1)𝒕 e sua coordenada 1 corresponde justamente
à variável 𝑥3 ; no Exemplo 2.19, supondo 𝒃 = 0, os vetores correspondentes às variáveis
livres 𝑥4 e 𝑥6 também tem coordenada igual a 1 nessas posições.
108 CAPÍTULO 5. APLICAÇÕES LINEARES

à sua forma escalonada reduzida por linhas 𝑅, concluímos:


Número total Número de Número de
= +
de variáveis pivôs variáveis livres

dimensão da dimensão do
𝑛 = +
imagem de 𝑅 núcleo de 𝑅

dimensão do dimensão da dimensão do


= +
domínio de 𝐴 imagem de 𝐴 núcleo de 𝐴

5.7 Exercícios

1. Considere a base ℬ = {𝒗1 = (1, 1, 0), 𝒗2 = (1, 2, 0), 𝒗3 = (1, 1, 1)} do ℝ3 . Ache a aplicação
linear 𝑇 ∶ ℝ3 → ℝ4 tal que 𝑇 𝒗1 = (1, 0, 0, 0), 𝑇 𝒗2 = (0, 0, 0, 1) e 𝑇 𝒗3 = (1, 1, 1, 1).
2. Sejam 𝑋 um espaço vetorial e 𝜋 ∶ 𝑋 → 𝑋 um operador linear satisfazendo 𝜋 2 = 𝜋 (𝜋 é uma
projeção). Sejam 𝑈 = im 𝜋 e 𝑊 = ker 𝜋. Mostre:
(a) 𝜋𝒖 = 𝒖 para todo 𝒖 ∈ 𝑈;
(b) 𝒙 − 𝜋(𝒙) ∈ ker 𝜋 para todo 𝒙 ∈ ℝ𝑛 ;
(c) conclua que ℝ𝑛 = ker 𝜋 ⊕ im 𝜋 notando que 𝒙 = [𝒙 − 𝜋(𝒙)] + 𝜋(𝒙);
(d) se 𝜋 ≠ I, então 𝑊 ≠ {0},
3. Sejam 𝑋, 𝑌 espaços vetoriais e 𝑇 ∶ 𝑋 → 𝑌 uma aplicação linear. Se {𝒗1 , … , 𝒗𝑘 } ⊂ 𝑋 for
tal que {𝑇 𝒗1 , … , 𝑇 𝒗𝑘 } é linearmente independente, conclua que {𝒗1 , … , 𝒗𝑘 } é linearmente
independente.
4. Dê exemplos de operadores lineares 𝑇 ∶ ℝ3 → ℝ3 tais que
(a) ker 𝑇 = {𝑥 ∈ ℝ3 ∶ 𝑥3 = −𝑥1 };
(b) im 𝑇 = {𝑥 ∈ ℝ3 ∶ 𝑥1 = 𝑥2 }.
5. Deduza, utilizando o Teorema do Núcleo e da Imagem, que uma matriz quadrada 𝐴 tem
inversa se, e somente se, o sistema 𝐴𝒙 = 0 só possuir a solução trivial.
6. Seja 𝐴 uma matriz 𝑛 × 𝑛. Mostre que 𝐴 possui inversa se, e somente se, suas colunas
𝑐1 , … , 𝑐𝑛 ∈ 𝕂𝑛 forem vetores linearmente independentes.
7. Seja 𝐴 ∈ 𝕄𝑛×𝑛 (𝕂). Utilizando o Exercício 5, mostre a equivalência das seguintes afirmações:
(a) existe uma matriz 𝐵, 𝑛 × 𝑛, tal que 𝐵𝐴 = I;
(b) a matriz 𝐴 é invertível.
8. Escolhendo as bases canônicas dos respectivos espaços, interprete o Corolário 5.13 em termos
de um sistema homogêneo 𝐴𝒙 = 0.
9. Seja 𝑇 ∶ ℝ𝑛 → ℝ𝑚 uma aplicação linear. Mostre que 𝑇 é injetora se, e somente se, a imagem
de todo conjunto linearmente independente (no ℝ𝑛 ) for um conjunto linearmente indepen-
dente (no ℝ𝑚 ).
10. Considere o espaço 𝒫 (𝑡) e o operador 𝑅 definido no Exemplo 5.15. Defina também 𝐿 ∶ 𝒫 (𝑡) →
𝒫 (𝑡) por

𝐿𝒑 = 𝐿(𝑎0 + 𝑎1 𝑡 + 𝑎2 𝑡2 + … + 𝑎𝑚 𝑡𝑚 ) = 𝑎1 + 𝑎2 𝑡 + … + 𝑎𝑚 𝑡𝑚−1 ∈ 𝒫 (𝑡).

(a) Mostre que 𝐿𝑅 = I;


5.7. EXERCÍCIOS 109

(b) mostre que 𝐿 é sobrejetor, mas não é injetor;


(c) mostre que 𝑅𝐿 ≠ I.
11. Considere as aplicações do ℝ2

𝜋1 ∶ ℝ2 → ℝ2 𝜋2 ∶ ℝ2 → ℝ2
(a) (b)
𝜋1 (𝑥1 , 𝑥2 ) = (𝑥1 , 0) 𝜋2 (𝑥1 , 𝑥2 ) = (0, 𝑥2 )

𝑅1 ∶ ℝ2 → ℝ2 𝑅2 ∶ ℝ 2 → ℝ 2
(c) (d) .
𝑅1 (𝑥1 , 𝑥2 ) = (𝑥1 , −𝑥2 ) 𝑅2 (𝑥1 , 𝑥2 ) = (−𝑥1 , 𝑥2 )
Mostre que cada uma dessas aplicações é linear e encontre sua representação matricial (com
relação à base canônica do ℝ2 ). Interprete-as geometricamente.
12. Considere o operador 𝐴 ∶ 𝕂3 → 𝕂3 definido pela matriz

⎛1 3 1⎞
⎜2 7 4⎟ .
⎜ ⎟
⎝1 4 3⎠

Encontre a matriz que representa esse operador na base ℬ = {(1 1 1)𝒕 , (0 1 1)𝒕 , (1 2 3)𝒕 }.
13. Considere o operador linear 𝑇 ∶ ℝ2 → ℝ2 , definido por 𝑇 (𝑥1 , 𝑥2 ) = (−𝑥1 , 𝑥2 ). Mostre que
𝒞
𝑇 é invertível. Escolha bases ℬ no domínio e 𝒞 no contradomínio de modo que 𝑇ℬ seja a
matriz identidade.
14. Considere o operador linear 𝑇 ∶ ℝ3 → ℝ3 definido por meio da matriz

⎛3 −1 −2⎞
𝐴 = ⎜0 0 −2⎟ .
⎜ ⎟
⎝0 0 −1⎠

Seja ℬ = {𝒗1 = (1, 0, 0), 𝒗2 = (1, 2, 0), 𝒗3 = (0, −2, 1)}.


(a) Mostre que ℬ é uma base do ℝ3 ;
(b) Calcule 𝐵 = 𝑇ℬ ;

(c) Calcule as matrizes mudança de base 𝑃ℬ e 𝑃ℰℬ
(d) Escreva 𝐵 em termos de 𝐴 utilizando essas matrizes mudança de base.
15. Seja ℬ = {(1 −4) , (−2 9))}. Então ℬ é uma base do ℝ2 . Encontre a aplicação linear
𝑇 ∶ ℝ2 → ℝ2 determinada pela representação de um vetor 𝒙 na base ℬ.
16. Generalizando o exercício anterior, seja ℬ = {𝒗1 , … , 𝒗𝑛 } uma base do 𝕂𝑛 . Determine a
matriz 𝐴 que representa a aplicação linear 𝒙 ↦ [𝒙]ℬ .
17. Seja 𝑇 ∶ ℝ3 → ℝ3 a aplicação linear definida por

𝑇 (𝑥1 , 𝑥2 , 𝑥3 ) = (𝑥1 + 𝑥2 + 2𝑥3 , 𝑥2 + 2𝑥3 , 𝑥3 ).

(a) Ache 𝐴 = 𝑇ℰ , em que ℰ é a base canônica do ℝ3 ;


(b) Calcule 𝐴−1 ;
(c) Obtenha então a expressão de 𝑇 −1 .
18. Dê exemplo de operadores 𝑆, 𝑇 ∶ ℝ2 → ℝ2 tais que 𝑆𝑇 = 0 mas 𝑇 𝑆 ≠ 0, em que 0 denota
o operador identicamente nulo.
110 CAPÍTULO 5. APLICAÇÕES LINEARES

19. Escreva a equação


⎛1⎞ ⎛1⎞ ⎛2⎞ ⎛3⎞
⎜2⎟ = 𝑥1 ⎜2⎟ + 𝑥2 ⎜5⎟ + 𝑥3 ⎜2⎟
⎜ ⎟ ⎜ ⎟ ⎜ ⎟ ⎜ ⎟
⎝3⎠ ⎝3⎠ ⎝8⎠ ⎝3⎠
na forma de um sistema não homogêneo 𝐴𝒙 = 𝒃. Resolva-o, se esse sistema possuir solução.
20. Encontre bases para o espaço linha e para o espaço coluna da matriz 𝐴, dada por

⎛1 2 1 1⎞ ⎛1 2 1 1⎞
⎛1 −2 1⎞
⎜2 1 2 1⎟
(a) ⎜2 1 2 1⎟ ; (b) ⎜ (c) ⎜2 1 −2⎟ .
⎜ ⎟ 0 1 1 0⎟ ⎜ ⎟
⎝0 1 1 0⎠ ⎜ ⎟ ⎝0 −1 1⎠
⎝1 0 0 0⎠

21. Encontre bases para o núcleo e imagem da matriz

⎛1 2 2 3 1 4⎞
⎜2 4 5 5 4 9⎟ .
⎜ ⎟
⎝3 6 7 8 5 9⎠
Determine o posto dessa matriz.
22. Sejam 𝐴, 𝐵 matrizes 𝑛 × 𝑛. Mostre que 𝐴𝐵 = 0 se, e somente se, o espaço coluna de 𝐵 estiver
contido no núcleo de 𝐴.
23. Sejam 𝑉 , 𝑊 e 𝑈 espaços vetoriais de dimensões 83, 63 e 72, respectivamente.
Sejam 𝑇 ∶ 𝑉 → 𝑊 e 𝑆 ∶ 𝑊 → 𝑈 aplicações lineares tais que

dim ker(𝑇 ) = 25 e dim ker(𝑆) = 26.

Encontre os valores mínimo e máximo para a dimensão da imagem de 𝑆 ∘ 𝑇. Justifique


cuidadosamente sua resposta.
Capítulo 6

Produto Interno

Objetivos: No final do capítulo o aluno deverá:

1. entender a definição de produto interno e saber operar com ela;

2. saber calcular a projeção ortogonal de um vetor 𝒚 sobre um vetor 𝒙.

3. saber aplicar o processo de ortogonalização de Gram-Schmidt.

4. saber encontrar a matriz que representa um operador 𝑇 ∶ 𝐸 → 𝐸 com


relação a uma base ortogonal e reconhecer matrizes autoadjuntas.

6.1 Propriedades Básicas


Comparando as propriedades do ℝ𝑛 apresentadas no Teorema 1.16 com
o estudo do ℝ3 feito em um curso vetorial de Geometria Analítica, notamos
a ausência de uma operação entre vetores: o produto escalar 𝒙 ⋅ 𝒚, opera-
ção que fornece um método simples para se verificar se os vetores 𝒙 e 𝒚
são perpendiculares. (Na verdade, também notamos a ausência do produto
vetorial, mas esse não será abordado neste curso.)
O conceito de produto escalar muitas vezes é introduzido utilizando as
normas (= comprimentos) e o ângulo 𝜃 entre os vetores 𝒙 e 𝒚: define-se o
produto escalar 𝒙 ⋅ 𝒚 como sendo igual a ‖𝒙‖ ‖𝒚‖ cos 𝜃, com 0 ≤ 𝜃 ≤ 𝜋.
Interpretando vetores no ℝ3 como segmentos orientados, esses conceitos
são “concretos”, pois a medição do comprimento desses segmentos e do
ângulo entre eles pode ser feita. Mas esse conceitos certamente não são
concretos no ℝ𝑛 , se 𝑛 ≥ 4. Como medir os comprimentos e ângulo entre os
vetores 𝒙, 𝒚 ∈ ℝ4 , por exemplo?
Partiremos de uma generalização do produto escalar, chamada produto
interno, a qual nos permitirá definir o comprimento de vetores.

Definição 6.1 Seja 𝑋 um espaço vetorial sobre o corpo 𝕂. Um produto


interno em 𝑋 é uma função ⟨⋅ , ⋅⟩ ∶ 𝑋 × 𝑋 → 𝕂 satisfazendo as seguintes
propriedades:

(𝑖) ⟨𝒙, 𝒚⟩ = ⟨𝒚, 𝒙⟩;

(𝑖𝑖) ⟨𝒙 + 𝛼𝒚, 𝒛⟩ = ⟨𝒙, 𝒛⟩ + 𝛼⟨𝒚, 𝒛⟩, para todo escalar 𝛼 ∈ 𝕂;

111
112 CAPÍTULO 6. PRODUTO INTERNO

(𝑖𝑖𝑖) ⟨𝒙, 𝒙⟩ ≥ 0 e ⟨𝒙, 𝒙⟩ = 0 se, e somente se, 𝒙 = 0.


Um espaço com produto interno é um espaço vetorial no qual está
fixado um produto interno.

Na propriedade (𝑖), ⟨𝒚, 𝒙⟩ denota o conjugado do número ⟨𝒚, 𝒙⟩ ∈ ℂ; se


⟨𝒚, 𝒙⟩ ∈ ℝ, então ⟨𝒙, 𝒚⟩ = ⟨𝒚, 𝒙⟩.
De agora em diante, quando não especificarmos qual espaço vetorial
estamos considerando, 𝐸 denotará um espaço com produto interno qualquer.

Exercício 6.1 Considere o produto escalar 𝒙 ⋅ 𝒚, já definido para vetores 𝒙, 𝒚 ∈ ℝ3 . Verifique que
esse produto escalar satisfaz a Definição 6.1.

Exemplo 6.2 Para 𝒙 = (𝑥1 , … , 𝑥𝑛 ) e 𝒚 = (𝑦1 , … , 𝑦𝑛 ) vetores arbitrários no


ℝ𝑛 , definimos o produto interno canônico do ℝ𝑛 :

⎛𝑥1 ⎞
⎜𝑥 ⎟
⟨𝒙, 𝒚⟩ = 𝒙 ⋅ 𝒚 = 𝑥1 𝑦1 + … + 𝑥𝑛 𝑦𝑛 = (𝑦1 𝑦2 … 𝑦𝑛 ) ⎜ 2 ⎟ = 𝒚t 𝒙,

⎜ ⎟
𝑥
⎝ 𝑛⎠

em que 𝒚𝒕 denota a transposta da matriz coluna 𝒚. (Essa é a generalização


imediata do produto escalar de vetores do ℝ3 , de acordo com o Exercício
6.2. Por esse motivo, o produto interno canônico também é chamado de
produto escalar de vetores do ℝ𝑛 .)
Particularizando, considere os vetores

𝒙 = (5, −1, −2, 6), 𝒚 = (4, −2, −2, −1) e 𝒛 = (1, 3, −6, −3)

do espaço ℝ4 . Então

⟨𝒙, 𝒚⟩ = 𝒙 ⋅ 𝒚 = 5(4) − 1(−2) − 2(−2) + 6(−1) = 20 + 2 + 4 − 6 = 20,

enquanto

⟨𝒙, 𝒛⟩ = 𝒙 ⋅ 𝒛 = 5(1) − 1(3) − 2(−6) + 6(−3) = 5 − 3 + 12 − 18 = −4.


Exemplo 6.3 Para 𝒛 = (𝑧1 , … , 𝑧𝑛 ) e 𝒘 = (𝑤1 , … , 𝑤𝑛 ) vetores do ℂ𝑛 , o


produto interno canônico do ℂ𝑛 é definido por

⎛𝑧1 ⎞
⎜𝑧 ⎟
⟨𝒛, 𝒘⟩ = 𝒛 ⋅ 𝒘 = 𝑧1 𝑤1 + … + 𝑧𝑛 𝑤𝑛 = (𝑤1 𝑤2 … 𝑤𝑛 ) ⎜ 2 ⎟ = 𝒘t 𝒛,

⎜ ⎟
⎝ 𝑧𝑛 ⎠

em que 𝒘𝒕 denota a transposta conjugada da matriz coluna 𝒘.


Particularizando, considere o vetor 𝒛 = (1 + 2𝑖, 1 + 3𝑖). Então ⟨𝒛, 𝒛⟩ =
𝒛 ⋅ 𝒛 = (1 + 2𝑖)(1 − 2𝑖) + (1 + 3𝑖)(1 − 3𝑖) = 1 + 4 + 1 + 9 = 15, que é
um número real. Apenas a introdução da conjugação em cada coordenada
de 𝒛 ∈ ℂ permite que propriedade (𝑖𝑖𝑖) da definição do produto interno seja
satisfeita: como sabemos, 𝑧𝑧 ̄ = |𝑧| ∈ ℝ para todo 𝑧 ∈ ℂ. Se utilizássemos
a definição como no ℝ𝑁 , não obteríamos um número real.
Observe que a definição do produto interno canônico do ℂ𝑛 reduz-se ao
produto interno canônico do ℝ𝑛 , se nos restringirmos a vetores do ℝ𝑛 . ⊲
6.1. PROPRIEDADES BÁSICAS 113

Exercício 6.2 Verifique que os produtos internos canônicos do ℝ𝑛 e ℂ𝑛 satisfazem a Definição


6.1.
Exercício 6.3 Seja ⟨⋅, ⋅⟩ um produto interno no espaço 𝐸. Verifique que, para quaisquer 𝒖, 𝒗 e 𝒘
no espaço 𝐸, vale:
⟨𝒖, 𝒗 + 𝛼𝒘⟩ = ⟨𝒖, 𝒗⟩ + 𝛼⟨𝒖,
̄ 𝒘⟩.
Exercício 6.4 Seja ⟨⋅, ⋅⟩ um produto interno qualquer no 𝕂𝑛 . Mostre que ⟨𝒙, 0⟩ = 0 para todo
𝒙 ∈ 𝕂𝑛 e conclua que também vale ⟨0, 𝒙⟩ = 0.
Exercício 6.5 Se 𝒙 = (𝑥1 , … , 𝑥𝑛 ) e 𝒚 = (𝑦1 , … , 𝑦𝑛 ) são vetores arbitrários do 𝕂𝑛 , escolhendo
escalares 𝛼1 , … , 𝛼𝑛 > 0 arbitrários, verifique que
⟨𝒙, 𝒚⟩ = 𝛼1 𝑥1 𝑦1 + … + 𝛼𝑛 𝑥𝑛 𝑦𝑛
também define um produto interno no 𝕂𝑛 . O mesmo resultado vale se um dos escalares 𝛼𝑖 for nulo?

Uma pergunta impõe-se: todo espaço vetorial possui ou nele pode ser
definido um produto interno? A resposta para essa questão é afirmativa, mas
neste texto apenas mostraremos que é possível definir um produto interno
em qualquer espaço 𝑋 de dimensão finita. Tendo em vista a Proposição
4.43, esse resultado é completamente natural.
Proposição 6.4 Sejam ℬ = {v1 , … , v𝑛 } uma base do espaço 𝑋. Então
⟨𝒙, 𝒚⟩ = [𝒙]ℬ ⋅ [𝒚]ℬ
define um produto interno no espaço 𝑋.
(Estamos denotando por 𝒖 ⋅ 𝒗 o produto escalar (produto interno canônico)
dos vetores 𝒖, 𝒗 no espaço 𝕂𝑛 . Assim, o lado direito da igualdade apresen-
tada na definição ocorre no espaço 𝕂𝑛 .)
A demonstração da Proposição 6.4 é simples e será deixada como exer-
cício.
É fácil notar que, na Proposição 6.4, o produto interno canônico do 𝕂𝑛
poderia ser substituído por qualquer produto interno no 𝕂𝑛 . Assim, surge
uma segunda questão: qual a necessidade de considerarmos, no 𝕂𝑛 , um
produto interno qualquer? Não é suficiente considerarmos o produto interno
canônico no 𝕂𝑛 , já que esse é a generalização natural do produto escalar no
ℝ3 ?
Como mostraremos posteriormente, produtos internos proporcionam a
definição de comprimentos e de ortogonalidade de vetores. Uma escolha
adequada desses conceitos pode proporcionar uma grande simplificação ao
considerarmos um problema.
Apesar de nossa abordagem utilizar unicamente as propriedades de um
produto interno abstrato (Definição 6.1), você pode pensar, no decorrer
deste texto, que o produto interno no 𝕂𝑛 é o produto escalar e que, no espaço
𝐸, o produto interno fixado é aquele definido na Proposição 6.4.

Exercício 6.6 Considere 𝒙 = (𝑥1 , 𝑥2 ) e 𝒚 = (𝑦1 , 𝑦2 ) vetores no ℝ2 . Defina


⟨𝒙, 𝒚⟩ = 𝑥1 𝑦1 − 𝑥1 𝑦2 − 𝑥2 𝑦1 + 3𝑥2 𝑦2 .
Verifique que ⟨⋅, ⋅⟩ define um produto interno no ℝ2 . Para 𝒙 = (1, 1), encontre os vetores 𝒚 ∈ ℝ2
que satisfazem ⟨𝒙, 𝒚⟩ = 0.
114 CAPÍTULO 6. PRODUTO INTERNO

Exercício 6.7 Demontre a Proposição 6.4.


Os próximos exemplos são mais sofisticados e sua leitura pode ser supri-
mida, conforme juízo do instrutor.

Exemplo 6.5 Considere o conjunto 𝐶([𝑎, 𝑏], ℝ) de todas as funções contí-


nuas 𝒇 ∶ [𝑎, 𝑏] → ℝ. Claramente 𝐶([𝑎, 𝑏], ℝ) é um subespaço do espaço
vetorial 𝑋 definido no Exemplo 1.24. Definimos, para 𝒇 , 𝒈 ∈ 𝐶([𝑎, 𝑏], ℝ),
𝑏
⟨𝒇 , 𝒈⟩ = 𝒇 (𝑡) 𝒈(𝑡) d𝑡.
∫𝑎

Então ⟨⋅, ⋅⟩ define um produto interno em 𝐶([𝑎, 𝑏], ℝ). De fato,

(a) ⟨𝒇 , 𝒈⟩ = ⟨𝒈, 𝒇 ⟩ para quaisquer 𝒇 , 𝒈 ∈ 𝐶([𝑎, 𝑏]);

(b) ⟨𝒇1 + 𝛼𝒇2 , 𝒈⟩ = ⟨𝒇1 , 𝒈⟩ + 𝛼⟨𝒇2 , 𝒈⟩ para quaisquer 𝛼 ∈ ℝ e 𝒇1 , 𝒇2 , 𝒈 ∈


𝐶([𝑎, 𝑏], ℝ);

(c) ⟨𝒇 , 𝒇 ⟩ ≥ 0 para todo 𝒇 ∈ 𝐶([𝑎, 𝑏], ℝ) e ⟨𝒇 , 𝒇 ⟩ = 0 implica 𝒇 ≡ 0.

Observe que, se existisse um ponto 𝑥0 tal que 𝒇 (𝑥0 ) ≠ 0, então a conti-


nuidade de 𝑓 garante que 𝒇 ≠ 0 em toda uma vizinhança de 𝑥0 . Se consi-
derarmos funções que não precisam ser contínuas, então a propriedade (c)
não é válida: considere, por exemplo, a função 𝑔 ∶ [𝑎, 𝑏] → ℝ definida por
𝑔(𝑎) = 1, 𝑔(𝑥) = 0 para todo 𝑥 ∈ [𝑎, 𝑏] com 𝑥 ≠ 𝑎. ⊲

Exemplo 6.6 Considere o conjunto ℓ2 de todas as sequências 𝒙 = (𝑥𝑖 ) de


escalares em 𝕂 tais que

2
∑ |𝑥𝑖 | < ∞.
𝑖=1

Claramente ℓ2 é um subespaço do espaço vetorial 𝑋 apresentado no Exer-


cício 1.14 do Capítulo ??.
Para 𝒙 = (𝑥𝑖 ) e 𝒚 = (𝑦𝑖 ) em ℓ2 , definimos

⟨𝒙, 𝒚⟩ = ∑ 𝑥𝑖 𝑦𝑖̄ .
𝑖=1

Como |𝑥𝑖 𝑦𝑖̄ | ≤ (1/2) [|𝑥𝑖 |2 + |𝑦𝑖 |2 ], temos que ⟨𝒙, 𝒚⟩ < ∞ para todos
𝒙, 𝒚 ∈ ℓ2 . Então ⟨⋅, ⋅⟩ define um produto interno em ℓ2 . ⊲

Exercício 6.8 Verifique todas as afirmações feitas nos Exemplos 6.5 e 6.6. Com respeito ao Exem-
plo 6.5, lembre-se que uma função contínua e positiva em um ponto, também é positiva em uma
vizinhança desse ponto.

Definição 6.7 Consideremos o espaço 𝐸 com o produto interno ⟨⋅, ⋅⟩. Os


vetores 𝒙, 𝒚 ∈ 𝑋 são ortogonais (ou perpendiculares) se ⟨𝒙, 𝒚⟩ = 0. Nesse
caso, denotamos 𝒙 ⟂ 𝒚.
6.2. NORMA 115

A justificativa geométrica dessa definição é dada pelo Teorema de Pitá-


goras, que apresentaremos na sequência. Enfatizamos que o conjunto dos
vetores 𝒚 ∈ 𝐸 que são perpendiculares a um vetor fixo 𝒙 ∈ 𝐸 depende
do produto interno considerado. Mas, não importa qual seja esse produto
interno, 0 ∈ 𝑋 é perpendicular a qualquer vetor do 𝐸, de acordo com o
Exercício 6.4.
Observe que não definimos o ângulo entre vetores, mas unicamente a
noção de ortogonalidade de vetores, sempre dependente do produto interno
considerado.

6.2 Norma
Definição 6.8 Uma norma no espaço 𝑋 é uma função ‖ ⋅ ‖ ∶ 𝑋 → [0, ∞)
satisfazendo, para todos 𝒙, 𝒚 ∈ 𝑋 e 𝜆 ∈ 𝕂:

(𝑖) ‖𝒙‖ ≥ 0 e ‖𝒙‖ = 0 se, e somente se, 𝑥 = 0;

(𝑖𝑖) ‖𝛼𝒙‖ = |𝛼| ‖𝒙‖;

(𝑖𝑖𝑖) ‖𝒙 + 𝒚‖ ≤ ‖𝒙‖ + ‖𝒚‖ (desigualdade triangular).

Considerado com uma norma ‖ ⋅ ‖, dizemos que 𝑋 é um espaço nor-


mado.

O valor ‖𝒙‖ pode ser interpretado, geometricamente, como uma ma-


neira de medir o comprimento do vetor 𝒙. Se ‖𝒙‖ = 1, o vetor 𝒙 é unitário.
(Veja o Exercício 4.)

Exemplo 6.9 Para 𝒙 = (𝑥1 , 𝑥2 , … , 𝑥𝑛 ) ∈ 𝕂𝑛 , defina

‖𝒙‖𝑠 = |𝑥1 | + |𝑥2 | + … + |𝑥𝑛 |.

Essa é a norma da soma no 𝕂𝑛 . ⊲

Exercício 6.9 Mostre que ‖ ⋅ ‖𝑠 satisfaz as propriedades que caracterizam uma norma no 𝕂𝑛 .
Exercício 6.10 Para os vetores 𝒙, 𝒚 e 𝒛 do ℝ4 , definidos no Exemplo 6.2, calcule ‖𝒙‖𝑠 , ‖𝒚‖𝑠 e
‖𝒛‖𝑠 .
Exercício 6.11 Para 𝒙 = (𝑥1 , 𝑥2 , … , 𝑥𝑛 ) ∈ 𝕂𝑛 , defina ‖𝒙‖∞ = max1≤𝑖≤𝑛 |𝑥𝑖 |. Mostre que assim
está definida uma norma, chamada norma do máximo no 𝕂𝑛 .
Exercício 6.12 Repita o Exercício 6.10 trocando a norma ‖ ⋅ ‖𝑠 pela norma ‖ ⋅ ‖∞ .

Agora vamos mostrar que, qualquer que seja o espaço 𝐸, seu produto
interno produz, de maneira natural, uma norma em 𝐸. Assim, sendo ⟨⋅, ⋅⟩ o
produto interno em 𝐸, denotemos (com abuso de notação) ‖𝒙‖ ∶= ⟨𝒙, 𝒙⟩1/2 .
Vamos mostrar que essa notação é coerente, isto é, que ⟨𝒙, 𝒙⟩1/2 realmente
define uma norma no espaço 𝐸. Notamos que, com essa definição, já temos

(𝑖) ‖𝒙‖ = ⟨𝒙, 𝒙⟩1/2 ≥ 0 e ‖𝒙‖ = 0 ⇔ 𝒙 = 0;

(𝑖𝑖) ‖𝛼𝒙‖2 = ⟨𝛼𝒙, 𝛼𝒙⟩ = 𝛼𝛼̄ ⟨𝒙, 𝒙⟩ = |𝛼|2 ‖𝒙‖2 . Ao tomarmos a raiz
quadrada em ambos os lados, obtemos ‖𝛼𝒙‖ = |𝛼| ‖𝒙‖.
116 CAPÍTULO 6. PRODUTO INTERNO

Antes de completarmos a demonstração de nossa afirmação, justificare-


mos a definição de perpendicularidade, apresentada anteriormente.
Teorema 6.10 (Pitágoras)
Seja 𝐸 um espaço com produto interno ⟨⋅, ⋅⟩. Considere ‖𝒙‖ = ⟨𝒙, 𝒙⟩1/2
para todo 𝒙 ∈ 𝐸. Então, 𝒙 ⟂ 𝒚 implica
‖𝒙 + 𝒚‖2 = ‖𝒙‖2 + ‖𝒚‖2 .
Se 𝐸 for um espaço real, então a recíproca vale.
Demonstração: Uma vez que
‖𝒙 + 𝒚‖2 = ⟨𝒙 + 𝒚, 𝒙 + 𝒚⟩ = ⟨𝒙, 𝒙⟩ + ⟨𝒙, 𝒚⟩ + ⟨𝒚, 𝒙⟩ + ⟨𝒚, 𝒚⟩
= ‖𝒙‖2 + ‖𝒚‖2 ,
o resultado decorre imediatamente. Por outro lado, se a recíproca for válida,
podemos concluir que ⟨𝒙, 𝒚⟩+⟨𝒚, 𝒙⟩ = 2ℜ𝔢 ⟨𝒙, 𝒚⟩ = 0, o que implica 𝒙 ⟂ 𝒚
apenas se ℜ𝔢 ⟨𝒙, 𝒚⟩ = ⟨𝒙, 𝒚⟩, isto é, se 𝕂 = ℝ. 

Exercício 6.13 Interprete o Teorema de Pitágoras geometricamente.


Exercício 6.14 Dê exemplo de vetores 𝒖, 𝒗 ∈ ℂ𝑛 tais que ‖𝒖+𝒗‖2 = ‖𝒖‖2 +‖𝒗‖2 , mas ⟨𝒖, 𝒗⟩ ≠ 0.

Se 𝒙 ≠ 0, podemos escrever qualquer vetor 𝒚 como a soma de dois


vetores: 𝒚 = 𝛼𝒙 + 𝒛, em que 𝒛 é ortogonal a 𝒙. De fato, basta mostrar que
existe 𝛼 ∈ 𝕂 tal que ⟨𝒛, 𝒙⟩ = ⟨𝒚 − 𝛼𝒙, 𝒙⟩ = 0. Essa equação pode ser
resolvida facilmente:
⟨𝒚, 𝒙⟩
⟨𝒚 − 𝛼𝒙, 𝒙⟩ = 0 ⟺ ⟨𝒚, 𝒙⟩ − 𝛼⟨𝒙, 𝒙⟩ = 0 ⟺ 𝛼 = .
‖𝒙‖2
⟨𝒚,𝒙⟩
O vetor proj𝒙 𝒚 = 𝛼𝒙 = ‖𝒙‖2 𝒙 é a projeção ortogonal do vetor 𝒚 sobre
o vetor 𝒙. Note que, se {𝒙, 𝒚} for linearmente independente, então 𝒛 ≠ 0.
Veja a Figura 6.1.

✒✻
𝒚
𝒛
✲ ✲
proj𝒙 𝒚 𝒙
Figura 6.1: O vetor proj𝒙 𝒚 = (⟨𝒚, 𝒙⟩/‖𝒙‖2 )𝒙 é a projeção ortogonal do vetor
𝒚 no vetor 𝒙. O vetor 𝒛 = 𝒚 − proj𝒙 𝒚 é a “componente” de 𝒚 ortogonal ao
vetor 𝒙.

Exemplo 6.11 Considere os vetores 𝒖 = (1, 1, 1) e 𝒗 = (1, −1, 1). Então


proj𝒖 𝒗 é dado por:
1(1) + 1(−1) + 1(1) 1
proj𝒖 𝒗 = (1, 1, 1) = (1, 1, 1). ⊲
12 + 1 2 + 1 2 3

Exercício 6.15 Sejam 𝒙 = (1, 1, 1, 1) e 𝒚 = (1, 2, 4, 5) vetores do 𝕂4 . Calcule a projeção ortogonal


do vetor 𝒚 sobre o vetor 𝒙. Obtenha também a componente de 𝒚 ortogonal ao vetor 𝒙.
6.2. NORMA 117

Proposição 6.12 (Desigualdade de Cauchy-Bunyakowsky-Schwarz)


Considere ‖𝒙‖ = ⟨𝒙, 𝒙⟩1/2 no espaço 𝐸. Então para todos 𝒙, 𝒚 ∈ 𝐸
vale:
|⟨𝒙, 𝒚⟩| ≤ ‖𝒙‖ ‖𝒚‖.

Demonstração: A prova que apresentaremos é bem geométrica.1


Se 𝒚 = 0, o resultado é imediato. Se 𝒙 = 𝛽𝒚, então |⟨𝒙, 𝒚⟩| = |𝛽| ⟨𝒚, 𝒚⟩ =
|𝛽| ‖𝒚‖2 = ‖𝒙‖ ‖𝒚‖. Se 𝒙 ≠ 𝛽𝒚 para todo 𝛽, então 𝒙 ≠ 0. Apenas para
simplificar a notação, definimos 𝒘 = 𝒙/‖𝒙‖. Para todo 𝒚 ∈ 𝐸, vale

𝒚 = ⟨𝒚, 𝒘⟩𝒘 + (𝒚 − ⟨𝒚, 𝒘⟩𝒘) (= proj𝒘 𝒚 + (𝒚 − proj𝒘 𝒚))

e ⟨𝒚, 𝒘⟩𝒘 ⟂ (𝒚 − ⟨𝒚, 𝒘⟩𝒘), como verificamos facilmente. Pelo Teorema


de Pitágoras,

|⟨𝒚, 𝒘⟩|2 = ‖⟨𝒚, 𝒘⟩𝒘‖2 < ‖⟨𝒚, 𝒘⟩𝒘‖2 + ‖(𝒚 − ⟨𝒚, 𝒘⟩𝒘)‖2 = ‖𝒚‖2 ,

o que implica que |⟨𝒚, 𝒘⟩| < ‖𝒚‖. Substituindo 𝒘 = 𝒙/‖𝒙‖, obtemos o
resultado. 

Observação 6.13 Note que mostramos que |⟨𝒙, 𝒚⟩| = ‖𝒙‖ ‖𝒚‖ se, e so-
mente se, 𝒙 = 𝛽𝒚, para algum 𝛽 ∈ 𝕂. Observe também que a demonstração
anterior resume-se em garantir que a hipotenusa é o maior lado de um tri-
ângulo retângulo. ⊲

Exercício 6.16 Mostre que ⟨𝒚, 𝒘⟩𝒘 ⟂ (𝒚 − ⟨𝒚, 𝒘⟩𝒘).

Quando estamos no espaço ℝ𝑛 (ou, mais geralmente, em um espaço real


𝐸), a desigualdade de Cauchy-Bunyakowsky-Schwarz garante que

𝒙 𝒚 𝒙 𝒚
, ≤1 ⇒ −1 ≤ , ≤ 1.
|⟨ ‖𝒙‖ ‖𝒚‖ ⟩| ⟨ ‖𝒙‖ ‖𝒚‖ ⟩

(Note que a última desigualdade só é válida se tivermos ⟨⋅, ⋅⟩ ∈ ℝ.)


Assim, é natural definir o ângulo 𝜃 entre os vetores 𝒙 e 𝒚 (com 0 ≤ 𝜃 ≤
𝜋) por
𝒙 𝒚
cos 𝜃 = , .
⟨ ‖𝒙‖ ‖𝒚‖ ⟩
Portanto, podemos escrever

⟨𝒙, 𝒚⟩ = ‖𝒙‖ ‖𝒚‖ cos 𝜃,

expressão que, como mencionamos, muitas vezes é utilizada na definição


do produto escalar 𝒙 ⋅ 𝒚 de vetores 𝒙, 𝒚 ∈ ℝ3 .

Exercício 6.17 Considere os vetores 𝒙 = (5, −1, −2, 6) e 𝒚 = (4, −1, 2, 1) do espaço ℝ4 . Calcule
o ângulo entre 𝒙 e 𝒚.
Exercício 6.18 Discuta: podemos definir o ângulo entre vetores do espaço ℂ𝑛 ?
1
Outra demonstração é sugerida no Exercício 6.
118 CAPÍTULO 6. PRODUTO INTERNO

A desigualdade de Cauchy-Bunyakowsky-Schwarz permite que justifi-


quemos a notação ‖𝒙‖ = ⟨𝒙, 𝒙⟩1/2 .
Proposição 6.14 Seja 𝐸 um espaço com o produto interno ⟨⋅, ⋅⟩. Então
‖𝒙‖ = ⟨𝒙, 𝒙⟩1/2 define uma norma em 𝐸. Dizemos que essa norma é gerada
pelo produto interno ⟨⋅, ⋅⟩.
Demonstração: De acordo com o que já vimos, para completar a prova
de que ‖𝒙‖ = ⟨𝒙, 𝒙⟩1/2 define uma norma, basta verificar a desigualdade
triangular. Temos que

‖𝒖 + 𝒗‖2 = ⟨𝒖 + 𝒗, 𝒖 + 𝒗⟩ = ‖𝒖‖2 + ⟨𝒖, 𝒗⟩ + ⟨𝒗, 𝒖⟩ + ‖𝒗‖2


= ‖𝒖‖2 + 2ℜ𝔢 ⟨𝒖, 𝒗⟩ + ‖𝒗‖2
≤ ‖𝒖‖2 + 2 |ℜ𝔢 ⟨𝒖, 𝒗⟩| + ‖𝒗‖2 ≤ ‖𝒖‖2 + 2| ⟨𝒖, 𝒗⟩ | + ‖𝒗‖2
≤ ‖𝒖‖2 + 2‖𝒖‖ ‖𝒗‖ + ‖𝒗‖2 = (‖𝒖‖ + ‖𝒗‖)2 .

O resultado decorre daí imediatamente. 

Em particular, todo espaço com produto interno 𝐸 é um espaço normado


com a norma gerada pelo seu produto interno.
Observação 6.15 Convencionaremos que, no espaço com produto interno
𝐸, ao utilizarmos a notação ‖ ⋅ ‖, estaremos sempre nos referindo à norma
‖𝒙‖ = √⟨𝒙, 𝒙⟩. No 𝕂𝑛 , se ⟨𝒙, 𝒚⟩ = 𝒙 ⋅ 𝒚, então ‖ ⋅ ‖ é conhecida como
norma euclidiana. ⊲
Dados dois pontos 𝒙 = (𝑥1 , 𝑥2 , … , 𝑥𝑛 ) e 𝒚 = (𝑦1 , 𝑦2 , … , 𝑦𝑛 ) do espaço
ℝ𝑛 considerado com seu produto interno canônico, definimos

dist(𝒙, 𝒚) = ‖𝑥 − 𝑦‖ = √(𝑥1 − 𝑦1 )2 + (𝑥2 − 𝑦2 )2 + … + (𝑥𝑛 − 𝑦𝑛 )2 ,

chamada distância euclidiana dos pontos 𝒙 e 𝒚.


Existem normas em um espaço normado que não são geradas por um
produto interno. Isso acontece, por exemplo, com as normas ‖ ⋅ ‖𝑠 e ‖ ⋅ ‖∞
no espaço 𝕂𝑛 , definidas no Exemplo 6.9 e Exercício 6.11, respectivamente.

Exercício 6.19 Considere os vetores (1, 1, 1, 1) ∈ 𝕂4 , (1, 5, 3, 2, 1) ∈ 𝕂5 e (1, 2, 1) ∈ 𝕂3 . Calcule


as normas ‖ ⋅ ‖, ‖ ⋅ ‖𝑠 e ‖ ⋅ ‖∞ de cada um desses vetores.
Exercício 6.20 Descreva o conjunto {𝑥 ∈ ℝ2 ∶ ‖ ⋅ ‖𝛼 = 1}, sendo ‖ ⋅ ‖𝛼 cada uma das normas
‖⋅‖, ‖⋅‖𝑠 e ‖⋅‖∞ . Observe que apenas na norma ‖⋅‖ esse conjunto corresponde à nossa intuição.
Exercício 6.21 Encontre a projeção ortogonal do vetor (1, 2, 4, 5) sobre o vetor (1, 1, 1, 1) com
relação ao produto interno canônico do 𝕂4 .
Exercício 6.22 Considerando pontos 𝒙 = (𝑥1 , 𝑥2 , 𝑥3 ) e 𝒚 = (𝑦1 , 𝑦2 , 𝑦3 ) do espaço ℝ3 , justifique a
definição dist(𝒙, 𝒚). Para isso, note que ‖𝒙‖ pode ser interpretada como a distância do ponto 𝒙 à
origem 0. Interprete então geometricamente ‖𝒙 − 𝒚‖.
Exercício 6.23 Mostre a identidade do paralelogramo:

‖𝒖 + 𝒗‖2 + ‖𝒖 − 𝒗‖2 = 2 (‖𝒖‖2 + ‖𝒗‖2 ) .

Essa identidade permanece válida se ‖ ⋅ ‖ for substituída por uma norma qualquer no 𝕂𝑛 ?
6.3. BASES ORTONORMAIS 119

A recíproca do Exercício 6.23 é um fato notável, com demonstração um


pouco mais elaborada: uma norma arbitrária satisfaz a identidade do para-
lelogramo apenas se for gerada por um produto interno. A demonstração
desse fato está além dos objetivos deste texto.

6.3 Bases Ortonormais


Definição 6.16 Seja 𝐸 um espaço com produto interno. Um conjunto 𝒪 =
{𝒗1 , … , 𝒗𝑟 } de vetores em 𝐸 é ortogonal se cada par de vetores em 𝒪 for
ortogonal, isto é,

⟨𝒗𝑖 , 𝒗𝑗 ⟩ = 0, se 𝑖 ≠ 𝑗, 𝑖, 𝑗 ∈ {1, … , 𝑟}.

Se todos os vetores de 𝒪 forem unitários, isto é, ‖𝒖𝑖 ‖ = 1 para 1 ≤ 𝑖 ≤ 𝑟,


então dizemos que 𝒪 é um conjunto ortonormal.

Se o vetor 0 não pertencer a um conjunto ortonormal 𝒪, intuitivamente


diríamos que o conjunto 𝒪 é linearmente independente. (Observe que 0 é
perpendicular a qualquer vetor e que qualquer conjunto que contém o vetor
0 é linearmente dependente.)
Começamos mostrando que nossa intuição é acertada:

Lema 6.17 Se 𝒪 ⊂ 𝐸 for um conjunto ortogonal de vetores não nulos,


então 𝒪 é linearmente independente.

Demonstração: Seja 𝒪 = {𝒗1 , … , 𝒗𝑟 } ⊂ 𝐸 um conjunto ortogonal de


vetores não nulos e suponhamos que

𝛼1 𝒗1 + … + 𝛼𝑟 𝒗𝑟 = 0. (6.1)

Tomando o produto escalar pelo vetor 𝒗1 em ambos os lados dessa igual-


dade, obtemos

⟨𝛼1 𝒗1 + … + 𝛼𝑟 𝒗𝑟 , 𝒗1 ⟩ = ⟨0, 𝒗1 ⟩
𝛼1 ⟨𝒗1 , 𝒗1 ⟩ + 𝛼2 ⟨𝒗2 , 𝒗1 ⟩ + … + 𝛼𝑟 ⟨𝒗𝑟 , 𝒗1 ⟩ = 0
𝛼1 ‖𝒗1 ‖2 = 0,

o que implica 𝛼1 = 0, pois os vetores de 𝒪 não são nulos.


Do mesmo modo, tomando o produto escalar em ambos os lados de (6.1)
pelo vetores 𝒗𝑖 , com 2 ≤ 𝑖 ≤ 𝑟, encontramos

⟨𝛼1 𝒗1 + … + 𝛼𝑟 𝒗𝑟 , 𝒗𝑖 ⟩ = ⟨0, 𝒗𝑖 ⟩
𝛼1 ⟨𝒗1 , 𝒗𝑖 ⟩ + … + 𝛼𝑖 ⟨𝒗𝑖 , 𝒗𝑖 ⟩ + … + 𝛼𝑟 ⟨𝒗𝑟 , 𝒗𝑖 ⟩ = 0
𝛼𝑖 ‖𝒗𝑖 ‖ = 0,

o que implica, como antes, 𝛼𝑖 = 0. Assim, 𝛼1 = ⋯ = 𝛼𝑟 = 0, mostrando


que 𝒪 é linearmente independente. 

Note que provamos, em particular, que todo conjunto ortonormal é li-


nearmente independente. Como um conjunto linearmente independente de
120 CAPÍTULO 6. PRODUTO INTERNO

um espaço de dimensão 𝑛 possui, no máximo, 𝑛 vetores, o mesmo acontece


para conjuntos ortogonais cujos elementos não são nulos.
Se dim 𝐸 = 𝑛 e o conjunto ortogonal {𝒗1 , … , 𝒗𝑛 } ⊂ ℝ𝑛 for formado
por vetores não nulos, obtemos imediatamente uma base ortonormal de 𝐸
ao dividir cada vetor por sua norma.
Exemplo 6.18 É claro que a base canônica {𝒆1 , … , 𝒆𝑛 } é ortonormal com
relação ao produto interno canônico do 𝕂𝑛 . De fato,

⟨𝒆𝑖 , 𝒆𝑗 ⟩ = 𝒆𝑖 ⋅ 𝒆𝑗 = 0,

se 𝑖 ≠ 𝑗 e
⟨𝒆𝑖 , 𝒆𝑖 ⟩ = 𝒆𝑖 ⋅ 𝒆𝑖 = 1 ⇒ ‖𝒆𝑖 ‖2 = 1. ⊲

Exemplo 6.19 Os vetores 𝒗1 = (1, 2, 1), 𝒗2 = (3, −2, 1) e 𝒗3 = (−2, −1, 4)


formam uma base ortogonal do 𝕂3 considerado com seu produto interno
canônico, pois
⟨𝒗𝑖 , 𝒗𝑗 ⟩ = 𝒗𝑖 ⋅ 𝒗𝑗 = 0, se 𝑖 ≠ 𝑗
e
⟨𝒗𝑖 , 𝒗𝑖 ⟩ = 𝒗𝑖 ⋅ 𝒗𝑖 = ‖𝒗𝑖 ‖2 ≠ 0
para todos 𝑖, 𝑗 ∈ {1, 2, 3}. ⊲

Exercício 6.24 Justifique: qualquer conjunto ortonormal com 𝑛 elementos é uma base do espaço
𝐸 de dimensão 𝑛.
Exercício 6.25 Considere o conjunto 𝒪 = {𝒗1 , 𝒗2 , 𝒗3 , 𝒗4 } em que

𝒗1 = (16, −13, 1, 3), 𝒗2 = (1, 2, 1, 3), 𝒗3 = (1, 1, 0, −1) e 𝒗4 = (1, 1, −9, 2).

Mostre que 𝒪 é uma base ortogonal do 𝕂4 , considerado com seu produto interno canônico.
Vale também uma generalização do Teorema de Pitágoras:
Proposição 6.20 Seja 𝒪 = {𝒗1 , … , 𝒗𝑟 } um conjunto ortonormal. Então

‖𝛼1 𝒗1 + … + 𝛼𝑟 𝒗𝑟 ‖2 = |𝛼1 |2 + … + |𝛼𝑟 |2 .

Exercício 6.26 Demonstre a Proposição 6.20 ao expandir o lado esquerdo da igualdade usando a
identidade ‖𝒙‖2 = ⟨𝒙, 𝒙⟩. (Uma outra demonstração é obtida utilizando-se a versão já exposta do
Teorema de Pitágoras.)
Bases ortonormais são especiais. Assim, verificaremos algumas propri-
edades satisfeitas por qualquer base ortonormal.
Proposição 6.21 Sejam 𝐸 um espaço com produto interno e ℬ = {𝒗1 , … , 𝒗𝑟 }
uma base ortogonal do subespaço 𝑈 ⊂ 𝐸. Se 𝒙 = 𝛼1 𝒗1 + … + 𝛼𝑟 𝒗𝑟 , então
⟨𝒙, 𝒗𝑖 ⟩
𝛼𝑖 = , (6.2)
‖𝒗𝑖 ‖2
de modo que
𝑟 𝑟
⟨𝒙, 𝒗𝑖 ⟩
𝒙=∑ 𝒗𝑖 = ∑ proj𝒗𝑖 𝒙.
𝑖=1
‖𝒗𝑖 ‖2 𝑖=1
6.3. BASES ORTONORMAIS 121

Demonstração: Aplicando o procedimento utilizado na demonstração do


Lema 6.17, determinamos os escalares 𝛼𝑖 na expansão 𝒙 = 𝛼1 𝒗1 + … + 𝛼𝑟 𝒗𝑟
facilmente:
⟨𝒙, 𝒗𝑖 ⟩ = 𝛼1 ⟨𝒗1 , 𝒗𝑖 ⟩ + … + 𝛼𝑖 ⟨𝒗𝑖 , 𝒗𝑖 ⟩ + … + 𝛼𝑟 ⟨𝒗𝑟 , 𝒗𝑖 ⟩ = 𝛼𝑖 ‖𝒗𝑖 ‖2 ,
o que nos dá
⟨𝒙, 𝒗𝑖 ⟩
𝛼𝑖 = para 𝑖 ∈ {1, … , 𝑟}
‖𝒗𝑖 ‖2
e, portanto
𝑟
⟨𝒙, 𝒗𝑖 ⟩
𝒙=∑ 𝒗𝑖 .
𝑖=1
‖𝒗𝑖 ‖2
Observe que
⟨𝒙, 𝒗𝑖 ⟩
𝛼𝑖 𝒗𝒊 = 𝒗𝒊 = proj𝒗𝑖 𝒙. 
‖𝒗𝑖 ‖2

Exemplo 6.22 Considere o espaço ℝ3 com seu produto escalar e a base


ortonormal ℬ = {𝒗1 , 𝒗2 , 𝒗3 } (verifique!), em que

1 2 1 2 1 4
𝒗1 = , , , 𝒗2 = − ,− ,
( √6 √6 √6 ) ( √21 √21 √21 )
e
3 2 1
𝒗3 = ,−
. ,
( √14
√14 √14 )
Se 𝒙 = (1, 1, 1) determinamos facilmente os escalares 𝛼𝑖 tais que
𝒙 = 𝛼 1 𝒗1 + 𝛼 2 𝒗2 + 𝛼 3 𝒗3 .
De fato, temos
4 1 2
𝛼1 = 𝒙 ⋅ 𝒗1 = , 𝛼 2 = 𝒙 ⋅ 𝒗2 = e 𝛼3 = 𝒙 ⋅ 𝒗3 = .
√6 √21 √14 ⊲

Exercício 6.27 Compare a solução apresentada no Exemplo 6.22 com o cálculo direto dos coefi-
cientes 𝛼𝑖 (como feito no Capítulo ??, isto é, sem usar o fato que ℬ é uma base ortonormal).
Exercício 6.28 Ache a representação do vetor 𝒙 = (𝑥1 , 𝑥2 , 𝑥3 , 𝑥4 ) ∈ 𝕂4 na base 𝒪 do Exercício
6.25.
A Proposição 6.21 tem várias aplicações. Por exemplo, se tivermos uma
base ortonormal ℬ = {𝒗1 , … , 𝒗𝑛 } for do espaço com produto interno 𝐸 e
𝒙, 𝒚 ∈ 𝐸 com
𝒙 = 𝛼1 𝒗1 + … + 𝛼𝑛 𝒗𝑛 e 𝒚 = 𝛽 1 𝒗1 + … + 𝛽 𝑛 𝒗𝑛 ,
ao expandirmos ambos os lados do produto interno ⟨𝒙, 𝒚⟩ obtemos
⟨𝛼1 𝒗1 + … + 𝛼𝑛 𝒗𝑛 , 𝛽1 𝒗1 + … + 𝛽𝑛 𝒗𝑛 ⟩ = 𝛼1 𝛽1 + … + 𝛼𝑛 𝛽𝑛 , (6.3)
o que mostra que, com relação a essa base ortonormal, o produto interno
em 𝐸 se comporta como o produto interno canônico do 𝕂𝑛 . (Relembramos
que a ortogonalidade de vetores depende do produto interno considerado.
O que é uma base ortonormal para o produto interno canônico não precisa
ser ortogonal para outro produto interno.)
122 CAPÍTULO 6. PRODUTO INTERNO

A igualdade (6.3) pode ser entendida da seguinte maneira: as expressões


de 𝒙 e 𝒚 garantem que [𝒙] = (𝛼1 𝛼2 … 𝛼𝑛 )𝒕 e [𝒚] = (𝛽1 𝛽2 … 𝛽𝑛 )𝒕 .
Assim, podemos concluir que

⟨𝒙, 𝒚⟩ = [𝒙]ℬ ⋅ [𝒚]ℬ , (6.4)

em que ⋅ é o produto interno canônico do 𝕂𝑛 , isto é, o produto escalar.

6.4 Ortogonalização de Gram-Schmidt


Na seção anterior, mostramos que bases ortogonais são fáceis de lidar.
Mas, como obtê-las? Se temos apenas dois vetores, a projeção ortogonal
resolve a questão (veja a Figura 4.1). Se 𝒗1 e 𝒗2 denotam vetores ortogonais
e 𝒖 um vetor que não pertence ao plano gerado por 𝒗1 e 𝒗2 , a Figura 6.2
ilustra como obter de 𝒖 um vetor 𝒘, ortogonal ao plano gerado por 𝒗1 e 𝒗2 .
Uma vez que proj𝒗1 𝒖 + proj𝒗2 𝒖 + 𝒘 = 𝒖, o vetor procurado 𝒘 é dado
por 𝒘 = 𝒖 − proj𝒗1 𝒖 − proj𝒗2 𝒖, o que generaliza o procedimento descrito
na Figura 6.1. Demonstraremos e generalizaremos nossas observações para
um número qualquer de vetores ao mostrar o processo de ortogonalização
de Gram-Schmidt:


𝒖
✁✕✻

✁𝒘 proj𝒗2 𝒖
✁ ✲ ✲
❅ 𝒗2
proj𝒗1 𝒖 ✠ ❘

𝒕 = proj𝒗1 𝒖 + proj𝒗2 𝒖
𝒗1 ✠
Figura 6.2: O vetor 𝒘 é a “componente” de 𝒖 ortogonal ao plano gerado por
𝒗1 e 𝒗2 . O vetor 𝒕 nada mais é do que a soma das projeções de 𝒖 sobre os
vetores 𝒗1 e 𝒗2 .

Teorema 6.23 (Gram-Schmidt)


Sejam {𝒗1 , … , 𝒗𝑟 } um conjunto ortogonal de vetores não nulos no es-
paço com produto interno 𝐸 e 𝒖 ∈ 𝐸 um vetor qualquer. Então o vetor

𝒘 = 𝒖 − proj𝒗1 𝒖 − proj𝒗2 𝒖 − … − proj𝒗𝑟 𝒖


⟨𝒖, 𝒗1 ⟩ ⟨𝒖, 𝒗2 ⟩ ⟨𝒖, 𝒗𝑟 ⟩
=𝒖− 𝒗1 − 𝒗2 − … − 𝒗𝑟 (6.5)
‖𝒗1 ‖2 ‖𝒗2 ‖2 ‖𝒗𝑟 ‖2

é ortogonal aos vetores 𝒗1 , … , 𝒗𝑟 . Se 𝒖 ∈ < 𝒗1 , … , 𝒗𝑟 >, então 𝒘 = 0,


enquanto 𝒘 ≠ 0, se 𝒖 ∉ < 𝒗1 , … , 𝒗𝑟 >.
6.4. ORTOGONALIZAÇÃO DE GRAM-SCHMIDT 123

Demonstração: Temos que ⟨𝒘, 𝒗𝑖 ⟩ = 0 para 𝑖 = 1, … , 𝑟.

⟨𝒖, 𝒗1 ⟩ ⟨𝒖, 𝒗𝑟 ⟩
⟨𝒘, 𝒗𝑖 ⟩ = 𝒖− 𝒗1 − … − 𝒗𝑟 , 𝒗 𝑖
⟨ ‖𝒗1 ‖ 2 ‖𝒗𝑟 ‖2 ⟩
⟨𝒖, 𝒗1 ⟩ ⟨𝒖, 𝒗𝑟 ⟩
= ⟨𝒖, 𝒗𝑖 ⟩ − 2
⟨𝒗1 , 𝒗𝑖 ⟩ − … − ⟨𝒗𝑟 , 𝒗𝑖 ⟩
‖𝒗1 ‖ ‖𝒗𝑟 ‖2
⟨𝒖, 𝒗𝑖 ⟩
= ⟨𝒖, 𝒗𝑖 ⟩ − ⟨𝒗𝑖 , 𝒗𝑖 ⟩
‖𝒗𝑖 ‖2
= ⟨𝒖, 𝒗𝑖 ⟩ − ⟨𝒖, 𝒗𝑖 ⟩ = 0,

mostrando que 𝒘 é ortogonal a todos os vetores 𝒗𝑖 . Se tivermos 𝒘 = 0,


então (6.5) deixa claro que 𝒖 é combinação linear dos vetores 𝒗1 , … , 𝒗𝑟 .
Contudo, se 𝒖 ∈ < 𝒗1 , … , 𝒗𝑟 >, então 𝒖 = 𝛼1 𝒗1 + … + 𝛼𝑟 𝒗𝑟 com
⟨𝒖,𝒗 ⟩
𝛼𝑖 = ‖𝒗 ‖𝑖2 , de acordo com a Proposição 6.21. Assim,
𝑖

⟨𝒖, 𝒗1 ⟩ ⟨𝒖, 𝒗2 ⟩ ⟨𝒖, 𝒗𝑟 ⟩


𝒘 = 𝛼1 𝒗1 + … + 𝛼𝑟 𝒗𝑟 − 2
𝒗1 − 2
𝒗2 − … − 𝒗𝑟 = 0,
‖𝒗1 ‖ ‖𝒗2 ‖ ‖𝒗𝑟 ‖2

provando o afirmado. 

Salientamos que os vetores 𝒘𝑗 (1 ≤ 𝑗 ≤ 𝑟) obtidos pelo processo de


ortogonalização de Gram-Schmidt são combinações lineares dos vetores
𝒗1 , … , 𝒗𝑗 . Esse fato está implícito na demonstração do Teorema 6.23 mas,
para enfatizá-lo, vamos mostrá-lo novamente, usando indução sobre o nú-
mero de vetores da base {𝒗1 , … , 𝒗𝑗 }. Se 𝑗 = 1, isso é imediato. Suponha-
mos que os vetores ortonormais 𝒘1 , … , 𝒘𝑗−1 sejam combinações lineares
dos vetores 𝒗1 , … , 𝒗𝑗−1 e consideremos o vetor 𝒘𝑗 , obtido pelo processo de
ortogonalização de Gram-Schmidt:

𝒘𝑗 = 𝒗𝑗 − proj𝒘1 𝒗𝑗 − proj𝒘2 𝒗𝑗 − … − proj𝒘𝑗−1 𝒗𝑗 .

Claramente 𝒘𝑗 é combinação linear dos vetores 𝒘1 , … , 𝒘𝑗−1 , 𝒗𝑗 ; como


nossa hipótese de indução garante que cada vetor 𝒘𝑖 é combinação linear
dos vetores 𝒗1 , … , 𝒗𝑖 (com 1 ≤ 𝑖 ≤ 𝑗 −1), concluímos que 𝒘𝑗 é combinação
linear dos vetores 𝒗1 , … , 𝒗𝑗 , provando o afirmado.
Note que o processo de Gram-Schmidt nos permite a obtenção de uma
base ortonormal para qualquer subespaço 𝑊. De fato, partindo de um vetor
arbitrário 0 ≠ 𝒘1 ∈ 𝑊, obtemos uma base de 𝑊 ao utilizar a Proposição
4.37. Aplicando o processo de Gram-Schmidt, obtemos uma base ortogo-
nal. Dividindo esses vetores por suas respectivas normas, obtemos uma
base ortonormal.

Exemplo 6.24 Considere os vetores 𝒗1 = (−1, 1, 0), 𝒗2 = (−1, 0, 1) e 𝒗3 =


(1, 1, 1). É fácil verificar que {𝒗1 , 𝒗2 , 𝒗3 } é uma base do 𝕂3 . Mas essa base
não é ortogonal com relação ao produto escalar do 𝕂3 , pois 𝒗1 ⋅ 𝒗2 = 1 ≠ 0.
Vamos utilizar o processo de ortogonalização de Gram-Schmidt para obter
124 CAPÍTULO 6. PRODUTO INTERNO

uma base ortonormal do 𝕂3 . Definimos 𝒘1 = 𝒗1 = (−1, 1, 0) e


𝒘′2 = 𝒗2 − proj𝒘1 𝒗2
𝒗 ⋅𝒘 1
= 𝒗2 − 2 21 𝒘1 = (−1, 0, 1) − (−1, 1, 0)
‖𝒘1 ‖ 2
= (−1, 0, 1) − (−1/2, 1/2, 0)
= (−1/2, −1/2, 1).
Evitando frações, consideraremos 𝒘2 = (−1, −1, 2). Note que 𝒘1 ⋅ 𝒘2 = 0.
Continuando, consideremos
𝒘3 = 𝒗3 − proj𝒘1 𝒗3 − proj𝒘2 𝒗3
𝒗 ⋅𝒘 𝒗 ⋅𝒘
= 𝒗3 − 3 21 𝒘1 − 3 22 𝒘2
‖𝒘1 ‖ ‖𝒘2 ‖
0 0
= (1, 1, 1) − (−1, 1, 0) − (−1, −1, 2)
2 6
= (1, 1, 1).
Note que o vetor 𝒘3 coincidiu com o vetor 𝒗3 , pois esse vetor já era
ortogonal aos vetores 𝒗1 e 𝒗2 (verifique!). Assim, a base ℬ = {𝒘1 , 𝒘2 , 𝒘3 }
é uma base ortogonal do ℝ3 . Para obter uma base ortonormal, basta dividir
cada vetor por sua norma. Então, os vetores

−1 1 −√6 −√6 √6
𝒖1 = ,
,0 , 𝒖2 = , ,
( √2 √2 ) ( 6 6 3 )
e
1 1 1
𝒖3 = , ,
( √3 √3 √3 )
formam uma base ortonormal do ℝ3 .
Se notarmos que os vetores 𝒘1 = 𝒗3 e 𝒘2 = 𝒗2 já são ortogonais e que
o vetor 𝒗1 é ortogonal ao vetor 𝒘1 , podemos aplicar Gram-Schmidt com
relação ao aos vetores 𝒘3 ∶= 𝒗1 e 𝒘2 . A base resultante será diferente da
obtida anteriormente (nesse caso, apenas pela ordem dos vetores), mas uma
observação como essa pode simplificar muito os cálculos. ⊲

Exercício 6.29 Seja 𝑊 o espaço gerado pelos vetores


𝒗1 = (1, 1, 1, 1), 𝒗2 = (1, 1, 2, 4) e 𝒗3 = (1, 2, −4, −3).
Ache uma base ortonormal para 𝑊.
Exercício 6.30 Na demonstração de que os vetores obtidos pelo processo de ortogonalização de
Gram-Schmidt são combinações lineares dos vetores originais, o conjunto {𝒗1 , … , 𝒗𝑗 } foi descrito
como sendo uma base. Base de que (sub)espaço?

Definição 6.25 Sejam {𝒗1 , … , 𝒗𝑟 } ⊂ 𝐸 um conjunto ortogonal de vetores


não nulos e 𝒖 ∈ 𝐸 um vetor qualquer e 𝑉 = < 𝒗1 , 𝒗2 , … , 𝒗𝑟 >. O vetor
𝒗 = proj𝒗1 𝒖 + proj𝒗2 𝒖 + … + proj𝒗𝑟 𝒖
é a projeção ortogonal de 𝒖 sobre o subespaço 𝑉.
6.4. ORTOGONALIZAÇÃO DE GRAM-SCHMIDT 125

Definição 6.26 Seja 𝐸 um espaço com o produto interno ⟨⋅, ⋅⟩. O comple-
mento ortogonal do subespaço 𝑉 ⊂ 𝐸, denotado por 𝑉 ⟂ , é o conjunto

𝑉 ⟂ = {𝒘 ∈ 𝐸 ∶ ⟨𝒘, 𝒗⟩ = 0, ∀ 𝒗 ∈ 𝑉 }.

Claramente 𝑉 ⟂ é um subespaço de 𝐸.

Exercício 6.31 Seja 𝐸 um espaço com produto interno. Mostre que, qualquer que seja o conjunto
𝑆 ⊂ 𝐸 (que não precisa ser um subespaço), temos que 𝑆 ⟂ é um subespaço do 𝐸.

Teorema 6.27 Sejam 𝐸 um espaço com produto interno ⟨⋅, ⋅⟩ e 𝑉 ⊂ 𝐸 um


subespaço de dimensão 𝑛. Então vale a decomposição em soma direta

𝐸 = 𝑉 ⊕ 𝑉⟂
𝒙 = 𝒗 + 𝒘.

Além disso,
(𝑉 ⟂ )⟂ = 𝑉 .

Demonstração: Seja {𝒗1 , … , 𝒗𝑛 } uma base ortonormal de 𝑉. Para 𝒙 ∈ 𝐸


arbitrário, defina

𝒗 = ⟨𝒙, 𝒗1 ⟩ 𝒗1 + … + ⟨𝒙, 𝒗𝑛 ⟩ 𝒗𝑟

e 𝒘 = 𝒙 − 𝒗. A demonstração do Teorema 6.23 mostra que 𝒘 ∈ 𝑉 ⟂ . (Mas


não é difícil verificar diretamente que 𝒘 é ortogonal aos vetores 𝒗1 , … 𝒗𝑟 .)
Assim, temos 𝒙 = 𝒗 + 𝒘. Note que o vetor 𝒗 nada mais é do que a projeção
do vetor 𝒙 sobre o subespaço 𝑉.
Se 𝒖 ∈ 𝑉 ∩ 𝑉 ⟂ , a definição de 𝑉 ⟂ garante que ⟨𝒖, 𝒖⟩ = 0 e, portanto,
𝒖 = 0.
Para 𝒘 ∈ 𝑉 ⟂ arbitrário, temos que ⟨𝒗, 𝒘⟩ = 0 para todo 𝒗 ∈ 𝑉. A
definição de (𝑉 ⟂ )⟂ garante então que 𝑉 ⊂ (𝑉 ⟂ )⟂ . Se fosse 𝑉 ≠ (𝑉 ⟂ )⟂ ,
existiria 0 ≠ 𝒚 ∈ (𝑉 ⟂ )⟂ ⧵ 𝑉. Aplicando o processo de ortogonização de
Gram-Schmidt ao vetor 𝒚, podemos supor que ⟨𝒚, 𝒗⟩ = 0 para todo 𝒗 ∈
𝑉, mostrando que 𝒚 ∈ 𝑉 ⟂ . Assim, temos que 𝒚 ∈ 𝑉 ⟂ ∩ (𝑉 ⟂ )⟂ = {0}.
Absurdo. 

Exercício 6.32 Na demonstração anterior, verifique que 𝒛 ∈ 𝑊 ⟂ .

Exemplo 6.28 Seja 𝑉 = < 𝒗1 , 𝒗2 , 𝒗3 > ⊂ ℝ4 , em que 𝒗1 = (1, 0, 0, 0),


𝒗2 = (1, 1, 0, 0) e 𝒗3 = (1, 2, 1, 2). Com R4 considerado com seu produto
escalar e 𝒙 = (1, 2, 0, 1), vamos encontrar proj𝑉 𝒙. (Ou, dito de outra forma,
se 𝒙 = 𝒗 + 𝒘 ∈ 𝑉 ⊕ 𝑉 ⟂ , vamos obter o vetor 𝒗.)
Primeiro obtemos uma base ortogonal do espaço 𝑉. (Isso pode ser feito
aplicando Gram-Schmidt, mas o processo que vamos utilizar é mais rápido
neste caso específico.) Para isso, colocamos os vetores dados como linha e
escalonamos a matriz formada

⎛1 0 0 0 ⎞ ⎛1 0 0 0 ⎞
⎜1 1 0 0 ⎟ → ⎜0 1 0 0 ⎟ .
⎜ ⎟ ⎜ ⎟
⎝1 2 1 2 ⎠ ⎝0 0 1 2 ⎠
126 CAPÍTULO 6. PRODUTO INTERNO

Isso cria a base ortogonal {𝒗1̂ = (1, 0, 0, 0), 𝒗2̂ = (0, 1, 0, 0), 𝒗3̂ = (0, 0, 1, 2)}
do espaço gerado por por 𝒗1 , 𝒗2 , 𝒗3 .
Então, a projeção ortogonal de 𝒙 em 𝑉 é o vetor 𝒗 dado por
𝒗 = proj𝒗1̂ 𝒙 + proj𝒗2̂ 𝒙 + proj𝒗3̂ 𝒙
𝒙 ⋅ 𝒗1̂ 𝒙 ⋅ 𝒗2̂ 𝒙 ⋅ 𝒗3̂
= 𝒗 ̂ +
1 𝒗 ̂ +
2 𝒗3̂
‖𝒗1̂ ‖2 ‖𝒗2̂ ‖2 ‖𝒗3̂ ‖2
1 2 2
= (1, 0, 0, 0) + (0, 1, 0, 0) + (0, 0, 1, 2)
1 1 5
= (1, 2, 2/5, 4/5).
Uma segunda solução do mesmo problema consiste em primeiro ob-
ter uma base para 𝑊 ⟂ . Por simples inspeção, verificamos que o vetor
𝒛1 = (0, 0, 0, 1) não pertence ao espaço gerado por 𝒗1̂ , 𝒗2̂ , 𝒗3̂ . Agora or-
togonalizamos 𝒛1 com respeito aos vetores 𝒗1̂ , 𝒗2̂ , 𝒗3̂ . Note que basta orto-
gonalizar com respeito a 𝒗3̂ . Encontramos 𝒛 = (0, 0, −2, 1). (Este é o vetor
que gera 𝑊 ⟂ .)
Agora projetamos 𝒙 = (1, 2, 0, 1) em 𝑊 ⟂ , o espaço gerado por 𝒛:
⟨𝒙, 𝒛⟩ 1
proj𝑊 ⟂ 𝒙 = 2
𝒛 = (0, 0, −2, 1).
‖𝒛‖ 5
A projeção de 𝒙 em 𝑊 é dada por
𝒘 = 𝒙 − proj𝑊 ⟂ 𝒙 = (1, 2, 0, 1) − (0, 0, −2/5, 1/5) = (1, 2, 2/5, 4/5). ⊲
Exemplo 6.29 Seja 𝑊 ⊂ ℝ5 o espaço gerado pelos vetores 𝒖 e 𝒗, em que
𝒖 = (1, 3, 2, −1, 2) e 𝒗 = (2, 7, 4, 2, −1). Vamos encontrar uma base para
𝑊 ⟂ , com ℝ5 considerado com seu produto interno canônico. (Note que os
vetores 𝒖 e 𝒗 não precisam ser ortogonais.)
Para isso, seja 𝒙 = (𝑥1 , 𝑥2 , 𝑥3 , 𝑥4 , 𝑥5 ) um vetor arbitrário de 𝑊 ⟂ . Como
os vetores 𝒖, 𝒗 são linearmente independentes, o vetor 𝒙 será ortogonal a 𝑊
se for perpendicular a 𝒖 e 𝒗. Assim, devemos ter
𝒙 ⋅ 𝒖 = 𝑥1 + 3𝑥2 + 2𝑥3 − 𝑥4 + 2𝑥5 = 0
𝒙 ⋅ 𝒗 = 2𝑥1 + 7𝑥2 + 4𝑥3 + 2𝑥4 − 𝑥5 = 0,
sistema que conduz à forma escalonada reduzida por linhas
1 0 2 −13 17
,
(0 1 0 4 −5 )
de modo que suas soluções são

⎛𝑥1 ⎞ ⎛−2𝑥3 + 13𝑥4 − 17𝑥5 ⎞


⎜𝑥2 ⎟ ⎜ −4𝑥4 + 5𝑥5 ⎟
⎜𝑥3 ⎟ = ⎜ 𝑥3 ⎟
⎜ ⎟ ⎜ ⎟
⎜𝑥4 ⎟ ⎜ 𝑥4 ⎟
⎝𝑥5 ⎠ ⎝ 𝑥5 ⎠
⎛−2⎞ ⎛ 13⎞ ⎛−17⎞
⎜ 0⎟ ⎜ −4 ⎟ ⎜ 5⎟
= 𝑥 3 ⎜ 1⎟ + 𝑥 4 ⎜ 0 ⎟ + 𝑥 5 ⎜ 0 ⎟ .
⎜ ⎟ ⎜ ⎟ ⎜ ⎟
⎜ 0⎟ ⎜ 1⎟ ⎜ 0⎟
⎝ 0⎠ ⎝ 0⎠ ⎝ 1⎠
6.5. BASES ORTOGONAIS E APLICAÇÕES LINEARES 127

Assim,
⎧⎛−2⎞ ⎛ 13⎞ ⎛−17⎞⎫
⎪⎜ 0⎟ ⎜ −4 ⎟ ⎜ 5 ⎟⎪
⎪ ⎪
𝒞 = ⎨⎜ 1⎟ , ⎜ 0 ⎟ , ⎜ 0 ⎟⎬
⎜ ⎟ ⎜ ⎟ ⎜ ⎟
⎪ 0 1 0 ⎪
⎪⎜ 0⎟ ⎜ 0 ⎟ ⎜ 1 ⎟⎪
⎩⎝ ⎠ ⎝ ⎠ ⎝ ⎠⎭

é uma base para 𝑊 ⟂ . Para obter uma base ortogonal para 𝑊 ⟂ , aplicamos
o processo de ortogonalização de Gram-Schmidt a esses vetores. ⊲

Exercício 6.33 Encontre bases ortonormais para os subespaços 𝑊 e 𝑊 ⟂ do Exemplo 6.29.

6.5 Bases Ortogonais e Aplicações Lineares


Se 𝑇 ∶ 𝐸 → 𝐸 for um operador linear no espaço 𝐸 de dimensão 𝑛, a
matriz 𝑇ℬ pode ser facilmente obtida, se ℬ = {𝒗1 , … , 𝒗𝑛 } for uma base
ortogonal de 𝐸.

Proposição 6.30 Sejam ℬ = {𝒗1 , … , 𝒗𝑛 } uma base ortogonal do espaço


com produto interno 𝐸 e 𝑇 ∶ 𝐸 → 𝐸 um operador linear. Então 𝑇ℬ = (𝑎𝑖𝑗 )
é dada por
⟨𝑇 𝒗𝑗 , 𝒗𝑖 ⟩
𝑎𝑖𝑗 = . (6.6)
‖𝒗𝑖 ‖2

Demonstração: Denotando por 𝐴 = (𝑎𝑖𝑗 ) a matriz 𝑇ℬ , então 𝑗-ésima co-


luna de 𝐴 é obtida ao se calcular [𝑇 𝒗𝑗 ]ℬ . Como 𝑇 𝒗𝑗 = ∑𝑛𝑖=1 𝑎𝑖𝑗 𝒗𝑖 é a
expressão deste vetor na base ℬ, calculando o produto interno pelo vetor
𝒗𝑖 nessa última expressão, obtemos ⟨𝑇 𝒗𝑗 , 𝒗𝑖 ⟩ = 𝑎𝑖𝑗 ‖𝒗𝑖 ‖2 e provamos o afir-
mado. 

Exemplo 6.31 Considere 𝑇 ∶ 𝕂3 → 𝕂3 definida por

𝑇 (𝑥1 , 𝑥2 , 𝑥3 ) = (𝑥1 + 𝑥2 − 𝑥3 , 𝑥2 , 𝑥3 )

e a base

1 1
ℬ= (1, 1, 0), (−1, 1, 0), (0, 0, 1) ⊂ 𝕂3 ,
{ √2 √2 }

que é ortonormal com relação ao produto escalar do 𝕂3 (verifique!). Vamos


obter 𝑇ℬ . Claramente temos

2
⎛ √2 ⎞ ⎛0⎞ ⎛−1⎞
⎜ ⎟ 1
𝑇 𝒗1 = ⎜ 1 ⎟ , 𝑇 𝒗2 = ⎜ √2 ⎟ e 𝑇 𝒗3 = ⎜ 0 ⎟ .
⎜ √2 ⎟ ⎜ ⎟ ⎜ ⎟
⎝ 0 ⎠ ⎝0⎠ ⎝ 1⎠
128 CAPÍTULO 6. PRODUTO INTERNO

Calculando, obtemos
𝑇 𝒗1 ⋅ 𝒗1 = 32 , 𝑇 𝒗1 ⋅ 𝒗2 = − 12 , 𝑇 𝒗1 ⋅ 𝒗3 = 0,
𝑇 𝒗2 ⋅ 𝒗1 = 12 , 𝑇 𝒗2 ⋅ 𝒗2 = 12 , 𝑇 𝒗2 ⋅ 𝒗3 = 0,
𝑇 𝒗3 ⋅ 𝒗1 = − 1 , 𝑇 𝒗3 ⋅ 𝒗2 = 1
, 𝑇 𝒗3 ⋅ 𝒗3 = 1.
√2 √2

Portanto,
3 1 1
⎛ 2 2
− ⎞
⎜ √2 ⎟
𝑇ℬ = ⎜− 1 1 1 ⎟.
⎜ 2 2 √2 ⎟
⎜ ⎟ ⊲
⎝ 0 0 1⎠

Exercício 6.34 Sem considerar que a base ℬ do Exemplo 6.31 é ortonormal, obtenha 𝑇ℬ utili-
zando apenas a teoria desenvolvida no Capítulo 5, isto é, utilizando o Teorema 5.18. Compare sua
solução com aquela do Exemplo 6.31.

6.6 Aplicações Autoadjuntas


No Capítulo 1, definimos matrizes autoadjuntas. Para melhor desenvol-
ver a teoria, precisamos definir operadores autoadjuntos.
Definição 6.32 Seja 𝑇 ∶ 𝐸 → 𝐸 um operador linear no espaço com pro-
duto interno 𝐸. O operador 𝑇 é autoadjunto se satisfizer
⟨𝑇 𝒙, 𝒚⟩ = ⟨𝒙, 𝑇 𝒚⟩ ∀ 𝒙, 𝒚 ∈ 𝐸.
Em particular, se considerarmos a aplicação linear definida por uma
matriz quadrada 𝐴, ela será autoadjunta se
⟨𝐴𝒙, 𝒚⟩ = ⟨𝒙, 𝐴𝒚⟩, ∀ 𝒙, 𝒚 ∈ 𝕂𝑛 . (6.7)
Dada uma matriz 𝐴 ∈ 𝕄𝑛×𝑛 (𝕂), como verificar se ela é autoadjunta? A
equação (6.7) não parece ser fácil de lidar diretamente. Vamos mostrar que
a definição acima coincide com aquela dada no Capítulo 1.
Proposição 6.33 Uma matriz 𝐴 = (𝑎𝑖𝑗 ) ∈ 𝕄𝑛×𝑛 (𝕂) é autoadjunta se, e
somente se
𝑎𝑖𝑗 = 𝑎𝑗𝑖
̄ .

Demonstração: Seja ℬ = {𝒗1 , 𝒗2 , … , 𝒗𝑛 } uma base ortonormal do espaço


𝕂𝑛 . De acordo com a igualdade (6.6), temos
𝑎𝑖𝑗 = ⟨𝐴𝒗𝑗 , 𝒗𝑖 ⟩ = ⟨𝒗𝑗 , 𝐴𝒗𝑖 ⟩ = ⟨𝐴𝒗𝑖 , 𝒗𝑗 ⟩ = 𝑎𝑗𝑖
̄ .
A segunda igualdade decorre de 𝐴 ser autoadjunta; a terceira, da definição
do produto interno; a quarta, novamente de (6.6). Escrita na forma
⟨𝐴𝒗𝑗 , 𝒗𝑖 ⟩ = 𝑎𝑖𝑗 = 𝑎𝑗𝑖
̄ = ⟨𝐴𝒗𝑖 , 𝒗𝑗 ⟩ = ⟨𝒗𝑗 , 𝐴𝒗𝑖 ⟩,
mostramos que (6.7) é válido para vetores da base ℬ. Escrevendo os vetores
arbitrários 𝒙, 𝒚 ∈ 𝕂𝑛 na base ℬ, concluímos que ⟨𝐴𝒙, 𝒚⟩ = ⟨𝒙, 𝐴𝒚⟩ para
quaisquer 𝒙, 𝒚 ∈ 𝕂𝑛 . 
6.6. APLICAÇÕES AUTOADJUNTAS 129

Observe, em particular, que 𝑎𝑖𝑖 = 𝑎𝑖𝑖̄ para uma matriz autoadjunta,


mesmo que estejamos no corpo ℂ. Quer dizer, elementos da diagonal prin-
cipal de uma matriz autoadjunta são sempre reais.

Exemplo 6.34 Considere a matriz

⎛1 1 + 𝑖 𝑖 ⎞
⎜𝑖 2 1 − 𝑖⎟ .
⎜ ⎟
⎝𝑖 3 5 ⎠

Então
⎛ 1 −𝑖 𝑖 ⎞
∗⎜
𝐴 = 1−𝑖 2 3⎟ .
⎜ ⎟ ⊲
⎝ −𝑖 1 + 𝑖 5⎠
Se a matriz 𝐴 for real, então 𝐴∗ = 𝐴𝒕 .

Exemplo 6.35 Se
1 5
𝐵= ,
(2 𝜋)
então
1 2
𝐵∗ = . ⊲
(5 𝜋)

Proposição 6.36 Seja ⟨⋅, ⋅⟩ um produto interno no espaço 𝐸. Sejam ℬ =


{𝒖1 , … , 𝒖𝑛 } e 𝒞 = {𝒗1 , … , 𝒗𝑛 } duas bases ortonormais em 𝐸. Seja 𝑃 a
matriz de mudança da base ℬ para a base 𝒞. Então 𝑃 ∗ 𝑃 = I = 𝑃 𝑃 ∗ .
𝒞
Demonstração: Como sabemos, 𝑃 = 𝑃ℬ é dada por

𝑃 = ([𝒖1 ]𝒞 [𝒖2 ]𝒞 … [𝒖𝑛 ]𝒞 ) ,

em que a matriz 𝑃 está sendo representada por sua colunas. Descrevendo


𝑃 ∗ por suas linhas e denotando a transposta do vetor [𝑢𝑗̄ ]𝒞 por [𝑢𝑗̄ ]𝒕𝒞 , temos
𝒕
⎛[𝒖̄1 ]𝒞 ⎞
⎜[𝒖̄ ]𝒕 ⎟
𝑃 ∗ 𝑃 = ⎜ 2 𝒞 ⎟ ([𝒖1 ]𝒞 [𝒖2 ]𝒞 … [𝒖𝑛 ]𝒞 )
⎜ ⋮𝒕⎟
⎝[𝒖̄𝑛 ]𝒞 ⎠
⎛[𝒖̄1 ]𝒞 ⋅ [𝒖1 ]𝒞 [𝒖̄1 ]𝒞 ⋅ [𝒖2 ]𝒞 … [𝒖̄1 ]𝒞 ⋅ [𝒖𝑛 ]𝒞 ⎞
⎜[𝒖̄ ] ⋅ [𝒖 ] [𝒖̄2 ]𝒞 ⋅ [𝒖2 ]𝒞 … [𝒖̄2 ]𝒞 ⋅ [𝒖𝑛 ]𝒞 ⎟⎟
=⎜ 2 𝒞 1 𝒞
⎜ ⋮ ⋮ ⋱ ⋮ ⎟
⎜ ⎟
⎝[𝒖̄𝑛 ]𝒞 ⋅ [𝒖1 ]𝒞 [𝒖̄𝑛 ]𝒞 ⋅ [𝒖2 ]𝒞 … [𝒖̄𝑛 ]𝒞 ⋅ [𝒖𝑛 ]𝒞 ⎠
⎛⟨𝒖1 , 𝒖1 ⟩ ⟨𝒖1 , 𝒖2 ⟩ … ⟨𝒖1 , 𝒖𝑛 ⟩⎞
⎜⟨𝒖 , 𝒖 ⟩ ⟨𝒖2 , 𝒖2 ⟩ … ⟨𝒖2 , 𝒖𝑛 ⟩⎟
=⎜ 2 1 = I. (6.8)
⋮ ⋮ ⋱ ⋮ ⎟
⎜ ⎟
⟨𝒖
⎝ 𝑛 1, 𝒖 ⟩ ⟨𝒖 𝑛 , 𝒖2 ⟩ … ⟨𝒖𝑛 , 𝒖𝑛 ⟩⎠

em que, na terceira igualdade, utilizamos a igualdade (6.4). Uma vez que


𝑃 ∗ 𝑃 = I implica 𝑃 ∗ = 𝑃 −1 , também temos 𝑃 𝑃 ∗ = I. 
130 CAPÍTULO 6. PRODUTO INTERNO

Definição 6.37 Uma matriz quadrada 𝐴 é unitária se 𝐴𝐴∗ = 𝐴∗ 𝐴 = I.


No caso real, 𝐴∗ = 𝐴𝒕 e 𝐴 é também chamada de ortogonal.

Observação 6.38 Observe que a igualdade (6.8) garante que as colunas da


matriz 𝑃 formam uma base ortonormal do 𝕂𝑛 . Uma vez que 𝐴 é unitária
se, e somente se, 𝐴∗ for unitária, então as linhas de 𝐴 também formam uma
base ortonormal do 𝕂𝑛 , ⊲

Exercício 6.35 Verifique que a matriz

⎛ 1 1−𝑖 2 ⎞
𝐴 = ⎜1 + 𝑖 4 2 − 𝑖⎟
⎜ ⎟
⎝ 2 2+𝑖 5 ⎠

é autoadjunta.
Exercício 6.36 Verifique que a matriz

⎛1 3 2⎞
𝐵 = ⎜3 4 4⎟
⎜ ⎟
⎝2 4 5⎠
é autoadjunta.
Exercício 6.37 Mostre a última afirmação feita na demonstração da Proposição 6.33, isto é, con-
clua que ⟨𝐴𝒙, 𝒚⟩ = ⟨𝒙, 𝐴𝒚⟩ para todos 𝒙, 𝒚 ∈ 𝕂𝑛 .
Exercício 6.38 Justifique: 𝑃 ∗ 𝑃 = I implica que 𝑃 𝑃 ∗ = I
Exercício 6.39 Justifique as afirmações feitas na Observação 6.38.

6.7 Exercícios
1. Seja ⟨⋅, ⋅⟩ um produto interno. Mostre que ⟨𝒙, 𝒚 + 𝜆𝒛⟩ = ⟨𝒙, 𝒚⟩ + 𝜆⟨𝒙, 𝒛⟩ para todos 𝒙, 𝒚, 𝒛 ∈
ℝ𝑛 e 𝜆 ∈ ℝ.
2. Para os vetores 𝒛 = (𝑧1 , 𝑧2 ) e 𝒘 = (𝑤1 , 𝑤2 ) no espaço ℂ2 ,
(a) verifique que

⟨𝒛, 𝒘⟩ = 𝑧1 𝑤̄ 1 + (1 + 𝑖)𝑧1 𝑤̄ 2 + (1 − 𝑖)𝑧2 𝑤̄ 1 + 3𝑧2 𝑤̄ 2

define um produto interno em ℂ2 ;


(b) Determine os valores 𝑎, 𝑏, 𝑐, 𝑑 ∈ ℂ de modo que

⟨𝒛, 𝒘⟩ = 𝑎𝑧1 𝑤̄ 1 + 𝑏𝑧1 𝑤̄ 2 + 𝑐𝑧2 𝑤̄ 1 + 𝑑𝑧2 𝑤̄ 2

defina um produto interno em ℂ2 .


3. Considere o produto interno ⟨⋅, ⋅⟩ definido no Exercício 6.6. Sejam 𝒖 = (3, 4) e 𝒗 = (1, 5)
vetores do ℝ2 . Calcule ⟨𝒖, 𝒗⟩, bem como ‖𝒖‖.
4. Seja ‖ ⋅ ‖𝛼 uma norma no espaço ℝ𝑛 . Mostre que ‖0‖𝛼 = 0.
5. Considere a norma da soma no espaço ℝ𝑛 , como no Exemplo 6.9. Mostre que não existe um
produto interno ⟨⋅, ⋅⟩ definido no ℝ𝑛 de modo que ⟨𝒙, 𝒙⟩ = ‖𝒙‖2 para todo 𝒙 ∈ ℝ𝑛 .
6.7. EXERCÍCIOS 131

6. Seja ⟨⋅, ⋅⟩ um produto interno no ℝ𝑛 . Demonstre a desigualdade de Cauchy-Bunyakowsky-


Schwarz da seguinte maneira: para 𝒙, 𝒚 ∈ ℝ𝑛 , desenvolva a expressão 0 ≤ ⟨𝒙 − 𝛼𝑡𝒚, 𝒙 − 𝛼𝑡𝒚⟩.
Escolhendo 𝛼 = ⟨𝒙, 𝒚⟩, obtenha um trinômio do segundo grau com coeficientes reais. Analise
esse trinômio e obtenha a desigualdade de Cauchy-Bunyakowsky-Schwarz.
7. Sejam 𝒙 = (1, 1, 1) e 𝒚 = (1, 2, 3) vetores do ℝ3 considerado com seu produto interno canô-
nico. Calcule proj𝒙 𝒚.
8. Sejam 𝒙 = (4, −1, 2) e 𝒚 = (2, −1, 3) vetores do ℝ3 considerado com seu produto interno
canônico. Escreva 𝒚 = 𝛼𝒙 + 𝒘, com 𝛼 ∈ ℝ e 𝒘 ortogonal a 𝒙.
9. Considere o espaço 𝐶([0, 2𝜋], ℝ) com o produto interno
2𝜋
⟨𝒇 , 𝒈⟩ = 𝒇 (𝑡)𝒈(𝑡) d𝑡.
∫0

(Veja o Exemplo 6.5.)


(a) Mostre que ⟨⋅, ⋅⟩ define um produto interno em 𝐶([0, 2𝜋], ℝ);
(b) Para 𝒇𝑚 (𝑡) = cos 𝑚𝑡 (𝑚 ∈ {0, 1, 2, …} e 𝒈𝑘 (𝑡) = sen 𝑘𝑡 (𝑘 ∈ ℕ), verifique que

⟨f𝑚 , g𝑘 ⟩ = 0, ⟨𝒇𝑚 , 𝒇𝑛 ⟩ = 0, se 𝑚 ≠ 𝑛, e ⟨𝒈𝑘 , 𝒈𝑗 ⟩ = 0, se 𝑘 ≠ 𝑗.

10. Sejam 𝐸 um espaço com produto interno ⟨⋅, ⋅⟩ e ‖ ⋅ ‖ a norma por ele gerada. Mostre que, se
𝐸 for um espaço real, então
1
⟨𝒙, 𝒚⟩ = ‖𝒙 + 𝒚‖2 − ‖𝒙 − 𝒚‖2 ) .
4(
Por outro lado, se 𝐸 for um espaço complexo, então
1 1 𝑖 𝑖
⟨𝒙, 𝒚⟩ = ‖𝒙 + 𝒚‖2 − ‖𝒙 − 𝒚‖2 + ‖𝒙 + 𝑖𝒚‖2 − ‖𝒙 − 𝑖𝒚‖2 .
4 4 4 4
Essas igualdades são conhecidas como identidade de polarização. Para obtê-las, em cada
caso desenvolva o lado esquerdo da igualdade.
11. Sejam 𝒖 = (2, −1, 𝛼) e 𝒗 = (1, 3, 2). Para que valor de 𝛼 os vetores 𝒖 e 𝒗 são ortogonais com
relação ao produto interno canônico do ℝ3 ?
12. Considere a base ortogonal do ℝ3 definida no Exemplo 6.19. Dado o vetor 𝒙 = (𝑥1 , 𝑥2 , 𝑥3 ),
obtenha as coordenadas de 𝒙 nessa base.
13. Considere o espaço ℝ3 com seu produto interno canônico e o plano 𝜋 dado por 𝑥1 + 𝑥2 + 𝑥3 =
0.
(a) Encontre uma base ortonormal ℬ para 𝜋.
(b) Complete essa base de modo a obter uma base ortonormal para o espaço ℝ3 .
14. Considere o conjunto ℬ = {𝒗1 , 𝒗2 , 𝒗3 , 𝒗4 }, em que

𝒗1 = (1, −2, 2, −3), 𝒗2 = (2, −3, 2, 4), 𝒗3 = (2, 2, 1, 0)

e
𝒗4 = (5, −2, −6, −1).
Seja 𝒙 = (1, 1, 1, 1).
(a) Mostre que ℬ é uma base ortogonal do ℝ4 considerado com seu produto interno canô-
nico;
132 CAPÍTULO 6. PRODUTO INTERNO

(b) Escreva 𝒙 como combinação linear dos elementos de ℬ.


15. Seja {𝒗1 , … , 𝒗𝑘 } uma base ortonormal do subespaço 𝑉 ⊂ ℝ𝑛 . Dados 𝒖, 𝒗 ∈ 𝑉, mostre que

⟨𝒖, 𝒗⟩ = ⟨𝒖, 𝒗1 ⟩ ⟨𝒗, 𝒗1 ⟩ + ⟨𝒖, 𝒗2 ⟩ ⟨𝒗, 𝒗2 ⟩ + … + ⟨𝒖, 𝒗𝑘 ⟩ ⟨𝒗, 𝒗𝑘 ⟩.

16. Escreva o vetor (1, 3) ∈ ℝ2 como combinação linear dos vetores 𝒗1 = (1/√2, 1/√2) e
𝒗2 = (−1/√2, 1/√2).

17. Com ℝ4 considerado com seu produto interno canônico, encontre uma base ortonormal para
o subespaço

𝑊 = {𝒙 = (𝑥1 , 𝑥2 , 𝑥3 , 𝑥4 ) ∈ ℝ4 ∶ 𝑥1 − 𝑥2 − 2𝑥3 + 𝑥4 = 0}.

18. Seja 𝑉 = < 𝒗1 , 𝒗2 , 𝒗3 >, em que 𝒗1 = (1, 0, 0, −1), 𝒗2 = (2, 2, −2, 0) e 𝒗3 = (0, 1, 0, 2).
Determine uma base ortonormal para 𝑉.
19. Considere a base {𝒗1 = (1, 1, 1), 𝒗2 = (1, 2, 3), 𝒗3 = (1, 1, 0)} ⊂ ℝ3 . Aplique o processo de
ortogonalização de Gram-Schmidt a esses vetores e obtenha uma base ortonormal ℬ do ℝ3
com relação ao seu produto interno canônico, tendo 𝒗1 /‖𝒗1 ‖ como o primeiro vetor de ℬ.
20. Considere os vetores 𝒗1 = (1, 1, 1, 1) e 𝒗2 = (1, 1, −1, −1). Sejam 𝑊 = < 𝒗1 , 𝒗2 > o espaço
gerado por 𝒗1 e 𝒗2 e 𝒙 = (1, 2, 0, −2). Calcule proj𝑊 𝒙.
21. Sejam ℬ = {𝒗1 , … , 𝒗𝑘 } uma base ortonormal do subespaço 𝑊 ⊂ ℝ𝑛 e 𝒗 ∈ ℝ𝑛 um vetor
arbitrário. Suponha que 𝒗 = 𝑐1 𝒗1 + … + 𝑐𝑘 𝒗𝑘 . Mostre a desigualdade de Bessel:

𝑐12 + … + 𝑐𝑘2 ≤ ‖𝑣‖2 .

22. Considere ℝ4 com seu produto interno canônico. Seja 𝑊 = < 𝒘 >, em que 𝒘 = (1, 1, 2, 3).
Calcule uma base ortonormal para 𝑊 ⟂ .
23. Seja 𝑊 o subespaço gerado pelos vetores 𝒘1 = (4, 0, −3) e 𝒘2 = (0, 1, 0). Escreva o vetor
𝒙 = (1, 2, 3) na forma 𝒙 = 𝒘 + 𝒛 com 𝒘 ∈ 𝑊 e 𝒛 ∈ 𝑊 ⟂ .
24. Seja 𝑊 ⊂ ℝ𝑛 um subespaço tal que 𝑊 ⟂ = {0}. Mostre que 𝑊 = ℝ𝑛 .
25. Suponha que 𝒗 seja ortogonal aos vetores 𝒗𝑖 , 1 ≤ 𝑖 ≤ 𝑘. Mostre que 𝒗 é ortogonal ao
subespaço < 𝒗1 , … , 𝒗𝑘 >.
26. Suponha que ℝ𝑛 = 𝑊 + 𝑉 e 𝑉 ⊂ 𝑊 ⟂ . Mostre que 𝑉 = 𝑊 ⟂ .
27. Sejam 𝒗 ∈ ℝ𝑛 um vetor arbitrário e 𝑊 um subespaço. Mostre que

‖𝒗 − proj𝑊 𝒗‖ ≤ ‖𝒗 − 𝒘‖

para todo 𝒘 ∈ 𝑊. Assim, proj𝑊 𝒗 é o vetor de 𝑊 “mais próximo” do vetor 𝒗.


28. Sejam ⟨⋅, ⋅⟩ um produto interno no espaço 𝐸 e 𝑊 ⊂ 𝐸 um subespaço de dimensão 𝑚. Mostre
que proj𝑊 ∶ 𝐸 → 𝑊 é uma aplicação linear.
29. Sejam 𝒗1 = (2, 1, 2, 1, 1) e 𝒗2 = (−1, 2, 1, 2, 1). Sejam 𝑉 ⊂ ℝ5 o subespaço gerado por esses
vetores e 𝒗 = (1, 2, 3, 4, 6). Encontre o vetor 𝒘 ∈ 𝑊 que minimiza ‖𝒗 − 𝒘‖.
Capítulo 7

Diagonalização

Objetivos: No final do capítulo o aluno deve:


1. saber caracterizar operadores diagonalizáveis em termos de seus au-
tovetores;
2. saber encontrar, quando possível, a representação diagonal de um
operador linear em um espaço de dimensão finita;
3. saber encontrar uma base ortonormal que diagonaliza uma matriz si-
métrica.

7.1 Subespaços Invariantes


Dada uma aplicação linear 𝑇 ∶ 𝑋 → 𝑌 entre espaços de dimensão finita,
a escolha de bases ℬ no domínio e 𝒞 no contradomínio pode fazer com que
𝒞
a representação matricial 𝑇ℬ se torne bastante simples (veja a Observação
5.23. Mas essa simplicidade pode ter um preço: desprezar informações
importantes fornecidas por 𝑇.
Aqui, sendo 𝑋 um espaço de dimensão finita, restringiremos nossa aten-
ção à obtenção de uma representação matricial simples do operador 𝑇 ∶ 𝑋 →
𝑋, representação essa que contenha informações importantes fornecidas por
𝑇. Para isso, consideraremos uma única base ℬ, utilizada tanto no domínio
quanto no contradomínio, e tentaremos obter uma forma simples para 𝑇ℬ .
Dependendo de nossos objetivos, existem várias maneiras para se fazer
isso. Neste texto restringiremos nossa atenção a operadores que podem ser
representados por uma matriz diagonal. Embora não seja válida para todos
os operadores lineares, a representação diagonal de um operador é muito
importante.
Definição 7.1 Seja 𝑇 ∶ 𝑋 → 𝑋 um operador linear e 𝑊 um subespaço.
Dizemos que 𝑊 é invariante por 𝑇 se 𝑇 (𝑊 ) ⊂ 𝑊.
Note que, se 𝑊 ⊂ 𝑋 for invariante por 𝑇, podemos considerar a restri-
ção 𝑇 |𝑊 , isto é, a aplicação 𝑇 ∶ 𝑊 → 𝑊.
Exemplo 7.2 Suponhamos que, para alguma aplicação linear 𝑇 ∶ 𝑋 → 𝑋,
tenhamos 𝑇 𝒗 = 𝜆𝒗, para 𝒗 ∈ 𝑋 e 𝜆 ∈ 𝕂. Considere 𝑊 = < 𝒗 >, o espaço
gerado por 𝒗. Se 𝒘 ∈ 𝑊, então 𝒘 = 𝜇𝒗 para algum escalar 𝜇 ∈ 𝕂. Como
𝑇 (𝜇𝒗) = 𝜇𝑇 𝒗 = (𝜇𝜆)𝒗 ∈ 𝑊, vemos que 𝑊 é invariante por 𝑇. ⊲

133
134 CAPÍTULO 7. DIAGONALIZAÇÃO

O próximo resultado é bastante importante:

Proposição 7.3 Sejam 𝐸 um espaço com produto interno de dimensão fi-


nita e 𝑇 ∶ 𝐸 → 𝐸 um operador autoadjunto. Se o subespaço 𝑊 ⊂ 𝐸 for
invariante por 𝑇, então 𝑊 ⟂ também é invariante por 𝑇.

Demonstração: Sejam 𝒙 ∈ 𝑊 e 𝒚 ∈ 𝑊 ⟂ . Então 0 = ⟨𝑇 𝒙, 𝒚⟩ = ⟨𝒙, 𝑇 𝒚⟩.


Assim, 𝑇 𝒚 é perpendicular a 𝒙 para todo 𝒙 ∈ 𝑊, quer dizer, 𝑇 𝒚 ∈ 𝑊 ⟂ ,
para todo 𝒚 ∈ 𝑊 ⟂ . 

7.2 Autovalores e Autovetores


Definição 7.4 Duas matrizes 𝐴 e 𝐵 são semelhantes, se existir uma matriz
invertível 𝑃 tal que 𝐵 = 𝑃 −1 𝐴𝑃.

Lema 7.5 Matrizes semelhantes possuem o mesmo determinante.

Demonstração: Se 𝐵 = 𝑃 −1 𝐴𝑃, então (veja a Seção ??)

det 𝐵 = det(𝑃 −1 𝐴𝑃 ) = det 𝑃 −1 det 𝐴 det 𝑃 = det 𝐴 det(𝑃 −1 𝑃 )


= det 𝐴 det I = det 𝐴.

(Observe que, na segunda igualdade, estamos no corpo 𝕂, que é comuta-


tivo.) 

Exercício 7.1 Sejam ℬ e ℬ ′ duas bases do espaço vetorial de dimensão finita 𝑋. Dada o operador
linear 𝑇 ∶ 𝑋 → 𝑋, verifique que as matrizes 𝑇ℬ e 𝑇ℬ ′ são semelhantes.
O exercício anterior torna possível a seguinte definição:

Definição 7.6 Seja 𝑇 ∶ 𝑋 → 𝑋 um operador linear. Definimos



det 𝑇 = det 𝑇ℬ = det 𝑇ℬ ,

em que ℬ é qualquer base do espaço 𝑋.

Exemplo 7.7 Considere o operador linear 𝑇 ∶ ℝ2 → ℝ2 definido por

𝑇 (𝑥1 , 𝑥2 ) = (2𝑥1 + 3𝑥2 , 4𝑥1 − 5𝑥2 ).

(Verifique que 𝑇 é linear.) Para obter det 𝑇, escolhemos uma base ℬ e en-
contramos a matriz 𝑇ℬ . Por exemplo, escolhendo a base canônica ℰ, temos
(verifique!)
2 3
𝑇ℰ =
( 4 −5 )
e det 𝑇ℰ = −22. Mas, se ℬ = {𝒗1 = (1, 2), 𝒗2 = (2, 5)}, então (verifique!)

52 129
𝑇ℬ = ,
( −22 −55 )

de modo que det 𝑇ℬ = −22, como previsto. ⊲


7.2. AUTOVALORES E AUTOVETORES 135

Definição 7.8 Seja 𝑇 ∶ 𝑋 → 𝑋 um operador linear sobre o corpo 𝕂. O


polinômio
𝑝(𝜆) = det(𝜆I − 𝑇 )
é o polinômio característico de 𝑇. As raízes 𝜆𝑖 ∈ 𝕂 desse polinômio são
os autovalores de 𝑇. Os elementos não nulos de ker(𝜆𝑖 I − 𝑇 ) são os auto-
vetores associados ao autovalor 𝜆𝑖 , ou simplesmente autovetores de 𝑇. O
autoespaço 𝑋𝜆𝑖 associado ao autovalor 𝜆𝑖 é definido por

𝑋𝜆𝑖 = ker(𝜆𝑖 I − 𝑇 ) = {𝒙 ∈ 𝑋 ; (𝜆𝑖 I − 𝑇 )𝒙 = 0} .

Alguns comentários são pertinentes. Exigimos que um autovetor seja


não nulo: se aceitássemos 0 como um autovetor, como 𝑇0 = 𝜆0 para todo
𝜆 ∈ 𝕂, teríamos que concluir que qualquer escalar 𝜆 seria um autovalor.
Dizer que 𝜆𝑖 ∈ 𝕂 é um autovalor de 𝑇 é garantir a existência de 𝒗 ≠ 0 no
espaço 𝑋 tal que 𝑇 𝒗 = 𝜆𝑖 𝒗 ou, o que é o mesmo, (𝜆𝑖 I−𝑇 )𝒗 = 0. Assim, um
autovetor associado ao autovalor 𝜆𝑖 ∈ 𝕂 é um vetor não nulo pertencente a
ker(𝜆𝑖 I − 𝑇 ) ⊂ 𝑋, ou, o que é o mesmo, um vetor não nulo pertencente ao
autoespaço 𝑋𝜆𝑖 .
Existe um vetor não nulo 𝒗 tal que (𝜆𝑖 I − 𝑇 )𝒗 = 0 se, e somente se, o
operador (𝜆𝑖 I−𝑇 ) ∶ 𝑋 → 𝑋 não possuir inversa. Como está bem definido o
determinante de um operador (Definição 7.6), devemos ter det(𝜆𝑖 I−𝑇 ) = 0.
A expressão 𝑝(𝜆) = det(𝜆I − 𝑇 ) define um polinômio mônico1 de grau 𝑛
na variável 𝜆. Segundo o Teorema Fundamental da Álgebra, um polinômio
de grau 𝑛 com coeficientes no corpo ℂ (e, portanto, também no corpo ℝ)
possui exatamente 𝑛 raízes complexas, contada a multiplicidade da raiz.2
Assim, a busca de autovalores e autovetores para o operador 𝑇 parte da aná-
lise do polinômio característico de 𝑇, já que suas raízes são os autovalores
de 𝑇. Assim, de acordo com o Teorema Fundamental da Álgebra, a teoria
de autovalores e autovetores é melhor desenvolvida quando o corpo de esca-
lares é o corpo dos complexos e não o corpo dos reais. Veja, a esse respeito,
o Exemplo 7.14.
É claro que se 𝒗 ∈ 𝑋 for um autovetor de 𝑇 associado ao autovalor
𝜆𝑖 ∈ 𝕂, então qualquer múltiplo escalar não nulo de 𝒗 continua sendo um
autovetor associado a 𝜆𝑖 . De fato, se 𝒘 = 𝜇𝒗 para algum escalar 𝜇 ≠ 0,
então
𝑇 𝒘 = 𝑇 (𝜇𝒗) = 𝜇𝑇 𝒗 = 𝜇(𝜆𝑖 𝒗) = 𝜆𝑖 (𝜇𝒗) = 𝜆𝑖 𝒘,
mostrando o afirmado.
Mas ao mesmo autovalor 𝜆𝑖 ∈ 𝕂 podem estar associados autovetores
𝒗, 𝒘 linearmente independentes. Um exemplo simples é dado pelo opera-
dor identidade I ∶ 𝕂𝑛 → 𝕂𝑛 , I𝒙 = 𝒙 para todo 𝒙. É fácil verificar que
qualquer vetor 0 ≠ 𝒙 ∈ 𝕂𝑛 é um autovetor associado ao autovalor 𝜆1 = 1.
Em particular, a base canônica é formada por autovetores associados ao au-
tovalor 𝜆1 = 1.
Podemos interpretar que um autovetor 𝒗 de 𝑇 define uma direção privi-
legiada do operador 𝑇: pontos na reta determinada por 𝒗 são levados por 𝑇
à essa mesma reta. Se tivermos dois autovetores linearmente independentes
1
Isto é, o coeficiente do termo de maior grau é igual a 1.
2
Esse é o caso, por exemplo, do polinômio (de grau 𝑛) 𝑝(𝜆) = (𝜆 − 3)𝑛−2 (𝜆 − 𝑖)2 .
136 CAPÍTULO 7. DIAGONALIZAÇÃO

associados ao mesmo autovalor 𝜆, então pontos do plano determinado por


esses dois autovetores serão levados nesse mesmo plano e assim por diante.
Os próximos exercícios agrupam propriedades do polinômio caracterís-
tico:

Exercício 7.2 Seja 𝐴 uma matriz 𝑛 × 𝑛. Mostre que: det(𝜆I − 𝐴) é um polinômio mônico de grau
𝑛 na variável 𝜆.
Exercício 7.3 Sejam 𝑋 um espaço de dimensão finita e 𝑇 ∶ 𝑋 → 𝑋 um operador linear. Mostre
que det(𝜆I − 𝑇 ) = det(𝜆I − 𝑇 )ℬ para qualquer base ℬ do espaço 𝑋, adaptando a demonstração do
Lema 7.5.
Exercício 7.4 Se 𝑇 ∶ 𝑋 → 𝑋 for um operador e dim 𝑋 = 𝑛, mostre que

det(𝑇 − 𝜆I) = (−1)𝑛 det(𝜆I − 𝑇 ).

O Exercício 7.3 enfatiza que, para calcular os autovalores de um ope-


rador 𝑇 ∶ 𝑋 → 𝑋 definido no espaço de dimensão finita 𝑋, basta escolher
uma base ℬ de 𝑋 e calcular o polinômio característico da representação
matricial 𝑇ℬ de 𝑇. (Isso já estava afirmado na Definição 7.6.)
Se dim 𝑋 = 𝑛, como o polinômio característico do operador 𝑇 ∶ 𝑋 →
𝑋 é especialmente importante por causa de suas raízes, é usual chamar de
polinômio característico de 𝑇 também ao polinômio det(𝑇 − 𝜆I), pois esse
possui as mesmas raízes de det(𝜆I − 𝑇 ), de acordo com o Exercício 7.4.

Exemplo 7.9 Considere 𝑇 ∶ ℝ4 → ℝ4 definida por

𝑇 (𝑥1 , 𝑥2 , 𝑥3 , 𝑥4 ) = (3𝑥1 −4𝑥2 +𝑥3 +𝑥4 , 2𝑥1 −6𝑥2 +2𝑥3 +2𝑥4 , 2𝑥3 +2𝑥4 , 𝑥3 +3𝑥4 ).

A representação de 𝑇 na base canônica do ℝ4 é dada por

⎛3 −4 1 1 ⎞ ⎛𝜆 − 3 4 −1 −1 ⎞
⎜2 −6 2 2 ⎟ ⎜ −2 𝜆 + 6 −2 −2 ⎟
𝑇ℰ = ⎜ ⇒ (𝜆I − 𝑇 )ℰ = ⎜
0 0 2 2⎟ 0 0 𝜆 − 2 −2 ⎟
⎜ ⎟ ⎜ ⎟
⎝0 0 1 3⎠ ⎝ 0 0 −1 𝜆 − 3⎠

que é uma matriz diagonal em blocos, com blocos diagonais

𝜆−3 4 𝜆 − 2 −2
𝜆I − 𝐴 = e 𝜆I − 𝐷 = .
( −2 𝜆 + 6) ( −1 𝜆 − 3)

Como sabemos do Teorema 3.18, o determinante da matriz (𝜆I − 𝑇 )ℰ é


obtido como o produto dos determinantes das matrizes (𝜆I − 𝐴) e (𝜆I − 𝐷).
Assim, vemos que o polinômio característico de 𝑇 é 𝑝(𝜆) = det(𝜆I − 𝑇 ) com

𝑝(𝜆) = det(𝜆I − 𝑇 ) = det(𝜆I − 𝑇 )ℰ


= det(𝜆I − 𝐴) det(𝜆I − 𝐷)
= (𝜆2 + 3𝜆 − 10)(𝜆2 − 5𝜆 + 4)
= (𝜆 − 2)(𝜆 + 5)(𝜆 − 1)(𝜆 − 4).

Desse modo, os autovalores de 𝑇 são −5, 1, 2 e 4. ⊲


7.3. AUTOVETORES E DIAGONALIZAÇÃO 137

Exercício 7.5 Encontre os autovetores do operador 𝑇 apresentado no Exemplo 7.9.


Exercício 7.6 Encontre os autovalores e autovetores da matriz

⎛1 1 1 1⎞
⎜0 2 3 4⎟
𝐴=⎜ .
0 0 3 3⎟
⎜ ⎟
⎝0 0 0 4⎠

Exemplo 7.10 Considere 𝑇 ∶ 𝕂2 → 𝕂2 definida por


𝑇 (𝑥1 , 𝑥2 ) = (−𝑥2 , 𝑥1 ).
A representação de 𝑇 com relação à base canônica do 𝕂𝑛 é dada por
0 −1
𝑇ℰ = 𝐴 = ,
(1 0)

de modo que det(𝐴 − 𝜆I) = 𝜆2 + 1, pois


−𝜆 −1
(𝐴 − 𝜆I) = .
( 1 −𝜆)
Agora precisamos considerar dois casos distintos: se estivermos traba-
lhando no corpo dos reais (isto é, 𝕂 = ℝ), 𝜆2 + 1 = 0 não tem solução e 𝐴
(e, portanto 𝑇) não possui autovalores.
Por outro lado, no corpo dos complexos (isto é, 𝕂 = ℂ), 𝜆2 + 1 = 0
implica 𝜆 = ±𝑖 e 𝐴 (e, portanto, 𝑇) possui dois autovalores distintos.
Em outras palavras, os casos em que 𝕂 = ℝ e 𝕂 = ℂ são completamente
distintos. No caso real, não existem autovalores e, portanto, autovetores. ⊲

7.3 Autovetores e Diagonalização


Definição 7.11 Um operador linear 𝑇 ∶ 𝑋 → 𝑋 no espaço de dimensão
finita 𝑋 é diagonalizável se existir uma base
ℬ = {𝒗 1 , 𝒗 2 , … , 𝒗 𝑛 }
de 𝑋 de modo que 𝑇ℬ seja uma matriz diagonal.

Mostraremos condições para que um operador linear 𝑇 ∶ 𝑋 → 𝑋 seja


diagonalizável.

Teorema 7.12 Seja 𝑋 um espaço de dimensão 𝑛. Uma aplicação linear


𝑇 ∶ 𝑋 → 𝑋 é diagonalizável se, e somente se, existir uma base ℬ do espaço
𝑋 formada por autovetores de 𝑇.

Demonstração: Suponhamos que 𝑇 seja diagonalizável, isto é, seja ℬ =


{𝒗1 , … , 𝒗𝑛 } uma base de 𝑋 tal que 𝑇ℬ seja uma matriz diagonal (não esta-
mos supondo que os 𝜆𝑖 sejam autovalores e nem mesmo que sejam distin-
tos!):
⎛𝜆1 0 ⋯ 0 ⎞
⎜ 0 𝜆2 ⋯ 0 ⎟
𝑇ℬ = 𝐷 = ⎜ .
⋮ ⋮ ⋱ ⋮⎟
⎜ ⎟
⎝ 0 0 ⋯ 𝜆𝑛 ⎠
138 CAPÍTULO 7. DIAGONALIZAÇÃO

De acordo com a equação (5.4), temos


[𝑇 𝒗𝑖 ]ℬ = 𝑇ℬ [𝒗𝑖 ]ℬ = 𝐷𝒆𝑖 = 𝜆𝑖 𝒆𝑖 .
Isso quer dizer que
𝑇 𝒗𝑖 = 0𝒗1 + … + 𝜆𝑖 𝒗𝑖 + … + 0𝒗𝑛 ,
mostrando que os vetores 𝒗𝑖 são autovetores de 𝑇, pois 𝑇 𝒗𝑖 = 𝜆𝑖 𝒗𝑖 e 𝒗𝑖 ≠
{0}.
A recíproca decorre imediatamente de 𝑇 𝒗𝑖 = 𝜆𝑖 𝒗𝑖 para todo 𝒗𝑖 ∈ ℬ,
pois 𝑇ℬ = 𝐷. 

Observação 7.13 Observe que o ordenamento dos vetores da base ℬ está


ligado ao ordenamento dos autovalores da matriz diagonal 𝐷. Isto é, se
𝒗𝑖 é o 𝑖-ésimo vetor da base ℬ, então seu autovalor 𝜆𝑖 é a 𝑖-ésima entrada
diagonal da matriz 𝐷. ⊲

Exemplo 7.14 (Continuação do Exemplo 7.10) Continuando no caso 𝕂 =


ℂ, podemos calcular os autovetores associados aos autovalores 𝜆 = ±𝑖. Re-
solvemos o sistema homogêneo (𝐴 − 𝜆I)𝒙 = 0 ao obtermos a forma escalo-
nada reduzida por linhas da matriz 𝐴 − 𝜆I:
−𝑖 −1 1 −𝑖
(𝐴 − 𝑖I) = → .
( 1 −𝑖) (0 0)
(Observe que deve existir apenas um pivô na forma escalonada procurada,
o que em alguns casos simplifica as contas.)
Denotando 𝒙 = (𝑥1 𝑥2 )𝒕 , então 𝑥1 = 𝑖𝑥2 , de modo que a solução geral
desse sistema homogêneo é dada por
𝑖𝑥2 𝑖
= 𝑥2 .
( 𝑥2 ) (1)

Quer dizer, (𝑖 1)𝒕 é um autovetor associado a 𝜆 = 𝑖.


Considerando agora o autovalor 𝜆 = −𝑖, cálculos análogos nos dão
𝑖 −1 1 𝑖
(𝐴 + 𝑖I) = →
(1 𝑖) (0 0)
e a solução geral do sistema homogêneo associado é dada por
−𝑖𝑥2 −𝑖
= 𝑥2 .
( 𝑥2 ) ( 1)

Quer dizer, (−𝑖 1)𝒕 é um autovetor associado a 𝜆 = 𝑖.


Considerando a base ordenada ℬ = {(𝑖 1)𝒕 , (−𝑖 1)𝒕 }, então a re-
presentação de 𝑇 na base ℬ é a matriz diagonal
𝑖 0
𝑇ℬ = .
(0 −𝑖)
Em outras palavras, na base formada por seus autovetores, 𝑇 é representado
por uma matriz bastante simples. Note que a primeira entrada da matriz
diagonal corresponde ao primeiro autovetor da base ℬ. ⊲
7.3. AUTOVETORES E DIAGONALIZAÇÃO 139

Mas como garantir que o espaço 𝑋 tenha uma base formada por auto-
vetores de 𝑇 ∶ 𝑋 → 𝑋? Vamos mostrar que isso ocorre se 𝑋 for um espaço
de dimensão 𝑛 e se forem distintos todos os autovalores de 𝑇 ∶ 𝑋 → 𝑋.
Teorema 7.15 Se 𝒗𝑖 , 1 ≤ 𝑖 ≤ 𝑘, for um autovetor do operador linear
𝑇 ∶ 𝑋 → 𝑋 associado ao autovalor 𝜆𝑖 ∈ 𝕂, e se 𝜆𝑖 ≠ 𝜆𝑗 para 𝑖 ≠ 𝑗,
então o conjunto {𝒗1 , … , 𝒗𝑘 } é linearmente independente.
Demonstração: Faremos indução no número 𝑘 de elementos do conjunto
{𝒗1 , … , 𝒗𝑘 }. Se 𝑘 = 1, o resultado é óbvio. Suponhamos verdadeiro para
𝑘 − 1 vetores e consideremos o caso de 𝑘 vetores. Se

𝛼1 𝒗1 + 𝛼2 𝒗2 + … + 𝛼𝑘 𝒗𝑘 = 0, (7.1)

aplicando 𝑇 em (7.1), obtemos

𝛼1 𝑇 𝒗1 + 𝛼2 𝑇 𝒗2 + … + 𝛼𝑘 𝑇 𝒗𝑘 = 0.

Mas 𝑇 𝒗𝑖 = 𝜆𝑖 𝒗𝑖 . Assim,

𝛼1 𝜆1 𝒗1 + … + 𝛼𝑘 𝜆𝑘 𝒗𝑘 = 0.

Por outro lado, multiplicando (7.1) por 𝜆𝑘 , vem

𝛼1 𝜆𝑘 𝒗1 + 𝛼2 𝜆𝑘 𝒗2 + … + 𝛼𝑘 𝜆𝑘 𝒗𝑘 = 0.

Subtraindo essas duas últimas equações, concluímos que

𝛼1 (𝜆1 − 𝜆𝑘 )𝒗1 + 𝛼2 (𝜆2 − 𝜆𝑘 )𝒗2 + … + 𝛼𝑘−1 (𝜆𝑘−1 − 𝜆𝑘 )𝒗𝑘−1 = 0.

Como 𝜆𝑖 − 𝜆𝑘 ≠ 0 para todo 𝑖 = 1, … , 𝑘 − 1, e conjunto

{(𝜆1 − 𝜆𝑘 )𝒗1 , … , (𝜆𝑘−1 − 𝜆𝑘 )𝒗𝑘−1 }

é linearmente independente, a hipótese de indução garante que 𝛼𝑖 = 0 para


𝑖 ∈ {1, … , 𝑘 − 1}. Levando em (7.1), concluímos que 𝛼𝑘 = 0 e, portanto,
{𝒗1 , … , 𝒗𝑘 } é linearmente independente. 

Corolário 7.16 Seja 𝑋 um espaço de dimensão 𝑛. Se o operador linear


𝑇 ∶ 𝑋 → 𝑋 possuir polinômio característico com 𝑛 raízes distintas, então
𝑋 possui uma base ℬ formada por autovetores de 𝑇. A aplicação 𝑇 repre-
sentada na base ℬ é uma matriz diagonal, sendo os elementos da diagonal
principal os autovalores de 𝑇.

Recordamos o caso do operador I ∶ 𝕂𝑛 → 𝕂𝑛 . Apenas 1 é autovalor


de I. Contudo, qualquer que seja a base tomada do espaço 𝕂𝑛 , a represen-
tação de I nessa base será a matriz identidade. Assim, existem operadores
diagonalizáveis que não satisfazem o Corolário 7.16.
É fácil dar exemplos de operadores que não são diagonalizáveis.
Exemplo 7.17 Consideremos o operador 𝑇 ∶ ℂ2 → ℂ2 , cuja representação
matricial na base canônica do ℂ2 é
0 1
𝐴= .
(0 0)
140 CAPÍTULO 7. DIAGONALIZAÇÃO

O polinômio característico de 𝐴 (e de 𝑇) é 𝑝(𝜆) = 𝜆2 , de modo que seu


único autovalor é 𝜆0 = 0. Este autovalor de 𝐴 está associado a um único
autovetor linearmente independente: 𝐴𝒆1 = 0𝒆1 . Pelo Teorema 7.12, não
existe uma base ℬ de ℂ2 na qual 𝐴 assuma uma representação diagonal. ⊲

Exemplo 7.18 Considere a aplicação linear 𝑇 ∶ ℝ2 → ℝ2 definida por

𝑇 (𝑥1 , 𝑥2 ) = (3𝑥1 − 4𝑥2 , , 2𝑥1 − 6𝑥2 ),

cuja representação na base canônica ℰ do ℝ2 é

3 −4 𝜆−3 4
𝑇ℰ = ⇒ 𝜆I − 𝑇ℰ = (7.2)
(2 −6) ( −2 𝜆 + 6)

O polinômio característico de 𝑇 é o mesmo que o polinômio caracterís-


tico de 𝑇ℰ :

𝜆−3 4
𝑝(𝜆) = det(𝜆I − 𝑇 )ℰ = det = 𝜆2 + 3𝜆 − 10
( −2 𝜆 + 6)
= (𝜆 − 2)(𝜆 + 5).

Assim, os autovalores de 𝑇 são 𝜆1 = −5 e 𝜆2 = 2 e o Corolário 7.16


pode ser aplicado.
Substituindo 𝜆1 = −5 na expressão de 𝜆I − 𝑇ℰ dada por (7.2), obtemos
o sistema homogêneo representado matricialmente por

8 −4 𝑥1 0
= ,
(2 −1) (𝑥2 ) (0)

que conduz à forma escalonada reduzida por linhas

1 − 12
.
(0 0)

Assim, as soluções do sistema são dadas por

1/2
𝒖=𝜆 .
(1)

O autoespaço associado ao autovalor 𝜆1 = −5 é dado por

1/2
𝐸−5 = ker(−5I − 𝑇 ) = 𝒙 ∈ ℝ2 ∶ 𝒙 = 𝜆 , 𝜆∈ℝ .
{ (1) }

(Note que, tomando 𝜆 = 0, verificamos que 0 ∈ 𝐸−5 , mas 0 não é um


autovetor associado ao autovalor −5.)
Eliminando frações (ou tomando 𝜆 = 2, por exemplo), encontramos o
autovetor
1
𝒗1 = ,
(2)
que gera o autoespaço 𝐸−5 .
7.3. AUTOVETORES E DIAGONALIZAÇÃO 141

Do mesmo modo, considerando o autovalor 𝜆2 = 2, chegamos ao sis-


tema homogêneo cuja matriz na forma escalonada reduzida por linhas é
1 −4
,
(0 0)
de modo que suas soluções são dadas por
4
𝒘=𝜆 .
(1)
Assim, o autoespaço associado ao autovalor 𝜆2 = 2 é dado por

4
𝐸2 = ker(2I − 𝑇 ) = 𝒙 ∈ ℝ2 ∶ 𝒙 = 𝜆 , 𝜆∈ℝ ,
{ (1) }
que é gerado pelo vetor
4
𝒗2 = .
(1)

Ao tomarmos a base ℬ = {𝒗1 = (1 2)𝒕 , 𝒗2 = (4 1)𝒕 }, a represen-


tação de 𝑇 na base ℬ é
−5 0
𝐷= ,
( 0 2)

enquanto a matriz 𝑃 = 𝑃ℬ é dada por

ℰ 1 4
𝑃 = 𝑃ℬ = .
(2 1)

Verifique que 𝐷 = 𝑇ℬ = 𝑃 −1 𝑇ℰ 𝑃. ⊲

Exercício 7.7 Seja 𝑇 ∶ 𝕂2 → 𝕂2 definida por

𝑇 (𝑥1 , 𝑥2 ) = (2𝑥1 + 2𝑥2 , 𝑥1 + 3𝑥2 ).

Encontre uma base ℬ de modo que a representação de 𝑇 nessa base seja uma matriz diagonal.
Exercício 7.8 De acordo com o Corolário 7.16, o operador 𝑇 definido no Exemplo 7.9 é diagona-
lizável, pois possui 4 autovalores distintos. Você consegue encontrar uma base ℬ de modo que 𝑇ℬ
seja uma matriz diagonal, utilizando apenas os resultados do Exemplo 7.18 e do Exercício 7.7? Se
você não conseguir, ache diretamente a base procurada ℬ e compare seu resultado com aqueles do
Exemplo 7.18 e do Exercício 7.7.

Exercício 7.9 Considere a matriz


⎛ 4 1 −1 ⎞
𝐴 = ⎜ 2 5 −2 ⎟ .
⎜ ⎟
⎝1 1 2⎠
(a) Verifique que o polinômio característico de 𝐴 é 𝑝(𝜆) = 𝜆3 − 11𝜆2 + 39𝜆 − 45.
(b) Verifique que 𝜆 = 3 é uma das raízes do polinômio característico de 𝐴.3
3
Para tentar encontrar raízes inteiras de um polinômio mônico 𝑝(𝜆) com coeficientes
inteiros, devemos testar os divisores do coeficiente do termo de grau zero −45. Assim, uma
raiz de 𝑝(𝜆) deve ser procurada entre {±1, ±3, ±5, ±9, ±15, ±45}. Mas existem polinômios
com coeficientes inteiros que não possuem raiz inteira. Você consegue dar um exemplo?
142 CAPÍTULO 7. DIAGONALIZAÇÃO

(c) Encontre as raízes restantes de 𝑝(𝜆).


(d) Encontre autovetores 𝒗1 , 𝒗2 e 𝒗3 , cada um associado a uma dessas raízes.
(e) Responda: o conjunto {𝒗1 , 𝒗2 , 𝒗3 } é linearmente independente?
Exercício 7.10 Suponha que vetores 𝒗1 , 𝒗2 e 𝒗3 estejam associados, respectivamente, aos autova-
lores 1, 1 e 2. O conjunto {𝒗1 , 𝒗2 , 𝒗3 } é linearmente independente?
Exercício 7.11 O operador 𝑇 do Exemplo 7.9 é diagonalizável? E a matriz 𝐴 do Exercício 7.9?
Exercício 7.12 Seja
⎛ 1 3 3⎞
𝐴 = ⎜−3 −5 −3⎟ .
⎜ ⎟
⎝ 3 3 1⎠

(a) Mostre que 𝜆1 = 1 é um autovalor de 𝐴 e forneça uma base para o autoespaço associado a 𝜆1 .
Qual a dimensão desse autoespaço? (Observação: não é necessário calcular o polinômio
característico de 𝐴.)
(b) Verifique que os vetores 𝒗 = (−1, 1, 0) e 𝒗 = (−1, 0, 1) são autovetores de 𝐴. Eles correspon-
dem a quais autovalores? (Como antes, não é necessário calcular qualquer determinante.)
(c) A matriz 𝐴 é diagonalizável?

Exemplo 7.19 Consideremos a matriz 𝐴

2 2
𝐴=
(1 3)

Os autovalores da matriz 𝐴 são iguais a 𝜆 = 1 e 𝜆 = 4 (verifique!), o que


garante que a matriz 𝐴 é diagonalizável.
É fácil ver (2 −1)𝒕 é um autovetor associado a 𝜆 = 1, enquanto (1 1)𝒕
é um autovetor associado a 𝜆 = 4. Esses vetores são linearmente indepen-
dentes, seja por aplicação do Teorema 7.15, seja por inspeção direta. For-
mamos então a matriz 𝑃
2 1
𝑃 = ,
(−1 1)

cuja inversa é
1
− 13
𝑃 −1 = 3
.
(1 2
)
3 3

Temos que

1
1 0 − 13 2 2 2 1
= 𝑃 −1 𝐴𝑃 = 31 2
,
(0 4) ( ) (1 3) (−1 1)
3 3

como podemos verificar.


A forma 𝐴 = 𝑃 𝐷𝑃 −1 nos permite calcular potências da matriz 𝐴. Por
exemplo,
𝐴3 = (𝑃 𝐷𝑃 −1 )(𝑃 𝐷𝑃 −1 )𝑃 𝐷𝑃 −1 = 𝑃 𝐷3 𝑃 −1 ,
7.3. AUTOVETORES E DIAGONALIZAÇÃO 143

o que garante que


1
3 2 1 13 0 3
− 13
𝐴 =
(−1 1) ( 0 43 ) ( 1 2
)
3 3
1
2 1 3
− 13 22 42
= = .
(−1 1) ( 64 128
) (21 43)
3 3

Nesse exemplo, calculamos uma potência pequena de 𝐴: 𝐴3 . Mas ele mos-


tra como esse procedimento pode simplificar o cálculo de potências grandes
da matriz 𝐴. ⊲

Exemplo 7.20 Consideremos a matriz

⎛ 3 −2 4⎞
𝐴 = ⎜−2 6 2⎟ .
⎜ ⎟
⎝ 4 2 3⎠

Seu polinômio característico é

𝑝(𝜆) = 𝜆3 − 12𝜆2 + 21𝜆 + 98,

que pode ser fatorado como (verifique!)

𝑝(𝜆) = (𝜆 − 7)2 (𝜆 + 2).

Vamos mostrar que existem dois autovetores linearmente independentes,


𝒗1 e 𝒗2 , associados ao autovalor 𝜆 = 7 e um autovetor, 𝒗3 , associado
ao autovalor 𝜆 = −2. Como consequência do Teorema 7.15, o conjunto
ℬ = {𝒗1 , 𝒗2 , 𝒗3 } é linearmente independente (e, portanto, uma base de 𝕂3
formada por autovetores de 𝐴). De fato, basta notar que qualquer combina-
ção linear 𝛼1 𝒗1 + 𝛼2 𝒗2 ≠ 0 é um autovetor associado ao autovalor 𝜆 = 7
e, como consequência daquele teorema, {𝛼1 𝒗1 + 𝛼2 𝒗2 , 𝒗3 } é linearmente
independente. Daí decorre o afirmado.
Resolvendo o sistema homogêneo (𝐴 − 7I)𝒙 = 0, encontramos

⎛−4 −2 4⎞ ⎛𝑥1 ⎞ ⎛−1⎞ ⎛1⎞



(𝐴 − 7I) = −2 −1 2⎟ → ⎜𝑥2 ⎟ = 𝛼 ⎜ 2⎟ + 𝛽 ⎜0⎟ ,
⎜ ⎟ ⎜ ⎟ ⎜ ⎟ ⎜ ⎟
⎝ 4 2 −4⎠ ⎝𝑥3 ⎠ ⎝ 0⎠ ⎝1⎠

que nos fornece os vetores 𝒗1 = (−1 2 0)𝒕 e 𝒗2 = (1 0 1)𝒕 .


Analogamente, encontramos o vetor 𝒗3 = (−2 −1 1)𝒕 .
Dessa forma, se ℬ = {𝒗1 , 𝒗2 , 𝒗3 } e ℰ a base canônica do ℝ3 , definindo

⎛−1 1 −2⎞ ⎛7 0 0⎞

𝑃 = 𝑃ℬ = ⎜ 2 0 −1⎟ e 𝐷 = 𝐴ℬ = ⎜0 7 0⎟ ,
⎜ ⎟ ⎜ ⎟
⎝ 0 1 1⎠ ⎝0 0 −2⎠
temos
𝐷 = 𝑃 −1 𝐴𝑃 . ⊲
144 CAPÍTULO 7. DIAGONALIZAÇÃO

Como veremos na sequência, a diagonalização da matriz 𝐴 (que é si-


métrica) pode ser feita ao se obter uma base ortonormal, o que simplifica
sobremaneira o cálculo da inversa da matriz 𝑃 (veja o Lema ??).

Exercício 7.13 Comprove as afirmações feitas no Exemplo 7.20.

Exemplo 7.21 Sem fazer cálculos, vamos encontrar uma base de autoveto-
res para a matriz
⎛1 1 1⎞
⎜1 1 1⎟ .
⎜ ⎟
⎝1 1 1⎠
É fácil ver que seu espaço coluna tem dimensão 1. Pelo Teorema do Nú-
cleo e da Imagem, ker 𝐴 tem dimensão 2. Isso quer dizer que 0 é autovalor
de 𝐴 e que existem dois autovetores associados ao autovalor 0.
Claramente ker 𝐴 é dado por

⎛𝑥⎞ ⎛−1⎞ ⎛ 0⎞
⎜𝑦⎟ = 𝑦 ⎜ 1⎟ + 𝑧 ⎜−1⎟ ,
⎜ ⎟ ⎜ ⎟ ⎜ ⎟
⎝𝑧⎠ ⎝ 0⎠ ⎝ 1⎠

o que nos fornece os autovetores 𝒗1 = (−1 1 0)𝒕 e 𝒗2 = (0 −1 1)𝒕 ,


que são linearmente independentes.
O terceiro autovetor é obtido ao notar que a soma de cada linha da matriz
𝐴 assume sempre o mesmo valor 3. Como consequência, a imagem do vetor
𝒗3 = (1 1 1)𝒕 pela matriz 𝐴 é igual a (3 3 3)𝒕 , o que implica que 𝒗3
é um autovetor de 𝐴 associado ao autovalor 3.
Claramente {𝒗1 , 𝒗2 , 𝒗3 } é uma base de 𝕂3 . ⊲

7.4 Diagonalização de Matrizes Autoadjuntas


Seja 𝐴 ∈ 𝕄𝑛×𝑛 (𝕂) uma matriz autoadjunta.

Lema 7.22 Sejam 𝐴 uma matriz autoadjunta. Então:

(𝑖) 𝐴 possui apenas autovalores reais;

(𝑖𝑖) autovetores correspondentes a autovalores distintos são ortogonais.

Demonstração: Como uma matriz, 𝐴 ∈ 𝕄𝑛×𝑛 (ℝ) pode multiplicar indi-


ferentemente vetores complexos; assim, podemos supor, sem perda de ge-
neralidade que 𝐴 ∈ 𝕄𝑛×𝑛 (ℂ). Consideremos então o espaço ℂ𝑛 com seu
produto interno canônico, isto é, o produto escalar. O Teorema Fundamen-
tal da Álgebra garante que 𝑇 possui autovalor 𝜆 ∈ ℂ. Seja 𝒖 ∈ ℂ𝑛 um
autovetor associado a esse autovalor. Então
̄ 𝒖⟩,
𝜆⟨𝒖, 𝒖⟩ = ⟨𝜆𝒖, 𝒖⟩ = ⟨𝐴𝒖, 𝒖⟩ = ⟨𝒖, 𝐴𝒖⟩ = ⟨𝒖, 𝜆𝒖⟩ = 𝜆⟨𝒖,
̄
de modo que (𝜆 − 𝜆)⟨𝒖, 𝒖⟩ = 0. Isso mostra que 𝜆 = 𝜆 ̄ e prova que todos os
autovalores de 𝐴 são reais.
7.4. DIAGONALIZAÇÃO DE MATRIZES AUTOADJUNTAS 145

Sejam 𝒖, 𝒗 autovetores associados aos autovalores distintos 𝜆, 𝜇 ∈ ℝ.


Quer dizer, 𝐴𝒖 = 𝜆𝒖 e 𝐴𝒗 = 𝜇𝒗, com 𝜆 ≠ 𝜇. Então
𝜆⟨𝒖, 𝒗⟩ = ⟨𝐴𝒖, 𝒗⟩ = ⟨𝒖, 𝐴𝒗⟩ = ⟨𝒖, 𝜇𝒗⟩ = 𝜇⟨𝒖, 𝒗⟩,
de modo que
(𝜆 − 𝜇)⟨𝒖, 𝒗⟩ = 0.
Como 𝜆 ≠ 𝜇, isso implica 𝒖 ⟂ 𝒗, completando a prova. 

Note que uma matriz autoadjunta pode possuir diversos autovetores li-
nearmente independentes associados ao mesmo autovalor 𝜆. Nesse caso,
aplicamos o processo de ortogonalização de Gram-Schimdt ao autoespaço
associado a esse autovalor, de modo a encontrar uma base ortogonal para
ele.
Dada uma matriz autoadjunta real 𝐴 (isto é, uma matriz simétrica), en-
tão sabemos que seus autovalores são reais. Mas, uma vez que a matriz 𝐴
foi considerada como tendo entradas complexas, pode existir a dúvida se os
autovetores associado a um autovalor têm coordenadas reais ou complexas.
O próximo resultado resolve essa dúvida.
Proposição 7.23 Seja 𝐴 uma matriz real simétrica. Então 𝐴 possui uma
base formada por autovetores reais.
Demonstração: Já sabemos que os autovalores 𝜆 de 𝐴 são reais. Assim, o
sistema (𝐴 − 𝜆I)𝒙 = 0 possui solução 𝒙 ≠ 0 com coordenadas reais. Isso é
suficiente para garantir o afirmado.
Mas podemos dizer algo mais. Note que se 𝒙 for um autovetor de 𝐴 com
entradas complexas, ao escrever 𝒙 = 𝒖 + 𝑖𝒗 com 𝒖 e 𝒗 tendo coordenadas
reais, então temos 𝒖 ≠ 0 ou 𝒗 ≠ 0. É fácil verificar que, se 𝒖 ≠ 0, então 𝒖 é
autovetor de 𝐴. O mesmo acontece com 𝒗. 

Teorema 7.24 (Espectral) Sejam 𝐴 uma matriz autoadjunta. Então 𝐴 é


ortogonalmente diagonalizável, isto é, existe uma base ortonormal ℬ =
{𝒗1 , … , 𝒗𝑛 } de 𝕂𝑛 , formada por autovetores de 𝐴, tal que a representa-
ção de 𝐴 nessa base é uma matriz diagonal formada pelos autovalores
𝜆1 , … , 𝜆𝑛 de 𝐴 associados, respectivamente, aos autovetores 𝒗1 , … , 𝒗𝑛 .

Demonstração: Faremos a demonstração por indução na dimensão 𝑛 do


espaço 𝕂𝑛 . Se 𝑛 = 1, dado 0 ≠ 𝒙 ∈ 𝕂, como 𝐴𝒙 ∈ 𝕂, existe 𝜆 ∈ ℝ tal
que 𝐴𝒙 = 𝜆𝒙, de acordo com o Lema 7.22. A representação de 𝐴 na base
ℬ = {𝒙} á a matriz diagonal (𝜆).
Suponhamos o resultado válido para qualquer espaço de dimensão 𝑛 − 1
e consideremos o espaço 𝕂𝑛 .
Seja 𝜆 um autovalor de 𝐴 (dado pelo Teorema Fundamental da Álge-
bra e que sabemos ser real) e 𝒙 um autovetor unitário correspondente, que
sabemos pertencer a 𝕂𝑛 . Considere a decomposição

𝕂𝑛 = < 𝒙 > ⊕ < 𝒙 > ⟂ = 𝑊 ⊕ 𝑊 ⟂ .

Temos que 𝑊 = < 𝒙 > é invariante por 𝑇. De acordo com a Proposição


7.3, 𝑊 ⟂ = < 𝒙 >⟂ também é invariante por 𝐴. (Esse espaço pode ser
identificado com ℂ𝑛−1 , uma vez escolhida uma base para ele.)
146 CAPÍTULO 7. DIAGONALIZAÇÃO

Como a restrição de 𝐴 ao subespaço (𝑛 − 1)-dimensional 𝑊 ⟂ é um


operador autoadjunto, a restrição de 𝐴 ao subespaço 𝑊 ⟂ possui uma base
formada por autovetores de 𝐴. Como essa base é ortogonal ao autovetor 𝒙,
obtemos uma base para ℂ𝑛 formada por autovetores de 𝐴. O resultado está
demonstrado. 

A versão puramente matricial do Teorema 7.24 é dada pelo

Teorema 7.25 Seja 𝐴 ∈ 𝕄𝑛×𝑛 (𝕂) uma matriz autoadjunta. Então existe
uma matriz 𝑃 = (𝒗1 𝒗2 … 𝒗𝑛 ) (em que 𝒗𝑖 denota a coluna 𝑖 de 𝑃)
formada pela base ortonormal ℬ = {𝒗1 , … , 𝒗𝑛 } ⊂ 𝕂𝑛 de autovetores de
𝐴, de modo que
𝐷 = 𝑃 ∗ 𝐴𝑃 ,

sendo 𝐷 a matriz diagonal formada pelos autovalores reais 𝜆1 , … , 𝜆𝑛 cor-


respondentes aos autovetores 𝒗1 , … , 𝒗𝑛 e 𝑃 ∗ = 𝑃 −1 .

Demonstração: Pelo Teorema 7.24, existe uma base ortonormal ℬ =


{𝒗1 , … , 𝒗𝑛 } ⊂ 𝕂𝑛 formada por autovetores de 𝐴 associados aos autova-

lores reais correspondentes 𝜆1 , … , 𝜆𝑛 . Temos 𝑃 = 𝑃ℬ (mudança da base
ℬ para a base ℰ), sendo 𝐷 a representação de 𝐴 na base ℬ. A expressão
𝑃 ∗ = 𝑃 −1 decorre da Proposição 6.36. 

Agora passamos a considerar separadamente os casos de matrizes reais


simétricas e matrizes complexas autoadjuntas.

Teorema 7.26 Seja 𝐴 uma matriz quadrada real. Então 𝐴 é ortogonal-


mente diagonalizável se, e somente se, 𝐴 for simétrica.

Demonstração: Já sabemos que se 𝐴 for uma matriz real simétrica, então


𝐴 é ortogonalmente diagonalizável.
Suponhamos, portanto, que 𝐷 = 𝑃 𝒕 𝐴𝑃. Então 𝐴 = 𝑃 𝐷𝑃 𝒕 . Tomando a
transposta nesta última igualdade, obtemos 𝐴𝒕 = 𝑃 𝐷𝒕 𝑃 𝒕 = 𝑃 𝐷𝑃 𝒕 = 𝐴. 

Observação 7.27 Uma matriz simétrica 𝐴 com ao menos uma entrada em


ℂ ⧵ ℝ não é autoadjunta! ⊲

Teorema 7.28 Seja 𝐴 uma matriz quadrada com ao menos uma entrada
em ℂ ⧵ ℝ e autovalores reais. Então 𝐴 é ortogonalmente diagonalizável se,
e somente se, 𝐴 = 𝐴∗ .

Exercício 7.14 Adaptando a demonstração do Teorema 7.26, demonstre o Teorema 7.28.


Exercício 7.15 Seja 𝐴 uma matriz tal que 𝐴 = 𝐴∗ . Mostre que ao menos um autovetor de 𝐴 tem
coordenadas complexas. Sugestão: raciocine por absurdo, supondo que todos os autovetores de 𝐴
tenham apenas coordenadas reais. Utilizando a expressão 𝐴 = 𝑃 𝐷𝑃 ∗ , chegue a um absurdo. As
partes real e imaginária de um autovetor complexo de 𝐴 ainda são autovetores de 𝐴?
7.4. DIAGONALIZAÇÃO DE MATRIZES AUTOADJUNTAS 147

Exemplo 7.29 Considere a matriz

1 𝑖
𝐴= .
( −𝑖 1)

A matriz 𝐴 é autoadjunta e, assim, ortogonalmente diagonalizável. Seu


polinômio característico é 𝑝(𝜆) = (1 − 𝜆)2 − 1 = 𝜆2 − 2𝜆 = 𝜆(𝜆 − 2).
Ao autovalor 𝜆 = 0 está associado o autovetor 𝒗1 = (−𝑖 1)𝒕 , enquanto ao
autovalor 𝜆 = 2 está associado o autovalor 𝒗2 = (𝑖 1)𝒕 . Observe que os
vetores 𝒗1 e 𝒗2 são ortogonais:

𝒗1 ⋅ 𝒗2 = (−𝑖)(−𝑖) + (1)(1) = 0,

o que está de acordo com o Lema 7.22. Tomando os autovetores unitários


𝒘1 = 𝒗1 /‖𝒗1 ‖ e 𝒘2 = 𝒗2 /‖𝒗2 ‖, temos uma base ortonormal de autovetores
de 𝐴. Como ‖𝒗1 ‖ = ‖𝒗2 ‖ = 2, tomando a base ℬ = {𝒘1 , 𝒘2 } temos

0 0 ℰ 1 −𝑖 𝑖
𝐷= e 𝑃 = 𝑃ℬ = ,
(0 2) √2 ( 1 1)

e também
1 𝑖 1
𝑃 ∗ = 𝑃 −1 = 𝑃ℰℬ = .
√2 (−𝑖 1)
Verifique que 𝐷 = 𝑃 ∗ 𝐴𝑃.
Observe também que as partes real e imaginária dos autovetores 𝒘1 e 𝒘2
continuam sendo autovetores de 𝐴, mas o fato de 𝐴 ter entradas complexas
faz com que os autovetores obtidos tenham coordenadas complexas! 

Exemplo 7.30 Considere a matriz

⎛ 11 −8 4⎞
𝐴 = −8 −1 −2⎟ .

⎜ ⎟
⎝ 4 −2 −4⎠

O polinômio característico de 𝐴 é 𝑝(𝜆) = 𝜆3 −6𝜆2 −135𝜆−400. Procurando


entre os divisores de 400, verificamos que 𝜆 = −5 é uma raiz do polinômio
característico e

𝑝(𝜆) = (𝜆 + 5)(𝜆2 − 11𝜆 − 80) = (𝜆 + 5)2 (𝜆 − 16).

Para encontrar autovetores ortogonais associados ao autovalor 𝜆 = −5,


escalonamos a matriz 𝐴 − (−5)I = 𝐴 + 5I:

⎛ 16 −8 4⎞ ⎛4 −2 1⎞

(𝐴 + 5I) = −8 4 −2⎟ → ⎜0 0 0⎟ .
⎜ ⎟ ⎜ ⎟
⎝ 4 −2 1⎠ ⎝0 0 0⎠

(Observe que já sabíamos que a forma escalonada da matriz 𝐴 + 5I deveria


ter duas variáveis livres, pois devem existir dois autovalores ortonormais
associados ao autovalor 𝜆 = −5. Não levamos até a forma escalonada re-
duzida por linhas apenas para evitar frações...)
148 CAPÍTULO 7. DIAGONALIZAÇÃO

Nesse exemplo utilizaremos um método alternativo para encontrar dois


autovetores ortogonais associados ao autovalor 𝜆 = −5. No Exemplo 7.31
utilizaremos o processo de ortogonalização de Gram-Schmidt.
Claramente 𝒗−5 = (0, 1, 2) é um autovetor associado a 𝜆 = −5, pois
satisfaz a equação 4𝑥1 − 2𝑥2 + 𝑥2 = 0. Vamos encontrar um segundo
autovetor 𝒗′−5 = (𝑎, 𝑏, 𝑐) nesse autoespaço (isto é, satisfazendo a equação
anterior) que seja ortogonal ao vetor 𝒗−5 . Para que isso aconteça, 𝒗′−5 tem
que satisfazer as equações

4𝑎 − 2𝑏 + 𝑐 = 0 e 𝑏 + 2𝑐 = 0.

A primeira equação garante que 𝒗′−5 pertence ao autoespaço associado ao


autovalor 𝜆 = −5; como (0, 1, 2) ⋅ (𝑎, 𝑏, 𝑐) = 𝑏 + 2𝑐, a a segunda equação
garante que 𝒗′−5 é ortogonal a 𝒗−5 .
Resolvendo esse sistema, encontramos, por exemplo, a solução 𝒗′−5 =
(−5, −8, 4). Portanto 𝒗−5 e 𝒗′−5 são dois autovetores ortogonais associados
ao autovalor 𝜆 = −5.
Agora encontramos um autovetor associado ao autovalor 𝜆 = 16. Para
isso, escalonamos a matriz 𝐴 − 16I:

⎛−5 −8 4⎞ ⎛4 −2 −20⎞
𝐴 − 16I = ⎜−8 −17 −2 ⎟ → ⎜0 −21 −42⎟ .
⎜ ⎟ ⎜ ⎟
⎝ 4 −2 −20⎠ ⎝0 0 0⎠

Nesse escalonamento, preservamos a última linha que, multiplicada por 2


e somada à segunda linha, gerou a nova segunda linha. Sem efetuar qual-
quer conta com a primeira linha, essa foi desprezada, pois já percebemos a
existência de dois pivôs (ainda não igualados a 1) na matriz obtida.
Agora completamos o escalonamento dividindo a segunda linha por
(−21) e então anulando em cima do pivô da segunda linha:

⎛4 −2 −20⎞ ⎛4 0 −16⎞
⎜0 −21 −42⎟ → ⎜0 1 2 ⎟.
⎜ ⎟ ⎜ ⎟
⎝0 0 0⎠ ⎝0 0 0⎠

Dividindo a primeira linha por 4, obtemos a solução

⎛𝑥⎞ ⎛ 4𝑧⎞ ⎛ 4⎞
⎜𝑦⎟ = ⎜−2𝑧⎟ = 𝑧 ⎜−2⎟ ,
⎜ ⎟ ⎜ ⎟ ⎜ ⎟
⎝𝑧⎠ ⎝ 𝑧 ⎠ ⎝ 1⎠
que nos dá o autovetor 𝒗16 = (4, −2, 1). Note que, de acordo com o Lema
7.22, esse vetor já é ortogonal ao vetores 𝒗−5 e 𝒗′−5 .
Para obter uma matriz ortogonal, basta dividirmos os autovetores 𝒗−5 , 𝒗′−5
e 𝒗16 por sua norma. Chegamos então à matriz ortogonal
−5 4
⎛0 √105 √21

⎜ 1 −8 −2

𝑃 = ⎜ √5 √105
⎟.
√21 ⎟

⎜ 2 4 1 ⎟
⎝ √5 √105 √21 ⎠
7.4. DIAGONALIZAÇÃO DE MATRIZES AUTOADJUNTAS 149

Cada vetor coluna de 𝑃 é ortogonal aos vetores coluna restantes e cada um


deles tem norma igual a 1. Pela Proposição 6.36, 𝑃 −1 = 𝑃 𝒕 .
A representação de 𝐴 na base formada pelas colunas de 𝑃 é:

⎛−5 0 0⎞
𝐷 = ⎜ 0 −5 0 ⎟ .
⎜ ⎟
⎝ 0 0 16⎠

As duas primeiras colunas da matriz 𝑃 estão associadas ao autovalor 𝜆 =


−5, enquanto a última coluna está associada ao autovalor 𝜆 = 16. ⊲

Exemplo 7.31 Consideremos a matriz simétrica

⎛2 1 1⎞
𝐴 = ⎜1 2 1⎟ ,
⎜ ⎟
⎝1 1 2⎠

cujo polinômio característico é 𝑝(𝜆) = (𝜆 − 1)2 (𝜆 − 4). A matriz 𝐴 possui


uma base formada por autovetores, na qual ela é representada pela matriz

⎛1 0 0⎞
𝐷 = ⎜0 1 0⎟ .
⎜ ⎟
⎝0 0 4⎠
Escalonando a matriz 𝐴 − I, encontramos que o autoespaço bidimensi-
onal 𝑉1 = {(−𝑥2 − 𝑥3 , 𝑥2 , 𝑥3 ) ∈ ℝ3 } está associado ao autovalor 𝜆 = 1, de
modo que
ℬ1 = {𝒖 = (−1, 0, 1), 𝒗 = (−1, 1.0)}
é uma base de 𝑉1 . Uma base ortonormal é encontrada aplicando-se o pro-
cesso de ortogonalização de Gram-Schmidt:
𝒗⋅𝒖
𝒘1 = 𝒗 − proj𝒖 𝒗 = 𝒗 − 𝒖
‖𝒖‖2
(−1, 1, 0) ⋅ (−1, 0, 1)
= (−1, 1, 0) − (−1, 0, 1)
‖(−1, 0, 1)‖2
1
= (−1, 1, 0) − (−1, 0, 1)
2
1 1
= (− , 1, − ) .
2 2
Eliminando frações, concluímos que o vetor (−1, 2, −1) é ortogonal ao vetor
𝒖. Transformando os vetores em unitários, temos que os vetores

−1 1 −1 2 −1
𝒗1 = , 0, e 𝒗′1 = , ,
( √2 √2 ) ( √6 √6 √6 )

formam uma base ortonormal do autoespaço 𝑉1 .


O espaço unidimensional 𝑉4 = {(𝑥3 , 𝑥3 , 𝑥3 ) ∈ ℝ3 } está associado ao
autovalor 𝜆 = 4, de modo que

1 1 1
𝒗4 = , ,
( √3 √3 √3 )
150 CAPÍTULO 7. DIAGONALIZAÇÃO

é uma base ortonormal de 𝑉2 . (Note que o vetor 𝒗4 é ortogonal aos vetores


𝒗1 e 𝒗′1 , como consequência do Lema 7.22.) Assim, a matriz
−1 −1 1
⎛ √2 √6 √3

⎜ 2 1

𝑃 =⎜ 0 √6 √3

⎜ ⎟
⎜ 1 −1 1 ⎟
⎝ √2 √6 √3 ⎠

é unitária e 𝑃 𝒕 𝐴𝑃 = 𝐷. ⊲

Exercício 7.16 Encontre uma matriz ortogonal 𝑃 e uma matriz diagonal 𝐷 satisfazendo 𝑃 𝒕 𝐴𝑃 =
𝐷, para as matrizes
⎛4 2 2⎞
(a) 𝐴 = ⎜2 4 2⎟;
⎜ ⎟
⎝2 2 4⎠
2 1
(b) ;
(1 2)

⎛2 1 0 0⎞
⎜1 2 0 0⎟
(c) ⎜ .
0 0 2 1⎟
⎜ ⎟
⎝0 0 1 2⎠
Exercício 7.17 A matriz 𝐴 do Exercício 7.12 é ortogonalmente diagonalizável?
Exercício 7.18 Sendo 𝛼 e 𝛽 números reais, considere a matriz

⎛3 −2 4⎞
𝐴 = ⎜𝛼 6 2⎟ .
⎜ ⎟
⎝4 𝛽 3⎠

1. Sabendo que 𝒖 = (−1, 2, 0) é um autovetor de 𝐴, encontre a matriz 𝐴 e o autovalor associado


a 𝒖.
2. A matriz 𝐴 é ortogonalmente diagonalizável? Se sim, encontre uma base ortonormal que
diagonaliza 𝐴. Caso contrário, justifique sua resposta.

7.5 Exercícios
1. Sejam 𝑋 um espaço vetorial e 𝑇 ∶ 𝑋 → 𝑋 um operador. Mostre que, se 𝜆 for um autovalor
de 𝑇, então o autoespaço 𝑋𝜆 é invariante por 𝑇.
2. Seja 𝑇 ∶ 𝑋 → 𝑋 um operador no espaço de dimensão finita 𝑋. Mostre que 0 é autovalor de
𝑇 se, e somente se, 𝑇 não possuir inversa.
3. Sem fazer qualquer cálculo, encontre um autovalor para a matriz

⎛1 2 1⎞
𝐴 = ⎜1 2 1⎟ .
⎜ ⎟
⎝1 2 1⎠
Justifique sua resposta.
7.5. EXERCÍCIOS 151

4. Seja 𝐴 uma matriz quadrada triangular (superior ou inferior). Mostre que seus autovalores
são os elementos de sua diagonal principal.
5. Seja uma matriz quadrada. Mostre que 𝐴 e 𝐴𝒕 têm os mesmos autovalores.
6. Seja 𝐴 uma matriz quadrada tal que 𝐴2 é a matriz nula. Mostre que 0 é o único autovalor de
𝐴.
7. Sejam 𝐴, 𝐵 matrizes 𝑛 × 𝑛. Mostre que 𝐴𝐵 e 𝐵𝐴 têm os mesmos autovalores.
8. Seja 𝐴 uma matriz 𝑛×𝑛 invertível e 𝜆 ∈ 𝕂 um autovalor de 𝐴. Mostre que 𝜆−1 é um autovalor
de 𝐴−1 .
9. Seja 𝜆 ∈ 𝕂 um autovalor da matriz quadrada 𝐴. Mostre que 𝜆2 é um autovalor da matriz 𝐴2 .
10. Acho o polinômio característico da matriz

⎛2 1 1 1⎞
⎜1 1 2 2⎟
𝐴=⎜ .
0 0 1 3⎟
⎜ ⎟
⎝0 0 2 1⎠

11. Considere a matriz


⎛ 3 −1 1 ⎞
𝐴 = ⎜ 7 −5 1 ⎟ .
⎜ ⎟
⎝ 6 −6 2 ⎠
(a) Ache o polinômio característico de 𝐴.
(b) Ache os autovalores de 𝐴.4
(c) Ache autovetores associados a cada um dos autovalores.
(d) A matriz 𝐴 é diagonalizável? Se for, encontre uma base ℬ na qual 𝐴 assume uma
representação diagonal.
12. Encontre uma base ℬ do ℝ2 tal que a expressão da matriz

1 −1
𝐴=
(−4 1)

na base ℬ seja uma matriz diagonal. Os autovetores de 𝐴 são ortogonais?


13. Considere a matriz
⎛−1 0 0⎞
⎜−2 1 0⎟ .
⎜ ⎟
⎝ 0 0 −1⎠
Encontre 𝐴−25 .
14. Considere o operador linear 𝑇 ∶ ℝ3 → ℝ3 definido por

𝑇 (𝑥1 , 𝑥2 , 𝑥3 ) = (4𝑥1 + 2𝑥2 + 2𝑥3 , 2𝑥1 + 4𝑥2 + 2𝑥3 , 2𝑥1 + 2𝑥2 + 4𝑥3 ).

(a) Encontre 𝑇ℰ , a representação de 𝑇 na base canônica do ℝ3 .


(b) Encontre o polinômio característico de 𝑇.
(c) Encontre bases para os autoespaços associados a cada um dos autovalores.
(d) Aplique o processo de ortogonalização de Gram-Schmidt à base do autoespaço 𝐸2 .
(e) Considere o conjunto formado pelas bases ortogonais de cada um dos autoespaços. Esse
conjunto é uma base do ℝ3 ? Essa conjunto é ortogonal?
4
Veja o Exercício 7.9.
152 CAPÍTULO 7. DIAGONALIZAÇÃO

15. Considere a matriz


3 −5
𝐴= .
(2 −3)
(a) Encontre o polinômio característico de 𝐴
(b) Quais são os autovalores de 𝐴 em ℝ? E em ℂ?
(c) Se possível, encontre uma base ℬ na qual 𝐴 é representada por uma matriz diagonal.
16. Repita o exercício anterior para a matriz

1 −1
𝐴= .
(2 −1)

17. Encontre uma base ℬ, a matriz 𝑃 e a matriz diagonal 𝐷 = 𝑇ℬ de modo que 𝐷 = 𝑃 −1 𝐴𝑃, se

⎛2 5 1 1⎞
⎜1 4 2 2⎟
𝐴=⎜ .
0 0 6 −5⎟
⎜ ⎟
⎝0 0 2 3⎠

18. Seja 𝑉 = < 𝒄𝒐𝒔 𝑡, 𝒔𝒆𝒏 𝑡 > o espaço das combinações lineares com coeficientes complexos das
funções 𝒄𝒐𝒔 𝑡 e 𝒔𝒆𝒏 𝑡. Considere o operador 𝐷 ∶ 𝑉 → 𝑉 definido por 𝐷𝒇 = 𝒇 ′ , a derivada
da função 𝒇.
(a) Encontre os autovalores de 𝐷.
(b) Se o operador 𝐷 for diagonalizável, encontre uma base ℬ tal que 𝐷ℬ seja uma matriz
diagonal.
19. Encontre os autovalores de matriz

⎛4 1 −1⎞
𝐴 = ⎜2 5 −2⎟ .
⎜ ⎟
⎝1 1 2⎠

A matriz 𝐴 é diagonalizável? Se for, encontre uma base ℬ e matrizes 𝑃 e 𝐷 tais que 𝐴ℬ =


𝑃 −1 𝐴𝑃. A matriz 𝐴 é ortogonalmente diagonalizável?
20. Diagonalize, se possível, a matriz

⎛ 5 0 0 0⎞
⎜ 0 5 0 0⎟
𝐴=⎜
1 4 −3 0⎟
⎜ ⎟
⎝−1 −2 0 −3⎠

21. Encontre uma matriz 𝐵 tal que 𝐵 2 = 𝐴, se

3 1
𝐴= .
(2 2)

Quantas matrizes 𝐵, distintas, satisfazem 𝐵 2 = 𝐴?

Você também pode gostar