Física Matemática - Rudi Gaelzer
Física Matemática - Rudi Gaelzer
Física Matemática - Rudi Gaelzer
i
ii
1
2 1.1. Coordenadas curvilíneas
q3
q1 = c1
q2 = c2
q2
q1
q3 = c3
k̂
̂
ı̂
dos planos das outras. Por exemplo, a coordenada x, nas vizinhanças do ponto P , varia ao longo
da intersecção dos planos y = cte. e z = cte. em P .
Pode-se então imaginar três outras famílias de superfícies contidas no E 3 , q1 = c1 , q2 = c2
e q3 = c3 (c1 , c2 e c3 constantes), denominadas superfícies coordenadas, as quais passarão a
definir o novo sistema de coordenadas, de modo que agora o mesmo ponto P ∈ E 3 passa a
ser localizado por P = (q1 , q2 , q3 ). Esta construção está ilustrada na figura 1.1. Cada par de
superficies coordenadas possui sua intersecção ao longo de uma curva denominada curva ou
linha coordenada. A variação da coordenada oposta às duas superfícies intersectantes ocorre
então ao longo desta curva. Por exemplo, na figura 1.1 observa-se que a variação de q3 ocorre ao
longo da curva coordenada definida pela intersecção das superfícies q1 = c1 e q2 = c2 .
Ao contrário do sistema Cartesiano, estas três novas famílias de superfícies não necessitam
ser mutuamente ortogonais; contudo, é suposto que exista uma relação unívoca entre as novas
coordenadas (q1 , q2 , q3 ) e as coordenadas Cartesianas (x, y, z), isto é, deve ser possível escrever
tanto as Leis de Transformação:
x = x(q1 , q2 , q3 ) (1.1a)
y = y(q1 , q2 , q3 ) (1.1b)
z = z(q1 , q2 , q3 ), (1.1c)
q1 = q1 (x, y, z) (1.2a)
q2 = q2 (x, y, z) (1.2b)
q3 = q3 (x, y, z). (1.2c)
De acordo com (1.1a), uma variação infinitesimal da coordenada x pode ser escrita
3
X ∂x ∂x ∂x ∂x
dx = dqi = dq1 + dq2 + dq3 ,
i=1
∂qi ∂q1 ∂q2 ∂q3
Então, o vetor deslocamento infinitesimal dr pode ser escrito tanto em termos da base canônica,
como dr = dxı̂ + dŷ + dz k̂, quanto como
3 3
X ∂r X ∂x ∂y ∂z
dr = dqi = ı̂ + ̂ + k̂ dqi . (1.3)
i=1
∂qi i=1
∂qi ∂qi ∂qi
De acordo com o Teorema de Pitágoras, o elemento infinitesimal de arco d`2 = dr · dr, o qual
corresponde à distância entre dois pontos vizinhos no E 3 , é dado por
ou
3
X
d`2 = gij dqi dqj . (1.5b)
i,j=1
Espaços para os quais a definição (1.5) é uma expressão válida para representar d`2 são deno-
minados Riemannianos. O espaço Euclideano é um tipo particular de um espaço Riemanniano,
para o qual o elemento de arco d`2 pode sempre ser calculado com o teorema de Pitágoras,
independente do sistema de coordenadas adotado.
Inserindo os diferenciais (1.3) em (1.4) e identificando a expressão resultante com (1.5),
encontra-se
3
∂x ∂x ∂y ∂y ∂z ∂z X ∂xk ∂xk ∂r ∂r
gij = + + = = · . (1.6)
∂qi ∂qj ∂qi ∂qj ∂qi ∂qj ∂qi ∂qj ∂qi ∂qj
k=1
Observa-se aqui também que os vetores tangentes podem ser expressos através da base
canônica no E 3 como
3 3
∂r X ∂xj X ∂xi
ei = = x̂j = Hji x̂j , onde Hij = , (1.7a)
∂qi j=1
∂qi j=1
∂qj
Uma outra base neste sistema de coordenadas pode ser formada, tomando-se os vetores
normais às superfícies coordenadas no ponto P . Estes vetores são definidos por i = ∇qi e
também estão ilustrados na figura 1.1. Desta forma, um vetor a ∈ E 3 qualquer pode ser escrito
tanto em termos da base {ei } quanto da base {i } como
3
X 3
X
a= αi ei = β i i . (1.9)
i=1 i=1
Por sua vez, as bases {ei } e {i } formam um conjunto de vetores recíprocos. Ou seja, usando
a base canônica para r e ∇ e a regra de derivação em cadeia, pode-se calcular
∂r
e i · j = · ∇qj
∂q
i
∂x ∂y ∂z ∂qj ∂qj ∂qj
= ı̂ + ̂ + k̂ · ı̂ + ̂ + k̂
∂qi ∂qi ∂qi ∂x ∂y ∂z
∂qj ∂x ∂qj ∂y ∂qj ∂z ∂qj
= + + = .
∂x ∂qi ∂y ∂qi ∂z ∂qi ∂qi
Portanto,
3
X 3
X
g −1
i = e ,
ij j
ei = gij j .
j=1 j=1
Uma discussão mais detalhada destes componentes, no contexto da análise tensorial, será rea-
lizada na seção 6.7.
Finalmente, os vetores de base {ei } e {i } podem ser normalizados por
1 ∂r ∇qi
êi = , ˆi = ,
hi ∂qi |∇qi |
onde v v
u 3
u 3
2 uX
∂r uX ∂x j
hi ≡ |ei | = =t = t 2,
Hji (1.11)
∂qi j=1
∂qi j=1
é denominado o fator de escala da coordenada qi , formando assim as bases normais { êi } e {ˆi }.
Estes vetores normalizados estão ilustrados na figura 1.1. A forma matemática dos fatores de
escala depende do sistema de coordenadas adotado. Por exemplo, no sistema Cartesiano, hi = 1,
simplesmente. Cabe ressaltar também que embora i seja o recíproco de ei , estes vetores não
são necessariamente paralelos entre si.
Pode-se então escrever o vetor deslocamento infinitesimal dado por (1.3), tanto em termos
dos fatores de escala quanto em termos da matriz H definida em (1.7), como
3
X 3
X 3
X
dr = dqi ei = hi dqi êi = Hij dqj x̂i . (1.12)
i=1 i=1 i,j=1
onde foi introduzida a notação q̇i = dqi /dt, comum na mecânica clássica.
onde ijk é o tensor de Levi-Civita.3 Esta regra se deve ao fato de que o sistema de coordenadas
empregado possui uma orientação dextrógira.
Como êi · êj = δij , o tensor de métrica (1.6), de acordo com (1.8), possui todos os seus
elementos fora da diagonal principal nulos, isto é, gij = 0, para (i 6= j). Pode-se escrever então
os componentes gii não nulos em termos dos fatores de escala, a partir de (1.8), como
3
X
gij = h2i δij = Hki Hkj , (1.15a)
k=1
3
X
h2k H −1 H −1
ki kj
= δij . (1.15c)
k=1
3
X
2 2 2 2
det (g) = (h1 h2 h3 ) = Hi1 Hj2 Hk3 ,
i,j,k=1
Neste caso, o elemento infinitesimal de arco d`2 em (1.5b) se reduz à seguinte forma quadrá-
tica:
3
X
2 2 2
d`2 = (h1 dq1 ) + (h2 dq2 ) + (h3 dq3 ) = h2i dqi2 . (1.16)
i=1
A forma resultante para d`2 em (1.16) permite definir a projeção de dr ao longo da coordenada qi
como sendo
d`i = hi dqi , (1.17)
hi = hi (q1 , q2 , q3 ) , (i = 1, 2, 3) ,
e pode possuir dimensão de comprimento, em cuja situação qi não terá dimensão (um ângulo,
por exemplo). O vínculo consiste em que d`i deve possuir dimensão de comprimento.
As bases {ei } e {i } serão empregadas novamente na seção 6.7, no contexto da análise ten-
sorial. Para o restante da discussão neste capítulo será empregada somente a base ortonormal
{ êi }.
No caso dos produtos envolvendo vetores, as transformações (1.1) e (1.2) por hipótese são
tais que o escalar ou vetor resultantes da operação são invariantes, ou seja, estes objetos geo-
métricos são os mesmos para qualquer sistema de coordenadas curvilíneas. As condições que
as leis de transformação (1.1) e (1.2) devem satisfazer para que esta exigência seja satisfeita
serão discutidas na seção 6.3.3, dentro do contexto da análise tensorial. Esta condição já foi
tacitamente suposta cumprida na seção anterior.
Assumindo que as condições mencionadas acima são satisfeitas, então o resultado do pro-
duto escalar entre os vetores a e b é, simplesmente,
3
X
a·b= ai bi .
i=1
Por sua vez, o resultado do produto vetorial entre os mesmos vetores, de acordo com (1.14), é
3
X 3
X
a×b= ai bj êi × êj = ijk ai bj êk .
i,j=1 i,j=1
Observa-se que o mesmo resultado pode ser obtido pelo cálculo do determinante
ê1 ê2 ê3
a × b = det a1 a2 a3 .
b1 b2 b3
para calcular a integral de A (r) ao longo de uma curva C contida no E 3 usando o sistema
{q1 , q2 , q3 }, parte-se do elemento de arco d`, cujas projeções sobre as coordenadas curvilíneas
são dadas por (1.17). Então,
ˆ 3 ˆ
X
A (r) · d` = Ai (r) hi dqi .
C i=1 C
Para o cálculo de uma integral de superfície envolvendo A (r), por exemplo, para se obter o
fluxo deste campo através de uma superfície S contida no E 3 , é necessário, em primeiro lugar,
determinar-se a forma do elemento de superfície no sistema curvilíneo.
Fazendo uma interpretação geométrica usualmente realizada com o sistema Cartesiano, ob-
serva-se, em primeiro lugar, que, dados os vetores a e b, a quantidade escalar |a × b| = ab sen φ
4 Uma definição mais rigorosa de um campo vetorial é realizada na seção 6.3.2.
fornece a área do paralelograma definido por estes, sendo 0 6 φ 6 π o menor ângulo entre
os mesmos. Assim, o vetor s = a × b pode ser interpretado geometricamente como um vetor
superfície, cuja área é igual à do paralelograma mencionado e com a direção e sentido definidos
pelo resultado do produto vetorial; ou seja, o vetor s é sempre ortogonal ao plano definido por a
e b, com o sentido dado pelo produto de ambos.
Uma superfície S qualquer contida no E 3 pode ser subdividida em um número muito grande
de superfícies infinitesimais. Com base na interpretação geométrica do produto vetorial, pode-se
então definir um vetor elemento de superfície dσ a partir da área delimitada entre dois elementos
de arco d` e d`0 que não estejam paralelos entre si. Com esta notação, obtém-se com a base
canônica
3
X 3
X
d` × d`0 = dxi dx0j x̂i × x̂j = ijk dxj dxk x̂i .
i,j=1 i,j,k=1
sendo dσij = dxi dxj o elemento de superfície no plano xi − xj (j 6= i), perpendicular ao vetor
unitário x̂k (k 6= i e k 6= j).
Nota-se que esta definição satisfaz a interpretação geométrica de dσ. Por exemplo, se a
superfície S estiver contida totalmente no plano x2 − x3 ↔ y − z, então dx1 = dx = 0 e
Por consequência, se d`i = hi dqi êi é o vetor elemento de arco na direção i, então o correspon-
dente elemento de volume pode ser calculado como
uma vez que | ê1 · ( ê2 × ê3 )| = 1 para um sistema de coordenadas ortogonais.
Uma expressão equivalente para d3 r é obtida escrevendo-se, inicialmente, d`i = dqi ei . Então,
de (1.7a), resulta
X3
d`i = Hji dqi x̂j .
j=1
Portanto,
d3 r = |det (H)| dq1 dq2 dq3 . (1.21b)
Mas ∂x
1 ∂x1 ∂x1
∂q ∂q2 ∂q3
12 ∂ (x1 , x2 , x3 )
J ≡ det (H) = det ∂x
∂q1
∂x2
∂q2
∂x2
∂q3 ≡ ,
∂x3 ∂x3 ∂x3 ∂ (q1 , q2 , q3 )
∂q1 ∂q2 ∂q3
o qual é justamente o Jacobiano da transformação {x1 , x2 , x3 } → {q1 , q2 , q3 }. Ou seja,
3
∂ (x1 , x2 , x3 )
d r = |J| dq1 dq2 dq3 =
dq1 dq2 dq3 . (1.21c)
∂ (q1 , q2 , q3 )
Portanto, para sistemas de coordenadas curvilíneas ortogonais, infere-se que |J| = J = h1 h2 h3 .
Com este elemento de volume, pode-se agora calcular as integrais de volume no sistema curvilí-
neo.
Exercício 1.1. Mostre que para sistemas de coordenadas curvilíneas ortogonais o Jacobiano da
transformação está relacionado aos fatores de escala por J = h1 h2 h3 .
Demonstração. Para demonstrar este resultado, é mais fácil elevar-se ambos os lados ao qua-
drado. Então, de (1.21c) e (1.11), deseja-se demonstrar que
2
X3
2
J2 = ijk Hi1 Hj2 Hk3 = (h1 h2 h3 ) ,
i,j,k=1
2
3
X 3
X
2 2 2
ijk Hi1 Hj2 Hk3 = Hi1 Hj2 Hk3 .
i,j,k=1 i,j,k=1
+Hk1 Hi2 Hj3 − Hj1 Hi2 Hk3 + Hj1 Hk2 Hi3 − Hk1 Hj2 Hi3 ] Hi1 Hj2 Hk3 .
Agora, de acordo com (1.15b), somente o primeiro termo permanece não nulo na expressão
acima, resultando então
X3
2
J2 = 2
Hi1 2
Hj2 2
Hk3 = (h1 h2 h3 ) ,
i,j,k=1
como se queria demonstrar.
1.4.1 G RADIENTE
O ponto de partida para a obtenção dos operadores vetoriais diferenciais em qualquer sistema
de coordenadas ortogonal consiste na interpretação geométrica do gradiente como aquele vetor
que possui o módulo, direção e sentido da máxima taxa de variação de um determinado campo
escalar sobre uma de suas superfícies equipotenciais.
Sendo ψ = ψ (q1 , q2 , q3 ) um campo escalar, função das coordenadas curvilíneas ortogonais, a
taxa máxima de variação deste campo sobre a superfície q1 = cte., por exemplo, será dada pelo
maior valor da derivada direcional em qualquer ponto sobre esta superfície. A variação de ψ, de
uma forma geral, é dada por
3
X ∂ψ
dψ = dqi , (1.22)
i=1
∂qi
A figura 1.2 ilustra o elemento de volume d3 r em questão, sendo que os lados do elemento
de volume são os elementos infinitesimais de arco d`i = hi dqi , ao longo de cada coordenada
curvilínea. Consideram-se agora as integrais de superfície através de cada lado do elemento de
volume.
Por exemplo, a integral de fluxo de A através de uma das superfícies S1 : q1 = cte., correspon-
dentes à face 3 e sua oposta na figura 1.2. A partir de (1.20), esta integral é dada simplesmente
por ˆ ˆ
Φ1 = A · dσ = ± A1 h2 h3 dq2 dq3 ≈ ±A1 (q1 , q2 , q3 ) h2 h3 dq2 dq3 ,
S1 S
uma vez que a área de S1 é infinitesimal. O sinal será tomado a partir de uma convenção para
fluxo positivo. Como o sistema de coordenadas é dextrógiro, isto é, ê1 × ê2 = ê3 , o fluxo de A
através da face 3 ou sua oposta será tomado positivo quando este ocorrer no sentido de ê1 , ou
seja, através da face em q1 + dq1 . Nesta,5
ˆ
∂
Φ01 = A · dσ ≈ A1 (q1 + dq1 , q2 , q3 ) h2 h3 dq2 dq3 ≈ A1 (q1 , q2 , q3 ) h2 h3 + (A1 h2 h3 ) dq1 dq2 dq3 .
S1 ∂q1
∇2 ψ (q1 , q2 , q3 ) = ∇· (∇ψ) ,
ou seja,
2 1 ∂ h2 h3 ∂ψ ∂ h1 h3 ∂ψ ∂ h1 h2 ∂ψ
∇ ψ (q1 , q2 , q3 ) = + + . (1.25)
h1 h2 h3 ∂q1 h1 ∂q1 ∂q2 h2 ∂q2 ∂q3 h3 ∂q3
1.4.3 R OTACIONAL
Finalmente, dado novamente o campo vetorial A, o seu rotacional no ponto P será obtido a
partir de sua definição baseada no teorema de Stokes. Em E 3 , se S é uma superfície delimitada
pela curva fechada C, então ˛
1
(∇ × A) · n̂ = lim A·d` ,
S→0 S C
sendo (q1 , q2∗ , q3∗ ) um ponto sobre S1 , contido dentro do caminho fechado `14 . De acordo com o
teorema de Stokes, o resultado anterior é dado por
˛
ê1 · [∇ × A (q1 , q2∗ , q3∗ )] h2 h3 dq2 dq3 = A·d`.
`14
Seguindo-se ao longo do contorno fechado `14 , que delimita S1 , a integral de caminho acima
pode ser escrita, usando (1.16) e cuidando-se novamente os sentidos dos vetores unitários { êi },
como
˛
A·d` ≈ A2 (q1 , q2 , q3 ) h2 dq2 + A3 (q1 , q2 + dq2 , q3 ) h3 dq3
`14
− A2 (q1 , q2 , q3 + dq3 ) h2 dq2 − A3 (q1 , q2 , q3 ) h3 dq3 ,
ou seja,
∂ ∂
ê1 · [∇ × A (q1 , q2∗ , q3∗ )] h2 h3 dq2 dq3 ≈ (A3 h3 ) dq2 dq3 − (A2 h2 ) dq2 dq3 .
∂q2 ∂q3
No limite dq2 dq3 → 0, obtém-se
1 ∂ ∂
ê1 · [∇ × A (q1 , q2 , q3 )] = (A3 h3 ) − (A2 h2 ) .
h2 h3 ∂q2 ∂q3
Devido à presença dos operadores diferenciais, este determinante deve ser desenvolvido a partir
da primeira linha.
sendo que as coordenadas curvilíneas estão definidas nos seguintes intervalos: 0 6 ρ < ∞,
0 6 φ < 2π e −∞ < x3 < ∞.
O vetor posição pode ser escrito em termos da base canônica; empregando as coordenadas
cilíndricas, o vetor posição pode ser escrito como
x3 φ = c2 x3
x̂3 ρ = c1
(a) (b)
x3 = c3
x̂3
x̂2 x2 x1
x̂1 x2
x1
Figura 1.4: (a) Coordenadas cilíndricas e seus vetores unitários. (b) Superfícies coordenadas. O ponto P está
localizado na intersecção das superfícies.
Assim, os vetores da bases {ei }, { êi } e os fatores de escala {hi } para este sistema ficam escritos
∂r
eρ = = cos φ x̂1 + sen φ x̂2
∂ρ êρ = cos φ x̂1 + sen φ x̂2 hρ = 1
∂r =⇒ êφ = − sen φ x̂1 + cos φ x̂2 =⇒ hφ = ρ
eφ = = −ρ sen φ x̂1 + ρ cos φ x̂2
∂φ
ê3 = x̂3 h3 = 1.
e = x̂
3 3
Pode-se ver claramente que o sistema cilíndrico é ortonormal, êρ · êφ = êρ · x̂3 = êφ · x̂3 = 0 e
êρ × êφ = x̂3 , bem como qualquer permutação cíclica dos vetores de base. Assim, o vetor posição
pode também ser escrito como
r = ρ êρ + x3 x̂3 .
O vetor velocidade em coordenadas cilíndricas é diretamente obtido de (1.13), resultando
dr
v ≡ ṙ = = hρ ρ̇ êρ + hφ φ̇ êφ + ẋ3 h3 ê3 ,
dt
ou seja,
v = ρ̇ êρ + ρφ̇ êφ + ẋ3 ê3 .
Este resultado pode ser verificado pela derivação direta de r (t).
Para se obter a aceleração (a derivada segunda do vetor posição), é útil primeiro obter-se as
derivadas temporais dos vetores de base, ou seja,
. dêρ
ê˙ ρ = = − sen φφ̇ x̂1 + cos φφ̇ x̂2
dt
. dêφ
ê˙ φ = = − cos φφ̇ x̂1 − sen φφ̇ x̂2
dt
. dê3
ê˙ =
= 0.
3
dt
Então,
dv
a ≡ v̇ = = ρ̈êρ + ρ̇φ̇ + ρφ̈ êφ + ρ̇ê˙ ρ + ρφ̇ê˙ φ + ẋ3 ê3
dt
Autor: Rudi Gaelzer – IF/UFRGS Início: 05/2012 Impresso: 29 DE AGOSTO DE 2018
C APÍTULO 1. Sistemas de Coordenadas Curvilíneas Ortogonais 15
= ρ̈êρ + ρ̇φ̇ + ρφ̈ êφ − sen φρ̇φ̇ + cos φρφ̇2 x̂1 + cos φρ̇φ̇ − sen φρφ̇2 x̂2 + ẋ3 ê3 ,
resultando em
a = ρ̈ − ρφ̇2 êρ + ρφ̈ + 2ρ̇φ̇ êφ + ẋ3 ê3 .
sendo que as coordenadas estão definidas nos intervalos: 0 6 r < ∞, 0 6 θ 6 π e 0 6 φ < 2π.
O vetor posição pode ser escrito agora como
Assim, as bases {ei }, { êi } e os fatores de escala {hi } para o sistema de coordenadas esféricas
são:
∂r
er = = sen θ cos φ x̂1 + sen θ sen φ x̂2 + cos θ x̂3
∂r
∂r
eθ = = r cos θ cos φ x̂1 + r cos θ sen φ x̂2 − r sen θ x̂3
∂θ
∂r
eφ = = −r sen θ sen φ x̂1 + r sen θ cos φ x̂2
∂φ
x3 x3 θ = c2
(a) (b)
φ = c3 r = c1
P
x̂3
x̂2 x1
x̂1 x2 x2
x1
Figura 1.6: (a) Coordenadas esféricas e seus vetores unitários. (b) Superfícies coordenadas. O ponto P está
localizado na intersecção das superfícies.
êr = sen θ cos φ x̂1 + sen θ sen φ x̂2 + cos θ x̂3
hr = 1
=⇒ êθ = cos θ cos φ x̂1 + cos θ sen φ x̂2 − sen θ x̂3 =⇒ hθ = r
êφ = − sen φ x̂1 + cos φ x̂2 hφ = r sen θ.
Percebe-se claramente que o sistema esférico é ortonormal, com êr · êθ = êr · êφ = êθ · êφ = 0 e
êr × êθ = êφ , bem como qualquer permutação cíclica dos vetores de base.
Em termos da base ortonormal esférica, a base
x3 canônica pode agora ser escrita
x̂1 = sin θ cos φ êr + cos θ cos φ êθ − sen φ êφ
x̂2 = sin θ sin φ êr + cos θ sin φ êθ + cos φ êφ
x̂3 = cos θ êr − sen θ êθ .
O elemento de volume para este sistema pode ser visualizado na figura 1.7.
O vetor velocidade é fornecido por (1.13), resultando em
dr
v ≡ ṙ = = hr ṙ êr + hθ θ̇ êθ + hφ φ̇ êφ
dt
= ṙ êr + rθ̇ êθ + r sen θφ̇ êφ .
Então,
a ≡ v̇ = r̈êr + ṙθ̇ + rθ̈ êθ + ṙ sen θφ̇ + r cos θθ̇φ̇ + r sen θφ̈ êφ + ṙê˙ r + rθ̇ê˙ θ + r sen θφ̇ê˙ φ ,
resultando
a = r̈ − rθ̇2 − r sin2 θφ̇2 êr + rθ̈ + 2ṙθ̇ − r sen θ cos θφ̇2 êθ
+ r sen θφ̈ + 2 sen θṙφ̇ + 2r cos θθ̇φ̇ êφ .
Por sua vez, os operadores diferenciais ficam, para ψ = ψ (r, θ, φ) e A = A (r, θ, φ),
∂ψ 1 ∂ψ 1 ∂ψ
∇ψ = êr + êθ + êφ
∂r r ∂θ r sen θ ∂φ
1 ∂ 1 ∂ 1 ∂Aφ
r 2 Ar +
∇·A= 2 (sen θAθ ) +
r ∂r r sen θ ∂θ r sen θ ∂φ
êr r êθ r sen θ êφ
1
∇×A= 2 ∂/∂r ∂/∂θ ∂/∂φ
r sen θ
Ar rAθ r sen θAφ
∂2ψ
2 1 ∂ 2 ∂ψ 1 ∂ ∂ψ 1
∇ ψ= 2 r + 2 sen θ + 2 .
r ∂r ∂r r sen θ ∂θ ∂θ r sen2 θ ∂φ2
x2 (b)
(a)
v = c2 u = c1
êv
êu x3
x1
x1 x2
Figura 1.8: (a) Coordenadas elípticas cilíndricas e seus vetores unitários. (b) Algumas superfícies coordenadas.
∂r
eu = = a senh u cos v x̂1 + a cosh u sen v x̂2
∂u
∂r
ev = = −a cosh u sen v x̂1 + a senh u cos v x̂2
∂v
∂r
e3 = = x̂3
∂x3
2 2
−1/2
êu = senh u + sen v (senh u cos v x̂1 + cosh u sen v x̂2 )
=⇒ 2 −1/2
êv = senh u + sen2 v
(− cosh u sen v x̂1 + senh u cos v x̂2 )
ê3 = x̂3
( p
hu = hv = a senh2 u + sen2 v
=⇒
h3 = 1.
Novamente observa-se que o sistema é ortogonal, êu · êv = êu · x̂3 = êv · x̂3 = 0 e êu × êv = x̂3 ,
bem como todas as permutações cíclicas.
Agora, os vetores da base canônica podem ser escritos em termos da nova base como
2 2
−1/2
x̂1 = senh u + sen v
(senh u cos v êu − cosh u sen v êv )
−1/2
x̂2 = senh2 u + sen2 v
(cosh u sen v êu + senh u cos v êv )
x̂3 = ê3 .
Assim, o vetor posição pode ser escrito em termos da nova base como
a senh u cosh u a sen v cos v
r=p êu − p êv + x3 x̂3 .
2
senh u + sen v 2 senh2 u + sen2 v
O tensor de métrica é dado por
a senh2 u + sen2 v
2
0 0
a2 senh2 u + sen2 v 0 .
g= 0
0 0 1
d`
r
A(r)
Figura 1.9: Linhas de força do campo A (r). O elemento de arco d` é tangencial ao campo no ponto r.
h1 A2 dq1 − h2 A1 dq2 = 0
h3 A1 dq3 − h1 A3 dq1 = 0 (1.27)
h2 A3 dq2 − h3 A2 dq3 = 0,
A segunda equação mostra que ϕ = cte. ao longo de uma linha de força. Já a primeira fica
escrita
dr
= cotan θdθ =⇒ ln r1/2 = ln (sen θ) + C =⇒ r = L sen2 θ,
2r
sendo L uma constante que parametriza uma determinada linha de força.
O exemplo a seguir obtém as linhas de força de um quadrupolo elétrico.
Exemplo 1.3. Linhas de força de um quadrupolo elétrico.
Seja um quadrupolo elétrico gerado pela seguinte distribuição de 3 cargas elétricas posicio-
nadas ao longo do eixo z: 1 carga +q em z = −b, uma carga −2q em z = 0 e uma carga +q em
z = +b. Para esta distribuição em particular, não existem termos nem de monopolo (carga total
nula) nem de dipolo (ptotal = p − p = 0). Portanto, a primeira contribuição não nula em uma
expansão de multipolos provém do termo de quadrupolo elétrico.
O potencial eletrostático desta distribuição, observado em um ponto r b é dado por
Kqb2
3 cos2 θ − 1 .
Φ (r) =
r3
Então o campo elétrico fica, em coordenadas esféricas,
∂Φ 1 ∂Φ
E (r) = −∇Φ (r) = − êr − êθ ,
∂r r ∂θ
Kqb2
3 cos2 θ − 1 êr + sen (2θ) êθ .
E (r) = 3 4
r
Assim, o sistema de equações (1.27) fica
1
sen (2θ) dr − 3 cos2 θ − 1 dθ = 0
r
dϕ = 0.
1 3 cos2 θ − 1
dr = dθ.
r sen (2θ)
R EFERÊNCIAS
ARFKEN, G. B.; WEBER, H. J. Mathematical Methods for Physicists. Sixth. New York: Elsevier,
2005. 1182 + xii pp. ISBN: 0-12-059876-0.
CHOW, T. L. Mathematical Methods for Physicists: A Concise Introduction. Cambridge: Cambridge,
2000. 555 pp. ISBN: 0521655447.
M xas quando na física estamos interessados apenas nas soluções reais. Poder-se-ia
esperar que um estudo de funções reais de variáveis reais seria suficiente para se
conhecer as soluções fisicamente relevantes. A resposta é que em muitas situa-
ções é desejavel estender nosso estudo a valores complexos das variáveis e das
soluções por razões de completicidade e conveniência. Por exemplo, o conjunto dos números
reais não forma uma base suficiente para a representação das raízes de equações polinomiais
ou algébricas. Além disso, o conhecimento do comportamento de uma função complexa f (z),
para todos os valores complexos de z, nos fornece uma visão mais completa de suas principais
propriedades (mesmo suas propriedades para z real), do que o conhecimento de seu compor-
tamento para somente valores reais de z. A localização, no plano complexo, dos zeros e dos
infinitos de f (isto é, a posição das raízes de f (z) = 0 e de 1/f (z) = 0) nos fornece informações
sobre o comportamento de f para todos os valores de z. Adicionalmente, uma integral de f (z)
ao longo de valores reais de z pode ser modificada em uma integral ao longo de uma trajetória
conveniente no plano complexo, de forma a simplificar consideravelmente o seu cálculo.
Integrais no plano complexo possuem uma ampla variedade de aplicações úteis na física e na
matemática. Dentre estas, pode-se destacar:
23
24 2.1. Números e variáveis complexos
ou a razão entre o perímetro de uma circunferência de raio unitário e o seu diâmetro, igual a
π = 3.14159265359 . . . , não podem ser expressos por números racionais. O conjunto dos números
irracionais é representado pelo símbolo Q0 . Nota-se aqui que Q não contém nem está contido em
Q0 , sendo ambos conjuntos de números completamente distintos.
A reunião, ou a união, dos números racionais com os irracionais formam o conjunto dos
números reais, representado pelo símbolo R (R = Q ∪ Q0 ). Disciplinas usuais de cálculo apre-
sentam seus teoremas e resultados considerando somente números pertencentes ao conjunto
R. Contudo, este conjunto ainda está incompleto para aplicações em álgebra e para a análise
matemática.
Os números complexos foram descobertos na Idade Média, ao se pesquisar as raízes de certas
equações quadráticas, tais como
√
z 2 + 1 = 0 =⇒ z = ± −1.
É óbvio, pelo nome dado, que eles foram considerados de maneira suspeita. Leonhard Paul
Euler (1707-1783), em 1777, introduziu o símbolo
√
i = −1.
Carl Friedrich Gauss (1777-1855), na sua tese de doutorado em 1799, forneceu aos números
complexos a agora familiar expressão algébrica z = x + iy, bem como a sua representação geomé-
trica (vetorial) e, com isso, ajudou a desvendar parte de seu mistério. Neste século, a tendência
tem sido definir os números complexos como símbolos abstratos sujeitos a certas regras formais
de manipulação. √
Como o número −1 não possui representação possível dentro do conjunto√ de números reais,
chamou-se este número de imaginário puro e atribuiu-se a ele símbolo i = −1. Além disso,
definiu-se um conjunto mais amplo de números, denominado conjunto dos números complexos
C ⊃ R, o qual contém todos os números complexos, tendo o conjunto dos números reais como
um sub-conjunto.
Um número complexo nada mais é que um par ordenado de dois números reais x e y. Assim,
o número complexo z pode ser representado de, pelo menos, duas maneiras:
z = (x, y) = x + iy,
sendo a última representação a preferida neste texto. Deve-se notar que o ordenamento é signi-
ficante; assim, a + ib 6= b + ia.
Uma propriedade imediata do número i pode ser deduzida observando-se que i2 = i · i = −1,
i = i2 · i = −i, i4 = i2 · i2 = 1, i5 = i · i4 = i, . . . . Da mesma forma,
3
1 i
i−1 = = = −i
i i·i
1
i−2 = 2 = −1
i
Autor: Rudi Gaelzer – IF/UFRGS Início: 04/2010 Impresso: 29 DE AGOSTO DE 2018
C APÍTULO 2. Funções de Uma Variável Complexa 25
1
i−3 = − =i
i
i−4 = 1
... ...,
resultando
x = r cos θ
y = r sen θ,
onde
p
r= x2 + y 2 (2.2b)
−1
θ = tan (y/x) . (2.2c)
1 Ver uma definição mais geral para o intervalo de variação de θ a seguir.
ou seja,
eiθ = cos θ + i sen θ .
Esta é a conhecida Fórmula de Euler.
Re z = x.
Im (a) Im (b)
b+d
2
z1 .z
z2 z2
2
1 +z
z
θ1+θ2
b θ2 z1
z1
c a a+c θ1
Re Re
Multiplicação de complexos:
Divisão de complexos:
z1 z∗ z1 .z2∗
= z1 2 ∗ = 2 , ou
z2 z2 .z2 |z2 |
z1 a + ib (a + ib)(c − id) ac + bd ad − bc
= = = 2 −i 2 .
z2 c + id (c + id)(c − id) c + d2 c + d2
Outras operações algébricas, como potenciação e radiciação, serão vistas nas seções seguintes.
O valor absoluto de z ainda possui as seguintes propriedades. Sendo {z1 , z2 , . . . , zn } números
complexos, então
z n − w = 0, (2.7)
z0n = w,
pode-se usar para ambos as suas formas polares dadas por (2.2a),
possibilitando-nos a identificar
n
p
n
|z0 | = |w| =⇒ |z0 | = |w|,
Im Im (b)
(a)
w w
z1
z 0
z0
Re Re
z 1
z2
α
nθ = α =⇒ θ = .
n
Portanto, a raiz principal de (2.7) é dada por
p h α α i p
z0 = n
|w| cos + i sen = n |w|eiα/n . (2.9a)
n n
Contudo, como já foi mencionado, existem outras n − 1 raízes distintas de w. Estas outras raízes
podem ser determinadas levando-se em conta as identidades
Exemplo 2.1 (Raízes quadradas). Dado o número w = 1 + i, encontre as suas raízes quadradas.
Solução: há exatamente 2 raízes quadradas para w. Inicialmente, escreve-se w na forma polar:
√ π π √ π
w = 2 cos + i sen =⇒ |w| = 2 e α = ,
4 4 4
sendo que π/4 ; 45◦ . De acordo com (2.9b), n = 2, k = 0, 1, e as raízes são:
√
4
π π
z0 = 2 cos + i sen ,
8 8
Autor: Rudi Gaelzer – IF/UFRGS Início: 04/2010 Impresso: 29 DE AGOSTO DE 2018
30 2.3. Funções de uma variável complexa
√
4 9π 9π
z1 = 2 cos + i sen ,
8 8
sendo que π/8 ; 22, 5◦ e 9π/8 ; 202, 5◦ , de tal forma que as raízes z0 e z1 são antiparalelas no
plano complexo. Estas raízes encontram-se representadas no diagrama da figura 2.3(a).
Exemplo 2.2 (Raízes cúbicas). Dado o número w = 1 + i, encontre as suas raízes cúbicas.
Solução: há exatamente 3 raízes cúbicas para w. Dado w na forma polar:
√ π π √ π
z = 2 cos + i sen =⇒ |z| = 2 e θ = ,
4 4 4
sendo que π/4 ; 45◦ . Agora, de acordo com (2.9b), n = 3, k = 0, 1, 2, e as raízes são:
√6
h π π i
z0 = 2 cos + i sen ,
12 12
√
6 3π 3π
z1 = 2 cos + i sen ,
4 4
√
6 17π 17π
z2 = 2 cos + i sen ,
12 12
sendo que π/12 ; 15◦ , 3π/4 ; 135◦ e 17π/12 ; 255◦ , de tal forma que z0 , z1 e z2 estão nos vértices
de um triângulo equilátero. Estas raízes encontram-se representadas no diagrama da figura
2.3(b).
w = f (z).
√
Para k = 0 : w0 = reiθ/2 −→ ramo principal.
√ √
Para k = 1 ; w1 = reiθ/2 eiπ = − reiθ/2 −→ segundo ramo.
onde u (x, y) e v (x, y) são ambas funções reais. Igualando as partes real e imaginária das expres-
sões acima, obtém-se
Re w = u = u (x, y) , Im w = v = v (x, y) .
Se w = f (z) é uma função unívoca de z, então pode-se imaginar o plano complexo de z e, a
cada ponto neste plano, corresponde um ponto no plano complexo de w. Se f (z) for plurívoca,
então um ponto no plano complexo de z é mapeado em mais de um ponto no plano complexo de
w. Pontos no plano z são mapeados em pontos no plano w, enquanto que curvas no plano z são
mapeadas em curvas no plano w. A figura 2.4 ilustra o processo de mapeamento.
f(z)
w
z
Pode-se constatar que f1 (z) permanece inalterada frente a transformação (2.10), porém f2 (z)
muda de sinal. Como o plano complexo possui por definição uma variação total de fase igual a
2π, a transformação (2.10) levou f2 (z) a um valor distinto daquele que apresentava no início. De
fato, f2 (z) somente retornará ao valor inicial através de uma nova rotação completa. Ou seja,
√
Figura 2.5: Linha de ramificação para a função w = z.
√
f2 (z) = z não apresenta simetria frente a uma rotação de 2π radianos, mas sim frente a uma
rotação θ → θ + 4π, em cuja situação
ez − e−z
senh z = +
2
cosh2 z − senh2 z = 1.
z −z
e +e
cosh z =
2
É possível mostrar as seguintes relações entre as funções trigonométricas circulares e as
hiperbólicas:
Como se pode notar, esta função possui infinitos ramos, sendo w = ln r + iθ, para 0 6 θ < 2π,
o ramo principal. A superfície de Riemann para esta função está representada na figura
2.7.
√
Figura 2.6: Folhas de Riemann da função z.
1. A função f (z) está definida e é unívoca em uma vizinhança de z = z0 , com a possível exceção
do próprio ponto z0 .
2. Dado um número real positivo qualquer , arbitrariamente pequeno, existe um outro nú-
mero real positivo δ tal que
• O limite w0 deve ser sempre o mesmo para um dado z0 , independente da maneira como é
realizado o limite z → z0 .
• Se f (z) é uma função plurívoca, o limite para z → z0 depende do particular ramo em que se
encontra a vizinhança de z0 .
Solução.
(a) Deve-se mostrar que para qualquer > 0 é sempre possível encontrar-se um δ > 0 (depen-
dendo, em geral, de ) tal que z 2 − z02 < sempre que 0 < |z − z0 | < δ.
Para tanto, considera-se δ < 1. Neste caso, 0 < |z − z0 | < δ implica que
|z − z0 | |z + z0 | < δ |z + z0 | = δ |z − z0 + 2z0 | ,
2
z − z02 < δ (|z − z0 | + 2 |z0 |) < δ (1 + 2 |z0 |) .
Para um 6 1 escolhe-se então δ = / (1 + 2 |z0 |), ou seja, δ < ∀z0 ∈ C, de tal maneira que
2
z − z02 < ,
provando-se o limite.
(b) Não há diferença entre este problema e o problema da parte (a), uma vez que em ambos os
casos o ponto z = z0 foi excluído. Portanto, limz→z0 f (z) = z02 . Nota-se que o valor do limite não
necessariamente é igual ao valor de f (z0 ).
Teorema 2.2 (Propriedades dos limites). Se limz→z0 f (z) = w1 e limz→z0 g(z) = w2 , então as
seguintes propriedades de limites são válidas:
lim f (z)
f (z) z→z0 w1
• lim = = , desde que w2 6= 0.
z→z0 g(z) lim g(z) w2
z→z0
2.4.2 C ONTINUIDADE
Seja f (z) definida e unívoca em uma vizinhança de z = z0 , assim como em z = z0 . A função
f (z) é dita contínua em z = z0 se
lim f (z) = f (z0 ) .
z→z0
Observa-se que isso implica em três condições que devem ser satisfeitas:
1. O limite deve existir.
2. f (z0 ) deve existir, isto é, f (z) deve ser definida em z = z0 .
3. O limite deve ser igual a f (z0 ).
Pontos no plano z onde f (z) deixa de ser contínua são denominados descontinuidades de f (z).
Se o limite limz→z0 f (z) existe mas não é igual a f (z0 ), então z0 é denominado uma desconti-
nuidade removível, pois é sempre possível redefinir-se f (z) para se obter uma função contínua.
Teorema 2.3 (Teoremas de continuidade). Os seguintes teoremas de continuidade são válidos.
• Se f (z) é contínua em uma região fechada do plano complexo, então ela é limitada nessa
região; isto é, existe uma constante real positiva M tal que |f (z)| < M para todos os pontos
z dentro dessa região.
• Se f (z) é contínua em uma região, então as partes real e imaginária de f (z) também são
contínuas nessa região.
ou seja,
lim f (z0 + ∆z) = f (z0 ) .
z→z0
Se f 0 (z) existe em z0 e em todos os pontos em uma dada vizinhança de z0 , então f (z) é dita
analítica em z0 . A função f (z) é analítica na região R se ela é analítica em todos os pontos
z ∈ R. Contudo, nem toda a função contínua é diferenciável em z = z0 .
Exemplo 2.4. Dada a a função f (z) = z ∗ , mostre que embora esta seja contínua em qualquer
z0 ∈ C, sua derivada dz ∗ /dz não existe em z0 .
Solução. Pela definição (2.11),
∗ ∗ ∗
dz ∗ (z + ∆z) − z ∗ (x + iy + ∆x + i∆y) − (x + iy)
= lim = lim
dz ∆→0 ∆z ∆x→0 ∆x + i∆y
∆y→0
x − iy + ∆x − i∆y − (x − iy) ∆x − i∆y
= lim = lim .
∆x→0 ∆x + i∆y ∆x→0 ∆x + i∆y
∆y→0 ∆y→0
2 2
|z + ∆z| − |z| (z + ∆z) (z ∗ + ∆z ∗ ) − zz ∗
g 0 (z) = lim = lim
∆z→0 ∆z ∆z→0 ∆z
z ∗ ∆z + z∆z ∗ + ∆z∆z ∗ ∆z ∗
= lim = z ∗ + z lim + lim ∆z ∗ .
∆z→0 ∆z ∆z→0 ∆z ∆z→0
g 0 (z) = z ∗ + z.
g 0 (z) = z ∗ − z.
Existe um número infinito de maneiras para ∆z tender a zero sobre o plano complexo. Consideram-
se duas possibilidades (ver figura 2.9): ao longo de x ou ao longo de y. Supondo-se que se tome
primeiro a rota ao longo de x, mantendo y constante, isto é, ∆y = 0. Neste caso,
u (x + ∆x, y) − u (x, y) v (x + ∆x, y) − v (x, y) ∂u ∂v
f 0 (z) = lim + i lim = +i .
∆x→0 ∆x ∆x→0 ∆x ∂x ∂x
Agora, toma-se a rota ao longo de y, mantendo x constante (∆x = 0). Neste caso,
u (x, y + ∆y) − u (x, y) v (x, y + ∆y) − v (x, y) ∂u ∂v
f 0 (z) = lim + i lim = −i + .
∆y→0 i∆y ∆y→0 i∆y ∂y ∂y
A condição necessária para que f (z) seja analítica é que o li-
mite deve resultar sempre no mesmo valor, independente do ca-
minho adotado sobre o plano complexo. Portanto, uma condição
necessária para que f (z) seja analítica é
∂u ∂v ∂u ∂v
+i = −i + ,
∂x ∂x ∂y ∂y
de onde resultam as condições de Cauchy-Riemann
∂u ∂v ∂u ∂v
= e =− . (2.13)
∂x ∂y ∂y ∂x
Figura 2.9: Caminhos alternati-
Estas relações fornecem também duas expressões úteis para a vos para z0 .
derivada de f (z):
∂u ∂v ∂v ∂u
f 0 (z) = +i = −i . (2.14)
∂x ∂x ∂y ∂y
Podemos estabelecer então o seguinte teorema.
Teorema 2.6 (Condição necessária). Se a derivada f 0 (z) de um função f (z) = u(x, y) + iv(x, y)
existe em um ponto z = x+iy, então as derivadas parciais de primeira ordem de u(x, y) e v(x, y) com
respeito a x e a y devem existir neste ponto e satisfazer as relações de Cauchy-Riemann (2.13).
Além disso, f 0 (z) pode ser determinada pelas expressões (2.14).
Exemplo 2.6 (Condições de Cauchy-Riemann). Seja a função f (z) = z 2 = x2 − y 2 + i2xy. Neste
caso, u(x, y) = x2 − y 2 e v(x, y) = 2xy. Para estas funções,
∂u ∂v ∂u ∂v
= 2x = e = −2y = − .
∂x ∂y ∂y ∂x
Portanto, as relações de Cauchy-Riemann são satisfeitas e f 0 (z) pode ser obtida por (2.14),
∂u ∂u ∂v ∂v
= 2x, = 2y, = = 0,
∂x ∂y ∂x ∂y
estas não satisfazem as relações (2.13) e, portanto, a função f (z) não possui derivada.
As condições de Cauchy-Riemann fornecem uma condição necessária para que a função
seja diferenciável em algum ponto z = z0 . Contudo, não há garantia até este momento de que
estas condições sejam suficientes para garantir a existência desta derivada. Um teorema mais
geral, apresentado a seguir, estabelece as condições necessária e suficiente para a existência da
derivada de f (z).
Teorema 2.7 (Condição necessária e suficiente). Dada a função f (z) = u (x, y) + iv (x, y), se
u (x, y) e v (x, y) são contínuas com derivadas parciais de primeira ordem e que satisfazem as
condições de Cauchy-Riemann (2.13) em todos os pontos em uma região R ⊆ C , então f (z) é
analítica em R.
Demonstração. Para provar este teorema, é necessário empregar o seguinte teorema do cálculo
de funções reais de 2 variáveis: se h (x, y), ∂h/∂x e ∂h/∂y são contínuas em uma região R em
torno do ponto (x0 , y0 ), então existe uma função H (∆x, ∆y) tal que H (∆x, ∆y) → 0 à medida que
(∆x, ∆y) → (0, 0) e
∂h ∂h
q
2 2
h (x0 + ∆x, y0 + ∆y) − h (x0 , y0 ) = ∆x + ∆y + H (∆x, ∆y) (∆x) + (∆y) .
∂x (x0 ,y0 ) ∂y (x0 ,y0 )
f (z0 + ∆z) − f (z0 ) = [u (x0 + ∆x, y0 + ∆y) − u (x0 , y0 )] + i [v (x0 + ∆x, y0 + ∆y) − v (x0 , y0 )] ,
∂u ∂u
q
2 2
f (z0 + ∆z) − f (z0 ) = ∆x + ∆y + H (∆x, ∆y) (∆x) + (∆y)
∂x (x0 ,y0 ) ∂y (x0 ,y0 )
" #
∂v ∂v
q
2 2
+i ∆x + ∆y + G (∆x, ∆y) (∆x) + (∆y) ,
∂x (x0 ,y0 ) ∂y (x0 ,y0 )
onde H (∆x, ∆y) → 0 e G (∆x, ∆y) → 0 quando (∆x, ∆y) → (0, 0).
Empregando agora as condições de Cauchy-Riemann (2.13), obtém-se
" #
∂u ∂v
f (z0 + ∆z) − f (z0 ) = +i (∆x + i∆y)
∂x (x0 ,y0 ) ∂x (x0 ,y0 )
portanto,
q
2 2
(∆x) + (∆y)
f (z0 + ∆z) − f (z0 ) ∂u ∂v
= +i + [H (∆x, ∆y) + iG (∆x, ∆y)] .
∆z ∂x (x0 ,y0 ) ∂x (x0 ,y0 ) ∆x + i∆y
Ou seja,
0 ∂u ∂v
f (z0 ) = +i ,
∂x (x0 ,y0 ) ∂x (x0 ,y0 )
o que mostra que o limite e, portanto, f 0 (z) existem em todos os pontos em R. As condições de
Cauchy-Riemann são, portanto necessárias e suficientes para garantir a existência de f 0 (z) em
R.
• Se a função f (z) é analítica sobre todo o plano z complexo, ela é denominada inteira.
• Uma função f (z) é denominada singular em z = z0 se ela não é diferenciável neste ponto.
O ponto z0 é denominado ponto singular ou singularidade de f (z).
∂u ∂v ∂u ∂v
= e =−
∂x ∂y ∂y ∂x
e, portanto,
∂2u ∂2v ∂2u ∂2v
2
= e 2
=− ,
∂x ∂x∂y ∂y ∂y∂x
desde que as derivadas segundas existam. Igualando a ambas as expressões acima, obtém-se
que u (x, y) e v (x, y) satisfazem a Equação de Laplace:
∂2u ∂2u
+ 2 =0 (2.15a)
∂x2 ∂y
2
∂ v ∂2v
+ =0 (2.15b)
∂x2 ∂y 2
Exemplos:
o qual define um caminho sobre o plano complexo à medida que t varia de a a b. Diz-se que este
curva é suave se existe um vetor tangente à mesma ao longo de todos os pontos; isto implica
que dx/dt e dy/dt existem são contínuas e não são nulas simultaneamente para a 6 t 6 b.
Sendo C uma curva suave sobre o plano z complexo, como mostra a figura 2.10, assume-se
que a mesma possui um comprimento finito. Dada agora a função f (z), contínua sobre todos
os pontos ao longo de C, subdivide-se C em n partes por meio dos pontos {z0 , z1 , z2 , . . . , zn },
arbitrariamente escolhidos, mas com z0 = a e zn = b. Para cada arco de C que conecta os pontos
zk−1 e zk (k = 1, 2, . . . , n), escolhe-se um ponto wk (zk−1 6 wk 6 zk ) e forma-se a soma
n
X
Sn = f (wk ) ∆zk , onde ∆zk = zk − zk−1 .
k=1
Fazendo-se agora com que o número de subdivisões n aumente indefinidamente, de tal forma
que o maior dos |∆zk | tenda a zero, a soma Sn aproxima-se de um limite. Se este limite existe e
possui o mesmo valor, independente das escolhas dos {zk } e dos {wk } ao longo de C, então este
limite é denominado a integral de caminho (ou de linha) de f (z) ao longo de C e é denotado
por:
Xn ˆ ˆ b
S = lim Sn = n→∞ lim f (wk ) ∆zk ≡ f (z) dz = f (z) dz. (2.17)
n→∞ C a
|∆z|max →0 k=1
onde a curva C pode ser aberta ou fechada, mas o sentido de integração deve sempre ser espe-
cificado, por exemplo através do uso de um parâmetro t. Invertendo-se o sentido de variação de
t, inverte-se o sinal da integral.
Integrais complexas são, portanto, redutíveis a integrais reais de caminho e possuem as
seguintes propriedades:
ˆ ˆ ˆ
(1) [f (z) + g(z)] dz = f (z) dz + g(z) dz.
C C C
ˆ ˆ
(2) kf (z) dz = k f (z) dz, sendo k ∈ C uma constante.
C C
ˆ b ˆ a
(3) f (z) dz = − f (z) dz, sendo {a, b} ∈ C.
a b
ˆ b ˆ m ˆ b
(4) f (z) dz = f (z) dz + f (z) dz, sendo m ∈ C.
a a m
ˆ
(5) f (z) dz 6 M L, onde M = max |f (z)| ao longo de C e L é o comprimento de C.
C
ˆ ˆ
(6) f (z) dz 6
|f (z)| |dz|.
C C
A propriedade (5), em particular, é bastante útil e será bastante utilizada, porque ao se trabalhar
com integrais de linha complexas, com frequência é necessário estabelecer-se limites nos seus
valores absolutos.
Demonstração. (Propriedade 5). Retornando à definição (2.17),
ˆ Xn
f (z) dz = n→∞
lim f (wk ) ∆zk .
C |∆z|max →0 k=1
Mas, n
X X n n
X
f (wk ) ∆zk 6 |f (wk )| |∆zk | 6 M |∆zk | 6 M L,
k=1 k=1 k=1
P
onde se fez uso do fato de que |f (z)| 6 M para todos os pontos z ao longo de C e que |∆zk |
representa a soma de todas as cordas juntando os pontos zk−1 e zk ao longo de C e que esta soma
não pode ser maior que o comprimento L de C. Tomando-se agora o limite para n → ∞ em ambos
os lados, resulta a propriedade (5). A propriedade (6) também segue desta demonstração.
´ 2
Exemplo 2.8. Calcule a integral C (z∗) dz, sendo C a linha reta ligando os pontos z = 0 e
z = 1 + 2i.
Solução. Uma vez que
2 2
(z∗) = (x − iy) = x2 − y 2 − 2ixy,
resulta ˆ ˆ ˆ
2 2 2
−2xy dx + x2 − y 2 dy .
(z∗) dz = x −y dx + 2xy dy + i
C C C
Para parametrizar a curva C, pode-se escolher x(t) e y(t) dados por
x(t) = t, y(t) = 2t, para (0 6 t 6 1) ,
ou, simplesmente, pode-se escrever y = 2x. Portanto,
ˆ ˆ 1 ˆ 1
2 2 5 10
−10x2 dx = − i.
(z∗) dz = 5x dx + i
C 0 0 3 3
Solução. Por conveniência, escolhe-se z−z0 = reiθ , onde θ é o parâmetro cuja variação (0 6 θ < 2π)
determina o contorno C. Então, dz = ireiθ dθ e a integral fica:
˛ ˆ 2π ˆ 2π ˆ 2π
(
dz ireiθ dθ i i 2πi, n = 0
n+1 = = n e−inθ dθ = n (cos nθ − i sen nθ) dθ =
(z − z0 ) 0 rn+1 ei(n+1)θ r 0 r 0 0, |n| > 1.
Este é um resultado importante, que será utilizado diversas vezes nas seções posteriores.
Uma curva C é dita simples (também denominada arco de Jordan) se esta não se intersec-
ciona em nenhum ponto, isto é, z (t1 ) 6= z (t2 ) se t1 6= t2 , para a 6 t 6 b. A exceção z(b) = z(a) é
permitida para um contorno fechado, em cuja situação o contorno é dito contorno simples ou
curva simples fechada ou ainda curva ou contorno de Jordan. A figura 2.11 mostra exemplos
de curvas simples e de curvas não simples.
Um domínio ou região simplesmente conexa D é uma região no plano complexo tal que
toda curva simples fechada Γ dentro de D delimita somente pontos que pertencem a D. Uma
outra definição: uma região D é dita simplesmente conexa se qualquer curva simples fechada Γ
contida dentro de D pode ser reduzida a um ponto de tal maneira que nenhum ponto contido
em Γ abandone D.
Uma região que não é simplesmente conexa é dita multiplamente conexa. De acordo com
as definições, deve então existir pelo menos uma curva simples fechada Γ contida em D que
cerca pontos que não pertencem a D. Ou, alternativamente, uma região multiplamente conexa
é aquela que não pode ser reduzida a um ponto sem que abandone (mesmo que momentanea-
mente) a região D. A figura 2.12 apresenta exemplos de regiões simplesmente e multiplamente
conexas.
Figura 2.12: Exemplos de regiões: (a) simplesmente conexa e (b) e (c) multiplamente conexas.
Considera-se uma região D do plano complexo, composta por pontos no interior e ao longo
de um contorno simples fechado Γ. O contorno é percorrido no sentido positivo se todos os
pontos de D se situarem à esquerda de um observador que se desloca ao longo de Γ. Este sentido
positivo consiste no percurso anti-horário indicado pelas setas nos contornos Γ, representados
nas figuras 2.12, e no percurso horário nos contornos interiores a Γ.
Observação. A demonstração do teorema (2.18) baseia-se no teorema de Stokes e não será apre-
sentada aqui.
Demonstração. A situação descrita no teorema está ilustrada pela figura 2.13a. O contorno
mostrado na figura é composto por C, juntamente com os contornos C1 , . . . , Cn e os segmentos
de reta L11 , L21 , . . . , Ln1 e Ln2 . Desta maneira a região R passa de multiplamente conexa a sim-
plesmente conexa. Aproximando-se agora os pares de segmentos de reta L11 e L12 , L21 e L22 , . . . ,
Ln1 e Ln2 , de tal forma que a distância entre os mesmos se torne infinitesimalmente pequena, as
integrais de caminho de f (z) em cada par de segmentos se anulam mutuamente, isto é,
ˆ ˆ ˆ ˆ ˆ ˆ
f (z) dz = − f (z) dz, f (z) dz = − f (z) dz, ··· f (z) dz = − f (z) dz,
L11 L12 L21 L22 Ln
1 Ln
2
de tal forma que o contorno restante é exatamente o contorno B descrito no teorema. Como a
região R é agora simplesmente conexa e a função f (z) é analítica em R, de (2.19) resulta
˛
f (z) dz = 0.
B
sendo que tanto a integral ao longo de C quanto as integrais nos contornos Cj são realizadas no
sentido anti-horário.2
2O que fica evidenciado pelo símbolo .
Figura 2.13: Contorno B que transforma uma região multiplamente conexa em uma região simplesmente conexa.
Demonstração. Esta situação também está ilustrada na figura 2.13. Ao se considerar o contorno
B na figura 2.13a, o teorema de Cauchy (2.20) afirma que
˛ ˆ ˆ ˆ ˆ
!
n
X
f (z) dz = + + + f (z) dz = 0,
B C j=1 −Cj Lj1 −Lj2
onde ˆ ˆ ˆ ˆ ! ˆ ˆ !
f (z) dz = − f (z) dz =⇒ + f (z) dz = − f (z) dz.
−Lj2 Lj2 Lj1 −Lj2 Lj1 Lj2
Ao se reduzir a distância de cada par de segmentos de reta Lj1 e Lj2 assintoticamente a zero, as
integrais de linha percorrem o mesmo caminho sobre o plano complexo, resultando então que
ˆ ˆ !
Lj →Lj
− f (z) dz −−2−−−→
1
0.
Lj1 Lj2
onde se deve notar o símbolo . Como os contornos Cj são percorridos no sentido horário, de
acordo com a figura (2.13)a, resulta que
ffi
=− ,
−Cj Cj
independe do caminho ligando os pontos z0 e z, desde que este caminho esteja totalmente contido
em R.
Demonstração. A situação está ilustrada na figura 2.14. Sendo C1 e C2 dois caminhos quaisquer,
contidos em R e que ligam os pontos z0 e z, então, de acordo com o teorema de Cauchy (2.19),
ˆ ˆ ˆ ˆ
f (z) dz + f (z) dz = 0, mas f (z) dz = − f (z) dz.
−C1 c2 −C1 C1
Portanto ˆ ˆ
f (z) dz = f (z) dz,
C1 c2
Teorema 2.14 (Teorema de analiticidade). Seja f (z) uma função contínua em uma região
simplesmente conexa R e sejam z0 e z dois pontos
´z contidos em R, os quais são conectados por um
caminho C, também contido em R. Então, se z0 f (s) ds independe de C,
ˆ z
F (z) = f (s) ds é analítica em R e F 0 (z) = f (z).
z0
Como a função f (z) é contínua em R, então para um número positivo , deve existir um outro
número positivo δ tal que
|f (s) − f (z)| <
sempre que |s − z| < δ. Desta forma, se z + ∆z é próximo o suficiente de z de tal forma que
|∆z| < δ, então ˆ
z+∆z
[f (s) − f (z)] ds < |∆z|
z
e, portanto,
F (z + ∆z) − F (z)
< 1 |∆z| = .
− f (z) |∆z|
∆z
F (z + ∆z) − F (z)
lim ≡ F 0 (z) = f (z).
∆z→0 ∆z
Portanto, a derivada de F (z) existe em todos os pontos z pertencentes a R. Como consequência,
F (z) é analítica em R e sua derivada é igual a f (z), demonstrando o teorema.
Teorema 2.15 (Teorema
¸ de Morera). Se uma função f (z) é contínua em uma região simples-
mente conexa R e C f (z) dz = 0 para todo contorno simples fechado C no interior de R, então f (z)
é analítica em R.
Observação. O teorema de Morera é a recíproca do teorema de Cauchy.
Exemplo 2.10 (Cálculo de integrais no plano complexo).
¸
Calcule C dz/ (z − a), onde C é um con-
torno fechado simples qualquer, quando z = a
está (a) fora de C e (b) dentro de C.
Solução.
(a) Se z = a está fora de C, então f (z) =
1/ (z − a) é analítica em todos os pontos inter-
nos e ao longo de C. Portanto, pelo teorema
de Cauchy (2.20),
˛
dz
= 0.
C z −a
Agora, o contorno Γ é dado por todos os pontos z tais |z − a| = ε. Pode-se descrever o contorno
na figura 2.15 através do parâmetro θ tal que
Então dz = iεeiθ dθ e ˛ ˆ ˆ
2π 2π
dz iεeiθ dθ
= =i dθ = 2πi.
Γ z−a 0 εeiθ 0
Ou seja, ˛
1 f (z)
f (z0 ) = dz.
2πi C z − z0
Solução.
(a) Escrevendo-se a integral na forma
˛
ez
dz
,
C z+i z−i
z
percebe-se que f (z) = e / (z + i) é analítica dentro e sobre a circunferência de raio unitário
centrada em z0 = i. Portanto, pela fórmula integral de Cauchy (2.22), temos
˛ z
e dz ei
= 2πif (i) = 2πi = πei = π (cos 1 + i sen 1) .
C z+i z−i 2i
(b) Para a circunferência centrada em z0 = −i, define-se f (z) = ez / (z − i), a qual é novamente
analítica dentro e sobre C. Então, usando novamente (2.22) resulta
˛ z
e dz e−i
= 2πif (−i) = 2πi = −πe−i = −π (cos 1 − i sen 1) .
C z − i z + i −2i
A fórmula integral de Cauchy pode ser generalizada para derivadas de ordem mais alta de
f (z). Isto é descrito pelo teorema a seguir.
Teorema 2.17 (Fórmula integral de Cauchy para derivadas de ordens mais altas). Seja
f (z) uma função analítica em uma região simplesmente conexa R e z0 é um ponto qualquer no
interior de R, a qual é delimitada pelo contorno simples C, então
˛
(n) n! f (z)dz
f (z0 ) = (2.24)
2πi C (z − z0 )n+1
Demonstração. Uma prova simples, porém incompleta, do teorema (2.24) pode ser feita por inter-
médio da indução matemática. Derivando-se ambos os lados de (2.23) em relação a z, obtém-se
˛
1! f (s)
f 0 (z) = ds.
2πi C (s − z)2
Derivando-se novamente, ˛
00 2! f (s)
f (z) = 3 ds.
2πi C (s − z)
E assim sucessivamente, resultando, para a derivada de ordem n, na fórmula (2.24). A demons-
tração completa desta fórmula integral pode ser obtida na bibliografia citada.
A fórmula (2.24), obtida para uma região simplesmente conexa, pode ser estendida para o
caso onde o contorno simples C é substituído pelo contorno B da figura 2.13, composto por um
contorno exterior C e por um conjunto {Ci } de contornos interiores. Para tanto, basta assumir
que em (2.24) o ponto z0 pertence ao domínio definido por B e que f (z) é analítica neste domínio.
Desta forma, a fórmula integral de Cauchy pode ser estendida a regiões multiplamente conexas.
Solução.
4
(a) Neste caso, a função f (z) = e2z / (z + 1) é analítica dentro e sobre C. Portanto, pelo teorema
de Cauchy,
˛
e2z
4 dz = 0.
C (z + 1)
(b) Chamando agora f (z) = e2z , esta função é analítica dentro e sobre C. Portanto, de acordo
com o teorema (2.24),
˛ ˛
e2z dz 2πi (3) (3) −2 e2z dz 8π −2
4 = f (−1) . Como f (−1) = 8e , resulta 4 = e i.
C (z + 1) 3! C (z + 1) 3
é denominada a n-ésima soma parcial da série (2.25). A soma dos termos restantes, partindo
do (n + 1)-ésimo termo, é denominada de resto da série.
2. A multiplicação de cada termo de uma série por uma constante não nula não afeta a
convergência, assim como a remoção ou adição de um número finito de termos.
3. Uma condição necessária e suficiente para que a série de termos complexos
∞
X
fn (z) = f1 (z) + f2 (z) + f3 (z) + · · · + fn (z) + · · ·
n=1
seja convergente é que as séries das respectivas partes reais e imaginárias dos termos fn (z)
sejam convergentes. Além disso, se
∞
X ∞
X
Re fn e Im fn
n=1 n=1
convergem às respectivas funções R (z) e I (z), então a série complexa converge para S (z) =
R (z) + iI (z).
formam uma série convergente, então a série (2.25) é dita absolutamente convergente.
Se a série (2.25) converge, mas não é absolutamente convergente, então esta é dita condicio-
nalmente convergente. A partir da definição de convergência, pode-se demonstrar os teoremas
a seguir.
Teorema 2.19 (Teoremas de convergência absoluta). Os seguintes teoremas são válidos.
P∞ P∞
1. Se n=1 |fn (z)| converge, então n=1 fn (z) também converge (condição suficiente).
2. A soma, diferença ou o produto de séries absolutamente convergentes é convergente.
Seja
Rn (z) = fn+1 (z) + fn+2 (z) + · · · = S (z) − Sn (z)
o resto da série S (z), dada por (2.26), sobre uma região R. A série S (z) é dita uniformemente
convergente em R se, dado um número real positivo , é possível encontrar um número inteiro
positivo N , tal que para todo z ∈ R,
Teste da razão. Dentre todos os testes de convergência, o mais útil éPo teste da razão, o qual
∞
se aplica a séries complexas, além de séries reais. Dada a série n=1 fn (z), esta converge
absolutamente na região R se
fn+1 (z)
0 < |r (z)| = lim
<1 (2.27)
n→∞ fn (z)
e diverge se |r (z)| > 1. Quando |r (z)| = 1, este teste não fornece informação conclusiva a
respeito da convergência da série.
P∞
Teste da raiz. Dada a série n=1 fn (z), esta converge absolutamente na região R se
p
0 < |r (z)| = lim n |fn (z)| < 1
n→∞
e diverge se |r (z)| > 1. Quando |r (z)| = 1, este teste não fornece informação conclusiva a
respeito da convergência da série.
converge.
Solução. Pode-se aplicar o teste da razão separadamente para as partes real e imaginária:
−n−1 −n−1
2 1 e 1
lim n = < 1 e lim n = < 1.
n→∞ 2 2 n→∞ e e
a qual converge para f (z) quando |z − z0 | < R0 . Esta série é denominada Série de Taylor.
Demonstração. Seja z qualquer ponto interior à circunferência C0 . Portanto, se |z − a| = r, então
r < R0 . Seja agora uma outra circunferência C1 , centrada em a e de raio r1 , tal que r < r1 < R0 .
Uma vez que z está dentro de C1 e f (z) é analítica no interior e sobre C1 , a fórmula integral de
Cauchy (2.23) é válida, a qual é escrita da seguinte maneira:
˛ ˛
1 f (w) dw 1 f (w) 1
f (z) = = dw.
2πi C1 w − z 2πi C1 (w − a) 1 − (z − a) / (w − a)
Nota-se que, na integral acima, como w está sempre ao longo do contorno C1 e z é um ponto
interior a C1 , então
z−a
w − a < 1, ∀w.
onde
˛
1 f (z) dz
an = n+1 (2.33b)
2πi C2 (z − z0 )
˛
1 f (z)
bn = −n+1 dz, (2.33c)
2πi C1 (z − z0 )
5 Ver seção 2.10.
6 Isto é, não são inteiras.
Figura 2.17: (a) Anel R1 6 |z − z0 | 6 R2 que representa a região de analiticidade da função. (b) Contornos de
integração interior (C1 ) e exterior (C2 ), utilizados para a derivação da série de Laurent.
sendo que a última identidade é válida porque |z − z0 | < |w − z0 | = R2 , para todo w ao longo de
C2 . Já na segunda integral, escreve-se
∞ j
1 1 1 1 1 X w − z0
− = = = ,
w−z z − z0 − (w − z0 ) z − z0 1 − (w−z0 ) z − z0 j=0 z − z0
(z−z0 )
sendo que agora a última identidade é válida porque |w − z0 | = R1 < |z − z0 |. Então, pode-se
escrever f (z) como
∞
" ˛ # ∞
" ˛ #
X 1 f (w) dw j
X 1 f (w) dw 1
f (z) = (z − z0 ) + −j
j=0
2πi C2 (w − z0 )j+1 j=0
2πi C1 (w − z0 ) (z − z0 )
j+1
∞
" ˛ # ∞
" ˛ #
X 1 f (w) dw j
X 1 f (w) dw 1
= (z − z0 ) + −j+1
,
j=0
2πi C2 (w − z0 )j+1 j=1
2πi C1 (w − z0 ) (z − z0 )
j
sendo ˛
1 f (z) dz
cn = n+1 , (n = 0, ±1, ±2, . . . ) . (2.34b)
2πi C (z − z0 )
Teorema 2.23 (Teorema de existência). A série de Laurent (2.34a,b) de uma função f (z), ana-
lítica na região anelar R1 6 |z − z0 | 6 R2 , converge uniformemente para f (z) para ρ1 6 |z − z0 | 6 ρ2 ,
sendo R1 < ρ1 e R2 > ρ2 .
Teorema 2.24 (Teorema de unicidade). Dada uma função analítica f (z), se esta pode ser re-
presentada pela série uniformemente convergente
∞
X n
f (z) = bn (z − z0 )
n→−∞
Esta é a série de Taylor de f (z) em torno de z = 0. Seu raio de convergência é R = |a|, porque a
uma distância R da origem existe o ponto z = a, onde f (z) não é analítica. Este é o único ponto
onde f (z) não é analítica.
Portanto, f (z) deve possuir uma série de Laurent em torno de z = 0 válida para |z| > |a|.
Escrevendo-se
1 1 1
f (z) = = ,
z−a z 1 − a/z
se |z| > |a|, |a/z| < 1 e é possível desenvolver:
∞ n
1 X a
= .
1 − a/z n=0 z
Portanto,
∞ ∞
1 1 X a n X an
f (z) = = = , (|z| > |a|) .
z−a z n=0 z n=0
z n+1
Esta é a série de Laurent desejada.
A função f (z) pode ser espandida por este método em torno de qualquer ponto z = b:
1 1 w=z−b 1
f (z) = = −−−−−→ , (b 6= a) .
z−a (z − b) − (a − b) w − (a − b)
Então,
∞ ∞ n
1 X wn 1 X (z − b)
f (z) = − = − , (|z − b| < |a − b|)
a − b n=0 (a − b)n a − b n=0 (a − b)n
ou
∞ n
X (a − b)
f (z) = n+1 , (|z − b| > |a − b|) .
n=0 (z − b)
Exemplo 2.15 (Decomposição em frações racionais). Seja
1
f (z) = .
z2 − (2 + i) z + 2i
Esta função não é analítica nos pontos z = i e z = 2; portanto, ela deve possuir uma série de
Taylor em torno de z = 0, válida para |z| < 1 e duas séries de Laurent em torno de z = 0, válidas
para 1 < |z| < 2 e |z| > 2, respectivamente. Para se obter estas três séries, usa-se a identidade:
1 1 1 1 1
f (z) = 2 = = − .
z − (2 + i) z + 2i (z − i) (z − 2) 2−i z−2 z−i
Para |z| < 1. Neste caso, pode-se usar diretamente a série geométrica:
∞
1 1 1 1 X z n
=− =− , (|z| < 2)
z−2 2 1 − z/2 2 n=0 2
∞
1 1 X n
=i =i (−iz) , (|z| < 1) .
z−i 1 + iz n=0
Subtraindo-se ambas as séries, obtém-se a série de Laurent para 1 < |z| < 2.
Para |z| > 2. Neste caso, escreve-se:
∞ n
1 1 1 1X 2
= = , (|z| > 2)
z − 2 z 1 − 2/z z n=0 z
∞ n
1 1 1 1X i
= = , (|z| > 1) .
z − i z 1 − i/z z n=0 z
Subtraindo-se ambas as séries, obtém-se a série de Laurent para |z| > 2, a qual é composta
somente pela parte principal.
Exemplo 2.16 (Uso de séries de Taylor conhecidas). Fazendo-se uso das séries de Taylor
para as funções ez e sen z, expressões (2.32b) e (2.32c), respectivamente, as seguintes séries de
Laurent podem ser obtidas:
∞ n
sen z 2 1 X (−1) z 4n−2 1 z2 z6 z 10
4
= 2
+ = 2− + − + · · · , |z| > 0
z z n=1
(2n + 1)! z 3! 5! 7!
∞
ez 1 1 X z n−2 1 1 1 z z2
2
= 2+ + = 2
+ + + + + · · · , |z| > 0
z z z n=2 n! z z 2! 3! 4!
∞
X 1 1 1 1
e1/z =1 + n
=1+ + + + ··· , |z| > 0.
n=1
n!z z 2!z 2 3!z 3
Exemplo 2.17 (Obtenção da série de Laurent por diferenciação). Seja, por exemplo,
1
f (z) = 2.
(z − 1)
Para esta função, não se pode aplicar diretamente a expressão para a série geométrica. Contudo,
sabendo-se que para z 6= 0
1 d 1
2 = ,
(z − 1) dz 1 − z
agora pode-se usar a série geométrica, resultando
∞
1 d 1 d X n
f (z) = 2 = = z .
(z − 1) dz 1 − z dz n=0
Esta série pode ser diferenciada termo a termo dentro de seu círculo de convergência (|z| < 1),
de onde se obtém:
∞
1 X
f (z) = 2 = (n + 1) z n = 1 + 2z + 3z 2 + 4z 3 + · · · .
(z − 1) n=0
Exemplo 2.18 (Obtenção da série de Laurent por integração). Seja, por exemplo,
f (z) = ln (1 + z) = ln |1 + z| + i arg (1 + z) ,
onde se assume que o plano z fica restrido ao ramo principal da função logarítmica.
Sabendo-se que ˆ z
d 1 dw
ln (1 + z) = , então ln (1 + z) = ,
dz 1+z 0 1+w
pode-se desenvolver
∞
1 X n
= 1 − z + z2 − z3 + z4 + · · · = (−1) z n , (|z| < 1) ,
1+z n=0
2.8.9.1 P OLOS
Se a série de Laurent da função f (z) possuir um número finito de termos na sua parte
principal, então esta singularidade é um polo, cuja ordem é dada pela potência mais alta na
parte principal.
Se a série de Laurent da função f (z) possuir um número infinito de termos na sua parte
principal, então a função possui uma singularidade essencial.
sen z z2 z4 z6
f (z) = =1− + − + ···
z 3! 5! 7!
possui uma singularidade removível em z = 0.
contribui com um termo ao resultado da integral, sendo este termo proporcional ao resíduo
da singularidade. Esta propriedade, discutida pelo teorema dos resíduos, é muito útil para o
cálculo de integrais definidas, não somente no plano complexo, mas também puramente reais.
Em muitas situações, o teorema dos resíduos consiste no único método conhecido de solução da
integral. O mesmo teorema também é útil na solução de certas equações diferenciais ordinárias
ou parciais.
2.9.1 R ESÍDUOS
Seja f (z) unívoca e analítica no interior e sobre um contorno fechado simples C, exceto em
um ponto z = z0 , o qual por hipótese é interno a C. Se o ponto z0 é uma singularidade isolada
de f (z), então existe, de acordo com o teorema 2.22, um número real R1 > 0 tal que para
0 < |z − z0 | < R1 a função f (z) pode ser desenvolvida em termos de uma série de Laurent (2.34),
∞
X n c−1 c−2
f (z) = cn (z − z0 ) + + 2 + ··· , (2.37)
n=0
z − z0 (z − z0 )
onde ˛
1 f (z)dz
cn = n+1 .
2πi C (z − z0 )
Em particular, para n = −1 obtém-se que
˛
1
c−1 = f (z)dz. (2.38)
2πi C
resultando em ˛
dz f (z) = 2πic−1 ,
C
de onde resulta o resíduo (2.38).
É comum usar-se também a notação
˛
1
Res f (z0 ) ≡ f (z)dz = c−1 .
2πi C
A fórmula (2.38) consiste em um método poderoso para calcular certas integrais ao longo de
contornos simples fechados. Para tanto, basta conhecer o valor do coeficiente c−1 da série de
Laurent associada à função que está sendo integrada.
Exemplo 2.22. Calcule a integral
˛
e−z dz
2, sendo Cdefinido por |z| = 2.
C (z − 1)
Solução. O único ponto singular do integrando é z = 1, um polo simples interior à circunferência
|z| = 2. Desenvolvendo e−z em uma série de Taylor em torno do ponto z = 1, resulta a série de
Laurent
∞ n
e−z e−1 e−1 −1
X (−1) n−2
2 = 2 − + e (z − 1) , (|z − 1| > 0) ,
(z − 1) (z − 1) z − 1 n=2
n!
cujo resíduo em z = 1 é c−1 = −e−1 . Portanto,
˛
e−z dz 2πi
2 =− .
C (z − 1) e
Observação. Se f (z) for uma função analítica em z = z0 , o resíduo Res f (z) = c−1 é, obviamente
zero. Contudo, se z0 for um ponto singular isolado, o resíduo neste ponto pode ou não ser nulo.
Como f (z) possui uma expansão de Laurent (2.37) em torno de cada ponto singular zj , resulta
a expressão (2.39).
sendo C o contorno que envolve somente o ponto singular z0 . Este método é pouco utilizado, mas
pode ser útil se f (z) tem a primitiva (F 0 (z) = f (z)) conhecida e possui um ponto de ramificação
em z = z0 .
Figura 2.18: Contorno C utilizado na demonstração do teorema dos resíduos. Os pontos {zj } (j = 1, . . . , n) são
pontos singulares do integrando.
1 dm−1 m
Res f (z0 ) = lim [(z − z0 ) f (z)] .
(m − 1)! z→z0 dz m−1
1 1 dm−1 m
Res f (z0 ) = g (m−1) (z0 ) = lim [(z − z0Figura
) f (z)] . Contorno de integração para o
2.19:
(m − 1)! (m − 1)! z→z0 dz m−1 exemplo 2.24.
tan z
(b) f (z) = .
z2
Solução. Há somente um polo simples em z = 0, pois
tan z sen z 1
lim z 2
= lim lim = 1.
z→0 z z→0 z z→0 cos z
Portanto, Res f (0) = 1.
(c) f (z) = cot z.
Solução. Os polos são z = nπ, os quais são de primeira ordem. Então,
z − nπ n n
Res f (nπ) = lim (z − nπ) cot z = lim cos z lim = (−1) (−1) = 1.
z→nπ z→nπ z→nπ sen z
Este método se aplica quando a função f (z) possui um polo simples em z0 e pode ser escrita
na forma racional
p(z)
f (z) = ,
q(z)
sendo p(z) e q(z) funções analíticas, com q (z0 ) = 0 e p (z0 ) 6= 0. Neste caso,
p (z0 )
Res f (z0 ) = , desde que q 0 (z0 ) 6= 0.
q 0 (z0 )
Demonstração. Como z0 por hipótese é um polo simples, pode-se escrever
2
p (z0 ) + p0 (z0 ) (z − z0 ) + p00 (z0 ) (z − z0 ) /2! + · · ·
(z − z0 ) f (z) = (z − z0 ) 2
q (z0 ) +q 0 (z0 ) (z − z0 ) + q 00 (z0 ) (z − z0 ) /2! + · · ·
| {z }
=0
2
p (z0 ) + p0 (z0 ) (z − z0 ) + p00 (z0 ) (z − z0 ) /2! + · · ·
= .
q 0 (z0 ) + q 00 (z0 ) (z − z0 ) /2! + · · ·
Então,
p (z0 )
Res f (z0 ) = lim (z − z0 ) f (z) = .
z→z0 q 0 (z0 )
Figura 2.20: (a) Contorno CR no semi-plano superior. (b) Contorno CR no semi-plano inferior.
onde R > 0. As funções N (z) e D(z) são as continuações analíticas7 dos polinômios reais para
o plano complexo, obtidas pela substituição x → z. A curva simples CR consiste em um semi-
círculo de raio R localizado ou no semi-plano complexo superior ou no inferior e que fecha o
contorno C com a reta [−R, R] no eixo real, conforme é ilustrado na figura 2.20. Desta forma,
o contorno fechado C pode envolver parte das ou todas as N raízes de D(z) no semi-plano su-
perior ({zj }, onde j = 1, . . . , N ) quando CR está nesta região (figura 2.20a) ou os seus complexos
conjugados ({z̄j } , j = 1, . . . , N ) quando CR está no semi-plano inferior (figura 2.20b). Ao se fazer
R → ∞, o contorno C engloba todas as N raízes de D(z) em um dos semi-planos.
Portanto, pelo teorema dos resíduos (2.39),
˛ ˆ R ˆ N
N (z) N (x) N (z) X N (z)
lim dz = lim dx + lim dz = 2πi Res ,
R→∞ C D(z) R→∞ −R D(x) R→∞ C D(z) D(z) z=zj
R j=1
Teorema 2.26. Seja F (z) uma função analítica ao longo do semi-círculo CR , de raio R, tal que
|F (z)| 6 M/Rk , sendo z = Reiθ e onde k > 1 e M são constantes, então
ˆ
lim F (z)dz = 0.
R→∞ CR
Demonstração. Pela propriedade (5) das integrais de linha (seção 2.5.2), sendo A = max (|F (z)|)
ao longo de CR e L a extensão de CR , então
ˆ
M πM
F (z)dz 6 k πR = k−1 .
CR R R
Assim, ˆ ˆ
lim F (z)dz = lim F (z)dz = 0.
R→∞ CR R→∞ CR
ˆ 2π ˛
dz z − 1/z z + 1/z
F (sen θ, cos θ) dθ = F , ,
0 C0 iz 2i 2
sendo C0 a circunferência de raio unitário centrada na origem. Como F (x, y) é uma função raci-
onal, a integral complexa acima pode ser obtida a partir do teorema dos resíduos, os quais serão
determinados novamente pelas raízes de um polinômio. Portanto, se o polinômio resultante no
denominador possui N raízes dentro do círculo de raio unitário, determinadas pelo conjunto
{zj } (j = 1, . . . , N ),
ˆ 2π N
X 1 z − 1/z z + 1/z
F (sen θ, cos θ) dθ = 2πi Res F , . (2.41)
0 j=1
iz 2i 2
z=zj
ei3θ + e−i3θ z 3 + z −3
cos 3θ = =
2 2
e ˛ ˛
1 dz z6 + 1 1 z6 + 1
I= 2 2
=− dz .
2 C0 iz z (5z − 2z − 2) 2i C0 z 3 (2z − 1) (z − 2)
O integrando possui os seguintes polos:
• z = 0: polo de ordem 3.
• z = 1/2: polo de ordem 1.
• z = 2: polo de ordem 1 (fora do círculo |z| = 1).
onde F (x) é uma função racional que satisfaz as condições do teorema 2.26. As partes real e
imaginária do integrando determinam as integrais
ˆ ∞ ˆ ∞
Ic = F (x) cos kxdx e Is = F (x) sen kxdx.
−∞ −∞
As condições que F (z) deve satisfazer para que a integração ao longo de CR se anule para R → ∞
são dadas pelo Lema de Jordan.
Lema 2.1 (Lema de Jordan). Seja F (z) uma função analítica ao longo do semi-círculo CR , de raio
R, tal que |F (z)| 6 M/Rα , sendo z = Reiθ e onde α > 0 e M são constantes, então
ˆ
lim F (z)eikz dz = 0.
R→∞ CR
iθ
Demonstração. Sendo z = Re , então
ˆ ˆ π
F (z)eikz dz = F Reiθ exp ikReiθ iReiθ dθ.
CR 0
portanto,
ˆ π ˆ π ˆ π
F Reiθ e−kRsen θ Rdθ 6 M
F Reiθ exp ikReiθ iReiθ dθ 6 e−kRsen θ dθ.
0 0 Rα−1 0
Como sen (π − θ) = sen θ, pode-se alterar o intervalo de integração para [0, π/2]. Além disso, como
mostra a figura 2.22, sen θ > 2θ/π neste intervalo. Assim,
ˆ π ˆ π/2
2M πM
iθ iθ iθ
e−2kRθ/π dθ = 1 − e−kR .
F Re exp ikRe iRe dθ 6 α−1
α
0 R 0 kR
Portanto, ˆ
lim F (z)eikz dz = 0.
R→∞ CR
Portanto,
π −α
I= e .
2
Seja F (z) uma função meromórfica, ou seja, uma função que possui apenas polos em um
domínio finito no plano complexo. Supõe-se que F (z) possua, no mínimo, um polo ao longo do
eixo real. Supõe-se também que |F (z)| → 0 para |z| → ∞. Deseja-se calcular agora integrais do
tipo ˆ ∞ ˆ ∞
f (x)
F (x) dx = dx.
−∞ −∞ x − x0
Devido a presença do polo no eixo real, para que o teorema dos resíduos permaneça válido,
o contorno de integração não pode passar pela referida singularidade; torna-se necessário, por-
tanto, que o contorno seja deformado nas vizinhanças do polo real. A partir desta situação surge
a definição da parte principal de Cauchy da integral.
b ˆ b ˆ x0 − ˆ b
!
f (x) f (x) f (x) f (x)
≡P dx = lim dx + dx . (2.43a)
a x − x0 a x − x0 →0+ a x − x0 x0 + x − x0
existe e é finito.
C = Γ + γ + (−R, x0 − ) + (x0 + , R)
sendo neste caso suposto que f (x0 ) exista e seja finita. Este valor da integral em γ é muitas
vezes denominado de semi-resíduo de f (x) em x0 .
Portanto, obtém-se o seguinte resultado para a parte principal,
∞ N
f (x) X f (z)
dx = πif (x0 ) + 2πi Res . (2.44a)
−∞ x − x0 j=1
z − x0 z=zj
Caso a função F (x) possua mais de um polo no eixo real, o resultado (2.44a) pode ser facilmente
generalizado. Sendo novamente {zj } (j = 1, . . . , N ) o conjunto de polos de F (z) fora do eixo real e
{x` } (` = 1, . . . , M ) o conjunto de polos ao longo do eixo real, a forma generalizada de (2.44a) é
∞ M
X N
X
F (x) dx = πi Res F (x` ) + 2πi Res F (zj ) . (2.44b)
−∞ `=1 j=1
Neste caso, o contorno de integração deve ser construído de forma a evitar tanto os pontos
de singularidades essenciais e polos no eixo real quanto a linha de ramificação.
Para ilustrar este tipo de integração, serão consideradas integrais do tipo
ˆ ∞
xλ−1 G(x) dx, (sendo 0 < λ < 1)
0
e a função G(z) é racional, analítica em z = 0 e não possui polos ao longo do eixo real positivo.
Supõe-se ainda que
lim z λ−1 G(z) = 0.
|z|→0
|z|→∞
A função f (z) = z λ−1 é plurívoca, com um ponto de ramificação em z = 0, o que pode ser
comprovado por uma rotação do fasor z em torno da origem,
θ→θ+2π
f (z) = z λ−1 −−−−−→ ei2π(λ−1) z λ−1 .
Supondo agora que a função R(z) possua N singulares isoladas (polos e/ou singularidades
essenciais) nos pontos {zj } (j = 1, . . . , N ), o teorema dos resíduos (2.39) aplicado ao contorno
simples fechado C = CR + Cr + [r, R] + [R, r] garante que
8 Do inglês keyhole.
9 Rigorosamente, os segmentos de reta percorrem o intervalo [r cos δr , R cos δR ], em ambos os sentidos.
Teorema 2.27. Seja uma função F (z) analítica ao longo do arco de circunferência CR , de raio R
centrado na origem, tal que |F (z)| 6 M/Rα ao longo de CR , sendo α > 1 e M > 0 constantes, então
ˆ
lim F (z)dz = 0.
R→∞ CR
Demonstração. Sendo a curva CR parametrizada pelo ângulo θ, o qual varia no intervalo [θ1 , θ2 ],
então ˆ ˆ θ2 ˆ θ2
M M (θ2 − θ1 )
F (z)dz 6 |F (z)| R dθ 6 dθ = .
CR Rα−1 Rα−1
θ1 θ1
Portanto, ˆ
lim F (z)dz = 0,
R→∞ CR
Por outro lado, a integral ao longo de Cr pode ser calculada parametrizando-se z = reiθ e
tomando-se o limite r → 0:
ˆ " ˆ 2π−δr #
λ−1 λ iλθ iθ G (0) i2πλ −iλδr iλδr
lim rλ .
lim z G(z) dz = lim ir e G re dθ = e e −e
r→0 C
r
r→0 δr λ r→0
Portanto, resulta
ˆ ∞ N
λ−1 −(λ+1) π X
Res z λ−1 G(z) zj .
x G (x) dx = (−1) (2.45)
0 sen πλ j=1
Solução. Como 0 < λ < 1, o integrando ao longo da curva CR , para R 1, pode ser escrito
λ−1
z 1
1 + z ' R2−λ .
Portanto, ˆ ∞
xλ−1 −(λ+1) π λ−1 π
I= dx = (−1) (−1) = .
0 1+x sen πλ sen πλ
Existem diversos outros exemplos de integrais que podem ser calculadas usando o teorema
dos resíduos por intermédio de uma escolha adequada do contorno de integração. Nesta seção
serão apresentados alguns exemplos relevantes para a física.
A integral em CR pode ser estimada usando argumento semelhante ao exposto pelo Lema de
Jordan. Ao longo deste contorno, z 2 = R2 (cos 2θ + i sen 2θ). Como demonstrado graficamente na
figura 2.22, sen 2θ > 4θ/π em 0 6 θ 6 π/4, portanto
ˆ ˆ π/4
itz 2 itR 2
(cos 2θ+i sen 2θ) iθ
e dz = e iRe dθ
CR 0
ˆ π/4
2
6 Re−tR sen 2θ dθ
0
Portanto, no limite R → ∞, ˆ ˆ
∞ ∞
itx2 2
e dx = e iπ/4
e−tr dr.
0 0
´∞ 2
A integral J = 0
e−tr dr pode ser calculada da seguinte maneira:
ˆ ∞ ˆ ∞ ˆ ∞ ˆ ∞
2
2 2
+y 2 )
J2 = e−tx dx e−ty dy = e−t(x dxdy.
0 0 0 0
Finalmente, obtém-se
ˆ ∞
eiπ/4
r r
itx2 π π π 1 π
e dx = = cos + i sen .
0 2 t 4 4 2 t
2h ν3
I (ν, T ) = 2 hν/k
,
c e BT − 1
sendo I (ν, T ) a potência emitida por unidade de área da superfície emissora por unidade de
ângulo sólido por frequência ν. As quantidades h, kB e c são, respectivamente, as constantes
de Planck e Boltzmann e a velocidade da luz no vácuo. A Lei de Stefan-Boltzmann fornece a
potência total emitida por unidade de área do corpo negro, ou seja,
ˆ ∞ 4 ˆ ∞
u3 du
2πh kB T
j=π dν I (ν, T ) = 2 IP , sendo IP =
0 c h 0 eu − 1
a integral que se deseja calcular, a qual é obtida por uma simples troca de variáveis de integra-
ção.
Para se obter IP , considera-se a integral
ˆ ∞
sen (kx)
f (k) = dx.
0 ex − 1
Obviamente,
d3 f
IP = − .
dk 3 k=0
Já ao longo dos contornos C1 e C5 observa-se que |z| = 1, o que permite o uso da série de
Laurent (2.35d). Para a integral I1 pode-se escrever z = eiθ , resultando
ˆ ˆ
eikz 1 z/2 ikz
z
I1 () ≡ dz = e e cosech dz
C1 ez − 1 2 C1 2
ˆ ˆ π/2
7z 3
1 2 z 1
ez/2 eikz + ik eiθ dθ − O 2 .
= − + − · · · dz = −i exp
2 C1 z 12 2880 0 2
Portanto,
π
lim I1 = −i .
→0 2
Já para o contorno C5 pode-se escrever z = 2πi + eiθ e
ˆ ˆ
eikz 1 z/2 ikz
z
I5 () ≡ z
dz = e e cosech dz.
C5 e − 1 2 C5 2
Neste caso é necessária a série de Laurent de cosech z em torno de z0 = 2πi, a qual é simplesmente
3
1 z − 2πi 7 (z − 2πi)
cosech z = − + − + ··· ,
z − 2πi 6 360
resultando,
ˆ ˆ −π/2
1 2 z − 2πi 1
ez/2 eikz − + · · · dz = ie−2πk + ik eiθ dθ + O 2 .
I5 () = + exp
2 C5 z − 2πi 12 0 2
Portanto,
π
lim I5 = −i e−2πk .
→0 2
Já a integral I3 pode ser escrita
ˆ ˆ 2π
eikz e−ky
I3 (R) ≡ dz = ie−(1−ik)R dy.
C3
z
e −1 0 eiy− e−R
Observa-se agora que no limite R → ∞ a integral é finita, pois o denominador do integrando pode
ser substituído por eiy , o que torna a integração trivial. Portanto, limR→∞ I3 = 0. Finalmente, a
integral I6 pode ser escrita
ˆ ˆ 2π− −ky ˆ 2π− −ky −iy/2 ˆ
eikz e e e 1 2π− e−ky e−iy/2
I6 ≡ dz = −i dy = −i dy = − dy.
z
C6 e − 1 eiy − 1 eiy/2 − e−iy/2 2 sen (y/2)
ˆ R ˆ 2π
eikx 1 π 1 + e−2πk
f (k) = lim Im dx = − e−ky dy +
→0
x
e −1 2 (1 − e−2πk ) 0 2 1 − e−2πk
R→∞
−2πk
1 π1+e 1 π
=− + −2πk
=− + cotanh (πk)
2k 2 1−e 2k 2
2
(2.35b) π k π4 k3 π6 k5 πB2n 2n−1
−−−−→ − + − ··· + (2πk) + · · · . (2.46)
6 90 945 (2n)!
π4
IP = ,
15
2π 5 kB
4
j = σT 4 , sendo σ = .
15h c2
3
Como um bônus, o resultado (2.46) pode ser usado para fornecer o valor das integrais
ˆ ∞
x2n+1 dx 2n+1
n d f n B2(n+1)
= (−1) = (−1) 22n π 2(n+1) , (n = 0, 1, 2, . . . ) .
0 ex − 1 dk 2n+1 k=0 n+1
Definição 2.1. Um elemento de função analítica (f (z), D) é uma função analítica f (z) no interior
de seu domínio de definição D. Um elemento de função (f2 , D2 ) é uma continuação analítica de
outro elemento (f1 , D1 ) se D1 ∩ D2 6= ∅ e se f1 (z) = f2 (z) em D1 ∩ D2 .
Em outras palavras, seja f1 (z) uma função analítica da variável z em um domínio D1 do plano
complexo. Supõe-se agora ser possível encontrar uma outra função f2 (z), a qual é analítica em
um outro domínio D2 . Se ocorrer uma intersecção D1 ∩ D2 não nula de ambos os domínios,
conforme representado na figura 2.27, e se f1 (z) = f2 (z) em D1 ∩ D2 , então se diz que f2 (z) é a
continuação analítica de f1 (z) em D2 , e vice-versa. Da mesma forma, pode existir uma terceira
função f3 (z), analítica em D3 , e se f3 (z) = f1 (z) em D3 ∩ D1 e f3 (z) = f2 (z) em D3 ∩ D2 , então f3 (z)
pode ser a continuação analítica das anteriores em D3 . Esta situação também está representada
na figura 2.27. Portanto, existe uma função analítica f (z) com o domínio D = D1 ∪ D2 ∪ D3 , tal
que f (z) = f1 (z) em D1 , f (z) = f2 (z) em D2 e f (z) = f3 (z) em D3 . Nota-se que basta a intersecção
entre os domínios ser composta simplesmente por um arco que a continuação analítica existe e
é única, desde que as três regiões não englobem um ponto singular ou um ponto de ramificação
de uma função plurívoca.
Uma continuação analítica de f1 (z) através do eixo real negativo e para o semi-plano inferior é:
√ π
f2 (z) = reiθ/2 , D2 : r > 0, < θ < 2π .
2
Claramente, em D1 ∩ D2 : (r > 0, π/2 < θ < π) (segundo e terceiro quadrantes), f1 (z) = f2 (z). Uma
continuação analítica de f2 através do eixo real positivo e para o semi-plano superior pode ser
definida então como
√
5π
f3 (z) = reiθ/2 , D3 : r > 0, π < θ < .
2
Claramente, agora, em D2 ∩ D3 : (r > 0, π < θ < 2π) (terceiro e quarto quadrantes), f3 (z) = f2 (z),
mas em D1 ∩ D3 : (r > 0, 0 < θ < π/2) (primeiro quadrante), f3 (z) 6= f1 (z); de fato, f3 (z) = −f1 (z).
Isto ocorre porque os três domínios circundam o ponto de ramificação na origem.
Teorema 2.28. Se uma função f (z) é analítica em todo o domínio D e f (z) = 0 em todos os pontos
de uma região R ⊂ D ou de um arco C, interior a D, então f (z) = 0 em todos os pontos de D.
Observação. Este teorema é muito importante porque, em primeiro lugar, ele garante que todas
as raízes de f (z) são isoladas. Contudo, a sua importância aqui está no fato de que ele garante a
unicidade das continuações analíticas. Sejam as funções f1 (z) e f2 (z) mencionadas na definição
2.1. Definindo-se agora a função g(z) = f1 (z) − f2 (z) em R = D1 ∩ D2 , obviamente g(z) = 0 em R;
de onde se conclui que g(z) = 0 em todo o domínio D1 ∪ D2 . Segue então o seguinte teorema de
unicidade.
Teorema 2.29. Uma função f (z) que é analítica em todo o domínio D é determinada de forma
única sobre D pelos seus valores sobre uma região, ou ao longo de um arco, contidos no interior
de D.
Exemplo. A função inteira f (z) = ez é a única que pode assumir os valores de f (x) = ex , ao
longo do eixo real. Além disso, uma vez que e−z também é inteira e ex e−x = 1 (∀x ∈ R), a
função h(x) = ex e−x − 1 é nula sobre todo o eixo real e, portanto, a única função que representa
a continuação analítica de h(x) fora do eixo real é h(z) = ez e−z − 1 = 0. Segue então que a
identidade e−z = 1/ez é válida sobre todo o plano complexo.
Corolário. Como corolário a este teorema, qualquer forma polinomial de funções fk (x) que satis-
faça a identidade
P [f1 (x), f2 (x), . . . , fn (x)] = 0
tem a sua forma mantida,
P [f1 (z), f2 (z), . . . , fn (z)] = 0,
ao longo de todo o domínio D.
Figura 2.28: Continuação analítica da função f1 (z) para a região Rn por dois caminhos distintos.
Exemplo. Dadas as funções trigonométricas sen x e cos x, estas satisfazem a forma polinomial
sen2 x+cos2 x−1 = 0. Portanto, a identidade sen2 z +cos2 z = 1 é válida sobre todo o plano complexo.
Teorema 2.30 (Teorema da monodromia). Se uma função f1 (z), definida no domínio R1 , é
continuada analiticamente a uma região Rn ao longo de dois caminhos diferentes, então as duas
continuações analíticas serão idênticas se não houver singularidades contidas entre os dois cami-
nhos.
A propriedade descrita no teorema acima
é ilustrada na figura 2.28, na qual um ponto
na região R1 é ligado a um outro ponto na re-
gião Rn por dois caminhos simples (C1 e C2 )
distintos. Os domínios R1 , R2 , . . . , Rn , . . . po-
dem ser definidos pelos raios de convergên-
cia das séries de Taylor que representam a
mesma função f (z) em diferentes regiões do
plano complexo. Se não houver pontos singu-
lares na região interna aos circulos na figura
2.28, então a continuação analítica de f (z) da
região R1 a Rn pelo caminho C1 será equiva-
lente à continuação analítica ao longo de C2 .
Portanto,
f1 (z), em R1
Figura 2.29: Domínios de f (z) = (1 − z)−1 .
f2 (z), em R2
.
..
f (z) = .. .
fn (z), em Rn
.. ..
. .
Sabe-se que esta série de Taylor converge na região R1 : |z| < 1 para a funçãof (z) = 1/ (1 − z), cujo
domínio é todo o plano complexo exceto o ponto z = 1. Como o domínio de f (z) se intersecciona
com o domínio de f1 (z), esta última é a única continuação analítica de f1 (z) possível para |z| > 1
(exceto z = 1). Outras possíveis continuações analíticas de f (z) para a região à esquerda de z = 1
(ao longo do eixo real) são:
∞ n ∞ n
1 X z+1 1 X z+i
f2 (z) = (Região R2 : |z + 1| < 2) , f3 (z) = (Região R3 : |z + i| < 2) .
2 n=0 2 1 + i n=0 1 + i
R EFERÊNCIAS
ABLOWITZ, Mark J.; FOKAS, Athanassios S. Complex Variables. Introduction and Applications.
Second. New York: Cambridge, 2003. (Cambridge Texts in Applied Mathematics). 647 pp. ISBN:
978-0-521-53429-1. Disponível em: <http://www.cambridge.org/9780521534291>.
CHURCHILL, R. V.; BROWN, J. W.; VERHEY, R. F. Complex Variables and Applications. Third.
New York: McGraw-Hill, 1976. 332 pp. ISBN: 0070108552.
EISBERG, R. M. Introdução à Física Moderna. [S.l.]: Guanabara Dois, 1979. 643 pp.
STE CAPÍTULO tem o objetivo básico de colocar o leitor em contato com um dos ramos mais
E ativos da física e da matemática dos dias de hoje: a Teoria de Grupos e suas aplicações
ao estudo dos fenômenos físicos.
As origens históricas da teoria de grupos, como uma disciplina ou área da matemática, re-
montam a três áreas distintas: à teoria de números, à teoria de equações algébricas e à geome-
tria. A teoria de números obteve contribuições importantes do matemático e físico suiço Leo-
nhard Euler (1707 – 1783), juntamente com desenvolvimentos no campo da aritmética modular
oferecidos pelo matemático e físico alemão Carl Friederich Gauss (1777 – 1855), o qual tam-
bém identificou os grupos aditivos e multiplicativos de campos quadráticos. Resultados iniciais
acerca dos grupos de permutação foram obtidos pelos filósofos naturais italianos Joseph-Louis
Lagrange (1736 – 1813) e Paolo Ruffini (1765 – 1822) e pelo matemático norueguês Niels Henrik
Abel (1802 – 1829).
Contudo o termo grupo foi proposto pela primeira vez pelo matemático francês Évariste Ga-
lois (1811 – 1832), o qual estabeleceu a conexão, conhecida como teoria de Galois, entre a teoria
de grupos e a teoria de corpos abstratos. Na geometria, grupos são importantes na geometria
projetiva e para geometrias não-Euclideanas. Finalmente, os grupos de permutação foram defi-
nitivamente estabelecidos pelo matemático britânico Arthur Cayley (1821 – 1895) e pelo francês
Augustin-Louis Cauchy (1789 – 1857).
As diferentes contribuições para a teoria de grupos foram unificadas em meados de 1880.
Desde então, a mesma fomentou o surgimento de outros campos na matemática tais como a
álgebra abstrata e a teoria da representação (tratada no capítulo 5), entre outros.
A importância do estudo da Teoria de Grupos em física surgiu, basicamente, com o livro
do matemático, físico e filósofo alemão Hermann Klaus Hugo Weyl (1885 – 1955) intitulado
Gruppentheorie und QuantenmeĚanic,1 publicado em 1928, no qual o autor mostra que existe
uma íntima relação entre as leis gerais da Teoria Quântica e a Teoria de Grupos, ao observar
que todos os números quânticos, com exceção do número quântico principal n, são índices que
caracterizam as representações de grupo.
Uma das grandes aplicações práticas da Teoria de Grupos em física é vista no livro do físico
húngaro-norte-americano Eugene Paul Wigner (1902 – 1995) intitulado Gruppentheorie und ihre
Anwendung auf die QuantenmeĚanik der Atomspektren.2 Neste livro, publicado em 1944, evidencia-
se que todas as regras da espectroscopia atômica podem ser bem entendidas fazendo-se o estudo
das simetrias observadas nos resultados espectroscópicos. Neste estudo, Wigner empregou a
teoria originalmente criada por Évariste Galois em 1832.
O grande momento da aplicação em Física da Teoria de Grupos em Partículas Elementares
ocorreu em 1961, com a publicação de dois artigos independentes dos físicos: o norte-americano
Murray Gell-Mann (1929 –) e o israelense Yuval Ne´eman (1925 – 2006). Nestes trabalhos, ad-
mitindo que a Hamiltoniana de Interações Fortes fosse invariante pelo grupo SU(3) os autores
obtiveram, entre outros resultados, uma classificação coerente dos hádrons (usando as repre-
sentações de octetos desse grupo) e a previsão da existência de novas partículas elementares,
dentre as quais a partícula Ω− . Esta partícula foi detectada em 1964, em uma experiência sobre
o espalhamento de káons por prótons K − + p −→ Ω− + K + + K 0 .
Deve se observar que anteriormente, em 1956, o físico japonês Shoichi Sakata (1911 – 1970)
havia sem sucesso usado o grupo SU(3) para classificar as Partículas Elementares. Observe-se
ainda que em 1964 Gell-Mann e, independentemente, o físico russo-norte-americano George
Zweig (1937 –) usaram uma outra representação do SU(3) (na forma de tripletos) para prever
1 Teoria de Grupos e Mecânica Quântica.
2 Teoria de Grupos e sua Aplicação à Mecânica Quântica dos Espectros Atômicos.
81
82 3.1. Definições e classificações iniciais
a existência dos quarks. Estes até o momento não foram observados isoladamente. Um outro
grande momento da aplicação em Física da Teoria de Grupos ocorreu no começo da década de
1970 quando o físico norte-americano Nobel Kenneth Geddes Wilson (1936 – 2013) e o físico
britânico Michael Ellis Fisher (1931 –) aplicaram o Grupo de Renormalização aos fenômenos
críticos (transições de fases), retomando o que havia sido considerado por Gell-Mann e pelo
físico norte-americano Francis Eugene Low (1921 – 2007), em 1954.
De um modo geral, a aplicação da Teoria de Grupos a problemas físicos é dividida em duas
grandes áreas: considerações sobre simetria e considerações sobre problemas de autovalores.
Como exemplo do primeiro tipo, pode-se mencionar o estudo da simetria de um cristal, de
fundamental importância na Física da Matéria Condensada (Espectroscopia, Cristalografia, etc.).
No segundo tipo, um exemplo relevante é o estudo de invariâncias das equações de autovalores
resultantes de transformações de coordenadas (translações e rotações).
O conjunto G pode ser representado por G = {a, b, c, . . . }, ao passo que o grupo formado pelo
mesmo frente a operação ∗ é representado por
.
G = {a, b, c, . . . ; ∗} = {G; ∗} .
Definição 3.2 (Grupo comutativo ou Abeliano). Dado um grupo G = {G, ∗}, com G = {a, b, c, . . . },
se para todos a, b ∈ G ocorre
a ∗ b = b ∗ a,
diz-se que o grupo é comutativo ou Abeliano.3
Exercício 3.1. Na definição 3.1, partindo dos lados esquerdos das propriedades (PG 3) e (PG 4),
demonstre os respectivos lados direitos.
Resolução. Considera-se o produto a−1 ∗ a ∗ a−1 . Manipulando-se o mesmo, obtém-se
(2) (4)
a−1 ∗ a ∗ a−1 = a−1 ∗ a ∗ a−1 = a−1 ∗ I
(3.1)
(3)
= a−1 .
3 Em homenagem ao matemático norueguês Niels Henrik Abel (1802 – 1829).
Mas a−1 ∈ G, pela propriedade (1). Assim, a partir da propriedade (4), existe um elemento c ∈ G
o qual é o inverso de a−1 , isto é, tal que
a−1 ∗ c = I.
Multiplicando-se agora a primeira e a última expressões em (3.1) à direita com o elemento c,
obtém-se −1
a ∗ a ∗ a−1 ∗ c = a−1 ∗ c = I.
(2)
= (a ∗ b ∗ · · · ∗ y) ∗ z ∗ z −1 ∗ y −1 ∗ · · · ∗ b−1 ∗ a−1
(4,3)
= (a ∗ b ∗ · · · ∗ y) ∗ y −1 ∗ · · · ∗ b−1 ∗ a−1
= (a ∗ b ∗ · · · ) ∗ y ∗ y −1 ∗ · · · ∗ b−1 ∗ a−1
..
.
= I.
Por conseguinte, pela propriedade (PG 1), como ambos os produtos iniciais pertencem a G, segue
de (PG 4) que a inversa de um produto é o produto dos inversos na ordem reversa, isto é,
−1
(a ∗ b ∗ · · · ∗ y ∗ z) = z −1 ∗ y −1 ∗ · · · ∗ b−1 ∗ a−1 . (3.2)
Propriedade 3.2 (Axioma da divisão). Dado o grupo G = {G; ∗}, para cada par de elementos
a, b ∈ G, existem outros elementos únicos c, d ∈ G tais que
a ∗ c = b e d ∗ a = b.
Propriedade 3.3 (Lei do cancelamento). Dado o grupo G = {G; ∗}, se existem os elementos
a, b, c ∈ G tais que
a ∗ b = a ∗ c ou b ∗ a = c ∗ a,
então, necessariamente,
b = c.
Finitos: com um número finito de elementos. Um grupo finito pode ter seus elementos organi-
zados em uma tabela de multiplicações de grupo, discutida na seção 3.2.1.
Infinitos: com um número infinito de elementos. Um grupo infinito pode ser classificado como
discreto ou contínuo.
Definição 3.4 (Grupos infinitos discretos). Um grupo infinito G é discreto se os seus elementos
forem enumeráveis, isto é, se for possível estabelecer uma relação unívoca entre cada elemento
de G com um elemento do conjunto N∗ . Um exemplo é próprio conjunto dos números inteiros
frente a operação de soma algébrica.
Definição 3.5 (Grupos contínuos). Um grupo infinito G cujos elementos são inumeráveis, mas
que podem ser identificados por um conjunto de parâmetros contínuos é denominado grupo
contínuo.
Pode-se afirmar que dois elementos do grupo estão “arbitrariamente próximos” entre si, de tal
forma que eles podem ser distinguidos através da variação de um conjunto de parâmetros {i }
(i = 1, . . . ). Ou seja, estes podem ser identificados por funções do tipo g (1 , 2 . . . ) e as operações
de produto de grupo e inversão operam sobre essas funções. Uma classificação mais moderna
para este tipo de grupo é grupo topológico.
As seguintes classificações podem ser aplicadas a um grupo contínuo:
A partir destas definições e classificações básicas, alguns exemplos de grupos podem ser
agora apresentados.
Z = {. . . , −2, −1, 0, 1, 2, . . . }
{Q∗ ; ×}: o conjunto de todos os racionais exceto 0, frente a operação de produto algébrico.
Grupo Abeliano infinito.
Grupo ortogonal O (n): grupo formado pelas matrizes n × n reais ortogonais frente a multipli-
e a sua transposta,4 então
cação matricial. Se A ∈ O (n) é uma matriz real quadrada n × n e A
AA = In , onde In é a matriz identidade.
e
Um exemplo importante do grupo O (n) é formado pelo conjunto das matrizes de rotações
ou reflexões de vetores no espaço Euclideano Rn .
Dimensão: O número total de elementos em uma matriz n × n é n2 . A condição de ortogo-
nalidade AAe = In gera n2 relações entre os elementos da matriz; contudo, como AA
e é uma
matriz simétrica, somente metade das relações envolvendo os elementos fora da diagonal
principal são
distintos. Portanto, o número de relações entre os elementos da matriz é
n2 − n2 − n /2 = n (n + 1) /2 e, assim, o número de parâmetros independentes em uma
matriz do grupo O (n) (i. e., a dimensão do grupo), é igual a
1 1
dim [O (n)] = n2 − n (n + 1) = n (n − 1) .
2 2
Grupo ortogonal especial SO (n): as matrizes do grupo O (n) possuem sempre determinante
igual a ±1. O grupo ortogonal especial SO (n) é composto somente por matrizes ortogonais
com determinante igual a +1. A dimensão do grupo SO (n) também é n (n − 1) /2.
O caso particular do grupo de rotações SO (2) é mencionado a seguir.
Grupo unitário U (n): grupo formado pelas matrizes n × n complexas unitárias frente a multi-
plicação matricial. Se U ∈ U (n), e U† é a sua Hermitiana conjugada, então UU† = In .
Dimensão: Dada a matriz U ∈ U (n), se uij = Re uij + i Im uij (i, j = 1, . . . , n) denotar generica-
mente os seus elementos, então o número total de parâmetros envolvidos na matriz é 2n2 .
Agora, a condição de matriz unitária leva às relações
n
X 2
|uik | = 1
n
k=1
X
UU† = In =⇒ uik u∗jk = δij =⇒ n
X
k=1
uik u∗jk = 0, (i 6= j) .
k=1
Ou seja, há n relações para os casos i = j e 2 n2 − n /2 relações distintas para i 6= j.
Portanto, a dimensão do U (n) é
Grupo unitário especial SU (n): as matrizes do grupo U (n) possuem determinante com mó-
dulo unitário. O grupo unitário especial SU (n) é composto por aquelas matrizes unitárias
cujo determinante é igual a +1.
{R; +}: grupo formado pelo conjunto de todos os números reais frente a operação de soma
algébrica.
Grupo Abeliano, com I = 1 e para todo x ∈ R∗ a sua inversa é simplesmente −x.
{R∗ ; ×}: grupo formado pelo conjunto de todos os números reais exceto 0, frente a operação de
produto algébrico.
Grupo Abeliano infinito, com I = 1 e para todo x ∈ R∗ , x−1 = 1/x.
{C; +}: grupo Abeliano formado pelo conjunto de todos os números complexos frente a operação
de adição de números complexos.
{C∗ ; ×}: grupo Abeliano formado pelo conjunto de todos os números complexos exceto 0, frente
a operação de produto de números complexos.
.
R3 = R3 ; + : grupo formado pelo conjunto de todas as ternas ordenadas
frente a operação aditiva “+” tal que, dados a = (a1 , a2 , a3 ) e b = (b1 , b2 , b3 ) pertencentes a R3 ,
.
a + b = (a1 + b1 , a2 + b2 , a3 + b3 ) ∈ R3 .
frente a operação aditiva “+” tal que, dados a = (a1 , a2 , a3 ) e b = (b1 , b2 , b3 ) pertencentes a C3 ,
.
a + b = (a1 + b1 , a2 + b2 , a3 + b3 ) ∈ C3 .
Grupo de Lorentz L: trata-se do grupo formado por todas as operações de isometria do espaço
de Minkowski que mantêm a origem do referencial fixa. O produto de grupo é novamente
a multiplicação matricial. Uma designação mais correta deste grupo é grupo de Lorentz
homogêneo.
O grupo de Lorentz é formado por todas as matrizes 4 × 4 L que realizam a transformação
de Lorentz8 entre dois referenciais inerciais O e O0 , deslocando-se com velocidade relativa
v e também por todas as rotações espaciais próprias em torno da origem do referencial. A
transformação de Lorentz mantém a norma do espaço tempo de Minkowski invariante, ou
seja, as matrizes L mantêm invariante a forma quadrática
L
→ t02 − x02 − y 02 − z 02
t2 − x2 − y 2 − z 2 − (c = 1) .
O grupo de Lorentz é não-Abeliano e de dimensão 6. O grupo é não-compacto porque o
espaço topológico de variação do parâmetro v não é compacto (fechado e delimitado), uma
vez que −c < v < c.
Exemplificando-se com 2 referenciais inerciais O e O0 que se deslocam ao longo dos eixos
x e x0 com velocidade relativa v, as transformações de Lorentz que mantêm invariante a
forma quadrática
L
→ t02 − x02
t 2 − x2 −
são obtidas a partir dos sistemas de equações
( (
x0 = γ (x − vt) x = γ (x0 + vt0 )
⇐⇒
t0 = γ (t − βx/c) t = γ (t0 + βx0 /c) ,
−1/2
sendo c a velocidade da luz no vácuo, γ = 1 − β 2 e β = v/c, então a matriz de transfor-
mação de Lorentz é
0
x x γ −γv
= L (v) , sendo L (v) = .
t0 t −γβ/c γ
As matrizes L (v) formam um grupo (de dimensão 1) pois, da definição 3.1, constata-se que:
1. L1 L2 = L (v1 ) L (v2 ) ∈ L.
Demonstração: realizando-se o produto,
γ1 −γ1 v1 γ2 −γ2 v2
L1 L2 =
−γ1 β1 /c γ1 −γ2 β2 /c γ2
!
β1 +β2
1 − 1+β 1 β2
c
= [γ1 γ2 (1 + β1 β2 )] β1 +β2 1 .
− 1+β 1 β2 c
1
z n = 1 =⇒ zp = ei2pπ/n , (p = 0, . . . , n − 1) .
Grupo cíclico Cn : grupo formado a partir de um único elemento a (6= I) a partir de multiplica-
ções sucessivas a = a1 , b = a2 , c = a3 , etc.
Dentre os grupos finitos, os três últimos citados acima são particularmente importantes para
a física e serão abordados em maiores detalhes nas próximas seções.
Definição 3.6 (Tabela de multiplicação de grupo). Dado um grupo G = {G, ∗} finito, de ordem
g, formado a partir do conjunto
G = {I = a1 , a2 , a3 , . . . , ag } .
Elabora-se uma tabela quadrada contendo, nas primeiras linha e coluna, os elementos de G na
mesma ordem e, no corpo da tabela, os resultados das operações de multiplicação de grupo
realizadas de forma matricial, ou seja, de tal forma que se ai ∈ G está na i-ésima linha da tabela
e aj ∈ G está na j-ésima coluna (i, j = 1, . . . , g), então o elemento na posição ij será dado por
ai ∗ aj .
Com esta definição, a tabela de multiplicação do grupo G pode ser visualizada como
∗ I a2 a3 ··· ag
I I a2 a3 ··· ag
a2 a2 a2 ∗ a2 a2 ∗ a3 · · · a2 ∗ ag
a3 a3 a3 ∗ a2 a3 ∗ a3 · · · a3 ∗ ag
.. .. .. .. .. ..
. . . . . .
ag ag ag ∗ a2 ag ∗ a3 ··· ag ∗ ag
O conhecimento de parte de uma tabela de multiplicação pode também ser utilizado para a
dedução do restante da mesma, graças ao teorema do rearranjo, mencionado a seguir.
Teorema 3.1 (Teorema do rearranjo). Seja G = {G, ∗} um grupo finito de ordem g obtido a partir
do conjunto G = {I, a2 , a3 , . . . , ag }. Se ak ∈ G (k = 1, . . . , g), então cada elemento de G ocorre uma e
somente uma vez na sequência I ∗ ak = ak , a2 ∗ ak , a3 ∗ ak , . . . ,ak ∗ ak , . . . , ag ∗ ak .
Demonstração. Primeiro, demonstra-se que todos os elementos de G aparecem pelo menos uma
vez na sequência acima. Para tanto, se aj ∈ G, então devem existir ak , ar ∈ G (k, r = 1, . . . , g) tais
que ar = aj ∗ a−1
k . Logo, aj = ar ∗ ak deve fazer parte da sequência.
A unicidade de aj na sequência segue da lei do cancelamento (propriedade 3.3).
Definição 3.7 (Ordem do elemento do grupo). Dado o grupo G = {G; ∗} finito de ordem g,
qualquer elemento a ∈ G quando multiplicado por si mesmo, resultando nos elementos
a2 = a ∗ a, a3 = a ∗ a2 , . . . ,
an = a
| ∗ ·{z
· · ∗ a} (n ≥ 1) , (3.4a)
n vezes
então deve existir um natural 1 6 m 6 g, o qual é o menor número tal que am = I; ou, em outras
palavras, a identidade deve resultar após m − 1 multiplicações de a por si mesmo. Este número
é denominado a ordem do elemento do grupo. A obtenção deste número pode ser representada
pela operação
m = ord (a) = |a| ,
para todo a ∈ G.
Prosseguindo com a convenção de “potências” do elemento a ∈ G, se “potências positivas” an
(n > 0) são definidas por (3.4a), então, por extensão,
a0 = I (3.4b)
−n −1 n
a = a (3.4c)
n m n+m
a ∗a =a (3.4d)
n m nm
(a ) =a , (n, m ∈ Z) , (3.4e)
Para qualquer grupo G = {G; ∗}, a identidade I ∈ G possui sempre a ordem 1, ord (I) = 1, pois
I 1 = I. Por outro lado, se existe b ∈ G tal que b ∗ b = I, isto é, b é o seu próprio inverso, então
ord (b) = 2 sempre. Para todos os outros elementos a ∈ G (a 6= I e a 6= b), resulta ord (a) > 2.
Definição 3.8 (Período do elemento do grupo). Dado o grupo G = {G; ∗} finito de ordem g, seja
x ∈ G tal que ord (x) = n (n > 1). A sequência x, x2 , x3 , . . . , xn = I é denominada o período de x.
G = a, a2 , a3 , . . . , ag−1 , I = ag
Definição 3.9 (Grau e base do grupo). Dado um grupo G = {G; ∗} e os elementos {a1 , . . . , am } ∈
G. O número mínimo de geradores necessários para reproduzir a tabela de multiplicações de
G é denominado o grau do grupo. Por sua vez, o menor subconjunto de G também capaz de
reproduzir a tabela de multiplicações de G é denominada uma base do grupo. Observa-se que
um grupo pode conter mais de uma base.
O grupo simétrico de grau n sobre o conjunto χ = {1, 2, . . . , n} corresponde ao grupo cujos ele-
mentos são iguais a todas as operações de permutação possíveis ao ordenamento original de
χ.
O grupo simétrico sobre um conjunto χ qualquer é denotado de diferentes maneiras na lite-
ratura: Sχ , Σχ , Sχ ou Sym (χ). Se o conjunto é finito, χ = {1, 2, . . . , n}, então o grupo simétrico de
grau n sobre χ é denotado por: Sn , Σn , Sn , ou Sym (n). Neste caso, a ordem do grupo simétrico
finito é simplesmente o número total de permutações possíveis sobre as posições dos elementos
de χ, ou seja,
ord (Sn ) = |Sn | = n!.
Dado o ordenamento original dos elementos de χ, denotado por χ = {1, 2, . . . , n}, uma opera-
ção de permutação sobre χ irá rearranjar os objetos contidos no mesmo de uma determinada
maneira. O ordenamento final obtido por esta operação será identificado por uma sequência
numérica contendo novamente os índices i = 1, . . . , n, porém num ordenamento que indica a
posição final de um dado objeto em relação à inicial.
Estas permutações podem ser representadas com um total de |Sn | operadores na forma ma-
tricial do tipo
1 2 ··· n
πp = , (3.5)
p1 p2 · · · pn
onde pj = i, com i, j = 1, . . . , n. A primeira linha de πp indica o ordenamento inicial dos elementos
de χ (antes da permutação), enquanto que a segunda linha indica o ordenamento em relação às
posições iniciais.
Há ao todo n índices pj os quais assumem valores entre 1 e n de forma excludente, ou seja,
não é possível ocorrer p1 = p2 , por exemplo. Se p1 = i, isto indica que o objeto que estava ori-
ginalmente na i-ésima posição passou a ocupar a primeira posição no novo ordenamento dos
elementos de χ. Por sua vez, p2 = ` (` = 1, . . . , n, mas ` 6= i) indica que o objeto que estava origi-
nalmente na `-ésima posição passou a ocupar a segunda posição, e assim consecutivamente.
A operação de permutação πp sobre χ pode ser interpretado como uma bijeção do tipo
πp
χ 7−→ χ,
ψ = πp χ.
Exemplo 3.2 (O grupo S3 ). Considere um conjunto de 3 objetos, χ = {1, 2, 3}. O número total de
permutações possíveis sobre χ é igual a 3! = 6. Esses operadores podem ser representados por
123 123 123
π1 = π2 = π3 =
123 132 213
123 123 123
π4 = π5 = π6 = .
231 312 321
Nota-se que π1 mantém o ordenamento original inalterado. A figura 3.1 ilustra todas essas
permutações na ordem de operadores apresentada acima.
O conjunto de operadores de permutação de 3 objetos é definido então como
.
S3 = {π1 , π2 , π3 , π4 , π5 , π6 } .
Posteriormente, no exercício 3.5, será demonstrado que este conjunto forma um grupo.
Após se realizar duas permutações consecutivas em χ, o ordenamento final pode ser descrito
na forma de um operador do tipo (3.5) através de uma composição de permutações. Se πa e πb
são dois operadores do tipo (3.5) e estes são aplicados consecutivamente sobre χ, o ordenamento
final pode ser descrito na forma de um terceiro operador πc , obtido a partir da operação
Figura 3.1: As 6 permutações possíveis sobre um con- Figura 3.2: Os ordenamentos finais de χ após as com-
junto de 3 objetos. posições π3 ◦ π2 = π5 e π2 ◦ π3 = π4 .
O grupo simétrico Sn sobre o conjunto χ = {1, 2, . . . , n} será formado, portanto, não pelos n
objetos que compõe χ, mas sim pelos |Sn | = n! operadores de permutação πp definidos em (3.5),
frente a composição de permutações (3.6), a qual é a operação de multiplicação de grupo. Ou
seja,
Sn = {π1 , π2 , . . . , πn! ; ◦} .
Para verificar que Sn é de fato um grupo, este deve satisfazer os axiomas apresentados na
definição 3.1. Ou seja:
1. Clausura. Dados πa , πb ∈ Sn , a composição de permutações πa ◦ πb irá simplesmente gerar
um rearranjo dos elementos de χ. Portanto, πa ◦ πb ∈ Sn .
2. Associatividade. A condição de associatividade é satisfeita, porque a composição de fun-
ções bijetoras é uma operação associativa.
3. Identidade. A operação trivial de permutação
123
I= tal que Iχ = χ
123
II = I π 2 I = π2 π3 I = π3 π4 I = π4 π5 I = π5 π6 I = π6
Iπ2 = π2 π2 π2 = I π3 π2 = π5 π4 π2 = π6 π5 π2 = π3 π6 π2 = π4
Iπ3 = π3 π2 π3 = π4 π3 π3 = I π4 π3 = π2 π5 π3 = π6 π6 π3 = π5
Iπ4 = π4 π2 π4 = π3 π3 π4 = π6 π4 π4 = π5 π5 π4 = I π6 π4 = π2
Iπ5 = π5 π2 π5 = π6 π3 π5 = π2 π4 π5 = I π5 π5 = π4 π6 π5 = π3
Iπ6 = π6 π2 π6 = π5 π3 π6 = π4 π4 π6 = π3 π5 π6 = π2 π6 π6 = I.
A condição de existência dos elementos inversos foi verificada. As ordens dos elementos de S3
são:
T RANSPOSIÇÕES . Uma transposição é uma permutação que atua somente sobre dois obje-
tos do conjunto χ, com a qual estes objetos têm suas posições trocadas no ordenamento original
de χ, mantendo os demais objetos fixos.
Dado o conjunto χ de n objetos, a transposição (mk) (m, k 6 n) troca a posição do m-ésimo
objeto pela posição do k-ésimo objeto, e vice-versa. Esta notação simplifica a representação do
operador de permutação quando este realiza somente uma transposição. Ou seja,
12···m··· k ···n
se π = , pode-se escrever π = (mk) .
12··· k ···m···n
A composição de transposições entre (mk) e (r`) (com m, k, r, ` 6 n) pode ser representada por
(mk) ◦ (r`) ou, simplesmente, (mk) (r`), sempre mantendo a convenção direita → esquerda na
ordem das permutações. É possível verificar-se que o grupo Sn pode ser completamente gerado
através de composições das n − 1 transposições (12), (1, 3), . . . , (1, n).
Se uma permutação consistir em um número par de transposições, ela é denominada uma
permutação par. Se consistir em um número ímpar, é chamada de permutação ímpar. A compo-
sição de duas permutações pares ou ímpares resulta em uma permutação par, ao passo que a
composição de uma permutação par com uma permutação ímpar resulta em uma permutação
ímpar.
Exemplo 3.3. Os elementos de S3 definidos no exemplo 3.2 podem ser construídos pelas trans-
posições (12) e (13) da seguinte maneira:
Define-se então a operação π (i) = pi atuando sobre o i-ésimo objeto em χ. Ou seja, π (1) = p1 ,
π (2) = p2 , . . . , π (n) = pn . Um ciclo de extensão k é uma permutação π ∈ Sn para a qual existe
um elemento x ∈ χ tal que os únicos elementos movidos pela permutação são x, π (x), π 2 (x), . . . ,
π k (x) = x.
Como exemplo, observa-se que a permutação ψ ∈ S5 dada por
12345
ψ=
42135
ψχ ψ2 χ ψ3 χ
χ 7−→ {4, 2, 1, 3, 5} 7−→ {3, 2, 4, 1, 5} 7−→ {1, 2, 3, 4, 5} .
Ou seja, ψ (1) = 4, ψ 2 (1) = ψ (4) = 3 e ψ 3 (1) = ψ (3) = 1. Da mesma forma, ψ (3) = 1, ψ 2 (3) =
ψ (1) = 4 e ψ 3 (3) = ψ (4) = 3 e ψ (4) = 3, ψ 2 (4) = ψ (3) = 1 e ψ 3 (4) = ψ (1) = 4. Observa-se que
somente os objetos 1, 3 e 4 são permutados por ψ e de uma maneira cíclica, sendo os objetos 2
e 5 mantidos fixos.
Este ciclo pode ser denotado por (143), onde a ordem dos objetos indica a ordem sucessiva de
trocas realizadas no sentido direita 7−→ esquerda, ou seja,
fechando o ciclo. Porém, o ordenamento dos objetos no ciclo também pode ser trocado ciclica-
mente, ou seja, (143) = (431) = (314).
Um ciclo deve ter uma extensão k > 2, pois k = 1 significa que o objeto não é trocado de
lugar. Entretanto, para a permutação ψ acima, pode-se acrescentar os símbolos (2) e (5), os
quais indicam que estes objetos permanecem fixos. Um cíclo de extensão 2 é uma transposição,
como discutida acima.
Dois ciclos são disjuntos se estes movem subconjuntos disjuntos de elementos de χ. Como
dois ciclos disjuntos comutam, todos os elementos de Sn podem ser escritos como composições
de ciclos disjuntos.
Portanto, uma outra notação mais compacta para um ciclo ψ ∈ Sn , denotada notação por
ciclos, indica explicitamente as trocas cíclicas de posições dos objetos de χ. Por exemplo, para o
ciclo ψ ∈ S5 definido acima,
ψ = (143) (2) (5) = (2) (5) (143) = (2) (143) (5) = (143) ,
sendo que a última notação omite os objetos que permanecem fixos. O elemento identidade de
Sn pode ser representado por I = (1) (2) · · · (n) ou simplesmente por I = ().
Como qualquer permutação arbitrária, um ciclo de extensão maior que 2 sempre pode ser de-
composto em uma composição de ciclos menores de diversas formas. Sendo ζ = (i1 i2 i3 . . . ik−1 ik ) ∈
Sn um ciclo de extensão k (2 < k 6 n, ij = 1, . . . , n, j = 1, . . . , k), as seguintes propriedades são
válidas:
• O ordenamento das posições em ζ pode ser alterada de forma cíclica k − 1 vezes:
• Um ciclo de extensão maior que 2 sempre pode ser expresso como a composição de trans-
posições que possuem como posição em comum i1 ou ik . Ou seja, o ciclo ζ pode ser
decomposto:
(i1 i2 ) (i1 i3 ) · · · (i1 ik )
ζ = (i1 i2 i3 . . . ik ) = ou
(i1 ik ) (i2 ik ) · · · (ik−1 ik ) .
3.3.1 S UBGRUPOS
A principal subdivisão possível de um grupo é um subgrupo do mesmo.
Definição 3.10 (Subgrupo). Dado um grupo G = {G; ∗}, um subgrupo H de G é formado a partir
de um subconjunto H ⊆ G que forma um grupo sob o mesmo produto de grupo ∗. Isto é, o
conjunto H deve satisfazer os axiomas de grupo (definição 3.1). Nestas condições o subgrupo
H = {H; ∗} é denotado por H ⊆ G. O grupo G é denominado o sobregrupo de H.
Um subgrupo H é denominado próprio se H ⊂ G. Por outro lado, qualquer grupo G possui
dois subgrupos triviais ou impróprios: H = {I; ∗} ou H = G.
Dado o grupo G = {G; ∗} e um subgrupo H ⊆ G, algumas propriedades simples de subgrupos
podem ser destacadas:
• Se I ∈ G é o elemento identidade, então, necessariamente, I ∈ H.
• Se G é Abeliano, então H também o é. A recíproca não é verdadeira.
• Dado qualquer elemento a ∈ G de ordem n = |a|, o período de a (definição 3.8) forma o
subgrupo cíclico
hai ⊆ G : hai = a, a2 , . . . , an = I; ∗ .
E XEMPLOS DE SUBGRUPOS
Serão apresentados alguns exemplos de subgrupos obtidos a partir dos exemplos de grupos
apresentados até o momento.
Grupo de permutações Pnm . Dado o grupo simétrico Sn um subgrupo próprio Pnm ⊂ Sn é de-
nominado um grupo de permutações de m objetos se m < n ou seja, a ordem de Pnm deve
ser menor que a ordem de Sn .
Grupo alternante An . Dado o grupo simétrico Sn , para n > 2, sempre existirá um subgrupo
próprio denominado alternante, o que é composto pelas permutações pares de Sn . A ordem
de An é |An | = n!/2. Como I ∈ G é sempre uma permutação par, o conjunto das permutações
ímpares não forma um subgrupo de Sn .
A3 = π4 , π5 = π42 , I = π43 .
No exercício 3.5 foi construída a tabela de multiplicação de S3 . A partir desta, pode-se obter
os grupos de permutações hπ2 i = {π2, I}, hπ3 i = {π3 , I} e hπ6 i = {π6 , I}.
Portanto, o grupo S3 é de grau 4 e sua base é o conjunto {π2 , π3 , π4 , π6 }.
Deve ser enfatizado aqui que, em geral, a ∗ Hj 6= Hj ∗ a. Definem-se então as seguintes classes
laterais.
Definição 3.11 (Classes laterais). Dado um grupo G = {G; ∗} de ordem g, que contém pelo
menos um subgrupo próprio H = {H; ∗} (H ⊂ G), de ordem h (h < g). Seja o elemento a tal que
a ∈ G, mas a ∈
/ H. Então,
Teorema 3.2 (Teorema de Lagrange). Seja G = {G; ∗} um grupo finito de ordem g. Seja H =
{H; ∗} um subgrupo de G de ordem h. Então, a ordem de H é um divisor da ordem de G, ou seja,
g
= m, onde m ∈ N \ {0} ,
h
onde m é denominado o índice do subgrupo H sob o grupo G.
H + a1 H + a2 H + · · · + ak H = G,
onde, neste contexto, a operação “+” corresponde à união de conjuntos. Da mesma forma,
Como H e todas as classes laterais {aj H} contêm um número de elementos igual a h, então
g
(k + 1) h = g =⇒ = m ∈ N \ {0} .
h
Corolário 3.1 (Lagrange). Seja G = {G; ∗} um grupo finito de ordem g. Seja a ∈ G um elemento
de ordem n. Então,
g
= m ∈ N \ {0} , para todo a ∈ G.
n
Exercício 3.8. Verifique o teorema de Lagrange para o grupo S3 , usando o subgrupo A3 , e mostre
como S3 é formado pela união de A3 com suas classes laterais.
Resolução. Como |S3 | = 3! = 6, os únicos subgrupos possíveis têm ordens 1, 2, 3 e 6. Os
elementos de S3 foram identificados no exemplo 3.2, enquanto que os elementos de A3 foram
obtidos no exemplo 3.5. Os elementos que não pertencem a A3 são π2 , π3 e π6 . A tabela de
multiplicações de S3 foi deduzida no exercício 3.5. Formam-se então os cosets:
Ou seja,
S3 = A3 + π2 A3 = A3 + π3 A3 = A3 + π6 A3 .
Nota-se que os três cosets são o mesmo, pois A3 ∪ π2 A3 = S3 . Portanto, os subgrupos de S3 são:
O exercício a seguir mostra como o teorema de Lagrange pode ser usado para se determinar
a tabela de multiplicação de um grupo finito.
Exercício 3.9. Obtenha as tabelas de multiplicação dos possíveis grupos de ordem 6 a partir do
teorema de Lagrange.
Resolução. Como g = 6, segue do corolário 3.1 que a ordem de qualquer um de seus elementos
é um divisor de g, ou seja, 1, 2, 3 ou 6. A primeira estrutura possível consiste em um grupo
cíclico cujo gerador é o elemento a, ou seja, G = hai = a, a2 , a3 , . . . , a5 , a6 = I .
Para verificarmos outras estruturas, assume-se que não há nenhum elemento de ordem 6.
Suponha então que o elemento a seja agora de ordem 3. Neste caso, G possui o subgrupo
hai = a, a2 , I . Necessariamente então G deve conter um outro elemento b ∈
/ hai, com o qual
pode-se construir a classe lateral b hai = b, ba, ba2 . Ou seja, G = I, a, a2 , b, ba, ba2 . Agora, a
ordem de b pode ser 2 ou 3. Se |b| = 3, o elemento b2 deve ser um dos listados anteriormente,
exceto I. Além disso, as possibilidades b2 = b, ba ou ba2 implicam em b = I, a ou a2 , ou que
contradiz a hipótese de que b ∈ / hai. Por outro lado, a possibilidade b2 = a implica ba = I e
2 2 2
b = a implica ba = I, o que também contradiz a hipótese. Portanto, necessariamente, |b| 6= 3,
implicando que |b| = 2. Estas conclusões já permitem a obtenção dos termos em azul na tabela
de multiplicação abaixo. Agora, pelo teorema do rearranjo, ab = ba ou ba2 . A hipótese ab = ba
2 3 4 5 6
leva a: (ab) = (ab) (ab) = (ab) (ba) = a2 , (ab) = a2 (ab) = b, (ab) = a, (ab) = ba2 e (ab) = I, o que
2
contraria a hipótese de que G não é cíclico. Portanto, ab = ba , o que leva aos demais termos (em
vermelho) da tabela de multiplicação.
I a a2 b ba ba2
2 2
a a I ba b ba
a2 I a ba ba2 b
b ba ba2 I a a2
ba ba2 b a2 I a
2
ba b ba a a2 I
O teorema de Lagrange também pode ser empregado para a decomposição de grupos infinitos,
como mostra o exemplo a seguir.
Exemplo 3.6. Seja G = {Z; +} e H ⊂ G tal que
1. Reflexividade: a ∼ a.
2. Simetria: Se a ∼ b então b ∼ a.
3. Transitividade: Se a ∼ b e b ∼ c, então a ∼ c.
Uma particular relação de equivalência pode ser empregada para particionar um grupo em
classes, tais que um determinado elemento do grupo pertence a somente uma classe e todos os
membros dessa classe são equivalentes entre si.
Existem várias notações distintas para uma relação de equivalência. Dado o conjunto S e o
elementos a, b ∈ S, se estes elementos são equivalentes entre si com respeito a uma dada relação
de equivalência R, isto pode ser representado por a ∼ b ou a ≡ b, se não houver ambiguidade
quanto à relação de equivalência, ou, em caso contrário, como a ∼R b, a ≡R b ou ainda aRb.
Alguns exemplos de relações de equivalência:
Percebe-se então que dado um conjunto S qualquer, nem sempre é possível determinar uma
relação de equivalência entre todos os seus elementos. Da mesma forma, se dois elemento de S
são equivalentes, os demais elementos não necessariamente são equivalentes aos dois primeiros.
Portanto, faz-se necessária a definição de uma classe de equivalência, a seguir.
1. [a]R = {b ∈ S | a ∼R b}.
Demonstração. Supõe-se inicialmente que [a]R e [b]R são subconjuntos distintos, mas com pelo
menos um elemento c em comum. Então, a ∼ c e b ∼ c e pelas leis de simetria e transitividade
a ∼ b. Contudo, isto implica
T que [a]R = [b]R , o que contradiz a hipótese de que os conjuntos são
distintos. Portanto, [a]R [b]R 6= ∅.
Por outro lado, dadas as classes [a]R e [b]R , qualquer outro elemento c ∈ S ou está em uma
das classes já definidas ou constitui uma nova classe. Este processo pode ser seguido até que as
coleção de todas as classes de equivalência exaurem S, i. e., todo elemento de S está em alguma
classe.
Até este momento, o tipo de relação de equivalência é geral. Para a teoria de grupo em par-
ticular, uma relação de equivalência importante é aquela que define uma classe de conjugação,
através de relações de conjugação entre seus elementos.
Definição 3.14 (Conjugação). Dado um grupo G = {G; ∗}, dois elementos a, b ∈ G são ditos
conjugados se existe um elemento c ∈ G tal que10
c−1 ∗ a ∗ c = b.
Ou seja, a ∼ b implica em b ∼ a.
3. Transitividade: se a ∼ b e b ∼ c, então existem d, e ∈ G tais que b = d−1 ad e c = e−1 be.
Portanto,
−1
c = e−1 d−1 ad e = e−1 d−1 a (de) = (de) a (de) ,
−1
de acordo com a propriedade (3.2) do inverso do produto. Como necessariamente de, (de) ∈
G, isto implica em c ∼ a.
Estes resultados estabelecem que a conjugação entre dois elementos do grupo é uma relação
de equivalência. Em consequência, estes elementos pertencem a mesma classe de equivalência,
agora denominada classe de conjugação.
Definição 3.15 (Classe de conjugação). Dado o grupo G = {G; ∗} e o elemento a ∈ G, o conjunto
[a] ≡ Ca = b−1 ∗ a ∗ b, ∀b ∈ G
Teorema 3.3 (Centro do grupo). Seja o grupo G = {G; ∗}. Dado o conjunto S ⊆ G, composto pelos
elementos de G que formam classes por si próprios, este conjunto forma um subgrupo Abeliano de
G, denominado o centro do grupo.
Demonstração. Para todo grupo G, existe pelo menos um elemento em S que forma uma classe
por si próprio: o elemento identidade. Portanto, I ∈ S. Se este é o único elemento em S, então o
subgrupo é Abeliano.
Se houver pelo menos um outro elemento de G que forma uma classe em si próprio, então
S possui pelo menos dois elementos. Assim, se s1 , s2 ∈ S, então s1 b = bs1 e s2 b = bs2 , para todo
b ∈ G. Portanto,
aH = Ha, (∀a ∈ G) .
Esta notação permite uma definição equivalente para um subgrupo invariante como aquele para
o qual as classes laterais à esqueda e à direita são as mesmas, para qualquer a ∈ G.
Consequências e proprieades importantes desta definição:
Foi introduzida aqui a operação de multiplicação de cosets, definida de tal forma que
.
(aH) (bH) = {(a ∗ h1 ) ∗ (b ∗ h2 ) , ∀h1 , h2 ∈ H} .
• Igualmente, o produto de H por uma classe lateral resulta na própria classe lateral,
• Da mesma forma, o produto de uma classe lateral pela sua “classe inversa” resulta no
subgrupo invariante; isto é, dado a ∈ G e o coset aH, deve existir o elemento inverso a−1 ∈ G,
cujo coset é a−1 H (o coset invariante). Então,
Nota-se também que o subgrupo normal H pode ser considerado o elemento identidade
frente a operação de multiplicação de cosets.
Teorema 3.4 (Grupo fator). Dados o grupo G = {G; ∗} e um subgrupo invariante H ⊆ G, o conjunto
formado por H e por todas as suas classes laterais forma um grupo, denominado grupo fator ou
grupo quociente, frente a operação de multiplicação de cosets. O grupo fator é representado por
G/H e sua ordem, se |G| for finita, é a razão |G| / |H|.
Exercício 3.10. Dado o grupo S3 , obtenha suas classes de conjugação, seus grupos invariantes
e seus grupos fatores.
Resolução. O grupo S3 foi definido no exemplo 3.2 e sua tabela de multiplicação foi obtida no
exercício 3.5.
Classes: a primeira classe trivial é [π1 ] ≡ [I] = {I}. Para [π2 ]:
Portanto, [π4 ] = [π5 ] = {π4 , π5 }. O grupo S3 é formado por 3 classes de conjugação distintas.
Subgrupos invariantes: no exemplo 3.5 foi mostrado que os subgrupos próprios de S3 são:
A3 , hπ2 i, hπ3 i e hπ6 i. Cada subgrupo será testado agora quanto a sua invariância. Para A3 :
nI o nI o nI o
IA3 I = A3 π2−1 A3 π2 = π2−1 π4 π2 = π5 = A3 π3−1 A3 π3 = π5
π5 π π
nI o n I4 o n I4 o
−1 −1 −1
π4 A3 π4 = π4 π5 A3 π5 = π4 π 6 A3 π 6 = π 5 .
π5 π5 π4
Portanto, hπ2 i não é invariante. O mesmo pode ser verificado para hπ3 i e hπ6 i. O único grupo
normal é A3 .
Grupo fator: no exercício 3.8 foi demonstrado que há somente uma única classe lateral de A3 :
π2 A3 . Portanto, o grupo fator é
.
S3 /A3 = {A3 , π2 A3 } ,
sendo que, neste grupo, I = A3 . Observa-se também que |S3 /A3 | = |S3 | / |A3 | = 2.
até 3 índices inteiros. As figuras 3.3 e 3.4 mostram dois exemplos de redes cristalinas cúbicas
(simples e de corpo centrado) e os vetores primitivos usualmente empregados na localização de
todos os pontos da rede.
Assumindo-se que os efeitos de superfície são negligenciáveis em um cristal, as transforma-
ções que preservam as posições relativas entre os pontos discretos do cristal podem ser de 3
tipos:
3. Translações espaciais.
As duas primeiras duas primeiras mantêm pelo menos um ponto do cristal fixo, ao passo que a
terceira implica em deslocamentos ao longo da rede cristalina.
A descrição algébrica das transformações de simetria aplicadas sobre objetos físicos e/ou
matemáticos é implementada pela noção de ação de grupo. Os elementos que caracterizam o
objeto são identificados e descritos por um conjunto e as simetrias desse objeto são descritas pelo
grupo simétrico do conjunto. Este grupo é um grupo de permutações se o conjunto for finito e não
constituir um espaço vetorial ou um grupo de transformações, se o conjunto forma um espaço
vetorial, em cuja situação a ação de grupo atua como transformações lineares no conjunto.12
Um exemplo de ações de grupo ocorre quando se considera as operações de isometria de um
triângulo equilátero, sendo o triângulo descrito por um conjunto de pontos que identificam seus
vértices. O grupo de simetria resultante é obtido no exercício 3.11.
Definição 3.19 (Ação de grupo). Sejam G = {G; ∗} um grupo e C um conjunto. Um ação (pela
esquerda) de grupo ϕ de G sobre C é o mapeamento
Fiel ou efetiva. Se para todos g, h ∈ G distintos (g 6= h) existe um elemento c ∈ C tal que ϕ (g, c) 6=
ϕ (h, c). Alternativamente, se para todo g ∈ G tal que g 6= I existe um elemento c ∈ C tal que
ϕ (g, c) 6= c.
Intuitivamente, para uma ação de grupo fiel, diferentes elementos de G induzem diferentes
permutações dos elementos de C.
Regular ou transitivo simples. Se ϕ for tanto transitivo quanto livre. Isto equivale a dizer que
para quaisquer c, d ∈ C existe um e somente um g ∈ G tal que ϕ (g, c) = d.
Logicamente livre. Se G for um grupo topológico e não existir nenhuma vizinhança U de I tal
que a restrição da ação em U seja livre. Isto é, se ϕ (g, c) = c para algum c ∈ C e algum
g ∈ U , então g = I.
Irredutível. Se C for um módulo sobre um anel R,13 a ação de G é R-linear e não existir nenhum
submódulo próprio invariante.
Após esta longa introdução, discute-se agora alguns dos grupos de simetria mais importantes
para a física. Globalmente, os grupos de simetria podem ser divididos em dois tipos, descritos a
seguir.
Grupo de simetria espacial. Grupo de simetria formado a partir de translações espaciais. Para
que um sistema físico possua simetria espacial, este deve ter a mesma estrutura, para
qualquer deslocamento realizado por um observador. Para que isso seja possível, é neces-
sário que o sistema tenha uma extensão infinita ou que as propriedades físicas observadas
da rede não sejam afetadas pela sua superfície.
O grupo inomogêneo de Lorentz é uma grupo de simetria espacial, uma vez que a norma
do espaço-tempo (o qual é infinito) não é afetado por translações espaciais e deslocamentos
temporais. Redes de Bravais também irão apresentar simetria espacial se estas puderem
ser consideradas infinitas.
Os grupos finitos de simetria que são de interesse para a física do estado sólido e para a
química serão consideradas em mais detalhes a seguir.
Existem ao todo 32 grupos pontuais que preservam a simetria translacional de redes crista-
linas em um espaço de 3 dimensões. Este número em particular é fornecido pelo teorema da
restrição cristalográfica, o qual afirma que as simetrias rotacionais de um cristal somente podem
ser de segunda, terceira, quarta e sexta ordens. Redes com outras ordens de simetria (como de
5ª ordem, por exemplo) são denominados quasecristais.
Se a origem do sistema de coordenadas for posicionada sobre um dos pontos fixos das trans-
formações, então o grupo pontual é composto pelas seguintes operações:
1. Rotações por um dado ângulo em torno de um eixo que passa pela origem.
2. Reflexões especulares em planos que passam pela origem.
3. Inversão espacial.
Cabe aqui mencionar que estas operações não são totalmente independentes entre si. Qualquer
uma das operações acima pode ser expressa por uma combinação adequada das duas restantes.
Assim, uma inversão espacial pode ser considerada como uma rotação por π radiano, seguida
por uma reflexão no plano perpendicular ao eixo de rotação.
Uma rotação seguida por uma reflexão ou inversão é denominada uma rotação imprópria,
a qual muda a quiralidade do cristal. Assim, as rotações acima mencionadas, as quais não
mudam a quiralidade do sistema, são também denominadas rotações próprias. Pode-se verificar
facilmente que o produto de duas rotações próprias ou duas impróprias sempre resulta em
um rotação própria, ao passo que o produto de uma rotação própria por uma imprópria, em
qualquer ordem, é sempre uma rotação imprópria. As implicações ao sistema físico oriundas de
rotações próprias ou impróprias (ativas ou passivas) são discutidas em maior detalhe na seção
6.6, no contexto de campos tensoriais.
É também conveniente observar aqui que os seguintes pares de operações consecutivas co-
mutam entre si: (a) uma inversão com qualquer outra operação, (b) duas rotações em torno
do mesmo eixo, (c) duas rotações por π radianos em torno de eixos perpendiculares, (d) uma
rotação e uma reflexão em um plano normal ao eixo de rotação, (e) uma rotação por π radia-
nos e uma reflexão em um plano que passa pelo eixo de rotação, e (f) duas reflexões em planos
perpendiculares.
Alguns exemplos de grupos pontuais serão apresentados a seguir. Será feita também uma
breve descrição dos 32 grupos pontuais, juntamente com a nomenclatura e notações adotadas.
Com respeito às notações, atualmente há dois sistemas empregados: a notação Schoenflies,
comumente empregada em espectroscopia, e a notação internacional, ou Hermann-Mauguin,
empregada em cristalografia. Os grupos discutidos serão sempre identificados pela notação de
Schoenflies, mas a notação internacional equivalente será também mencionada.
Empregando a notação de Schoenflies, os grupos cristalográficos pontuais são os seguintes:
Cn : grupo cíclico composto pelas rotações próprias de um polígono regular de n lados. Este
polígono será levado em coincidência consigo mesmo por meio de uma rotação em um
ângulo ψ = 2π/n em torno de um eixo normal ao plano do polígono e que passa através
de seu ponto central. Este eixo de rotação é denominado eixo de rotação de ordem n. A
operação de rotação do polígono através deste eixo pelo ângulo ψ será denotada por Cn .
Aplicações sucessivas deste operador ao polígono são denotadas por Cn2 , Cn3 , etc., isto é,
rotações através de 2ψ = 4π/n, 3ψ, etc. Claramente, a n-ésima aplicação do operador Cn irá
levar o polígono à sua configuração original e isto corresponde então à operação identidade,
denotada aqui por Cnn = E.14 O conjunto destas rotações forma o grupo cíclico Cn (notação
de Scheonflies) ou n (notação internacional):
Cn = E, Cn , Cn2 , . . . , Cnn−1 .
Este grupo é ampliado por produtos diretos de rotações com reflexões, criando-se os gru-
pos:
Cnh : criado pela adição de uma reflexão especular em um plano perpendicular (horizon-
tal) ao eixo de rotação. A operação de reflexão neste plano será identificada por σh .
Claramente, σh2 = E, constituindo assim o grupo cíclico
Cnv : criado pela adição de reflexões especulares em n planos paralelos (verticais) ao eixo de
rotação, separados por um ângulo ψ entre si. Esta operação será identificada por σv .
Claramente, σv2 = E; assim, cada operador σv constitui um grupo cíclico {E, σv }.
S2n : (de Spiegel, espelho em alemão) denota o grupo que contém somente um eixo rotação
imprópria (rotação-reflexão) de ordem 2n.
Dn : (de diedral, ou frente-verso) indica que o grupo possui um eixo de rotação de ordem n mais
n eixos de rotação de ordem 2 perpendiculares ao primeiro. Por exemplo, o grupo D2 possui
um eixo de rotação principal de ordem 2 mais dois outros eixos de ordem 2, ortogonais ao
primeiro; assim, o grupo D2 possui três eixos de rotação de ordem 2 mutuamente ortogo-
nais. Este grupo é ampliado por:
Dnh : com a adição de uma reflexão especular em um plano perpendicular ao eixo de ordem
n.
Dnd : com a adição de reflexões especulares em planos paralelos ao eixo de ordem n.
T : (de tetraedro) indica o grupo que possui a simetria de um tetraedro. Este poliedro possui ao
todo 12 eixos de rotação que geram os seus elementos de simetria. Este grupo pode ser
ampliado por:
O: (de octaedro) indica o grupo que possui a simetria de um octaedro (ou cubo). Possui ao todo
24 elementos. Ampliado por:
O d : inclui rotações impróprias, o que eleva o número total de elementos para 48.
1 1 1
a c a
4 5 4 5 4 5
c b b a b c
3 2 3 2 3 2
6 6 6
(a) (b) (c)
Figura 3.5: Triângulo equilátero: vértices e medianas para a determinação do grupo de simetrias. (a) Configu-
ração original. (b) Ação do operador C3 . (c) Ação do operador σv16 .
Rotações próprias: O operador de rotação própria C3 corresponde a uma rotação por ψ = 2π/3
radianos ou 120◦ graus no sentido horário, por convenção. Ou seja, se {123} corres-
ponde à ordem inicial dos vértices, no sentido horário,
Ou seja,
C3 = E, C3 , C32 .
Reflexões nas medianas: Este polígono não possui reflexões no plano perpendicular ao eixo de
rotação, mas existem 3 operações de reflexão σv que podem ser definidas, uma para
a reflexão em torno de cada mediana, ou seja, σv16 (reflexão em torno da linha 1 − 6),
σv24 (em torno da linha 2 − 4) e σv35 (em torno de 3 − 5). Neste caso,
sendo que estes operadores têm ordem igual a 2. A ação de σv16 está ilustrada na
figura 3.5c.
Rotações nas medianas: Ao invés de reflexões, podem ser definidas também as 3 operações de
rotação por um ângulo de π radianos (ordem 2) em torno de eixos que passam pelas
medianas:
Tabela 3.1: Tabela de multiplicações do grupo C3v . Tabela 3.2: Tabela de isomorfismos entre os grupos
E C3 C32 σv16 σv24 σv35 C3v , D3 e S3 .
C3 C32 E σv35 σv16 σv24
C3v D3 S3
C32 E C3 σv24 σv35 σv16
σv16 σv24 σv35 E C3 C32 E E I
σv24 σv35 σv16 C32 E C3 C3 C3 π5
σv35 σv16 σv24 C3 C32 E C32 C32 π4
σv16 C2,16 π2
σv24 C2,24 π6
σv35 C2,35 π3
Exercício 3.13. Construa o grupo pontual de simetrias de um quadrado e obtenha sua tabela
de multiplicações.
Resolução: a figura 3.6 ilustra o quadrado (n = 4), identificando seus vértices e os planos de
reflexão. O eixo de rotação de ordem 4 atravessa o ponto O e é perpendicular ao plano do qua-
drado. Os números 1, 2, ..., 8 permanecem sempre fixos, enquanto que os pontos do quadrado
marcados por a, b, ..., h movem-se com o mesmo frente as transformações de simetria. Assim,
os pontos a, b, c e d marcam os vértices do quadrado, enquanto que e, f, g e h marcam os pontos
médios de suas arestas. As ações das transformações serão denotadas pelas coindidências entre
as letras (móveis) e os números (fixos). Os operadores de simetria são:
Rotações próprias: O operador C4 consiste em uma rotação horária em torno de O por um ângulo
de ψ = 2π/4 = π/2 radianos (90◦ graus). Identificando cada rotação própria pela
variação dos vértices do quadrado, o grupo de rotações C4 , de ordem 4, é formado
pelos operadores:
Ou seja,
C4 = E, C4 , C42 , C43 .
Reflexões nas medianas e diagonais: As reflexões nas linhas medianas são executadas pelos
operadores σv57 , definido como a reflexão especular em torno da linha 5 − 7, e σv68 ,
gera a reflexão em torno da linha 6 − 8. Já as reflexões nas diagonais são realizadas
pelos operadores σv13 e σv24 . Desta forma,
o qual é de ordem 8.
A tabela de multiplicações do grupo C4v é facilmente obtida:
(a)
(b)
Figura 3.7: (a) Projeção estereográfica dos átomos em P , P 00 e P 000 na superfície da esfera sobre o plano
equatorial. (b) Projeções sobre o plano equatorial dos átomos.
que a partir de cada átomo é traçada uma reta que parte da superfície da esfera até o polo da
esfera situado no hemisfério oposto. A intersecção da linha que parte de P até o polo S com
o plano equatorial da esfera, representado pela reta AB, será a projeção estereográfica deste
átomo. Para o átomo em P , a sua projeção, portanto, estará no ponto P 0 do plano equatorial.
Realizando-se a mesma projeção para os demais átomos em P 00 e P 000 , a projeção estereo-
gráfica desta parte da molécula ou do cristal sobre o plano equatorial é visualizada na figura
3.7b. Observa-se que as projeções, representadas por círculos aberto, compõe os vértices de um
triângulo equilátero.
Projeções estereográficas existem para os 32 grupos cristalográficos pontuais. A figura 3.8
mostra estas projeções.
Portanto, o conjunto
T = {T1 , T2 , . . . , Tn , . . . , TN −1 , TN = E}
claramente define um grupo cíclico de ordem N . Este grupo será denominado grupo de transla-
ção.
Os operadores isométricos de translação de uma rede de Bravais no R3 também constituem
um grupo. Dada a rede gerada pelos vetores primitivos a1 , a2 e a3 e sujeita às condições de
contorno periódicas
r − N1 a1 = r, r − N2 a2 = r, r − N3 a3 = r,
onde r é a posição em algum ponto da rede cristalina e {N1 , N2 , N3 } é o número de celas em cada
direção.
Define-se o operador de translação T (n1 , n2 , n3 ) dentro da rede cristalina como
T (n1 , n2 , n3 ) r = r − n1 a1 − n2 a2 − n3 a3 ≡ r − t (n1 , n2 , n3 ) ,
Figura 3.8: Projeções estereográficas para os grupos pontuais. O símbolo “+” significa acima do plano, “O”
abaixo do plano e “⊕” no plano.
g = h1 ∗ h2 · · · ∗ hn = h2 ∗ h1 · · · ∗ hn = . . . ,
onde h1 ∈ H1 , h2 ∈ H2 , . . . , hn ∈ Hn .
Então,
hai = A ⊗ B = I, a3 , a2 , a2 a3 = a5 , a4 , a4 a3 = a .
Exemplo 3.8. Dentro do grupo C4v de isometrias pontuais de um quadrado, discutido no exer-
cício 3.13, os subgrupos cíclicos {E, σv57 } e {E, σv68 } formam por produto direto o subgrupo
{E, σv57 } ⊗ {E, σv68 } = E, C42 , σv57 , σv68 .
Se a estrutura completa de um grupo G não for conhecida, mas se dois ou mais (supostos)
subgrupos invariantes de G o são, pelo fato de compartilharem o mesmo produto de grupo, a
mesma identidade e de satisfazerem as condições da definição 3.20, então um novo subgrupo
de G (ou talvez o próprio) pode ser construído pelo produto direto dos subgrupos menores.
Também é possível partir-se de dois grupos distintos, G e G 0 , tais que os elementos do primeiro
são independentes do segundo, e então construir o grupo G ⊗ G 0 superior, denominado grupo do
produto direto. Isto é realizado pela formação de todos os pares
(a, a0 ) ∈ G ⊗ G 0 , tais que a ∈ G e a0 ∈ G 0 .
O produto de pares em G ⊗ G 0 é definido por
(a, a0 ) (b, b0 ) = (ab, a0 b0 ) .
Como ab ∈ G e a0 b0 ∈ G 0 , então (ab, a0 b0 ) ∈ G ⊗ G 0 , de acordo com a exigência de clausura.
Se I ∈ G e I 0 ∈ G 0 são as respectivas identidades, então os pares (a, I 0 ) formam um subgrupo
Γ ⊂ G ⊗ G 0 isomórfico a G,15 enquanto que os pares (I, a0 ) formam um subgrupo Γ0 ∈ G ⊗ G 0
isomórfico a G 0 .
Exemplo 3.9 (Grupo de isometrias pontuais de uma cunha). Considere todas as operações de
simetria de uma cunha cujas faces são triângulos equiláteros, mas que possui também uma
certa espessura. Neste caso, além das operações de isometrias contidas no grupo D3 , o qual é
isomorfo ao grupo C3v ,16 surge uma transformação isométrica adicional constituída pela reflexão
em torno do plano perpendicular ao eixo de ordem 3, denotada pelo símbolo σh . Este operador é
o gerador do grupo de ordem 2
C1h = {E, σh } .
Pode-se observar facilmente que qualquer rotação (própria ou imprópria) do triângulo seguida
pela reflexão operada por σh terá o mesmo resultado que a ordem inversa de aplicação dos
operadores. Neste caso, o grupo do produto direto D3 ⊗ C1h possui ordem 12 e este forma o grupo
D3h , cujos elementos são
D3h = D3 ⊗ C1h = E, C3 , C32 , σv16 , σv24 , σv35 , σh , C3 σh , C32 σh , σv16 σh , σv24 σh , σv35 σh .
Para cada x ∈ X relacionado com y ∈ Y | y = f (x) é estabelecido um par ordenado (x, y).
Sendo {x1 , x2 , . . . , xn } ⊆ X o conjunto de argumentos operados por f e {y1 , y2 , . . . , yn } ⊆ Y , com
y1 = f (x1 ), etc, o conjunto de valores de f , O conjunto de pares ordenados
As definições recém apresentadas sobre funções e mapeamentos podem ser agora implementa-
das para o mapeamento entre dois grupos.
Definição 3.22 (Mapeamento entre grupos). Dados os grupos G = {G; ∗} e G 0 = {G0 ; •}, o
mapeamento Φ de G em G 0 , representado por
Φ : G 7−→ G 0 ,
consiste em uma relação binária entre cada elemento g ∈ G com um elemento g 0 ∈ G0 , o qual é
denominado o valor de Φ em g. Esta relação pode ser representada por g 0 = Φ (g).
• GL (n, R): grupo geral linear composto pelas matrizes n × n reais inversíveis, frente à multi-
plicação matricial.
• (R∗ ; ×): grupo formado pelo conjunto dos números reais, exceto o 0, frente ao produto
algébrico.
A partir da definição básica de mapeamento entre grupos, alguns tipos importantes de ma-
peamentos podem então ser definidos:
C4 Z4
E C4 C42 C43 1 i −1 −i
C4 C42 C43 E i −1 −i 1
C42 C43 E C4 −1 −i 1 i
C43 E C4 C42 −i 1 i −1
• Dados o grupo (Z; +) e o grupo cíclico Z/3 = {0, 1, 2; + (mod 3)}, o mapeamento Φ : (Z; +) 7−→
Z/3, onde para todo n ∈ Z, Φ (n) = n (mod 3) forma um epimorfismo.
• Dados H ⊂ GL (2, R), formado pelo conjunto
a b
H= a > 0, b ∈ R ,
01
para qualquer u ∈ C, define-se fu : H 7−→ (C \ {0} ; ×) tal que
ab
fu = au .
01
Novamente este mapeamento consiste em um epimorfismo.
Ou seja,
n
(g 0 ) = I 0 . (3.8c)
portanto, g1 ∗ g2 ∈ ker (Φ) e a condição de clausura é satisfeita. Dado agora g1 ∈ ker (Φ) e g1−1 ∈ G.
Então,
I 0 = Φ g1 ∗ g1−1 = Φ (g1 ) • Φ g1−1 ;
ou seja, se g1 ∈ ker (Φ), então necessariamente g1−1 ∈ ker (Φ), e os axiomas de grupo são satisfeitos.
Para demonstrar agora que ker (Φ) é invariante, é necessário que para todo g ∈ G, g ker (Φ) g −1 =
ker (Φ). Então, para todo gk ∈ ker (Φ),
= Φ (g) • Φ g −1 = Φ g ∗ g −1 = I 0 .
1. O produto HN é um subgrupo de G.
T
2. A intersecção H N é um subgrupo invariante de H.
T
3. Os grupos fatores (HN ) /N e H/ (H N ) são isomórficos.
Teorema 3.8 (Terceiro teorema do isomorfismo). Dado o grupo G com subgrupos invariantes
N e K tais que
K ⊆ N ⊆ G,
então:
Teorema 3.9 (Teorema de Cayley 19 ). Todo grupo G é isomórfico a um subgrupo do grupo simé-
trico Sym (G) atuando sobre G.
A demonstração deste teorema pode ser realizada tanto para grupos finitos quanto para
qualquer outro tipo de grupo.
bG = {b ∗ a1 , b ∗ a2 , . . . , b ∗ an }
contém todos os elementos de G, porém arranjados em uma ordem distinta da original, de acordo
com o teorema 3.1. Dado agora o grupo Sn , existe sempre um elemento πb ∈ Sn , cuja ação em G
irá permutar o elementos do conjunto na mesma ordem de bG, ou seja,
1 2 ... n
πb G = bG =⇒ πb = ,
πb (ba1 ) πb (ba2 ) . . . πb (ban )
onde πb (bai ) = 1, 2, . . . , n é a operação que fornece a posição original do elemento ai e cujo orde-
namento em πb indica a nova posição. Realiza-se então a associação b −→ πb .
19 Em homenagem ao matemático britânico Arthur Cayley (1821 – 1895).
Toma-se agora um outro elemento c ∈ G, a partir do qual é gerado o conjunto cG. O novo
ordenamento dos elementos de G é descrito agora por um outro operador πc ∈ Sn , dado por
1 2 ... n
πc = .
πc (ca1 ) πc (ca2 ) . . . πc (can )
Para provar que existe um isomorfismo entre G e algum subgrupo de Sn , é necessário mostrar
que o conjunto Pnn forma um subgrupo de Sn e que sua tabela de multiplicações é idêntica à
tabela de G, ou seja, assim como d = c ∗ b, é necessário que πc ◦ πb = πcb .
Para tanto, observa-se que no operador πc , por exemplo, a ordem numérica na primeira linha
é irrelevante, uma vez que as posições na segunda linha serão sempre referentes às posições na
primeira. Então, pode-se escrever
πb (ba1 ) πb (ba2 ) . . . πb (ban )
πc = .
πc (c (ba1 )) πc (c (ba2 )) . . . πc (c (ban ))
Ou seja,
πb (ba1 ) πb (ba2 ) . . . πb (ban ) 1 2 ... n
πc ◦ πb = ◦
πc (c (ba1 )) πc (c (ba2 )) . . . πc (c (ban )) πb (ba1 ) πb (ba2 ) . . . πb (ban )
1 2 ... n
= = πcb .
πc (c (ba1 )) πc (c (ba2 )) . . . πc (c (ban ))
Exercício 3.15. Use o teorema de Cayley para demonstrar o isomorfismo entre os grupos C3v e
S3 .
Resolução: Representando o triângulo equilátero da figura 3.5a pela sequência de vértices {abc},
temos a seguinte associação entre os elementos de C3v e de S3 , sendo estes dados na notação
cíclica do exemplo 3.4:
S3 C3v
I π2 π3 π4 π5 π6 E σv16 σv35 C32 C3 σv24
2
π2 I π4 π3 π6 π5 σv16 E C3 σv35 σv24 C3
π3 π5 I π6 π2 π4 σv35 C3 E σv24 σv16 C32
π4 π6 π2 π5 I π3 C32 σv24 σv16 C3 E σv35
π5 π3 π6 I π4 π2 C3 σv35 σv24 E C32 σv16
π6 π4 π5 π2 π3 I σv24 C32 C3 σv16 σv35 E
aχb = bχa.
Exemplo 3.11. A estrutura algébrica mais conhecida é hR, +, ×i, a qual usa as operações de
adição (“+”) e multiplicação (“×”) usuais. De acordo com a definição acima, dados a, b, c ∈ R:
• Adição é associativa: a + (b + c) = (a + b) + c.
• Multiplicação é associativa: a × (b × c) = (a × b) × c.
• Adição é comutativa: a + b = b + a.
• Multiplicação é comutativa: a × b = b × a.
Percebe-se nas definições acima que, partindo de um magma, cada estrutura posterior pode
ser considerada, sob certas condições, uma extensão das estruturas anteriores. O diagrama na
figura 3.10 representa esta evolução condicional. Cada estrutura ao final de uma seta “herda”
as propriedades da estrutura anterior. A inversão no sentido das setas depende da adição de
condições adicionais sobre a estrutura; por exemplo, todo grupo é um monóide, mas nem todo
monóide é um grupo. É necessário também mencionar que nesta seção somente foram definidas
as estruturas do lado direito do diagrama. As estruturas do lado esquerdo estão adicionalmente
condicionadas à satisfação do axioma da divisão 3.2.
Estruturas contendo duas operações binárias, denominadas adição e produto, sendo que o
produto é distributivo em relação a adição.
Anel de Lie. Um anel de Lie é um anel não associativo composto por um conjunto L com
a operação de adição, denotada por ” + ”, e a operação de colchete (ou colchete de Lie),
denotada por “[ , ]”. A estrutura hL, +, [ , ] , 0i será um anel de Lie se, dados x, y, z ∈ L
estes satisfizerem as seguintes condições:
É importante mencionar aqui que anéis de Lie não são grupos de Lie frente a adição.
Anel. Dado o conjunto R e as operações binárias ⊕, denominada adição e •, denominada pro-
duto, a estrutura hR, ⊕, •, 0, Ii será um anel se, dados a, b, c ∈ R estes satisfizerem os axiomas
de anel:
1. Condições de clausura: a ⊕ b ∈ K e a • b ∈ K.
2. Condições de associatividade: a ⊕ (b ⊕ c) = (a ⊕ b) ⊕ c e a • (b • c) = (a • b) • c.
3. Condições de comutatividade: a ⊕ b = b ⊕ a e a • b = b • a.
4. Elementos identidades: ∃0 ∈ K tal que a ⊕ 0 = 0 ⊕ a = a e ∃I ∈ K tal que a • I = I • a = a.
5. Elementos inversos: para todo a ∈ K existe −a ∈ K tal que a ⊕ (−a) = −a ⊕ a = 0. Para
todo a ∈ K \ {0}, existe a−1 ∈ K tal que a ⊕ a−1 = a−1 ⊕ a = I.
6. Distributividade: O produto é distributivo em relação a adição: a • (b ⊕ c) = (a • b) ⊕
(a • c).
Um corpo, portanto, consiste em dois grupos Abelianos frente a cada operação algébrica,
com o embargo de que o elemento I possui inversa frente a adição, mas o elemento 0 não
possui inversa frente ao produto.
Dentre as estruturas recém apresentadas, é interessante destacar aquelas que tipificam as
definições básicas da teoria de conjuntos; quais sejam:
• O semianel comutativo hN, +, ×, 0, 1i.
• O anel comutativo hZ, +, ×, 0, 1i.
. .
• Os corpos: Q = hQ, +, ×, 0, 1i dos números racionais e I = hI, +, ×, 0, 1i dos números irracio-
nais.
.
O corpo real. O corpo21 R = hR, +, ×, 0, 1i, formado pelos grupos Abelianos {R; +} e {R∗ ; ×},
onde “+” e “×” são as operações de adição e multiplicação algébricas, respectivamente.
.
O corpo complexo. O corpo C = hC, +, ×, 0, 1i, formado pelos grupos Abelianos {C; +} e
{C∗ ; ×}, onde “+” e “×” são as operações de adição e multiplicação algébricas de nú-
meros complexos,22 respectivamente. Cabe mencionar aqui que o corpo R está contido
no corpo C, em cuja situação é denominado um subcorpo.
20 O termo corpo empregado em português segue os termos em alemão Körper e em francês corps. Textos em inglês
Grupo com operadores. A estrutura hG, Ωi é denominada um grupo com operadores ou Ω-grupo.
Esta estrutura é composta por um grupo G = (G; •) e um conjunto Ω cujos elementos
operam sobre os elementos do grupo de uma determinada maneira. O Ω-grupo é definido
com a ação de Ω sobre G: Ω × G → G : (ω, g) 7→ g ω , sendo ω ∈ Ω e g ∈ G, de tal forma que a
operação é distributiva em relação ao produto de grupo:
ω
(g • h) = g ω • hω , onde h ∈ G.
Espaço vetorial. Devido a sua importância, espaços vetoriais são discutidos em mais detalhes
no capítulo 4.
a. (m + n) = a.m + a.n
(a ⊕ b) .m = a.m + b.m.
.
A-Módulo à direita. O A-módulo à direita MR = hM, A, .R i possui produto (.R ≡ .) que sa-
tisfaz:
1. Clausura no grupo. Para todo a ∈ A e para todo m ∈ M, m.a ∈ M.
2. Associatividade. Para cada a, b ∈ A e m ∈ M, (m.a) .b = m. (a • b).
3. Produto pela unidade de A. Para todo m ∈ M, m.I = m.
4. Distributividade. Para a, b ∈ A e m, n ∈ M,
(m + n) .a = m.a + n.a
m. (a ⊕ b) = m.a + m.b.
Álgebra associativa. Dada uma A-álgebra, esta é dita associativa se o A-produto for asso-
ciativo, i. e., para todo x, y, z ∈ M ,
Álgebra não associativa. Quando o A-produto não for associativo. Neste caso, o resultado
de [x, [y, z]] pode ser definido de diferentes maneiras, o que gera álgebras especiais,
como a álgebra de Lie.
R EFERÊNCIAS
ALABISO, C.; WEISS, I. A Primer on Hilbert Space Theory: Linear Spaces, Topological Spaces,
Metric Spaces, Normed Spaces, and Topological Groups. New York: Springer, 2014. (UNITEXT for
Physics). 255 + xvii pp. ISBN: 9783319037134. DOI: 10.1007/978-3-319-03713-4.
BARATA, João Carlos Alves. Notas para um Curso de Física-Matemática. São Paulo: USP. Versão
de 28/02/2018. Disponível em: <http://denebola.if.usp.br/~jbarata/Notas_de_aula/>.
BASSALO, José Maria F.; CATTANI, Mauro Sérgio D. Teoria de Grupos. Segunda edição. São
Paulo: Livraria da Física, 2008. 286 + ix pp. ISBN: 9788578610005.
DRESSELHAUS, S.; DRESSELHAUS, G.; JORIO, Ado. Group Theory: Application to the Physics of
Condensed Matter. Berlin: Springer, 2008. 582 + xv pp. ISBN: 9783540328971. DOI: 10.1007/
978-3-540-32899-5.
FAZZIO, A.; WATARI, K. Introdução à Teoria de Grupos: com Aplicações em Moléculas e Sólidos.
Santa Maria: UFSM, 1998. 239 pp. ISBN: 85-7391-010-0.
HAMERMESH, Morton. Group Theory and Its Application to Physical Problems. New York: Dover
Publications, 2012. (Dover Books on Physics). ISBN: 9780486140391. Disponível em: <http:
//books.google.com.br/books?id=w6PDAgAAQBAJ>.
JOSHI, A. W. Elements of Group Theory for Physicists. Third Ed. New Delhi: John Wiley & Sons,
1982. 348 + xv pp. ISBN: 0-470-27306-2.
MESSIAH, Albert. Quantum Mechanics. Volume I. Amsterdam: North-Holland, 1961. 1136 + xxii
pp. ISBN: 0-486-40924-4.
RILEY, K. F.; HOBSON, M. P.; BENCE, S. J. Mathematical Methods for Physics and Engineering.
Third Ed. Cambridge: Cambridge University Press, 2006. 1333 + xxvii pp. ISBN: 9781139450997.
Disponível em: <http://books.google.com.br/books?id=Mq1nlEKhNcsC>.
SZEKERES, Peter. A Course in Modern Mathematical Physics: Groups, Hilbert Space, and Differen-
tial Geometry. Cambridge: Cambridge University Press, 2004. ISBN: 9780521536455. Disponível
em: <http://books.google.com.br/books?id=pRgjkgEACAAJ>.
TINKHAM, M. Group Theory and Quantum Mechanics. [S.l.]: Dover Publications, 2012. (Dover
Books on Chemistry). 340 + xii pp. ISBN: 9780486131665. Disponível em: <https://books.
google.com.br/books?id=oe7DAgAAQBAJ>.
127
128 4.2. Subespaços vetoriais e subespaços complementares
Definição 4.1 (Espaço vetorial). Um espaço vetorial sobre um corpo K, também denominado
.
um espaço-K, e denotado por V = hV, K, +, .i, consiste em um conjunto V de elementos denomi-
nados vetores e dotado de uma operação + : V 2 → V , denominada soma vetorial. O espaço é
.
composto também por um corpo K = hK, ⊕, •, 0, Ii, cujos elementos são denominados escalares,
e, finalmente, de uma operação . : K × V → V , denominada produto por escalar. Os conjuntos
de vetores e escalares satisfazem as seguintes propriedades frente as operações definidas:
Frente a soma vetorial. A estrutura V = hV, +, 0i forma um grupo Abeliano, sendo que o ele-
mento identidade 0 é denominado vetor nulo.
Frente ao produto por escalar. Dado o corpo K, para cada α ∈ K e u ∈ V , existe um vetor
denotado por α.u ∈ V , denominado produto de u por α, o qual satisfaz as condições:
Em física, espaços vetoriais são usualmente definidos sobre corpos reais ou complexos,
quando então são também denominados espaços vetoriais reais ou espaços vetoriais comple-
xos, respectivamente. Algumas propriedades dos espaços vetoriais são discutidas na seções a
seguir.
Em particular, o subespaço W ⊆ V sempre irá conter o vetor nulo. Dados dois subespaços
U , W ⊆ V , a sua intersecção U ∩ W também é subespaço de V , pois se u, v ∈ U ∩ W , então
necessariamente α.u + β.v ∈ U ∩ W também.
V =U ⊕W.
1. V = U + W ;
2. U ∩ W = ∅.
.
Teorema 4.2 (Subespaço gerado por um conjunto). Seja C = {vi } ⊂ V um subconjunto do
espaço vetorial V sobre o corpo K. Então,
Definição 4.6 (Espaço vetorial finito ou infinito e dimensão do espaço). Um espaço vetorial
V é dito ser de dimensão finita se este pode ser gerado a partir de um conjunto finito de vetores
Cn = {v1 , . . . , vn } ⊂ V , sendo n ∈ N:
V = span (Cn ) .
Caso não exista um conjunto finito Cn capaz de gerar V , então este é dito ser de dimensão
infinita.
Quando V tem dimensão finita, sua dimensão dim V é definida como o menor número natural
n tal que V = span (Cn ).
Será definida agora uma noção fundamental para a teoria de espaços vetoriais: a indepen-
dência (ou dependência) linear entre vetores.
1 Do inglês: linear span.
Definição 4.7 (Vetores linearmente independentes). Seja V um espaço vetorial sobre o corpo
.
K. O conjunto de vetores C = {vi }, onde i = 1, 2, . . . e vi ∈ V , é dito ser linearmente independente
(identificado também por “LI”) se todos os subconjuntos finitos {vj } ⊆ C (j = 1, 2, . . . , k) forem
tais que
Xk
αj .vj = 0 ⇐⇒ αj = 0, para todo j = 1, . . . , k,
j=1
sendo que αj ⊂ K.
Um conjunto de vetores é dito ser linearmente dependente se este não for LI.
Com as definições acima, torna-se agora possível definir-se a base de um espaço vetorial.
Definição 4.8 (Base de um espaço vetorial). Seja V um espaço vetorial sobre o corpo K. Um
subconjunto B ⊂ V é denominado uma base de V se:
Observa-se que o teorema acima é válido tanto para espaços finitos quanto para infinitos. Os
teoremas a seguir são válidos para espaços finitos.
Corolário 4.1. Seja V um espaço vetorial finito. Se o subconjunto B = {e1 , . . . , en } é uma base de
V , então dim V = n. Ou seja, a dimensão do espaço vetorial é idêntica à cardinalidade da base.
Teorema 4.5 (Redução de base). Seja V um espaço vetorial finito de dimensão n. Se existe um
subconjunto C = {v1 , . . . , vm } ⊂ V com m > n tal que V = span (C), então ou C é uma base de V ou
um número m − n de vetores de C pode ser removido para formar uma base de V .
(Enunciado alternativo) Seja V um espaço vetorial finito de dimensão n. Seja B = {e1 , . . . , en }
uma base de V . Qualquer conjunto de vetores C = {v1 , . . . , vm } ⊂ V com m > n é linearmente
dependente.
Teorema 4.6. Seja V um espaço vetorial finito. Sejam B = {e1 , . . . , en } ⊂ V e B 0 = {e01 , . . . , e0m } ⊂ V
bases de V . Então m = n.
Demonstração. De acordo com o teorema 4.5, as inegualdades n 6 m e n > m devem ser ambas
satisfeitas. Então, n = m.
O importante teorema a seguir relaciona conjuntos LI com uma base de um espaço de di-
mensão finita.
Teorema 4.7 (Extensão de base). Seja V um espaço vetorial finito de dimensão n. Seja A =
{v1 , v2 , . . . , vm } ⊆ V um subconjunto de vetores linearmente independentes de V , sendo que m 6
n = dim V . Então existe uma base B = {e1 , e2 , . . . , en } de V tal que
e1 = v 1 , e 2 = v2 , ... e m = vm .
Em outras palavras, qualquer conjunto LI de V pode ser estendido para formar uma base
de V . Apresenta-se agora um outro importante teorema, o qual versa sobre a decomposição de
vetores.
v0 = Av,
n
X
v = A−1 v0 =⇒ vi = A−1 • vj0 .
ij
j=1
Definição 4.9 (Mapeamento entre espaços vetoriais). Sejam V e W dois espaços vetoriais
sobre o mesmo corpo K. Uma função T : V 7−→ W é denominada um mapeamento de V sobre W
se para todo v ∈ V existe um e somente um w ∈ W tal que
T (v) = w.
Definição 4.10 (Mapa linear). Sejam V e W dois espaços vetoriais sobre o mesmo corpo K.
Uma função L : V 7−→ W é denominada um mapa linear se para todo u, v ∈ V e para todo α ∈ K
as seguintes propriedades são satisfeitas:
Operador linear. Quando domínio e imagem coincidem (W =V ), o mapa linear também é de-
nominado operador linear. Um operador linear obviamente obedece as propriedades de
aditividade e homogeneidade de um mapa linear. Adicionalmente, se u = 0 ∈ V é o vetor
nulo de V , então
L (0) = 0.
Forma linear. Quando o mapa linear é a função f : V 7−→ K, i. e., do espaço vetorial sobre
o seu corpo escalar, este é denominado uma forma linear ou um funcional linear. Uma
propriedade importante é que o mapeamento do funcional sobre o corpo é sempre ou trivial
ou é sobrejetivo.
Definição 4.11 (Matriz de um operador linear). Seja V um espaço vetorial sobre o corpo K;
seja T : V 7−→ V um operador linear atuando sobre V e seja B = {b1 , b2 , . . . } uma base de V . De
acordo com o teorema 4.8, a decomposição
X
T (bi ) = Tji .bj , (para todo bi ∈ B e com Tij ∈ K) ,
j
existe e é única. Os escalares {Tij } são denominados os componentes do operador linear T com
respeito à base B. Estes componentes podem ser organizados como os elementos de uma matriz
.
quadrada T = [Tij ], denominada a matriz do operador T com respeito à base B.
A definição da matriz associada a uma operador linear é útil porque permite sempre descrever
a ação de um operador abstrato sobre vetores de um espaço também abstrato (desde que exista
uma base) através de objetos “concretos” que são as matrizes, através da álgebra matricial.
Dados os objetos empregados no teorema 4.8 e na definição 4.11, se o vetor v é decomposto
por X
v= vi .bi ,
i
então os componentes de ṽ são obtidos a partir dos componentes de v por meio da multiplicação
matricial
ṽ = Tv,
sendo T a matriz do operador T na base B. No resultado acima, fica subentendido que os
produtos entre os elementos da matriz T e os elementos da matriz v ocorrem via a operação “•”
de produto entre componentes do corpo K.
.
Dados agora dois operadores, T e S, que atuam sobre V , a sua composição ST = S ◦ T é
representada na notação matricial por
X X X
ST (bi ) = S (Tji .bj ) = Tji . [S (bj )] = (Skj • Tji ) .bk
j j j,k
X
= (ST )ki .bk ,
k
sendo X h i
(ST )ij = Sik • Tkj =⇒ ST = (ST )ij .
k
Definição 4.12 (Mapa bilinear). Sejam V , W e X três espaços vetoriais sobre o mesmo corpo
K. Um mapa bilinear B é definido como a função B : V × W → X tal que para todo v ∈ V e
w∈W:
Forma bilinear. Definido no caso em que a imagem do mapeamento (X ) é o corpo base K. Dado
o espaço vetorial V sobre o corpo K, o mapa bilienar B : V × V 7→ K é denominado uma
forma bilinear, tal que, dados u, v, w ∈ V e α ∈ K:
1. B (u + v, w) = B (u, w) + B (v, w)
2. B (u, v + w) = B (u, v) + B (u, w)
3. B (α.u, v) = B (u, α.v) = α • B (u, v).
Desta definição são definidos os produto interno, produto escalar e forma quadrática.
Forma sesquilinear. Trata-se de uma forma bilinear sobre um espaço vetorial complexo, a qual
é linear em um dos argumentos, mas antilinear no outro. Existe uma liberdade em definir
qual argumento é antilinear. Neste texto, o primeiro argumento terá tal propriedade. Seja
V um espaço linear complexo. Uma forma sesquilinear sobre V é um mapa ϕ : V × V 7−→ C
tal que, para todos x, y, z ∈ V e α, β ∈ C, as seguintes propriedades são satisfeitas:
Definição 4.13 (Mapa multilinear). Trata-se de uma generalização de um mapa bilinear. Se-
jam V1 , V2 , . . . , Vn (n > 1) e W espaços vetoriais, todos sobre o mesmo corpo K. Um mapa multi-
linear f é a função
f : V1 × V2 × · · · × Vn 7−→ W ,
tal que para todo vi ∈ Vi e para um dado w ∈ W ,
vi 7→ w = f (v1 , . . . , vi , . . . , vn )
é um mapa linear de Vi a W .
Forma multilinear. Ocorre quando a imagem do mapa multilinear é o corpo substrato aos es-
paços vetoriais. Ou seja, uma forma multilinear é a função
f : V1 × V2 × · · · × Vn 7−→ K,
Algumas definições e teoremas acerca de mapeamentos entre ou sobre espaços vetoriais são
apresentados a seguir.
(T ◦ S) (u) = T (S (u)) ,
para todo u ∈ V .
2. Distributividade:
(a) (T1 + T2 ) ◦ S1 = T1 ◦ S1 + T2 ◦ S1 ;
(b) T1 ◦ (S1 + S2 ) = T1 ◦ S1 + T1 ◦ S2 , se T1 é linear;
(c) (αT1 ) ◦ S1 = α (T1 ◦ S1 );
(d) T1 ◦ (αS1 ) = α (T1 ◦ S1 ), se T1 é linear;
Definição 4.16 (Mapeamento invertível). Sejam V e W espaços vetoriais, cujos vetores nulos
são, respectivamente, 0V e 0W . Seja T : V 7−→ W um operador. O mapa T é dito invertível se
existe um outro mapeamento S : W 7−→ V tal que S ◦ T = IV e T ◦ S = IW . Neste caso, S é
denominado o mapeamento inverso de T , sendo representado por S = T −1 .
e
T (v) = w ⇐⇒ T −1 (w) = v.
Teorema 4.13. Se L : V 7−→ W é um operador linear invertível, então o seu inverso L−1 : W 7−→ V
também é linear.
Definição 4.17 (Subespaço invariante). Seja V um espaço vetorial sobre o corpo K. Seja
L : V 7−→ V um operador linear sobre V . Um subespaço U ⊆ V é denominado um subespaço
invariante sob o operador L se
L (U ) = {L (u) , ∀u ∈ U } ⊆ U .
Ou seja, a ação do operador linear L sobre qualquer vetor do subespaço gera um outro vetor
que também pertence ao mesmo subespaço. O exemplo a seguir ilustra a importância dos
subespaços vetoriais invariantes.
sendo {Lji } os elementos da matriz do operador L com respeito à base BV (definição 4.11). De
acordo com o teorema 4.7, a base BU pode ser estendida para uma base BV = {b1 , . . . , bn } de V .
Portanto, se a ação L (bi ) ∈ U for descrita na forma matricial,
L11 L12 · · · L1m · · · L1n
L21 L22 · · · L2m · · · L2n
. .. . . . ..
..
.. . . .. . .
bL = b1 b2 · · · bm · · · bn
e ,
L L
m1 m2 · · · Lmm · · · Lmn
. .. .. . . . ..
.. . . .. . .
Ln1 Ln2 · · · Lnm · · · Lnn
isto implica que Lij = 0 para j 6 m e i > m, isto é, a matriz L deve estar na forma bloco-diagonal
superior
L1 L3
L= ,
0 L2
L1 0
L= .
0 L2
A partir das definições de espaço vetorial e dos mapeamentos e formas aplicados aos vetores,
foram caracterizados diversos tipos particulares de espaços vetoriais, alguns dos quais serão
descritos a seguir.
Definição (Norma). Seja V um espaço vetorial sobre o corpo K. Uma norma sobre V é uma
função k · k : V 7→ R, tal que para todos x, y ∈ V e α ∈ R, as seguintes propriedades são
satisfeitas:
h · , · i : V × V 7−→ K,
Definição 4.19 (Espaço vetorial com produto interno). Seja um espaço vetorial V sobre um
corpo K, o qual é dotado de um produto interno h , iV : V × V 7→ K. A dupla (V , h , iV ) forma um
espaço vetorial com produto interno.
Usualmente, os conjuntos dos escalares em espaços com produto interno de interesse fazem
parte dos corpos K = R (reais) ou C (complexos). Neste caso, estes espaços são consecutivamente
denominados espaço real ou complexo com produto interno. Nestes casos, uma propriedade adi-
cional é imposta, dependendo da natureza do espaço vetorial.
A definição do produto interno entre dois vetores de um espaço vetorial permite também
introduzir-se a noção de ortogonalidade entre os vetores.
Definição 4.20 (Vetores ortogonais). Seja V um espaço vetorial com produto interno. Dois
vetores x, y ∈ V são ditos ser ortogonais ou perpendiculares se
hx, yi = 0.
Até este momento, o conceito de vetores ortogonais ou perpendiculares não possui neces-
sariamente nenhum caráter geométrico, uma vez que a definição 4.20 é puramente algébrica.
A concepção geométrica entre dois vetores perpendiculares é válida quando o espaço vetorial
também é um espaço métrico. Este tipo de espaço será discutido mais adiante.
Espaços pseudo-Euclideanos. Tratam-se de espaços reais com produto interno, os quais obe-
decem a propriedade adicional:
Vetores de um espaço pseudo-Euclideano não podem possuir norma, mas possuem magni-
tude.
Um vetor x de um espaço pseudo-Euclideano que não seja o vetor nulo (i. e., a identidade
aditiva do conjunto dos vetores) pode possuir uma magnitude nula ou negativa. Caso
hx, xi = 0, mas x 6= 0, este é dito auto-ortogonal.4
A condição EPI04 implica na condição (EPI4 ), pois se existisse um vetor x 6= 0 tal que
hx, yi = 0 para todo y ∈ V , então, fazendo y = x teríamos hx, xi = 0, o que viola EPI04 .
4 Ver definição 4.20 de vetores ortogonais.
pode-se definir a norma de um vetor x, a qual é induzida pelo produto interno, por
. p
x
= hx, xi > 0.
Corolário 4.2. A igualdade em (4.1) somente irá ocorrer se os vetores x e y forem proporcionais
entre si, isto é,
hx, yi = kxk kyk ⇐⇒ y = αx, para algum α ∈ K (R ou C) .
Teorema 4.15 (Teorema de Pitágoras). Seja V um espaço vetorial normado com produto in-
terno. Se os vetores x, y ∈ V são ortogonais, então
2 2 2
kx + yk = kxk + kyk .
2 2 2 2 2
kx + yk = hx + y, x + yi = kxk + hx, yi + hy, xi + kyk = kxk + kyk .
Dados dois vetores pertencentes a um espaço normado com produto interno: x e y, com y 6= 0.
O vetor x sempre pode ser decomposto em duas partes: uma paralela a y e uma perpendicular.
Este processo é denominado a decomposição ortogonal do vetor x ao longo de y.
Inicialmente escreve-se x = xk + x⊥ , sendo xk = αy, para algum α ∈ K a ser determinado, a
componente de x paralela a y e x⊥ a componente perpendicular. Como x⊥ deve ser ortogonal a
y,
2
x⊥ = x − xk = x − αy =⇒ 0 = hx⊥ , yi = hx − αy, yi = hx, yi − α kyk .
2
Portanto, α = hx, yi / kyk e o vetor x fica decomposto então por
!
hx, yi hx, yi
x= 2 y+ x− 2 y .
kyk kyk
neficiados por possuirem bases ortonormais. Bases ortonormais têm diversas propriedades es-
peciais que levam a simplificações úteis em cálculos envolvendo a álgebra de vetores. Essas
bases fazem uso constante do conceito de vetores ortogonais (definição 4.20).
Então,
n n n n
hx, xi =
X
αi∗ αj hxi , xj i =
X 2
|αi | hxi , xi i +
X
αi∗ αj
hx : 0 X |α |2 hx , x i = 0.
i , xj i =
i i i
i,j=1 i=1 i,j=1 i=1
(i6=j)
2
Como hxi , xi i > 0 para xi ∈ C e |αi | > 0 para todo αi ∈ K, a igualdade acima somente será
satisfeita se αi = 0 (i = 1, . . . , n).
Teorema 4.17 (Base ortonormal). Seja V um espaço vetorial normado com produto interno de
dimensão n. Se B = {b1 , . . . , bn } ⊂ V é um conjunto ortonormal de vetores, então B é uma base de
V , denominada base ortonormal.
Demonstração. Para que B seja uma base é necessário (definição 4.8) que: (i) B seja LI e que (ii)
V seja gerado por B. A condição (i) é satisfeita por B ser um conjunto ortogonal e pelo teorema
4.16. A condição (ii) é satisfeita porque a cardinalidade de B é igual a dim V e pelos teoremas da
seção 4.3. Portanto, B é base de V .
Definição 4.22 (Complemento ortogonal). Seja V um espaço vetorial de dimensão finita com
produto interno h·, ·i e C ⊂ V um subconjunto de V . O complemento ortogonal de C, denotado
por C ⊥ , é o conjunto
.
C ⊥ = {v ∈ V | hu, vi = 0 para todo u ∈ C} .
Observa-se que, de acordo com o teorema 4.2, tanto C quanto C ⊥ formam subespaços de V
⊥
por varredura. Da mesma maneira, {0} = V e V ⊥ = {0}. Adicionalmente, se C1 ⊂ C2 ⊂ V ,
então C2⊥ ⊂ C1⊥ .
Com a definição de subespaço complementar ortogonal, resulta o seguinte importante teo-
rema.
5 Ver também seção 6.1.2.
Demonstração. De acordo com o teorema 4.1, para que C e C ⊥ sejam subespaços complemen-
tares de V , é necessário que (i) V = C + C ⊥ e (ii) C ∩ C ⊥ = {0}.
Para mostrar que a condição (i) é satisfeita, seja n = dim (C ) e B = {e1 , . . . , en } uma base
ortonormal de C . Então, para todo v ∈ V , pode-se escrever
Xn n
X
v= hv, ej i ej + v − hv, ej i ej .
j=1 j=1
| {z } | {z }
u w
Teorema 4.19. Sejam (V , h , iV ) e (W , h , iW ) espaços vetoriais com produto interno sobre o corpo
K. Para todo mapa linear L : V −7 → W existe um único adjunto L∗ : W 7−→ V .
Operador adjunto. A partir das definições de operador linear (definição 4.10) e de mapeamento
adjunto (definição 4.23) e, de acordo com o teorema 4.19, dado um operador linear L : V 7→
V , existe um único operador adjunto L∗ : V 7→ V que satisfaz
para todos u, v ∈ V .
b dois operadores lineares atuando sobre V e dado α ∈ K, os respectivos opera-
Sendo L e L
dores adjuntos satisfazem as propriedades:
∗
1. (αL) = α∗ L∗ ;
∗
2. (L∗ ) = L;
∗
3. L + L b = L∗ + L b∗ ;
∗
4. L ◦ L b =L b ∗ ◦ L∗ .
L∗ = L.
O nome operador Hermitiano é usualmente atribuído quando K = C. Por outro lado, quando
o corpo é real (K = R), o operador também pode ser denominado simétrico.
Teorema 4.20. Seja (V , h , iV ) um espaço vetorial com produto interno sobre o corpo K. Seja
L : V 7−→ V um operador linear sobre V . O operador L é auto-adjunto se e somente se
para todos u, v ∈ V .
Um tipo especial de operadores lineares que atuam sobre espaços vetoriais com produto
interno são os operadores unitários. A definição destes é largamente influenciada pela definição
de uma matriz unitária.
Definição 4.25 (Operador unitário). Seja (V , h , i) um espaço vetorial com produto interno.
Seja U : V 7−→ V um operador linear que atua sobre os vetores de V . Este operador é dito ser
unitário com respeito ao produto interno se
U ∗ = U −1 .
Teorema 4.21. Seja (V , h , i) um espaço vetorial com produto interno. Seja U : V 7−→ V um
operador linear que atua sobre V . Se U é um operador unitário com relação ao produto interno,
então, para quaisquer u, v ∈ V ,
• kU (u)k = kuk.
Definição 4.26 (Métrica). Dado o conjunto C, uma métrica em C é uma função d : C × C 7−→ R,
denominada função distância ou, simplesmente, distância, tal que, para todos x, y, z ∈ C as
seguintes propriedades são satisfeitas:
Na sua concepção mais geral, um espaço métrico é um conjunto no qual se define a noção de
distância, denominada a métrica do espaço, entre os seus elementos.
Definição 4.27 (Espaço métrico). Dado um conjunto C e uma métrica d : C × C 7−→ R atuando
sobre C, a estrutura hC, di é denominada um espaço métrico.
A partir desta definição é possível caracterizar-se um espaço métrico tanto do ponto de vista
da geometria quanto da álgebra. Um exemplo de espaço geométrico é o espaço Euclideano,6
o qual tem sido categorizado desde o período clássico da Grécia antiga e no qual as noções
cotidianas e intuitivas de posição e distância estão definidas. A definição aqui apresentada é
aquela realizada a partir de estruturas algébricas abstratas.
6 Ver exemplo 4.2.
Definição 4.28 (Sequência de Cauchy). Uma sequência de Cauchy é aquela sequência cu-
jos elementos se tornam arbitrariamente próximos entre si à medida que a sequência progride.
Alternativamente, uma sequência de Cauchy pode ser definida quando, dada uma quantidade
positiva arbitrariamente pequena, todos os elementos da mesma distam entre si por uma dis-
tância menor que , exceto possivelmente por um subconjunto finito de elementos da sequência.
A partir das definições de espaço métrico e de uma sequência de Cauchy, um outro conceito
útil, um espaço métrico completo, pode ser definido.
Definição 4.29 (Espaço métrico completo). Um espaço métrico M é denominado espaço mé-
trico completo ou espaço de Cauchy se todas as sequências de Cauchy compostas por pontos
em M possuem um limite que também está contido em M. Em outras palavras, se todas as
sequências de Cauchy em M convergem em M.
De forma coloquial, um espaço métrico completo é aquele em que não existem “pontos au-
sentes” no seu interior ou sobre o contorno. Exemplos de espaços métricos completos são os
corpos dos números reais (R) ou dos complexos (C), nos quais a métrica é definida como o valor
absoluto da distância entre os números: d (x, y) = |x − y|. Já um espaço métrico não completo é
o corpo dos números racionais (Q) com a mesma métrica, pois a sequência
xn 1
x1 = 1, xn+1 = + (n = 1, 2, . . . ) ,
2 xn
√
embora composta por pontos em Q, converge para 2, o qual não pertence ao corpo.
As observações e definições abaixo referem-se a conceitos introduzidos nas áreas de geo-
metria e topologia. Estes conceitos não são discutidos em maiores detalhes neste texto, mas
são necessários para categorizar de uma forma adequada certas estruturas como grupos contí-
nuos. As definições apresentadas não são rigorosas, sendo, outrossim, realizadas de uma forma
coloquial, porém compreensiva.
Topologia é um ramo da matemática que estuda formas e espaços topológicos (ver definição
abaixo), sendo considerada uma extensão da geometria. A topologia estuda as propriedades
matemáticas do espaço e como estas são ou não preservadas sob deformações contínuas, tais
como o alongamento ou a flexão do espaço. Dentre as propriedades consideradas, estão a
conexão, continuidade e os contornos do espaço.
Definição 4.30 (Topologia). Dado um conjunto C, uma topologia em C consiste em uma coleção
O de subconjuntos, denominados os conjuntos abertos da topologia, ou simplesmente os abertos
da topologia, os quais satisfazem as condições:
U ∈ O e V ∈ O =⇒ U ∩ V ∈ O.
S
3. Se {Vi | i ∈ N} é uma coleção qualquer de conjuntos abertos, então a sua união i∈N Vi
também é um conjunto aberto.
Pode-se mostrar que todo espaço métrico é um espaço topológico induzido pela sua métrica;
contudo, a recíproca não é verdadeira: nem todo espaço topológico deve, necessariamente, pos-
suir uma métrica.
(x,y,z)
Será apresentado agora o importante exemplo do espaço Euclideano como um espaço mé-
trico.
Exemplo 4.2 (O espaço métrico Euclideano En ). Um dos espaços métricos mais importantes
e empregados na física-matemática é o espaço Euclideano de n dimensões En , o qual contém o
espaço de 3 dimensões da geometria euclideana, ao qual também é atribuído um espaço vetorial
normado e dotado de produto interno.8
Como um espaço métrico, o espaço Euclideano é um conjunto de pontos que satisfazem cer-
tas relações entre si, em particular a métrica (ou distância) entre os mesmos. Esta métrica
permite estabelecer-se uma relação geométrica entre os pontos do espaço, usualmente repre-
sentada pelo sistema Cartesiano de coordenadas. Dessa maneira, em uma dimensão, o espaço
E1 é visualizado por meio da reta real; em duas dimensões, o espaço E2 é visualizado através do
plano Cartesiano e em três ou mais dimensões o espaço En (n > 3) é visualizado por um sistema
Cartesiano de n coordenadas ortogonais.
Um ponto no espaço E3 é ilustrado na figura 4.1. Um ponto P neste espaço é dado pela
.
terna ordenada P = (x1 , x2 , x3 ) ou, como também costuma-se escrever, P = (x, y, z). Ao se
representar este ponto geometricamente em um sistema Cartesiano de 3 coordenadas, neste
caso, os números x, y e z são as coordenadas do ponto P ao longo de cada eixo do sistema.
Estas coordenadas são obtidas traçando-se retas que partem de P e que são perpendiculares a
cada eixo, conforme ilustrado na figura.
Para se definir o espaço Euclideano, é necessário primeiro estabelecer a métrica do mesmo.
.
Definição 4.35 (Métrica Euclideana). Seja R = hR, +, ×, 0, 1i o corpo dos números reais.9 Seja
Rn ≡ R × · · · × R = {(x1 , . . . , xn ) | xj ∈ R, j = 1, . . . n}
| {z }
n vezes
Rn ≡ R × · · · × R = {(x1 , . . . , xn ) | xj ∈ R, j = 1, . . . n}
| {z }
n vezes
o conjunto de todas as n-uplas ordenadas obtidas a partir do produto Cartesiano do corpo dos
números reais. Sejam d, q ∈ Rn tais que a distância entre estes pontos é definida pela métrica
.
Euclideana d ≡ d (p, q). A estrutura En = hRn , di forma o Espaço Euclideano de dimensão n.
sendo −y ∈ V o elemento inverso de y em V . Diz-se então que a métrica d é induzida pela norma
k · k.
A métrica acima definida, além de apresentar a propriedade de homogeneidade como con-
sequência da definição de norma, possui também a propriedade de invariância translacional, i.
e.,
d (x + a, y + a) = d (x, y) ,
para todos x, y, a ∈ V .
De forma recíproca, se a métrica d sobre o espaço V satisfaz as condições de homogeneidade
.
e invariância translacional, então a norma é induzida pela métrica por kxk = d (x, 0) , ∀x ∈ V ,
sendo 0 o vetor nulo.
O espaço dual a V pode ser representado por V ∗ ou V 0 quando o corpo K fica subentendido.
Um dado elemento de V ∗ é também denominado de covetor ou forma-um ou 1-forma.
O produto Cartesiano entre o espaço V e seu dual V ∗ , resultando no mapeamento [ · , · ] :
V × V 7−→ K, é um exemplo de uma forma bilinear. Um determinado par ordenado do domínio
∗
.
deste mapeamento, obtido a partir de ϕ ∈ V ∗ e x ∈ V , pode ser representado por [ϕ, x] = ϕ (x) e
ser denominado um bracket.
Existem dois tipos de espaços duais: o espaço dual algébrico e o espaço dual contínuo. O
primeiro tipo é a definição acima apresentada, válida para qualquer espaço dual. O segundo
tipo surge quando se consideram somente funcionais lineares contínuos.
o qual é um elemento de H ∗ .
+ : M × V 7−→ M, (v, p) 7→ v + p
O mapeamento “+” é uma ação de grupo livre e transitiva12 de V sobre M . A ação é livre pela
propriedade (EA1 ); ao passo que a unicidade (EA3 ) assegura que a ação é transitiva, pois, dados
p, q ∈ M quaisquer, se q = p + u = p + u0 , com u, u0 ∈ V , resulta que p + u − u0 = p e, portanto, pela
propriedade (EA1 ), necessariamente u0 = u.
Como o grupo V ∈ V é Abeliano, não há diferença entre ações pela esquerda ou pela direita;
assim, a identidade v + p = p + v é válida.
Definindo-se uma origem O ∈ M , pode-se transformar o conjunto M em um espaço vetorial.
Reciprocamente, qualquer espaço vetorial V é um espaço afim sobre si próprio.
Denotando-se o vetor único v provido por (EA3 ) como → −
pq, escreve-se q = p + → −
pq. De (EA1 )
−
→
resulta que pp = 0. Então, de (EA2 ) segue que o mapeamento
M × M 7−→ V , (q, p) 7→ →
−
pq
satisfaz a equação
→
−
pq +V →
−
qr = →
−
pr.
→
− →
−
Em particular, este resultado implica que pq = −qp.
A partir da definição de um espaço afim, as seguintes propriedades da geometria analítica
podem ser rigorosamente definidas.
11 Do inglês: affine space.
12 Definição 3.19.
τv : M 7−→ M, p 7→ p + v
M 7−→ Km , p 7→ (x1 , . . . , xm ) ,
Para finalizar esta seção, serão apresentados a seguir alguns exemplos importantes de espa-
ços vetoriais.
Exemplo 4.3 (O espaço vetorial real R 3 ). O espaço vetorial mais comum na física é aquele
formado pelo grupo R3 definido na seção 3.1.2.3 e pelo corpo dos números reais R, definido na
página 123. Esta estrutura é definida como
.
R 3 = R3 , R, +, .
M V
→
−
ab
→
−
ac
→
−
bc
Figura 4.3: Espaço afim hM, V , +i visualizado tanto do ponto de vista do conjunto M (painel esquerdo), com
−
→ − → →
os pontos a, b, c, quanto do ponto de vista do espaço V (painel direito), com os vetores ab, bc e −
ac. A regra do
paralelogramo é satisfeita no espaço afim.
O produto por escalar neste espaço vetorial é definido da seguinte maneira. Dados o vetor
a = (a1 , a2 , a3 ) ∈ R3 e o escalar α ∈ R, o produto de a por α resulta no vetor b ∈ R 3 dado por
Verifica-se facilmente que esta operação satisfaz as condições de associatividade, produto pela
unidade e distributividade.
Adicionalmente, o espaço R 3 é sempre considerado com uma ou mais definições de produto
interno, sendo o produto escalar o mais corriqueiro. O produto escalar do vetor a pelo vetor b é
definido como
.
ha,bi ≡ a · b = a1 b1 + a2 b2 + a3 b3 ∈ R.
Verifica-se facilmente que o produto escalar satisfaz os requisitos de um produto interno. Além
disso, o produto escalar no R 3 induz a norma dos vetores do espaço: para todo a ∈ R 3 ,
. √
q
kak ≡ |a| = a · a = a21 + a22 + a23 .
e pelo corpo dos números complexos C, definido na página 123. Esta estrutura é definida como
.
C 3 = C 3 , C, +, . .
O produto por escalar neste espaço vetorial é definido da forma usual. Dados o vetor a =
(a1 , a2 , a3 ) ∈ C 3 e o escalar α ∈ C, o produto de a por α resulta no vetor b ∈ C 3 dado por
3
−−→ −−→ −−→ X
P Q = OQ − OP = (qi − pi ) êi .
i=1
−−→ −−→
Além disso, pela definição do produto escalar entre os vetores OQ e OP no R 3 ,
v
D−−→ −−→E −−→ −−→ u uX 3
OQ, OP ≡ OQ · OP = t qi pi .
i=1
Adicionalmente, pela definição das normas destes vetores e também pela distância entre os
pontos P e Q dados pela métrica Cartesiana no E3 , observa-se que
v
−−→
−−→ −−→
u 3
uX 2
d (P, Q) =
P Q
=
OQ − OP
= t (qi − pi ) .
i=1
onde ijk é o símbolo de Levi-Civita definido na seção 6.1.2. O produto vetorial satisfaz a condição
de bilinearidade, pois para α, β ∈ R,
a× (b × c) + b× (c × a) + c× (a × b) = 0.
Portanto, talvez de uma forma até surpreendente, a álgebra vetorial é uma álgebra de Lie.
R EFERÊNCIAS
ALABISO, C.; WEISS, I. A Primer on Hilbert Space Theory: Linear Spaces, Topological Spaces,
Metric Spaces, Normed Spaces, and Topological Groups. New York: Springer, 2014. (UNITEXT for
Physics). 255 + xvii pp. ISBN: 9783319037134. DOI: 10.1007/978-3-319-03713-4.
AMANN, H.; ESCHER, J. Analysis I. Basel: Birkhäuser, 2013. (Grundstudium Mathematik). 435
+ xv pp. ISBN: 9783034877947.
ARFKEN, G. B.; WEBER, H. J.; HARRIS, F. E. Mathematical Methods for Physicists: A Comprehen-
sive Guide. New York: Elsevier, 2013. ISBN: 9780123846549.
BARATA, João Carlos Alves. Notas para um Curso de Física-Matemática. São Paulo: USP. Versão
de 28/02/2018. Disponível em: <http://denebola.if.usp.br/~jbarata/Notas_de_aula/>.
LANG, S. Undergraduate Algebra. [S.l.]: Springer New York, 2013. (Undergraduate Texts in
Mathematics). ISBN: 9781475768985. Disponível em: <https : / / books . google . com . br /
books?id=SqrqBwAAQBAJ>.
RILEY, K. F.; HOBSON, M. P.; BENCE, S. J. Mathematical Methods for Physics and Engineering.
Third Ed. Cambridge: Cambridge University Press, 2006. 1333 + xxvii pp. ISBN: 9781139450997.
Disponível em: <http://books.google.com.br/books?id=Mq1nlEKhNcsC>.
14 Ver seção 3.7.3.
15 Usando notação de Einstein para as somas (seção 6.1.1).
153
154 5.1. Primeiras definições e representações
Definição 5.3 (Representação de grupo (dimensão finita)). Dado o grupo G = {G; ∗} e um sub-
grupo D (G) ⊆ GL (n, K), uma representação do grupo G é um homomorfismo de G para GL (n, K),
i. e.,
ρ : G 7−→ GL (n, K) ,
tal que:
1. Para cada elemento g ∈ G existe uma única matriz D (g) ∈ D (G), a qual é a imagem2 de g
sob o homomorfismo.
O espaço vetorial sobre o corpo K no qual as matrizes D ∈ GL (n, K) estão contidas é o espaço
de representação e n, a ordem de D, é denominado a dimensão da representação. Se Dij (g) é
o elemento da matriz D (g) na i-ésima linha e na j-ésima coluna, então a multiplicação matricial
em (5.1) implica em
n
X
Dij (g1 ∗ g2 ) = Dik (g1 ) Dkj (g2 ) , (i, j = 1, . . . , n) . (5.2)
k=1
Nas seções a seguir serão apresentadas algumas técnicas usuais para se determinar o homo-
morfismo ρ : G 7→ GL (n, K), ou em outras palavras, para se obter as matrizes D (G) ⊂ GL (n, K).
A cada ação de grupo5 de G sobre os elementos de u atribui-se um vetor linha através dos mapea-
mentos: se G 7→ [G], então, para todo gi ∈ G, gi G 7→ [gi G] = gi ∗ g1 gi ∗ g2 . . . gi ∗ gn . Escrevendo-se
f segue que a ação de gi sobre G pode ser escrita como uma matriz coluna ui , a qual é o
u = [G],
resultado da ação de uma matriz M (gi ) ∈ GL (n, K) sobre u, de acordo com
ui = M (gi ) u. (5.3a)
]
Mas, obviamente, ui = [gi G], de onde se conclui que
^
[gi G] = [G] M (gi ).
^
D (gi ) = M (gi ), (5.3b)
devem resultar em u3 = M (g3 ) u, sendo M (g3 ) = M (g2 ) M (g1 ), pois isto implica em que D (g3 ) =
D (g1 ) D (g2 ), de acordo com (5.1). O exercício a seguir exemplifica este processo.
Exemplo 5.1 (Representação regular do grupo S3 ). Uma representação regular de dimensão
6 para o grupo S3 é obtida a partir da metodologia descrita acima.
Dado o grupo S3 = {I, π2 , . . . , π6 ; ◦}, cujos elementos foram definidos no exemplo 3.2, deseja-se
uma representação do mesmo com o grupo D(4) (S3 ) ⊂ GL (6, R). Definindo-se então o vetor de
T
base u = I π2 . . . π6 , em primeiro lugar, obviamente,
sendo I6 a matriz identidade de ordem 6. Para os demais elementos, a ação de grupo πi S3 pode
ser obtida a partir das linhas da tabela de multiplicação derivada no exercício 3.5. Então, de
acordo com (5.3a),
π2 0 1 0 0 0 0 I 0 1 0 0 0 0
I 100000 π2 100000
u2 = M (π2 ) u ; ππ43 = 00 00 01 10 00 00 ππ34 =⇒ M (π2 ) = 00 00 01 10 00 00 ,
π6 000001 π5 000001
π 000010 π6 000010
π35 0 0 1 0 0 0 I
0 0 1 0 0 0
π5 00001 0 π2 000010
u3 = M (π3 ) u ; πI6 = 10 00 00 00 00 0 3
1
π
π4
=⇒ M (π3 ) = 10 00 00 00 00 01 ,
π2 01000 0 π5 010000
π 00010 0 π6 000100
π44 0 0 0 1 0 0
I
0 0 0 1 0 0
π6 00000 1 π2 000001
π π
u4 = M (π4 ) u ; π25 = 00 10 00 00 01 0 3
0 π4
=⇒ M (π4 ) = 00 10 00 00 01 00 ,
I 10000 0 π5 100000
π 00100 0 π6 001000
π35 0 0 0 0 1 0
I
0 0 0 0 1 0
π3 00100 0 π2 001000
π6 = 01 00 00 00 00 1 π3 =⇒ M (π5 ) = 01 00 00 00 00 10 ,
u5 = M (π5 ) u ; I 0 π4
π4 00010 0 π5 000100
π2 01000 0 π6 010000
4 Ver definição de grupo com operadores na seção 3.7.2.
5 Definição 3.19.
É fácil verificar que a regra (5.4) realmente fornece uma representação. Supondo que os
elementos gm , gn , g` ∈ G sejam tais que gm ∗ gn = g` , então é necessário que D (gm ) D (gn ) = D (g` ).
Escrevendo o elemento ij de ambos os lados da equação,
n n
X (5.4) X n
[D (gm ) D (gn )] =
Dir (gm ) Drj (gn ) = δim,r δrn,j
ij
X
r=1 r=1 =⇒ δim,r δrn,j = δi`,j .
r=1
Dij (g` ) =δi`,j
O resultado desta soma é um dígito binário, para o qual basta que um dos símbolos δim,r ou δrn,j
seja nulo (para todos os índices r) para que o elemento ij resulte igual a zero. Este é o resultado
usual. Para o elemento ser unitário, é necessário que ambos os símbolos sejam iguais a um
para um dado r. No lado esquerdo da equação isto implica que, simultaneamente, gi ∗ gm = gr
e gr ∗ gn = gj . Por consequência, (gi ∗ gm ) ∗ gn = gi ∗ (gm ∗ gn ) = gi ∗ g` = gj , o que garante que
o elemento do lado direito também é igual a um. Portanto, a representação regular realmente
constitui uma representação do grupo G.
Exemplo 5.2. Uma representação de dimensão 3 para o grupo S3 pode ser obtida, baseada no
seu isomorfismo com o grupo de operações de isometria de um triângulo equilátero.
Deseja-se construir o grupo D(5) (S3 ) ⊂ GL (3, R). Para tanto, inicialmente retorna-se aos
exercícios 3.11 e 3.15, os quais obtiveram o grupo C3v e o seu isomorfismo com S3 . Se o vetor
T
de base for definido agora como a sequência dos vértices do triângulo, u = a b c , então a ação
de cada elemento de C3v sobre o mesmo irá provocar uma alteração nas posições dos vértices,
em relação ao referencial fixo determinado pelos números externos ao triângulo, como pode ser
visto na figura 3.5a. Estas operações são mapeadas isomorficamente através das multiplicações
das matrizes de D(5) (S3 ) sobre o vetor de base, empregando-se o isomorfismo entre C3v e S3 .
Desta maneira,
Nesta formulação, o estado de um sistema físico é usualmente expresso como um vetor que
pertence a um determinado espaço vetorial. Qualquer transformação atuando sobre esse vetor
deve gerar um novo vetor, o qual pertence ao mesmo espaço vetorial e que descreve um outro
estado físico do sistema. Os operadores responsáveis pelas possíveis transformações às quais o
sistema está sujeito pertencem a determinados grupos de transformação, os quais podem então
ser representados por um grupo de matrizes não singulares contido no GL (n, K).
Nesta seção será discutida a formulação da teoria de representação de grupos usualmente
empregada na base formal da mecânica quântica e da teoria de quântica de campos.
hOi = hu|O|ui .
Dada agora uma base ortonormal {|ni} do espaço P de Hilbert, um sistema físico no estado |ui
.
pode ser descrito8 pela decomposição vetorial |ui = n hn|ui |ni, onde a quantidade un = hn|ui é a
componente do vetor |ui sobre o vetor de base |ni. Esta quantidade pode ser considerada como
6 Ver
seção 4.9.4.
7 Definição
4.24.
8 Empregando-se operadores de projeção, os quais não serão discutidos aqui.
a n-ésima linha de um vetor coluna. Ou seja, o estado do sistema sempre pode ser descrito em
termos da base ortonormal {|ni}. Por sua vez, o operador O também pode ser escrito em termos
desta base como X
O= hm|O|ni |mi hn| .
mn
.
Nesta expressão, a quantidade hm|O|ni = Omn é o elemento mn da matriz quadrada O que repre-
senta o operador O na representação do grupo ao qual o mesmo faz parte.
Portanto, a ação do operador O sobre o sistema no estado |ui leva este ao estado |vi dado por
X
|vi = O |ui = hm|O|ni hn|ui |mi .
mn
P
Contudo, como |vi sempre pode ser escrito em termos da base {|ni} como |vi = n hn|vi |ni,
resulta que a n-ésima linha do vetor coluna que representa o ket |vi é determinada a partir da
matriz O como X
hn|vi = hn|O|mi hm|ui .
m
Por outro lado, se |ui pertence à base do espaço de Hilbert (|ui = |`i ∈ {|ni}), observa-se que a
ação do operador O sobre o mesmo é igual a
X X
O |`i = hm|O|ni hn|`i |mi = hm|O|`i |mi ,
mn m
ou seja, O |`i sempre pode ser escrito em termos da base {|ni} através da matriz O e, portanto,
pertence ao mesmo espaço de Hilbert.
Finalmente, o valor médio obtido ao ser realizada uma medida da variável dinâmica O quando
o sistema está no estado |ui resulta ser igual a
∗
XX
hOi = hu|O|ui = hm|O|ni hm|ui hn|ui .
m n
onde {ui } são os componentes de u ao longo de ψi . Estes componentes são obtidos então a partir
do produto interno:
ui = hψi , ui .
Observa-se aqui que a escolha alternativa ui = hu, ψi i também poderia ser feita, uma vez que
∗
ambas estão relacionadas por hu, ψi i = hψi , ui . Como hu, ui > 0, resulta a relação de Parseval
X 2
|hψi , ui| = hu, ui .
i
v = Au.
.
onde Dji (A) = hψj , Aψi i. Isto implica em que ao operador linear abstrato A é possível atribuir-se
uma representação matricial na base Ψ através da associação
A ←→ D (A) ,
onde D (A) é uma matriz n × n cujos elementos são Dij (A) (i, j = 1, . . . , n).
.
Para verificar que o conjunto de matrizes D (G) = {D (A)} (∀A ∈ G) realmente forma uma
representação de G, considera-se a aplicação consecutiva dos operatores A, B ∈ G sobre o vetor
de base ψi ∈ Ψ. Por um lado, esta operação resulta em
!
X X X
(A ∗ B) ψi = A (Bψi ) = A ψk Dki (B) = (Aψk ) Dki (B) = ψj Djk (A) Dki (B) ,
k k j,k
Ou seja, X
Dij (A ∗ B) = Dik (A) Dkj (B) =⇒ D (A ∗ B) = D (A) D (B) ,
k
É possível verificar que a matriz D0 (g) obtida a partir da definição acima realmente constitui
uma representação de g, de acordo com a definição 5.3:
1. Clausura: Dados g1 , g2 ∈ G e suas respectivas representações D (g1 ) , D (g2 ) ∈ D (G),
Portanto, uma dada representação de dimensão n em geral não é única. Deseja-se então
obter representações em particular ou quantidades derivadas das representações que sejam in-
variantes frente a uma transformação de similaridade. Este problema será abordado na próxima
seção. Uma quantidade relacionada à representação e que é invariante será definida agora.
Definição 5.7 (Caractere da representação). Seja V um espaço vetorial de dimensão finita
sobre o corpo K, seja G = {G; ∗} um grupo finito e seja ρ : G 7−→ GL (n, K) uma representação de
G em V . O caractere da representação ρ é o mapeamento
χρ : G 7−→ K
A mesma demonstração pode ser realizada de uma forma mais compacta empregando-se a se-
guinte propriedade do traço de uma matriz,
χρ0 (g) = Tr [D0 (g)] = Tr S−1 D (g) S = Tr D (g) S−1 S = Tr [D (g)] = χρ (g) .
com i = 1, . . . , m + p e j = 1, . . . , n + q.
A construção da matriz C a partir das matrizes A e B também é usualmente representada
como uma matriz bloco-diagonal de duas maneiras equivalentes:
. A 0 A 0
C= ≡ .
0 B 0 B
Estas representações mostram explicitamente as matrizes-pais que originaram C.
Por exemplo, se
132 16
A= e B = , então
231 01
onde os zeros são na verdade blocos de zeros, i. e., matrizes nulas. Se a matriz Ak tem
tamanho mi × ni e seus elementos são representados por (ak )ij , então a matriz B terá o ta-
PP PP
manho M × N , onde M = i=1 mi e N = i=1 ni , e seus elementos serão as quantidades bij
(1 6 i 6 M, 1 6 j 6 N ) dadas por
(a1 )ij , i 6 m1 , j 6 n1
(a2 )i2 j2 , m1 + 1 6 i 6 m1 + m2 , n1 + 1 6 j 6 n1 + n2
.
..
.
..
bij = (a` )i` j` , µ`−1 + 1 6 i 6 µ` , ν`−1 + 1 6 j 6 ν`
. .
.. ..
(aP )iP jP , µP −1 + 1 6 i 6 M, νP −1 + 1 6 j 6 N
0, no restante,
Propriedade (Soma direta de matrizes). A soma direta de matrizes também possui as seguintes
propriedades:
• A soma direta é associativa: A ⊕ (B ⊕ C) = (A ⊕ B) ⊕ C.
• A soma direta não é comutativa: A ⊕ B 6= B ⊕ A.
• O determinante da soma direta é igual ao produto dos determinantes das matrizes originais.
Dada a matriz B em (5.7),
P
Y
det (B) = det (Ai ) = det (A1 ) det (A2 ) · · · det (AP ) . (5.8a)
i=1
• O traço da soma direta é igual à soma dos traços das matrizes originais, i. e.,
P
X
Tr (B) = Tr (Ai ) = Tr (A1 ) + Tr (A2 ) + · · · + Tr (AP ) . (5.8b)
i=1
• A inversa da soma direta é igual à soma direta das inversas das matrizes originais, i. e.,
P
M
B−1 = A−1
i = A−1 −1 −1
1 ⊕ A2 ⊕ · · · ⊕ AP . (5.8c)
i=1
ou seja,
nX
1 +n2
(3) (3) (3)
Dij (g3 ) = Dik (g1 ) Dkj (g2 ) , (i, j = 1, . . . , n1 + n2 ) .
k=1
Mas,
(1)
Dij (gi ) ,
i 6 n1 , j 6 n1
(3) (2)
Dij (gi ) = D(i−n 1 )(j−n1 )
(gi ) , n1 + 1 6 i 6 n1 + n2 , n1 + 1 6 j 6 n1 + n2
0, no restante.
ou seja,
n1
(3) (1) (1) (1)
X
16i6n1
(16j6n 1
) Dij (g3 ) = Dik (g1 ) Dkj (g2 ) = Dij (g3 )
k=1
16i6n1 (3)
( n1 +16j6n1 +n2 ) Dij (g3 ) = 0
n1 +16i6n1 +n2 (3)
( 16j6n1 ) Dij (g3 ) = 0
nX
1 +n2
(3) (2) (2) (2)
(nn11+16j6n
+16i6n1 +n2
1 +n2
) Dij (g3 ) = D(i−n1 )(k−n1 ) (g1 ) D(k−n1 )(j−n1 ) (g2 ) = D(i−n1 )(j−n1 ) (g3 ) ,
k=n1 +1
Em particular,
D(1) (I) 0 In1 0
D(3) (I) = = = In1 +n2 .
0 D(2) (I) 0 In2
Observa-se também que, como a soma direta não é comutativa, uma outra representação
D(4) (G), distinta de D(3) (G), pode ser obtida através de D(2) (G) ⊕ D(1) (G).
De uma forma geral, a partir de N representações distintas do grupo G, identificadas por
D(1) (G) , . . . , D(N ) (G) e de dimensões n1 , . . . , nN , respectivamente, é sempre possível para todo
g ∈ G construir-se uma representação D (g) de dimensão n1 + · · · + nN pela soma direta
N
M
D (g) = D(µ) (g) = D(1) (g) ⊕ D(2) (g) ⊕ · · · ⊕ D(N ) (g) ,
µ=1
O artifício da soma direta de matrizes será explorado na seção 5.5 nos conceitos de represen-
tações redutíveis ou irredutíveis.
Se {Ai } (i = 1, . . . , p) é um conjunto de matrizes, então o produto direto das mesmas pode ser
escrito como
p
O
B = A1 ⊗ A2 ⊗ · · · ⊗ Ap ≡ Ai . (5.9)
i=1
Propriedade 5.1 (Produto direto de matrizes). O produto direto de matrizes possui as seguintes
propriedades:
A ⊗ (B + C) = A ⊗ B + A ⊗ C.
(A ⊕ B) ⊗ C = A ⊗ C ⊕ B ⊗ C.
• A inversa do produto direto é o produto direto das inversas, caso estas existam:
" p
#−1 p
O O
B−1
= Ai = A−1
i .
i=1 i=1
• Seja A uma matriz m × m e B uma matriz p × p. O determinante do produto direto das mesmas
é dado por:
p m
det (A ⊗ B) = [det (A)] [det (B)] .
• Se A e B são matrizes quadradas com autovalores e autovetores {λi }, {xi } e {µj }, {yj }, res-
pectivamente, os autovalores de A ⊗ B são {λi µj } e seus autovetores são {xi ⊗ yj }, i. e., se
Axi = λi xi e Byj = µj yj , então
(A ⊗ B) (xi ⊗ yj ) = λi µj (xi ⊗ yj ) .
A questão que se coloca é se a matriz D(µ×ν) (g) consiste em uma representação do elemento g.
Se isto for verdade, então, para todos os produtos g1 ∗ g2 = g3 , resulta
h ih i
D (g1 ) D (g2 ) = D(µ) (g1 ) ⊗ D(ν) (g1 ) D(µ) (g2 ) ⊗ D(ν) (g2 ) .
é denominada o produto direto das representações D(µ) (G) e D(ν) (G) e a representação
D(µ×ν) (G) resultante é denominado o grupo do produto direto.
A propriedade (5.10b) possui também uma consequência importante no que concerne aos ca-
racteres de uma representação. Dadas as representações D(µ) (g) e D(ν) (g) de qualquer elemento
g ∈ G e o seu produto direto D(µ×ν) (g), os caracteres destas representações estão relacionados,
a partir de (5.6), por
χ(µ×ν) (g) = χ(µ) (g) χ(ν) (g) . (5.12)
onde D(1) (g) ∈ D(1) (G) e D(2) (g) ∈ D(2) (G) (com D(1) (G) , D(2) (G) ⊂ D (G)) são também represen-
tações de G, respectivamente de dimensões n1 e n2 tais que n1 + n2 = n. Por sua vez, A (g) é uma
matriz retangular de tamanho n1 × n2 .
Verifica-se facilmente que a matriz D (g) expressa em (5.13) é uma representação do elemento
g. Dados g1 , g2 ∈ G com respectivas representações D (g1 ) e D (g2 ) dadas na forma (5.13), então
D(1) (g1 ) A(g1 ) D(1) (g2 ) A(g2 )
D (g1 ∗ g2 ) = D (g1 ) D (g2 ) =
0 D(2) (g1 ) D(2) (g2 )0
D(1) (g1 ) D(1) (g2 ) D(1) (g1 ) A(g2 ) + A(g1 ) D(2) (g2 )
= .
0 D(2) (g1 ) D(2) (g2 )
O resultado acima está claramente na forma (5.13), uma vez que D(1) (g1 ) D(1) (g2 ) é uma re-
presentação de dimensão n1 de g1 ∗ g2 , enquanto que D(2) (g1 ) D(2) (g2 ) é uma representação de
dimensão n2 do mesmo elemento e D(1) (g1 ) A (g2 ) + A (g1 ) D(2) (g2 ) é uma matriz retangular de
tamanho n1 × n2 . Portanto, a condição de homomorfismo (5.1) está satisfeita.
A condição para que uma representação seja redutível está ligada à teoria de espaços ve-
toriais. Retornando ao espaço vetorial V n , de dimensão n, considerado na seção 5.2.2,9 a re-
ducibilidade de uma representação depende da existência de um subespaço próprio invariante
V n1 ⊂ V n , de dimensão n1 < n.10 Se u = ( u1 . . . un1 un1 +1 . . . un )T é um vetor de V n , então a ação
da representação D (g) na forma reduzida (5.13) sobre o mesmo irá resultar no vetor u0 dado
por u0 = D (g) u. Se o espaço vetorial possui um subespaço invariante de dimensão n1 , então
um vetor contido neste subespaço pode ser escrito, mediante uma escolha conveniente de base,
como u = (u1 . . . un1 0 . . . 0)T = ( un1 0 )T e o vetor u0 resulta
D(1) (g) A(g) un1 u0n1 D(1) (g)un1
= = .
0 D(2) (g) 0 0 0
o mesmo ocorrendo com D(2) (g). Novamente, a condição imposta para a reducibilidade destas
representações consiste na existência de subespaços invariantes.
Procedendo-se desta forma, chega-se a um ponto onde não mais existem subespaços invari-
antes para a subsequente redução da representação e a matriz D (g) original fica então expressa
na forma
D(1) (g) A(1) (g)
D(2) (g) A(2) (g)
D(3) (g) A(3) (g)
D(g) = ..
.
0 . .........
0
D(k−1) (g) A(k−1) (g)
0
0
(k)
0 D (g)
Por outro lado, se for possível encontrar uma base ortonormal para V n na qual todas as
matrizes da representação D (G) podem ser reduzidas na forma (5.13), porém com A (g) = 0,
então esta representação é dita completamente redutível.
Definição 5.9 (Representação completamente redutível). Dado o grupo G = {G; ∗} e uma
representação D (G) ⊆ GL (n, K). Esta representação é denominada representação completamente
redutível se para todo g ∈ G com representação D (g) ∈ D (G) existir uma transformação de
similaridade (5.5) tal que D (g) resulte na forma bloco-diagonal D (g) = D(1) (g) ⊕ D(2) (g), ou seja,
D(1) (g) 0
D (g) = , (5.14)
0 D(2) (g)
onde D(1) (g) ∈ D(1) (G) ⊂ D (G) e D(2) (g) ∈ D(2) (G) ⊂ D (G) são também representações de G,
respectivamente de dimensões n1 e n2 tais que n1 + n2 = n.
Se esta condição for satisfeita, ambos os subespaços V n1 e V n2 são invariantes e o espaço
vetorial V n pode ser decomposto pela soma direta
V n = V n1 ⊕ V n2 .
Aplicando-se agora novas transformações de similaridade tanto sobre D(1) (g) quanto sobre
(2)
D (g) em (5.14), estas podem, por sua vez, também ser colocadas na forma bloco-diagonal,
dependendo da existência de subespaços invariantes de V n1 e V n2 . Nota-se aqui que sempre
é possível construir-se uma transformação de similaridade do tipo (5.5) a qual irá transformar
somente o bloco D(1) (g) em (5.14), mantendo D(2) (g) invariante. Uma matriz deste tipo seria
C1 0
S= ,
0 I n2
Repetindo-se este processo, chega-se a um ponto em que não mais existem subespaços inva-
riantes para a representação e a matriz D (g) resulta na forma bloco-diagonal
(1)
D̂ (g)
(2)
D̂ (g)
0
D (g) = , (5.15a)
..
0 .
D̂(N ) (g)
onde as matrizes D̂(1) (g) , . . . , D̂(N ) (g) não podem mais ser reduzidas à forma bloco-diagonal por
nenhuma transformação de similaridade. Estas representações são denominadas irredutíveis.
Portanto, se para um dado grupo G for possível escrever a sua representação na forma com-
pletamente reduzida (5.15), as suas irreps conterão toda a informação carregada pelos operado-
res de transformação. A vantagem de empregar as irreps é evidente, uma vez que estas em geral
são matrizes de baixa dimensão, fáceis de serem manuseadas.
A questão que ainda resta é se qualquer representação pode ser escrita em termos de irreps.
O teorema a seguir oferece uma resposta parcial a esta questão ao mostrar que uma represen-
tação qualquer de um grupo finito é sempre equivalente a uma representação unitária.
Definição 5.11 (Representação unitária). Dado o grupo G e uma representação Γ (G) ⊆ GL (n, K).
Se para todo g ∈ G a sua representação Γ (g) ∈ Γ (G) for uma matriz unitária, i. e.,
Γ† (g) Γ (g) = Γ (g) Γ† (g) = In ,
então Γ (G) é denominada uma representação unitária de G.
Teorema 5.1. Dado o grupo G = {G; ∗} finito e uma representação D (G) ⊆ GL (n, K). Esta repre-
sentação é sempre equivalente a uma representação unitária Γ (G) ⊆ GL (n, K).
Demonstração. Define-se a matriz Hermitiana
X
H= D (g) D† (g) ,
g∈G
ou seja, a qual satisfaz H = H† . Uma vez que qualquer matriz Hermitiana sempre pode ser dia-
gonalizada por uma transformação de similaridade (5.5) através do uso de uma matriz unitária
U, então
U−1 HU = Hd ,
onde Hd é uma matriz diagonal cujos elementos são os autovalores (reais) de H. Mas,
X
Hd = U−1 D (g) D† (g) U
g∈G
X
−1
= U D (g) UU−1 D† (g) U
g∈G
X
= D0 (g) D0† (g) ,
g∈G
onde D0 (g) = U−1 D (g) U. Tomando agora o k-ésimo elemento de Hd , observa-se que
XX
0 0†
XX
0 0∗
XX
0
2
dk = (Hd )kk = Dkj (g) Djk (g) = Dkj (g) Dkj (g) = Dkj (g) ,
g∈G j g∈G j g∈G j
0
ou seja, dk > 0. Para que dk seja nulo, é necessário que Dkj (g) = 0, ∀j, g, o que implica que
det [D (g)] = 0, ∀g, o que implicaria que D (g) ∈
/ GL (n, K). Portanto, necessariamente, dk > 0 e
det (Hd ) > 0.
isto é, se
(1) (1) (1)∗ (1)∗
Γ11 · · · Γ1n1 A11 · · · A1n2 Γ11 · · · Γ n1 1 0 ··· 0
. .. . .. .. .. . .. . .. .. ..
.. . .. . . . .. . .. . . .
(1) (1) (1)∗ (1)∗
Γ · · · Γ n 1 n 1 An 1 1 · · · An 1 n 2 Γ1n1 · · · Γ n1 n1 0 ··· 0
†
Γ (g) = n1 1 (2) (2) , então Γ (g) = ∗ (2)∗ (2)∗ ,
0 · · · 0 Γ11 · · · Γ1n2 A11 · · · A∗n1 1 Γ11 ··· Γn2 1
.. . .. . .. . .. ..
.. .. .. ..
. .. . .. . ..
. . . . . .
(2) (2) (2)∗ (2)∗
0 ··· 0 Γn2 1 · · · Γn2 n2 A∗1n2 ∗
· · · An1 n2 Γ1n2 · · · Γn2 n2
ou seja,
Γ(1)† (g)
† 0
Γ (g) = .
A† (g) Γ(2)† (g)
Isto significa que se Γ (g) for unitária, então, necessariamente, A (g) = 0, e a representação é
sempre totalmente redutível.
A conclusão, portanto, é que para grupos finitos sempre é possível encontrar-se uma repre-
sentação completamente reduzida em termos das representações irredutíveis.
Lema 5.1 (Lema de Schur 1). Se D̂ (G) é uma representação irredutível de um grupo G e se
uma matriz P comuta com todas as matrizes D̂ (a) ∈ D̂ (G) (∀a ∈ G), então P deve ser uma matriz
constante, i. e., P = λI, sendo λ um escalar.
Lema 5.2 (Lema de Schur 2). Se D̂(µ) (G) e D̂(ν) (G) são duas representações irredutíveis de um
grupo G, de dimensões nµ e nν respectivamente, e se uma matriz M de tamanho (nµ × nν ) satisfaz
a relação
D̂(µ) (a) M = MD̂(ν) (a) ,
para todo a ∈ G, então ou:
(b) det (M) 6= 0, em cujo caso D̂(µ) e D̂(ν) são representações equivalentes (com nµ = nν ).
Teorema 5.2 (Teorema da ortogonalidade). Seja G um grupo de ordem g e sejam Γ(µ) (G) e
Γ(ν) (G) representações irredutiveis unitárias de G, de dimensões nµ e nν , respectivamente. Então,
para todo ai ∈ G,
X (µ) (ν)
X (µ) (ν)∗ g
Γjm (ai ) Γnk a−1
i = Γjm (ai ) Γkn (ai ) = δµν δjk δmn . (5.16)
nµ
ai ∈G ai ∈G
As diferentes g-uplas que podem ser construídas a partir de todas as irreps unitárias de G são
distinguidas pelos índices µ, j, k. Assim, pode-se formar o conjunto
.
n o
(µ)
Γ = Γjk | 1 6 µ 6 N, 1 6 j, k 6 nµ , (5.17)
composto por todas as g-uplas possíveis. O número total de g-uplas neste conjunto, ou seja, a
sua cardinalidade, é igual a
N
X
|Γ| = n2µ .
µ=1
Será demonstrado agora que o conjunto Γ é composto por vetores, denominados vetores de
representação, de um espaço vetorial normado e com produto interno, de dimensão g, o qual
possui propriedades semelhantes ao espaço vetorial R g , porém com algumas diferenças. Cada
(µ)
componente de Γjk (G) é um elemento do corpo K. Os corpos de interesse para a física são, em
sua grande maioria, K = R ou K = C. Será assumido então um destes corpos em particular.
Retornando então à definição de um espaço vetorial, apresentada na seção 4.1, seja o espaço
.
vetorial complexo K g = hK, Ki sobre o corpo K, onde o conjunto K é o conjunto de vetores em
K g , formado pelas g-uplas
K = {κ | κ = (κ1 , κ2 , . . . , κg ) , onde κi ∈ K} .
Este conjunto forma um grupo Abeliano frente a operação de adição vetorial “+”:
• Clausura: se κ, η ∈ K, então κ + η = (κ1 + η1 , κ2 + η2 , . . . , κg + ηg ) ∈ K.
• Associatividade: se κ, η, ζ ∈ K, então κ + (η + ζ) = (κ + η) + ζ.
• Elemento identidade: existe 0 = (0, 0, . . . , 0) ∈ K tal que para todo κ ∈ K resulta 0 + κ = κ + 0 =
κ.
• Elemento inverso: para todo κ ∈ K existe o elemento (−κ) = (−κ1 , −κ2 , . . . , −κg ) tal que
κ + (−κ) = (−κ) + κ = 0.
• Comutatividade: para todos κ, η ∈ K, resulta κ + η = η + κ.
Se o corpo K forma o conjunto dos escalares de K g , então o produto por escalar é definido,
para todo κ ∈ K e todo k ∈ K, como
D g
E X g
(ν) (µ) (µ) (ν)∗ (µ) (ν)
X
Γjm (ai ) Γnk a−1
Γkn , Γjm = Γjm (ai ) Γkn (ai ) = i .
i=1 i=1
O último resultado ocorre porque as matrizes Γ(µ) (a) são unitárias, ou seja, Γ(µ) (a) Γ(µ)† (a) =
Γ(µ)† (a) Γ(µ) (a) = Inµ , de onde resulta que
h i−1
Γ(µ)† (a) = Γ(µ) (a) = Γ(µ) a−1 ,
sendo que o último resultado é uma das propriedades do grupo de representação. Por isso,
(ν)
dados a matriz unitária Γ(ν) (ai ) e o elemento Γnk (ai ) da mesma em particular, ao se tomar o
(ν)† (ν)∗ −1 (ν)
conjugado Hermitiano da matriz, resulta que Γnk (ai ) = Γkn (ai ) = Γ(ν) (ai ) nk = Γnk a−1
i .
Porém, do teorema da ortogonalidade (5.16) obtém-se que
D
(ν) (µ)
E µ6=ν D
(µ) (µ)
E g D
(ν) (µ)
E g
Γkn , Γjm = 0, se j6=k ou Γjm , Γjm = =⇒ Γkn , Γjm = δµν δjk δmn , (5.18)
m6=n nµ nµ
Posteriormente será demonstrado que, de fato, |Γ| = g.12 Este resultado é importante porque
fornece uma informação adicional sobre o número e as dimensões das irreps de um grupo finito.
Os exercícios a seguir ilustram a construção das irreps do grupo S3 e aplicações do teorema
da ortogonalidade às mesmas.
ou seja, Γ (π2 ) = ±1, com o mesmo ocorrendo para π3 e π6 . Por outro lado, π43 = π53 = I, de onde
se conclui que
3 3 1 √
[Γ (π4 )] = [Γ (π5 )] = 1 =⇒ Γ (π4 ) , Γ (π5 ) = 1, t, t2 , sendo t = − 1−i 3 .
2
Mas, como π2 ◦ π3 = π4 , segue que Γ (π2 ) Γ (π3 ) = Γ (π4 ). Da mesma forma, como π3 ◦ π2 = π5 ,
segue que Γ (π3 ) Γ (π2 ) = Γ (π5 ). Portanto, existem somente duas escolhas possíveis de irreps de
dimensão 1 que satisfazem a tabela de S3 :
a2 + bc = 1 ab + bd = 0
ab ab 10
= =⇒
cd cd 01 ac + cd = 0 bc + d2 = 1.
ab + bd = b (a + d) = 0 =⇒ d = −a ou b = 0.
ac + cd = 0 =⇒ d = −a ou c = 0.
11 Ver teoremas e definições na seção 4.3.
12 A demonstração será realizada na página 183.
a2 + bc = 1 ⇒ a = ±1 bc + d2 = 1 ⇒ d = ±1.
Há 4 combinações de sinais, com 3 disponíveis para uma representação fiel. Contudo, somente
para um elemento a escolha é adequada. Realizando as outras escolhas para os demais elemen-
tos, o resultado não seguirá a tabela do grupo. Assim, escolhe-se somente
(3) −1 0
Γ (π2 ) = ,
0 1
uma vez que para essa escolha a matriz é ortogonal: Γ(3) (π2 ) Γ(3) ^(π2 ) = I2 .
Buscam-se então matrizes também ortogonais para os demais elementos, ou seja, para i =
3, . . . , 6, matrizes Γ(3) (πi ) tais que
h i−1
Γ(3) (πi ) = Γ^
(3) (π ).
i
Então, se
i−1 1
ab d −b ac
h
Γ(3) (πi ) = =⇒ Γ(3) (πi ) = = ,
cd ad − bc −c a bd
resultando em
d b
=a = −c
ad − bc ad − bc
c a
= −b = d.
ad − bc ad − bc
Então,
d
= d (ad − bc) ⇒ ad − bc = ±1.
ad − bc
Escolhendo ad − bc = 1, a = d e b = −c, escreve-se
a b
Γ(3) (πi ) = , com a2 + b2 = 1 .
−b a
Como π43 = I, resulta
( )
a3 − 3ab2 = 1
3 3
a − 3ab2 3a2 b − b3 b=0
a b 10
= = ⇒ ⇒ .
−b a −3a2 b + b3 a3 − 3ab2 01 3a2 b − b3 = 0 3a2 − b2 = 0
Então,
√
2 2 1 2 2 2 3
3a = 1 − a ⇒ 4a = 1 ⇒ a = − e b = 1 − a ⇒ b = .
2 2
Portanto,
√
1 −1 3
Γ (3)
(π4 ) = √ .
2 − 3 −1
Agora, como π2 ◦ π3 = π4 ,
√ √ √
a = 1/2 b = − 3/2
−1 0 ab 1 −1 3 1 1 − 3
= √ ⇒ √
(3)
⇒ Γ (π3 ) = √ .
0 1 cd 2 − 3 −1 c = − 3/2 d = −1/2 2 − 3 −1
Finalmente, como π6 = π2 ◦ π5 ,
√ √
1 −1 0 −1 − 3 1 1 3
Γ(3) (π6 ) = √ ⇒ Γ(3) (π6 ) = √ .
2 0 1 3 −1 2 3 −1
Verifica-se facilmente que todas as matrizes obtidas são ortogonais e que esta representação é
fiel. A tabela 5.1 destaca as irreps do grupo S3 .
6
12 + 12 + 12 + 12 + 12 + 12 = .
1
(d) µ = 1, ν = 3. Tomando j = m = 1 e k = 1, n = 2,
√ ! √ √ ! √
3 3 3 3
1.0 + 1.0 + 1. − + 1. + 1. − + 1. = 0.
2 2 2 2
(e) µ = ν = 3. Tomando j = m = k = n = 2:
1 1 1 1 1 1 1 1 6
1.1 + 1.1 + − − + − − + − − + − − = .
2 2 2 2 2 2 2 2 2
(f) µ = ν = 3. Tomando j = 1, m = 2, k = 1, n = 2:
√ ! √ ! √ √ √ ! √ ! √ √
3 3 3 3 3 3 3 3 6
0.0 + 0.0 + − − + + − − + = .
2 2 2 2 2 2 2 2 2
(g) µ = ν = 3. Tomando j = 1, m = 2, k = 2, n = 1:
√ ! √ ! √ √ ! √ !√ √ √
3 3 3 3 3 3 3 3
0.0 + 0.0 + − − + − + − + = 0.
2 2 2 2 2 2 2 2
Observa-se aqui que qualquer grupo possui sempre a representação irredutível trivial
Esta representação não é fiel, mas permite a obtenção de um conjunto de relações entre os
elementos de quaisquer outra representação a partir do teorema da ortogonalidade. Colocando-
(ν)∗
se, em (5.16), Γkn (ai ) = 1 e assumindo que µ 6= ν, resulta
X (µ) X (µ)
Γjm (ai ) = 0, ou Γjm (ai ) = −δjm ,
ai ∈G ai ∈G
ai 6=I
uma vez que a representação da identidade é sempre Inµ . Esta expressão fornece um sistema
de g equações que os elementos da µ-ésima representação devem satisfazer. Estas equações
são úteis, por exemplo, para verificar se uma determinada representação é realmente irredu-
tível e unitária. Verifica-se facilmente que os elementos das representações Γ(2) (S3 ) e Γ(3) (S3 ),
apresentadas na tabela 5.1, satisfazem estas relações.
Ca = b−1 ∗ a ∗ b, ∀b ∈ G .
Então, para qualquer c ∈ Ca , existe um elemento d ∈ G tal que c = d−1 ∗ a ∗ d. Neste caso, as
respectivas representações destes elementos devem satisfazer
−1
D (c) = D d−1 ∗ a ∗ d = D d−1 D (a) D (d) = [D (d)] D (a) D (d) .
Portanto, de acordo com a tabela 5.1 de irreps do S3 , obtém-se a tabela 5.2 de caracteres do
grupo.
Tabela 5.2: Tabela de caracteres do grupo S3 . Os caracteres de cada representação são identificados por índices
que seguem a classificação dos irreps do S3 apresentados na tabela 5.1.
Classes CI C π2 Cπ4
Caracteres {I} {π2 , π3 , π6 } {π4 , π5 }
χ(1) +1 +1 +1
χ(2) +1 −1 +1
χ(3) +2 0 −1
Mas,
nµ nν nµ nν
X X X X
Γ(µ)
mm (ai ) = χ
(µ)
(ai ) , Γ(ν)∗
nn (ai ) = χ
(ν)
(ai ) e δµν δmn = δµν nµ ,
m=1 n=1 m=1 n=1
resultando X
χ(µ) (ai ) χ(ν)∗ (ai ) = gδµν .
ai ∈G
A soma sobre os elementos ai pode ser agora particionada em conjuntos contendo os elementos
das classes de conjugação de G, os quais possuem todos os mesmos caracteres. Desta maneira,
o resultado acima pode ser escrito
nC
(µ) (ν)∗
X
ck χk χk = gδµν ,
k=1
(µ)
sendo que a soma agora é sobre as classes de G, χk é o caractere dos elementos na classe
Ck e na representação µ e ck é o número de elementos na classe. Obtém-se assim o resultado
(5.20).
Como sempre existe, para qualquer grupo, uma irrep unitária ou trivial Γ(1) (a) = +1 para
todo a ∈ G, os caracteres desta irrep serão os mesmos em qualquer classe, ou seja, χ(1) (a) =
(1)
χk = +1 (∀a, k). Colocando-se então ν = 1 na condição de ortogonalidade (5.20a), os caracteres
de qualquer outra representação µ 6= 1 devem satisfazer
nC
(µ)
X
ck χk = 0, (µ 6= 1) . (5.20b)
k=1
a qual é composta pelos caracteres de cada classe na representação µ. Assim, cada tupla χ̂(µ) é
distinguida pelo índice que identifica a representação do grupo, existindo tantas tuplas quantas
representações. Restringindo-se às representações irredutíveis, assume-se que existem, ao todo,
N irreps de G. Neste caso, o conjunto
.
n o
χ = χ̂(1) , χ̂(2) , . . . , χ̂(N ) (5.21b)
sendo que as irreps são supostas unitárias. Os únicos parâmetros ainda indeterminados na
expressão acima são os índices {mµ }, os quais indicam quantas vezes uma determinada irrep
irá aparecer na soma direta. Para determinar estes índices, calcula-se o traço das matrizes
envolvidas, o que significa a obtenção dos caracteres das representações. Com o auxílio da
propriedade (5.8b) da soma direta, resulta
N
X
χ (ai ) = mν χ(ν) (ai ) , (5.25)
ν=1
Na última expressão acima, os caracteres dos elementos foram agrupados por classes de con-
jugação, sendo ck o número de elementos na k-ésima classe, nC o número total de classes de
conjugação em G e χk o caractere da k-ésima classe na representação D (ai ). Usando então o
teorema (5.20), resulta
nC
1X (µ)∗
mµ = ck χk χk . (5.26)
g
k=1
Se a representação D (ai ) já era irredutível, então todos os índices mµ são nulos, exceto por
um que é igual à unidade. Portanto, uma condição necessária e suficiente para que uma dada
representação seja irredutível é
g
X nC
X
2 2
|χ (ai )| = ck |χk | = g. (5.27)
i=1 k=1
Verifica-se na tabela 5.2 que os caracteres das irreps do grupo S3 satisfazem este critério.
Por outro lado, se a representação for redutível, então a expressão
nC N
1X 2
X
ck |χk | = m2µ
g µ=1
k=1
Portanto,
Dnat (S3 ) = Γ(1) (S3 ) ⊕ Γ(3) (S3 ) .
Será apresentado agora um teorema relacionado com a decomposição de uma representação
regular em irreps.
Teorema 5.7. Dado um grupo G, a sua representação regular contém todas as suas representa-
ções irredutíveis, com multiplicidades iguais às dimensões destas irreps.
Demonstração. Seja a representação regular (5.4) de um grupo de ordem g. A representação do
elemento I será sempre Dreg (I) = Ig e, portanto, χreg (I) = g. Por outro lado, para os demais
elementos gk ∈ G as diagonais principais das respectivas representações serão dadas por
(
reg 1, se gk ∗ gi = gi
Dii (gk ) = (i = 1, . . . , g) .
0, se gk ∗ gi 6= gi ,
reg
Como gk 6= I, então gk ∗ gi 6= gi sempre; ou seja, Dii (gk ) = 0 (i = 1, . . . , g). Portanto, χreg (gk ) = 0.
Usando agora a relação (5.25), considera-se a decomposição do caractere composto do ele-
mento identidade em termos dos caracteres do mesmo elemento nas irreps,
N
X N
X
χreg (I) = g = mν χ(ν) (I) = mν nν , (5.28)
ν=1 ν=1
uma vez que D(ν) (I) = Inν sempre. Por outro lado, os índices {mν } são dados por (5.26),
C n
1X (ν)∗
mν = ck χreg
k χk .
g
k=1
(ν)
Contudo, como χreg
I = g, χI = nν , cI = 1 e χreg
k = 0 para k 6= I, resulta que
mν = nν . (5.29)
Pode-se mostrar que as raízes da equação secular, i. e., os nµ autovalores de Γ(µ) (a) são unimo-
(µ)
dulares, ou seja, λj = 1, ∀j = 1, . . . , nµ .
Construindo então a matriz S tal que suas colunas são os autovetores de Γ(µ) (a), i.e.,
x11 x21 · · · xnµ 1
12 x22 · · · xnµ 2
x
x1 x2 · · · xnµ
S= = . . . . =⇒ Sij = xji ,
⇓ ⇓ ··· ⇓ .. .. . . ..
x1nµ x2nµ · · · xnµ nµ
resulta que
h i nµ nµ
(µ) (µ)
X X
−1 (µ) −1
S−1 ik Γk` (a) xj`
S Γ (a) S = S Γ (a) S`j =
ik k`
ij
k,`=1 k,`=1
nµ nµ
(µ) (µ) (µ)
X X
−1
S−1
= S λ xjk
ik j
= λj ik
Skj = λj δij .
k=1 k=1
Ou seja, (µ)
λ1 0 ··· 0
(µ)
0 λ2 · · · 0
Γ(µ)0 (a) =
.
.. . ..
. 0 .. .
(µ)
0 0 · · · λnµ
Como uma transformação de similaridade não altera o valor do caractere, resulta que o caractere
do elemento a pode ser calculado como a soma dos autovalores de sua representação, i. e.,
nµ
(µ)
X
(µ)
χ (a) = χ(µ)
a = λj , (5.30a)
j=1
(µ)
sendo χa o caractere de todos os elementos da classe de conjugação mCa .
Agora, se o elemento a é tal que am = I, isto implica que Γ(µ) (a) = Inµ (propriedade 3.8c).
Além disso, todos os elementos na classe de conjugação Ca possuem a mesma ordem. Então,
h im h im h im
Γ(µ)0 (a) = S−1 Γ(µ) (a) S = S−1 Γ(µ) (a) SS−1 Γ(µ) (a) S · · · S−1 Γ(µ) (a) S = S−1 Γ(µ) (a) S,
ou seja,
λm
1 0 ··· 0
h im 0 λm
2 ··· 0 h im
(µ)
Γ(µ)0 (a) = .. .. = Inµ =⇒ λj = 1 (j = 1, . . . , nµ ) . (5.30b)
..
. 0 . .
0 0 · · · λm
nµ
3. A irrep identidade ou trivial Γ(1) (a) = +1 (n1 = 1), para todo a ∈ G, está sempre presente
(1)
para todo grupo. Portanto, χ(1) (a) = χk = +1.
4. Para qualquer representação, a irrep da identidade é sempre Γ(µ) (I) = Inµ . Portanto,
(µ)
χ(µ) (I) = χI = nµ .
6. O caractere do elemento a de ordem m na µ-ésima irrep pode ser expresso como a soma dos
autovalores de Γ(µ) (a), sendo que cada autovalor é a m-ésima raiz da unidade (propriedade
5.30).
7. O vetor formado pelos caracteres de uma dada irrep é ortogonal ao vetor formado pelos
caracteres de uma outra irrep qualquer (propriedades 5.20 e 5.21).
8. O vetor formado pelos caracteres de uma dada classe de conjugação (ao longo de todas as
irreps) é ortogonal ao vetor de uma outra classe (propriedade 5.23).
Exemplo 5.7. As classes de conjugação do grupo S3 são C1 = {I} (c1 = 1), C2 = {π2 , π3 , π6 } (c2 = 3)
e C3 = {π4 , π5 } (c3 = 2). Aplicando sistematicamente as informações contidas no algoritmo acima,
resulta:
2. A ordem do grupo é g = |S3 | = 6. Então, as dimensões das irreps devem satisfazer a relação
3
X
n2µ = n21 + n22 + n23 = 6.
µ=1
O único conjunto de números naturais que satisfazem esta equação é {1, 1, 2}. Portanto,
n1 = n2 = 1 e n3 = 2.
(1)
3. A irrep trivial do S3 é, portanto, χk = +1 (k = 1, 2, 3). Com isso, fica preenchida a primeira
linha da tabela 5.2.
5. Cada caractere é igual à soma de uma raiz da unidade. Todos os elementos de uma dada
classe têm a mesma ordem. Sendo mk a ordem dos elementos da k-ésima classe, então
(µ)
m1 = 1, m2 = 2 e m3 = 3. Chamando zkp = λj , esta quantidade é uma das raízes de
mk 13
z = 1, ou seja, zkp = exp (2pπi/mk ) (k = 1, . . . , nC , p = 0, . . . , mk − 1).
Para obter os caracteres das representações µ = 2, 3 deve-se realizar escolhas que satisfazem as
condições impostas pelos passos (4) a (6) do algoritmo.
(2)
• µ = 2. Esta representação também é unidimensional (n2 = 1). Então, χ1 = +1. Para
satisfazer as condições dos passos (4) – (6):
(2) 2 (2) 2
(2) (2)
3 χ2 + 2 χ3 = 5 3χ2 + 2χ3 = −1,
h i2 h i3
(2) (2) (2) (2) (2) (2) (2) (2)
χ2 = λ2 , λ2 = 1 ⇒ λ2 = ±1; χ3 = λ3 , λ3 = 1 ⇒ λ3 = 1, e2πi/3 ou e4πi/3 .
(2) (2)
As únicas escolhas possíveis são χ2 = −1 e χ3 = +1, resultando preenchida a segunda
linha da tabela 5.2.
(3)
• µ = 3. Agora, n3 = 2, implicando em χ1 = +2. O passo (7) demanda que
(3) (3)∗
(2) (2)∗ (3) (3)∗ χ2 χ3 = 0
χ2 χ3 + χ2 χ3 = −1
g
(3) 2
(2) (2)∗ (3) (3)∗
χk χ` + χk χ` = δk` − 1 ⇒ χ(2) (2)∗
2 χ2
(3) (3)∗
+ χ2 χ2 = 1 ⇒ χ2 = 0
ck (2) (2)∗
(3) (3)∗
2
χ3 χ3 + χ3 χ3 = 2 χ(3) = 1.
3
(3) 2
(3)
Ou seja, χ2 = 0. O valor de χ3 também poderia ter sido obtido com o passo (4). Já o
(3)
valor de χ3 deve ser consistente com o passo (6), ou seja,
(3) (3) (3)
3χ2 + 2χ3 = −2 =⇒ χ3 = −1,
13 Ver fórmula (2.9).
o que completa a terceira linha da tabela 5.2. Nota-se que este último resultado está
consistente com o passo (5), o qual exige que
2
(3)
X
χ3 = λ3pj , sendo λ3p = e2pπi/3 , (p = 0, 1, 2) .
j=1
As tabelas de caracteres de grupos de ordens mais altas podem ser sistematicamente construí-
das seguindo-se o mesmo algoritmo.
É assumido que D (A) é uma representação redutível em termos de irreps de dimensões mais
baixas.
Para reduzir a representação D (T ), deseja-se encontrar uma matriz unitária U adequada, tal
que realizando-se a transformação de similaridade com a mesma, obtém-se
onde as matrizes Dred (T ) estão todas na forma bloco-diagonal (5.15a), escritas em termos das
irreps unitárias de T . Para tanto, reescreve-se a expressão (5.31) para descrever a ação do
operador A sobre todos os vetores da base Φ na forma matricial como
Aφ = φD (A) ,
. .
onde φ = (φ1 φ2 . . . φn ) é a matriz linha composta por todos os vetores da base e Aφ = (Aφ1 Aφ2 . . . Aφn ).
Se U é a matriz desejada, então
Este resultado sugere que a base ortonormal adequada para os fins desejados é o conjunto Ψ
definido por
.
Ψ = ΦU = {ψ1 , ψ2 , . . . , ψn } ,
com vetores {ψi } tais que
n
X
ψi = (φU)i = φj Uji , (i = 1, . . . , n) . (5.32a)
j=1
(µ)
O índice p em Ψp indica a p-ésima ocorrência da irrep Γ(µ) em D (T ); ou seja, 1 6 p 6 mµ , sendo
que a irrep somente irá ocorrer na redução se mµ > 0. n o
(µ) n (µ)
Denotando-se os vetores da base Ψp do subespaço invariante Vp µ ⊂ V n por ψpi , ou seja,
n o
(µ) (µ)
Ψ(µ)
p = ψp1 , ψp2 , . . . , ψ (µ)
pnµ ,
(µ)
a ação do operador A sobre o vetor ψpi é dada por
nµ
(µ) (µ) (µ)
X
Aψpi = ψpk Γki (A) . (5.32b)
k=1
(µ)
Diz-se, neste caso, que o vetor ψpi transforma-se de acordo com a i-ésima coluna da represen-
tação irredutível Γ(µ) (A). O espaço vetorial V n resulta particionado pela soma direta de seus
subespaços invariantes: M
Vn= Vpnµ .
µ,p
.
Agora, é sempre possível escrever-se a matriz linha ψ = ( ψ1 ψ2 . . . ψn ) na forma bloco-linha
como
(1) (N )
ψ = ψ1 · · · ψmN ,
Inserindo a expansão (5.32c) no produto interno acima, resulta a seguinte relação entre os
elementos da matriz U,
n
X n
X
∗ ∗
Uk(µpi) U`(νqj) hφk , φ` i = Uk(µpi) Uk(νqj) = δµν δpq δij .
k,`=1 k=1
As expressões (5.33) serão empregadas para a obtenção da base simetrizada de uma repre-
sentação regular. Dado um grupo G = {A, B, C, . . . ; ∗} de ordem g, os elementos das matrizes
de sua representação regular Dreg (G) são dados por (5.4). Como a dimensão das matrizes de
Dreg (G) é igual à ordem do grupo (n = g), os índices de Dreg (A) em (5.33c) indicam também os
elementos de G. Ou seja, a variação do índice j mantendo ` fixo corresponde à varredura da
linha do elemento A na tabela de multiplicações de grupo. Chamando j → C e ` → B, sendo
B, C ∈ G, a relação (5.33c) pode ser escrita como
nµ
(µ)
X X
UB,(µpk) Γki (A) = DB,C (A) UC,(µpi) = UBA,(µpi) .
k=1 C∈G
pois (
1, se B ∗ A = C
DB,C (A) =
0, se B ∗ A 6= C.
Este resultado vale para todos A, B ∈ G e 1 6 i 6 nµ . Se for feita a escolha B = I com a convenção
de que I ↔ 1 sempre, então
nµ
(µ)
X
UA,(µpi) = U1(µpk) Γki (A) . (5.34)
k=1
Esta última relação, em conjunto com (5.33a,b) determinam a matriz U.
G 0 = H1 ⊗ H2 .
Contudo mencionou-se também que um grupo superior pode ser criado a partir de dois
grupos menores. Tomando-se por exemplo o grupo das rotações próprias Cn , se a operação de
simetria denominada inversão espacial (J) for acrescentada às rotações próprias, esta forma o
grupo cíclico hJi = {E, J}. Foi mencionado na seção 3.4.1 que a operação de inversão comuta
com qualquer outra operação de simetria. Portanto, é possível criar um grupo contendo tanto
rotações próprias quanto inversões através do produto Cn ⊗ hJi.
Posteriormente, na seção 5.4.4 mostrou-se que o produto direto de duas representações
também é uma representação (expressão 5.11), sendo que o caractere do grupo produto direto é
o produto dos caracteres (expressão 5.12).
N
M
Γ(µ) (G) ⊗ Γ(ν) (G) = xηµν Γ(η) (G) . (5.35a)
η=1
Claramente,
N
X
χ(µ) (a) χ(ν) (a) = xηµν χ(η) (a) , (∀a ∈ G) . (5.35b)
η=1
Em geral, dadas duas representações redutíveis de G, D(µ) (G) e D(ν) (G), o seu produto direto
(µ×ν)
D (G) = D(µ) (G) ⊗ D(ν) (G) sempre pode ser reduzido, uma vez que
N
M N
M
D(µ) (G) = mηµ Γ(η) (G) D(ν) (G) = mκν Γ(κ) (G)
η=1 κ=1
e, portanto,
N
! N
!
M M
(µ×ν) (µ) (ν)
D (G) = D (G) ⊗ D (G) = mηµ Γ(η) (G) ⊗ mκν Γ(κ) (G)
η=1 κ=1
N M
N N
" N
#
M M X
= mηµ mκν Γ(η) (G) ⊗ Γ (κ)
(G) = mηµ mκν xτηκ Γ(τ ) (G) .
η=1 κ=1 τ =1 η,κ=1
Esta expressão pode sempre ser estendida ao produto direto de mais de duas representações.
Observa-se aqui que também é possível realizar-se o produto direto de um espaço vetorial
por si mesmo: V n ⊗ V n . Neste caso, em Ψ deve se distinguir os vetores de base de cada espaço,
i. e., φm φn 6= φn φm . Um exemplo desta situação ocorre com os produtos externos de tensores,
gerando as diádicas discutidas na seção 6.4.4.
Sejam agora D(µ) (H) uma representação de H e D(ν) (G) uma representação de G. Então
D(µ) (Hi ) D(µ) (Hm ) = D(µ) (Hp ) D(ν) (Gj ) D(ν) (Gn ) = D(ν) (Gq ) .
onde a propriedade (5.10a) foi empregada. Definindo-se novas matrizes pelo produto direto
.
D(µ×ν) (Kpq ) = D(µ) (Hp ) ⊗ D(ν) (Gq ) ,
então
D(µ×ν) (Kpq ) = D(µ×ν) (Kij ) D(µ×ν) (Kmn ) . (5.37)
Comparando-se (5.37) com (5.36), conclui-se que as matrizes produto direto assim definidas
formam uma representação de K. Esta representação é identificada por D(µ×ν) (K). Ou seja,
o produto direto de representações de dois grupos que comutam é uma representação do grupo
produto direto.
Agora, se D(µ) (H) ≡ Γ(µ) (H) e D(ν) (G) ≡ Γ(ν) (G) são irreps de H e G, respectivamente, então
D(µ×ν) (K) ≡ Γ(µ×ν) (K) também é irrep de K. Para verificar isso, recorre-se à condição necessária
e suficiente (5.27), a qual fica escrita
X 2
k= χ(µ×ν) (Kij ) .
Kij ∈K
Pode-se verificar facilmente, de forma semelhante ao que foi feito em (5.12), que χ(µ×ν) (Kij ) =
χ(µ) (Hi ) χ(ν) (Gj ), ou seja,
" #
X 2 X 2 X 2
χ(µ×ν) (Kij ) =
(µ) (ν)
χ (Hi ) χ (Gj ) = hg = k,
Kij ∈K Hi ∈H Gj ∈G
Portanto, a condição (5.19) também se aplica a Γ(µ×ν) (K), i. e., Nµν = Nµ Nν é o número total de
irreps de K e os produtos diretos das irreps de H e G exaurem todas as irreps de K.
ψ = ψ (r, t)
sobre o espaço Euclideano E 3 (ver exemplo 4.5). Nesta descrição, a equação de Schroedinger
(5.38) passa a ser formalmente escrita como
∂
Hψ (r, t) = i~ ψ (r, t) , (5.39)
∂t
sendo que agora o Hamiltoniano é um operador que atua sobre o espaço das funções sobre o
E 3 , i. e., é um funcional na forma H = H {r, ∇; t}, por exemplo.
Seja R = {Ri } um grupo abstrato que contenha todas as isometrias de um sistema físico.
Os elementos de R são transformações aplicadas ao sistema, de tal forma que a ação de R ∈ R
sobre o sistema físico consiste em modificar as coordenadas do mesmo. O termo “coordenadas”
aqui possui um significado amplo. Este pode significar de fato as coordenadas das posições
das partículas do sistema físico em relação a um determinado sistema de referência em um
espaço métrico, mas podem também se referir a coordenadas no espaço de fase, ou a outras
propriedades que caracterizam o estado físico do sistema, tais como spin, carga elétrica, cor,17
etc.
A dinâmica deste sistema, por sua vez, será determinada por um conjunto de leis (e. g., Leis
de Newton, equações de Maxwell, equação de Schroedinger, etc) que fornecerão uma descrição
quantitativa da evolução do mesmo. Esta descrição será usualmente realizada por intermédio de
uma classe de funções que irão depender das coordenadas (no sentido amplo) do sistema. Essas
funções serão elementos de um espaço funcional, isto é, de um espaço vetorial (de dimensão
finita ou infinita), cujas bases são conjuntos de funções das coordenadas.
Seja agora o grupo PR = {PR } formado por operadores lineares que executam transformações
sobre as funções das coordenadas do sistema, ao invés das coordenadas propriamente ditas.
Como o sistema físico permanece indistinguível após ser atuado por uma transformação isomé-
trica R ∈ R, as leis que regem a sua evolução também devem também permanecer invariantes
frente a ação de um operador PR ∈ PR que atua sobre uma função das coordenadas. Para que
esta exigência seja satisfeita, é necessário que exista um isomorfismo entre o operador R ∈ R e
um (e somente um) operador PR ∈ PR . Este isomorfismo é garantido pelo seguinte mapeamento:
se r denota as coordenadas (no sentido amplo) do sistema físico e f (r) é uma função dessas
coordenadas, então
PR f (Rr) = f (r)
(5.40)
PR f (r) = f R−1 r ,
sendo ambas as expressões equivalentes. Pode-se dizer que o operador PR muda a forma funci-
onal de f (r) de maneira tal que compensa a transformação nas coordenadas r executada pelo
operador R.
Antes de se mostrar alguns exemplos, será verificado agora que o grupo PR é de fato isomór-
fico a R. Para tanto, é necessário demonstrar que para R, S ∈ R, os correspondentes operadores
PR , PS ∈ PR , dados por (5.40), satisfazem
PS PR = PSR .
Procede-se por etapas. Inicialmente, dada uma função das coordenadas f (r), a ação de PR
executa a transformação f (r) → g (r), sendo esta última uma outra função das mesmas coorde-
nadas. Ou seja,
PR f (r) = f R−1 r = g (r) .
Assim, g (r) é a nova função que incorpora a ação de R−1 sobre as coordenadas na sua forma
funcional. Aplicando-se agora o operador PS , obtém-se
(5.40)
PS [PR f (r)] = PS g (r) = g S −1 r = f R−1 S −1 r
R,S∈R
h i
−1
= f R−1 S −1 r −−−−−−−−−−−
→
−1
f (SR) r = PSR f (r) .
R−1 S −1 =(SR)
T RANSLAÇÕES ESPACIAIS . Seja um sistema físico cujas coordenadas são descritas como
pontos no espaço Euclideano E 3 . Uma translação no sistema de coordenadas do E 3 consiste na
operação
.
r → r 0 , onde r 0 = Tρ r = r + ρ,
sendo r = (x1 , x2 , x3 ) ∈ E 3 uma posição no espaço, Tρ o operador de translação atuando sobre
E 3 e ρ = (ρ1 , ρ2 , ρ3 ) ∈ E 3 um vetor constante. A isometria do sistema físico frente a ação T irá
estabelecer os grupos cristalográficos espaciais.18 Como T pertence a um grupo, sempre existe
a transformação inversa Tρ−1 r = r − ρ.
Seja agora uma função das coordenadas ψ (r). Esta função pode ser, por exemplo, a solução
da equação de Schroedinger para uma rede cristalina. Então, como após a transformação r → r 0
a relação r = r 0 − ρ é válida, a função ψ (r) passa a ser escrita como
r 0 ;r
ψ (r) = ψ (r 0 − ρ) −−−→ ψ (r − ρ) ,
Busca-se agora uma expressão para o operador de translação PTρ . Escrevendo r = (x, y, z),
considera-se inicialmente o caso particular onde ρ = (ρ, 0, 0). Então, dada a função ψ (x, y, z),
PTρ ψ (x, y, z) = ψ (x − ρ, y, z) .
ρ2 ∂ 2
∂ ∂
ψ (x − ρ, y, z) = 1 − ρ + + · · · ψ (x, y, z) = exp −ρ ψ (x, y, z) ,
∂x 2! ∂x2 ∂x
onde o operador exp (−ρ∂/∂x) pode ser interpretado no contexto de uma série de Taylor.
Estendendo-se essa operação agora para translação arbitrária ρ = (ρx , ρy , ρz ), resulta
Uma vez que ρ é real e p é um operador Hermitiano,20 resulta que PTρ é unitário. Neste caso, o
operador inverso de PTρ satisfaz
Uma interpretação mais clara do significado matemático do operador PTρ é a seguinte. Su-
pondo que PTδr seja o operador que executa uma translação infinitesimal por ρ = δr. Então,
adotando-se a notação r = (x1 , x2 , x3 ), pode-se escrever
3 3
i iX . X pj
PTδr = 1 − p· δr = 1 − pj δxj = 1 − i Ixj δxj , onde Ixj = .
~ ~ j=1 j=1
~
Este deslocamento arbitrário por δr pode ser escrito em termos de deslocamentos infinitesimais
ao longo de cada eixo coordenado como
3
Y
PTδr = PTδxj , sendo PTδxj = 1 − iIxj δxj .
j=1
o que equivale a uma translação infinitesimal de magnitude 2δxj . Após N aplicações sucessivas
deste operador, a translação total na direção xj , N δxj , será finita, se
.
ρj = lim N δxj .
δxj →0
N →∞
Dessa maneira, a translação executada pelo operador PTρj ocorre devido à existência da
quantidade Ixj = pj /~, a qual é denominada o gerador do grupo de translações.
Uma outra relação importante é obtida considerando-se a aplicação do operador comutador
h i
xi , PTδxj = xi PTδxj − PTδxj xi
resultando h i
xi , PTδxj ψ (r) = δxj δij ψ (r) .
então
∂ 0
ψ (r, t) = Hψ 0 (r, t) .
i~
∂t
Ou seja, a função transformada ψ 0 (r, t) também satisfaz a equação de Schroedinger e é uma
função de onda do sistema.
Se o operador PTρ comuta com o Hamiltoniano e, lembrando da dependência do mesmo com
o operador p, segue que [p, H] = 0. Além disso, como PTρ não depende explicitamente do tempo,
resulta que se o sistema físico é invariante frente a todas as translações espaciais, o seu momento
linear é uma constante de movimento, i. e., p é conservado. A mesma lei de conservação é válida
para um sistema clássico.
R OTAÇÕES . Da mesma forma como ocorre com as translações, uma rotação pode ser exe-
cutada dos pontos de vista passivo ou ativo, sendo estas também discutidas na seção 6.2.1.
Uma rotação no ponto de vista passivo no espaço de configuração consiste na aplicação de um
operador R ∈ R, sendo R representado por matrizes dos grupos SO (3) ou SO (2).
Como um exemplo simples, considera-se um rotação (passiva) do sistema de coordenadas em
torno de um dos eixos coordenados, por exemplo, em torno do eixo x. O operador Rx (θ) ∈ SO (2)
que executa esta transformação é representado por (seção 6.5.2)
1 0 0 1 0 0
Rx (θ) = 0 cos θ sen θ , Rx−1 (θ) = 0 cos θ − sen θ ,
0 − sen θ cos θ 0 sen θ cos θ
juntamente com o operador inverso Rx−1 (θ). Após a aplicação de Rx (θ), as coordenadas de um
ponto no E 3 , representadas pelo vetor coluna r = x y z , passam a ser dadas por
T
r0 = Rx (θ) r.
O grupo de operadores PR , isomórfico a R, tem seus elementos dados pelo mapeamento
(5.40), de tal forma que PRx (θ) ∈ PR é o operador que executa a rotação (do ponto de vista ativo)
das funções das coordenadas que compensa a ação de Rx (θ). O exemplo a seguir ilustra a
diferença nas ações destes operadores.
Suponha agora que uma rotação de 90◦ em torno do eixo x (sentido anti-horário) é executada.
Do ponto de vista passivo, esta transformação é tal que
0
x = x
1 0 0 x x
r → r =⇒ r → r = 0 0 1 y = z =⇒ y 0 = z
0 0
0 −1 0 z −y 0
z = −y.
Lembrando que
h π i 10 0 x x
Rx−1 r = 0 0 −1 y = −z ,
2
01 0 z y
de acordo com (5.40), a ação de PRx (θ) sobre uma função f (x, y, z) resulta em
h π i
PRx ( π ) f (x, y, z) = PRx ( π ) f (r) = f Rx−1 r = f (x, −z, y) .
2 2 2
Portanto, se o operador PRx ( π ) atuar sobre os orbitais p, os resultados serão
2
p
uma vez que r = x2 + y 2 + z 2 é invariante frente a esta rotação. Nota-se na figura 5.2 que os
contornos destes orbitais são rotados no sentido horário por 90◦ em torno do eixo x, compen-
sando a rotação dos eixos coordenados.
A forma explícita do operador PRx (θ) pode ser obtida considerando-se inicialmente a matriz
T
R1−1para uma rotação infinitesimal δθ sobre as coordenadas r = x1 x2 x3 , em torno do eixo x1 :
1 0 0 X3
R1−1 (δθ) = 0 1 −δθ ⇐⇒ r0 = R1−1 (δθ) r ⇒ x0i = (δij − 1ij δθ) xj , (i = 1, 2, 3) ,
0 δθ 1 j=1
sendo ijk o símbolo de Levi-Civita.21 Então, a ação de PR1 (δθ) sobre a função de onda ψ (r) ≡
ψ (x1 , x2 , x3 ) ≡ ψ ({xj }) resulta em
21 Seção 6.1.2.
sendo
3 3
X X ∂
L1 = 1jk xj pk = −i~ 1jk xj
∂xk
j,k=1 j,k=1
Desenvolvendo a função ψ (r,t − τ ) em uma série de Taylor em torno de t, é fácil concluir que
∂
PTτ = exp −τ .
∂t
Este resultado mostra também que PTτ é um operador unitário, uma vez que o Hamiltoniano é
Hermitiano.
Se o sistema físico é invariante frente a qualquer deslocamento temporal, a forma de PTτ
mostra que a energia do mesmo é uma constante de movimento e, também, que este operador
comuta com o Hamiltoniano,
[PTτ , H] = 0, para todo τ .
Sistemas que possuem essa simetria têm o seu estado descrito por funções de onda ψ = ψ (r)
determinadas pela equação de Schroedinger independente do tempo (5.39)
onde E é o autovalor de energia e ψ (r) é a autofunção associada a este autovalor. Neste caso, a
evolução temporal da função de onda é determinada simplesmente pela ação de PTτ sobre ψ (r):
ψ 0 (r) = PR ψ (r) .
ψ 0 (r) = PR ψ (r)
Hψ 0 = H (PR ψ) = E (PR ψ) = Eψ 0 .
4. Como ψ 0 = PR ψ está associada ao mesmo autovalor E, segue que ψ (r) e ψ 0 (r) são autofun-
ções degeneradas.
Dado um certo sistema físico o qual tem associado o Hamiltoniano H e sejam ψ (r) e E
respectivamente a autofunção e o autovalor de energia determinados por H através de (5.43).
Seja PH o grupo do Hamiltoniano H. Todo PR ∈ PH satisfaz a relação de comutação [PR , H] = 0
e gera uma nova autofunção ψ 0 (r) degenerada a ψ (r) ao mesmo autovalor E através da ação
ψ 0 (r) = PR ψ (r).
Pela aplicação de todos os elementos de PH a ψ (r) cria-se um conjunto de autofunções de-
generadas ao mesmo autovalor E. Em outras palavras, a aplicação de todas as operações de
simetria que comutam com o Hamiltoniano gera um conjunto de estados físicos, todos com o
mesmo valor de energia. Se este procedimento gerar todas as autofunções degeneradas a E,
esta degenerescência é dita normal ou essencial. Se existir alguma outra função de onda com
o mesmo valor de energia, mas que não é gerada pelas operações de simetria do sistema, esta
degenerescência é dita acidental, no sentido de que se trata de uma degenerescência sem uma
origem evidente a partir das simetrias conhecidas do sistema.
A existência de degenerescências acidentais pode estar ligada a simetrias ocultas no sistema
e que não são aparentes no Hamiltoniano. Neste caso, a presença de degenerescências acidentas
pode indicar que grupo do Hamiltoniano não está completo. Outra razão para a sua ocorrência
está ligada a determinadas combinações dos parâmetros físicos do sistema que levam dois ou
mais níveis de energia, usualmente distintos, a se cruzarem nesta particular combinação. A pre-
sença de degenerescências acidentais também pode resultar em quantidades físicas conservadas
adicionais, relacionadas às mesmas.
Usando as autofunções e autovalores do átomo de hidrogênio como exemplo, a degenerescên-
cia entre as diferentes autofunções de um mesmo orbital atômico é normal; dada a autofunção
px , as outras funções podem ser obtidas por rotações de coordenadas. Por outro lado, a degene-
rescência entre as autofunções de diferentes orbitais com o mesmo autovalor de energia (orbitais
2s e 2p, por exemplo) é acidental.
5.9.2.2 R EPRESENTAÇÕES DE PH
Assume-se
agora que um dado autovalor E = En de H seja `n -plamente degenerado `n =
1, 2, . . . , excluindo-se quaisquer degenerescências acidentais. O índice n = 1, 2, . . . passa a ser
adotado para se distinguir os distintos autovalores de energia e a quantidade `n é denominada a
ordem da degenerescência. Selecionando aquelas autofunções de H que são também degene-
radas ao autovalor En , pode-se formar a partir destas o conjunto de autofunções degeneradas
dado por n o
(n) (n)
Ψn = ψ1 , . . . , ψ`n | Hψν(n) = En ψν(n) , (n = 1, 2, . . . ; ν = 1, . . . , `n ) .
(n)
A partir deste ponto, será empregada a notação ψν (r) para identificar a ν-ésima autofunção
pertencente ao conjunto Ψn , formado pelos autovetores degenerados à energia En .
As funções em Ψn formam um subespaço do espaço de Hilbert H ao qual as autofunções de
H pertencem22 e, portanto, sempre é possível determinar-se um conjunto de funções que sejam
tanto LI quanto ortonormais através de combinações lineares de funções em Ψn , via algum
processo de ortogonalização como o de Gram-Schmidt. Ou seja, a partir das autofunções em Ψn
sempre é possível se formar uma base em um subespaço, de dimensão menor ou igual a `n , do
espaço de Hilbert H .
A importância que os subespaços formados pelas bases em Ψn possuem está no fato de que
estes são subespaços invariantes de H com relação ao grupo PH .23 Estes subespaços devem ser
(n)
invariantes porque a aplicação de qualquer operador em PH em uma dada autofunção ψν ∈ Ψn
0(n)
deve, necessariamente, gerar outra outra autofunção ψν associada ao mesmo autovalor En e
pertencente ao conjunto Ψn . Portanto, o espaço de Hilbert H ao qual todas as soluções de (5.43)
pertencem pode ser contruído a partir da soma direta
M
H = Hn = H1 ⊕ H2 ⊕ · · · ,
n=1,2,...,
sendo
. .
D E h i
Γ(n) (n) (n)
µν (R) = ψµ , PR ψν ; Γ(n) (R) = Γ(n)
µν (R) (`n × `n ) (5.44b)
22 Ver teorema 4.2
23 Ver definição 4.17
a representação de PR na base Ψn .
O conjunto n o
Γ(n) (H) = Γ(n) (R) , ∀PR ∈ PH (5.44c)
Ou seja,
`n
(n) (n)
X
PSR ψν(n) = ψλ Γλν (SR) =⇒ Γ(n) (SR) = Γ(n) (S) Γ(n) (R) ,
λ=1
Este resultado pode ser compreendido interpretando-se a ação de PR como uma “rotação gené-
rica” das coordenadas que não altera o produto interno. Então,
*` `n
+
D E n
(n) (n)
X X
(n) (n) (n) (n)
δµν = PR ψµ , PR ψν = ψκ Γκµ (R) , ψλ Γλν (R)
κ=1 λ=1
`n D E `n
(n) (n)
X X
= ψκ(n) , ψλ Γ(n)∗
κµ (R) Γλν (R) = Γ(n)∗ (n)
κµ (R) Γκν (R)
κ,λ=1 κ=1
`n
X h i
= Γ(n)† (n)
µκ (R) Γκν (R) = Γ
(n)†
(R) Γ(n) (R) .
µν
κ=1
Ou seja,
Γ(n)† (R) Γ(n) (R) = I`n
e a representação é unitária.
A relação entre a ortonormalidade das funções de base e a unitariedade da representação
Γ(n) (H) discutida acima também pode ser considerada no sentido inverso. Supondo-se que
Ψn seja formado por autofunções linearmente independentes, será mostrado agora que se os
elementos do grupo PH forem operadores unitários então as autofunções serão necessariamente
ortogonais entre si.
(n) (m)
Demonstração. Sejam as autofunções ψν ∈ Ψn e ψµ ∈ Ψm , associadas respectivamente aos
autovalores En e Em . Seja também PR ∈ PH um operador unitário. O produto interno destas
funções satisfaz, portanto, a identidade
D E D E
ψµ(m) , ψν(n) = PR ψµ(m) , PR ψν(n) .
Observa-se que o lado esquerdo da identidade acima não depende de PR . Então, o mesmo
produto interno à esquerda ocorrerá para todos os elementos de PH . Somando-se todas as
equações correspondentes a todos os elementos do grupo, resulta
D E X`m X
`n D E
(n) (n)
X
g ψµ(m) , ψν(n) = Γ(m)∗ (m)
κµ (R) Γλν (R) ψκ , ψλ ,
κ=1 λ=1 PR ∈PH
(m) (n)
Ou seja, as propriedades do grupo PH mostram que as autofunções ψµ e ψν são necessa-
riamente ortogonais quanto estas estão associadas a distintos autovalores de energia ou são
distintas autofunções do mesmo autovalor En . Por outro lado, se m = n e µ = ν,
`n `n D
D E 1 X D
(n)
E 1 X E
ψν(n) , ψν(n) = δκλ ψκ(n) , ψλ = ψκ(n) , ψκ(n) .
`n `n κ=1
κ,λ=1
(n) (n)0
onde ψν ∈ Ψn , ψµ ∈ Ψ0n e A = [Aµν ] : (`n × `n ) é uma matriz não singular, então, para todo
PR ∈ PH ,
`n `n
X (5.44) X
PR ψν(n)0 = PR ψµ(n) Aµν = ψκ(n) Γ(n)
κµ (R) Aµν
µ=1 µ,κ=1
`n `n h i
(n)0 (n)0
X X
= ψλ A−1 (n)
λκ Γκµ (R) Aµν = ψλ A−1 Γ(n) (R) A
λν
µ,κ,λ=1 λ=1
onde
.
Γ(n)0 (R) = A−1 Γ(n) (R) A
é a representação de PR na base Ψ0n .
Contudo, esta relação nada mais é senão a transformação de similaridade (5.5); ou seja,
(n)0
Γ(n)0 (R) é equivalente a Γ(n) (R). Além disso, ψν também se transforma de acordo com a ν-
(n)0
ésima coluna de Γ (R). Portanto, a menos de uma transformação de similaridade, existe uma
única representação irredutível do grupo do Hamiltoniano correspondente a cada autovalor de
energia.
Um conjunto de autofunções pode sempre ser classificado ou identificado de uma única
maneira, de acordo com a representação irredutível à qual pertence. Desta forma, a teoria de
representações de grupos fornece os “bons números quânticos” para a dinâmica do sistema
físico através dos índices relacionados ao autovalor de energia (n) e à coluna da irrep Γ(n) (H).
A degenerescência (normal) do autovalor é simplesmente a dimensionalidade da representação.
Caso seja possível calcular as dimensionalidades de todas as irreps do grupo do Hamiltoniano,
as ordens das degenerescências (normais) serão automaticamente obtidas.
Se ocorrerem degenerescências acidentais associadas a um dado autovalor En , as distintas
bases dos subespaços invariantes correspondentes podem ser facilmente distinguidas, bastando
para isso introduzir-se um índice adicional. Dessa forma, a base
.
n o
(n) (n) (n)
Ψpn = ψpν (r) | Hψpν = Epn ψpν , (n = 1, 2, . . . ; p = 1, 2, . . . ; ν = 1, . . . , `n ; E1n = E2n = · · · )
(n)
é formada por autofunções tais que uma dada ψpν ∈ Ψpn é a autofunção que se transforma de
acordo com a ν-ésima coluna da n-ésima irrep de PH que ocorre pela p-ésima vez na distribuição
de níveis de energia do sistema físico. Nesta situação, é adequado identificar os autovalores por
Epn e os bons números quânticos serão portanto {p, n, ν}.
Esta discussão também implica que uma perturbação aplicada ao sistema físico somente
poderá quebrar degenerescências se, e somente se, a sua inclusão no Hamiltoniano reduz o
grupo de simetria do sistema, alterando assim as suas representações irredutíveis.
Exemplo 5.8. Um exemplo simples, envolvendo um grupo PH finito, consiste em um elétron
movendo-se sob o potencial de três prótons localizados nos vértices de um triângulo equilátero.
Neste caso, o sistema físico claramente possui as isometrias do triângulo, discutidas pela
primeira vez nos exercícios 3.11 e 3.12. Estas isometrias formam o grupo C3v , isomórfico ao S3 e
que possui três representações irredutíveis (exercício 5.1), de dimensões 1, 1 e 2, apresentadas
na tabela 5.1.
Portanto, este sistema possui somente 3 (três) autoestados de energia, sendo que os dois
primeiros são não degenerados e o terceiro é duplamente degenerado. De acordo com (5.44), a
(1)
autofunção do estado E1 ψ1 (r) permanece invariante frente a todas as operações de simetria
do grupo, uma vez que estas são operacionalizadas por Γ(1) (S3 ). Por outro lado, a autofunção
(2)
do estado E2 ψ1 (r) , em ações são descritas por Γ(2)
(S3 ), permanece invariante frente as rota-
2
ções próprias, operadas por {I, π4 , π5 }S3 ≡ E, C3 , C3 C3v , mas muda de sinal frente as rotações
impróprias {π2 , π3 , π6 }S3 ≡ {σv16 , σv35 , σv24 }C3v . Finalmente, as duas autofunções do estado E3 são
transformadas de acordo com Γ(3) (S3 ):
2
!
(3)
X
(3) (3) i = 1, . . . , 6
Pπ i ψ ν = ψµ Γµν (πi ) , ;
µ=1
ν = 1, 2
(3)
ou seja, ψν transforma-se de acordo com a ν-ésima coluna de Γ(3) (S3 ). Por exemplo, uma
reflexão em torno do plano 3 − 5 do triângulo (figura 3.5) irá realizar as transformações
2
(3) Pσ (3)0
X
−→ ψ1,2 : ψν(3)0 = Pσv35 ψν(3) =
ψ1,2 −−−v35 ψµ(3) Γ(3)
µν (σv35 ) , (ν = 1, 2) ,
µ=1
1 −√ 3 1 √ (3) !
!
(3)0 (3)
ψ1 1 ψ1 − 3ψ2
(3)0 = (3) (3)
ψ1 ψ2 √ = √ (3) (3) .
ψ2 2 − 3 −1 2 − 3ψ1 − ψ2
n=1
sendo que esta escolha foi realizada para que Γ(1) (PA ) = 1 seja a irrep trivial.
2
As irreps de PA2 são, por conseguinte, obtidas a partir de Γ(n) PA2 = Γ(n) (PA ) = rn2 =
e4π(n−1)i/g . Assim, para qualquer elemento de PH pode-se escrever
Nota-se que com as escolhas aqui realizadas, a irrep trivial corresponde a Γ(1) (PAm ) = 1, m =
1, . . . , g . A tabela 5.4 lista algumas das irreps de PH . A mesma tabela também serve para listar
os caracteres das representações.
Tabela 5.4: Tabela das representações irredutíveis do grupo cíclico de ordem g PA : PAg = I , sendo ω = e2πi/g .
em um anel circular ou em uma rede linear com condições de contorno periódicas, sendo a o
parâmetro de rede. Neste caso, um elemento do grupo translação T é o operador T1 , cuja ação
sobre a coordenada x ao longo da rede é
T1 x = x0 = x − a,
ou seja, transladar a origem para a direita por uma distância igual ao parâmetro de rede. O
operador inverso é T1−1 x = x + a e o operador que executa a translação por m 6 N períodos de
rede é simplesmente Tm x = T1m x = x − ma, onde, devido às condições de contorno, TN x = T1N x =
x − N a = x = Ex.
Assim, observa-se
que T1 é o gerador do grupo de translação, o qual pode ser
descrito por T = T1 : T1N = E .
De acordo com o mapeamento (5.40), o operador PT1 que efetua a transformação correspon-
dente na função de onda é dado por
−1
Da mesma forma, o operador PTm ↔ Tm tem sua ação dada por PTm ψ (x) = ψ Tm x = ψ (x + ma) .
Conforme a discussão realizada a respeito das propriedades do grupo do Hamiltoniano, dada
a equação de Schroedinger (5.43) para um potencial periódico, o número total de autovalores
de energia possíveis é igual ao número de representações irredutíveis do grupo PH ; ou seja,
E = En , com 1 6 n 6 N . Além disso, como o grupo T é cíclico, todos os autovalores são não
degenerados, pois as irreps são unidimensionais. Finalmente, de acordo com (5.44), a ação de
qualquer operador em T implica na transformação de ψ (x) de acordo com alguma representação
irredutível de PH .
Assim, dada autofunção ψ (n) (x) associada ao autovalor En , esta deve se transformar sob a
ação de PT1 de acordo com a n-ésima irrep de PH . De acordo com (5.46), resulta então
ψ (n) (x + a) = PT1 ψ (n) (x) = Γ(n) (T1 ) ψ (n) (x) = e2π(n−1)i/N ψ (n) (x) = ω n−1 ψ (n) (x) ,
onde o parâmetro ω está na tabela 5.4. Como as irreps na tabela são puramente fases unimo-
dulares, a seguinte propriedade é imediata:
2 2
(n)
ψ (x + a) = ψ (n) (x) .
onde φn (x) é uma função real denominada função de fase e un (x) apresenta a periodicidade da
rede: un (x + a) = un (x).
A forma explícita de φn (x) pode ser determinada. Aplicando-se uma translação qualquer,
(5.46)
PTm ψ (n) (x) = ω m(n−1) ψ (n) (x) = ω m(n−1) eiφn (x) un (x) .
2πm (n − 1)
φn (x + ma) = φn (x) + .
N
Desenvolvendo-se φn (x + ma) em uma série de Taylor em torno de x,
∞
X mr ar 0 1 2 2 00
φn (x + ma) = φ(r)
n (x) = φn (x) + maφn (x) + m a φn (x) + · · · ,
r=0
r! 2
conclui-se que a identidade somente pode ser satisfeita se φ00n (x) = 0, ou seja, se esta for linear
em x. Obtém-se também que
2π (n − 1) 2π (n − 1)
φ0n (x) = ⇒ φn (x) = x + α,
L L
Autor: Rudi Gaelzer – IF/UFRGS Início: 06/2013 Impresso: 29 DE AGOSTO DE 2018
C APÍTULO 5. Teoria de Representações de Grupos 207
2π (n − 1)
kn = ,
L
denominada o número de onda, a forma geral da autofunção é
Este resultado é o teorema de Bloch (unidimensional) e esta forma para ψn (x) é denominada
função de Bloch.
A dedução recém concluída pode ser estendida para uma rede cristalina real (em 3D). Fazendo-
se isso, pode-se mostrar que o número de onda é generalizado para o vetor de onda
3
X nr − 1
kn1 ,n2 ,n3 = 2π br ,
r=1
Nr
onde {br } são os vetores translacionais da rede recíproca. Com isso, a função de Bloch fica
escrita
ψk (r) = eik·r uk (r) .
De acordo com a discussão realizada na seção 5.9.2.3, o vetor de onda k é um bom número
quântico para a função de onda de um elétron em um cristal, desde que a simetria translacional
não seja quebrada por alguma perturbação. Neste caso, o vetor de onda aparece relacionado
com o espalhamento do elétron e ~k é o momento de um quantum de vibração da rede.
P(k)
µκ ν
ψ (n) = δnk δνκ ψµ(k) . (5.47b)
(m)
Ou seja, a atuação do operador Pµκ sobre uma função de base gera um resultado nulo, a não
ser que esta pertença à κ-ésima coluna da k-ésima representação irredutível. Neste caso, se
n = k e ν = κ, resulta que
P(n)
µν ν
ψ (n) = ψµ(n) ,
(n) (n)
ou seja, ao se aplicar (5.47a) na função de base ψν , obteve-se a sua parceira ψµ . Esta pro-
(n)
priedade do operador Pµν fornece um método para se obter todas funções de base de uma dada
irrep conhecendo-se somente uma delas.
Retornando ao último resultado acima, se µ = ν, resulta que
P(n)
νν ν
ψ (n) = ψν(n) .
(n) (n)
Ou seja, ψν é uma autofunção de Pνν com autovalor unitário. Esta propriedade permite
identificar-se de forma única os índices de qualquer função de base e até mesmo se uma dada
(n)
autofunção associada a En é de fato uma função de base. Além disso, como Pνν é um operador
linear, qualquer combinação de funções pertencentes à ν-ésima coluna de Γ(n) , mas oriundas
(n) (n)0
de diferentes escolhas de bases (tal como aψν + bψν ) também pertencerá às mesmas coluna
(n) (n) (n)
e representação. Finalmente, como o autovalor é unitário, o operador é tal que Pνν Pνν = Pνν .
Operadores que possuem esta propriedade são denominados idempotentes.
Com base nas propriedades do operador de transferência, o teorema a seguir pode ser for-
mulado.
Teorema 5.8. Se Γ(1) , Γ(2) , . . . , Γ(g) são as representações irredutíveis de um grupo de operadores
PR , então qualquer função F no espaço operado por PR pode ser decomposto em uma soma na
forma
Xg X`n
F = fν(n) ,
n=1 ν=1
(n)
onde fν pertence à ν-ésima coluna da n-ésima representação irredutível do grupo.
Demonstração. Considera-se todas as funções F, F20 , F30 , . . . , Fg0 obtidas pelas aplicações de todos
os operadores PR sobre F . Primeiro descarta-se todas as funções que são LD das outras e
ortonormaliza-se as demais (e. g. via o processo de Gram-Schmidt). Denotando-se o conjunto
resultante por Φ = {F, F2 , . . . , Fm } (m 6 g), estas funções formam a base de uma representação
unitária do grupo, identificada por D̂, de tal forma que
m
X
P R Fk = Fr D̂rk (R) , (k = 1, . . . , m) .
r=1
(n)
podem ser escritas como combinações lineares de funções do tipo fν , as quais são as funções
de base das irreps. Usando então a matriz inversa S−1 , pode-se finalmente escrever as funções
(n)
em Φ (em particular F ) em termos das funções fν .
Com base neste teorema, é possível empregar-se o operador de transferência (5.47a) para a
determinação das funções de base. Como foi constatado que
P(k)
κκ ν
f (n) = δnk δνκ fκ(k) , (5.48a)
(k)
a aplicação de Pκκ sobre uma função qualquer F resulta
g X g X
`n
! `n
(k) (k)
X X
Pκκ F = Pκκ (n)
fν = P(k)
κκ ν
(k)
f (n) =⇒ Pκκ F = fκ(k) . (5.48b)
n=1 ν=1 n=1 ν=1
(k)
Assim, Pκκ atua sobre qualquer função F projetando sua componente ao longo da κ-ésima
(k)
coluna da irrep Γ(k) . Por esta razão, Pκκ é denominado operador de projeção.
(n) (n)
É importante mencionar que a função fν (r) projetada pelo operador Pνν aplicado a uma
(n)
função arbitrária F (r) está diretamente relacionada à função de base ψν (r), pertencente à
(n) (n) (n) (n)
ν-ésima coluna da irrep Γ(n) , por fν (r) = cν ψν (r), sendo cν ∈ C uma constante a ser
determinada, e. g., pela normalização da autofunção.
Com os recursos deduzidos acima, é possível obter-se as funções de base de qualquer re-
presentação irredutível (por exemplo, Γ(n) ). Partindo de uma função F arbitrária, projeta-se
(n)
inicialmente a mesma ao longo de uma coluna da irrep, obtendo-se assim fν (por exemplo).
(n)
Esta função é então normalizada, obtendo-se assim a função de base ψν adequada. A partir
(n)
daí, o uso sistemático do operador de transferência Pµν irá gerar todas as suas parceiras, uma
(n) (n) (n)
vez que Pµν ψν = ψµ . O físico americano John Hasbrouck Van Vleck (1899–1980) denominou
este procedimento de máquina geradora das funções de base.
Os resutados recém obtidos requerem o conhecimento total das representações irredutíveis
do grupo do Hamiltoniano. Em algumas situações, este conhecimento é impossível ou muito
difícil de ser obtido. Em comparação, a dedução da tabela de caracteres é mais fácil de ser obtida,
se for aplicado um procedimento semelhante ao discutido na seção 5.6.6. Nesta situação, ainda
é possível obter-se informações a respeito das funções de base, conhecendo-se os caracteres da
representação. Com este intuito, retorna-se a (5.47a), coloca-se µ = ν e soma-se sobre ν para
obter
`n `n
!
(n) .
X (n) `n X X
(n)∗
P = Pνν = Γνν (R) PR ,
g
ν=1 ν=1 PR ∈PH
`n X
P(n) = χ(n)∗ (R) PR , (5.49)
g
PR ∈PH
(n)
isto é, a partir de uma função arbitrária, P projeta a parte pertencendo à n-ésima irrep, a
qual consiste na soma das funções de base da mesma. Este resultado, da mesma forma que o
caractere, não é afetado por transformações de similaridade que alteram as funções de base.
(n)
Por sua vez, a ação de P sobre a função f (n) pode ser visualizada a partir de (5.48a),
X (n) X
P(n)
κκ
fν
(n)
= δ νκ f (n)
κ =⇒ Pκκ
f (n)
ν =
(n)
δνκ fκ(n) =⇒ P fν(n) = fν(n) .
κ κ
Então, X X
P(n) fν(n) = fν(n) =⇒ P
(n) (n)
f = f (n) .
ν ν
Ou seja,
X
P(k) = PI ,
k
Exemplo 5.9 (Operador de projeção do grupo C1h ). O grupo C1h contém apenas duas ope-
rações (3.7): a identidade E e a reflexão σh , a qual realiza a transformação σh x = −x. Os
correspondentes operadores que atuam no espaço funcional são PE e Pσh , cujas ações sobre
uma função F (x), de acordo com (5.40), são PE F (x) = F (x) e Pσh F (x) = F (−x). A partir agora
da tabela de caracteres do grupo (tabela 5.3), os operadores de projeção do grupo são dados por
(5.49):
1 1
P(1) = (PE + Pσh ) , P(2) = (PE − Pσh ) .
2 2
Estes operadores, ao atuarem sobre uma função arbitrária F (x), resultam em
1 1
P(1) F (x) =
[PE F (x) + Pσh F (x)] = [F (x) + F (x)] ,
2 2
(2) 1 1
P F (x) = [PE F (x) − Pσh F (x)] = [F (x) − F (−x)] .
2 2
Claramente, as funções resultantes são, respectivamente, par e ímpar frente a uma reflexão,
como seria esperado para estas pertecerem às representações Γ(1) e Γ(2) , respectivamente.
H = H0 + H0 ,
0
onde H é o termo que inclui a perturbação.
Seja P0 o grupo das transformações de simetria de H0 . Em geral, existe um ou mais opera-
0
dores PR ∈ P0 para os quais PR , H 6= 0, i. e., existem operações para as quais H0 é invariante,
0
mas H não o é. Isto se deve ao fato de que a ação da perturbação remove uma ou mais simetrias
do sistema físico. Supõe-se que, neste caso, o sistema atuado pela perturbação apresente um
conjunto reduzido de isometrias, o qual é um subconjunto das isometrias originais. Por isso,
0
assume-se que ainda existe um grupo de transformações de simetria de H , denotado por P 0 e tal
0 0
que todos os operadores PR0 ∈ P 0 satisfaçam PR0 , H = 0, i. e., deixam H invariante. Supõe-se
também que P 0 ⊂ P0 , i. e., é um subgrupo das operações de simetria de H0 . Com isso, o Hamil-
toniano completo H permanece invariante apenas sob as transformações de simetria comuns a
H0 e H0 , ou seja, o grupo de simetrias de H passa a ser P 0 .
Retornando ao Hamiltoniano não perturbado H0 , uma vez que suas propriedades foram su-
postas conhecidas, sabe-se quantos autovalores de energia En existem e as ordens de suas
{n} {n}
degenerescências. Conhecem-se também os conjuntos de autofunções Ψn = ψ1 , . . . , ψ`n , as
quais formam as bases ortonormais dos subespaços Hn e a partir das quais as representações
irredutíveis Γ(n) (P0 ) são deduzidas.
0
Aplicando-se então a perturbação H sobre o sistema, o grupo de simetrias é reduzido para
0 0
P . Como P é subgrupo de P0 , as funções de base em Ψn ainda geram uma representação de
dimensão `n para P 0 , mas esta representação será, em geral, redutível. Essa representação pode
ser reduzida à forma bloco-diagonal, quando então surgirão novos subconjuntos de funções de
base, expressos a partir de Ψn , tais que uma dada função de um determinado subconjunto será
expressa apenas em termos de suas parceiras no subconjunto sob a ação de qualquer PR0 ∈ P 0 .
Como as representações irredutíveis de P0 foram determinadas a partir das autofunções dege-
neradas (normais) aos autovalores de H0 , os novos subconjuntos serão compostos por funções
degeneradas a novos autovalores, exceto no caso de degenerescências acidentais; em outras pa-
(0)
lavras, os autovalores de energia originais En dividem-se em novos níveis devido à redução
na simetria do sistema físico.
sendo {c (n, ν; m, µ)} ∈ C constantes a ser determinadas. Como as autofunções H0 são ortonor-
mais, estas constantes são formalmente dadas por
D E
0 0
c (n, ν; m, µ) = ψµ(m) , H ψν(n) = Hmµ,nν .
Ou seja,
H0 ψν(n) =
XX
0
ψµ(m) Hkκ,mµ .
m µ
27 Ou (n)
ψpν (r) e Epn , caso existam degenerescências acidentais.
Esta representação de produto direto, por sua vez, pode ser decomposta nas irreps de P0 , de
acordo com (5.35a), X
D̂H0 ψ(n) = D̂0 ⊗ Γ(n) (P0 ) = an Γ(n) (P0 ) .
ν
n
Portanto, fica claro que se o produto direto D̂0 ⊗ Γ(n) (P0 ) não contiver nenhum componente na
0
representação Γ(m) (i. e., am = 0), então o elemento de matriz Hmµ,nν deve ser nulo.
Deve ser observado que esta é uma condição fraca; ou seja, para determinar se uma transição
é proibida, basta verificar se am = 0. Contudo, o resultado am 6= 0 não é suficiente para determi-
0 (n)
nar se a transição é permitida; para tanto, é necessário verificar se H ψν contém alguma parte
(m)
que se transforma de acordo com a µ-ésima coluna de Γ .
Um outro procedimento semelhante ao acima e que irá fornecer a mesma conclusão é devido
à seguinte propriedade da decomposição de produtos diretos de representações:
Propriedade 5.2. Dadas Γ(α) e Γ(β) duas representações irredutíveis não equivalentes de um
mesmo grupo G:
(i) O produto direto Γ(α)∗ ⊗ Γ(β) não contém a representação identidade.
(ii) Os produtos diretos Γ(α)∗ ⊗ Γ(α) ou Γ(β)∗ ⊗ Γ(β) contêm a representação identidade somente
uma vez.
Com base nesta propriedade, o procedimento alternativo consiste em realizar o produto direto
de Γ(m) por D̂H0 ψ(n) e realizar a decomposição
ν
X
Γ(m)∗ (P0 ) ⊗ D̂0 ⊗ Γ(n) (P0 ) = bn Γ(n) (P0 ) .
n
Se b1 = 0, i. e. o produto direto não contém a representação identidade, então Γ(m) e D̂H0 ψ(n) são
ν
não equivalentes e o elemento de matriz é nulo.
H ' H0 + H0 , sendo
p2 0 e
H0 = + V (r) , H = A · p.
2me me
Com isto, resulta que o elemento da matriz de transição é dado por
3
0 e X D (m) E
Hmµ,nν = ψµ , Aj pj ψν(n) .
me j=1
Exemplo (Transições do tipo dipolo elétrico). O elemento de matriz obtido na seção anterior
pode ser aproximado para certas situações. Uma vez que a perturbação incidente é uma onda
eletromagnética, o potencial vetor pode ser escrito como
onde k e ω são respectivamente o vetor de onda e a sua frequência (angular). Pode ser mostrado
neste caso que a probabilidade de transição do autoestado En ao autoestado Em sob a ação da
onda será dada por
3 D E2
2πe X (m)
w= ρ (m) ψµ , A0j eik·r pj ψν(n) δ (Em − En − ~ω) .
~me j=1
Em muitos casos de interesse, o comprimento da onda (dado por λ = 2π/k) é muito maior
que a dimensão típica da função de onda. Nesta situação, pode-se realizar a aproximação
k · r 1 ; exp (ik · r) ≈ 1. Neste caso,
3 2
2πe X
2 mn mn
D E
w≈ ρ (m) |A0j | (pj )µν δ (Em − En − ~ω) , onde (pj )µν = ψµ(m) , pj ψν(n) .
~me j=1
Mas, uma relação básica para a dinâmica de um elemento de matriz Fk` = hψk , F ψ` i é
dFk` ∂Fk`
= + i~ [H, F ]k` .
dt ∂t
Como o operador pj não depende explicitamente do tempo, resulta então que
mn i mn i D E
(pj )µν = me (Em − En ) (xj )µν = me (Em − En ) ψµ(m) , xj ψν(n) .
~ ~
Autor: Rudi Gaelzer – IF/UFRGS Início: 06/2013 Impresso: 29 DE AGOSTO DE 2018
214 5.9. Aplicações físicas da teoria de representações de grupo
Ou seja,
3 E2
2πme 2
X D
2
w≈ ρ (m) (E − E ) |A0j | ψµ(m) , exj ψν(n) δ (Em − En − ~ω) .
3 m n
~ j=1
O exemplo a seguir apresenta uma aplicação particular da metodologia delineada nesta seção
para determinar as regras de seleção para transições.
Exemplo (Regras de seleções para transições do tipo dipolar em uma molécula trian-
gular). Considere um sistema formado por três átomos idênticos ligados quimicamente de tal
forma que no estado estacionário os mesmos se encontrem nos vértices de um triângulo equi-
látero. Este sistema possui a evidente isometria do grupo pontual C3v , obtido no exercício 3.11.
Por sua vez, as suas representações irredutíveis foram obtidas no exercício 5.1 (pelo isomorfismo
S3 ↔ C3v ) e a tabela de caracteres deste grupo foi obtida no exemplo 5.3. A tabela 5.5 é repetida
aqui, explicitamente em termos das classes do C3v .
Uma perturbação (de pequena amplitude) que incide sobre esta molécula irá excitar osci-
lações harmônicas na mesma, de tal forma que a simetria triangular é quebrada. Em outras
palavras, a perturbação irá provocar transições entre estados vibracionais da molécula. Se as
oscilações induzidas pela perturbação são do tipo dipolo elétrico, então a probabilidade de tran-
(m) (n)
sição depende do elemento de matriz ψµ , xj ψν (j = 1, 2, 3). Neste caso, para determinar-se
as regras de seleções de dipolo elétrico para este sistema, é necessário primeiro determinar as
propriedades de transformação do operador posição r = (x, y, z). Para tanto, será aplicado o
procedimento delineado nesta seção.
Assumindo que a molécula se situa no plano x − y, o eixo z está orientado ao longo do eixo
de rotação do triângulo. Supondo que as oscilações ocorrem somente no plano da molécula, a
coordenada z permanece invariante frente a todas as operações de transformação do C3v . Por
outro lado, as coordenadas (x, y) podem servir como funções de base para gerar a representação
irredutível de dimensão 2, i. e., Γ(3) (C3v ). Portanto, o operador r transforma-se, neste sistema
de coordenadas, de acordo com
D̂0 (r) = Γ(1) ⊕ Γ(3) ,
onde a representação identidade Γ(1) ocorre devido à invariância do sistema na direção z.
Como é necessário realizar-se produtos diretos de representações irredutíveis do grupo P0 ,
isomórfico a C3v , é útil verificar quais são as possíveis decomposições em irreps que podem ser
obtidas. Usando resultados obtidos nas seções 5.6.5 e 5.8, obtém-se a tabela abaixo, a qual
apresenta os caracteres dos produtos diretos das irreps e suas decomposições.
L
⊗ CE Cσv16 CC3 Γ ⊗ Γ = aΓ
Γ(1) ⊗ Γ(1) 1 1 1 Γ(1)
Γ(1) ⊗ Γ(2) 1 -1 1 Γ(2)
(1) (3)
Γ ⊗Γ 2 0 -1 Γ(3)
(2) (2)
Γ ⊗Γ 1 1 1 Γ(1)
(2) (3)
Γ ⊗Γ 2 0 -1 Γ(3)
(3) (3)
Γ ⊗Γ 4 0 1 Γ(1) ⊕ Γ(2) ⊕ Γ(3)
Nota-se que somente verificou-se a condição fraca, isto é, somente verificou-se quais transi-
ções são proibidas. Para confirmar se as transições listadas como permitidas acima realmente
podem ocorrer, é necessário ainda verificar se D̂0 (r) ⊗ Γ(n) possui algum componente que se
transforma conforme a µ-ésima coluna de Γ(m) .
R EFERÊNCIAS
BARATA, João Carlos Alves. Notas para um Curso de Física-Matemática. São Paulo: USP. Versão
de 28/02/2018. Disponível em: <http://denebola.if.usp.br/~jbarata/Notas_de_aula/>.
BASSALO, José Maria F.; CATTANI, Mauro Sérgio D. Teoria de Grupos. Segunda edição. São
Paulo: Livraria da Física, 2008. 286 + ix pp. ISBN: 9788578610005.
FAZZIO, A.; WATARI, K. Introdução à Teoria de Grupos: com Aplicações em Moléculas e Sólidos.
Santa Maria: UFSM, 1998. 239 pp. ISBN: 85-7391-010-0.
GOLDSTEIN, H.; POOLE, C.; SAFKO, J. Classical Mechanics. Third Ed. New York: Addison Wes-
ley, 2001. 638 + xi pp. ISBN: 978-0201657029.
HAMERMESH, Morton. Group Theory and Its Application to Physical Problems. New York: Dover
Publications, 2012. (Dover Books on Physics). ISBN: 9780486140391. Disponível em: <http:
//books.google.com.br/books?id=w6PDAgAAQBAJ>.
JACKSON, J. D. Classical Electrodynamics. Third. New York: John Wiley & Sons, 1999. 808 +
xxi pp. ISBN: 0-471-30932-X.
JOSHI, A. W. Elements of Group Theory for Physicists. Third Ed. New Delhi: John Wiley & Sons,
1982. 348 + xv pp. ISBN: 0-470-27306-2.
MESSIAH, Albert. Quantum Mechanics: Two Volumes Bound as One. Mineola: Dover, 1999. 1136
+ xxii pp. ISBN: 0-486-40924-4.
RILEY, K. F.; HOBSON, M. P.; BENCE, S. J. Mathematical Methods for Physics and Engineering.
Third Ed. Cambridge: Cambridge University Press, 2006. 1333 + xxvii pp. ISBN: 9781139450997.
Disponível em: <http://books.google.com.br/books?id=Mq1nlEKhNcsC>.
SAKURAI, J. J.; NAPOLITANO, J. Modern Quantum Mechanics. San Francisco: Addison-Wesley,
2011. 550 + xviii pp. ISBN: 9780805382914. Disponível em: <https://books.google.com.
br/books?id=N4I-AQAACAAJ>.
SCHIFF, Leonard I. Quantum mechanics. Second. New York: McGraw-Hill, 1955. (International
series in pure and applied physics). Disponível em: <https://books.google.com.br/books?
id=XujUaYBU5oEC>.
SZEKERES, Peter. A Course in Modern Mathematical Physics: Groups, Hilbert Space, and Differen-
tial Geometry. Cambridge: Cambridge University Press, 2004. ISBN: 9780521536455. Disponível
em: <http://books.google.com.br/books?id=pRgjkgEACAAJ>.
TINKHAM, M. Group Theory and Quantum Mechanics. [S.l.]: Dover Publications, 2012. (Dover
Books on Chemistry). 340 + xii pp. ISBN: 9780486131665. Disponível em: <https://books.
google.com.br/books?id=oe7DAgAAQBAJ>.
YOSIDA, Kôsaku. Functional Analysis. Sixth. Berlin: Springer-Verlag, 1980. (Grundlehren der
mathematischen Wissenschaften). ISBN: 9783662117910. Disponível em: <https : / / books .
google.com.br/books?id=xWrvCAAAQBAJ>.
217
218 6.1. Introdução e definições
século XX, esta área da álgebra e análise matemáticas passou a ser denominada em definitivo
como análise tensorial, tendo a sua popularização muito a dever com a proposta, em 1915, da
teoria da relatividade geral formulada por Albert Einstein (1879 – 1955). Durante a formulação
da teoria da relatividade geral, inteiramente baseada no conceito de tensores, Einstein contou
com a colaboração intensa tanto de Levi-Civita quanto do matemático Marcel Grossmann (1878
– 1936).
O desenvolvimento da análise tensorial também está ligada ao estudo da mecânica de meios
contínuos, sendo o tensor de stress, o qual determina as tensões internas que surgem no meio
quando este é submetido a esforços aplicados em diferentes direções do espaço, uma das quan-
tidades físicas que surgiram desde os primeiros estudos nesta área da física e engenharia.
De uma forma genérica, tensores são objetos geométricos que descrevem relações lineares
entre escalares, vetores e outros tensores. Na formulação da álgebra e análise tensoriais, as
quantidades físicas identificadas usualmente como escalares e vetores são elas próprias casos
particulares de tensores. Porém, esta formulação realiza a extensão lógica destes conceitos,
permitindo o tratamento de estruturas matemáticas mais abstratas e complexas. Esta extensão
possibilitou o desenvolvimento posterior das áreas da física mencionadas acima (entre outras).
Como já mencionado, tensores são importantes em muitas áreas da física, as quais estudam
diferentes tipos de sistemas, tais como sólidos, gases ionizados, teoria eletromagnética, relativi-
dade restrita e geral e mecânica quântica. Um meio contínuo inomogêneo e/ou anisotrópico é
um exemplo típico de sistema físico onde o conceito e a necessidade do uso de tensores ocorrem
de forma natural.
Um exemplo inicial pode ser mencionado a partir do problema do fluxo de corrente elétrica
em um meio anisotrópico. A Lei de Ohm é apresentada em textos de física básica como
J = σE, (6.1)
sendo que o conjunto de 9 valores {σ11 , σ12 , . . . , σ32 , σ33 } pode ser expresso na forma matricial.
Assim, a forma generalizada (6.2a) para a Lei de Ohm pode ser expressa também como uma
multiplicação matricial,
J1 σ11 σ12 σ13 E1
J2 = σ21 σ22 σ23 E2 . (6.2b)
J3 σ31 σ32 σ33 E3
Os 9 elementos da matriz de condutividade {σij } (i, j = 1, . . . , 3) estão relacionados entre si tanto
do ponto de vista do seu significado físico, sendo os valores da condutividade do meio em função
da orientação relativa entre os campos E e J , quanto do ponto de vista matemático, uma vez
que a matriz de condutividade obedece as regras da álgebra de matrizes.
Porém, verifica-se, também de forma empírica, que os elementos da matriz {σij } obedecem a
um conjunto de regras mais amplo que a simples álgebra matricial. Estas regras determinam,
por exemplo, como as quantidades físicas em (6.2) devem se alterar quando é realizada uma
mudança no sistema de referências do laboratório, ou quando se muda o sistema de coorde-
nadas em um dado referencial. Observa-se então que os elementos do conjunto {σij } devem se
transformar de forma a satisfazer a definição de um tensor, sendo que estas regras de trans-
formação também são verificadas empiricamente. Portanto, a denominação mais correta para o
conjunto {σij } é tensor de condutividade do meio anisotrópico, o qual pode ser expresso na forma
matricial. Usualmente, empregando-se as propriedades microscópicas do meio ou fazendo uso
de propriedades de simetria, é possível se mostrar que diferentes componentes do tensor de
condutividade estão relacionadas entre si.
• Quando há índices mudos e livres em uma expressão, não é permitida a permuta de ca-
racteres entre os mesmos. Ou seja, em geral
• Ao se introduzir novos índices mudos em uma expressão, deve-se tomar cuidado para não
repetir índices já presentes, quer sejam estes mudos ou livres. Ou seja, a troca
não é permitida, pois gera uma ambiguidade na maneira como as somas implícitas devem
ser realizadas.
Símbolo (ou tensor) de Levi-Civita. Trata-se da quantidade ijk , com três índices, a qual esta-
belece uma relação totalmente anti-simétrica entre os índices. A sua definição é
+1, se {i, j, k} é uma permutação par de {1, 2, 3}
ijk = −1, se {i, j, k} é uma permutação ímpar de {1, 2, 3}
0, se dois ou mais índices são repetidos
1
= [(j − i) (k − i) (k − j)] .
2
Alguns exemplos: 123 = 231 = 312 = +1, 213 = 132 = 321 = −1 e 113 = 122 = 111 = 0.
Algumas propriedades matemáticas importantes que fazem uso dos símbolos acima são as
seguintes:
ai = δij aj (6.3a)
aij δjk = aij δkj = aik (6.3b)
aij bji = aij bjk δk` (6.3c)
δij δik = δjk (6.3d)
δii = 3 (6.3e)
δi` δim δin
ijk `mn = det δj` δjm δjn (6.3f)
δk` δkm δkn
ijk `mk = kij k`m = δi` δjm − δim δj` (6.3g)
ijk `jk = 2δi` (6.3h)
ijk ijk = 6 (6.3i)
ijk δij = 0. (6.3j)
da Lei de Ohm (6.1) ou (6.2) podem ser generalizadas considerando-se a relação entre dois cam-
pos vetoriais quaisquer A = A (r) e B = B (r), dada por
Ai = αij Bj ,
sendo αij = αij (r) a matriz que descreve a relação constitutiva entre os campos.
Nesta seção será iniciada a discussão de tensores Cartesianos e suas transformações. Se-
rão considerados objetos matemáticos denominados escalares, vetores e tensores em geral, aos
quais serão atribuídas as noções intuitivas de campos escalares, vetoriais ou tensoriais, res-
pectivamente. Uma definição mais rigorosa destes campos será apresentada posteriormente.
Para o presente momento, será assumido que todos os campos envolvidos (escalares, vetoriais e
tensoriais) existem em um espaço vetorial particular, o espaço vetorial Euclideano de dimensão
três, denotado por E 3 . O espaço E 3 é, na verdade, um espaço afim que é também um espaço
vetorial métrico no qual a norma induz a métrica. A definição do E 3 foi realizada no exemplo 4.5.
Um espaço Euclideano é aquele no qual as noções geométricas intuitivas de espaço, dimensão
e deslocamento em um sistema de coordenadas Cartesiano ou retangular 2 são respeitadas, em
conjunto com as noções algébricas de vetores posição que ligam o origem do sistema com um
dado ponto do espaço e de vetores deslocamento que são setas orientadas que ligam dois pontos
quaisquer no referencial. Por ser um espaço afim, o E 3 identifica tanto “pontos” do espaço, os
quais podem ser ocupados por partículas, por exemplo, como “linhas orientadas”, que são os
vetores posição e deslocamento. Por ser também um espaço métrico, o comprimento de qualquer
segmento de reta pode ser obtido pela fórmula de Pitágoras, concordando assim com medidas
experimentas das posições e deslocamentos das partículas. As definições realizadas no exemplo
4.5 para um espaço de dimensão 3 pode ser automaticamente generalizada para o E n , o qual é
o espaço Euclideano de dimensão (finita) n.
Sobre o substrato algébrico/geométrico fornecido pelo espaço E 3 , atribui-se agora a cada
ponto do mesmo um campo escalar φ = φ (r) ≡ φ (x1 , x2 , x3 ) ou um campo vetorial A = A (r) ≡
A (x1 , x2 , x3 ). Portanto, os campos escalares e os componentes dos campos vetoriais que perten-
cem a este espaço são funções do vetor posição
r = xi êi ≡ x1 ê1 + x2 ê2 + x3 ê3 , (6.4)
ou seja,
A = A (r) ≡ A (x1, x2 , x3 ) = Ai (r) êi .
Em (6.4), o conjunto de vetores ortonormais { ê1 , ê2 , ê3 } forma uma base do espaço E 3 . Neste
caso,
em se tratando de um sistema Cartesiano, emprega-se a base canônica { ê1 , ê2 , ê3 } =
ı̂, ̂, k̂ , onde ı̂ = (1, 0, 0), ̂ = (0, 1, 0) e k̂ = (0, 0, 1). Como é usual, assume-se que o sistema de
coordenadas Cartesiano é dextrógiro, isto é, a base canônica obedece a relação3
êi × êj = ijk êk . (6.5)
Algumas propriedades básicas de escalares e vetores que pertencem ao espaço Euclideano
frente a transformações no sistema de coordenadas serão brevemente discutidas agora. Em
seguida, esta discussão será generalizada para tensores Cartesianos em geral.
A hipótese de que as quantidades físicas apresentem propriedades matemáticas bem defini-
das frente a certos tipos de transformação de coordenadas impõe limitações e exigências impor-
tantes às leis físicas. É necessário, portanto, discutir-se em algum detalhe as propriedades de
transformação de algumas quantidades físicas escalares ou vetoriais.
Alguns dos tipos mais importantes de transformações de coordenadas para a física são rota-
ções, reflexão espacial ou transformação de paridade e reversão temporal. Já para a relatividade
restrita, também são fundamentais as mudanças entre diferentes referenciais inerciais, dadas
por uma translação entre os dois referenciais. Embora a rotação seja o tipo de transformação
para o qual será dado a maior atenção neste capítulo, é importante realizar-se também uma
breve discussão a respeito das outras transformações.
6.2.1 R OTAÇÕES
Uma rotação no E 3 é uma transformação linear das coordenadas, realizada em torno de
um ponto fixo e de tal forma que a norma do espaço permaneça invariante. Este ponto fixo
2 Ver figuras 4.1.
3 Esta relação segue a definição de produto vetorial entre vetores do R 3 dada em (4.3).
(a) (b)
R
R x3
R´
R´ r
x’3
r x’2
x2
x1
x’1
Figura 6.1: (a) Rotação sobre o plano (x1 , x2 ) (em torno do eixo x3 ) por um ângulo θ. (b) Rotação arbitrária
de eixos em torno da origem do sistema de coordenadas. Pode-se observar que em ambos os casos as rotações
mantêm a norma do vetor r invariante.
sistema rotado.
Atribuindo-se agora uma realidade física ao vetor posição r, assume-se que o espaço é isotró-
pico; isto é, não há direção preferencial ou, em outras palavras, todas as direções são equivalen-
tes. Então, o sistema físico em estudo, para o qual uma lei física está sendo aplicada fazendo-se
uso de quantidades vetoriais, não pode depender da orientação do sistema de coordenadas.
Como consequência desta exigência, necessariamente
r 0 = r =⇒ xi êi = x0i ê0i . (6.6)
ê01 , ê02 :
Observando-se a figura 6.1a, percebe-se a seguinte relação imediata entre { ê1 , ê2 } e
para os vetores unitários, sendo que o símbolo “T” indica a transposição da matrix. Neste caso,
a transformação (6.7a) pode ser representada pela multiplicação matricial
Para uma rotação em torno de um eixo, somente um ângulo se faz necessário. Já no caso
geral, é necessário pelo menos um ângulo adicional, mas esta rotação arbitrária sempre pode
ser escrita em termos da matriz quadrada S de ordem 3, cujos elementos são funções de um ou
mais parâmetros (ângulos) fixos. Para se construir essa matrix de rotação S para o caso geral,
retorna-se inicialmente à figura 6.1a e define-se o cosseno diretor
. .
Sji = ê0i · êj = cos θji ,
o qual é a projeção do vetor ê0i sobre o vetor êj . Este cosseno diretor é simplesmente o cosseno
do ângulo θij entre os vetores de base. Ou seja, pode-se escrever
ê01 = cos θ11 ê1 + cos θ21 ê2 = cos θ ê1 + sen θ ê2
ê02 = cos θ12 ê1 + cos θ22 ê2 = − sen θ ê1 + cos θ ê2 ,
onde foi chamado θ11 = θ e, por consequência, θ21 = π2 − θ, θ22 = θ e θ12 = π2 + θ, de onde resultam
as últimas expressões. Fazendo referência agora à figura 6.1b, observa-se que uma rotação geral
do referencial R0 em relação a R pode sempre ser expressa em termos dos 9 cossenos diretores
{θij }. Contudo, será mostrado em seguir que somente 3 desses ângulos são independentes entre
si.
A expressão (6.7a) descreve uma mudança de bases na transformação { êi } → ê0i de um
se obter uma
0 relação
entre as coordenadas dos sistemas, ou seja, para escrever x0i = x0i ({xj })
ou xi = xi xj . Antes, porém, com o intuito de simplificar a notação, introduz-se a matriz de
transformação L tal que L = S−1 . Introduzindo então as relações (6.7a,b) em (6.6), resulta
( 0
xi = S−1 ij xj = Lij xj
( 0
êi = L−1 ji êj = Lij êj
=⇒ (6.7c)
êi = Lji ê0j xi = Sij x0j = L−1 ij x0j = Lji x0j .
T
Cabe ressaltar agora que, definindo-se a matriz coluna r = x1 x2 x3 , as transformações de
coordenadas acima podem ser representadas pelas multiplicações matriciais
r0 = Lr, r = L−1 r0 .
Comparando esta condição com a definição da matriz inversa de L, Lij L−1 ki = δjk , resulta que
L−1 = LT , sendo esta última a transposta da matriz L. A segunda expressão em (6.8) é con-
sequência disto. Portanto, as leis desejadas para a transformação dos sistemas de coordenadas
podem ser escritas como ( 0 (
êi = Lij êj x0i = Lij xj
0 ⇐⇒ (6.9a)
êi = Lji êj xi = Lji x0j .
A condição de ortogonalidade (6.8) também leva à seguinte classificação para a classe de
rotações executadas no sistema de coordenadas. Escrevendo (6.8) na forma matricial, sendo I a
matriz identidade, e calculando-se o determinante, resulta
2
LLT = I =⇒ det LLT = det (L) det LT = [det (L)] = 1.
Classifica-se, então,
det (L) = +1 ; Rotações próprias
(6.9b)
det (L) = −1 ; Rotações impróprias.
Em (6.9b), uma rotação própria é aquela em que a transformação R → R0 pode ser obtida por
uma sequência de rotações infinitesimais. Já uma rotação imprópria corresponde a uma reflexão
dos eixos (transformação de paridade), seguida por uma rotação própria.
A partir das relações de mudança de bases (6.7a,b) e lembrando que a matriz L depende
somente de parâmetros fixos, as seguintes relações também podem ser deduzidas,
Lembrando finalmente dos cossenos diretores, escreve-se Lij = êi · êj = cos θij e então, a
partir da condição de ortogonalidade (6.8), resultam as equações
Vetores (tensores de posto um). Seja A ≡ A (r) = Ai (r) êi uma quantidade física representada
por um conjunto de três quantidades escalares {Ai (r)} no E 3 , quando medidas em relação
ao sistema de coordenadas Cartesiano R. Ao se aplicar uma rotação arbitrária R → R0 ao
sistema de coordenadas, descrita pela matriz L, as componentes desta quantidade física
passam a ser representadas por {A0i (r)}. A quantidade A (r) é, então, um vetor ou um
tensor de posto um se e somente se a relação equivalente a (6.9a), ou seja,
A0i = Lij Aj , (6.10)
também se aplica entre suas componentes nos respectivos sistemas de coordenadas.
Posteriormente serão apresentadas algumas quantidades físicas vetoriais.
Tensores de posto (ou ordem) dois. Antes de se introduzir uma definição formal de tensores,
será feita uma breve menção sobre tensores de posto dois, uma vez que estes aparecem
com frequência em problemas físicos. A relação constitutiva (Lei de Ohm) (6.2) mostra que
em um meio anisotrópico a relação entre os vetores J e E é determinada pela matriz de
condutividade {αij }, a qual possui 9 elementos no E 3 . Esta matriz será a representação de
um tensor de posto dois (tensor de condutividade elétrica) se e somente se, após realizada
a transformação R → R0 , quando seus elementos serão então transformados {αij } → αij
0
,
estes elementos se relacionarem por
0
αij = Lik Lj` αk` .
Além do tensor de condutividade elétrica, outros exemplos de tensores de posto dois são o
tensor de campo eletromagnético e o tensor energia-momento, também denominado tensor
de stress de Maxwell.
Finalmente, pode-se também classificar rotações e outras
transformações como passivas ou ativas.
x2
Transformação passiva. Em uma transformação passiva o sis-
tema físico é mantido inalterado e somente o sistema de co- q1
ordenadas é alterado. As rotações ilustradas na figura 6.1 q2
são exemplos de transformações passivas. r1́
r2́
Transformação ativa. Já em uma transformação ativa, o refe- q2
rencial é mantido fixo e a transformação é aplicada ao sis- r2 q1
tema físico em estudo. A figura 6.2 ilustra uma rotação ativa r1
realizada sobre um sistema composto por duas cargas elé-
tricas interagentes. O
1 x
Na seção seguinte será realizada uma definição formal de ten-
sores, partindo das leis de transformação (6.9a-e) aqui deduzidas.
Figura 6.2: Exemplo de uma
Antes, porém, outros tipos de transformações serão brevemente transformação ativa.
discutidos.
A → A0 = −A quando r → −r.
Um vetor axial ou pseudovetor é aquela quantidade B = B (r) que frente a uma transfor-
mação de paridade comporta-se como
B → B 0 = B.
Transformação ímpar. Uma quantidade física é ímpar frente a uma reversão temporal se a lei
física que a determina muda de sinal frente a esta transformação.
Um exemplo de quantidade ímpar é o momentum de uma partícula, pois
dr t→−t dr
p= −−−→ − = −p.
dt dt
Tabela 6.1: Propriedades de transformação de algumas quantidades físicas na mecânica clássica e no eletro-
magnetismo.
Rotação (posto Inversão Reversão
Quantidade Física
do tensor) Espacial Temporal
Mecânica Clássica
Posição r 1 Polar Par
Momentum linear p 1 Polar Ímpar
Momentum angular L=r×p 1 Axial Ímpar
Força F 1 Polar Par
Torque τ =r×F 1 Axial Par
Energia Cinética p2 /2m 0 Escalar Par
Energia potencial U (r) 0 Escalar Par
Eletromagnetismo
Densidade de carga ρ (r) 0 Escalar Par
Densidade de corrente J (r) 1 Polar Ímpar
Campo elétrico E (r) 1 Polar Par
Deslocamento elétrico D (r) 1 Polar Par
Polarização P (r) 1 Polar Par
Indução magnética B (r) 1 Axial Ímpar
Campo magnético H (r) 1 Axial Ímpar
Vetor de Poynting S=E×B 1 Polar Ímpar
Tensor de stress Tij 2 Tensor Par
• C ∞ (R), o conjunto de todas as funções reais que possuem derivadas em todas as ordens.
Estas funções também são denominadas de funções suaves.
• L1 [a, b], o conjunto de todas as funções reais cujo valor absoluto é integravel no intervalo
[a, b] ⊂ R.
A partir desta definição de espaços funcionais é possível prosseguir com a definição de cam-
pos tensoriais em geral. Inicialmente serão tratados os campos escalares e vetoriais, os quais
serão em seguida generalizados.
Definição 6.1 (Campo escalar). Seja U ⊂ E n uma região do espaço Euclideano E n de dimensão
n. Um campo escalar φ da classe C r sobre U é o mapeamento
φ : U 7−→ K
A aparente simplicidade desta concepção visual do que é um campo vetorial esconde uma
complexidade intrínseca devido ao conjunto de objetos matemáticos distintos envolvidos e nas
suas interrelações. Um campo vetorial é composto por vetores, que são os componentes de um
espaço vetorial. Observando com atenção a definição do que é um espaço vetorial, realizada na
seção 4.1, nota-se que os vetores são, estritamente, objetos algébricos, i. e., não lhes é atribuída
a priori nenhuma estrutura geométrica ou analítica. Porém, um campo vetorial também possui
uma concepção geométrica inerente, uma vez que o campo se distribui no espaço a partir do(s)
agente(s) gerador(es). Além disso, para o seu cálculo, o campo vetorial também necessita de
um sistema de referências, com um escala de medidas bem definida. Por isso, um campo
vetorial também deve ser um tipo de espaço métrico (definição 4.27). A estrutura matemática que
estabelece a interrelação entre um espaço vetorial e um espaço métrico é o espaço afim (definição
4.37), o qual estabelece de forma rigorosa os conceitos de vetores posição e deslocamento, os
quais localizam os pontos do espaço métrico através de setas orientadas que partem da origem
do sistema de coordenadas. Qualquer transformação de um ponto do espaço a outro é então
realizado pelo vetor deslocamento, o qual é uma seta orientada que parte do primeiro a termina
no segundo (nesta seção serão considerados campos vetoriais sobre o espaço vetorial Euclideano
E n , exemplo 4.5). Finalmente, sobre cada ponto r do espaço E n será atribuído um vetor do
campo vetorial, vinculado a esse ponto. Esse vetor terá a característica adicional de possuir
uma topologia, i. e., os conceitos de limite e continuidade são supostos válidos em relações aos
vetores do campo em pontos da vizinhança imediata de r, de tal forma que seja possível realizar
operações do cálculo infinitesimal (derivações ou integrações), pelo menos na vizinhança do
ponto.
Definição 6.2 (Campo vetorial). Seja E n = (En , R n ) o espaço vetorial Euclideano e seja U ⊂ E n
uma região deste espaço. Seja K n um espaço vetorial sobre o corpo K de dimensão n, o qual
pode ser o espaço real R n ou o espaço complexo C n (definições 4.3 e 4.4). Um campo vetorial A
da classe C r sobre U é o mapeamento
A : U 7−→ K n ,
Ak (r) ∈ C r (U ) , ∀k = 1, . . . , n.
Tripla (i). Se esta tripla realmente é um vetor, então espera-se que suas componentes transformem-
se como
Para verificar se isto ocorre, aplica-se a relação (6.12a), ou seja, vi0 = Lij vj , de onde se obtém
Como ambas as expressões são as mesmas, a quantidade v = (x2 , −x1 , x3 ) de fato é um vetor.
Tripla (ii). As componentes desta tripla devem se transformar como
as quais são distintas das expressões acima. Portanto este objeto não é um vetor.
Tripla (iii). Para este objeto, basta verificar que a primeira componente,
2
v10 = (x01 ) = x21 cos2 θ + x22 sen2 θ + 2x1 x2 sen θ cos θ
Esta propriedade possui aplicações físicas importantes, pois diversas quantidades escalares
como trabalho, energia potencial e densidade de energia nos campos eletromagnéticos são obti-
das a partir de produtos escalares de vetores. Estas propriedades são, respectivamente, propor-
cionais a F · dr, qE · dr, D · E e B · H.
11 Definição 6.1.
Levando em conta agora que deve existir uma lei de transformação x0i = x0i ({xj }) bem definida,
pode-se usar a regra da cadeia e escrever, usando (6.9e), (6.12a) e (6.8),
∂x0j ∂φ ∂φ ∂φ 0
A (r) → Lki ê0k = Lji Lki 0 ê0k = ê ,
∂xi ∂xj0 ∂xj ∂x0j j
Definição 6.3 (Tensor Cartesiano). Um tensor Cartesiano é aquele tensor cuja representação é
obtida a partir de uma base ortonormal do espaço vetorial Euclideano E n , no qual é empregado
o sistema Cartesiano de coordenadas. O número de índices necessário para identificar todos os
seus componentes determina o posto ou a ordem do tensor.
Da mesma maneira como foi argumentado para vetores na seção 6.3.3, o tensor como uma
entidade físico/matemática deve permanecer invariante frente a uma transformação no sistema
de coordenadas ou no referencial. Esta exigência fundamental estabelece simultaneamente a
lei de transformação de seus elementos ou componentes, bem como a própria definição de um
tensor de um determinado posto. Será apresentada primeiro a definição de um tensor do posto
dois.
Definição 6.4 (Tensor Cartesiano de posto 2). Seja E 3 o espaço vetorial Euclideano de dimen-
.
são 3 e ê = { ê1 , ê2 , ê3 } uma base ortonormal do mesmo. Seja T [ê] a matriz quadrada 3 × 3 cujos
elementos Tij [ê] estão representados na base ê. Seja também a transformação de coordenadas
ê → ê0 , em conjunto com a transformação inversa ê0 → ê, tais que
∂x0i ∂xi 0
ê0i = Lij êj = êj , êi = Lji ê0j = ê .
∂xj ∂x0j j
∂x0i ∂x0j
Tij0 = Lik Lj` Tk` = Tk` (6.13a)
∂xk ∂x`
0 ∂xi ∂xj 0
Tij = Lki L`j Tk` = T , (6.13b)
∂x0k ∂x0` k`
Da mesma maneira como foi realizado com vetores, os índices que identificam os distintos
componentes do tensor estão na posição inferior. Posteriormente, no contexto de tensores ge-
neralizados, será permitido o posicionamento de índices tanto na posição inferior (subíndices)
quanto na superior (superíndices). Isto será discutido na seção 6.7.
Como a extensão lógica da definição (6.13), considera-se agora uma matriz T [ê] de n dimen-
sões, isto é, a coleção de 3n quantidades identificadas pelo símbolo Tij···n [ê], o qual contém n
índices. Então, a seguinte definição é realizada.
Definição 6.5 (Tensor Cartesiano de posto n). Seja E 3 o espaço vetorial Euclideano de dimen-
.
são 3 e ê = { ê1 , ê2 , ê3 } uma base ortonormal do mesmo. Seja T [ê] a matriz cujos elementos
estão representados na base ê. A matriz T [ê] representa um tensor Cartesiano de posto n se e
somente se suas coordenadas se transformarem de acordo com a lei de transformação
Obviamente, a definição (6.14) contém os tensores de ordem zero, um e dois como casos
particulares.
Uma das desvantagens das definições 6.4 e 6.5 está no fato de não ser evidente a invariância
do tensor frente a transformação de coordenadas. Embora essa invariância possa ser demons-
trada, é interessante apresentar também uma definição mais moderna, a qual independe do
sistema de coordenadas e da base adotados para representar o tensor. A definição a seguir in-
terpreta um tensor de posto n como uma forma multilinear 12 que realiza a projeção do produto
Cartesiano V n do espaço vetorial V sobre o corpo subjacente K.
Definição 6.6 (Espaço tensorial (Cartesiano)). Seja V um espaço vetorial sobre o corpo K.
Seja
.
V n = V × ··· × V
| {z }
n vezes
T : V n 7−→ K
Retornando agora à discussão feita na página 228 sobre a concepção intuitiva de um campo
vetorial, dado o espaço vetorial Euclideano, sobre cada ponto do mesmo atribui-se um tensor
Cartesiano, cujos elementos são contínuos e diferenciáveis, de tal forma que seja possível a
aplicação de operadores íntegro-diferenciais sobre os mesmos.
Antes de se realizar a definição de um campo tensorial, é necessário definir um campo vetorial
generalizado.
12 Ver definição 4.13.
Definição 6.7 (Campo vetorial generalizado). Seja E m = (Em , R m ) o espaço vetorial Euclide-
ano de dimensão m e seja U ⊂ E m uma região deste espaço. Sejam A1 (r) , A2 (r) , . . . , An (r) um
conjunto de n campos vetoriais de dimensão m e da classe C r (U ). Um campo vetorial generali-
zado de ordem n e da classe C r sobre U é a mn -upla ordenada
.
A (r) = (A11 (r) , . . . , A1m (r) , A21 (r) , . . . , Aij (r) , . . . , Anm (r)) , (i = 1, . . . , n; j = 1, . . . , m) ,
Definição 6.8 (Campo tensorial Cartesiano). Seja E m = (Em , R m ) o espaço vetorial Euclide-
ano de dimensão m e seja U ⊂ E m uma região deste espaço. Seja T (r) um campo vetorial
generalizado de ordem n e da classe C r (U ). Sendo
uma componente deste espaço vetorial, se para todos {i1 , . . . , in = 1, . . . , m} esta componente se
transformar como um tensor Cartesiano de posto n (equações 6.14) frente a uma transformação
de coordenadas em E m , então T (r) forma um campo tensorial Cartesiano de posto n e da classe
C r sobre U .
2
(x02 ) −x01 x02
0
T = 2
−x01 x02 (x01 )
2
(−x1 sen θ + x2 cos θ) (x1 cos θ + x2 sen θ) (x1 sen θ − x2 cos θ)
= 2 .
(x1 cos θ + x2 sen θ) (x1 sen θ − x2 cos θ) (x1 cos θ + x2 sen θ)
Ou seja, as expressões para os componentes são idênticas, o que confirma que T é de fato um
tensor de posto 2.
Emprega-se agora a seguinte fórmula para o cálculo do determinante de uma matriz quadrada
de ordem 3: sendo A uma matriz qualquer, então
sendo que o primeiro termo a parte simétrica de Uij , enquanto que o segundo termo é a sua
parte antissimétrica.
Considerando agora um tensor de posto N qualquer, seja {Tijk···r } o conjunto de componentes
de T . Se este tensor apresentar propriedade de simetria, então há duas possibilidades:
Tijk···r = Tjik···r , Tijk···r = Tkji···r , etc ; simétrico com respeito aos índices i e j ou i e k, etc;
Tijk···r = −Tjik···r , Tijk···r = −Tkji···r , etc ; antissimétrico com respeito aos mesmos índices.
Da mesma maneira, um tensor genérico U pode sempre ser escrito como uma combinação de
suas partes simétrica e antissimétrica, frente uma permutação de dois índices quaisquer, como
1 1
Uijk···r = (Uijk···r + Ujik···r ) + (Uijk···r − Ujik···r ) ,
2 2
ou
1 1
Uijk···r = (Uijk···r + Ukji···r ) + (Uijk···r − Ukji···r ) ,
2 2
etc.
A separação de tensores ou operadores em suas partes simétrica e antissimétrica é de ex-
trema importância em diversas disciplinas, tais como mecânica e eletromagnetismo de meios
contínuos e mecânica quântica.
A† = A∗ji .
ij
Como é sempre possível usar-se uma representação matricial para um tensor de posto dois, em
muitas aplicações físicas é aplicada a operação de conjugação hermitiana ao mesmo.
Da mesma forma como é definido para matrizes, portanto, um tensor de posto dois A é
hermitiano ou autoadjunto se satisfaz a propriedade
A = A† .
A = −A† .
A = AH + iAaH .
Em muitos meios descritos por tensores complexos, as respectivas partes hermitiana e anti-
hermitiana estão relacionadas com processos físicos distintos que ocorrem neste meio.
Exemplo 6.6. Em um meio contínuo, linear e homogêneo, mas anisotrópico e dissipativo, a
relação constitutiva entre o campo elétrico E e o vetor deslocamento elétrico D pode ser escrita,
no espaço de Fourier, como
Di (k, ω) = εij (k, ω) Ej (k, ω) ,
onde k e ω são, respectivamente, o vetor de onda e a frequência angular das ondas que se
propagam neste meio e {εij } são as componentes do tensor dielétrico do meio. Para este meio,
o teorema de Poynting, que descreve a conservação de energia entre campos e partículas, pode
ser escrito como
∂U ω
+ ∇· (v g U ) = − E· εaH ·E,
∂t 8π
sendo v g = ∂ω/∂k a velocidade de grupo das ondas e13
" #
1 ∂ ωεH
U= : EE
8π ∂ω
Tij = ai bj .
Os componentes Tij resultantes desta construção de fato pertencem ao tensor T , o que pode ser
facilmente demonstrado. Se isto for verdade, então na transformação R → R0 devem resultar os
componentes
Tij0 = a0i b0j .
6.4.4.2 D IÁDICAS
No caso particular de tensores de posto dois, uma outra representação, um tanto ultrapas-
sada mas ainda empregada em alguns textos, é a de uma diádica. Esta é uma outra maneira
de se representar o produto externo de dois vetores, estendendo a álgebra vetorial usual e re-
sultando em um tensor. Dados os vetores a e b, a diádica T é obtida pela simples justaposição
destes vetores, ou seja,
T = ab = ai bj êi êj .
Uma vantagem que esta notação possui está na praticidade de realização de produtos de
diádicas entre si ou com vetores, como será mostrado a seguir. Contudo, em se tratando de
uma prática em desuso, será dada preferência para a notação de produto externo introduzida
em (6.16).
Considera-se agora o caso mais geral de produto externo entre dois tensores arbitrários.
Dado o tensor T de posto M e o tensor U de posto N , o produto externo destes gera o tensor V
com posto M + N , cujas componentes são
Vi · · · pq · · · v = T i · · · p Uq · · · v .
| {z } | {z } | {z }
M +N índices M índices N índices
V = T ⊗ U.
6.4.5 C ONTRAÇÃO
A definição do produto externo, na seção 6.4.4, possibilitou a construção de um tensor de
um dado posto a partir de outros tensores de ordem mais baixa. Processos inversos também
são definidos na álgebra tensorial, ou seja, operações aplicadas sobre um determinado tensor
de posto N que reduzem o seu posto, resultando em outro tensor de posto N − 2. Uma destas
operações é denominada de contração de índices ou, simplesmente, contração. Uma outra opera-
ção, denominada produto interno, está relacionada com a contração dos índices e será também
discutida. Obviamente, para que esta operação tenha sentido, é necessário que N > 2.
Dado um tensor T de posto N > 2, uma contração deste tensor consiste em tomar qualquer
par de seus índices, representá-los com o mesmo símbolo e executar então a sua soma implícita.
A resultante desta operação será um novo tensor U de posto N − 2. Dado então o conjunto
{Tijk`···r }, as expressões a seguir apresentam algumas de suas possíveis contrações:
ou seja,
0
Uij···k = Lip Ljq . . . Lkn Upq···n ,
ou que mostra que U é realmente um tensor de posto N − 2.
c = a · b. (6.17)
De acordo com a terminologia aqui empregada, trata-se de um produto entre dois tensores de
posto um, resultando em um tensor do posto zero.
Estendendo o conceito de produto interno a tensores de posto mais alto e relacionando esta
operação com a definição de contração de índices anteriormente apresentada, pode-se dizer que
a operação realizada em (6.17) consiste, inicialmente, no produto externo dos vetores a e b,
resultando em um tensor de posto 2, seguida posteriormente pela contração dos índices deste
tensor, o que resulta finalmente em um escalar:
C = a ⊗ b ; c = Cii = ai bi .
No caso acima, foi realizada a contração no índices j de cada tensor. Obviamente, a contração
em outros índices irá gerar tensores de posto M +N −2 em geral distintos de D. Por conseguinte,
há diversos produtos internos possíveis entre tensores de ordem maior que dois.
C = ab = ai bj êi êj ,
Esta poderá sofrer produto interno com um outro vetor c, tanto à esquerda quanto à direita, re-
sultando nos vetores d e e, em geral distintos entre si. Além disso, o produto interno envolvendo
diádicas utiliza a mesma notação do produto escalar entre vetores. Assim,
d = c · C = ci ai bj êj
e = C · c = ai bj cj êi .
onde se fez uso de (6.5). Portanto, há quatro operações possíveis envolvendo uma diádica e um
vetor.
Existem também 7 possíveis produtos, tanto escalares quanto vetoriais, envolvendo duas
diádicas. Considerando agora os vetores a, b, c e d e as diádicas A = ab e B = cd, estas são
apresentadas na tabela 6.2.
A0ij···k···m Bnp···q···r
0 0
= Cij···k···mnp···q···r .
A0ij···k···m Lna Lpb . . . Lqc . . . Lrd Bab···c···d = Lie Ljh . . . Lks . . . Lmv Lna Lpb . . . Lqc . . . Lrd Ceh···s···vab···c···d ,
Lna Lpb . . . Lqc . . . Lrd A0ij···k···m Bab···c···d − Lie Ljh . . . Lks . . . Lmv Ceh···s···vab···c···d = 0.
Como a transformação é arbitrária, a equação acima somente pode ser satisfeita para todos os
componentes se
Como esta identidade deve ser satisfeita para qualquer tensor B, então, necessariamente,
Ou seja, a relação entre os conjuntos {A··· } e {A0··· } é idêntica à lei de transformação (6.14a).
Portanto, A é realmente um tensor de posto M .
O uso da regra do quociente para determinar se um determinado conjunto de objetos é de
fato um tensor consiste, muitas vezes, em uma maneira mais conveniente de se cumprir este
objetivo do que a aplicação direta das leis de transformação. Uma maneira particular de se
realizar esta tarefa consiste em efetuar contração de índices de forma a obter-se um escalar ou
um tensor de posto mais baixo.
A mesma conclusão obtida acima com relação ao produto externo de dois tensores também
é válida para o seu produto interno. Sendo novamente {Aij···k···m } um conjunto de M objetos e
B e D tensores de postos N e M + N − 2, respectivamente, então a relação
A0ij···`···m Bnp···`···r
0 0
= Dij···mnp···r ,
Lna Lpb . . . Lrd L`k A0ij···`···m Bab···k···d − Lie Ljh . . . Lmv Deh···vab···d = 0,
Exemplo 6.7. Use a lei do quociente para mostrar que a matriz T do exemplo 6.3 é realmente a
representação de um tensor de posto dois.
Resolução. Dado que a diádica rr é um tensor de posto dois, realiza-se a contração dupla
de índices das componentes desta diádica com a matriz T, o que pode ser representado pela
seguinte multiplicação matricial,
2
x1 x22 − x1 x22
x2 −x1 x2 x1
Tij xi xj = x1 x2 = x1 x2 = 0.
−x1 x2 x21 x2 −x21 x2 + x21 x2
Como o resultado desta contração é um escalar e rr é um tensor, então, pela lei do quociente,
T também deve ser um tensor.
Exemplo 6.8. Considera-se uma partícula de massa m rigidamente conectada à origem do re-
ferencial. Se r e p forem, respectivamente, a posição e momentum linear instantâneos da partí-
cula, então a i-ésima component de seu momentum angular é dada por
Li = (r × p)i = ijk xj pk .
p = mv = m (ω × r) ,
sendo ω a sua velocidade angular instantânea. Portanto, Li pode ser escrito, fazendo uso de
(6.3), como
A quantidade
Iij = m r2 δij − xi xj
a00i = Lij aj ,
(2) (1)
Lij = Lik Lkj −→ L = L(2) L(1) .
E11 = cos ψ cos φ − cos θ sen φ sen ψ E12 = cos ψ sen φ + cos θ cos φ sen ψ E13 = sen ψ sen θ
E21 = − sen ψ cos φ − cos θ sen φ cos ψ E22 = − sen ψ sen φ + cos θ cos φ cos ψ E23 = cos ψ sen θ
E31 = sen θ sen φ E32 = − sen θ cos φ E33 = cos θ.
Na técnica dos ângulos de Euler, a matriz de rotação geral é construída a partir de três rotações
consecutivas, realizadas sempre no sentido anti-horário e em torno de um determinado eixo de
rotação.
Os ângulos de Euler são apenas uma das formas de se implementar uma rotação arbitrária
em três dimensões. De uma forma genérica, estas rotações parciais são realizadas com as
seguintes matrizes
1 0 0 cos θ2 0 − sen θ2 cos θ3 sen θ3 0
L(1) = 0 cos θ1 sen θ1 L(2) = 0 1 0 L(3) = − sen θ3 cos θ3 0 ,
0 − sen θ1 cos θ1 sen θ2 0 cos θ2 0 0 1
(3)
a0i = Lij aj ' (δij + ij3 δθ3 ) aj .
Figura 6.4: Ângulos de Euler usualmente empregados para executar uma rotação arbitrária no sistema de
coordenadas. (a) Primeira rotação: sentido anti-horário em torno de x3 , por um ângulo φ. (b) Segunda
rotação: sentido anti-horário por um ângulo θ em torno do eixo x01 . (c) Terceira rotação: sentido anti-horário
por um ângulo ψ em torno de x03 .
Realizando a mesma consideração para as outras matrizes de rotação, observa-se que a forma
infinitesimal das mesmas é
(1) (2) (3)
Lij = δij + ij1 δθ1 , Lij = δij + ij2 δθ2 , Lij = δij + ij3 δθ3 .
Assim, é possível compor-se uma rotação infinitesimal arbitrária, dada por L = L(3) L(2) L(1) a qual,
em ordem mais baixa nas rotações, é dada por
(3) (2) (1)
Lij = Lik Lk` L`j ' δij + ijk δθk , (6.18)
a qual é visivelmente comutável nesta ordem. Pode-se facilmente inverter a relação acima com
o auxílio de (6.3h,j) para obter
1
δθi = ijk Ljk .
2
Qualquer rotação arbitrária pode então ser a princípio realizada com a composição de um
número grande de rotações arbitrárias executadas pela matriz (6.18).
Tij = Tji .
Tij = λδij ,
Pij = −δij ,
seguida por uma rotação própria, executada pela matriz de rotação L(p) . Pode-se então construir
a matriz de rotação imprópria L(i) pela composição
(i) (p)
Lij = Lik Pkj ,
onde se verifica facilmente que det L(i) = det (P) = −1.
Conforme já foi introduzido na seção 6.2.2, um objeto de ordem zero é classificado como um
escalar ou pseudoescalar se este é, respectivamente, invariante ou muda de sinal frente a uma
transformação imprópria. Objetos físicos classificados como escalares consistem usualmente
nas propriedades intrínsecas da matéria tais como massa de repouso e carga elétrica, as quais
são assumidas invariantes frente a transformações arbitrárias por princípios que devem ser con-
tinuamente corroborados experimentalmente, sob as mais diversas condições. Adicionalmente,
outras quantidades físicas escalares, tais como trabalho mecânico e potencial elétrico, são obti-
das via produtos internos entre vetores. Por sua vez, objetos classificados como pseudoescalares
são usualmente construídos através de produtos internos entre vetores e pseudovetores; estes
objetos serão mencionados novamente a seguir.
Prosseguindo, um objeto de primeira ordem será denominado vetor polar ou, simplesmente,
vetor se satisfizer as leis de transformação (6.12), quer ela seja própria ou imprópria. Já um
vetor axial, que é na maior parte dos textos denominado também como pseudovetor, pode ser
definido então como uma tripla ordenada B = (B1, B2 , B3 ) que obedece as leis de transformação
onde det (L) 6= +1. Para transformações ortogonais, det (L) = −1.
A figura 6.5 ilustra uma transformação de paridade (P) ou inversão espacial (passiva) aplicada
a um referencial dextrógiro R. O primeiro aspecto digno de nota é que a transformação P
altera a quiralidade do referencial empregado, isto é, o referencial R dextrógiro transformou-se
no referencial R0 levógiro. Esta alteração de quiralidade não pode ser realizada por nenhuma
composição de rotações próprias.
Um vetor polar, tal como o vetor r representado na figura 6.5 tem seus componentes trans-
formados de acordo com (6.12); simultaneamente, os vetores de base { êi } também são transfor-
mados, de acordo com (6.7c), como ê0i = Pij êj . Portanto,
(
P xi → x0i = Pij xj = −xi
r− → r0 : mas r 0 = x0i ê0i = Pij Pik xj êk = xj êj = r,
êi → ê0i = Pij êj = − êi
x3
R B
r x´1
ê3 ê´1
P r´
ê2 x2 x´2 ê´2
ê1 ê´3
x1
B´ R´
x´3
Figura 6.5: Um sistema dextrógiro de coordenadas (R) é transformado em um sistema levórigo (R0 ) através de
uma transformação de paridade P. Observa-se também os comportamentos de um vetor (r) e de um pseudovetor
(B) frente a esta transformação.
uma vez que a transformação P é ortogonal. Ou seja, um vetor polar é um objeto geométrico
cujas características (módulo, direção e sentido) não são alteradas alteradas por uma transfor-
mação (própria ou imprópria).
Por outro lado, um vetor axial transforma-se de acordo com a lei (6.20), sendo o vetor axial
B representado na figura 6.5 um exemplo. Frente a uma inversão espacial, este se transforma
como
P
B− → B 0 : Bi → Bi0 = −Pij Bj = Bi , mas B 0 = Bi0 ê0i = −Pij Pik Bj êk = −B.
Ou seja, uma transformação de paridade inverte o sentido de um vetor axial, embora ele se
comporte como um vetor frente a transformações próprias. Diz-se então que os componentes
desta terna ordenada compõe um pseudovetor ou um pseudotensor Cartesiano de posto um.
Estendendo então o conceito de um pseudotensor a objetos de ordens mais altas, a defi-
nição de um tensor Cartesiano de ordem N é mantida como aquele objeto cujos componentes
transformam-se de acordo com a lei (6.14) frente a qualquer transformação (própria ou impró-
pria). Por sua vez, um pseudotensor de posto N é agora definido como aquele objeto cujos
componentes transformam-se de acordo com a lei de transformação
0
Tij···n = det (L) Lip Ljq . . . Lnr Tpq···r (6.21a)
0
Tij···n = det (L) Lpi Lqj . . . Lrn Tpq···r . (6.21b)
L(i)
{ijk } −−→ 0ijk /0ijk = det L(i) ijk = −ijk .
L(i)
(i) (i) (i) (i) (i)
c −−→ c0 = a0 × b0 =⇒ c0i = 0ijk a0j b0k = det L(i) Li` Ljm Ljq Lkn Lkr `mn aq br
x3 x3
x3
ê3 ê3
ê2 x2 x´2 ê´2
ê1 ê1
x1 x1x1 x1x1
B´ B
x2
J´ J
x1 (a) (b)
Figura 6.6: Reflexão sobre o plano x1 − x3 . (a) O vetor polarização elétrica P (polar) transforma-se em P 0 , o
qual é sua imagem especular. (b) O vetor indução magnética B (axial), frente a uma reflexão espacial, resulta
com a sua imagem especular invertida.
(i)
= det L(i) Li` `mn aq bn ,
(i)
c0i = det L(i) Li` c` ,
obedecendo a (6.20). A tabela 6.1 mostra exemplos de vetores axiais na mecânica clássica e no
eletromagnetismo.
Em termos das operações algébricas definidas na seção 6.4, a possibilidade de ocorrência
de operações mistas envolvendo tensores e pseudotensores merecem alguma consideração. Em
primeiro lugar, a operação de adição não faz sentido neste caso. Assumindo que a é um vetor
polar e c um vetor axial, então um possível objeto b decorrente da operação b = a + c seria
transformado, de acordo com (6.12a) e (6.20) como
L
→ b0 = a0 + c0 =⇒ b0i = a0i + c0i = Lij aj + det (L) Lij cj = Lij [aj + det (L) cj ] ,
b−
o que não satisfaz nenhuma das leis de transformação. Em particular, para transformações
impróprias, |c0 | = |a − c|!
Já o produto externo envolvendo tensores e pseudotensores pode resultar em objetos de
ordens mais altas de diferentes naturezas. Na construção do objeto Z realizada por
Z = A ⊗ B ⊗ · · · ⊗ Y,
são obtidos por operações de reflexão no plano, representadas na figura 6.6. Uma reflexão sobre
o plano x1 − x3 é realizada por intermédio da matriz de transformação
1 0 0
P(r) = 0 −1 0 .
0 0 1
Neste caso, um vetor polar como a polarização elétrica P transforma-se, de acordo com (6.12a),
como
P(r)
P −−→ P 0 = (P1 , −P2 , P3 ) ,
ou seja, somente a componente P2 muda de sinal, o que corresponde à imagem especular de P
sobre um espelho colocado no plano x1 − x3 . Esta operação está representada na figura 6.6a.
Já um vetor axial, como a indução magnética B, por exemplo, transforma-se, de acordo com
(6.20), como
P(r)
B −−→ B 0 = (−B1 , B2 , −B3 ) ,
o que corresponde a uma reflexão especular seguida por uma inversão de sentido. Esta operação
está ilustrada na figura 6.6b. Nesta, uma espira circular que conduz uma corrente elétrica com
densidade J , gerando assim o campo B de acordo com a lei de Biot-Savart, também é refletida
sobre o plano x1 − x3 . Como posição e J são polares, os vetores transformados são as imagens
especulares destes. Porém, o campo B sofre adicionalmente uma inversão, resultando em uma
componente B2 inalterada.
A análise do comportamento das leis físicas frente a transformações de paridade é um tópico
importante na atualidade. Dentre as quatro interações fundamentais, as equações da gravi-
tação, do eletromagnetismo e das interações fortes são invariantes frente a transformações de
paridade.
Por exemplo, a imagem especular do campo B gerado pela corrente J na espira, ilustrada
na figura 6.6b, está orientada de tal forma que as leis de Biot-Savart e Faraday permanecem
válidas em um mundo virtual que seria a reflexão especular do mundo real. A operação de
reflexão, ditada por P(r) , transforma-se em uma inversão espacial completa, ditada por P, se a
imagem especular for girada em 180◦ em torno do eixo x2 (figura 6.5). Neste caso, a imagem
refletida seria indistinguível do sistema físico real. Portanto, para uma interação invariante
com a transformação de paridade, o mundo virtual é indistinguível do mundo real, o que está
em acordo com a suposição de que leis físicas devem ser invariantes frente a transformações
realizadas sobre o referencial utilizado.
Já a interação fraca apresenta uma quebra de simetria no de-
caimento β. Dentre os léptons sujeitos à interação fraca, somente
partículas cujos spins estao no sentido levógiro e anti-partículas
com spins no sentido dextrógiro interagem através da força fraca.
A combinação inversa é proibida pelo modelo padrão, violando a
paridade da interação.
Esta quebra de paridade foi sugerida por T. D. Lee e C. N. Yang
em 1956 e verificada no ano seguinte por dois experimentos in-
dependentes. O primeiro experimento consistiu na observação de
elétrons emitidos pelo decaimento β de núcleos de cobalto, con-
forme está representado na figura 6.7. A baixas temperaturas,
a maior parte dos núcleos podem ser mantidos com seus spins
alinhados com um campo magnético externo. O elipsóide da es-
querda na figura ilustra um grande número de núcleos de 60 27 Co,
os quais decaem de acordo com a fórmula
60
27 Co −→ 60
28 Ni + e− + ν̄e + γ.
Figura 6.7: Violação de paridade
A seta vermelha indica o sentido de giro dos núcleos, o que sig- no decaimento β de núcleos de
nifica que estes têm seu spin no sentido dextrógiro. Já a imagem cobalto-60.
da direita representa a imagem especular e, portanto, o sentido
do spin nuclear S N é invertido por ser um vetor axial. No experimento, os elétrons emitidos por
decaimento β com momentum linear pe mostraram uma correlação notável com o pseudoescalar
hN e = S N · pe , sendo emitidos preferencialmente na direção e sentido determinados por hN e < 0.
De acordo com a teoria eletrofraca, os elétrons emitidos são levógiros (he < 0) e os anti-neutrinos
do elétron (ν̄e ) são dextrógiros (hν̄ > 0).
Na imagem especular à direita na figura 6.7, o spin nuclear S N resulta invertido, mas pe não
o é, resultando em uma inversão de sinal dos pseudoescalares hN e , he e hν̄ . A inversão espacial
torna-se completa se o espelho for girado em 180◦ , quando então o spin nuclear volta a sua
orientação original, mas os elétrons seriam observados sendo emitidos preferencialmente para
cima.
Em outras palavras, a imagem no mundo virtual é distinguível do sistema físico real, ao
contrário do que ocorre com as outras interações fundamentais. A dependência da força fraca
com o pseudoescalar hN e cria uma violação do princípio de invariância na transformação de
paridade que não é observada nas outras interações fundamentais. Adicionalmente, a helicidade
dos léptons envolvidos no decaimento β também seria invertida em comparação com o mundo
real, o que ressalta ainda mais a violação de paridade nesta interação fundamental.
O outro experimento foi realizado em um anel de cíclotron e investigou a helicidade dos
léptons emitidos nos decaimentos
π + −→ µ+ + νµ
µ+ −→ e+ + νe + ν̄µ .
Este experimento verificou a polarização sugerida por Lee & Yang, segundo a qual as partículas
são emitidas no sentido levógiro enquanto que as anti-partículas são dextrógiras. Esta prefe-
rência na helicidade das partículas e anti-partículas que interagem via força fraca evidenciam a
quebra de paridade na interação.16
Uma observação importante deve ser feita agora relativa à realidade física dos pseudotenso-
res. Alguns textos argumentam que objetos geométricos tais como vetores e tensores somente
podem ser atribuídos a quantidades que possuem realidade física se não forem alterados por
transformações arbitrárias no sistema de coordenadas. Neste caso, pseudovetores e pseudoten-
sores deveriam ser considerados meramente objetos matemáticos abstratos que não poderiam
descrever quantidades tais como momentum angular e indução magnética.
A solução para este aparente dilema é encontrada se as transformações de paridade não
forem realizadas de forma passiva, como foi assumido até este momento, mas sim de forma
ativa, isto é, o sistema físico é fisicamente rotado em torno da origem do referencial por 180◦ , de
tal forma que
P (ativa)
r −−−−−→ r 0 = −r.
A figura 6.8 ilustra uma inversão espacial ativa em torno da origem. Neste caso, o sistema de
coordenadas permanece sempre dextrógiro, mas as quantidades vetoriais são transformadas de
acordo com sua paridade frente a esta inversão ativa. Qualquer rotação passiva posteriormente
aplicada após a inversão será sempre própria, e assim a quiralidade do referencial não é alterada
e, portanto, todas os objetos geométricos são tensores que satisfazem as leis de transformação
(6.14).
Realizando esta inversão ativa, os vetores podem então ser classificados como vetores polares,
os quais são ímpares frente à inversão, tais como os vetores r e p na figura 6.8 e vetores axiais,
os quais são pares frente à inversão, tais como os vetores L = r × p e S (spin). Agora, porém,
ambos os tipos de vetores podem ser classificados como tensores de posto um, uma vez que todas
as transformações doravante aplicadas ao sistema de coordenadas serão próprias.
Contudo, é importante mencionar também que pseudoescalares ainda são necessários para
teorias físicas que prevêem quebra de paridade, tal como a teoria eletrofraca. Na interpretação de
que transformações de paridade devem ser ativas, estes pseudoescalares continuam existindo.
Um exemplo é fornecido pelos vetores p e S na figura 6.8, onde se verifica que a helicidade
h = p · S continua mudando de sinal, mesmo frente a uma transformação de paridade ativa.
Pode-se verificar também que o produto externo misto entre vetores polares e axiais continua
gerando tensores de postos mais altos, mas o produto interno entre dois tensores criados desta
maneira pode resultar em um pseudotensor.
16 A violação da simetria quiral possui uma importância vital na bioquímica e na genética. Uma discussão atual a
dr dr
r+ L0
r P (ativa)
−−−−−−−→
x2 r0 x2
dr 0 0
x1 dr
0 + x1
r
0
p
S0
Figura 6.8: Inversão espacial ativa realizada sobre um sistema físico. Vetores polares são invertidos, mas vetores
axiais permanecem invariantes.
1 1
ui = ijk TijA = ijk (Tij − Tji ) ⇐⇒ TijA = ijk uk .
2 4
Autor: Rudi Gaelzer – IF/UFRGS Início: 01/2013 Impresso: 29 DE AGOSTO DE 2018
252 6.7. Tensores generalizados
ei · j = δij .
ei · ej = δij , (6.23)
sendo δij o mesmo tensor delta de Kronecker discutido em detalhes na seção 6.1.2.
Pela mesma razão, as coordenadas curvilíneas do ponto P serão também doravante identifi-
cadas por índices superescritos P = q 1 , q 2 , q 3 , de tal forma que as bases passam a ser obtidas
pelas expressões
∂r
ei = i e ei = ∇q i . (6.24)
∂q
Nestas expressões nota-se que a derivação em relação a uma coordenada cujo índice está na
posição superior resulta em um objeto com o mesmo índice na posição inferior.
Posteriormente, será demonstrado que o operador derivação em relação a coordenada contra-
variante q i ∂/∂q i comporta-se, frente a uma transformação qualquer, como o i-ésimo compo-
nente de um vetor covariante. Em muitos textos, costuma-se escrever, de forma resumida,
∂
∂i ≡ .
∂q i
De forma equivalente,
∂
∂i ≡,
∂qi
o qual se comporta como a i-ésima coordenada de um vetor contravariante.
Dadas bases (6.24), um vetor a ∈ E 3 qualquer será escrito em termos de combinações lineares
das mesmas de duas formas equivalentes,
a = a1 e1 + a2 e2 + a3 e3 = ai ei
a = a1 e1 + a2 e2 + a3 e3 = ai ei .
Da mesma forma como foi mencionado para a expressão (1.9), as coordenadas ai são deno-
minadas as componentes contravariantes do vetor a, ao passo que as coordenadas {ai } são as
componentes covariantes do mesmo. A posição dos índices distingue os dois tipos de compo-
nentes entre si. Por conseguinte, os vetores {ei } formam uma base covariante no E 3 , ao passo
i
que e formam uma base contravariante no mesmo espaço vetorial. Obviamente, os diferentes
componentes do vetor a são dados por
ai = a · ei e ai = a · ei .
A distinção entre coordenadas covariantes e contravariantes não foi realizada para tensores
Cartesianos porque neste sistema ambas as bases são idênticas. Contudo, em sistemas genera-
lizados isto não é necessariamente verdade.
A partir deste momento, a designação de tensores também deverá ser alterada, em função
das distintas posições que seus índices podem adotar. Uma definição formal de um tensor de
posto arbitrário será realizada posteriormente. Neste momento, será empregado somente um
tensor de posto dois, para exemplificar a identificação. Um tensor T de posto dois pode ser
escrito e/ou construído de diferentes maneiras. Se for empregado o produto externo de dois
vetores a e b, escritos em termos de uma ou ambas as bases em (6.24), as possibilidades são:
1. Sendo a = ai ei e b = bi ei , então T = a ⊗ b = ai bj ei ⊗ ej , de onde se identifica T ij = ai bj , os
quais são os componentes contravariantes do tensor T .
2. Sendo a = ai ei e b = bi ei , então T = a ⊗ b = ai bj ei ⊗ ej , identificando-se T ij = ai bj como os
componentes mistos do tensor T . Outra possibilidade é T = Ti j ei ⊗ ej .
3. Sendo a = ai ei e b = bi ei , então T = ai bj ei ⊗ ej , identificando-se Tij = ai bj como os compo-
nentes covariantes do tensor T .
É importante ressaltar que T ij , T ij ou Tij formam três conjuntos distintos de componentes
do mesmo tensor T , porém correspondentes a diferentes construções dos vetores de base do
sistema de coordenadas.
As expressões acima envolvendo o produto escalar entre dois vetores merece uma maior aten-
ção neste momento. Na notação tensorial covariante empregada nesta seção, uma contração de
índices (ou seja, a soma implícita dos mesmos) somente será realizada se um estiver na posição
contravariante e o outro na posição covariante. De acordo com esta convenção, o produto esca-
lar entre os vetores a e b somente pode ser escrito na forma usual, ou seja, em termos da soma
dos produtos das respectivas coordenadas dos mesmos, da seguinte maneira,
a · b = ai bi ou a · b = ai bi . (6.25a)
Este resultado está garantido graças à condição de reciprocidade (6.23), pois com esta pode-se
escrever
a · b = ai ei · bj ej = ai bj ei · ej = ai bj δji = ai bi ,
(6.25b)
ou vice-versa. Esta discussão terá prosseguimento na próxima seção, quando for discutida a
operação de elevação ou rebaixamento de índices.
Rn ≡ R × · · · × R = q 1 , . . . , q n | q j ∈ R, j = 1, . . . n
| {z }
n vezes
o conjunto de todas as n-uplas ordenadas obtidas a partir do produto Cartesiano do corpo dos
números reais e com valores determinados por um sistema de coordenadas X. Seja d` um
elemento de arco medido em X e cujo valor é determinado pela métrica Riemanniana
Os componentes do tensor de métrica são obtidos a partir da base covariante {ei } e são dados
por (1.8),
gij = ei · ej , (6.27a)
o que mostra claramente que o tensor de métrica é simétrico.
Se o sistema de coordenadas é ortogonal, ei · ej = 0 para j 6= i. Neste caso, é conveniente
empregar-se mais uma vez os fatores de escala hi , definidos em (1.11), com os quais se pode
escrever a base ortonormal { êi } como êi = ei /hi , ressaltando-se que neste caso i é um índice
livre. Assim, o tensor de métrica fica escrito simplesmente como
O tensor de métrica possui uma outra função na álgebra tensorial covariante que é de ex-
trema importância. Ele possibilita alterar-se a posição (contra- ou covariante) de um determi-
nado índice (livre ou mudo).
Para se mostrar como esta operação ocorre, retoma-se a discussão do produto escalar entre
os vetores a e b realizada no final da seção anterior. Ressaltando que, como estes são tensores de
posto um, o objeto resultante de seu produto interno deve ser um escalar, que possui o mesmo
valor seja qual for a representação ou sistema de coordenadas adotado para os vetores. Por isto,
uma expressão alternativa às obtidas acima para o produto escalar é
a · b = ai ei · bj ej = ai bj ei · ej = gij ai bj ,
onde se nota o surgimento do tensor de métrica, devido a sua definição. Comparando-se com
uma das expressões (6.25), percebe-se que, necessariamente,
ai = gij aj .
a · b = ai ei · bj ej = g ij ai bj .
Nota-se agora que ai = g ij aj , ou seja, foi realizada a elevação o índice para a posição contravari-
ante por intermédio também do tensor de métrica.
A capacidade do tensor de métrica de realizar a mudança na posição de um determinado
índice não se restringe aos componentes de tensores de posto um. Este pode ser empregado
também para mover o índice de um vetor de base. Ou seja, se ek · ej = δkj , multiplicando-se
ambos os lados por gji e realizando a soma implícita,
Portanto, observa-se que ei = gij ej , uma vez que o tensor de métrica é simétrico. A partir do
produto externo, verifica-se facilmente que o tensor de métrica pode realizar a mesma operação
em qualquer índice de um tensor de posto dois ou superior, ou seja,
T ij = T ik gkj ou T ij = T ik g kj , etc.
Finalmente, a relação entre gij e g ij também é facilmente derivada. Dado o i-ésimo compo-
nente do vetor a, pode-se escrever
Finalmente, a forma mista (contra- e covariante) do tensor de métrica pode ser obtida dire-
tamente do resultado anterior, empregando-se o mesmo para alterar a posição de um de seus
índices,
g ij = g ik gkj = δji . (6.30)
d`2 = dr · dr = gij dq i dq j .
Considera-se agora a base canônica. De acordo com o que foi demonstrado no exercicio 1.2,
para sistemas ortogonais resulta { x̂i } = x̂i . Além disso, como os fatores de escala são todos
unitários, resulta também que xi = xi . Assim, os vetores de base {ei } podem ser novamente
expressos, conforme as definições (6.24) e (1.7a), como
∂r ∂xj ∂xj j
ei = i
= x̂j = x̂ ≡ H ji x̂j = Hji x̂j , (6.31)
∂q ∂q i ∂q i
respectivamente, sendo agora
∂xi ∂xi
H ij = e Hij = j ,
∂q j ∂q
Portanto,
d3 r = H i1 H j2 H k3 x̂i · ( x̂j × x̂k ) dq 1 dq 2 dq 3 = ijk H i1 H j2 H k3 dq 1 dq 2 dq 3 .
lembrando que
∂ x1 , x1 , x3
J ≡ det (H) =
∂ (q 1 , q 2 , q 3 )
é o Jacobiano da transformação do sistema Cartesiano ao curvilíneo. Esta é novamente a ex-
pressão para o elemento de volume já obtida em (1.21b).
Agora, o determinante do tensor de métrica também pode ser calculado com as expressões
acima. Usando então a expressão (6.32) para o mesmo,
2
det (g) = ijk g1i g2j g3k = ijk H`i Hmj Hnk H `1 H m2 H n3 = det (H) `mn H `1 H m2 H n3 = [det (H)] .
Ou seja, p
e1 · (e2 × e3 ) = det g
e o elemento de volume pode ser escrito na forma generalizada como
p
d3 r = det gdq 1 dq 2 dq 3 ,
o qual é um resultado importante, válido também para sistemas de coordenadas não ortogonais.
Algumas relações adicionais envolvendo as bases e o tensor de métrica são úteis para aplica-
ções posteriores. Em primeiro lugar, o produto triplo entre os vetores da base covariante pode
ser escrito de uma forma geral como
√
ei · (ej × ek ) = gijk , (6.34)
o que pode ser facilmente verificado. No resultado acima, definiu-se g ≡ det (g) para simplificar
a notação.
Deseja-se agora escrever os vetores de uma base como combinações lineares de vetores da
base recíproca. Isto é realizado através da operação de elevação ou rebaixamento de índices
executada pelo tensor de métrica, isto é,
ei = g ij ej e ei = gij ej .
Porém, empregando-se (6.33c) e (6.29), pode-se escrever 2gg ij = ik` jmn gmk gn` . Portanto, para
ei ,
1 ik` jmn
ei = gkm g`n ej .
2g
Empregando-se novamente as relações (6.31) e (6.32), resulta então
1 ik` jmn q r 1
ei = H k H ` Hqm Hrn Hpj x̂p = √ ik` qrp H qk H r` x̂p ,
2g 2 g
onde foi usado também (6.33a). Comparando este resultado com o produto
conclui-se que
1
ei = √ ik` (ek × e` ) . (6.35a)
2 g
Uma outra expressão útil pode ser agora obtida a partir deste resultado,
1 ik` jmn
ei × ej = (ek × e` ) × (em × en ) .
4g
Como (a × b) × (c × d) = d· (a × b) c − c· (a × b) d, o produto triplo (6.34) mostra que
1 ik` jmn 1
ei × ej = [en · (ek × e` )] em = √ ijk ek , (6.35b)
2g g
√
g
ei = ijk ej × ek . (6.35c)
2
Finalmente, se o sistema de coordenadas for ortogonal, então de (6.27b) e de (6.29) pode-se
deduzir a forma para os componentes contravariantes do tensor de métrica. Se j 6= i, resulta
gik g kj = 0 =⇒ h2i g ij = 0 =⇒ g ij = 0, (j 6= i) .
q i = q i q 01 , q 02 , q 03
(6.36b)
∂r ∂q 0j ∂r
= ,
∂q i ∂q i ∂q 0j
então os vetores das bases {ei } e {e0i } relacionam-se através da relação
∂q 0j 0
ei = e .
∂q i j
Como um vetor qualquer a ∈ E 3 pode ser escrito em termos de qualquer uma destas bases,
∂q 0i 0
a = ai ei = a0i e0i =⇒ a0i e0i = aj e,
∂q j i
isto significa que a lei de transformação dos componentes contravariantes do vetor a deve ser
∂q 0i j
a0i = a . (6.37a)
∂q j
Esta será então a condição necessária e suficiente para que um conjunto de objetos ai formem
as componentes contravariantes de um tensor de posto um.
Considerando-se agora a situação inversa, sabendo que
∂r ∂q j ∂r
= ,
∂q 0i ∂q 0i ∂q j
em virtude da transformação inversa (6.36b), observa-se que
∂q j
e0i = ej .
∂q 0i
Portanto, para o vetor a escreve-se
∂q i
a = a0i e0i = ai ei =⇒ ai ei = a0j ei ,
∂q 0j
ou seja,
∂q i 0j
ai = a , (6.37b)
∂q 0j
a qual é a transformação inversa de (6.37a).
Por outro lado, considerando agora a base e0i , pode-se escrever o operador ∇ em termos
de suas componentes Cartesianas, obtendo-se então
∂q i k ∂q i ∂q 0j k ∂q i
∇q i = x̂ = x̂ = ∇q 0j .
∂xk ∂q 0j ∂xk ∂q 0j
Ou seja,
∂q i 0j
ei = e .
∂q 0j
∂q j
a = ai ei = a0i e0i =⇒ aj e0i = a0i e0i ,
∂q 0i
ou seja, a lei de transformação dos componentes covariantes do vetor a deve ser
∂q j
a0i = aj . (6.38a)
∂q 0i
Esta será a condição necessária e suficiente para que o conjunto {ai } contenha os componentes
covariantes de um tensor de posto um.
Realizando agora a transformação inversa, escreve-se
∂q 0i ∂q 0i ∂q j ∂q 0i
∇q 0i = k
x̂k = j k
x̂k = ∇q j .
∂x ∂q ∂x ∂q j
Ou seja,
∂q 0i j
e0i = e .
∂q j
Assim,
∂q 0j i
a = a0i e0i = ai ei =⇒ ai ei = a0j e,
∂q i
ou seja, a transformação inversa de (6.38a) é
∂q 0j 0
ai = a . (6.38b)
∂q i j
Partindo das leis de transformação (6.37) e (6.38), definem-se agora os componentes con-
travariante, mistos e covariantes de um tensor generalizado de posto dois T respectivamente
como
∂q 0i ∂q 0j k`
T 0ij = T
∂q k ∂q `
∂q 0i ∂q ` k
T 0ij = T
∂q k ∂q 0j `
∂q k ∂q `
Tij0 = 0i 0j Tk` .
∂q ∂q
Pode-se generalizar agora a definição de um tensor com um número arbitrário de índices con-
travariantes e/ou covariantes. Esta forma generalizada possui várias designações na literatura.
Assumindo que o tensor T possua r índices na posição contravariante e s índices na posição
covariante, o seu posto é N = r + s e este é denominado um tensor do tipo (r, s) ou tensor
de valência (r, s) ou ainda tensor r-vezes contravariante e s-vezes covariante. A notação
empregada também varia na literatura. De acordo com a notação empregada neste texto até o
presente momento, os índices mistos de um tensor devem apresentar-se espaçados. Contudo,
esta regra pode ser flexibilizada para facilitar a notação e visualização das expressões.
Portanto, um tensor T é do tipo (r, s) se os seus componentes transformarem-se de acordo
com
∂q 0i1 ∂q 0ir ∂q `1 ∂q `s k1 ···kr
T 0i1 ···irj1 ···js = · · · · · · T `1 ···`s . (6.39)
∂q k1 ∂q kr ∂q 0j1 ∂q 0js
Por conveniência de notação, estes componentes também podem ser representados simples-
···ir
mente por Tji11···j r
.
Os componentes do tensor generalizado definido por (6.39) seguem as mesmas regras algé-
bricas dos tensores Cartesianos discutidas na seção 6.4.
Exemplo 6.10. Verifique se a delta de Kronecker satisfaz a lei de transformação (6.39).
Resolução. Dado δji , se este símbolo é de fato um tensor misto de posto dois, então frente a
uma transformação de coordenadas generalizada,
∂q 0i ∂q ` k ∂q 0i ∂q k ∂q 0i
δ 0ij = δ ` = = = δji ,
∂q k ∂q 0j ∂q k ∂q 0j ∂q 0j
onde foi empregada derivação em cadeia. Ou seja, a delta de Kronecker possui os mesmos
componentes em qualquer sistema de coordenadas, demonstrando ser um tensor misto de posto
dois. A expressão (6.30) já havia mostrado que o tensor de métrica na forma mista é justamente
dado por esta delta.
Exercício 6.1. Mostre que gij = ei · ej são os componentes covariantes de um tensor de posto
dois.
Demonstração. Em uma transformação generalizada, a nova base {e0i } deve levar aos compo-
nentes
0
gij = e0i · e0j .
Usando a transformação inversa em (6.37b), resulta
0 ∂q k ∂q ` ∂q k ∂q `
gij = e k · e` = gk` .
∂q 0i ∂q 0j ∂q 0i ∂q 0j
a0i = K ji aj e ai = J ji a0j .
A partir da definição (6.41), os diferentes valores que o peso w pode assumir estabelecem
classificações dos tensores relativos que muitas vezes depende do texto consultado na litera-
tura. Uma classificação distingue entre densidades de tensores (autênticos) ou densidades
tensoriais e densidades de pseudotensores, quando o peso w é uma quantidade inteira. De
acordo com esta classificação, chamam-se:
Tensores verdadeiros ou absolutos: quando o peso é w = 0, ou seja, o tensor segue a lei (6.39).
Esta classificação exige que o peso w seja inteiro, uma vez que no caso contrário a transfor-
mação (6.41) não é necessariamente unívoca.
Uma outra classificação que pode ser encontrada, para a qual o peso w não necessita ser
necessariamente inteiro. Segundo esta classificação, as densidades de tensores podem ser:
Neste texto, a lei de transformação geral a ser adotada para tensores relativos continuará a
ser (6.41).
Exemplo 6.11. Sendo {gij } as componentes covariantes do tensor de métrica, mostre que o
determinante g = det (g) é uma densidade escalar de peso w = +2.
Resolução. Os componentes do tensor de métrica transformam-se de acordo com (6.39),
0 ∂q k ∂q `
gij = gk` .
∂q 0i ∂q 0j
g0 = KT gK.
Portanto,
g 0 = det (g0 ) = det KT gK = K 2 g,
o que mostra que g é uma densidade escalar (ou escalar relativo) de peso w = +2.
2. Tensores relativos de mesmo posto, tipo e peso podem ser adicionados e a soma resulta em
um outro tensor relativo com as mesmas características.
5. O resultado obtido no exemplo 6.11 mostra que qualquer tensor relativo T de peso w pode
gerar um tensor absoluto de mesmo posto através do produto externo
∂q ` ∂q m ∂q n
`mn = K `i K mj K nk `mn .
∂q 0i ∂q 0j ∂q 0k
Contudo, de acordo com a identidade matricial (6.33b), K `i K mj K nk `mn = Kijk . Portanto, a lei
de transformação correta para ijk , a qual irá resultar em um tensor 0ijk cujos componentes têm
os valores esperados para o símbolo de Levi-Civita em qualquer sistema de coordenadas, é
∂q ` ∂q m ∂q n
0ijk = K −1 `mn .
∂q 0i ∂q 0j ∂q 0k
∂q 0i ∂q 0j ∂q 0k `mn
= J i` J jm J kn `mn = Jijk = K −1 ijk .
∂q ` ∂q m ∂q n
∂q 0i ∂q 0j ∂q 0k `mn
0ijk = K ,
∂q ` ∂q m ∂q n
correspondendo a uma densidade tensorial de peso w = +1.
Usando a relação de reciprocidade (6.23), os valores de Γkij podem ser obtidos por
∂ei
Γkij = ek · . (6.42b)
∂q j
Com a mesma relação pode-se obter também a expressão para as derivadas de ei . Escrevendo
∂ei
= αi jk ek ,
∂q j
observa-se que
∂ei
ek · = αi jk .
∂q j
Porém, derivando a relação de reciprocidade, obtém-se que
∂ei
ek · = −Γi kj .
∂q j
Ou seja, αi jk = −Γi kj e
∂ei
= −Γi kj ek . (6.42c)
∂q j
Exercício 6.3. Mostre que o conjunto dos símbolos de Christoffel Γi kj não são componentes
de um tensor misto de terceira ordem.
Demonstração. Aplicando-se uma tranformação arbitrária sobre (6.42b), no novo sistema de
coordenadas resulta
∂e0
Γ0kij = e0k · 0ji .
∂q
Mas, conforme as leis de transformação (6.37) e (6.38), pode-se escrever
∂q j ∂q 0i j
e0i = ej e e0i = e ,
∂q 0i ∂q j
ou seja,
∂q 0k ` ∂
m
∂q
Γ0kij = e · 0j em
∂q ` ∂q ∂q 0i
∂q 0k
2 m
∂q m ` ∂em
∂ q `
= e · e m + e ·
∂q ` ∂q 0j ∂q 0i ∂q 0i ∂q 0j
∂q 0k ∂ 2 q` ∂q m ∂q n ` ∂em
= + e · ,
∂q ` ∂q 0j ∂q 0i ∂q 0i ∂q 0j ∂q n
∂q 0k ∂ 2 q ` ∂q 0k ∂q m ∂q n `
Γ0kij = + Γ . (6.43)
0j
∂q ∂q ∂q 0i
` ∂q ` ∂q 0i ∂q 0j mn
Observa-se que somente o segundo termo do lado direito está de acordo com a lei de transforma-
ção de um tensor de posto 3. A presença do termo adicional mostra que o símbolo de Christoffel
não é um tensor.
Uma expressão alternativa para o cálculo de Γkij , em termos do tensor de métrica, pode ser
obtida. Inicialmente, observa-se que o símbolo de Christoffel é simétrico frente a permutação
i ↔ j. Isto é facilmente demonstrado a partir da definição (6.24). Uma vez que
Realizando duas permutações cíclicas dos índices livres i, j e k neste resultado, resultam as
expressões
∂gjk
= Γ`ji g`k + Γ`ki gj`
∂q i
∂gki
= Γ`kj g`i + Γ`ij gk` .
∂q j
Somando as duas últimas expressões e subtraindo a primeira e fazendo uso da simetria de gij e
Γkij , resulta
∂gjk ∂gki ∂gij
+ − = 2Γ`ij gk` .
∂q i ∂q j ∂q k
Realizando o produto interno com g mk e usando (6.29), resulta finalmente
1 ∂gj` ∂g`i ∂gij
Γkij = g k` + − . (6.44a)
2 ∂q i ∂q j ∂q `
sendo que não existem somas implícitas nos índices duplos. Observa-se então que somente são
não nulos os símbolos onde i = 2 e/ou j = 2 e/ou k = 2. Ou seja,
1
Γφρφ = Γφφρ =
ρ
Γρφφ = −ρ.
∂ei
= [ij, k] ek , (6.45a)
∂q j
Como ei = gi` e` , resulta de (6.42b) a seguinte relação entre ambos os tipos de símbolos,
` k
[ij, k] = gk` Γ`ij = gk` ⇐⇒ Γkij = = g k` [ij, `] . (6.45c)
i j i j
∂v i
v i;j ≡ + Γikj v k ≡ v i,j + Γikj v k . (6.46a)
∂q j
0 ∂v 0i
v i;j = v 0i;j = + v 0k Γ0ikj .
∂q 0j
∂q ` ∂ ∂q 0i m ∂q 0k r ∂q 0i ∂ 2 q ` ∂q 0i ∂q m ∂q n `
v 0i;j = 0j ` v + v + Γ
∂q ∂q ∂q m ∂q r 0j
∂q ` ∂q ∂q 0k ∂q ` ∂q 0k ∂q 0j mn
∂q ` ∂ 2 q 0i m ∂q 0k ∂q 0i ∂ 2 q ` r ∂q ` ∂q 0i ∂v m ∂q 0i ∂q n m `
= v + 0j v + + v Γ mn .
∂q 0j ∂q ` ∂q m ∂q r ∂q ` ∂q ∂q 0k ∂q 0j ∂q m ∂q ` ∂q ` ∂q 0j
Mas os dois primeiros termos resultam
∂q ` ∂ 2 q 0i m ∂q 0k ∂q 0i ∂ 2 q ` r ∂q ∂ 2 q 0i ∂q 0i ∂q 0k ∂
` `
∂q
v + 0j v = + vm
0j `
∂q ∂q ∂q m r `
∂q ∂q ∂q ∂q 0k 0j
∂q ∂q ∂q` m ∂q ` m
∂q ∂q 0k ∂q 0j
∂δji
2 0i
∂q 0i ∂ 2 q `
0i `
∂q `
∂ q m ∂ ∂q ∂q
= m ` 0j
+ ` m 0j v = m ` 0j
v m = m v m = 0.
∂q ∂q ∂q ∂q ∂q ∂q ∂q ∂q ∂q ∂q
Portanto,
∂q 0i ∂q ` ∂v m ∂q 0i ∂q ` k
v 0i;j = + v n Γmn` = v ,
∂q m ∂q 0j ∂q ` ∂q k ∂q 0j ;`
o qual segue a lei de transformação de um tensor misto de posto dois.
Exemplo 6.13. Calcule a derivada covariante v i;j em coordenadas cilíndricas. Em seguida,
calcule a contração v i;i .
Resolução. Da definição (6.46) e dos valores de Γkij para as coordenadas cilíndricas obtidos
no exemplo 6.12, resulta, para {i, j} = {1, 2, 3} ≡ ρ, φ, x3 ,
∂v i δ iφ ρ
v i;j = v δjφ + v φ δjρ − ρv φ δ iρ δjφ .
j
+
∂q ρ
Realizando agora contração,
∂v i vρ 1 ∂ ∂v φ ∂v 3
v i;i = + = (ρv ρ
) + + ,
∂q i ρ ρ ∂ρ ∂φ ∂x3
a qual é exatamente a expressão para o divergente do campo v em coordenadas cilíndricas,
obtido na seção 1.5.1.
A expressão equivalente a (6.46), porém para os componentes covariantes do vetor v, pode
ser obtida derivando-se agora v = vi ei , com o emprego de (6.42c), ou seja,
∂ i ∂vi
− vk Γ ij ei .
k
vi e =
∂q j ∂q j
Chamando vi;j a derivada covariante da i-ésima componente covariante do vetor v, obtém-se
∂vi
vi;j = − Γkij vk = vi,j − Γkij vk . (6.47a)
∂q j
Portanto, pode-se escrever
∂v
= vi;j ei . (6.47b)
∂q j
Derivadas covariantes de tensores de ordens mais altas podem ser obtidas seguindo o mesmo
procedimento adotado acima. Por exemplo, um tensor de posto dois possui ao todo 4 representa-
ções: 1 contravariante, 1 covariante e 2 mistas. Para realizar em detalhes a derivação covariante
para os componentes contravariantes do tensor T , escreve-se o mesmo como T = T ij ei ⊗ ej .
Derivando-se então em relação a q k ,
∂T ∂
= k T ij ei ⊗ ej
∂q k ∂q
∂T ij ∂ei ∂ej
= k
ei ⊗ ej + T ij k ⊗ ej + T ij ei ⊗ k
∂q ∂q ∂q
ij
∂T
= + Γi`k T `j + Γj `k T i` ei ⊗ ej .
∂q k
Chamando então T ij;k como a derivada covariante dos componentes contravariantes do tensor
T , identifica-se
∂T ij
T ij;k = + Γi`k T `j + Γj `k T i` , (6.48a)
∂q k
podendo-se escrever
∂T
= T ij;k ei ⊗ ej .
∂q k
Pode-se mostrar facilmente que o conjunto T ij;k forma os componentes de um tensor de posto
três.
Expressões equivalentes a (6.48a) para as outras representações de T podem ser derivadas
da mesma maneira. Estas são:
onde o índice “, k” indica agora a derivação usual nesta coordenada, i. e., Tij,k = ∂Tij /∂q k .
Expressões para as derivadas covariantes de tensores de postos maiores que dois podem ser
derivadas seguindo os modelos fornecidos pelas expressões (6.46), (6.47) e (6.48a-c): a derivada
covariante de cada componente de um tensor de posto N é composta por N +1 termos. O primeiro
termo é sempre a derivada direta do componente em relação à coordenada; os demais N termos
são combinações de produtos dos símbolos de Christoffel com os componentes do tensor. Para
cada índice na posição contravariante, o termo correspondente na derivada covariante é somado,
enquanto que para cada índice covariante, o termo correspondente é subtraído. Em cada um
destes termos, o último índice do símbolo de Christoffel é sempre a coordenada que está sendo
derivada. Por sua vez, os demais índices são sempre tais que a convenção de somas implícitas é
respeitada para a particular representação do tensor que está sendo derivada.
A derivação covariante também serve para atribuir significado à aplicação do operador nabla
∂
∇ = ek (6.49)
∂q k
sobre um tensor de posto N , de tal forma que o objeto matemático resultante seja um tensor de
posto N +1 que satisfaz a lei de transformação. Por exemplo, para o tensor T em (6.48a-c), a ope-
ração U ≡ ∇T resulta em um tensor de posto três, sendo que algumas de suas representações
possíveis são
U = T ij;k ei ⊗ ej ⊗ ek = T ij;k ei ⊗ ej ⊗ ek = Tij;k ei ⊗ ej ⊗ ek .
Retornando rapidamente aos tensores de posto zero, ou seja, a escalares, como estes não
fazem uso de vetores de base para a sua representação, resulta que a derivada covariante é
idêntica a derivação direta, ou seja,
∂ψ
ψ;j = j = ψ,j .
∂q
Para a física em espaços curvos, em particular para a relatividade geral e gravitação, a deri-
vada covariante possui uma importância ímpar, pois
...(a) substituição consistente das derivadas parciais regulares por derivadas covari-
antes carrega as leis da física (na forma de componentes) a partir do espaço-tempo
plano para o espaço-tempo (Riemanniano) curvo da relatividade geral. De fato, esta
substituição pode ser tomada como uma expressão matemática do Princípio da Equi-
valência de Einstein.
Finalmente, um teorema importante para a derivada convectiva do tensor de métrica é apre-
sentado a seguir.
Teorema 6.1 (Teorema de Ricci). A derivada covariante do tensor de métrica é identicamente
nula.
Demonstração. Este teorema será inicialmente demonstrado para a forma covariante do tensor
de métrica. De acordo com (6.48c),
gij;k = gij,k − Γ`ik g`j − Γ`jk gi` .
Então, introduzindo (6.44) na expressão acima e usando também (6.45c), resulta
gij;k = gij,k − [ik, j] − [jk, i]
1 1 1 1 1 1
= gij,k − gji,k − gij,k − gkj,i + gjk,i + gik,j − gki,j = 0.
2 2 2 2 2 2
Empregando as relações entre as formas contravariante e mista do tensor de métrica, é fácil
demonstrar que este teorema é válido também para estas formas.
Em particular, o teorema de Ricci implica na seguinte expressão para a derivada usual do
tensor de métrica,
∂gij
≡ gij,k = [ik, j] + [jk, i] , (6.50a)
∂q k
a qual, com o uso de g ik gkj = δji , resulta em
∂g ij
≡ g ij,k = −g i` Γj `k − g j` Γik` . (6.50b)
∂q k
Pode-se ver que neste caso simples a expressão resultante coincide com (1.23).
∂
v = v i ei =⇒ ∇v = v i ei ⊗ ej = v i;j ei ⊗ ej ,
∂q j
onde foi introduzida a derivada covariante (6.46). Portanto, o divergente de v é dado pela con-
tração
∂v i
∇ · v = v i;i = i + Γiki v k .
∂q
Usando agora a expressão (6.44) para os símbolos de Christoffel, observa-se que
1 ∂gi` ∂gk` ∂gki 1 i` ∂gi`
Γiki = g i` k
+ i
− = g , (6.52)
2 ∂q ∂q ∂q ` 2 ∂q k
Por outro lado, o termo restante em (6.52) pode ser simplificado fazendo-se uso do seguinte
lema.
Lema. Sendo as matrizes a (q) = [aij ] e b (q) = bij tais que b = a−1 , e sendo a = det (a), então
∂a ∂aij
= abji k . (6.53)
∂q k ∂q
1 ijk abc
a= aai abj ack .
6
Por outro lado, o elementos da matriz b podem ser expressos em termos dos elementos de a como
1 ik` jmn
bij = amk an` .
2a
Ou seja,
∂a ∂aij
= abji k .
∂q k ∂q
Embora o lema tenha sido demonstrado para uma matriz 3 × 3, pode-se mostrar que este
resultado independe da ordem da matriz.
Aplicando então a identidade (6.53) para o tensor de métrica e lembrando que o mesmo é
simétrico, obtém-se
∂g ∂gij
k
= gg ij k . (6.54)
∂q ∂q
Usando então este resultado em (6.52), conclui-se que
p
i 1 ∂g 1 ∂ |g| ∂ p
Γ ki = = = ln |g| .
2g ∂q k |g| ∂q k ∂q k
p
Portanto, o divergente de um campo vetorial pode ser sempre expresso em termos do deter-
minante do tensor de métrica como
p
i ∂v i 1 ∂ |g| i 1 ∂ p i
∇ · v = v ;i = i + p v = |g|v (6.55a)
|g| ∂q i |g| ∂q i
p
∂q
3
1 X ∂ p v̂ i
=p |g| . (6.55b)
|g| i=1 ∂q i hi
i ∂ψ
v i = (∇ψ) = g ij .
∂q j
Introduzindo este resultado em (6.55), obtém-se
2 1 ∂ p ∂ψ
ij
∇ ψ=p |g|g . (6.56)
|g| ∂q i ∂q j
Exercício 6.5. Mostre que (6.56) se reduz a (1.25) no caso particular de um sistema de coorde-
nadas ortogonal.
Demonstração. Para um sistema ortogonal, g ij = h−2 ij
p
i δ e |g| = h1 h2 h3 . Então, em (6.56),
3
2 1 X ∂ h1 h2 h3 ∂ψ
∇ ψ= ,
h1 h2 h3 i=1 ∂q i h2i ∂q i
C
E
Figura 6.9: Uma curva C no espaço 3 ,
definida como o mapeamento de um in-
tervalo de variação do parâmetro t ∈ I
(I ⊂ R) sobre uma coleção de pontos
E
P ⊂ 3 , determinados pela variação
do vetor posição r (t).
δTij dq k
= Tij;k
δt dt
δT ij dq k
= T ij;k .
δt dt
As expressões acima atribuem significado à derivação absoluta deste tensor como um todo,
dT δT ij δTij i
= ei ⊗ ej = e ⊗ ej = · · · .
dt δt δt
Finalmente, se ψ (q) é um campo escalar, então sua derivada intrínseca é simplesmente a
derivada ordinária,
δψ dψ
= . (6.59)
δt dt
As derivadas absoluta e covariante obedecem as seguintes propriedades da diferenciação:
1. A derivada de uma soma de tensores é a soma das derivadas.
2. A derivada do produto (externo ou interno) dos tensores T e U é igual a U δT + T δU , onde
o símbolo “δ” representa qualquer tipo de diferenciação.
3. O fato da derivada covariante do tensor de métrica ser nula implica em que as operações
de elevação ou rebaixamento de índices e de diferenciação podem ser permutadas.
das funções x (t) , y (t) , z (t) ∈ C 2 (I) sobre E 3 tal que para cada t ∈ I existe um e somente um vetor
posição r = r (t) ∈ E 3 , determinado por
r (t) = (x (t) , y (t) , z (t)) .
Para seguir a discussão, já é possível e conveniente abandonar-se a restrição do E 3 e consi-
derar um espaço Riemanniano qualquer de dimensão n, denotado por Rn . Uma curva no Rn é
definida, de forma análoga à definição 6.10, como o conjunto de pontos C ⊂ Rn determinados pelo
1 2 n
mapeamento da varredura do parâmetro t ∈ R em imagens das funções q (t) , q (t) , . . . , q (t) ∈
2 1 2 n
C (R), as quais irão formar as n-uplas ordenadas q (t) , q (t) , . . . , q (t) ∈ C.
Para se determinar então a equação de uma geodésica no Rn , emprega-se com frequência o
cálculo variacional. Neste caso, a geodésica é definida como a curva cujo comprimento possui um
valor estacionário com respeito a variações arbitrariamente pequenas, mas com pontos extremos
mantidos fixos.
Seja então d` o comprimento elementar de arco correspondente ao deslocamento infinitesimal
d` e ti e tf os valores extremos do parâmetro t que determina a curva C entre os pontos A e B,
contidos no Rn . Então, as coordenadas dos pontos ao longo de C serão dadas pelas fórmulas
q i = q i (t) , ti 6 t 6 tf , q i (t) ∈ C 3 (R) , i = 1, 2, . . . , n,
sendo que q i (ti ) 7→ A e q i (tf ) 7→ B. Portanto, a extensão da curva C, denotada por `, será
dada por
ˆ B
`= d`.
A,C
De acordo com o princípio variacional acima, a curva geodésica entre A e B será determinada
então por
ˆ B
δ` = δ d` = 0.
A,C
Mas como o deslocamento d` ocorre ao longo da curva C, o princípio variacional acima pode
ser escrito também em termos de uma integração no parâmetro t. Em um espaço Riemanniano,
a norma d` é dada por d`2 = gij dq i dq j . Então, ao longo de uma variação infinitesimal ao longo de
C, entre os valores t e t + dt do parâmetro livre, a coordenada qi (t) varia por
dq i
dq i = dt,
dt
ou seja, a norma varia por
r
2 dq i dq j 2 dq i dq j
d` = gij dt =⇒ d` = gij dt.
dt dt dt dt
Portanto, o princípio variacional pode ser expresso como
ˆ tf r
dq i dq j
δ` = δ gij dt = 0.
ti dt dt
O integrando
acima é um funcional das quantidades q i (t) (através do tensor de métrica) e
dq i /dt , as quais serão determinadas a partir do princípio variacional. Denota-se este funcional
por
r
i dq i dq i dq j
L q , = gij .
dt dt dt
Portanto, aplicando a variação δ`, mantendo os extremos fixos, resulta
ˆ tf ˆ tf ˆ tf
i
∂L ∂L dq
δ` = δ L dt = δL dt = δq i + i δ dt.
ti ti ti ∂q i ∂ dq dt
dt
Como é usual, a variação δq i corresponde à diferença entre duas formas funcionais para q i (t)
i
que são arbitrariamente próximas entre si. Denotando-se estas formas funcionais como q(1) (t) e
i
q(2) (t), escreve-se δq i = q(2)
i i
− q(1) e, portanto,
i
d d h i i d i d i dq
δq i = i
q(2) − q(1) = q(2) − q(1) =δ .
dt dt dt dt dt
Para uma variação arbitrária das coordenadas q i , a identidade acima somente pode ser satisfeita
se forem obedecidas as equações de Euler-Lagrange
∂L d ∂L
− = 0, (i = 1, 2, . . . n) .
∂q i dt ∂ dqi
dt
Até este ponto, o parâmetro t foi considerado arbitrário. Porém, como se deseja relacionar a
geodésica como a curva de menor extensão entre A e B, o parâmetro t será escolhido como o
comprimento de arco ` ao longo da mesma, ou seja,
dq i dq i d`
t = `, = =⇒ L = = 1.
dt d` d`
Calculando então as derivadas acima,
r
∂L ∂ dq j dq k 1 ∂gjk dq j dq k 1 ∂gjk dq j dq k
i
= i gjk = L −1 i
= .
∂q ∂q d` d` 2 ∂q d` d` 2 ∂q i d` d`
Já a outra derivada fica
r
dq j dq k dq k dq j k dq j
∂L ∂ 1
i = gjk = gjk δij + δi = gij .
∂ dq
∂ dq i
d` d` 2 d` d` d`
d` d`
d2 q j 1 ∂gjk dq j dq k
∂gij
gij 2 + − = 0.
d` ∂q k 2 ∂q i d` d`
Nota-se que esta equação pode ainda ser escrita como
d2 q j ∂gjk dq j dq k
1 ∂gij ∂gik
gij 2 + + − = 0,
d` 2 ∂q k ∂q j ∂q i d` d`
o que, de acordo com (6.45d), resulta em
d2 q j dq j dq k
gij + [jk, i] = 0, (i = 1, 2, . . . , n) , (6.60a)
d`2 d` d`
as quais são as equações da curva geodésica. Finalmente, usando (6.45c), pode-se escrever
estas equações também como
d2 q i dq j dq k
2
+ Γijk =0 (i = 1, 2, . . . , n) . (6.60b)
d` d` d`
Autor: Rudi Gaelzer – IF/UFRGS Início: 01/2013 Impresso: 29 DE AGOSTO DE 2018
C APÍTULO 6. Álgebra e Análise Tensoriais 275
variedade de dimensão n é um espaço topológico que nas vizinhanças de cada ponto assemelha-se a um espaço n . E
Curvas e circunferências são variedades no R1 ; esferas e cilindros são variedades no R2 .
Exercício 6.6. Usando o resultado do exemplo 6.15, calcule a extensão da geodésica que une
os pontos Cartesianos P = (x, y, z) = (1, 0, 0) e Q = (0, 1, 1) sobre a superfície cilíndrica de raio
ρ = 1.
Resolução. De acordo com o exemplo, a curva geodésica que une os pontos P e Q é
2 2
z= φ =⇒ dz = dφ.
π π
Então, o elemento de arco é
4
d`2 = dφ2 + dφ2
π2
e a extensão da geodésica é dada por
ˆ Q r ˆ π/2 r
4 π2
`P →Q = d` = 1 + 2 dφ = 1 + = 1, 86209588912 . . . .
P π 0 4
√
Para comparar, a linha reta unindo P a Q possui uma extensão igual a 3 = 1, 73205080757 · · · <
`P →Q .
Exercício 6.7. Mostre que sobre a superfície de uma esfera todas as curvas meridianas são
geodésicas. Mostre também que nenhuma outra circunferência é uma geodésica.
Demonstração. Dada uma esfera de raio a, esta se trata de uma variedadeno R2 com q 1 , q 2 7→
{θ, φ}. O elemento de arco sobre esta superfície é d`2 = a2 dθ2 + sen2 θdφ2 . Então, o tensor de
métrica e os símbolos de Christoffel (6.44b) são dados por
2
a 0 θ 0 0 φ 0 cotan θ
g= =⇒ Γ = , Γ = ,
0 a2 sen2 θ 0 − sen θ cos θ cotan θ 0
e as equações da geodésica (6.60b) se tornam
2
d2 θ dφ
2
− sen θ cos θ =0
d` d`
d2 φ dθ dφ
2
+ 2 cotan θ = 0.
d` d` d`
Embora estas equações sejam não lineares e acopladas, pode-se usar a simetria de uma esfera
para se realizar a demonstração. Assumindo-se que φ = cte., as equações acima reduzem-se a
d2 θ `
2
= 0 =⇒ θ (`) = θi + (θf − θi ) ,
d` `f
ou seja, qualquer meridiano da esfera é uma curva geodésica.
Tomando-se agora θi 6= π/2 e assumindo circunferências θ = cte., a equações reduzem-se a
dφ
= 0 =⇒ φ = cte.,
d`
o que contradiz a suposição inicial. Portanto, exceto as meridianas, nenhuma outra circunfe-
rência sobre a esfera é uma geodésica.
C 7→ qi = qi (t) , (ti 6 t 6 tf , i = 1, 2, . . . , n) ,
e um campo vetorial v = v (r) em Rn . Diz-se que v x1
é um campo de vetores paralelos a C, ou, de forma
equivalente, que v é transportado paralelamente ao
longo de C se a derivada intrínseca de v ao longo Figura 6.10: Campo vetorial 3 v transportado pa-
desta curva é nula, isto é, se ralelamente à curva C em E . No ponto P , es-
tão
1 também representadas as curvas coordenadas
dv q , q2 , q3 .
= 0. (6.61)
dt
O comportamento de um campo vetorial transportado paralelo a uma curva C no espaço E 3
está representado na figura 6.10. No ponto P , pode-se observar também uma representação
para as curvas coordenadas q 1 , q 2 , q 3 neste ponto.
De forma equivalente, pode-se definir através de (6.61) um campo vetorial transportado pa-
ralelamente ao longo de uma curva C que se estende sobre uma variedade no Rn−1 . Para exem-
plificar, com esta última definição é possível discutir-se campos de vetores paralelos sobre uma
superfície curva no E 3 .
Segue então de (6.58) que a componente con-
travariante v i de v satisfaz a equação diferencial vi Q
i i k
δv dv dq
= + Γijk v j = 0. (6.62a) vPi
δt dt dt
Ou seja, ao longo de C, a componente v i varia por
q j = q j (t)
Q q j + dq j
dv i dq k
= −Γijk v j ou dv i = −Γijk v j dq k , (6.62b)
dt dt
P qj
δvi dvi dq k
= − Γj ik vj = 0, (6.63a)
δt dt dt
ou seja, a i-ésima componente covariante de v varia por
dvi = Γj ik vj dq k (6.63b)
v · w = vw cos θ = v i wi = gij v i wj ,
resulta
d δ δv i j δwj
gij v i wj = gij w + gij v i
(v · w) = = 0, (6.64a)
dt δt δt δt
de acordo com (6.62a). Portanto, se w = v, então
d dv 2 dv
(v · v) = = 2v = 0, (6.64b)
dt dt dt
ou seja, o módulo de v permanece constante ao longo do transporte paralelo do vetor. O mesmo
acontecendo com o módulo de w. Por consequência, o ângulo θ entre os mesmos,
d d d dθ
(v · w) = (vw cos θ) = vw cos θ = −vw sen θ = 0, (6.64c)
dt dt dt dt
também permanece constante ao longo de C, mesmo para θ 6= 0 ou θ 6= π.
Considera-se agora o parâmetro t como sendo novamente p o comprimento de arco ` ao longo
da curva C. O elemento de arco é dado sempre por d` = gij q i q j , de tal forma que, de acordo
com a discussão realizada na seção 6.13.2,
r r
dq i dq j dq i dq j dq i dq j
d` = gij d` = L d` =⇒ L = gij = 1 =⇒ gij = 1,
d` d` d` d` d` d`
ao longo de C. Como λ ≡ dr/d` é um vetor, este resultado mostra que o mesmo é unitário. Porém,
o interessante aqui é que, em primeiro lugar, λ é o vetor tangente a C em todos os pontos. Em
segundo lugar, e o mais importante, de acordo com (6.62), a derivada intrínseca da i-ésima
componente de λ ao longo de C, resulta ser
δλi dλi dq k d2 q i dq j dq k
= + Γijk λj = 2
+ Γijk = 0,
δ` d` d` d` d` d`
a qual é justamente a equação diferencial satisfeita pela curva geodésica, (equação 6.60b).
Portanto, um vetor que é tangente a uma curva geodésica em um determinado ponto e que
é transportado paralelamente ao longo desta curva permanecerá sempre tangente à geodésica.
Segue disto que, dado um campo vetorial que é sempre tangente a alguma variedade no Rn , as
curvas geodésicas sobre esta variedade podem sempre ser estabelecidas de forma inequívoca a
partir deste campo vetorial.
Um exemplo de um campo vetorial deste tipo vem de uma superfície esférica no E 3 . Sobre
esta superfície, os vetores unitários êθ são sempre tangentes à mesma. Estes vetores unitários
são sempre transportados paralelamente ao longo de uma curva meridiana, a qual é, de acordo
com o exemplo 6.7, uma curva geodésica sobre a superfície esférica.
Dados agora os vetores λ e w que são transportados pa-
N ralelamente ao longo de uma curva geodésica, sendo que λ
é o campo vetorial tangente à mesma, os resultados (6.64b e
c) mostram que não somente o módulo de w permanece con-
tante ao longo da geodésica, mas que também o seu ângulo
com a curva não varia durante o seu transporte.
A figura 6.12 ilustra o transporte paralelo de um vetor ao
longo de geodésicas de um espaço R2 esférico. Partindo do
ponto A e seguindo até N ao longo de um meridiano (curva
α geodésica), o vetor permanece tangencial à curva ao longo
do trajeto. Em seguida, o mesmo vetor é transportado para-
A B
lelamente ao longo de outra geodésica conectando os pontos
N e B. Finalmente, o vetor é paralelamente transportado de
B a A ao longo da terceira geodésica (linha do equador). Ao
R → S : q i + δq i → q i + δq i + dqR
i
,
sendo
S : q i + δq i + dqR
i
= q i + δq i + d q i + δq i = q i + δq i + dq i + d δq i
de acordo com (6.62b), onde Γijk(P ) indica que os símbolos de Christoffel devem ser calculados
no ponto P . De forma similar, se o segmento P Q é deslocado de tal forma que quando P coincide
com R, o ponto Q coincide com o ponto S 0 , resultando assim no segmento RS 0 . Desta maneira,
cada ponto ao longo de P Q é transladado pela quantidade “δ”, resultando no mapeamento
Q → S 0 : q i + dq i → q i + dq i + δqQ
i
.
S 0 : q i + dq i + δqQ
i
= q i + dq i + δ q i + dq i = q i + dq i + δq i + δ dq i .
Portanto, se o deslocamento “δ” for elementar, a variação na coordenada dq i também é dada por
(6.62b), resultando em
δ dq i = −Γijk(P ) dq j δq k .
Comparando as expressões para d δq i e δ dq i ,
observa-se que uma simples troca de índices mu-
Q q i + dq i
dos, aliada à simetria de Γijk frente à permutação
dos índices j e k, mostra que ambas as expressões
dq i i são idênticas, resultando, portanto, que S 0 = S.
δqQ
Ou seja, as curvas elementares C1 ≡ CP →R→S e
P qi C2 ≡ CP →Q→S 0 , partindo do mesmo ponto inicial P ,
S; S 0 conduzem ao mesmo ponto final, desde que estas
sejam realizadas ao longo de curvas geodésicas no
i Rn .
δq i dqR
Considera-se agora o transporte paralelo de um
campo vetorial v = v i ei ao longo de ambos os ca-
R q i + δq i minhos C1 e C2 da figura 6.13. Este transporte está
ilustrado agora na figura 6.14. O campo vetorial é
Figura 6.13: Os deslocamentos paralelos do seg- suposto estar definido no ponto P , onde i suas com-
mento δq i ao longo de P Q e de dq i ao longo de ponentes possuem valores iguais a vP
, e estes
P R resultam no mesmo ponto final S 0 = S. componentes são transportados até o ponto S ao
longo de dois caminhos distintos:
C1 : Realiza-se o transporte i paralelo de v de P até Q com um deslocamento dq i , resultando
então nas componentes vQ . Em seguida, realiza-se o transporte paralelo do mesmo vetor de Q
i
até S com o deslocamento δq i , resultando nos valores finais vSQ para as componentes de v.
i
C2 : Desloca-se
v paralelamente de P a R
i por δq . Em seguida, desloca-se o mesmo de R a S
por dq i , resultando as componentes vSR .
i i
As componentes vSQ e vSR são idênticas ou distintas entre si? Em geral, para um espaço
i i
curvo, vSQ 6= vSR e a razão para tanto pode ser entendida calculando-se as variações da i-ésima
componente de v ao longo dos dois caminhos distintos.
Ao longo do transporte paralelo P → Q, a referida componente resulta com o valor
i
vQ = vPi + dvPi ,
onde dvPi é a variação de v i no referido deslocamento. De acordo com (6.62b), para um desloca-
mento suficientemente pequeno,
dvPi = −Γijk(P ) vPj dq k ,
n o
onde Γijk(P ) são os valores assumidos pelos símbolos de Christoffel no ponto P . Ou seja,
i
vQ = vPi − Γijk(P ) vPj dq k .
i
A componente vQ é agora transportada ao ponto i
i
vQ
S, assumindo o valor vSQ no mesmo, a qual é dada
por
i i i i j
vSQ = vQ + δvQ = vQ − Γijk(Q) vQ δq k ,
n o
onde agora Γijk(Q) são os símbolos de Christoffel vPi Q i i
vSR vSQ
em
i Q. Como estes são funções das coordenadas
q , pode-se escrever, para dq i pequeno o sufici-
ente, dq i
∂Γijk
i i P ) +Γijk,` dq ` , S
i i i
Γ jk = Γ jk q =⇒ Γ jk(Q) = Γ jk(P ) + dq ` ≡ Γijk(P
∂q ` vRi
P
onde
Rijk` ≡ Γijk,` − Γij`,k + Γim` Γmjk − Γimk Γmj` (6.65b)
é o tensor de curvatura de Riemann-Christoffel misto ou do segundo tipo. Como v i, dq k e
δq ` em (6.65a) são todos componentes de vetores, pela regra do quociente as quantidades Rijk`
realmente compõe um tensor de posto quatro. Uma outra maneira de se escrever (6.65b) é na
forma de determinantes,
∂ ∂ i
Γ m` Γimk
` k
∂q ∂q
Rijk` =
+ m
.
(6.65c)
m
i i
Γ j` Γ jk
Γ j` Γ jk
Observa-se que o tensor de curvatura independe do campo v; este depende somente do tensor
de métrica e de suas derivadas, ou seja, é uma função somente da geometria do espaço curvo.
Para que o valor de vSi independa do caminho adotado a partir de P , é necessário que Rijk` = 0,
uma vez que o campo v é arbitrário. Em um espaço Euclideano, sempre é possível encontrar-
se um sistema de coordenadas (Cartesiano, por exemplo), onde Γijk = 0. Neste sistema de
coordenadas, o tensor de curvatura é identicamente nulo. Pode-se mostrar que o mesmo ocorre
para qualquer outro sistema de coordenadas neste espaço.
Através do tensor de curvatura, é possível atribuir-se significado ao termo espaço plano ou
Euclideano, como sendo aquele onde o tensor de Riemann-Christoffel é identicamente nulo em
todos os pontos deste espaço. Se esta condição não for satisfeita, o espaço é curvo ou não
Euclideano. Este resultado é de fundamental importância para a dinâmica de sistemas físicos
em espaços curvos, descritos por teorias tais como a Relatividade Geral.
Se ao invés das componentes contravariantes de v fossem realizados os transportes paralelos
das componentes covariantes {vi } entre os pontos P e S da figura 6.14, pode-se mostrar, com o
emprego de (6.63b), que a diferença entre os valores de viS obtidos nos dois caminhos distintos
seria igual a
viSR − viSQ = −Rj i`k vj dq k δq ` .
Estes resultados mostram que o deslocamento paralelo de um vetor e, em geral, de um tensor,
entre dois pontos de um espaço Riemanniano depende do caminho escolhido. Segue disto que
se um tensor é deslocado paralelamente ao longo de uma curva fechada, ao retornar ao ponto
de partida os seus componentes não irão possuir em geral os mesmos valores que possuiam
originalmente. Este fato, característico de espaços curvos, tem consequências importantes para
a física acerca do conceito de campos conservativos em espaços Riemannianos curvos.
Um tensor associado a Rijk` é
Rijk` = gim Rmjk` , (6.66a)
denominado o tensor de curvatura de Riemann-Christoffel covariante ou do primeiro tipo.
Não é difícil verificar que este tensor pode ser escrito como
Rijk` = [jk, i],` − [j`, i],k + [ik, m] Γmj` − [i`, m] Γmjk (6.66b)
mn
= [jk, i],` − [j`, i],k + g ([ik, m] [j`, n] − [i`, m] [jk, n]) (6.66c)
∂ ∂
[ik, m] [i`, m]
` k
∂q ∂q
= +
(6.66d)
[j`, i] [jk, i] Γmjk Γmj`
∂ ∂
` [ik, m] [i`, m]
∂q ∂q k
+ g mn
= .
(6.66e)
[jk, n] [j`, n]
[j`, i] [jk, i]
Pode-se ver, tanto a partir da definição de Rijk` em (6.65) quanto a partir da definição de Rijk`
em (6.66) que as seguintes propriedades de simetria são satisfeitas:
Uma consequência digna de nota da antissimetria do tensor de curvatura frente aos pares inici-
ais e finais de índices, propriedades (6.67a,b), é:
A seguinte propriedade cíclica também é válida: se qualquer índice do tensor é mantido fixo
enquanto os três índices restantes são permutados de forma cíclica e os componentes resultantes
são adicionados, o resultado é nulo. Por exemplo,
d`2 = f (q) dq 2 ,
2 02
o qual
ppode ser transformado a um espaço Cartesiano do tipo d` = dq através da definição
0
dq = f (q)dq.
pode-se tomar o componente R1221 = Rθφφθ como este componente e calcular a partir de (6.66c),
Os outros componentes de Rij`k são dados por (6.67a-e). Ou seja, este de fato é um espaço
curvo.
Uma outra expressão importante para o tensor de Ricci pode ser obtida a partir da identidade
(6.54). Empregando (6.50a) e (6.45c), esta pode ser escrita como
∂g ∂ √
i
= gg mn ([mi, n] + [ni, m]) = 2gΓmim =⇒ Γmim = i ln g.
∂q ∂q
A partir da expressão (6.68d), pode-se ver facilmente que o tensor de Ricci é simétrico, Rij =
Rji . Devido a isso, o número de componentes independentes de Rij é igual a n (n + 1) /2. Em
uma variedade no R4 , se a métrica for determinada pelas equações diferenciais parciais Rij = 0,
isto resultará em um sistema de 10 equações, as quais foram adotadas por Einstein como as
equações do campo gravitacional no espaço livre, na teoria da relatividade geral.
Rkk;m − 2Rkm;k = 0.
R ≡ g ij Rij ,
observa-se que R,k = g ij Rij;k = Rj j;k ; ou seja, a identidade anterior pode ser reescrita como
R,m − 2Rkm;k = 0,
ou como
k 1 k
R m − δm R = 0.
2 ;k
Gij = 0, (6.69a)
Physik, v. 354, n. 7, p. 769-822, 11 de maio de 1916. Acesso doi: 10.1002/andp.19163540702 (versão em inglês:
https://einsteinpapers.press.princeton.edu/vol6-trans/158).
Zur Elektrodynamik bewegter Körper.20 Annalen der Physik, v. 322, n. 10, pp. 891
– 921, Juni 1905.
Na física moderna, a teoria da relatividade restrita é suposta válida para todas as formas de
interações, exceto em fenômenos gravitacionais de larga escala, onde é necessário empregar-se
a teoria generalizada da relatividade. Em particular, fenômenos atômicos, nucleares e subatô-
micos não podem ser adequadamente descritos sem o uso da relatividade.
A lei de transformação (6.70) descreve uma simples translação, para um determinado ins-
tante de tempo. No contexto desta transformação, o sistema físico é descrito matematicamente
20 Acerca da eletrodinâmica dos corpos em movimento. Acesso livre no doi: 10.1002/andp.19053221004. Versão em
inglês: https://einsteinpapers.press.princeton.edu/vol2-trans/154.
pois ambos são mensurados no mesmo instante de tempo, o qual não influi na métrica do
espaço. Ou seja, o tensor de métrica é, simplesmente, gij = δij , como se espera em um espaço
Euclideano com coordenadas Cartesianas.
A lei de transformação (6.70) é perfeitamente
K0 adequada para a mecânica Newtoniana, pois as
x03 suas leis físicas são invariantes frente a uma trans-
K formação de Galileo. Para exemplificar, considera-
x3 R(t) = vt se um sistema de partículas interagindo por meio
de potenciais centrais. Supondo que a equação de
P
movimento da i-ésima partícula no sistema K 0 seja
r0
r dp0i X
= −∇0i Vij r 0i − r 0j ,
dt0
j6=i
R(t)
O 0 x02
a qual é a expressão para a segunda lei de New-
ton, sendo r 0i (t0 ) e p0i (t0 ) respectivamente a posição
O x2
e o momentum linear instantâneos da i-ésima par-
x01 tícula medidos no referencial K’. Nesta expressão
também está indicado o potencial de interação en-
x1 tre as partículas i e j, Vij r 0i − r 0j , o qual origina-
se da força central conservativa de interação en-
Figura 6.15: Transformação entre os referenciais tre as mesmas. Estas interações podem ser gra-
inerciais K e K 0 . vitacionais ou elétricas, por exemplo. Finalmente,
∇0i = x̂j ∂/∂x0ij é o operador gradiente, calculado no
referencial K 0 , sendo x0ij (t0 ) a j-ésima coordenada
da posição instantânea r 0i (t0 ).
Denominando-se u (t) = dr/dt a velocidade instantânea de uma partícula, mensurada por um
determinado referencial, a lei de transformação (6.70) implica na seguinte fórmula de transfor-
mação para as velocidades medidas em cada referencial,
u0 = u − v ⇐⇒ u = u0 + v. (6.71)
Como a métrica do espaço é a mesma em ambos os referenciais, então ∇0i = ∇i , onde ∇i é o
operador gradiente aplicado sobre r i . Portanto, a lei (6.70) implica em que
dp0i dpi
0
= e r 0i − r 0j = r i − r j ,
dt dt
e a equação de movimento para a i-ésima partícula, transformada do referencial K 0 para K
resulta
dpi X
= −∇i Vij (|r i − r j |) ,
dt
j6=i
∂ρ
+ ∇ · J = 0 (Equação da continuidade), (6.72b)
∂t
sendo E (r, t), B (r, t), ρ (r, t) e J (r, t) respectivamente os campos elétrico e de indução magnética
e as densidades de carga e corrente elétricas. Os campos também podem ser expressos em
termos dos potenciais escalar Φ (r, t) e vetor A (r, t) como
1 ∂A
B (r, t) = ∇ × A (r, t) e E (r, t)= −∇Φ − . (6.73)
c ∂t
Combinando-se as leis de Ampère e Faraday de forma a desacoplar os campos, obtém-se as
equações da onda eletromagnética
1 ∂2E 4π ∂J
2 2
+∇×∇×E =− 2
c ∂t c ∂t
1 ∂2B 4π
+∇×∇×B = ∇ × J,
c2 ∂t2 c
sendo que a densidade de corrente cumpre aqui o papel de fonte. Pode-se também obter equa-
ções para os potenciais eletromagnéticos, as quais são
1 ∂
∇2 Φ + (∇ · A) = −4πρ
c ∂t
1 ∂2A
1 ∂Φ 4π
+ ∇ × ∇ × A + ∇ = J.
c2 ∂t2 c ∂t c
Nota-se que nas formas gerais acima, as equações para os potenciais são acopladas. Con-
tudo, sobre os potenciais podem ser aplicadas transformações de gatilho (gauge)
1 ∂2Φ
− ∇2 Φ = 4πρ (6.75a)
c2 ∂t2
1 ∂2A 4π
− ∇2 A = J (6.75b)
c2 ∂t2 c
1 ∂2Λ
− ∇2 Λ = 0, (6.75c)
c2 ∂t2
sendo que a última equação determina a função de calibre Λ (r, t). Esta equação foi obtida
assumindo-se que a condição de Lorenz é também invariante frente a uma transformação de
calibre.
Portanto, observa-se que no calibre de Lorenz tanto os campos quanto os potenciais, bem
como a própria função de calibre, satisfazem equações diferenciais que possuem todas a estru-
tura formal de uma equação de onda. Este fato é relevante para a discussão a seguir, acerca da
modificação que uma transformação de Galileu K → K 0 impõe sobre a equação da onda.
Já na descoberta do fenômeno da indução magnética, realizada em meados do ano de 1831 de
forma independente pelo físico britânico Michael Faraday (1791 – 1867) e pelo físico americano
Joseph Henry (1797 – 1878) e que foi formalizada pela lei de Faraday, que a discussão acerca
da transformação dos campos eletromagnéticos frente a uma mudança de referencial é levada a
cabo.
Então,
∆0t ψ ∂ψ r 0 − r 01 ∂ψ
≈ 0 + 20 · .
∆t 0 ∂t1 t2 − t01 ∂r 01
Como ψ, ∆t e ∆t0 são invariantes de Galileu, então, chamando t01 = t0 e r 10 = r 0 , no limite
∆t = ∆t0 → 0 obtém-se
∂ψ ∂ψ
= 0 − v · ∇0 ψ.
∂t ∂t
Portanto, as leis de transformação de Galileu dos operadores diferenciais são
∇ = ∇0 ∇ 0 = ∇
∂ ∂ ⇐⇒ ∂ ∂ (6.77)
= − v · ∇0 = + (v · ∇).
∂t ∂t0 ∂t0 ∂t
Cabe mencionar aqui que o mesmo resultado poderia ser obtido caso fosse feita uma antecipação
na definição de quadrivetores e se considerasse a quádrupla ({xµ }) = (ct, r), (µ = 0, . . . , 3). Neste
caso, com a lei de transformação (6.70) e empregando a regra da cadeia, seria possível escrever
∂ ∂x00 ∂ ∂x0j ∂ ∂ ∂
= 00
+ = δij 0j =
∂ ∂x0ν ∂ ∂x
i i
∂x ∂x ∂xi ∂x0j ∂x ∂x0i
= =⇒
∂x µ ∂xµ ∂x0ν
∂ ∂x00 ∂ ∂x0i ∂ 1∂ 1∂ vi ∂
= 00
+ ⇒ = − ,
∂x 0 0
∂x ∂x ∂x0 ∂x0i c ∂t c ∂t0 c ∂x0i
onde os índices latinos variam de 1 a 3.
Para verificar como as densidades de carga e corrente transformam-se, considera-se um
conjunto de cargas puntiformes. Neste caso,
X
ρ (r, t) = qi δ (r − r i (t))
i
X
J (r, t) = qi ui (t) δ (r − r i (t)) .
i
Ou seja, ( (
ρ0 (r 0 , t0 ) = ρ (r, t) ρ (r, t) = ρ0 (r 0 , t0 )
0 ⇐⇒ (6.78)
0 0
J (r , t ) = J (r, t) − vρ (r, t) J (r, t) = J 0 (r 0 , t0 ) + vρ0 (r 0 , t0 ) .
Pode-se então verificar a transformação das equações de Maxwell e da equação de conti-
nuidade. Supondo que estas equações assumem as suas formas conhecidas no referencial K,
emprega-se as transformações (6.76), (6.77) e (6.78) inicialmente na equação da continuidade
para verificar a sua forma no referencial K 0 :
0
∂ρ K→K 0 ∂ρ
+ ∇ · J = 0 −−−−→ 0 + ∇0 · J 0 + ∇0 · (vρ0 ) − v · ∇0 ρ0 = 0.
∂t ∂t
Como ∇0 · (vρ0 ) = v · ∇0 ρ0 , observa-se que a equação da continuidade é invariante frente a
uma equação de Galileo. Fisicamente, isto significa que a transformação de Galileo respeita o
princípio da conservação da carga elétrica.
Contudo, as equações de Maxwell tomam as seguintes formas frente a uma transformação
de Galileo:
K→K 0
∇0 · E 0 − ∇0 · β × B 0 = 4πρ0
∇ · E = 4πρ −−−−→
K→K 0
∇·B=0 −−−−→ ∇ · B0 = 0
1 ∂E 4π K→K 0 1∂
∇0 × B 0 − E0 − β × B0
∇×B− = J −−−−→ 0
c ∂t c c ∂t
1 4π
+ v · ∇0 E 0 − β × B 0 = J 0 + vρ0
c c
1 ∂B K→K 0 0 0 1 ∂B 0
∇×E+ =0 −−−−→ ∇ ×E +
c ∂t c ∂t0
1
−∇0 × β × B 0 − v · ∇0 B 0 = 0,
c
onde β = v/c. Na lei de Faraday, os últimos dois termos são nulos, uma vez que ∇0 × β × B 0 =
onde foram definidos os parâmetros beta (β) e gama (γ) de Lorentz, respectivamente dados por
v 1
β= e γ=p . (6.79b)
c 1 − β2
Posteriormente, será demonstrado que as equações de Maxwell são invariantes em forma frente
a transformação (6.79a).
Definindo-se as componentes paralela r k e perpendicular (r ⊥ ) do vetor posição em relação
a β,
β·r (β × r) × β
rk = β e r⊥ = r − rk = ,
β2 β2
a transformação de Lorentz pode também ser expressa de uma forma mais simples e intuitiva
como
ct = γ (ct0 + β · r 0 )
0
ct = γ (ct − β · r)
rk0 = γ rk − βct ⇐⇒ rk = γ rk0 + βct0
(6.79c)
0
r⊥ = r⊥
r ⊥ = r 0⊥ .
Com relação à teoria da relatividade restrita, esta será abordada de uma maneira sucinta.
Como foi visto na seção anterior, as equações de Maxwell não são invariantes frente a uma
transformação de Galileu. De acordo com estas, uma onda eletromagnética necessariamente
requer um meio para se propagar, tal como ocorre com ondas mecânicas. Este meio seria o
éter, o qual não havia sido detectado em experimentos específicos, tais como o experimento de
Michelson-Morley. Embora acredita-se que Albert Einstein não estava ciente dos resultados des-
tes experimentos em 1905, mesmo assim a hipótese do éter não era aceitável a partir de suas
concepções individuais a respeito do espaço-tempo e do comportamento dos campos eletromag-
néticos. Confrontado com o fato de que as equações de Maxwell não são invariantes frente a
uma transformação de Galileu, Albert Einstein considerou as seguintes possibilidades:
Postulado 20 (alternativo). Em todo sistema inercial de referências, existe uma velocidade li-
mite finita universal, denotada por c, para todas as entidades físicas.
Com base nestes postulados e assumindo outros princípios físicos tais como a isotropia do
espaço livre, Einstein realizou sua própria derivação da transformação de Lorentz e demonstrou
que as equações de Maxwell são invariantes em forma para estas transformações.
Fazendo-se referência novamente aos referenciais K e K 0 na figura 6.15, se no instante t =
t = 0, quando as origens O e O0 coincidem, for emitido um pulso luminoso a partir da origem
0
comum, então, de acordo com o postulado 2, as frentes de onda observadas por observadores
situados nas origens de cada referencial irão se propagar na forma de ondas esféricas que se
deslocam com a mesma velocidade, igual a c. Do ponto de vista do observador no referecial K, a
frente de onda no instante t localiza-se no ponto (x1 , x2 , x3 ) determinado pela equação
3
X
x2i − c2 t2 = 0,
i=1
ao passo que a mesma frente de onda, vista pelo observador em K 0 , atinge o ponto (x01 , x02 , x03 ) no
instante t0 , determinado por
X 3
x02 02 02
i − c t = 0.
i=1
Com base nesta expressão, a qual é análoga a uma rotação de eixos em um espaço de dimensão
4 que preserva a métrica do espaço, Einstein derivou novamente a transformação (6.79).
Com base nos trabalhos de Lorentz, Poincaré e Einstein, em 1907 o matemático alemão Her-
mann Minkowski (1864 – 1909) mostrou que a teoria da relatividade restrita poderia ser melhor
formalizada assumindo-se que os fenômenos físicos ocorrem não em um espaço de dimensão
3, mas em um espaço de dimensão 4, doravante denominado o espaço-tempo de Minkowski,
aqui representado por M 4 . Neste espaço, uma transformação de Lorentz corresponde a uma
rotação arbitrária dos eixos em torno da origem.
Einstein, que foi estudante de Minkowski no Instituto Eletrotécnico de Zurique, inicialmente
considerou o trabalho de Minkowski como um simples artifício matemático, porém posterior-
mente percebeu que a interpretação geométrica do M 4 seria necessária para a compreensão e
desenvolvimento de sua posterior teoria da relatividade geral.
Formalmente, o espaço-tempo de Minkowski é um espaço vetorial real de dimensão 4. Este
possui, portanto, 4 vetores de base, os quais não necessitam em geral ser considerados. Um
vetor do M 4 , portanto, possui 4 componentes que podem estar na forma contravariante ou
covariante. Estes vetores do M 4 são usualmente denominados quadrivetores. Cada quadri-
vetor possui 3 componentes que correspondem às coordenadas espaciais usuais do E 3 mais
uma coordenada temporal igual a ct. Uma coordenada qualquer de um quadrivetor, quer seja
temporal ou espacial, será identificada por um índice grego (µ, ν, . . . ). Quando for necessá-
rio especificar-se explicitamente uma coordenada espacial, serão empregado um índice latino
(i, j, . . . ). Finalmente, quando for necessário especificar-se explicitamente a coordenada tempo-
ral, será empregado o índice “0”. O quadrivetor posição no M 4 tem os seus componentes escritos
na forma contravariante definidos como uma quádrupla de números que pode ser representada
de diferentes maneiras como:
x0 , x1 , x2 , x3 = ({xµ }) = x0 , xi = (ct, r) ,
onde µ = 0, . . . , 3 e i = 1, . . . , 3.
No espaço M 4 está suposta a validade de uma transformação xµ → x0µ que leva as coordena-
das {xµ } a novas coordenadas
de acordo com a transformação de Lorentz (6.79). Esta transformação pode ser escrita de uma
forma compacta como
onde
1000
α 0 1 0 0
Λµα Λ−1 ν
= δνµ , sendo [δνµ ] =
0 0 1 0
0001
0
Λ00 = γ Λ−1 0
=γ
0 i
Λ0i = Λi0 = −γβi Λ−1 i = Λ−1 = γβi 0 (6.80c)
βi βj i βi βj
Λij = δij + (γ − 1) 2 Λ−1 j = δij + (γ − 1) 2 .
β β
onde
1 0 0 0
0 −1 0 0
0 0 −1 0 , sendo que g = det (g) = −1.
g= (6.81c)
0 0 0 −1
O tensor de métrica (6.81b,c) mostra que o espaço M 4 é plano; porém é um tipo de espaço
pseudo-Euclideano, os quais são assim denominados justamente por apresentarem sua métrica
dada por expressões como (6.81a). Em tais espaços, é comum caracterizar-se o tensor de mé-
trica também por sua assinatura, a qual é o conjunto de números indicando a quantidade de
autovalores positivos, negativos e nulos do tensor de métrica. No caso do M 4 , a assinatura do
tensor de métrica é indicada por {+, −, −, −}.
Propriedades matemáticas do tensor de métrica do M 4 :
4. Tr (g) = −2.
Não será realizada aqui uma discussão ampla das consequências físicas das transformações
de Lorentz e dos postulados da relatividade. Discussões a respeito do conceito de simultanei-
dade, contração espacial, adição de velocidades e cone de luz são referidas a textos específicos
sobre relatividade. O único conceito relevante para a presente discussão é do tempo próprio.
Considera-se uma partícula com velocidade instantânea u (t) em relação ao referencial K.
Em um intervalo de tempo dt, sua posição muda por dr = udt. De (6.81a), o elemento de arco no
espaço-tempo percorrido pela partícula é
2
ds2 = c2 dt2 − |dr| = c2 dt2 1 − βu2 em K,
Como este elemento de arco é um invariante frente a transformação de Lorentz, isto é, ds02 = ds2 ,
isto implica que
p dt −1/2
dτ = 1 − βu2 (t)dt = , sendo γu (t) = 1 − βu2 (t) .
γu (t)
A outra implicação é que a quantidade dτ também é um invariante de Lorentz. Esta quantidade é
o elemento de tempo próprio da partícula, ou seja, o intervalo infinitesimal de tempo mensurado
no referencial instantaneamente em repouso com a mesma.
Se for possível resolver-se a equação de movimento da partícula no referencial K entre os
instantes t1 e t2 , então o intervalo de tempo próprio transcorrido no referencial em repouso com
a partícula será dado por
ˆ t2
dt
∆τ = .
t1 γ u (t)
Este resultado mostra também que ∆τ 6 ∆t = t2 − t1 , uma vez que γu > 1 sempre. Ou seja,
em qualquer referencial, o intervalo de tempo medido para um determinado processo físico será
sempre maior ou igual que o tempo transcorrido no referencial em repouso com a partícula. Este
fenômeno é denominado de dilatação temporal.
Dado o tensor de métrica na teoria da relatividade restrita, pode-se agora definir os seguintes
objetos que compõe o espaço-tempo de Minkowski:
Tensores de posto zero. Também denominados escalares ou invariantes de Lorentz.
Tensores de posto um. Também denominados quadrivetores. Como os componentes de um
quadrivetor podem estar na forma contravariante ou covariante, será empregada uma no-
tação própria que indica explicitamente qual é a forma dos mesmos.
ã ≡ a0 , a = a0 , a1 , a2 , a3 .
∂x0µ ν
a0µ = a = Λµν aν , (6.82a)
∂xν
ou, de forma explícita,
a0 = a0 e ai = −ai .
∂xν ν
a0µ = 0µ
aν = Λ−1 µ aν , (6.83a)
∂x
Autor: Rudi Gaelzer – IF/UFRGS Início: 01/2013 Impresso: 29 DE AGOSTO DE 2018
C APÍTULO 6. Álgebra e Análise Tensoriais 295
ν
a00 = Λ−1 a = γa0 − γβ · a
0 ν
ν β·a
a0i = Λ−1 i aν = ai + γa0 βi − (γ − 1) 2 βi .
β
∂x0ν 0 ν
aµ = µ
aν = Λ−1 µ a0ν . (6.83b)
∂x
Da mesma forma como ocorre com o quadrivetor covariante, a forma contravariante
pode ser obtida a partir da primeira usando-se o tensor de métrica: aµ = g µν aν .
Tensores de posto dois. Podem ter seus componentes em três formas: contravariantes, cova-
riantes ou mistor.
∂x0µ ∂x0ν αβ
F 0µν = F = Λµα Λν β F αβ . (6.84a)
∂xα ∂xβ
0 ∂xα ∂xβ α β
Fµν = Fαβ = Λ−1 µ Λ−1 ν Fαβ . (6.84b)
∂x0µ ∂x0ν
Tensor misto. Uma das possíveis forma é o tensor F µν com 16 componentes que se trans-
forma como:
∂x0µ ∂xβ α β
F 0µν = α 0ν
F β = Λµα Λ−1 ν F αβ . (6.84c)
∂x ∂x
As diferentes formas do tensor F podem ser obtidas usando a propriedade de elevação
ou rebaixamento de índices do tensor de métrica. Por exemplo,
aµ bµ = aµ bµ = a0 b0 − a · b.
(daµ + bµ ) vµ = daµ vµ + bµ vµ .
kãk =
a
= aµ aµ = a0 a0 − a2 ,
e
sendo a2 a norma Euclideana de seus componentes espaciais. Nota-se que, ao contrário do que
ocorre em um espaço Euclideano, a norma de um quadrivetor não é necessariamente positivo-
definida.
Como era esperado, o produto interno de dois quadrivetores é um invariante de Lorentz, isto
é, dados ã e b̃, de acordo com (6.82) e (6.83),
β
a0µ b0µ = a0µ b0µ = Λµα Λ−1 µ
aα bβ = δαβ aα bβ = aα bα .
µ
Cabe também discutir a maneira como o operador diferencial ∂/∂x se transforma. Dadas as
0µ 0µ µ µ 0
transformações x = x (r̃) e x = x r̃ , pode-se usar a regra da cadeia e escrever
∂ ∂xν ∂ ν ∂
0µ
= 0µ ν
= Λ−1 µ ν .
∂x ∂x ∂x ∂x
Comparando-se a expressão acima com (6.83a), percebe-se que a diferenciação frente a uma
coordenada contravariante transforma-se como um quadrivetor covariante. Pode-se então usar
a seguinte notação para o operador quadrivetorial gradiente na forma covariante:
∂ ∂ ∂ ∂ ∂ ∂ ∂
∂ ≡ ({∂µ }) = , = , , , = , ∇ , (6.85a)
e ∂x0 ∂xi ∂x0 ∂x1 ∂x2 ∂x3 ∂x0
∂ ∂xν ∂ ∂ ∂
= = g να δαµ ν = g µν ν = g µν ∂ν ,
∂xµ ∂xµ ∂xν ∂x ∂x
o que mostra que a diferenciação frente a uma coordenada covariante transforma-se como um
quadrivetor contravariante. Especificamente,
∂ ∂ ∂ ∂ ∂ ∂
= g 0ν ν = = ∂0 e = g iν ν = − i = −∂i .
∂x0 ∂x ∂x0 ∂xi ∂x ∂x
Portanto, definindo-se o operador quadrivetorial gradiente na forma contravariante, este resulta
igual a
˜ ≡ ({∂ µ }) = ∂ 0 , ∂ i = ∂ , ∂ ∂
∂ = , −∇ . (6.85b)
∂x0 ∂xi ∂x0
A quadridivergência de um quadrivetor ã é o invariante de Lorentz
∂a0
∂ µ aµ = ∂µ aµ = + ∇ · a.
∂x0
O operador laplaciano no M 4 é a contração invariante
∂2
2 ≡ ∂ µ ∂µ = ∂µ ∂ µ = 2 − ∇2 ,
∂ (x0 )
A invariância de forma ou covariância das equações de Maxwell, bem como das leis físicas
relacionadas, tais como a equação de continuidade e a força de Lorentz, foi demonstrada por
Lorentz e por Poincaré. A covariância implica que as grandezas ρ (r, t), J (r, t), E (r, t) e B (r, t)
transformam-se de uma maneira bem definida pelas transformações de Lorentz.
Inicia-se a derivação das formas covariantes das leis do eletromagnetismo pela equação da
continuidade (6.72b), a qual é assumida válida em um determinado referencial K. Inicial-
mente, é necessário postular-se uma forma para o quadrivetor densidade de corrente elétrica J̃ .
Escrevendo-se os operadores diferenciais em termos dos componentes do quadrivetor posição
contravariante r̃,
3
∂ (cρ) X ∂Ji
+ = 0.
∂x0 i=1
∂xi
J̃ ≡ J 0 , J i = (cρ, J ) ,
∂µ J µ = 0 (em K) .
Mostra-se facilmente que a equação acima é invariante em forma frente a uma transformação
de Lorentz, ou seja, na mudança K → K 0 , pode-se mostrar que esta equação se torna igual a
∂µ0 J 0µ = 0 (em K 0 ) .
Percebe-se então que não é possível estas expressões em um único quadrivetor. A maneira
correta de agrupar os campos é na forma de um tensor de posto dois denominado tensor do
campo eletromagnético, o qual, na forma contravariante F µν é definido como
F µν = ∂ µ Aν − ∂ ν Aµ .
Identificando os componentes de F µν :
NS
F µµ = 0
F 0i = ∂ 0 Ai − ∂ i A0 = −Ei
F i0 = ∂ i A0 − ∂ 0 Ai = Ei
F ij = ∂ i Aj − ∂ j Ai = −ijk Bk .
Ou seja, o tensor de campo é antissimétrico. Pode-se escrever o mesmo forma matricial como
0 −E1 −E2 −E3
E1 0 −B3 B2
[F µν ] ≡
E2 B3 0 −B1 .
E3 −B2 B1 0
−E3 −B2 B1 0
Uma outra forma útil para o tensor de campo é a sua forma dual, a qual é obtida de acordo
com a definição de um tensor dual, apresentada na seção 6.6.2. Para tanto, inicialmente define-
se o símbolo de Levi-Civita de quarta ordem αβγδ como
+1; permutações pares de {0, 1, 2, 3}}
αβγδ = −1; permutações ímpares de {0, 1, 2, 3}}
0; outras combinações
1
= [(α − β) (α − γ) (α − δ) (β − γ) (β − δ) (γ − δ)] .
12
Da mesma forma como ocorre com o símbolo de terceira ordem, o qual está relacionado com
o cálculo do determinante de uma matriz 3 × 3, o símbolo αβγδ pode ser empregado no cálculo
do correspondente determinante de uma matriz 4 × 4,
como ocorre nas expressões (6.33). Também como ocorre com o símbolo de terceira ordem, αβγδ
é um tensor relativo de peso w = +1. Contudo, como no caso das transformações de Lorentz,
Λ = det (Λ) = +1, o símbolo de Levi-Civita se transforma como um tensor de posto quatro na
transformação entre referenciais.
Portanto, o tensor dual do campo eletromagnético, definido como
1 µναβ
F µν = Fαβ
2
age como um tensor frente a uma transformação de Lorentz. Na representação matricial, este
tensor é dado por
0 −B1 −B2 −B3
B1 0 E3 −E2
[F µν ] =
B2 −E3 0 E1 .
B3 E2 −E1 0
∂µ F µν = 0,
ou
∂µ Fνσ + ∂ν Fσµ + ∂σ Fµν = 0,
onde µ, ν e σ são quaisquer combinações dos índices {0, 1, 2, 3}.
Um ponto importante consiste em mostrar a lei de transformação dos campos. Dado o tensor
de campo F µν no referencial K, um observador no referencial K 0 irá observar estes campos de
acordo com (6.84a),
F 0µν = Λµα Λν β F αβ .
Realizando a transformação, os campos observados no referencial K 0 são
γ2
E 0 = γ (E + β × B) − (β · E) β
γ+1
γ2
B 0 = γ (B − β × E) − (β · B) β.
γ+1
Uma expressão interessante também pode ser obtida para a equação de movimento de uma
partícula carregada sob a ação dos campos eletromagnéticos. Na mecânica Newtoniana, esta
equação é
dp v
=q E+ ×B ,
dt c
Autor: Rudi Gaelzer – IF/UFRGS Início: 01/2013 Impresso: 29 DE AGOSTO DE 2018
300 6.15. Aplicações físicas
sendo p o momentum linear (Newtoniano) da partícula e q a sua carga. Para derivar a forma
covariante desta equação, inicialmente define-se o quadrivetor velocidade a partir de r̃ e do
tempo próprio τ como
dr̃
Ũ = = (γu c, γu v) ,
dτ
sendo Ũ a quadrivelocidade. A partir desta, pode-se definir o quadrivetor momentum linear
como p̃ = m0 Ũ = (E/c, γu p), sendo m0 a massa de repouso da partícula, ou seja, a massa que
seria mensurada em um referencial sempre em repouso com a mesma e
q
2
E = γu m0 c2 = (m0 c2 ) + p2 c2
dpµ dU µ q
= m0 = F µν Uν .
dτ dτ c
É interessante separar as componentes temporal e espacial desta equação. Estas são, res-
pectivamente,
dp0 1 dE q
= = γu (E · u)
dτ c dτ c
dpi
d 1
= (γu pi ) = qγu Ei + (u × B)i .
dτ dτ c
Das equações acima, a última corresponde à forma relativística da força de Lorentz, enquanto
que a primeira descreve a taxa de transferência de energia entre a carga e os campos.
Por fim, quando há um sistema de partículas carregadas (caracterizadas pelo quadrivetor
J̃ ) interagindo com os campos, observa-se a conservação da energia, do momentum linear e
do momentum angular totais deste sistema. A primeira lei de conservação em particular é
denominada teorema de Poynting. A lei de conservação geral possui dois termos, um termo
correspondente às ondas e outro contendo a interação destas com as partículas. O primeiro
termo é descrito em função do tensor energia-momentum Θµν , dado por
1 1
Θµν = g µσ Fσα F αν + g µν Fαβ F αβ .
4π 4
1
∂µ Θµν = − F νσ Jσ .
c
21 Über das Gravitationsfeld eines Massenpunktes nach der Einsteinschen Theorie (A respeito do campo gravitacional de
uma partícula massiva na teoria de Einstein). Sitzungsberichte der Königlich Preussischen Akademie der Wissenschaften,
v. 7, p. 189–196, 1916. Acesso: https://www.biodiversitylibrary.org/item/93032#page/215/mode/1up (Versão
em inglês: https://arxiv.org/abs/physics/9905030v1).
Gαβ = 0,
Rαβ = 0.
Lembrando que o tensor de Ricci é dado por (6.68a), no espaço M 4 as equações de Einstein
ficam
∂Γγ αβ ∂Γγ αγ
Rαβ = − + Γδαβ Γγ δγ − Γδαγ Γγ δβ = 0, (α, β, γ, δ = 0, 1, 2, 3) . (6.86)
∂xγ ∂xβ
Busca-se uma solução do sistema acima para um espaço esfericamente simétrico. Por isso,
as coordenadas espaciais do quadrivetor serão escritas em termos das coordenadas polares
esféricas x1 = r, x2 = θ e x3 = ϕ. Além disso, a distâncias infinitas da massa que gera o campo,
a métrica do espaço-tempo deve se reduzir à métrica do espaço-tempo de Minkowski M 4 , dada
por
2
d`2 = (cdt) − dr2 − r2 dθ2 − r2 sin2 θdϕ2 .
Por estas razões, Schwarzschild propôs a seguinte métrica para o espaço-tempo em torno da
massa m:
d`2 = e2ν(r) c2 dt2 − e2λ(r) dr2 − r2 dθ2 + sin2 θdϕ2 ,
(6.87)
onde ν (r) e λ (r) são funções que devem ser derivadas pelas equações de campo e que estão
sujeitas à condição de contorno
lim ν (r) = lim λ (r) = 0.
r→∞ r→∞
Comparando a métrica proposta acima com a métrica geral no Rn definida em (6.26), conclui-
se que 2ν
e 0 0 0
0 −e2λ 0 0
g ≡ [gαβ ] =
0 0 −r2
.
0
2 2
0 0 0 −r sen θ
Ou seja, o tensor de métrica é diagonal. O determinante de gαβ é
onde
f0 = e ν , f1 = eλ , f2 = r, f3 = r sen θ,
o que resulta em
!
γ 1 −2 γδ ∂fβ2 ∂fα2 ∂fα2
Γ αβ = fγ δ δβδ + δαδ − δαβ
2 ∂xα ∂xβ ∂xδ
NS −2 ∂fβ ∂fα ∂fα
= fγ fβ δβγ α + fα δαγ β − fα δαβ γ .
∂x ∂x ∂x
0 ν0 0 0
2(ν−λ) 0
e ν 0 0 0
ν 0 0 0 0 0 λ0 0 0
Γ0 = Γ1 =
−2λ
0 0 0 0 0 0 −e r 0
−2λ 2
0 0 00 0 0 0 −e r sen θ
(6.88)
0 0 0 0 0 0 0 0
−1 −1
0 0 r 0 0 0 0 r
Γ2 = Γ3 =
.
0 r−1 0 0 0 0 0 cotan θ
0 0 0 − cos θ sen θ 0 r−1 cotan θ 0
Pode-se calcular também as contrações Γαβα , as quais podem ser colocadas na forma de uma
matriz coluna:
α
Γ 0α = Γ000 + Γ101 + Γ202 + Γ303 = 0
0
Γ α 0 1 2 3 0 0 −1
1α = Γ 10 + Γ 11 + Γ 12 + Γ 13 = ν + λ + 2r ν 0 + λ0 + 2r−1
=⇒ Γβ = .
Γα
2α = Γ0
20 + Γ 1
21 + Γ 2
22 + Γ 3
23 = cotan θ cotan θ
0
α
Γ 3α = Γ030 + Γ131 + Γ232 + Γ333 = 0.
∂γ Γγ 00 ∂γ Γγ 01 ∂γ Γγ 02 ∂γ Γγ 03
h i ∂ Γγ ∂ Γγ ∂ Γγ ∂ Γγ
∂γ Γγ αβ = γ 10 γ 11 γ 12 γ 13
∂γ Γγ 20 ∂γ Γγ 21 ∂γ Γγ 22 ∂γ Γγ 23
∂γ Γγ 30 ∂γ Γγ 31 ∂γ Γγ 32 ∂γ Γγ 33
2(ν−λ) 0
∂r e ν 0 0 0
0 λ00 0 0
= .
0 −∂r e−2λ r
0 0
∂r −e−2λ r sen2 θ + ∂θ (− cos θ sen θ)
0 0 0
Rαβ = 0 (α 6= β)
R00 = ν 00 − λ0 ν 0 + ν 02 + 2r−1 ν 0 = 0
R11 = −ν 00 + λ0 ν 0 − ν 02 + 2r−1 λ0 = 0
R22 = 1 − [1 + r (ν 0 − λ0 )] e−2λ = 0
R33 = 1 − (1 + ν 0 r − λ0 r) e−2λ sen2 θ = 0.
ν 00 − ν 0 λ0 + ν 02 + 2r−1 ν 0 = 0 (6.89a)
00 0 0 02 0 −1
ν − λ ν + ν − 2λ r =0 (6.89b)
0 0 −2λ
[r (λ − ν ) − 1] e +1=0 (6.89c)
0 0 −2λ 2
[r (λ − ν ) − 1] e + 1 sen θ = 0. (6.89d)
A equação (6.89d) é uma mera repetição de (6.89c). De (6.89a) e (6.89b) conclui-se que
Porém, pelo limite r → ∞ que ambas têm que satisfazer, resulta que, simplesmente, λ (r) = −ν (r).
Com isso, (6.89c) resulta
− (2rν 0 + 1) e2ν + 1 = 0.
Chamando µ (r) = e2ν ,
µ0
2ν 0 = =⇒ rµ0 + µ = 1.
µ
A solução desta EDO é
rG
µ (r) = e2ν(r) = 1 −
,
r
onde rG é uma constante de integração denominada o raio gravitacional ou o raio de Schwarzs-
child do corpo, a qual será em breve identificada com a massa do mesmo.
Assim, inserindo esta solução em (6.87), obteve-se a métrica de Schwarzschild
rG 2 2 rG −1 2
d`2 = 1 − dr − r2 dθ2 + sin2 θdϕ2 .
c dt − 1 −
r r
µ 0 0 0
0 −µ−1 0 (6.90)
0
[gαβ ] =
0 0 −r2
.
0
0 0 0 −r2 sen2 θ
d2 xα α dxβ dxγ
+ Γ βγ =0 (α, β, γ = 0, 1, 2, 3) ,
d`2 d` d`
sendo ` a extensão do arco da trajetória da partícula no espaço-tempo.
Será feito uso agora do conceito de tempo próprio, discutido na seção 6.15.1.4 e que consiste
no intervalo de tempo registrado no referencial sempre em repouso com o observador. Dada a
métrica
d`2 = gαβ dxα dxβ ,
no referencial em repouso ao observador, dois eventos infinitesimalmente separados no tempo
e que ocorrem no mesmo ponto do espaço ocorrem no intervalo dτ , onde τ é o tempo próprio.
Então, neste referencial, dxi = 0 (i = 1, 2, 3) e
. 2
d`2 = c2 dτ 2 = g00 dx0 .
Portanto,
dτ √
= c−1 , dτ = g00 dt.
d`
Então, nas equações de movimento será realizada a mudança de variável ` → τ via
dxα dxα dτ dxα
= = c−1 .
d` dτ d` dτ
Dessa forma, as equações de movimento da partícula no campo gravitacional ficam
d2 xα dxβ dxγ
2
+ Γαβγ =0 (α, β, γ = 0, 1, 2, 3) .
dτ dτ dτ
Na métrica de Schwarzschild, os símbolos de Christoffel são dados por (6.88) e
√
dτ = µdt.
d2 x0 dr dx0
2
+ 2ν 0 =0
dτ dτ dτ
0 2 1 2 2 2 3 2
d2 x1 dx dx dx dx
2
+ µ2 ν 0 − ν0 − µr − µr sen2 θ =0
dτ dτ dτ dτ dτ
2 2 1 2
3 2
d x dx dx dx
+ 2r−1 − sen θ cos θ =0
dτ 2 dτ dτ dτ
2 3 1 3
d x −1 dx dx dx2 dx3
+ 2r + 2 cotan θ = 0.
dτ 2 dτ dτ dτ dτ
Mas, como ν 0 = µ0 /2µ, pode-se escrever
dx0
d
µ =0 (6.91a)
dτ dτ
2 2 2 2
d2 r 1 0 dx0 1 µ0 dr
dθ 2 dϕ
− µr − µr sen θ + µµ − =0 (6.91b)
dτ 2 dτ dτ 2 dτ 2 µ dτ
2
d 2 dθ 2 dϕ
r − r sen θ cos θ =0 (6.91c)
dτ dτ dτ
d dϕ
r2 sen2 θ = 0. (6.91d)
dτ dτ
Observa-se que a primeira e a última equações de movimento pode ser imediatamente integra-
das, resultando em
dx0
µ =α
dτ
dϕ
r2 sen2 θ = h,
dτ
onde α e h são constantes de movimento, as quais foram escolhidas de maneira a facilitar a
identificação do limite não relativístico no movimento da partícula. Adicionalmente, será deter-
minada agora a orientação do referencial. Como a métrica é esfericamente simétrica, os eixos do
referencial podem ter qualquer orientação arbitrária, sem que isso comprometa a generalidade
da equação de movimento. Observando que a terceira equação de movimento é
2
d2 θ 2 dr dθ dϕ
+ − sen θ cos θ = 0,
dτ 2 r dτ dτ dτ
se a partícula estiver no plano θ = π/2 em um determinado instante próprio τ0 , pode-se desen-
volver θ (τ ) em torno de τ0 como
1 d2 θ
π dθ 2 1 dθ 3
θ (τ ) = + (τ − τ0 ) + (τ − τ0 ) + (τ − τ0 ) + · · · .
2 dτ τ0 2! dτ 2 τ0 3! dτ τ0
Ou seja,
d2 θ
dθ dθ 1 dθ 2
= + (τ − τ0 ) + (τ − τ0 ) + · · · .
dτ dτ τ0 dτ 2 τ0 2! dτ τ0
Se, adicionalmente, dθ/dτ |τ0 = 0, então a equação de movimento mostra que d2 θ/dτ 2 τ = 0. Para
0
se obter d3 θ/dτ 3 τ , deriva-se a equação para θ (τ ), resultando então que esta derivada também é
0
nula. Assim, pode-se mostrar que todos os termos na série de Taylor para θ (τ ) são nulos exceto
o primeiro. Portanto, as equações de movimento na métrica de Schwarzschild admitem uma
solução θ (τ ) = π/2, exatamente como na teoria Newtoniana da gravitação.
As equações de movimento reduzem-se então para
dx0
µ =α
dτ
dϕ
r2 = h,
dτ
2 2 2
d2 r 1 µ0 dr
h 1 0 α
− µr + µµ − = 0.
dτ 2 r2 2 µ 2 µ dτ
2
Agora, o termo (dr/dτ ) na equação será modificado a partir da métrica. De (6.90), resulta
que
2 0 2 " 2 #
2
−1 dr dx 2 dθ 2 dϕ
µ =µ −r + sen θ − c2
dτ dτ dτ dτ
h2
= µ−1 α2 − − c2 ,
r2
onde também foi empregada a identidade d` = cdτ . Portanto,
d2 r h2 1 0 h2 1
2
− µ 3
+ µ 2 + µ0 c2 = 0,
dτ r 2 r 2
d2 r 3 rG h2 rG c2
2
− 1− 3
+ = 0, (6.92)
dτ 2 r r 2r2
h2 GM
r̈ − 3
+ 2 = 0.
r r
Comparando-se esta equação com (6.92) no limite clássico, obtém-se
2GM
rG = .
c2
É interessante comparar-se os raios de Schwarzschild de alguns objetos astronômicos conhe-
cidos. A tabela 6.3 mostra o valores de rG e também da densidade dos objetos. Observa-se que a
Terra tem um raio gravitacional de pouco menos do que 1 cm, ao passo que para o Sol, rG ≈ 3 km.
Ou seja, os seus raios gravitacionais são muito menores que os seus tamanhos. Contudo, um
objeto suficientemente denso pode ser um raio de Schwarzschild maior que o seu tamanho. Se
o raio do objeto é s
3
3M
r= ,
4πρ
sendo ρ sua densidade, então rG > r se
3c6
ρ> .
32πG3 M 2
Isto é o que ocorre com um Buraco Negro.
R EFERÊNCIAS
ARFKEN, G. B.; WEBER, H. J. Mathematical Methods for Physicists. Sixth. New York: Elsevier,
2005. 1182 + xii pp. ISBN: 0-12-059876-0.
BELLAC, M.; LÉVY-LEBLOND, J.M. Galilean electromagnetism. English. Il Nuovo Cimento, So-
cietà Italiana di Fisica, v. 14, n. 2, p. 217–234, abr. 1973. ISSN: 0369-3554. DOI: 10.1007/
BF02895715.
BISHOP, R. L.; GOLDBERG, S. I. Tensor Analysis on Manifolds. New York: Dover, 2012. (Dover
Books on Mathematics). ISBN: 9780486139234.
BLOCH, A. M. Nonholonomic Mechanics and Control. New York: Springer, 2003. (Interdisciplinary
Applied Mathematics). ISBN: 9780387955353.
BORISENKO, A.A.I.; TARAPOV, I.E.; SILVERMAN, R.A. Vector and Tensor Analysis With Applica-
tions. New York: Dover, 1968. (Dover Books on Mathematics). 257 + x pp. ISBN: 9780486638331.
DALARSSON, M.; DALARSSON, N. Tensor Calculus, Relativity, and Cosmology: A First Course.
New York: Elsevier, 2005. 280 + xii pp. ISBN: 9780122006814.
DEBENEDICTIS, Andrew. Integration in General Relativity, p. 7, fev. 1998. Disponível em: <http:
//arxiv.org/abs/physics/9802027>.
EINSTEIN, Albert. A Generalized Theory of Gravitation. Reviews of Modern Physics, American
Physical Society, v. 20, n. 1, p. 35–39, jan. 1948. DOI: 10.1103/RevModPhys.20.35.
FITZPATRICK, Richard. Fluid Mechanics. [S.l.: s.n.], 2012. Acesso em 10/03/2013. Disponível
em: <http://farside.ph.utexas.edu/teaching/336l/fluidhtml/Fluidhtml.html>.
GARWIN, Richard L.; LEDERMAN, Leon M.; WEINRICH, Marcel. Observations of the Failure of
Conservation of Parity and Charge Conjugation in Meson Decays: the Magnetic Moment of the
Free Muon. Physical Review, American Physical Society, v. 105, n. 4, p. 1415–1417, fev. 1957.
DOI: 10.1103/PhysRev.105.1415.
JACKSON, J. D. Classical Electrodynamics. Third. New York: John Wiley & Sons, 1999. 808 +
xxi pp. ISBN: 0-471-30932-X.
JOSHI, A. W. Matrices And Tensors In Physics. New Delhi: John Wiley & Sons, 1995. 342 + xvi
pp. ISBN: 9788122405637.
KAY, D. Schaums Outline of Tensor Calculus. New York: McGraw-Hill, 2011. (Schaum’s Outline
Series). 228 + ix pp. ISBN: 9780071756037.
LEE, T. D.; YANG, C. N. Question of Parity Conservation in Weak Interactions. Physical Review,
American Physical Society, v. 104, n. 1, p. 254–258, out. 1956. DOI: 10.1103/PhysRev.104.
254.
MATHEWS, Jon; WALKER, R. L. Mathematical methods of physics. Second. [S.l.]: W. A. Benjamin,
1970. (World Student Series). 501 + xiii pp. ISBN: 9780805370027.
MISNER, C.W.; THORNE, K.S.; WHEELER, J.A. Gravitation. San Francisco: Freeman, 1973.
1279 + xxvii pp. ISBN: 9780716703440.
NEARING, James. Mathematical Tools for Physics. New York: Dover Publications, out. 2010.
(Dover Books on Physics). 496 pp. ISBN: 978-0486482125.
POUND, R. V.; REBKA, G. A. Apparent Weight of Photons. Physical Review Letters, American
Physical Society, v. 4, n. 7, p. 337–341, abr. 1960. DOI: 10.1103/PhysRevLett.4.337.
. Gravitational Red-Shift in Nuclear Resonance. Physical Review Letters, American Phy-
sical Society, v. 3, n. 9, p. 439–441, nov. 1959. DOI: 10.1103/PhysRevLett.3.439.
22 Ver também: Physics Focus: The Weight of Light.
PRICE, Richard H. General relativity primer. American Journal of Physics, v. 50, n. 4, p. 300–
329, abr. 1982. DOI: 10.1119/1.12853.
RINDLER, Wolfgang. Relativity: Special, General, and Cosmological. New York: Oxford University
Press, 2006. 430 + xvi pp. ISBN: 9780198567325.
SHARIPOV, R. A. Quick introduction to tensor analysis. [S.l.], mar. 2004. 47 pp. eprint: arXiv:
math/0403252. Disponível em: <http://arxiv.org/abs/math/0403252>.
SIMMONDS, James D. A Brief on Tensor Analysis. Second. New York: Springer-Verlag, jul. 1997.
(Undergraduate Texts in Mathematics). 112 + xiv pp. ISBN: 9780387940885.
SOKOLNIKOFF, I. S. Tensor Analysis. Theory and Applications. New York: John Wiley & Sons,
1951. (Applied Mathematics Series). 335 + x pp.
SYNGE, J.J.L.; SCHILD, A. Tensor calculus. New York: Dover, 1969. (Dover books on advanced
mathematics). 329 + ix pp. ISBN: 9780486636122.
SZEKERES, Peter. A Course in Modern Mathematical Physics: Groups, Hilbert Space, and Differen-
tial Geometry. Cambridge: Cambridge University Press, 2004. ISBN: 9780521536455. Disponível
em: <http://books.google.com.br/books?id=pRgjkgEACAAJ>.
WU, C. S. et al. Experimental Test of Parity Conservation in Beta Decay. Physical Review, Ameri-
can Physical Society, v. 105, n. 4, p. 1413–1415, fev. 1957. DOI: 10.1103/PhysRev.105.1413.
D ELTA DE D IRAC é um artifício matemático utilizado em diversas áreas da física. Por exem-
Por continuidade, entende-se que para qualquer seqüência ϕ1 , ϕ2 , . . . , ϕj , . . . de funções tais que
lim ϕj = ϕ,
j→∞
tem-se
lim T [ϕj ] = T [ϕ] .
j→∞
A.1.1.1 E XEMPLOS
A função 1/x não define uma distribuição porque não é integrável no ponto x = 0. Contudo,
pode-se definir a distribuição ˆ
1 ϕ(x)
PP [ϕ] ≡ PP dx,
x x
1 Integral na definição de Integral de Lebesgue. Uma integral de Lebesgue reduz-se a uma integral de Riemann (integral
usual) sempre que a última puder ser definida. Contudo, a integral de Lebesgue existe mesmo em casos onde a integral
de Riemann não pode ser definida.
309
310 A.1. Definição de Distribuições
δ [ϕ] = ϕ(0),
Sendo fˆ uma distriuição associada com uma função localmente integrável f e T uma distri-
buição arbitrária, a distribuição
P = fˆT
é bem definida se T é linear, é um funcional contínuo da função f ϕ e tem-se, por definição,
P [ϕ] = T [f ϕ] .
Se f e g são funções quadraticamente integráveis,2 o produto fˆĝ está bem definido. Por outro
p 2
2
lado, [δ(x)] não tem sentido, assim como 1/ |x| .
Como um caso especial da equação (A.1), tem-se
xδ(x) = 0.
xf (x) = g(x),
tem-se, necessariamente,
g(x)
f (x) = PP + cδ(x)
x
onde c é uma constante a ser determinada.
T = lim Tj .
j→∞
2 Isto
´ 2 ´ 2
é, se |f | dx e |g| dx existirem.
for definida para qualquer ϕ, seu resultado define uma distribuição; neste caso, diz-se que
a série de distribuições {Ti } é realizável:
X
T [ϕ] = Ti [ϕ] .
i
Se T (λ) é uma distribuição que depende de um parâmetro λ ∈ C, o qual pode variar continua-
mente em um domínio Λ e se a integral
ˆ
I [ϕ] = T (λ) [ϕ] dλ
Λ
´
converge para qualquer ϕ, o objeto I = Λ T (λ)dλ define uma distribuição. Uma definição análoga
vale para integrais múltiplas.
Em particular, se f (x, λ) é uma função localmente integrável de x e λ, a distribuição fˆ(λ) é
integrável em λ e sua integral é a distribuição ĝ associada com a função:
ˆ ˆ
ĝ [1] = fˆ(λ) [1] dλ = f (x, λ)dλ.
Λ Λ
Se a função a(k) permanece menor que uma potência positiva de |k| quando |k| → ∞ :
α
|a(k)| ≤ A |k| (Ae αconstantes positivas),
a integral ˆ ∞
eikx a(k)dk
−∞
é uma distribuição. Em particular,
ˆ ∞
eikx dk = 2πδ(x).
−∞
Em
P conseqüência, se a série existe, ela é diferenciável termo a termo sob o símbolo de soma
. Da mesma forma, se T (λ) é integrável sob o parâmetro λ, ∂T (λ)/∂xi também é integrável
e ˆ
∂I ∂
= T (λ) [ϕ] dλ.
∂xi Λ ∂x i
A.2.1 D EFINIÇÃO DA δ
Sendo f (x) uma função definida no domínio Ω e x0 ∈ R,
ˆ (
f (x0 ), x0 ∈ Ω
f (x)δ(x − x0 )dx ≡ δx0 [f (x)] = (A.2a)
Ω 0, x0 6∈ Ω.
onde ˆ ∞
δ(x − x0 ) dx = 1. (A.2b)
−∞
Neste caso, a δ pode ser pensada como a generalização da delta de Kronecker
(
0, m 6= n
δnm =
1, m = n
Figura A.1: Outras representações da δ(x−x0 ) junto com gráficos ilustrando a tendência das funções para → 0.
Uma outra propriedade importante, que com freqüência é utilizada no tratamento de funções
complexas é a fórmula de Plemelj:
1 1
lim = PP ∓ iπδ(x − x0 ). (A.4i)
→+0 x − x0 ± i x − x0
Todas as igualdades apresentadas acima indicam que um lado da equação pode ser substi-
tuído pelo outro lado quando a δ for multiplicada por uma função regular e o produto integrado
sobre a variável x. Um exemplo de aplicação da propriedade (A.4d) é apresentada abaixo:
definição esta válida para qualquer função f (x) diferenciável m vezes no ponto x = x0 ∈ Ω. A
δ (m) (x − x0 ) pode ser considerada como o limite da derivada de ordem m de qualquer das funções
dadas em (A.3a-d). As propriedades das derivadas da δ são as seguintes:
xδ 0 (x) = −δ(x)
x2 δ 0 (x) = 0
ˆ ∞
0 i
δ (x) = keikx dk.
2π −∞
Como exemplo, a propriedade (A.5a) pode ser obtida integrando-se por partes m vezes o
funcional
ˆ ∞ ˆ ∞ ˆ ∞
δ (m) (x)f (x)dx = − δ (m−1) (x)f 0 (x)dx = · · · = (−1)m δ(x)f (m) (x)dx.
−∞ −∞ −∞
E XEMPLOS
C OORDENADAS ESFÉRICAS . Nas coordenadas esféricas, q1 = r, q2 = θ e q3 = ϕ. Os fatores
de escala são h1 = r2 , h2 = sen θ e h3 = 1. Portanto,
1
δ (r − r 0 ) = δ (r − r0 ) δ (θ − θ0 ) δ (ϕ − ϕ0 ) .
r2 sen θ
Assim, sendo r 0 um ponto contido em V, (A.7a) será respeitada, pois
ˆ ˆ
1
δ (r − r 0 ) d3 r = 2 sen θ
δ (r − r0 ) δ (θ − θ0 ) δ (ϕ − ϕ0 ) r2 sen θdrdθdϕ = 1.
V V r
Uma outra forma utilizada com freqüência é
1
δ (r − r 0 ) = δ (r − r0 ) δ (cos θ − cos θ0 ) δ (ϕ − ϕ0 ) .
r2
P ONTOS DEGENERADOS
A expressão (A.8) assume que r 0 não é um ponto degenerado, isto é, não é caracterizado por
mais de um conjunto de valores de coordenadas. Em algumas situações, o “ponto” degenerado
pode ser uma curva ou uma superfície em 3D.
Exemplos de pontos degenerados são: a origem num sistema plano-polar (caracterizado por
r = 0 e qualquer valor de 0 6 θ 6 2π), a origem em um sistema curvilíneo em 3D (r = 0, 0 6 θ 6 π,
0 6 ϕ 6 2π em coordenadas esféricas), o eixo z em coordenadas cilíndricas (ρ = 0, 0 6 ϕ 6 2π).
Suponha, então, que a coordenada q1 assume todos os valores no intervalo q11 < q1 < q12 .
Neste caso, a representação correta de δ (r − r 0 ) não é (A.8), uma vez que a coordenada q1 não
mais possui um único valor para q10 (sua multiplicidade é coberta pela variação de q1 ). Neste
caso, a propriedade (A.7a) é novamente respeitada se
δ (q2 − q20 ) δ (q3 − q30 )
δ (r − r 0 ) = ´
q12
,
h
q11 1 1
dq h2 h3
Por exemplo, considerando um problema em coordenadas esféricas que possua simetria azimu-
tal, então a coordenada ϕ deve ser eliminada, pois será multiplamente definida. Neste caso,
1 1
δ (r − r 0 ) = ´ 2π δ (r − r0 ) δ (θ − θ0 ) = δ (r − r0 ) δ (θ − θ0 ) .
r2 sen θ dϕ 2πr2 sen θ
0
δ (q3 − q30 )
δ (r − r 0 ) = ´ q ´ q .
12 22
h h dq dq h3
q11 q21 1 2 1 2
R EFERÊNCIAS
MESSIAH, Albert. Quantum Mechanics: Two Volumes Bound as One. Mineola: Dover, 1999. 1136
+ xxii pp. ISBN: 0-486-40924-4.