Análisis Tensorial 2
Análisis Tensorial 2
Análisis Tensorial 2
Apuntes de un curso de
FÍSICA MATEMÁTICA
Tercera edición, revisión 080424-10
José Rogan C.
Vı́ctor Muñoz G.
Índice
I Análisis Tensorial 3
1. Una breve revisión de álgebra lineal. 5
1.1. Notación. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
1.2. Operaciones vectoriales. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8
1.2.1. Rotación de vectores. . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9
1.2.2. Productos vectoriales. . . . . . . . . . . . . . . . . . . . . . . . . . . . 11
1.2.3. Cálculos usando notación de Einstein. . . . . . . . . . . . . . . . . . . . 15
iii
iv ÍNDICE
4. Introducción a tensores. 59
4.1. El tensor de conductividad y la ley de Ohm. . . . . . . . . . . . . . . . . . . . 59
4.2. Notación tensorial general y terminologı́a. . . . . . . . . . . . . . . . . . . . . 62
4.3. Transformaciones entre sistemas de coordenadas. . . . . . . . . . . . . . . . . . 63
4.3.1. Transformaciones vectoriales entre sistemas cartesianos. . . . . . . . . . 63
4.3.2. La matriz de transformación. . . . . . . . . . . . . . . . . . . . . . . . 64
4.3.3. Resumen de transformaciones de coordenadas. . . . . . . . . . . . . . . 67
4.3.4. Transformaciones tensoriales. . . . . . . . . . . . . . . . . . . . . . . . 68
4.4. Diagonalización de tensores. . . . . . . . . . . . . . . . . . . . . . . . . . . . . 69
4.4.1. Diagonalización y problema de valores propios. . . . . . . . . . . . . . . 70
4.5. Transformaciones tensoriales en sistemas de coordenadas curvilı́neos. . . . . . 76
4.6. Pseudo-objetos. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 77
4.6.1. Pseudo-vectores. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 77
4.6.2. Pseudo-escalares. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 82
4.6.3. Pseudo-tensores. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 83
vii
viii ÍNDICE DE FIGURAS
1
2 ÍNDICE DE FIGURAS
Parte I
Análisis Tensorial
3
Capı́tulo 1
Este capı́tulo presenta una rápida revisión del álgebra de vectores y de matrices. No
intentamos cubrir por completo estos tópicos sino más bien usarlos como introducción a
la notación con subı́ndices y la convención de suma de Einstein. Estas herramientas nos
simplificarán la a menudo complicada manipulación del álgebra lineal.
1.1. Notación.
Una notación estandard y consistente es un hábito muy importante a formar en matemáti-
cas. Una buena notación no sólo facilita los cálculos sino que permite análisis dimensional y
ayuda a encontrar y corregir errores. Ası́ comenzamos por explicitar la notación que usaremos
a través de los apuntes.
Sı́mbolo Cantidad
vi Una componente de un vector
Mi···j Un elemento de una matriz o tensor
[M ] la matriz completa
~v Un vector
êi Un vector base
↔
T Tensor
L Un operador
donde las componentes (vx , vy , vz ) son llamadas las componentes Cartesianas de ~v y (êx , êy , êz )
son los vectores bases del sistema de coordenadas. La notación puede ser más eficiente aún si
1
Este capı́tulo está basado en el primer capı́tulo del libro: Mathematical Physics de Brusse Kusse & Erik
Westwig, editorial John Wiley & Sons, Inc..
5
6 CAPÍTULO 1. UNA BREVE REVISIÓN DE ÁLGEBRA LINEAL.
reemplazamos los subı́ndices con letras (x,y,z), en las componentes, por subı́ndices numéricos
(1,2,3). Con esto, definimos:
ê1 = êx v1 = vx
ê2 = êy v2 = vy
(1.2)
ê3 = êz v3 = vz
o más sucintamente
3
X
~v = vi êi . (1.4)
i=1
La figura (1.1) muestra esta modificación notacional sobre un tı́pico sistema de coordenadas
Cartesiano.
Aunque la notación de subı́ndices puede ser usada en diferentes tipos de sistemas de coor-
denadas, en este capı́tulo limitaremos nuestra discusión al sistema Cartesiano. Los vectores
bases Cartesianos son ortonormales y posición independientes. Ortonormal significa que la
magnitud de cada vector es unitaria y que ellos son perpendiculares entre ellos. Independiente
de la posición significa que los vectores bases no cambian su orientación cuando los movemos
a través del espacio. Sistema de coordenadas no-Cartesianos son cubiertos en detalle en el
capı́tulo 3.
La ecuación (1.4) puede ser compactada aún más introduciendo la convención de suma
de Einstein la cual supone que se suma cada vez que se repiten los subı́ndices en el mismo
término. Por lo tanto
X3
~v = vi êi = vi êi . (1.5)
i=1
z 3
y 2
ez ey e3 e2
x 1
ex e1
Figura 1.1: El sistema Cartesiano estandard
con una suma implı́cita sobre el ı́ndice j. notemos que j está en la segunda posición de el
término Mij y en la primera posición de el término Njk , tal que la sumatoria es sobre las
columnas de [M ] y sobre las filas de [N ], tal como era en la ecuación (1.10). La ecuación
(1.12) es una expresión para el elemento ik-ésimo de la matriz [P ].
La notación de arreglos matriciales es conveniente para hacer cálculos numéricos, es-
pecialmente cuando se usan computadores. Cuando derivamos las relaciones entre diversas
cantidades en fı́sica es a menudo inadecuada porque carece de un mecanismo para mantener
la pista de la geometrı́a del sistema de coordenadas. Por ejemplo, en un particular sistema
de coordenadas , el vector ~v , puede ser escrito como
Cuando realizamos los cálculos es a veces conveniente usar una representación matricial del
vector escribiendo
1
~v → [v] = 3 .
(1.14)
2
El problema con esta notación es que no hay una manera conveniente para incorporar los
vectores bases en la matriz. Esta es la razón de que fuimos cuidadosos y usamos una flecha
(→) en la ecuación (1.14) en vez del signo igual (=). En estos apuntes un signo igual entre
dos cantidades significa que ellas son perfectamente equivalente en todas sus formas. Una
cantidad puede ser subtituidas por la otra en cualquier expresión. Por ejemplo, la ecuación
(1.13) implica que la cantidad 1ê1 + 3ê2 + 2ê3 puede reemplazar a ~v en cualquier expresión
matemática y vice-versa. En contraste la flecha en (1.14) implica que [v] puede representar
a ~v y que los cálculos pueden ser realizados usándolo, pero debemos ser cuidadoso no son
directamente substituibles uno por otro sin especificar los vectores bases asociados con las
componentes de [v].
una matriz columna (3 × 1) o una matriz fila (1 × 3), cuyos elementos son las componentes
de el vector en alguna base Cartesiana:
v1
~v → [v]† = v1 v2 v3 .
~v → [v] = v2 o (1.15)
v3
la notación estandard [v]† es usada para indicar la traspuesta de [v], indicando un intercambio
de filas por columnas. Recordemos que el vector ~v puede tener un número infinito de diferentes
representaciones de arreglos matriciales, cada una escrita con respecto a una diferente base
coordenada.
2 2 a’
a
φ
θ θ
1 1
Figura 1.2: Geometrı́a para la rotación vectorial
p
En esta expresión a = |~a| = a21 + a22 es la magnitud del vector ~a. El vector ~a 0 es
generado por rotar el vector ~a en el sentido contrario a los punteros del reloj en un ángulo φ.
Esto cambia la orientación del vector pero no su magnitud. Por lo tanto, podemos escribir
Las componentes a01 y a02 pueden ser reescritas usando las identidades trigonométricas
para seno y el coseno de la suma de ángulos
a01 = a cos(θ + φ) = a {z θ} cos φ − a
| cos | sen
{z θ} sen φ
a1 a2
(1.19)
a02 = a sen(θ + φ) = a
| cos
{z θ} sen φ + a
| sen
{z θ} cos φ
a1 a2
10 CAPÍTULO 1. UNA BREVE REVISIÓN DE ÁLGEBRA LINEAL.
En esta última expresión [R(φ)]es llamada la matriz de rotación y está claramente definida
como
cos φ − sen φ
[R(φ)] = . (1.23)
sen φ cos φ
Notemos que para que la ecuación (1.22) sea la misma que la ecuación (1.19), y para que
la multiplicación de matrices tenga sentido, las matrices [a] y [a0 ] deben ser matrices columnas
y [R(φ)] debe premultiplicar a [a]. El resultado de la ecuación (1.19) también puede escribirse
usando una representación fila para [a] y [a0 ]. En este caso, las transpuestas de [R(φ)], [a] y
[a0 ] deben ser usadas, y [R(φ)]† debe postmultiplicar a [a]† :
†
[a0 ] = [a]† [R(φ)]† . (1.24)
La multiplicación de matrices en la ecuación (1.22) suma es sobre las columnas de los elemen-
tos de [R(φ)]. Esto se logra en la ecuación (1.26) por la suma implı́cita sobre j. A diferencia
de la notación matricial en la notación de Einstein el orden de aj y Rij no es ya importante,
porque
Rij aj = aj Rij . (1.27)
El vector ~a 0 puede ser escrito usando la notación de Einstein combinada con la ecuación
(1.26) con los vectores bases
~a 0 = Rij aj êi . (1.28)
Esta expresión demuestra una propiedad de “contabilidad notacional” de la notación de
Einstein. La suma sobre un subı́ndice remueve la dependencia en expresión, de la misma
1.2. OPERACIONES VECTORIALES. 11
manera que cuando uno integra sobre una variable. Por esta razón, el proceso de sumar
ı́ndices es a menudo llamado contracción sobre un ı́ndice. Hay dos sumas en el lado derecho
(LD) de la ecuación (1.28), una sobre i y la otra sobre j. Después de la contracción sobre
ambos subı́ndices, no permanecen subı́ndices en LD. Esto es consistente con el hecho de que
no hay subı́ndices en el lado izquierdo (LI) de la ecuación. La única notación sobre el LD es
una flecha sobre ~a 0 indicando que es un vector, lo cual también existe al LI con el vector
unitario êi . Esta suerte de análisis notacional puede ser aplicado a todas las ecuaciones. La
notación sobre el LI de un signo igual debe estar siempre de acuerdo con la notación en el
LD. Este hecho puede ser usado para chequear las ecuaciones. Por ejemplo,
~a 0 6= Rij aj , (1.29)
En esta ecuación, d~r es un vector desplazamiento diferencial. El producto cruz puede ser
usado para encontrar la fuerza sobre una partı́cula de carga q moviéndose con velocidad ~v en
un campo magnético externo B ~
q
F~ = (~v × B)
~ , (1.31)
c
doden c es la velocidad de la luz en el vacı́o.
El producto punto
~yB
El producto punto o interno entre dos vectores A ~ es un escalar definido por
~·B
A ~ = |A||
~ B|~ cos θ , (1.32)
donde θ es el ángulo entre los dos vectores, como muestra la figura (1.3. Si nosotros tomamos
el producto punto de un vector con si mismo tendremos la magnitud al cuadrado de dicho
vector
A~·A ~ = |A|
~2. (1.33)
En notación de Einstein la ecuación (1.32) se escribe como
~·B
A ~ = Ai êi · Bj êj . (1.34)
Como hemos restringido nuestra atención a sistemas cartesianos donde los vectores bases son
ortogonales, tenemos (
1 i=j
êi · êj = . (1.36)
0 i 6= j
2
A
B
θ
1
Figura 1.3: El producto punto.
La delta de Kronecker (
1 i=j
δij = , (1.37)
6 j
0 i=
facilita los cálculos que involucran productos puntos. Usándola, podemos escribir êi · êj = δij ,
en la ecuación (1.35) se transforma en
~·B
A ~ = Ai Bj δij . (1.38)
La ecuación (1.38) puede ser expandida haciendo explı́citas las sumas sobre ambos ı́ndices
~·B
A ~ = A1 B1 δ11 + A1 B2 δ12 + A1 B3 δ13 + A2 B1 δ11 + . . . . (1.39)
Ya que la delta de Kronecker es cero a menos que los subı́ndices sean iguales. La ecuación
(1.39) se reduce a sólo tres términos.
~·B
A ~ = A1 B1 + A2 B2 + A3 B3 = Ai Bi . (1.40)
Ai δij = Aj . (1.41)
1.2. OPERACIONES VECTORIALES. 13
En la ecuación (1.38) la delta de Kronecker puede ser agrupada con el factor Bj ,y contraı́da
sobre j para dar
Ai (Bj δij ) = Ai Bi . (1.42)
De la misma manera podemos agruparla con el factor Ai , y sumar sobre i para dar un
resultado equivalente
Bj (Ai δij ) = Bj Aj . (1.43)
Esto es cierto para expresiones más complicadas. Por ejemplo,
Esta flexibilidad es una de las cosas que hace los cálculos realizados con notación de Einstein
más fácil que trabajar con notación de matrices.
Deberı́amos precisar que la delta de Kronecker también puede ser vista como una matriz
o arreglo matricial. En tres dimensiones esta representación llega a ser
1 0 0
δij → [1] = 0 1 0 . (1.45)
0 0 1
Esta matriz puede ser usada para escribir la ecuación (1.38) en notación matricial. Note-
mos que la contracción sobre el ı́ndice i suma sobre las filas de la matriz [1], mientras que la
contracción sobre j suma sobre las columnas. Ası́, la ecuación (1.38) en notación matricial es
1 0 0 B1
~·B~ → [A]† [1] [B] = A1 A2 A3 0 1 0 B2
A
0 0 1 B3
= [A]† [B] . (1.46)
El producto cruz
~ yB
El producto cruz o producto vectorial entre dos vectores A ~ forma un tercer vector
~ el cual puede ser escrito como
C,
C~ =A ~×B ~ . (1.47)
~ es
La magnitud del vector C
~ = |A||
|C| ~ B|~ sen θ , (1.48)
donde θ es el ángulo entre los dos vectores, como muestra la figura (1.4). la dirección de
~ depende de que el sistema de coordenadas sea derecho. Por convención, los sistemas de
C
coordenadas tridimensionales en fı́sica son usualmente derechos. Extendiendo los dedos de la
manos derecha tal que ellos queden alineados con el vector base ê1 . Ahora, enrollemoslos hacia
el vector base ê2 . Si el pulgar apunta a lo largo del vector base ê3 el sistema de coordenadas
es derecho. Cuando un sistema de coordenadas está dispuesto de esta manera la dirección del
producto cruz sigue una regla similar. Para determinar de C ~ en la ecuación (1.47), apunte
14 CAPÍTULO 1. UNA BREVE REVISIÓN DE ÁLGEBRA LINEAL.
θ A
Otra manera de expresar el producto cruz es usando el determinante de una matriz, donde
algunos de sus elementos son los vectores bases:
ê1 ê2 ê3
~×B ~ = A1 A2 A3
A . (1.49)
B1 B2 B3
det
~×B
A ~ = (A2 B3 − A3 B2 )ê1 + (A3 B1 − A1 B3 )ê2 + (A1 B2 − A2 B1 )ê3 . (1.50)
Esta última expresión puede ser escrita usando la notación de Einstein, con la presentación
del sı́mbolo de Levi-Civita ijk :
~×B
A ~ = Ai Bj êk ijk , (1.51)
Una permutación impar de (1,2,3) es cualquier rearreglo de estos tres números que pueda
ser realizado con un número impar de intercambio de pares. Ası́, las permutaciones impares
de (1,2,3) son (2,1,3),(1,3,2) y (3,2,1). Similarmente las permutaciones pares de (1,2,3) son
(1,2,3),(2,3,1) y (3,1,2). Ya que los subı́ndices i, j y k pueden tomar independientemente los
valores (1,2,3), una manera de visualizar el sı́mbolo de Levi-Civita es como un arreglo de
3 × 3 × 3 como lo muestra la figura (1.5)
k ε 313
i
j ε 111
ε ijk
ε 331
Ejemplo 1
~A
Volvamos a la figura de la rotación (1.2), y consideremos el producto A· ~yA ~ 0 ·A
~ 0 , primero
usando notación matricial y luego usando notación de Einstein. Ya que A ~ 0 es generada por
~ sabemos que estos dos productos puntos, los cuales representan la
una rotación simple de A
magnitud al cuadrado de los vectores, deberı́a ser iguales.
Usando matrices:
~·A
A ~ = [A]† [A] (1.53)
A ~ 0 = [A0 ]† [A0 ] .
~ 0·A (1.54)
16 CAPÍTULO 1. UNA BREVE REVISIÓN DE ÁLGEBRA LINEAL.
Pero [A0 ] y [A0 ]† pueden ser expresadas en términos de [A] y [A]† como
†
[A0 ] = [R(φ)] [A] [A0 ] = [A]† [R(φ)]† , (1.55)
donde R(φ) es la matriz de rotación definida en la ecuación (1.23). Si estas dos ecuaciones
son reemplazadas en la ecuación (1.54), tenemos
Notemos que debemos ser cuidadosos en usar diferentes subı́ndices para las dos sumas en las
ecuaciones (1.60) y (1.61). Esto asegura mantenerlas independientes cuando ellas sean mani-
puladas en los siguientes pasos. Las componentes primas pueden ser expresadas en términos
de las componentes sin primas como
donde Rij es el ij-ésimo elemento de la matriz de rotación R(φ). Insertando esta expresión
en la ecuación (1.61) obtenemos
~ 0·A
A ~ 0 = Rru Au Rrv Av , (1.63)
donde nuevamente hemos sido cuidadosos en usar diferentes subı́ndices u y v. Esta ecuación
tiene tres sumas implı́citas, sobre los ı́ndices r, u y v.
Un la notación con subı́ndices, a diferencia de la notación de matrices, el orden de los
términos no es importante, ası́ podemos rearreglar la ecuación (1.63) tal que quede
~ 0·A
A ~ 0 = Au Av Rru Rrv . (1.64)
1.2. OPERACIONES VECTORIALES. 17
Ahora nos concentramos en la suma sobre r, la cual sólo involucra los elementos de matriz
de [R] en el producto Rru Rrv . ¿Qué significa este producto? Al comparar con las operaciones
discutidas previas. En la ecuación (1.12) precisamos la expresión en subı́ndices Mij Njk repre-
senta el producto regular de matrices [M ] [N ] porque el ı́ndice sumado j está en la segunda
posición de la matriz [M ] y en la primera posición en la matriz [N ]. La expresión Rru Rrv ,
sin embargo, tiene una contracción sobre el primer ı́ndice en ambas matrices. Para que este
producto tenga sentido, escribimos la primera instancia de [R] usando la transpuesta:
De la ecuación (1.57)
Rru Rrv = δuv . (1.66)
Substituyendo este resultado en la ecuación (1.64) nos da
~ 0·A
A ~ 0 = Au Av δuv = Au Av = A
~·A
~. (1.67)
Obviamente, este ejemplo es muy fácil. No quedo demostrada ninguna ventaja entre la nota-
ción de Einstein y la notación de matrices. Sin embargo, se destaca su equivalencia. En el
siguiente ejemplo la notación de Einstein probará ser más indispensable
Ejemplo 2
La notación de Einstein permite la derivación de identidades vectoriales que parecen
imposibles usando otra manera. El ejemplo que trabajaremos será la derivación de la identidad
del doble producto cruz entre tres vectores A ~ × (B ~ × C).
~ Este ejemplo muestra la mayorı́a
de las operaciones comunes que ocurren en este tipo de manipulaciones.
~ B
La expresión A×( ~ × C)
~ está escrita en notación vectorial y es válida en cualquier sistema
de coordenadas. Para derivar nuestra identidad, convertiremos esta expresión en notación
de Einstein en un sistema de coordenadas Cartesiano. Al final retornaremos a la notación
vectorial para obtener un resultado que no dependa de ningún sistema de coordenadas. En
este ejemplo, necesitaremos usar la forma de subı́ndices de un vector
V~ = Vi êi , (1.68)
~·B
A ~ = Ai Bi , (1.69)
~ = Bi Cj êk ijk .
D (1.72)
18 CAPÍTULO 1. UNA BREVE REVISIÓN DE ÁLGEBRA LINEAL.
~ B×
Substituyendo la ecuación (1.71) en la expresión A×( ~ C)
~ y usando Levi-Civita nuevamente
~ × (B
A ~ × C)
~ = Ar Ds êt rst . (1.73)
La s-ésima componente de D ~ es obtenida aplicando el producto punto con ês a ambos lados
de la ecuación (1.72) como sigue
~ = ês · Bi Cj êk ijk
Ds = ês · D
Bi Cj ijk (ês · êk )
. (1.74)
Bi Cj ijk δsk
Bi Cj ijs
Para proceder, necesitamos desarrollar algunas de las propiedades del sı́mbolo de Levi-
Civita. Primero, de acuerdo a la definición dada en la ecuación (1.52) es claro que intercambiar
cualquier par de ı́ndices sólo cambia el signo, i.e
En este punto uno puede realmente ver la utilidad de la notación de Einstein. Los factores en
los dos términos del LD de la ecuación (1.80) pueden ser arreglados, agrupados de acuerdo a
las sumas, y volver a la notación vectorial ¡en sólo dos lı́neas! El procedimiento es
~ × (B
A ~ × C)
~ = (Aj Cj )(Bi êi ) − (Ai Bi )(Cj êj ) (1.81)
~ · C)
= (A ~ B~ − (A ~ · B)
~ C~ . (1.82)
La ecuación (1.81) es válida sólo en un sistema Cartesiano. Como la ecuación (1.82) está en
notación vectorial, esta es válida en cualquier sistema de coordenadas.
Capı́tulo 2
Un campo es una función que depende del espacio y algunas veces también del tiempo. El
potencial eléctrico, la densidad de carga, la temperatura y la presión son sólo una magnitud,
y están descritos por campos escalares. En cambio, el campo eléctrico, el campo magnético,
la gravedad, la densidad de corriente o la velocidad de un fluido tienen magnitud y dirección
y son descritos por campos vectoriales.
Los operadores diferenciales e integrales en campos escalares y vectoriales pueden ser
expresados de forma unı́voca usando la notación y el formalismo de operadores, los cuales
veremos en este capı́tulo.
(x + 1)2 + y 2
Φ = λ0 ln . (2.1)
(x − 1)2 + y 2
Usualmente queremos construir las superficies donde Φ es constante, usualmente llamadas
equipotenciales, contornos o geodésicas, las cuales para este caso son cilindros alrededor de las
lı́neas de carga. Ya que hay simetrı́a en la dirección z, estas superficies pueden ser dibujadas
en dos dimensiones como se ve en la figura 2.1. Los centros de estos cı́rculos están ubicados
a lo largo del eje x desde 1 < x < ∞ para los valores positivos de Φ, y desde −∞ < x < −1
para los valores negativos de Φ. Φ = 0 se encuentra a lo largo del eje y.
1
Este capı́tulo está basado en el segundo capı́tulo del libro: Mathematical Physics de Brusse Kusse & Erik
Westwig, editorial John Wiley & Sons, Inc..
19
20 CAPÍTULO 2. OPERADORES EN CAMPOS ESCALARES Y VECTORIALES.
Figura 2.1: Equipotenciales y lı́neas de campo eléctrico de dos lı́neas paralelas de carga.
x2 − y 2 − 1
∂Φ
Ex = − = 4λ0 (2.2)
∂x [(x − 1)2 + y 2 ][(x + 1)2 + y 2 ]
∂Φ 2xy
Ey = − = 4λ0 . (2.3)
∂y [(x − 1)2 + y 2 ][(x + 1)2 + y 2 ]
dy(x) Ey 2xy
= = 2 . (2.4)
dx Ex x − y2 − 1
Con un poco de álgebra, la ecuación (2.4) puede ser integrada, obteniendo
x2 + (y − c)2 = 1 + c2 , (2.5)
donde c es una constante de integración. Esta constante puede ser variada desde −∞ a ∞
para generar la familia de lı́neas de √
campo. Para este caso, estas lı́neas son cı́rculos centrados
en y = c con un radio dado por 1 + c2 . Estas son mostradas como lı́neas sólidas en la
figura 2.1. Las flechas indican como el campo apunta desde la carga positiva a la negativa.
Recordemos que donde las lı́neas están más densamente pobladas (entre las dos cargas) es
donde el campo eléctrico es más fuerte.
2.2. OPERADORES VECTORIALES. 21
la cual no está escrita en su forma de operador ya que la integral y el operando f (x) están
mezclados. Sin embargo, podemos poner la ecuación (2.6) en forma de operador reorganizando
los términos en la ecuación, como sigue
Z
dx f (x) . (2.7)
R
Ahora el operador dx actúa sobre f (x) para formar la integral, tal como el operador
~ actúa sobre Φ para formar el gradiente. En la práctica, el operador integral es colocado
∇
en la derecha, pasando a través de todos los términos del integrando que no dependen de la
variable de integración. Por ejemplo,
Z Z
2 2 2
dx x (x + y)y = y dx x2 (x + y) . (2.8)
Aquı́ el operador integral de lı́nea C d~r actúa sobre la fuerza F~ . El vector de desplazamiento
R
diferencial d~r es tangencial a cada punto a lo largo de C, como es mostrado en la figura 2.2.
Si C se cierra sobre sı́ mismo, escribimos el operador con un cı́rculo sobre el signo de integral,
I
d~r . (2.10)
c
Ya que la ecuación (2.9) está escrita en notación vectorial, es válido en cualquier sistema
de coordenadas. En el sistema de coordenadas Cartesiano, d~r = dxi êi y la ecuación (2.9) se
convierte en
22 CAPÍTULO 2. OPERADORES EN CAMPOS ESCALARES Y VECTORIALES.
dr
C
r
Z Z
W = d~r · F~ = dxi Fi . (2.11)
C C
Notemos que la cantidad producida por esta integración es un escalar, ya que el subı́ndice i
está sumado implı́citamente.
Hay otras operaciones integrales, las cuales son poco comunes. Por ejemplo, el operador
Z Z
d~r Φ = êi dxi Φ (2.12)
C C
actúa sobre el escalar Φ para producir un vector. Otro ejemplo,
Z Z
d~r × ~v = êk dxi ijk vj , (2.13)
C C
genera un vector usando el producto cruz. Notemos que todas las expresiones con subı́ndices
están escritas en el sistema Cartesiano donde la base de vectores es ortonormal e indepen-
dientes de la posición.
donde d~σ es un vector que representa un área diferencial. Este vector tiene una magnitud
igual a un área diferencial de S, y una dirección perpendicular a la superficie. Si escribimos
el diferencial de área como dσ y el vector unitario normal n̂, el vector de área diferencial
puede ser reescrito como d~σ = n̂ dσ. Como la superficie tiene dos lados, hay un problema
para definir n̂. Para una superficie simple y cerrada, como por ejemplo la que se muestra
en la figura 2.3(a), definimos n̂ para que siempre apunte hacia afuera. Si la superficie no es
cerrada, es decir, no encierra un volumen, la dirección de n̂ es definida por el camino cerrado
C que define los bordes de la superficie, y la regla de la mano derecha, como se muestra en
la figura 2.3(b).
Frecuentemente, el operador integral de superficie actúa sobre una cantidad vectorial
mediante el producto punto
2.2. OPERADORES VECTORIALES. 23
z z
y y
000000
111111
1111111111111111111
0000000000000000000
000000
111111 1111111111111111111
0000000000000000000
C
0000000000000000000
1111111111111111111
000000
111111 0000000000000000000
1111111111111111111
0000000000000000000
1111111111111111111
000000
111111
0000000000000000000
1111111111111111111 0000000000000000000
1111111111111111111
000000
111111
0000000000000000000
1111111111111111111 0000000000000000000
1111111111111111111
000000
111111
0000000000000000000
1111111111111111111 dσ 0000000000000000000
1111111111111111111
0000000000000000000
1111111111111111111
000000
111111
0000000000000000000
1111111111111111111 0000000000000000000
1111111111111111111
000000
111111
0000000000000000000
1111111111111111111
000000
111111
0000000000000000000
1111111111111111111 0000000000000000000
1111111111111111111
000000
111111
0000000000000000000
1111111111111111111
00000000000000
11111111111111000000
111111 0000000000000000000
1111111111111111111
00000000000000
11111111111111000000
111111 0000000000000000000
1111111111111111111
0000000000000000000
1111111111111111111
00000000000000
11111111111111
00000000000000111111
11111111111111000000
000000
111111 dσ
x x
(a) (b)
Z
d~σ · ~v . (2.15)
S
En coordenadas cartesianas,
d~σ = dσi êi , (2.16)
donde dσi es positivo ó negativo dependiendo del signo de n̂· êi , como se discutió en el párrafo
anterior. Esta integral de superficie se transforma en
Z Z
d~σ · ~v = dσi vi . (2.17)
S S
Hay integrales de superficie poco comunes, como
Z Z
d~σ Φ = êi dσi Φ , (2.18)
S S
la cual es una operación sobre un escalar, la cual produce un vector, y
Z Z
d~σ × ~v = êk dσi ijk vj (2.19)
S S
la cual también produce un vector.
Z
dτ Φ . (2.21)
V
En coordenadas cartesianas, esto es escrito como
Z
dx1 dx2 dx3 Φ . (2.22)
V
~ = êi ∂ .
∇ (2.24)
∂xi
Esta expresión será vista en otros sistemas de coordenadas en el capı́tulo siguiente.
Cuando opera sobre un campo escalar, el operador ∇ ~ produce un vector llamado el gra-
diente
~ ∂Φ(x1 , x2 , x3 )
∇Φ(x 1 , x2 , x3 ) = êi . (2.25)
∂xi
Por ejemplo, en electroestática el campo eléctrico es igual a menos el gradiente del potencial
eléctrico
~ ·A
∇ ~ = êi ∂ · Aj êj = ∂Ai . (2.27)
∂xi ∂xi
La densidad de carga ρ en una región del espacio puede ser calculada usando la divergencia
de la relación
~ ·E
∇ ~ = 4πρ . (2.28)
2.3. OPERADORES DIFERENCIALES. 25
~
∇ ~ = − 1 ∂B .
~ ×E (2.30)
c ∂t
~ = ∂Φ dxi .
d~r · ∇Φ (2.32)
∂xi
El lado derecho de esta expresión puede ser reorganizado como la diferencia total de carga
de Φ debido al cambio diferencial de posición d~r. El resultado puede ser escrito en notación
vectorial como sigue
~ · d~r .
dΦ = ∇Φ (2.33)
De la ecuación (2.33), es claro que el valor máximo de dΦ ocurre cuando d~r apunta en la
~
misma dirección que ∇Φ. Por otra parte, un desplazamiento perpendicular a ∇Φ ~ no produce
cambio en Φ, ya que dΦ = 0. Esto significa que el gradiente siempre apuntará perpendicular
a las superficies donde Φ es constante.
Al comienzo de este capı́tulo discutimos la función potencial eléctrico generado por dos
lı́neas de carga. El campo eléctrico fue generado tomando el gradiente de este potencial
escalar, y fue dibujado en la figura 2.1. Pudimos haber usado este ejemplo como modelo para
desarrollar una vista Fı́sica del operador gradiente, pero es un poco complicado. En cambio,
observaremos una función de dos dimensiones mucho más simple
Φ = −xy . (2.34)
Un dibujo de las lı́neas equipotenciales en el plano x−y es mostrado en la figura 2.4. Haciendo
la operación gradiente obtenemos un vector de campo
~ = −yêx − xêy .
∇Φ (2.35)
26 CAPÍTULO 2. OPERADORES EN CAMPOS ESCALARES Y VECTORIALES.
Ahora imaginemos que estamos en el punto (1, 2) y nos movemos a la derecha una cantidad
infinitesimal dr a lo largo del eje x positivo. El cambio correspondiente en Φ puede ser
determinado calculando
~ · d~r
dΦ = ∇Φ
= (−2êx − 1êy ) · (drêx ) (2.36)
= −2dr .
Esto dice que Φ disminuye en 2 unidades por cada paso infinitesimal en esa dirección. En
cambio, si estamos sentados en el punto (3, 4) y nos movemos una cantidad infinitesimal dr,
con un ángulo de 45◦ con respecto al eje x, Φ cambia de la siguiente forma
~ · d~r
dΦ = ∇Φ
dr
= (−4êx − 3êy ) · √ (êx + êy ) (2.37)
2
7
= − √ dr .
2
Notemos que estos cambios son por pasos infinitesimales. Para calcular el cambio de Φ
sobre un camino finito, donde el gradiente cambia mientras nos vamos moviendo punto a
punto, necesitamos usar la integral de lı́nea
Z
∆Φ = ~ .
d~r · ∇Φ (2.38)
C
Cuando utilizamos el gradiente para generar un campo vectorial, usualmente se añade un
signo negativo en la definición. Por ejemplo, el campo eléctrico es generado desde el potencial
electrostático por
~ = −∇Φ
E ~ . (2.39)
2.3. OPERADORES DIFERENCIALES. 27
Usando esta convención, si nos movemos en contra de las lı́neas de campo Φ aumenta. Para
el potencial de la ecuación (2.34), el gradiente negativo es
~ = yêx + xêy .
− ∇Φ (2.40)
Las lı́neas de campo para esta función pueden ser determinadas como sigue
dy x
=
dx y
dy y = dx x
y2 = x2 + c
x2 − y 2 =c. (2.41)
Estas lı́neas son perpendiculares a las lineas donde Φ es constante, como es mostrado en
la figura 2.5. Notemos cómo la densidad de las lı́neas del campo vectorial muestran que la
magnitud del campo aumenta a medida que nos movemos al origen.
entrar ó salir de este volumen, y después equiparar el flujo neto de partı́culas con cuántas
partı́culas salieron o entraron con el consecuente cambio en ρ. Si llamamos N ≡ ρ dτ al
número total de partı́culas en el volumen infinitesimal, tenemos
∂N ∂ρ(x0 , y0 , z0 , t)
= dx dy dz . (2.42)
∂t ∂t
1111111111111111111111
0000000000000000000000
0000000000000000000000
1111111111111111111111
0000000000000000000000
1111111111111111111111
0000000000000000000000
1111111111111111111111
0000000000000000000000
1111111111111111111111
0000000000000000000000
1111111111111111111111
dz
1111111111111111111111
0000000000000000000000
0000000000000000000000
1111111111111111111111
0000000000000000000000
1111111111111111111111
0000000000000000000000
1111111111111111111111
dy
0000000000000000000000
1111111111111111111111
x y z
( 0 , 0 , 0) 0000000000000000000000
1111111111111111111111
dx
vz
vz ( x 0 , y0 , z 0 + dz ) dt
dz
dz
vz
vz ( x 0 , y0 , z 0 ) dt
( x 0 , y0 ,z 0 ) dy dy
( x 0 , y0 ,z 0 )
dx dx
(a) (b)
∂Ninferior
= Jz (x0 , y0 , z0 , t) dx dy . (2.44)
∂t
El mismo tipo de cálculo se hace de forma análoga para la cara superior mostrada en la
figura 2.6. La figura 2.7(b) muestra que ahora vz positivo acarrea el número de partı́culas en
la región sombreada del volumen. Este lado contribuye
∂Nsuperior
= −Jz (x0 , y0 , z0 + dz, t) dx dy (2.45)
∂t
al cambio total ∂N/∂t. Notemos que en este caso, evaluamos Jz en el punto (x0 , y0 , z0 + dz).
Combinando las ecuaciones (2.44) y (2.45) obtenemos
∂Ninferior ∂Nsuperior
+ = [Jz (x0 , y0 , z0 , t) − Jz (x0 , y0 , z0 + dz, t)] dx dy . (2.46)
∂t ∂t
Esta expresión puede ser escrita en términos de la derivada de Jz , ya que en el lı́mite diferencial
tenemos
∂Jz
Jz (x0 , y0 , z0 + dz, t) = Jz (x0 , y0 , z0 , t) + dz . (2.47)
∂z (x0 ,y0 ,z0 )
Realizando el proceso análogo para las otras cuatro superficies se obtienen resultados simila-
res. Por tanto, el flujo total en el volumen diferencial es
" #
∂N ∂Jx ∂Jy ∂Jz
= − − − dx dy dz . (2.49)
∂t ∂x (x0 ,y0 ,z0 ) ∂y (x0 ,y0 ,z0 ) ∂z (x0 ,y0 ,z0 )
Lo cual es reconocido como −∇~ · J~ por dτ . Combinando este resultado con la ecuación (2.42),
obtenemos la ecuación de continuidad
∂ρ ~ · J~ .
= −∇ (2.50)
∂t
Para una cantidad positiva de la divergencia de J, ~ más partı́culas están dejando la región
que entrando en ella, por tanto ∂ρ/∂t es negativo.
Este ejercicio nos provee la interpretación fı́sica de la divergencia. Si la divergencia de un
campo vectorial es positiva en una región, la región es una fuente. Las lı́neas de campo “nacen”
en las regiones tipo fuente. Por otra parte, si la divergencia en una región es negativa, la región
es considerada un sumidero. Las lı́neas de campo “mueren” en las regiones tipo sumidero. Si
la divergencia de un campo vectorial es cero en una región, todas las lı́neas de campo que
entran deben salir de esa región.
30 CAPÍTULO 2. OPERADORES EN CAMPOS ESCALARES Y VECTORIALES.
(a) (b)
C3
C4 C C2
∆y
C1
11
00
00
11
00
11
00
11
(x0 , y0)
∆x
Si hacemos el proceso análogo para los caminos C2 y C4 , podemos combinar todos los resul-
tados, obteniendo
I !
∂vy ∂vx
d~r · ~v ≈ − ∆x∆y . (2.60)
C ∂x (x0 ,y0 ) ∂y (x0 ,y0 )
El error de la ecuación (2.60) desaparece cuando las dimensiones del camino disminuyen
a dimensiones infinitesimales, es decir cuando ∆x → 0 y ∆y → 0. Además, utilizando la
ecuación (2.51), el término entre paréntesis del lado derecho de la ecuación (2.60) puede ser
identificado como la componente z de ∇ × ~v . Por tanto, podemos escribir
I Z
lı́m ~
d~r · ~v = êz · (∇ × ~v ) lı́m dσz , (2.61)
C→0 C s→0 S
000000
111111
111111
000000
000000
111111
000000
111111
000000
111111 C
000000
111111
0000000
1111111
1111111
0000000
0000000
1111111
0000000
1111111
0000000
1111111
0000000
1111111
0000000
1111111 C
(a) (b)
Figura 2.10: Campos con rotor cero, figura (a) y distinto de cero, figura (b).
I Z
lı́m ~ × ~v ) · lı́m
d~r · ~v = (∇ d~σ . (2.63)
C→0 C s→0 S
~ = êi ∂ .
∇ (2.64)
∂xi
~ en la expresión original debe ser escrita usando ı́ndices independientes
Los dos operadores ∇
~ · (∇Φ)
~ ∂ ∂
∇ = êi · êj Φ . (2.65)
∂xi ∂xj
Como los vectores base en el sistema cartesiano son independientes de la posición, ∂êj /∂xi =
0, y la ecuación (2.65) queda
~ ~ ∂ ∂
∇ · (∇Φ) = (êi · êj ) Φ
∂xi ∂xj
∂ ∂
= δij Φ
∂xi ∂xj
∂ ∂
= Φ
∂xi ∂xi
2
∂2 ∂2
∂
= + + Φ. (2.66)
∂x21 ∂x22 ∂x23
En la última lı́nea hemos escrito la suma explı́citamente para hacer notar cómo se trabaja
con la notación para este caso. La ecuación (2.66) puede ser escrita en notación vectorial
definiendo el operador laplaciano ∇2 como
2 2 2
2 ~ ·∇~ = ∂ ∂ ∂ ∂ ∂
∇ =∇ Φ = + + Φ, (2.67)
∂xi ∂xi ∂x21 ∂x22 ∂x23
por tanto
~ · (∇Φ)
∇ ~ = ∇2 Φ (2.68)
Ejemplo 2: Consideremos la expresión ∇ ~ ×∇ ~ × ~v , la cual es el rotor del rotor de ~v . Esta
identidad será útil cuando desarrollemos la ecuación de las ondas electromagnéticas desde las
34 CAPÍTULO 2. OPERADORES EN CAMPOS ESCALARES Y VECTORIALES.
ecuaciones de Maxwell. Para escribir esto en notación de Einstein, usaremos los sı́mbolos de
Levi-Civita,
~ ~ ∂ ∂
∇ × ∇ × ~v = vs rsj ijk êk . (2.69)
∂xi ∂xr
El álgebra para encontrar la relación es como sigue
~ ~ ∂ ∂vs
∇ × ∇ × ~v = rsj ijk êk
∂xi ∂xr
∂ ∂vs
=− rsj ikj êk
∂xi ∂xr
∂ ∂vs
=− (δri δsk − δrk δsi ) êk
∂xi ∂xr
∂ ∂vi ∂ ∂vk
= êk − êk
∂xi ∂xk ∂xi ∂xi
∂ ∂vi ∂ ∂(vk êk )
= êk − . (2.70)
∂xk ∂xi ∂xi ∂xi
Ası́, el lado derecho de la ecuación (2.70) es convertida a notación vectorial para obtener la
igualdad
∇~ ×∇ ~ × ~v = ∇~ ∇ ~ · ~v − ∇2~v . (2.71)
Notemos que el operador Laplaciano puede actuar tanto en campos escalares como vecto-
riales. En la ecuación (2.68) el Laplaciano opera en un campo escalar, obteniendo un escalar.
En cambio, en la ecuación (2.71) opera sobre un campo vectorial, obteniendo un vector.
~
H
~ ·A
∇ ~ = lı́m SRd~σ · A . (2.73)
S,V →0
V
dτ
Ya habı́amos obtenido la definición integral para el rotor,
I Z
lı́m ~
d~r · ~v = ∇ × ~v · lı́m d~s . (2.74)
C→0 C S→0 S
Esta definición es un poco torpe, ya que requiere el cálculo de tres integrales diferentes,
cada una con diferentes orientaciones de S, para obtener las tres componentes del rotor. La
definición integral que daremos a continuación no tiene este problema, pero usa una forma
poco común de integral de superficie
~
H
~ ×A
∇ ~ = lı́m S Rd~σ × A . (2.75)
S,V →0
V
dτ
d σ1
1111111111
0000000000
0000000000
1111111111
0000000000
1111111111 1111111111
0000000000
0000000000
1111111111 0000000000
1111111111
0000000000
1111111111
0000000000
1111111111
0000000000
1111111111
dτ 2 0000000000
1111111111
0000000000
1111111111
0000000000
1111111111
0000000000
1111111111 0000000000
1111111111
0000000000
1111111111
0000000000
1111111111
0000000000
1111111111 0000000000
1111111111
0000000000
1111111111 0000000000
1111111111
0000000000
1111111111
0000000000
1111111111
0000000000
1111111111 0000000000
1111111111
0000000000
1111111111 0000000000
1111111111
0000000000
1111111111
0000000000
1111111111 0000000000
1111111111
0000000000
1111111111 0000000000
1111111111
0000000000
1111111111 0000000000
1111111111
0000000000
1111111111 0000000000
1111111111
0000000000
1111111111
0000000000
1111111111 0000000000
1111111111
0000000000
1111111111
0000000000
1111111111
d τ1
dσ2
A . dσ1 + A . dσ2 = 0
I
∇ ~ dτ1 + ∇
~ ·A ~ ·A
~ dτ2 = ~,
d~σ · A (2.78)
S1+2
donde S1+2 es la superficie exterior que encierra tanto como a dτ1 como dτ2 , como es mostrado
en la figura 2.12. Podemos continuar este proceso sumando volúmenes diferenciales contiguos
para formar un volumen arbitrario V encerrado por una superficie cerrada S. El resultado es
llamado el Teorema de Gauss
Z I
~ ~
dτ ∇ · A = ~.
d~σ · A (2.79)
V S
00000000000
11111111111
00000000000000000000
11111111111111111111
0000000000
1111111111
00000000000
11111111111
11111111111111111111
00000000000000000000
0000000000
1111111111
00000000000
11111111111
00000000000000000000
11111111111111111111
0000000000
1111111111
00000000000
11111111111
00000000000000000000
11111111111111111111
0000000000
1111111111
00000000000
11111111111
00000000000000000000
11111111111111111111
0000000000
1111111111
00000000000
11111111111
00000000000000000000
11111111111111111111
0000000000
1111111111
00000000000
11111111111
00000000000000000000
11111111111111111111
0000000000
1111111111
00000000000
11111111111
00000000000000000000
11111111111111111111
0000000000
1111111111
00000000000
11111111111
00000000000000000000
11111111111111111111
0000000000
1111111111
00000000000
11111111111
00000000000000000000
11111111111111111111
0000000000
1111111111
00000000000
11111111111
00000000000000000000
11111111111111111111
0000000000
1111111111
00000000000
11111111111
00000000000000000000
11111111111111111111
0000000000
1111111111
00000000000
11111111111
00000000000000000000
11111111111111111111
0000000000
1111111111
00000000000
11111111111
00000000000000000000
11111111111111111111
0000000000
1111111111
00000000000
11111111111
00000000000000000000
11111111111111111111
0000000000
1111111111
00000000000
11111111111
00000000000000000000
11111111111111111111
0000000000
1111111111
S 1+2
00000000000
11111111111
00000000000000000000
11111111111111111111
0000000000
1111111111
00000000000
11111111111
00000000000000000000
11111111111111111111
0000000000
1111111111
00000000000
11111111111
00000000000000000000
11111111111111111111
0000000000
1111111111
00000000000
11111111111
00000000000000000000
11111111111111111111
0000000000
1111111111
00000000000
11111111111
00000000000000000000
11111111111111111111
0000000000
1111111111
00000000000
11111111111
00000000000000000000
11111111111111111111
0000000000
1111111111
00000000000
11111111111
00000000000000000000
11111111111111111111
0000000000
1111111111
00000000000
11111111111
00000000000000000000
11111111111111111111
0000000000
1111111111
00000000000
11111111111
00000000000000000000
11111111111111111111
0000000000
1111111111
00000000000
11111111111
0000000000
1111111111
00000000000
11111111111
0000000000
1111111111
00000000000
11111111111
0000000000
1111111111
00000000000
11111111111
0000000000
1111111111
00000000000
11111111111
0000000000
1111111111
00000000000
11111111111
0000000000
1111111111
00000000000
11111111111
0000000000
1111111111
00000000000
11111111111
0000000000
1111111111
00000000000
11111111111
0000000000
1111111111
00000000000
11111111111
d τ1 + dτ 2 0000000000
1111111111
00000000000
11111111111
0000000000
1111111111
00000000000
11111111111
0000000000
1111111111
00000000000
11111111111
0000000000
1111111111
00000000000
11111111111
0000000000
1111111111
00000000000
11111111111
0000000000
1111111111
00000000000
11111111111
0000000000
1111111111
00000000000
11111111111
0000000000
1111111111
00000000000
11111111111
0000000000
1111111111
00000000000
11111111111
~ · (u∇v)
∇ ~ = ∇u
~ · ∇v
~ + u∇2 v . (2.80)
Cambiando u con v, tenemos
2.5. LOS TEOREMAS. 37
~ · (v ∇u)
∇ ~ = ∇v
~ · ∇u
~ + v∇2 u . (2.81)
Restando la ecuación (2.80) con (2.81), tenemos
~ · (u∇v)
∇ ~ −∇~ · (v ∇u)
~ = u∇2 v − v∇2 u . (2.82)
Finalmente, integramos ambos lados en la ecuación (2.82) sobre un volumen V , y aplicando
el Teorema de Gauss, obtenemos una forma del Teorema de Green
I Z
~ ~
d~σ · (u∇v − v ∇u) = dτ [u∇2 v − v∇2 u] . (2.83)
S V
En esta expresión, la superficie cerrada S rodea el volumen V . El mismo proceso es aplicado
directamente en la ecuación (2.80), con lo cual obtenemos una segunda forma del Teorema
de Green
I Z
~
d~σ · (u∇v) = ~ · ∇v
dτ [∇u ~ + u∇2 v] . (2.84)
S V
00000000000
11111111111
00000000000
11111111111 0000000000000000000
1111111111111111111
11111111111
00000000000 0000000000000000000
1111111111111111111
1111111111111111111
0000000000000000000
00000000000
11111111111
00000000000
11111111111 0000000000000000000
1111111111111111111
00000000000
11111111111 0000000000000000000
1111111111111111111
0000000000000000000
1111111111111111111
00000000000
11111111111
00000000000
11111111111 0000000000000000000
1111111111111111111
00000000000
11111111111 0000000000000000000
1111111111111111111
0000000000000000000
1111111111111111111
00000000000
11111111111
00000000000
11111111111 0000000000000000000
1111111111111111111
00000000000
11111111111 0000000000000000000
1111111111111111111
0000000000000000000
1111111111111111111
00000000000
11111111111
00000000000
11111111111 0000000000000000000
1111111111111111111
00000000000
11111111111 0000000000000000000
1111111111111111111
0000000000000000000
1111111111111111111
00000000000
11111111111
00000000000
11111111111 0000000000000000000
1111111111111111111
00000000000
11111111111 0000000000000000000
1111111111111111111
0000000000000000000
1111111111111111111
00000000000
11111111111
00000000000
11111111111 0000000000000000000
1111111111111111111
00000000000
11111111111
00000000000
11111111111 0000000000000000000
1111111111111111111
0000000000000000000
1111111111111111111
00000000000
11111111111
00000000000
11111111111
00000000000
11111111111 0000000000000000000
1111111111111111111
00000000000
11111111111
00000000000
11111111111
00000000000
11111111111 0000000000000000000
1111111111111111111
00000000000
11111111111
00000000000
11111111111 0000000000000000000
1111111111111111111
0000000000000000000
1111111111111111111
00000000000
11111111111
00000000000
11111111111
00000000000
11111111111 0000000000000000000
1111111111111111111
00000000000
11111111111
00000000000
11111111111
00000000000
11111111111 0000000000000000000
1111111111111111111
00000000000
11111111111 0000000000000000000
1111111111111111111
C2
00000000000
11111111111
00000000000
11111111111
00000000000
11111111111
00000000000
11111111111
00000000000
11111111111
00000000000
11111111111
00000000000
11111111111
00000000000
11111111111
00000000000
11111111111
0000000000000000000
1111111111111111111
0000000000000000000
1111111111111111111
0000000000000000000
1111111111111111111
0000000000000000000
1111111111111111111
0000000000000000000
1111111111111111111
00000000000
11111111111
00000000000
11111111111
00000000000
11111111111 0000000000000000000
1111111111111111111
00000000000
11111111111
00000000000
11111111111
00000000000
11111111111
00000000000
11111111111
00000000000
11111111111
00000000000
11111111111
00000000000
11111111111
00000000000
11111111111
00000000000
11111111111
C1+2
0000000000000000000
1111111111111111111
0000000000000000000
1111111111111111111
0000000000000000000
1111111111111111111
0000000000000000000
1111111111111111111
0000000000000000000
1111111111111111111
00000000000
11111111111
00000000000
11111111111
00000000000
11111111111 0000000000000000000
1111111111111111111
00000000000
11111111111
00000000000
11111111111
00000000000
11111111111 0000000000000000000
1111111111111111111
00000000000
11111111111
00000000000
11111111111 0000000000000000000
1111111111111111111
0000000000000000000
1111111111111111111
00000000000
11111111111
00000000000
11111111111
00000000000
11111111111 0000000000000000000
1111111111111111111
00000000000
11111111111
00000000000
11111111111
00000000000
11111111111 0000000000000000000
1111111111111111111
00000000000
11111111111 0000000000000000000
1111111111111111111
00000000000
11111111111
11111111111 C1
00000000000
11111111111
00000000000
00000000000
11111111111
00000000000
11111111111
0000000000000000000
1111111111111111111
0000000000000000000
1111111111111111111
0000000000000000000
1111111111111111111
dσ2 00000000000
11111111111
00000000000
11111111111
00000000000
11111111111
00000000000
11111111111
00000000000
11111111111
00000000000
11111111111
00000000000
11111111111
00000000000
11111111111
00000000000
11111111111
0000000000000000000
1111111111111111111
0000000000000000000
1111111111111111111
0000000000000000000
1111111111111111111
0000000000000000000
1111111111111111111
00000000000
11111111111
00000000000
11111111111
00000000000
11111111111 0000000000000000000
1111111111111111111
00000000000
11111111111
00000000000
11111111111 0000000000000000000
1111111111111111111
0000000000000000000
1111111111111111111
00000000000
11111111111
00000000000
11111111111
00000000000
11111111111 0000000000000000000
1111111111111111111
00000000000
11111111111
00000000000
11111111111
00000000000
11111111111 0000000000000000000
1111111111111111111
00000000000
11111111111 0000000000000000000
1111111111111111111
0000000000000000000
1111111111111111111
00000000000
11111111111
00000000000
11111111111 0000000000000000000
1111111111111111111
00000000000
11111111111 0000000000000000000
1111111111111111111
0000000000000000000
1111111111111111111
00000000000
11111111111
00000000000
11111111111
00000000000
11111111111
00000000000
11111111111
dσ1 + dσ2
0000000000000000000
1111111111111111111
0000000000000000000
1111111111111111111
0000000000000000000
1111111111111111111
0000000000000000000
1111111111111111111
00000000000
11111111111
00000000000
11111111111 0000000000000000000
1111111111111111111
00000000000
11111111111 0000000000000000000
1111111111111111111
0000000000000000000
1111111111111111111
00000000000
11111111111 0000000000000000000
1111111111111111111
dσ1
00000000000
11111111111
00000000000
11111111111
00000000000
11111111111
00000000000
11111111111
00000000000
11111111111
0000000000000000000
1111111111111111111
0000000000000000000
1111111111111111111
0000000000000000000
1111111111111111111
0000000000000000000
1111111111111111111
00000000000
11111111111 0000000000000000000
1111111111111111111
0000000000000000000
1111111111111111111
00000000000
11111111111
00000000000
11111111111 0000000000000000000
1111111111111111111
00000000000
11111111111 0000000000000000000
1111111111111111111
donde el camino C1+2 es el camino cerrado por dσ1 y dσ2 . Las integrales de lı́nea a lo largo
de los bordes C1 y C2 se cancelan. Cualquier número de éstas áreas diferenciales pueden ser
38 CAPÍTULO 2. OPERADORES EN CAMPOS ESCALARES Y VECTORIALES.
sumadas para formar una superficie S arbitraria y el contorno cerrado C el cual rodea a S.
El resultado es el Teorema de Stokes
Z I
~ ~
d~σ · (∇ × A) = ~.
d~r · A (2.87)
S C
Hay una consecuencia importante del Teorema de Stokes para los campos vectoriales que
tienen rotor cero. Tales campos pueden ser siempre derivados desde un potencial escalar. Es
~ A
decir, si ∇× ~ = 0 en todo el espacio, existe una función escalar Φ(~r) tal que A
~ = −∇Φ.
~ Para
ver esto, consideremos los puntos 1 y 2 y dos caminos A y B arbitrarios entre ellos, como se
muestra en la figura 2.14. Una integral de lı́nea cerrada puede ser formada combinando los
caminos A y el contrario del camino B. Si ∇ ~ ×A ~ = 0 en todos lados, la ecuación (2.87) nos
permite escribir
Z Z I
~
d~r · A − ~
d~r · A = d~r · A ~=0, (2.88)
A B
ó
Z Z
~=
d~r · A ~.
d~r · A (2.89)
A B
~.
dΦ = −d~r · A (2.90)
Es convencional poner el signo negativo tal que Φ aumente cuando se mueve en contra de
~ Reemplazando la ecuación (2.90) en las integrales de lı́nea (2.89)
las lı́neas de campo de A.
muestra que estas integrales de lı́nea son iguales a
Z 2
−dΦ = Φ(1) − Φ(2) . (2.91)
1
Recordando la ecuación (2.33), es claro que la condición de la ecuación (2.90) puede ser
reescrito como
Punto 2
Camino A
Camino B
Punto 1
~ = −∇Φ
A ~ . (2.92)
En resumen, si el rotor de un campo vectorial es cero, el campo es derivable desde un campo
escalar. Las integrales de lı́nea de este tipo de campos vectoriales es siempre independiente
del camino tomado. Estos tipos de campo son llamados campos conservativos.
Hay dos partes muy importantes en este enunciado. Por una parte, dice que si tenemos un
campo ~v que estamos tratando de determinar, y conocemos los valores de ∇ ~ · ~v y ∇
~ × ~v en
todos los puntos en algún volumen más la componente normal de ~v en la superficie de este
volumen, hay un sólo ~v que hará todo el trabajo. Por otra parte, hemos hecho la aclaración “si
es que existe”. Esta calificación es necesaria ya que es enteramente posible especificar valores
para la divergencia, el gradiente, el rotor y la componente normal de un campo vectorial que
no pueden ser satisfechas por cualquier campo.
Para probar el Teorema de Helmholtz supondremos dos campos vectoriales ~v1 y ~v2 que
poseen los mismos valores de la divergencia, el gradiente, el rotor y la componente normal.
Luego, mostraremos que si se da este caso, las dos soluciones deben ser iguales. Además, sea
~ = ~v1 − ~v2 . Ya que la divergencia, el rotor y el producto punto son operadores lineales, w
w ~
debe cumplir las siguientes propiedades
~ ·w
∇ ~ = 0 en la región
~ ×w
∇ ~ = 0 en la región (2.93)
n̂ · w
~ = 0 en la superficie.
~ ×w
Ya que ∇ ~ = 0, w
~ puede ser derivado de un potencial escalar
w ~ .
~ = −∇Φ (2.94)
Ahora aplicamos el Teorema de Green, en la forma de la ecuación (2.84), con u = v = Φ,
obteniendo
I Z h i
~
d~σ · Φ(∇Φ) = dτ Φ∇ ~ · (∇Φ)
~ ~ · ∇Φ
+ ∇Φ ~ . (2.95)
S V
~ · (∇
∇ ~ × A)
~ =0 (2.98)
~ × ∇Φ
∇ ~ =0, (2.99)
~v = ∇ ~ − ∇Φ
~ ×A ~ . (2.100)
Luego, podemos escribir
~ · ~v = −∇2 Φ
∇
~ × ~v = ∇
∇ ~ ×∇ ~ ×A~
~ ×A
n̂ · ~v = n̂ · (∇ ~ − ∇Φ)
~ , (2.101)
~ y Φ están fijos,
ya que la divergencia, el rotor y la componente normal están todas fijas si A
el Teorema de Helmholtz dice que ~v es único. Notemos que la contribución a ~v que viene
de A~ no tiene divergencia, ya que ∇ ~ · (∇
~ × A)
~ = 0. Esto es llamado el rotacional o la parte
solenoidal del campo y A ~ es llamado el potencial vector. La porción de ~v que viene de Φ
~
no tiene rotor, ya que ∇ × ∇Φ~ = 0. Esto es llamado la parte irrotacional del campo y Φ es
llamado el potencial escalar.
Capı́tulo 3
~ = q xx̂ + y ŷ + z ẑ .
E (3.1)
(x2 + y 2 + z 2 )3/2
En contraste, un sistema esférico, descrito por las coordenadas (r, θ, φ), explota completa-
mente la simetrı́a de éste campo y simplifica la ecuación (3.1) a
~ = q r̂ ,
E (3.2)
r2
1
Este capı́tulo está basado en el tercer capı́tulo del libro: Mathematical Physics de Brusse Kusse & Erik
Westwig, editorial John Wiley & Sons, Inc..
41
42 CAPÍTULO 3. SISTEMAS DE COORDENADAS CURVILÍNEOS.
e1 e1 r (P)
P P
11
00
00
11 11
00
00
11
00
11 00
11
r (P) e2 e2
Parece natural dibujar el vector posición entre el origen y P como muestra la figura
3.1a. Aunque esto está bien para sistemas de coordenadas cartesianas, esto puede acarrear
dificultades en sistemas curvilı́neos. Los problemas surgen debido a la dependencia de la
posición de los vectores base del sistema curvilı́neo. Cuando dibujamos un vector, debemos ser
cuidadosos de dónde está ubicado. Si no lo hacemos, podrı́a no ser claro como descomponer
el vector en términos de su base. A pesar de esta dificultad, el vector y su base podrı́an
ser dibujados partiendo desde un mismo punto. Las componentes del vector curvilı́neo son
entonces fácilmente obtenidas proyectando el vector en sus bases. Consecuentemente, para
determinar las componentes del vector posición, es mejor dibujarlo, ası́ como sus vectores
base, emanando desde P . Esto es mostrado en la figura 3.1b. Hay situaciones, sin embargo,
en que es mejor dibujar el vector posición desde el origen. Por ejemplo, integrales de lı́nea,
como la mostrada en la figura 2.2 son mejor descritas de esta forma, porque la punta del
vector posición sigue el camino de integración. Nosotros ubicaremos el vector posición como
se muestra en la figura 3.1, dependiendo de cuál es la más apropiada para la situación dada.
En coordenadas cartesianas, la expresión para el vector posición es intuitiva y simple:
Las componentes (r1 , r2 , r3 ) son fácilmente identificadas como las coordenadas cartesianas
(x1 , x2 , x3 ). Formalmente, r1 es obtenida haciendo el producto punto entre el vector base eˆ1
y el vector posición ~r:
r1 = ê1 · ~r = x1 (3.4)
Si bien esto puede parecer exagerada, esta técnica puede ser usada para encontrar las com-
ponentes de un vector en cualquier sistema de coordenadas ortogonales.
x = ρ cos φ
y = ρ sen φ (3.5)
z=z
p
ρ = x2 + y 2
φ = tan−1 (y/x) (3.6)
z=z
Los vectores base unitarios para el sistema cilı́ndrico son mostrados en la figura 3.2b. Cada
vector base apunta en la dirección en que P se mueve cuando el correspondiente valor de la
coordenada es incrementado. Por ejemplo, la dirección de êρ se encuentra observando como P
se mueve al incrementar ρ. Este método puede ser utilizado para determinar la dirección de
los vectores base de cualquier conjunto de coordenadas. A diferencia del sistema cartesiano,
los vectores base cilı́ndricos no están fijos. Como el punto P se mueve, las direcciones de êρ y
êφ cambian. Notemos también que si P se encuentra exactamente en el eje z, es decir, ρ = 0,
las direcciones de êρ y êφ se indefinen.
Las coordenadas cilı́ndricas, tomadas en el orden (ρ, φ, z), forman un sistema de la mano
derecha. Si usted alı́nea su mano derecha a través de êρ , y entonces rotar sus dedos apuntando
en la dirección de êφ , su pulgar apuntará en la dirección de êz . Los vectores base son también
ası́
~r = (~r · êρ ) êρ + (~r · êφ ) êφ + (~r · êz ) êz (3.8)
44 CAPÍTULO 3. SISTEMAS DE COORDENADAS CURVILÍNEOS.
z z
ez
000
111
111
000
000
111 e
z 000
111
000
111
φ
P P 000
111
000
111
1
0 000
111
1
0
000
111
000
111
000
111
000
111
111
000
111
000
000
111
000
111
eρ
φ
y y
ρ
x x
Figura 3.2: El sistema cilı́ndrico
z
ez
1111
0000
0000
1111 e
0000
1111
0000
1111
φ
000000
1111110000
1111
000
111 111111
000000 r
000000
1111110000
1111
1
0
000
111 000000
111111
000000
111111
000000
111111000
111
000
111 ez 000000
111111
000000
111111
000000
111111
000000111
111111000
000
111 000000
111111
000000
111111
000000
111111
000000111
r
111111000
000
111 000000
111111
000000
111111
000000
111111
000000
111111000 ρ
111 e 000000
111111
000000
111111
000000
111111
000000
111111 000000
111111
000000
111111
000000
111111 0000
1111
000000
111111
0000
1111
0000
1111
0000
1111
0000
1111
0000
1111
0000
1111
0000
1111
0000
1111
y 0000
1111
eρ
x
Figura 3.3: El vector posición en el sistema cilı́ndrico
Notemos que êφ está siempre perpendicular a ~r, como se muestra en la figura 3.3, por lo
tanto la ecuación (3.8) se reduce a
~r = ρ êρ (3.10)
3.3. SISTEMA ESFÉRICO 45
Recuerde que un vector arbitrario ~v , a diferencia del vector posición, puede tener ambas
componentes (ρ y φ), como se muestra en la figura 3.5.
y y
eφ r
eρ eφ
11
00
00
11 11
00
00
11
00
11 00
11 eρ
P P
φ
x x
Figura 3.4: El sistema polar
v
y
rφ
eφ rρ
11
00
00
11
00
11 eρ
P
x
Figura 3.5: Componentes polares de un vector
x = r sen θ cos φ
y = r sen θ sen φ (3.11)
z = r cos θ
y las inversas
46 CAPÍTULO 3. SISTEMAS DE COORDENADAS CURVILÍNEOS.
p
r= x2 + y 2 + z 2
!
x
φ = cos−1 p
x2 + y 2 (3.12)
!
z
θ = cos−1 p
x2 + y 2 + z 2
z z
e
111 r
000
000
111
000
111
000
111
00000
11111
000
111
00000
11111
000
111
00000
11111
000
111
0000
1111 e
θ 1
0 P 1
0
00000
11111
000 φ
111
0000
1111
0000
1111
0000
1111
0000
1111
0000
1111
0000
1111
r eθ
φ
y y
x x
er
r
1
0
eφ
r er
eθ 11
00
eφ
eθ
y
x
Figura 3.7: El vector posición en coordenadas esféricas
El vector posición, mostrado en la figura 3.7, está expresado en el sistema esférico como
~r = (~r · êρ ) êρ + (~r · êθ ) êθ + (~r · êφ ) êφ (3.14)
~r = rêr (3.15)
q1
11
00
00
11
q2
P (q1 ,q2 ,q3)
q3
x
Figura 3.8: Coordenadas curvilı́neas y vectores bases
xi = xi (q1 , q2 , q3 ) (3.16)
qi = qi (x1 , x2 , x3 ) , (3.17)
∂~r/∂qi
q̂i = (3.18)
hi
donde hi = |∂~r/∂qi |. Esta ecuación es un poco confusa porque no hay una suma sobre el
ı́ndice i en el lado derecho, aunque el ı́ndice aparece dos veces. Esto está sutilmente implı́cito
en la notación, porque hay un subı́ndice i al lado izquierdo. Los hi , los cuales a veces son
llamados factores de escala, obligan a los vectores base a tener largo unitario. Ellos pueden ser
escritos en términos de las coordenadas curvilı́neas. Para ver esto, escriba el vector posición
en términos de sus componentes Cartesianas, que a su vez se escriben como función de las
coordenadas curvilı́neas:
s 2 2 2
∂~r ∂x1 ∂x2 ∂x3
hi = =
+ + (3.21)
∂qi ∂qi ∂qi ∂qi
∂~r
d~r = dqi
∂qi
= dqi hi (q1 , q2 , q3 ) q̂i (3.22)
donde ahora hay una suma sobre el ı́ndice i en el lado derecho ya que no hay subı́ndice
en el lado izquierdo. Ya que los factores hi pueden cambiar con la posición, un elemento
de volumen diferencial en un sistema curvilı́neo, no es necesariamente un cubo como en el
sistema Cartesiano. Como veremos en la próxima sección, los lados de un volumen diferencial
en un sistema curvilı́neo varı́an en largo y pueden tener curvatura.
q3
11111111111111111111111
00000000000000000000000
00000000000000000000000
11111111111111111111111
q2
)d
00000000000000000000000
11111111111111111111111
00000000000000000000000
11111111111111111111111
d q 3
00000000000000000000000
11111111111111111111111
+
,q 3
00000000000000000000000
11111111111111111111111
,q 2
00000000000000000000000
11111111111111111111111
h11111111111111111111111
00000000000000000000000
( q1
00000000000000000000000
11111111111111111111111
2
00
11
( q , q2 ,q + dq 1100000000000000000000000
11111111111111111111111
) 11111111111111111111111
00
00000000000000000000000
311
00
00000000000000000000000
11111111111111111111111
1 3
h1111111111111111111
0000000000000000000
00000000000000000000000
11111111111111111111111
0000000000000000000
1111111111111111111
( q , q ,q +
00000000000000000000000
11111111111111111111111
0000000000000000000
1111111111111111111
1
1
dq ) q2
2
0000000000000000000
1111111111111111111
3
3 dq
0000000000000000000
1111111111111111111
0000000000000000000
1111111111111111111
1
h3 (q1 ,q2 ,q3 ) d q3
0000000000000000000
1111111111111111111
0000000000000000000000
1111111111111111111111
0000000000000000000
1111111111111111111
0000000000000000000000
1111111111111111111111
0000000000000000000
1111111111111111111
0000000000000000000000
1111111111111111111111
0000000000000000000
1111111111111111111
0000000000000000000000
1111111111111111111111
0000000000000000000
1111111111111111111
0000000000000000000000
1111111111111111111111 q1
0000000000000000000
1111111111111111111
0000000000000000000000
1111111111111111111111
0000000000000000000
1111111111111111111
0000000000000000000000
1111111111111111111111
dq
2
0000000000000000000
1111111111111111111
0000000000000000000000
1111111111111111111111
,q )
0000000000000000000
1111111111111111111
0000000000000000000000
1111111111111111111111
3
0000000000000000000
1111111111111111111
0000000000000000000000
1111111111111111111111
,q
2
0000000000000000000
1111111111111111111
0000000000000000000000
1111111111111111111111
(q
1
0000000000000000000
1111111111111111111
0000000000000000000000
1111111111111111111111
0000000000000000000
1111111111111111111
2
0000000000000000000000
1111111111111111111111
h
0000000000000000000
1111111111111111111
0000000000000000000000
1111111111111111111111
q ) dq
0000000000000000000
1111111111111111111
0000000000000000000000
1111111111111111111111
,q
0000000000000000000
1111111111111111111
, 3
1
(q ,q ,q1111111111111111111111
0000000000000000000000
(q 2
1
1 2
) h 3
1
∂~r
d~r = dqi . (3.26)
∂qi
Como mostramos en la ecuación (3.22), este puede ser escrito usando los factores de escala
como
~·B
A ~ = Ai q̂i · Bj q̂j = Ai Bj δij = Ai Bi . (3.31)
Aquı́ Ai y Bi son las componentes curvilı́neas de los vectores, las cuales pueden ser
obtenidas tomando las proyecciones a los ejes paralelos de los vectores en los vectores base:
~ · q̂i .
Ai = A (3.32)
Con el orden correcto, siempre podemos arreglar nuestras tres coordenadas curvilı́neas
para ser un sistema de la mano derecha. Entonces, la forma del producto cruz es también
52 CAPÍTULO 3. SISTEMAS DE COORDENADAS CURVILÍNEOS.
~ yB
la misma como en un sistema Cartesiano. El producto cruz de A ~ expresado usando los
sı́mbolos de Levi-Civita es
~×B
A ~ = Ai q̂i × Bj q̂j = Ai Bj q̂k ijk . (3.33)
donde cada signo más o menos debe ser elegido dependiendo del signo de d~σ · q̂i .
3.4.8. El gradiente
En el capı́tulo 2, mostramos como el gradiente de una función escalar Φ se define como
~ · d~r .
dΦ = ∇Φ (3.38)
Usando la ecuación (3.27) para d~r tenemos que
~ · dqj hj q̂j .
dΦ = ∇Φ (3.39)
3.4. SISTEMAS CURVILÍNEOS GENERALES 53
∂Φ ~ · dqj hj q̂j .
dqi = ∇Φ (3.40)
∂qi
La única forma de que se cumpla la ecuación (3.40) es que
~ = 1 ∂Φ
∇Φ q̂i . (3.41)
hi ∂qi
3.4.9. La divergencia
La operación divergencia en un sistema curvilı́neo es más complicada que el gradiente y
debe ser obtenida desde la definición de integral
~
H
~ ·A
~ = lı́m SR
d~σ · A
∇ (3.42)
S,V →0
V
dτ
donde S es la superficie cerrada que encierra al volumen V .
Para evaluar el numerador, la integración sobre las seis superficies de V debe ser desa-
rrollada. Primero, consideremos las dos caras sombreadas de la figura 3.9, con las normales
alineadas paralela o antiparalelamente a q̂3 . La integral sobre la superficie interior es
Z
~ = − dq1 dq2 (h1 h2 A3 )|
d~σ · A (q1 ,q2 ,q3 ) . (3.44)
inferior
El signo menos surge porque en esta superficie d~σ y q̂3 están antiparalelas. Note también
que A3 , h1 y h2 son todas funciones de las coordenadas curvilı́neas y están evaluadas en
(q1 , q2 , q3 ), el valor inicial de las coordenadas en esta superficie. La integral sobre la superficie
superior es
Z
~ = dq1 dq2 (h1 h2 A3 )|
d~σ · A (q1 ,q2 ,q3 +dq3 ) . (3.45)
superior
En este caso no hay signo menos porque la superficie normal está orientada paralela a q̂3 .
El valor inicial de la coordenada q3 ha cambiado en dq3 comparado con la superficie inferior
y por lo tanto A3 , h1 y h2 deben ser evaluados en el punto (q1 , q2 , q3 + dq3 ). En el lı́mite
diferencial
∂(h1 , h2 A3 )
(h1 , h2 A3 )|(q1 ,q2 ,q3 +dq3 ) = (h1 , h2 A3 )|(q1 ,q2 ,q3 ) + , (3.46)
∂q3
(q1 ,q2 ,q3 )
Z
~ = ∂(h1 h2 A3 ) dq1 dq2 dq3 .
d~σ · A (3.47)
ambas ∂q3
Combinando este resultado con integraciones similares sobre las restantes cuatro superfi-
cies
Z
~= ∂(h2 h3 A 1 ) ∂(h1 h3 A 2 ) ∂(h1 h2 A 3 )
d~σ · A + + dq1 dq2 dq3 . (3.48)
S ∂q1 ∂q2 ∂q3
Sustituyendo las ecuaciones (3.43) y (3.48) en la ecuación (3.42) obtenemos el resultado
~ ·A~= 1 ∂(h2 h3 A 1 ) ∂(h1 h3 A 2 ) ∂(h1 h2 A 3 )
∇ + + . (3.49)
h1 h2 h3 ∂q1 ∂q2 ∂q3
3.4.10. El rotor
El rotor para un sistema de coordenadas curvilı́neas también puede ser derivada desde la
definición de integral:
Z I
~ ~
∇ × A · lı́m d~σ = lı́m ~,
d~r · A (3.50)
S→0 S C→0 C
2
C
q1
Una componente del rotor puede ser escogida orientando d~σ en la dirección de un vector
base. Consideremos la figura 3.10, donde d~σ está orientado para elegir la componente qˆ1 , en
este caso d~σ = h2 q2 h3 dq3 q̂1 , ası́ el lado izquierdo de la ecuación (3.50) en el lı́mite diferencial
se convierte en
3.4. SISTEMAS CURVILÍNEOS GENERALES 55
Z h i
~ ×A
∇ ~ · lı́m d~σ = dq2 dq3 h2 h3 q̂1 · ∇~ ×A ~ ,
S→0 S
h i (3.51)
= dq2 dq3 h2 h3 ∇ ~ ×A ~ .
1
I Z Z Z Z
~=
d~r · A dq2 h2 A2 + dq3 h3 A3 + dq2 h2 A2 + dq3 h3 A3 . (3.52)
C Ca Cb Cc Cd
111111111111111
000000000000000
000000000000000
111111111111111
2
000000000000000
111111111111111 q
000000000000000
111111111111111
000000000000000
111111111111111 )d
3 ,q
000000000000000
111111111111111
000000000000000
111111111111111
000000000000000
111111111111111
q
000000000000000
111111111111111
2 ,
000000000000000
111111111111111
000000000000000
111111111111111
3 1 (q
000000000000000
111111111111111
000000000000000
111111111111111
000000000000000
111111111111111
h
000000000000000
111111111111111
2
000000000000000
111111111111111
000000000000000
111111111111111
000000000000000
111111111111111
000000000000000
111111111111111
C
000000000000000
111111111111111
000000000000000
111111111111111
e
000000000000000
111111111111111
(q1 ,q2 ,q3 + dq )11
00
00
11 2
3 11
00
Cb
Cd
111111111111111
000000000000000
000000000000000
111111111111111
000000000000000
111111111111111
000000000000000
111111111111111
C
000000000000000
111111111111111
000000000000000
111111111111111
a
000000000000000
111111111111111
000000000000000
111111111111111
000000000000000
111111111111111
000000000000000
111111111111111 q
2
000000000000000
111111111111111
000000000000000
111111111111111 )d
000000000000000
111111111111111
3
000000000000000
111111111111111
000000000000000
111111111111111
000000000000000
111111111111111q ,q
2 ,
000000000000000
111111111111111
11
00 1 (q
000000000000000
111111111111111
000000000000000
111111111111111
11
00
000000000000000
111111111111111
(q1 ,q2 ,q3) 2 h
000000000000000
111111111111111
000000000000000
111111111111111
h
~ ×A
~ =
i 1 ∂(h1 A 1 ) ∂(h3 A 3 )
∇ − (3.59)
2 h1 h3 ∂q3 ∂q1
h
~ ×A
i
~ = 1 ∂(h2 A 2 ) ∂(h1 A 1 )
∇ − , (3.60)
3 h1 h2 ∂q1 ∂q2
Las ecuaciones (3.58)-(3.60) pueden ser usadas más compactamente usando un determi-
nante,
h1 q̂1 h2 q̂2 h3 q̂3
~ ×A ~= 1
∇ ∂/∂q1 ∂/∂q2 ∂/∂q3 , (3.61)
h1 h2 h3
h1 A1 h2 A2 h3 A3
o usando los sı́mbolos de Levi-Civita y la notación de Einstein,
~ ×A
~= 1 ∂A z ∂A φ ∂A ρ ∂A z 1 ∂(ρA φ ) ∂A ρ
∇ − q̂ρ + − q̂φ + − q̂z . (3.65)
ρ ∂φ ∂z ∂z ∂ρ ρ ∂ρ ∂φ
~ ×A
~= 1 ∂(sen θAθ ) ∂Aθ
∇ − q̂r +
r sen θ ∂θ ∂φ
1 1 ∂Ar ∂(rAφ ) 1 ∂(rAθ ) ∂Ar
− q̂θ + − q̂φ . (3.68)
r sen θ ∂φ ∂r r ∂r ∂θ
58 CAPÍTULO 3. SISTEMAS DE COORDENADAS CURVILÍNEOS.
Capı́tulo 4
Introducción a tensores.
versión final 1.0-0804151
V
I= . (4.1)
R
En esta ecuación, I es la corriente que circula a través de la resistencia y V es el voltaje
aplicado. Usando unidades MKS, I es medido en Àmperes, V en Volts y R en Ohms.
La ecuación (4.1) describe el flujo de corriente a través de un elemento discreto. Para
aplicar la ley de Ohm a un medio distribuido, como un sólido cristalino, una forma alternativa
de esta ecuación debe ser utilizada
J~ = σ E
~ . (4.2)
1
Este capı́tulo está basado en el cuarto capı́tulo del libro: Mathematical Physics de Brusse Kusse & Erik
Westwig, editorial John Wiley & Sons, Inc..
59
60 CAPÍTULO 4. INTRODUCCIÓN A TENSORES.
Ji = σij Ej . (4.5)
Todas estas expresiones producen el resultado deseado. Cualquier relación lineal entre J~ y
E~ puede ser descrita. Por ejemplo, la componente 1 de la densidad de corriente está relacio-
nada con la componente 1 del campo eléctrico por σ11 , mientras que la componente 2 de la
densidad de corriente está relacionada con la componente 2 del campo eléctrico por σ22 . Los
flujos perpendiculares están descritos por los elementos fuera de la diagonal. Por ejemplo, el
elemento σ12 describe el flujo en la dirección 1 debido a un campo aplicado en la dirección 2.
Sin embargo, la representación matricial de la conductividad anisotrópica tiene un pro-
blema fundamental. Los elementos matriciales deben depender del sistema de coordenadas.
Tal como sucede con las componentes de un vector, si reorientamos nuestro sistema de coor-
denadas, los valores especı́ficos en el arreglo matricial deben cambiar. Lamentablemente, el
arreglo matricial en sı́ no tiene la información sobre el sistema de coordenadas elegido. La
manera de resolver este problema para las cantidades vectoriales fue incorporar los vectores
base directamente en la notación. La misma aproximación puede ser usada para mejorar
la notación para la conductividad anisotrópica. Definimos un nuevo objeto, llamado el ten-
↔
sor de conductividad, que notaremos σ. Este objeto incluye tanto los elementos de matriz
de la matriz de conductividad como la base de vectores en el sistema de coordenadas en
cual estos elementos son válidos. Como esta notación está motivada en la notación vectorial,
comenzaremos con una pequeña revisión de conceptos.
4.1. EL TENSOR DE CONDUCTIVIDAD Y LA LEY DE OHM. 61
Recordemos que una cantidad vectorial, tal como el campo eléctrico, puede ser represen-
tado como un vector columna
E1
~
E → E2 .
(4.6)
E3
El vector y las cantidades matriciales no son iguales, ya que la matriz no puede reemplazar
~ en una ecuación vectorial y viceversa. Más aún, la base de vectores del sistema
al vector E
coordenado en la cual el vector está expresado debe ser incluida para formar una expresión
equivalente
~ = Ei êi .
E (4.7)
↔
El tensor de conductividad anisotrópico σ puede ser tratado de manera similar. Puede ser
representado por un arreglo matricial
σ11 σ12 σ13
↔
σ → σ21
σ22 σ23 , (4.8)
σ31 σ32 σ33
pero el arreglo matricial y el tensor no son equivalentes, ya que el arreglo matricial no contiene
la información sobre el sistema de coordenadas. Siguiendo el patrón usado para los vectores y
la expresión para un vector dada en la ecuación (4.7), expresamos el tensor de conductividad
como
↔
σ = σij êi êj . (4.9)
La discusión que sigue mostrará que esta es una notación muy poderosa. Soporta toda la ma-
nipulación algebraica que la notación de matrices y también podemos manejar con facilidad
las transformaciones entre sistemas de coordenadas.
La expresión para el tensor de conductividad en el lado derecho de la ecuación (4.9)
contiene los elementos de la matriz de conductividad y dos bases de vectores del sistema
de coordenadas donde los elementos tienen validez. No hay operación entre estas bases de
vectores. Ellos sirven como “cajones” en donde los elementos σij son colocados. Hay una doble
suma sobre los ı́ndices i e j, por tanto, para un sistema tridimensional, habrán 9 términos
en esta suma, cada uno conteniendo dos de los vectores base. En otras palabras, podemos
expandir la conductividad como
↔
XX
σ= σij êi êj = σ11 ê1 ê1 + σ12 ê1 ê2 + σ21 ê2 ê1 + · · · . (4.10)
i j
Veamos como manejamos la ley de Ohm en esta nueva notación. Usando el tensor de con-
ductividad, podemos escribir en un sistema de coordenadas independiente y usando notación
“vector/tensor”
62 CAPÍTULO 4. INTRODUCCIÓN A TENSORES.
J~ = σ · E
~ .
↔
(4.12)
Notemos que usamos el producto punto entre el tensor de conductividad y el vector del campo
eléctrico en el lado derecho de esta expresión. Podemos utilizar la notación de Einstein, y
escribir
Las cantidades en la ecuación (4.16) son vectores. Las componentes i-ésimas de estos vectores
pueden ser obtenidos aplicando producto punto con êi a ambos lados de la ecuación (4.16),
obteniendo
Ji = σik Ek , (4.17)
lo cual es idéntico a las ecuaciones (4.3)-(4.5). Mantengamos en mente que hay una diferencia
↔
~ yE
entre σ · E ~ ·↔σ. El orden en los términos importan, ya que en general
Ahora que hemos motivado nuestra investigación sobre los tensores con un ejemplo es-
pecı́fico, procedemos a mirar algunas de sus propiedades formales.
↔
T = Tijk... êi êj êk . . . . (4.19)
El número de vectores base determina el rango del tensor. Notemos como la notación tensorial
es una generalización de la notación vectorial usada en los capı́tulos previos. Los vectores son
simplemente tensores de rango uno. Los escalares pueden ser considerados como tensores de
rango cero. Mantengamos en mente el rango del tensor con el número de vectores base en
el lado derecho de la ecuación (4.19), mientras que la dimensión del sistema de coordenadas
determina el número de valores diferentes que un ı́ndice en particular puede tomar. Para un
sistema tridimensional, los ı́ndices (i, j, k, etc.) pueden tomar los valores (1,2,3) cada uno.
Esta notación introduce la posibilidad de una nueva operación entre los vectores, llamada
el producto diadico. Este producto es escrito tanto como A ~ : B ~ o simplemente A ~ B.
~ El
producto diadico entre dos vectores crea un tensor de rango dos
~B
A ~ = Ai êi Bj êj = Ai Bj êi êj . (4.20)
Este tipo de operación puede ser extendida para combinar dos tensores de un rango arbi-
trario. El resultado es un tensor con un rango igual a la suma de los rangos de los tensores
involucrados en el producto. Usualmente esta operación es llamada un producto externo, lo
cual es opuesto al producto punto, el cual es llamado producto interno.
2
2’
1’
e2
e’1
e’2 θ0 1
e1
[v 0 ] = [a][v] , (4.23)
donde [v 0 ] y [v] son matrices columna que representan el vector ~v con las componentes primas
y no primas, y [a] es la matriz cuadrada
cos θ0 sen θ0
[a] = . (4.24)
− sen θ0 cos θ0
2 2
2’
v2 v v 1’
v’2
1 v’1 1
v1
Esto es verdad para cualquier ~v . En particular, sea ~v = êm uno de los vectores base del
sistema no primado (en otras palabras, vk6=m = 0 y vk=m = 1), obtenemos
Notemos que los elementos de [a] son sólo cosenos directores entre todos los pares de vectores
base entre los sistemas primado y no primado.
donde dxi y dx0i son los diferenciales totales de las coordenadas. Como la ecuación (4.25)
representan las componentes de cualquier vector, incluı́do el vector de desplazamiento
La ecuación (4.31) provee un método general para obtener los elementos de matriz de [a]
usando las coordenadas primas y no primas. Trabajando en tres dimensiones, asumamos que
estas ecuaciones son
x01 = x01 (x1 , x2 , x3 )
x02 = x02 (x1 , x2 , x3 ) (4.32)
0 0
x3 = x3 (x1 , x2 , x3 ) ,
o en forma compacta
∂x0i (x1 , x2 , x3 )
dx0i = dxj . (4.34)
∂xj
Comparando las ecuaciones (4.31) y (4.34), podemos identificar los elementos de [a]
∂x0i (x1 , x2 , x3 )
aij = . (4.35)
∂xj
La inversa de [a].
La matriz [a] genera las componentes de los vectores en el sistema primado desde las
componentes sin primas, como es indicado en la ecuación (4.25). Esta expresión puede ser
invertida con la inversa de [a], la cual es escrita como [a]−1 , y está definida por
a−1 −1
ij ajk = aij ajk = δik . (4.39)
4.3. TRANSFORMACIONES ENTRE SISTEMAS DE COORDENADAS. 67
vi0 = aij vj
a−1
ki vi
0
= a−1
ki aij vj
(4.40)
a−1
ki vi
0
= δkj vj
a−1
ki vi
0
= vk .
a−1
ij = aji . (4.42)
La relación de inversión se convierte en
primado con el sistema primado, estamos tratando con una base vectorial o las componentes
de algún vector, sumamos sobre el segundo ı́ndice aij . Por el contrario, las conversiones desde
el sistema primado al sistema no primado siempre se sumará sobre el primer ı́ndice.
0 0 0
êl · Tij êi êj = êl · Trs êr ês
Tij (êl · êi )êj = Trs (êl · ê0r )ê0s
0
(4.48)
0
Tij δli êj = Trs arl ê0s
0
Tlj êj = Trs arl ê0s .
Aplicando un segundo producto punto y realizando el proceso análogo obtenemos
0
Tlm = Trs arl asm . (4.49)
Para invertir la ecuación (4.49) usamos la matriz inversa [a]−1 dos veces, y recordando que
para sistemas de coordenadas ortonormales se cumple que a−1 ij = aji , obtenemos
0
Tlm = Trs alr ams . (4.50)
En general, las transformaciones tensoriales requieren un factor aij para cada subı́ndice
en el tensor. En otras palabras, un rensor de rango r necesita r diferentes factores aij . Si
4.4. DIAGONALIZACIÓN DE TENSORES. 69
la transformación va desde el sistema sin prima al sistema prima, todos los factores aij
son sumadas sobre el segundo subı́ndice. Para la transformación inversa, desde el sistema
primado al sistema no primado, las sumas son sobre el primer subı́ndice. Las transformaciones
tensoriales, para tensores de rango arbitrario, pueden ser resumidas como siguen
0
Tijk... = Trst... air ajs akt . . .
0
Tijk... = Trst... ari asj atk . . .
donde los elementos de la matriz [a] están dados por la ecuación (4.35).
Hay otro asunto importante en la notación tensorial de la ecuación (4.19). Al contrario
de la ecuación matricial, donde todos los términos deben estar en la misma base, la notación
tensorial/vectorial permite que las ecuaciones estén en bases distintas. Imaginemos que los
elementos de la ecuación de Ohm expresados en los sistemas primados y no primados sean
los siguientes
~ ,
J~ = σ · E
↔
(4.52)
y cualquier combinación de las representaciones de la ecuación (4.51) pueden ser usados en
la evaluación. Por ejemplo,
0 0 0 0
Ji êi = (σjk êj êk ) · (El êl ) = σjk El ê0j (ê0k · êl ) = σjk
0
El ê0j akl . (4.53)
↔
El hecho que los elementos de σ del sistema primado sean combinados con las componentes
de E~ del sistema no primado no representa un problema. El producto punto de las bases de
los vectores toma en cuenta las representaciones mezcladas, siempre y cuando el orden de las
bases de los vectores sea preservado. Esto es acompañado en la ecuación (4.53) por el hecho
que ê0k · êl 6= δkl . Este tipo de operación no puede ser hecho con la notación matricial sin antes
convertir todo a una misma base.
Con esto deberı́a quedar claro el valor de expresar un tensor de la forma como se ve en
(4.19). Además de poder manejar las manipulaciones algebraicas como una matriz, también
contiene toda la información necesaria para transformar los elementos de un sistema de
coordenadas al otro. Por tanto, un tensor es de coordenadas independientes, y un objeto
geométrico, tal como un lo vector es.
↔
σ · ê01 = σss
0 0 0
ês ês · ê01
0 0
= σss ês δs1 (4.56)
0 0
= σ11 ê1 .
La ecuación (4.56) revela una propiedad importante de la base de vectores donde el tensor
es diagonal. No cambian de dirección cuando es aplicado el producto punto por el tensor. Sin
0
embargo, ellos pueden cambiar de magnitud. Si definimos λ1 = σ11 , la ecuación (4.56) queda
↔
σ · ê01 = λ1 ê01 . (4.57)
↔
El factor λ1 es llamado el autovalor de σ. Un autovalor aparece cuando una operación sobre
un objeto produce una constante, el autovalor, por el objeto original. El vector base del
sistema primado es llamado un autovector.↔
Ahora introducimos el tensor unitario 1, el cual es definido por
↔
1 = δij êi êj (4.58)
que cumple
4.4. DIAGONALIZACIÓN DE TENSORES. 71
↔
1 · ~v = ~v . (4.59)
Representado como matriz, el tensor unitario es
↔
1 0 0
1 → [1] = 0 1 0 . (4.60)
0 0 1
Usando el tensor unitario, la ecuación (4.57) puede ser escrita como
↔
↔
σ − λ1 1 · ê01 = 0 . (4.61)
↔
Expresando σ en el sistema no primado, la ecuación (4.61) puede ser reescrita en notación
de Einstein
Ejemplo 1
Como un ejemplo del proceso de diagonalización, consideremos el tensor de conductividad
expresado en coordenadas cartesianas
↔
σ = σij êi êj . (4.69)
Sea su representación matricial (ignorando las unidades)
10 0 0
[σ] = 0 10 1 . (4.70)
0 1 10
Esta matriz es Hermitiana, por tanto podemos esperar que sus valores propios sean reales
y sus autovectores ortonormales. Los autovalores para la diagonalización son generados desde
la ecuación determinante
4.4. DIAGONALIZACIÓN DE TENSORES. 73
10 − λ 0 0
0
10 − λ 1 = 0 . (4.71)
0 1 10 − λ
La expansión del determinante nos arroja una ecuación polinomial de tercer orden
Las otras componentes de [a] pueden ser determinadas en forma análoga. La matriz de
transformación completa es
0 1 −1
1
[a] = √ √0 1 1 . (4.76)
2 2 0 0
Los otros dos autovectores no primados son
√ √
ê02 = 1/ 2 ê2 + 1/ 2 ê3 (4.77)
Podemos notar que hay una ambigüedad de orden con los autovalores y en los signos asociados
con cada autovector. Estas ambigüedades nos permiten fijar el sistema primado como de mano
derecha. El orden y las elecciones de signo hechas en este ejemplo dan la base primada que
se muestra en la figura 4.3.
Los elementos del tensor de conductividad expresados en el nuevo sistema diagonal son
74 CAPÍTULO 4. INTRODUCCIÓN A TENSORES.
1
e’3
3
e’2
e’1 2
9 0 0
[σ 0 ] = 0 11 0 (4.79)
0 0 10
Ejemplo 2
Este ejemplo demuestra el proceso de diagonalización cuando dos autovectores son dege-
nerados. Consideremos nuevamente un tensor de conductividad en coordenadas cartesianas
(nuevamente, ignoramos las unidades)
11 −1 0
[σ] = −1 11 0 . (4.80)
0 0 10
Esta es una matriz Hermitiana, por tanto esperamos valores propios reales y vectores
ortonormales. La condición del determinante queda
11 − λ −1 0
−1 11 − λ 0 = 0 , (4.81)
0 0 10 − λ
lo cual lleva a una ecuación polinomial de tercer orden
a11 1
a12 = √1 −1 . (4.84)
a13 2 0
Estos elementos de la matriz transformación nos permiten definir el primer autovector
√ √
ê01 = 1/ 2 ê1 − 1/ 2 ê2 . (4.85)
Ahora consideremos los valores propios degenerados. Cuando sustituı́mos λ2 = 10 en la
ecuación (4.64), obtenemos
1 −1 0 a21 0
−1 1 0 a22 = 0 . (4.86)
0 0 0 a23 0
Si sustituı́mos λ3 obtenemos una ecuación muy parecida
1 −1 0 a31 0
−1 1 0 a32 = 0 . (4.87)
0 0 0 a33 0
La ecuación (4.86) nos requiere a21 = a22 , pero deja libre el factor a23 . La condición de
normalización nos exige que se cumpla a221 + a222 + a223 = 1. Estas condiciones pueden ser
satisfechas por muchos autovectores. Como a23 es arbitrario, lo fijamos igual a cero. Ahora,
si el segundo autovector debe ser ortonormal a ê01 , tenemos
a21 1
a22 = √1 1 . (4.88)
a 2 0
23
Por ejemplo, las ecuaciones que relacionan el sistema de coordenadas cilı́ndrico con el carte-
siano son
x01 = x0 = ρ cos θ
x02 = y 0 = ρ sen θ (4.93)
x03 = z 0 = z .
La matriz de transformación [a] realiza la misma función como antes. Esto es, toma las com-
ponentes del sistema curvilı́neo no primado de un vector y genera las coordenadas cartesianas
en el sistema primado
∂x0i (q1 , q2 , q3 )
dx0i = dqj . (4.97)
∂qj
4.6. PSEUDO-OBJETOS. 77
La ecuación (4.97) puede ser colocada en la forma de la ecuación (4.96) multiplicando el lado
derecho de la ecuación (4.97) por hj /hj
∂x0i (q1 , q2 , q3 )
aij = [Curvilı́neo a Cartesiano] . (4.99)
hj ∂qj
La generalización para la transformación entre dos sistemas curvilı́neos se sigue de una
manera análoga. Los elementos para la matriz transformación [a] en este caso son
4.6. Pseudo-objetos.
Si consideramos sólo las transformaciones que involucran traslaciones o rotaciones rı́gidas,
no hay forma de cambiar un sistema de orientación derecha a uno de orientación izquierda, o
viceversa. Para cambiar esto necesitamos una reflexión. Las transformaciones que involucran
reflexiones requieren la introducción de los llamados “pseudo”-objetos. Los pseudoescalares,
pseudovectores y pseudotensores son muy similares a sus contrapartes “regulares”, excepto
por su comportamiento cuando son reflejados. Una forma fácil de demostrar la diferencia es
examinando el producto cruz de dos vectores regulares en los sistemas derechos e izquierdos.
4.6.1. Pseudo-vectores.
Consideremos el sistema de coordenadas cartesiana derecho mostrado en la figura 4.4. La
figura muestra dos vectores regulares en este sistema, orientado a lo largo de dos vectores de
la base
78 CAPÍTULO 4. INTRODUCCIÓN A TENSORES.
2
e3
e2
1
e1
Figura 4.4: Sistema de la mano derecha.
~ = A0 ê1
A (4.102)
~ = B0 ê2 .
B (4.103)
Por “regulares” nos referimos que las componentes de estos vectores obedecen la ecuación
(4.25) cuando transformamos las coordenadas.
~yB
El producto cruz entre A ~ puede ser escrito usando el determinante
ê1 ê2 ê3
~×B ~ = A0 0 0 = A0 B0 ê3 ,
A (4.104)
0 B0 0
~×B
A ~ = Ai Bj ijk êk = A0 B0 ê3 . (4.105)
A xB
2
B
1
A
x01 = −x1
x02 = +x2 (4.106)
x03 = +x3
3’
e’3 2’
e’2
1’
e’1
Figura 4.6: Sistema de la mano izquierda.
por tanto, la matriz transformación es
−1 0 0
[a] = 0 1 0 . (4.107)
0 0 1
~yB
Los vectores regulares A ~ en el sistema prima son simplemente
~ = −A0 ê01
A (4.108)
~ = B0 ê02 .
B (4.109)
Sólo escribimos estos resultados porque son obvios. Recordemos que formalmente estos son
obtenidos aplicando [a] a las componentes de los vectores no primados. De la multiplicación
matricial obtenemos
A01
−1 0 0 A0 −A0
A02 = 0 1 0 0 = 0 (4.110)
A03 0 0 1 0 0
y
B10
−1 0 0 0 0
B20 = 0 1 0 B0 = B0 . (4.111)
B30 0 0 1 0 0
80 CAPÍTULO 4. INTRODUCCIÓN A TENSORES.
Es importante recordar que los vectores son los mismos objetos fı́sicos en ambos sistemas de
coordenadas. Están expresados en términos de distintas componentes y bases vectoriales.
Ahora formemos el producto cruz A ~×B ~ en el sistema izquierdo. Para esto usaremos la
relación de determinante
0 0
0
ê1 ê2 ê3
~×B ~ = −A0 0 0 = −A0 B0 ê03 ,
A (4.112)
0 B0 0
o, usando el tensor de Levi-Civita
~×B
A ~ = A0i Bj0 ijk ê0k = A01 B10 123 ê03 = −A0 B0 ê03 . (4.113)
Los vectores A,~ B ~ y el producto cruz A ~×B ~ para el sistema izquierdo son mostrados en
la figura 4.7. Notemos como la regla de la mano derecha ya no nos sirve para encontrar
la dirección del producto cruz. Si definimos el producto cruz usando el determinante en la
ecuación (4.112), entonces debemos usar la regla de la mano izquierda si estamos en el sistema
de coordenadas izquierdo.
2’
B
3’ 1’
A
A xB
Notemos algo peculiar. Comparando las figuras 4.7 y 4.5 observamos que, mientras A ~ y
~
B apuntan en las mismas direcciones, sus productos cruces no apuntan en las mismas direc-
ciones. Cambiando la orientación del sistema de coordenadas, hemos cambiado la dirección
del vector A~ × B.
~
Miremos el producto cruz desde otro punto de vista. Si las componentes del vector A ~ ×B~
en el sistema no primado, dado por la ecuación (4.104), son transformados al sistema primado
usando usando la matriz [a], como lo hacemos para las componentes de los vectores regulares,
obtenemos
−1 0 0 0 0
0 1 0 0 = 0 . (4.114)
0 0 1 A0 B0 A0 B0
4.6. PSEUDO-OBJETOS. 81
Combinando estas componentes con la base de vectores apropiada, obtenemos para el vector
resultante del producto cruz
A0 B0 ê03 . (4.115)
Este resultado difiere de la ecuación (4.112) por un signo menos. Para sortear esta dificultad,
la cantidad formada por el producto cruz de dos vectores regulares es llamado un pseudo-
vector. Los Pseudovectores también son llamados vectores axiales, mientras que los vectores
regulares son llamados vectores polares. Si ~v es un vector regular transforma de acuerdo a la
ecuación (4.25). Por otra parte, si ~v es un pseudovector, sus componentes tranforman como
~×B
A ~ = −A0 B0 ê03 , (4.118)
de acuerdo con las ecuaciones (4.112) y (4.113).
En resumen, si ~v es un vector regular sus componentes transforman como
realizado por primera vez por Wu, quien mostró este efecto con la emisión de partı́culas beta
desde el Cobalto 60, bajo la influencia de interacciones débiles.
4.6.2. Pseudo-escalares.
Las ideas que nos dejaron los pseudovectores se aplican también a los escalares. Un escalar
es invariante ante cualquier cambio del sistema de coordenadas. En cambio, un pseudoescalar
cambia de signo si la orientación del sistema cambia. Un pseudoescalar involucrado en una
transformación, governado por una matriz de transformación [a], obedecerá
S 0 = |a|S . (4.121)
~ × B)
Volumen = (A ~ ·C
~ . (4.122)
C
B
A
Figura 4.8: El paralelogramo.
~×B
En un sistema de coordenadas derecho, el vector formado por A ~ apuntará hacia arriba.
Por tanto, en un sistema derecho,
~ × B)
(A ~ ·C
~ >0. (4.123)
~ × B)
(A ~ ·C
~ <0. (4.124)
4.6.3. Pseudo-tensores.
Los pseudotensores están definidos como uno espera. Bajo una transformación, las com-
ponentes de un pseutensor obedecen
0
Trst... = |a|Tijk... ari asj atk . . . , (4.125)
la cual es igual a lo que obedece un tensor regular, salvo por el término |a|.
Nuevamente utilizamos el producto cruz como ejemplo. Consideremos dos sistemas de
coordenadas. El sistema primado es un sistema derecho, y el otro, con el sistema no primado,
es izquierdo. Usando el sı́mbolo de Levy-Civita en los dos sistemas para generar el producto
cruz A~×B ~ obtenemos
Sistema de coordenadas no
ortogonales.
versión final 1.0-0804151
∂x0i
aij = (ê0i · êj ) = . (5.1)
∂xj
En esta ecuación, el sistema original tiene coordenadas xi y vectores base êi . El sistema
es transformado al sistema primado, el cual tiene coordenadas x0i y vectores base ê0i . Para
sistemas de coordenadas ortonormales, la inversa de esta matriz de transformación es siempre
su transpuesta
a−1
ij = aji . (5.2)
Un tensor arbitrario de rango n puede ser expresado tanto en el sistema primado como
en el no primado por
↔
0
T = Tijk... êi êj êk . . . = Trst... ê0r ê0s ê0t . . . , (5.3)
1
Este capı́tulo está basado en el décimo cuarto capı́tulo del libro: Mathematical Physics de Brusse Kusse
& Erik Westwig, editorial John Wiley & Sons, Inc..
85
86 CAPÍTULO 5. SISTEMA DE COORDENADAS NO ORTOGONALES.
0
donde hay n subı́ndices y n vectores base en cada término. Tijk... y Trst... son los elementos
del tensor en el sistema de coordenadas no primado y primado, respectivamente. Los dos
conjuntos de elementos están relacionados por la ecuación matricial de transformación
0
Trst... = Tijk... ari asj atk . . . , (5.4)
donde la matriz [a] aparece n veces. La transformación inversa es
0
Trst... = Tijk... air ajs akt . . . . (5.5)
Nuestra propuesta fundamental es que cualquier cantidad que transforma en la manera des-
crita por la ecuación (5.4) es por definición un tensor.
Como un vector es un tensor de primer rango, las transformaciones de las componentes
son descritas por las ecuaciones (5.4) y (5.5). Si escribimos un vector en dos sistemas de
coordenadas como
S = S0 (5.9)
donde S (o S 0 ) en el único elemento del escalar.
Ejemplo
Como un ejemplo del uso de las propiedades de las transformaciones para identificar a un
objeto como tensor, consideremos la delta de Kronecker. Recordemos que este sı́mbolo fue
introducido para formar el producto punto en sistemas de coordenadas ortonormales. El pro-
~yB
ducto punto entre dos vectores, A ~ escrito en dos sistemas ortonormales de coordenadas,
uno primado y otro primado, puede ser escrito por
~·B
A ~ = Ai Bj δij = A0r Bs0 δrs
0
. (5.10)
0
Ahora, sabemos que tanto δij como δrs pueden ser escritos como matrices unitarias, tal
como [1]. Sin embargo, para los propósitos de esta discusión, observemos las consecuencias
de imponer que las dos expresiones para el producto punto en la ecuación (5.10) sean iguales,
y que Ai y Bi son componentes vectoriales, y por tanto, transforma de acuerdo a la ecuación
(5.7). Sustituyendo en la ecuación (5.10), tenemos para A0r y Bs0
5.2. SISTEMAS DE COORDENADAS NO ORTOGONALES. 87
0
Ai Bj δij = ari Ai asj Bj δrs .
0
= Ai Bj ari asj δrs . (5.11)
~ y B,
Como esta expresión debe ser verdadera para cualquier A ~ podemos escribir
0
δij = ari asj δrs . (5.12)
Invirtiendo esta expresión, obtenemos
ct ct’
Un evento
x’
x
Figura 5.1: Los sistemas de coordenadas de la Relatividad Especial.
Sistema de coordenadas
local no ortogonal
Estrella Aparente
Mo
Estrella
figura dos pares de vectores base y un vector arbitrario ~v . La base vectorial de sistema no
primado es ortonormal
2 2’
V2 V
1’
V’2
g’2 V’1
e2 g’1 1
e1 V1
La base vectorial del sistema inclinado son elegidos para que sean vectores unitarios,
~·B
A ~ = A0i ĝi0 · Bj0 ĝj0
= A0i Bj0 (ĝi0 · ĝj0 )
= A01 B10 + A02 B20 + (A01 B20 + A02 B10 )(ĝ10 · ĝ20 ) . (5.23)
El producto interno evaluado en el sistema no-ortonormal, expresado en (5.23), puede ser
puesto en la forma de la ecuación (5.22) rearreglandolo como sigue:
~·B
A ~ = A01 (B10 + B20 (ĝ10 · ĝ20 )) + A02 (B10 (ĝ10 · ĝ20 ) + B20 ) . (5.24)
5.2. SISTEMAS DE COORDENADAS NO ORTOGONALES. 91
~ como
Ahora definamos un nuevo conjunto de componentes para B
Estas cantidades son llamadas las componentes covariantes de B, ~ mientras que las com-
ponentes originales son llamadas contravariantes. Claramente, el vector B ~ no puede ser
expresado por la combinación de estas nuevas componentes covariantes con los vectores ba-
ses ĝ10 y ĝ20 :
B~ 6= B̃10 ĝ10 + B̃20 ĝ20 . (5.26)
Sin embargo, con estas componentes el producto evaluado en el sistema inclinado puede ser
puesto en una forma simple
~·B
A ~ = A0i B̃i0
= A01 B̃10 + A02 B̃20 . (5.27)
~ definidas como
con las componentes covariantes de A
El producto interno necesita estar formado con una mezcla de componentes covariantes y
contravariantes, pero no importa que vector es expresado en que tipo de componentes.
Estos argumentos pueden ser extendidos a sistemas no-ortogonales de dimensión arbitra-
ria. La restricción que los vectores bases estén normalizados a la unidad puede ser levantada.
Las componentes covariantes pueden ser generadas a partir de las componentes contravarian-
tes usando la expresión general
Ã0i = A0j (ĝi0 · ĝj0 ) . (5.30)
Hemos usado convención de Einstein, lo cual implica suma sobre j. Para un sistema de
coordenada n-dimensional en cada suma habrı́a n términos. Notemos que si el sistema de coor-
denadas es ortonormal la ecuación (5.30) se reduce a Ã0i = A0i y las componentes covariante
y contravariantes son iguales. En este caso, ambas ecuaciones (5.27) y (5.28) se revierten a
la ecuación (5.22). Esto es importante, porque implica que esta nueva notación es suficien-
temente general para manejar todos nuestros previos sistemas de coordenadas Cartesianos y
curvilı́neos, tanto como los nuevos no-ortogonales.
Existe otra manera de expresar el producto interno entre dos vectores en un sistema no-
ortogonal que hace uso de una cantidad llamada la métrica. Como veremos más tarde, la
métrica es un tensor de rango dos. Los elementos de la métrica, en un sistema sin primas,
están definidos como
Mij = ĝi · ĝj . (5.31)
92 CAPÍTULO 5. SISTEMA DE COORDENADAS NO ORTOGONALES.
~·B
A ~ = Ai Bj Mij . (5.34)
~·B
A ~ = Ãj Bj . (5.35)
~·B
A ~ = Ai B̃i . (5.36)
Cuando la ecuación (5.34) es usada para el producto interno, las componentes vectoriales no
se mezclan. Las componentes contravariantes son usadas para ambos vectores. Si el sistema es
ortonormal Mij = δij , resultando el producto interno standard para un sistema ortonormal.
Notemos que la métrica es determinada solamente por los vectores bases del sistema de
coordenadas. Esto se volverá un hecho importante y nos permitirá identificar a la métrica
como un tensor de rango dos.
En resumen, hay dos maneras de realizar el producto interno entre dos vectores en un
sistema no-ortogonal. Una manera es usar las componentes covariantes y contravariantes,
como fue hecho en las ecuaciones (5.27) y (5.28). Un método completamente equivalente es
usar la métrica y las componentes regulares contravariantes del vector, como demostramos en
la ecuación (5.34). Estos argumentos pueden ser naturalmente extendidos al producto interno
entre cantidades tensoriales, pero esta generalización será pospuesta hasta que las ecuaciones
de transformación para sistema no-ortogonales sean trabajadas.
2 2’
V2 V
1’
V’2
g’2 V’1
e2 g’1 1
e1 V1
Todos los vectores en un punto dado transforman usando la misma matriz [t]. Para de-
terminar los elementos tij , es más fácil considerar el vector desplazamiento d~r, el cual en los
dos sistemas de coordenadas está dado por
∂x0i
dx0i = dxj , (5.43)
∂xj
y los elementos de la matriz transformación pueden ser escritos como
∂x0i
tij = . (5.44)
∂xj
Hasta ahora, estos resultados se parecen mucho a las transformaciones cartesianas que ya
habı́amos visto. De hecho, la ecuación para las componentes de [t] dadas en la ecuación (5.44)
es el mismo resultado obtenido para la matriz [a] entre sistemas cartesianos. Las complica-
ciones aparecen cuando tratamos de invertir estas ecuaciones. Como ya hemos mencionado,
la inversión de [t] no es simplemente calcular la traspuesta. Una forma general de obtener
[t]−1 , la cual estamos llamando [g], es utilizar la expresión
cji
gij = t−1
ij = , (5.45)
|tij |
donde cji es el cofactor ji de la matriz tij . Del álgebra de matrices, este cofactor es definido
como (−1)i+j por el determinante de la matriz tij , con la columna j-ésima y la columna i-
ésima removida. La matriz [g] puede también ser obtenida desde las ecuaciones que relacionan
las coordenadas, exactamente de la misma manera que se llega a la ecuación (5.44)
∂xi
gij = t−1
ij = . (5.46)
∂x0j
Las matrices [t] y [g] pueden también ser usadas para relacionar una base vectorial con
la otra. Usando las componentes contravariantes, cualquier vector ~v puede ser expresado en
el sistema primado o el no primado como
~·B
A ~ = Ai Bi = Ai B i . (5.51)
Notemos que el ı́ndice sobre el cual sumamos aparece una vez como subı́ndice y otra como
superı́ndice. Esto es, por supuesto, lo mismo que decir que la suma es hecha sobre can-
tidades covariantes y contravariantes mezcladas. Este proceso de mezclar subı́ndices y su-
perı́ndices persistirá sobre casi todas las contracciones sobre un ı́ndice repetido. También
funcionará cuando queramos formar un vector desde sus componentes con la interpretación
adecuada de los vectores base. Sabemos que el vector puede ser formado con las componentes
contravariantes y la base vectorial
~v = v i ĝi . (5.52)
Para ser consistentes con la convención de subı́ndices y superı́ndices, las bases vectoriales
deben ser escritas con subı́ndices y ser consideradas covariantes. Veremos en la próxima
sección, que esta conclusión es consistente con la forma en que estas bases transforman.
Esta convención también previene que accidentalmente formemos un vector combinando
sus componentes covariantes con la base vectorial ĝi
96 CAPÍTULO 5. SISTEMA DE COORDENADAS NO ORTOGONALES.
~v 6= vi ĝi . (5.53)
La notación nos advierte que esto no es correcto ya que ambos ı́ndices aparecen como subı́ndi-
ces.
En la sección anterior generamos varias relaciones, las cuales describieron cómo las com-
ponentes contravariantes del vector ~v transforman entre dos sistemas inclinados. ¿Cómo de-
biesen ser modificados la presentación de estos resultados para ser consistente con la nueva
convención? En la sección anterior escribimos
v 0i = tij v j , (5.55)
donde
∂x0i
tij = . (5.56)
∂xj
De manera similar, la inversión de la ecuación (5.55) se convierte en
v i = g ij v 0j , (5.57)
donde
∂xi
g ij = . (5.58)
∂x0j
Notemos cómo en las ecuaciones (5.56) y (5.58) la componente con superı́ndice en el deno-
minador de la derivada parcial resulta en un subı́ndice en el lado izquierdo de esta expresión.
Esta es una propiedad general de las derivadas parciales con respecto a cantidades covariantes
y contravariantes. Una derivada parcial con respecto a una cantidad contravariante produ-
ce un resultado covariante, mientras que una derivada parcial con respecto a una cantidad
covariante da como resultado una cantidad contravariante. Probaremos este hecho más tarde
en este capı́tulo.
Estas matrices de transformación tienen lo que es llamado una combinación de propie-
dades contravariantes/covariantes. Ellas son contravariantes con respecto a un ı́ndice, pero
covariantes con respecto al otro.
Con la notación que usábamos hasta comenzar esta sección, la naturaleza recı́proca de [t]
y [g] era indicada por la ecuación tij gjk = δik . Pero ahora, para ser consistentes con la nueva
notación, anotaremos
Las ecuaciones (5.49) y (5.50), las cuales indican cómo transforman las bases vectoriales,
son escritas usando la notación de subı́ndices/superı́ndices por
vi = Mij v j . (5.62)
Notemos cómo la convención de sumas continúa su trabajo. La misma operación para un
sistema primado, usando una métrica primada, queda
Claramente hay algunos hoyos en estos cuadros. Primero, está la pregunta de cómo las
componentes covariantes de un vector transforman. Segundo, decimos que los vectores base
ĝi son covariantes por naturaleza. Necesitamos probar esto. Finalmente, ¿podemos definir
bases vectoriales contravariantes? Estos tópicos están ı́ntimamente relacionados unos con los
otros, y apuntamos a esa dirección.
~·B
A ~ = Ai Bi = A0j Bj0 . (5.66)
~ transforman de acuerdo a las reglas ya determinadas
Las componentes contravariantes de A
A0j = tj i Ai . (5.67)
Sustituyendo esta expresión en el lado derecho de la ecuación (5.66), tenemos
Ai Bi = tj i Ai Bj0 . (5.68)
~ se debe tener
Como esta ecuación debe ser válida para cualquier A,
Bi = tj i Bj0 . (5.69)
Esta expresión puede ser fácilmente invertida, para obtener
Bi0 = g ji Bj . (5.70)
Notemos la similaridad entre las ecuaciones (5.60), (5.69) y (5.70). Esto soporta nuestra
conclusión que la base del eje paralelo es covariante.
Ahora somos capaces de combinar las componentes de los vectores base contravariantes,
ĝ i , las cuales pueden ser determinados con la componente del vector covariante para formar
el mismo vector. Esto es,
~v = v i ĝi . (5.71)
Serı́a mas bonito construir un nuevo conjunto de vectores base contravariantes, ĝ i , los cuales
pudiesen ser combinados con las componentes covariantes para formar el mismo vector. Esto
es,
~v = vi ĝ i . (5.72)
5.2. SISTEMAS DE COORDENADAS NO ORTOGONALES. 99
De hecho, podemos usar esta expresión para definir las bases de vectores contravariantes, y
ver las consecuencias.
Las propiedades básicas de las bases de vectores contravariantes pueden ser deducidas
considerando nuevamente el producto interno entre dos vectores, A ~ y B.
~ Si A~ es expresado
usando la base de vectores covariantes y las componentes contravariantes, mientras B ~ es
escrito con vectores base contravariantes y componentes vectoriales covariantes, el producto
interno se convierte en
~·B
A ~ = Ai ĝi · Bj ĝ j
= Ai Bj ĝi · ĝ j . (5.73)
De acuerdo a la ecuación (5.51), esta expresión debe ser igual a Ai Bi , por tanto
(
1 i=j
ĝi · ĝ j = , (5.74)
0 i 6= j
o en términos de la delta de Kronecker,
ĝi · ĝ j = δi j . (5.75)
Esta última condición permite determinar tanto la magnitud como la dirección de la base
de vectores contravariante, si la base de vectores covariante es conocida. Trabajando en dos
dimensiones, ĝ 1 · ĝ2 = 0 y ĝ 1 · ĝ1 = 1. En palabras, ĝ 1 debe ser perpendicular a ĝ2 , mientras
que su proyección a lo largo del eje 1, paralelo a ĝ 1 , debe ser uno. Esta unicidad determina
ĝ 1 y, por argumentos similares, ĝ2 . Las condiciones de la ecuación (5.75) pueden ser vistas
gráficamente como es mostrado en la figura 5.5. Las construcciones en esta figura fueron
hechas suponiendo que |ĝi | = 1.
g2
g2
1
g1
g1
Las componentes de los vectores covariantes y contravariantes también pueden ser in-
terpretadas gráficamente, como es mostrado en la figura 5.6. Nuevamente, en esta figura se
100 CAPÍTULO 5. SISTEMA DE COORDENADAS NO ORTOGONALES.
ha supuesto que |ĝi | = 1. Las componentes de los vectores contravariantes son simplemente
las magnitudes de las proyecciones paralelas a los ejes del vector sobre los ejes inclinados
definidos por la base covariante de vectores. Las componentes covariantes son las magnitudes
de las proyecciones del vector en el mismo eje coordenado, pero siguiendo las lı́neas paralelas
a las nuevas base de vectores contravariante. Esto hace que las lı́neas de proyección para
las componentes vectoriales covariantes perpendiculares a los ejes, como es mostrado en la
figura. La geometrı́a asegura que
~v = v i ĝi = vi ĝ i . (5.76)
V2
V
V2
1
V1
V1
Si la base vectorial covariante no son vectores unitarios, las construcciones de las figuras 5.5
y 5.6 deben ser ajustadas apropiadamente, siguiendo los requerimientos de las ecuaciones
(5.75) y (5.76).
Las transformaciones para la base vectorial contravariante se siguen directamente de la
ecuación (5.76) usando las técnicas que hemos aplicado ya varias veces
ĝ 0i = tij ĝ j (5.77)
i
ĝ = g ij ĝ 0j . (5.78)
Esto confirma nuestra clasificación de esta nueva base vectorial como contravariante, ya que
transforma exactamente como las componentes contravariantes de un vector.
El conjunto completo de reglas de transformación para componentes vectoriales contra-
variantes y covariantes pueden ser resumidas por el conjunto simétrico de relaciones
5.2. SISTEMAS DE COORDENADAS NO ORTOGONALES. 101
v 0i = tij v j ĝ 0i = tij ĝ j
v i = g ij v 0j ĝ i = g ij ĝ 0j
Notemos que las cantidades contravariantes siempre transforman por una suma sobre el
segundo ı́ndice tanto de tij y g ij , mientras las cantidades covariantes transforman sobre
el primer ı́ndice. Para cantidades contravariantes, tij es usado para ir desde el sistema no
primado al sistema primado, mientras que g ij es usado para ir desde el sistema primado al
sistema no primado. Para cantidades covariantes, los roles de tij y g ij son los contrarios.
La nueva base de vectores contravariantes nos permiten construir otra versión del tensor
métrico, esta vez con superı́ndices
M ij = ĝ i · ĝ j . (5.79)
La aplicación de esta forma de la métrica convierte cantidades covariantes en cantidades
contravariantes. Por ejemplo,
v i = M ij vj . (5.80)
Veremos en la próxima sección que las dos métricas distintas, Mij y M ij son simplemente
representaciones del mismo objeto, el tensor métrico.
~v = v i ĝi = vi ĝ i , (5.81)
un tensor puede ser expresando usando solamente componentes contravariantes o covariantes
↔
T = T ijk ĝi ĝj ĝk = Tijk ĝ i ĝ j ĝ k . (5.82)
Sin embargo, los tensores de más alto rango son más flexibles que los vectores, ya que
pueden ser expresados en una forma mixta, con ı́ndices contravariantes y covariantes. Por
ejemplo,
↔
T = T ij k ĝi ĝ j ĝk (5.83)
102 CAPÍTULO 5. SISTEMA DE COORDENADAS NO ORTOGONALES.
↔
la cual es una representación equivalente de T .
Todas las expresiones tensoriales de las ecuaciones (5.82) y (5.83) son equivalentes, aun-
que los valores especı́ficos de las componentes serán diferentes en cada caso. Ası́ como las
componentes covariantes y contravariantes
↔
de un vector están relacionadas con la métrica,
las diferentes representaciones de T pueden ser obtenidas ↔
desde una hacia otra usando la
misma métrica. Por ejemplo, si las dos expresiones para T en la ecuación (5.82) son iguales,
podemos escribir
T 0i jk = g li tj m g nk Tl mn (5.86)
Ti jk = tli g jm tnk T 0l mn (5.87)
Ejemplo
Hemos dicho que el tensor métrico es un tensor, pero no lo hemos probado. La demos-
tración es directa. Consideremos los elementos de la métrica, expresado en forma covariante
pura,
~·B
A ~ = Ai B j Mij = A0m B 0m Mmn
0
, (5.89)
0 0
donde Mmn = ĝm · ĝn0 . Las ecuaciones de transformación pueden ser usadas para expresar las
componentes del vector en el sistema primado en términos de las componentes no primados.
Esto resulta ser,
M ij = M im M jn Mmn . (5.94)
También podemos escribir la métrica en una forma mezclada escribiendo
M ij = M im Mmj . (5.95)
Usando las ecuaciones de transformación, se puede demostrar fácilmente que
M ij = ĝ i · ĝj = δ ij . (5.96)
Esto implica que el tensor métrico es realmente sólo una generalización del tensor Delta de
Kronecker.
∂ ∂xj ∂
= , (5.97)
∂x0i ∂x0i ∂xj
donde hay una suma implı́cita sobre el ı́ndice j. Pero notemos que el término ∂xj /∂x0i es
exactamente la definición de g ji . Esto nos permite escribir
∂ ∂
0i
= g ji j . (5.98)
∂x ∂x
Comparando esta expresión con la ecuación (5.70) vemos que la operación derivada parcial
transforma como una cantidad covariante. En ese caso, encontramos que
∂ ∂xj ∂
0
= (5.99)
∂xi ∂x0i ∂xj
∂
= tj i , (5.100)
∂xj
104 CAPÍTULO 5. SISTEMA DE COORDENADAS NO ORTOGONALES.
lo cual nos dice que esta derivada parcial actúa como una cantidad contravariante. Para ser
consistentes con nuestra notación, imponemos la regla que un superı́ndice en el “denomi-
nador” de la operación derivada actúa como un subı́ndice, mientras que un subı́ndice en el
denominador actúa como un superı́ndice. Esta idea fue discutida brevemente en la conexión
con las matrices de transformación en las ecuaciones (5.56) y (5.58).
Ejemplo
Un campo eléctrico estático es calculado usualmente tomando el gradiente de un potencial
escalar
~ = −∇ϕ
E ~ . (5.101)
En un capı́tulo anterior, definimos el operador gradiente por la relación
~ · d~r .
dϕ = ∇ϕ (5.102)
Como el vector desplazamiento puede ser descrito por
~ = ∂ϕ ĝ i .
∇ϕ (5.104)
dxi
Podemos chequear la validez de esta expresión, reemplazando las ecuaciones (5.104) y (5.103)
en el lado derecho de la ecuación (5.102), de donde obtenemos
∂ϕ
Ei = − , (5.107)
∂xi
las cuales son covariantes y deben transformar según la relación
Ei0 = g ji Ej . (5.108)
5.2. SISTEMAS DE COORDENADAS NO ORTOGONALES. 105
Otro ejemplo
~ puede ser calculado usando la ley de Àmpere
Un campo magnético estático B
I
~ = 4π I .
d~r · B (5.109)
C c
En esta expresión, I es la corriente total que fluye a través del camino cerrado C. Tomando
d~r como el vector diferencial con componentes contravariantes, como está dado en la ecuación
(5.103), las componentes del campo magnético usadas en esta integración deben ser escritas
en forma covariante, por tanto
I
4π
dxi Bi = I . (5.110)
C c
106 CAPÍTULO 5. SISTEMA DE COORDENADAS NO ORTOGONALES.
Capı́tulo 6
Determinantes y matrices.
versión final 1.31-1604011
6.1. Determinantes.
Comenzamos el estudio de matrices resolviendo ecuaciones lineales las cuales nos llevan
a determinantes y matrices. El concepto de determinante y su notación fueron introducidos
por Leibniz.
a1 x1 + a2 x2 + a3 x3 = 0 ,
b1 x 1 + b2 x 2 + b3 x 3 = 0 , (6.1)
c1 x1 + c2 x2 + c3 x3 = 0 .
El problema es: ¿en qué condiciones hay alguna solución, aparte de la solución trivial x1 = 0,
x2 = 0, x3 = 0? Si usamos notación vectorial ~x = (x1 , x2 , x3 ) para la solución y tres filas
~a = (a1 , a2 , a3 ), ~b = (b1 , b2 , b3 ), ~c = (c1 , c2 , c3 ) para los coeficientes, tenemos que las tres
ecuaciones, ecuación (6.1), se convirten en
~a · ~x = 0 , ~b · ~x = 0 , ~c · ~x = 0 . (6.2)
Estas tres ecuaciones vectoriales tienen la interpretación geométrica obvia que ~x es ortogonal
a ~a, ~b, ~c. Si el volumen sustentado por ~a, ~b, ~c dado por el determinante (o el producto escalar
triple)
a1 a2 a3
D3 = (~a × ~b) · ~c = det(~a, ~b, ~c) = b1 b2 b3 ,
(6.3)
c1 c2 c3
1
Este capı́tulo está basado en el tercer capı́tulo del libro: Mathematical Methods for Physicists, fourth
edition de George B. Arfken & Hans J. Weber, editorial Academic Press.
107
108 CAPÍTULO 6. DETERMINANTES Y MATRICES.
Este determinante D (ecuación (6.12)) está formado de una de las matrices de Dirac que
aparecen en la teorı́a relativista del electrón de Dirac.
Antisimetrı́a.
El determinante cambia de signo si cualquier par de filas son intercambiadas o si cualquier
par de columnas son intercambiadas. Esto deriva del carácter par-impar del Levi-Civita ε en
la ecuación (6.8) o explı́citamente de la forma de las ecuaciones (6.9) y (6.10).
Esta propiedad es frecuentemente usada en Mecánica Cuántica para la construcción de
una función de onda de muchas partı́culas que, en concordancia con el principio de exclusión
de Pauli, será antisimétrica bajo el intercambio de cualquier par de partı́culas idénticas con
spin 1/2 (electrones, protones, neutrones, etc).
Como un caso especial de antisimetrı́a, cualquier determinante con dos filas iguales o dos
columnas iguales es nulo.
Si cada elemento en una fila o de una columna es cero el determinante completo es nulo.
Si cada elemento en una fila o de una columna es multiplicado por una constante, el
determinante completo es multiplicado por esa constante.
El valor de un determinante es inalterado si un múltiplo de una fila es añadido (columna
por columna) a otra fila o si un múltiplo de una columna es añadido (fila por fila) a otra
columna. Tenemos
a1 a2 a3 a1 + ka2 a2 a3
b1 b2 b3 = b1 + kb2 b2 b3 . (6.15)
c1 c2 c3 c1 + kc2 c2 c3
6.1. DETERMINANTES. 111
entonces por la propiedad de antisimetrı́a el segundo determinante del lado derecho se anula,
verificando la ecuación (6.15).
Un caso especial, un determinante es igual a cero, si cualquier par de filas o columnas son
proporcionales.
Volviendo a las ecuaciones homogéneas (6.1) y multiplicando el determinante de los coe-
ficientes por x1 , y luego sumando x2 veces la segunda columna y x3 veces la tercera columna,
podemos establecer directamente la condición para la presencia de una solución no trivial
para la ecuación (6.1):
a1 a2 a3 x1 a1 a2 a3 a1 x1 + a2 x2 + a3 x3 a2 a3 0 a2 a3
x1 b1 b2 b3 = x1 b1 b2 b3 = b1 x1 + b2 x2 + b3 x3 b2 b3 = 0 b2 b3 = 0 . (6.17)
c1 c2 c3 x1 c1 c2 c3 c1 x1 + c2 x2 + c3 x3 c2 c3 0 c2 c3
Por lo tanto x1 (x2 y x3 ) deberı́an ser cero a menos que el determinante de los coeficientes
sea nulo. Podemos mostrar que si el determinante de los coeficientes es nulo, existe realmente
una solución no trivial.
Si nuestras ecuaciones lineales son inhomogéneas, esto es, como en la ecuación (6.5) o si
los ceros en el lado derecho de la ecuación (6.1) fueran reemplazados por a4 , b4 , c4 respecti-
vamente, luego de la ecuación (6.17) obtenemos,
a4 a2 a3
b4 b2 b3
c4 c2 c3
x1 = , (6.18)
a1 a2 a3
b1 b2 b3
c1 c2 c3
Resolvamos
3x + 2y + z = 11
2x + 3y + z = 13 (6.19)
x + y + 4z = 12 .
El determinante de la ecuación lineal no homogénea ecuación (6.19) es 18, por lo tanto existe
una solución.
Por conveniencia y para una óptima precisión numérica, las ecuaciones son reordenadas
tal que los coeficientes mayores corran a lo largo de la diagonal principal (superior izquierda
a inferior derecha). Esto ha sido hecho en el conjunto anterior.
La técnica de Gauss es usar la primera ecuación para eliminar la primera incógnita x de
las ecuaciones restantes. Entonces la (nueva) segunda ecuación es usada para eliminar y de la
última ecuación. En general, descendemos poco a poco a través del conjunto de ecuaciones,
y luego, con una incógnita determinada, avanzamos gradualmente para resolver cada una de
las otras incógnitas en sucesión.
Dividiendo cada fila por su coeficiente inicial, vemos que las ecuaciones (6.19) se convierten
en
2 1 11
x+ y+ z =
3 3 3
3 1 13 (6.20)
x+ y+ z =
2 2 2
x + y + 4z = 12 .
Ahora, usando la primera ecuación, eliminamos x de la segunda y la tercera:
2 1 11
x+ y+ z =
3 3 3
5 1 17
y+ z= (6.21)
6 6 6
1 11 25
y+ z= ,
3 3 3
y
2 1 11
x+ y+ z =
3 3 3
1 17 (6.22)
y+ z=
5 5
y + 11z = 25 .
Repitiendo la técnica, usamos la segunda ecuación para eliminar y a partir de la tercera
ecuación:
2 1 11
x+ y+ z =
3 3 3
1 17 (6.23)
y+ z=
5 5
54z = 108 ,
6.1. DETERMINANTES. 113
o
z=2.
Finalmente, al reemplazar obtenemos
1 17
y+ ×2= ,
5 5
o
y=3.
Luego con z e y determinados,
2 1 11
x+ ×3+ ×2= ,
3 3 3
y
x=1.
La técnica podrı́a parecer no tan elegante como la ecuación (6.17), pero está bien adaptada
a los computadores modernos y es más rápida que el tiempo gastado con los determinantes.
Esta técnica de Gauss puede ser usada para convertir un determinante en una forma
triángular:
a1 b1 c1
D = 0 b2 c2 ,
0 0 c3
para un determinante de tercer orden cuyos elementos no deben ser confundidos con aquellos
en la ecuación (6.3). De esta forma D = a1 b2 c3 . Para un determinante de n-ésimo orden la
evaluación de una forma triangular requiere solamente n − 1 multiplicaciones comparadas
con las n! requeridas para el caso general.
Una variación de esta eliminación progresiva es conocida como eliminación de Gauss-
Jordan. Comenzamos como si fuera el procedimiento de Gauss, pero cada nueva ecuación
considerada es usada para eliminar una variable de todas las “otras” ecuaciones, no sólo
de aquellas bajo ella. Si hemos usado esta eliminación de Gauss-Jordan, la ecuación (6.23)
llegarı́a a ser
1 7
x+ z =
5 5
1 17 (6.24)
y+ z=
5 5
z=2,
x=1
y=3 (6.25)
z=2,
114 CAPÍTULO 6. DETERMINANTES Y MATRICES.
6.2. Matrices.
El análisis matricial pertenece al álgebra lineal ya que las matrices son operadores o
mapas lineales tales como rotaciones. Supongamos, por ejemplo, que rotamos las coordenadas
cartesianas de una espacio bidimensional tal que, en notación vectorial,
0
x1 x1 cos ϕ x2 sen ϕ P
0 = = j aij xj . (6.26)
x2 −x2 sin ϕ x1 cos ϕ
x0 = Ax . (6.27)
Para extender esta definición de multiplicación de una matriz por un vector columna a el
producto de dos matrices de 2 × 2, consideremos la rotación de coordenada seguida por una
segunda rotación dada por la matriz B tal que
x00 = Bx 0 . (6.28)
Por componentes
!
X X X X X
x00i = bij x0j = bij ajk xk = bij ajk xk . (6.29)
j j k k j
por sus efectos sobre las coordenadas o vectores base. Los elementos de matriz aij constituyen
una ŕepresentación del operador, una representación que depende de la elección de una base.
El caso especial donde una matriz tiene una columna y n filas es llamada un vector
columna, |xi, con componentes xi , i = 1, 2, . . . ., n. Si A es una matriz de n × n, |xi es un
vector columna de n componentes, A|xi está definida como en la ecuación (6.27) y (6.26).
Similarmente, si una matriz tiene una fila y n columnas, es llamada un vector fila, hx| con
componentes xi , i = 1, 2, . . . .n. Claramente, hx| resulta de |x > por el intercambio de filas
y columnas, una operación matricial llamada transposición, y pora cualquier matriz A, Ã
es llamada 2 la transpuesta de A con elementos de matriz (Ã)ik = Aik . Transponiendo un
producto de matrices AB se invierte el orden y da BA; similarmente, A|xi se transpone como
hx|A. El producto escalar toma la forma hx|yi.
Definiciones básicas.
Una matriz puede ser definida como una arreglo cuadrado o rectangular de números
o funciones que obedecen ciertas leyes. Esto es una extensión perfectamente lógica de los
conceptos matemáticos familiares. En aritmética tratamos con números simples. En la teorı́a
de variable compleja tratamos con pares ordenados de números, (1, 2) = 1 + 2i, en el cual
el orden es importante. Ahora consideremos números (o funciones) ordenados en un arreglo
cuadrados o rectangular. Por conveniencia en el trabajo posterior los números son distinguidos
por dos subı́ndices, el primero indica la fila (horizontal) y el segundo indica la columna
(vertical) en la cual aparecen los números. Por ejemplo, a13 es el elemento de matriz en la
primera fila y tercera columna. De este modo, si A es una matriz con m filas y n columnas,
a11 a12 · · · a1n
a21 a22 · · · a2n
A = .. .. . (6.31)
.. ..
. . . .
am1 am2 · · · amn
Quizás el hecho más importante a notar es que los elementos aij no están combinados unos
con otros. Una matriz no es un determinante. Es un arreglo ordenado de números, no un
simple número.
La matriz A hasta ahora de sólo es un arreglo de números que tiene las propiedades
que le asignamos. Literalmente, esto significa construir una nueva forma de matemáticas.
Postulamos que las matrices A, B y C, con elementos aij , bij y cij , respectivamente, combinan
de acuerdo a las siguientes reglas.
Igualdad.
Matriz A= Matriz B si y sólo si aij = bij para todos los valores de i y j. Esto, por su
puesto, require que A y B sean cada uno arreglos de m × n (m filas y n columnas).
2
Algunos textos denotan A transpuesta por AT .
116 CAPÍTULO 6. DETERMINANTES Y MATRICES.
Suma.
A + B = C si y sólo si aij + bij = cij para todos los valores de i y j, los elementos se
combinan de acuerdo a las leyes del álgebra lineal (o aritmética si hay números simples). Esto
significa que A + B = B + A, la conmutación. También, se satisface la ley de asociatividad
(A + B) + C = A + (B + C). Si todos los elementos son cero, la matriz es llamada matriz nula
y se denota por 0. Para todo A,
A+0=0+A=A ,
con
0 0 ··· 0
0 0 ··· 0
0 = .. .. . (6.32)
.. . .
. . . .
0 0 ··· 0
Tal que las matrices de m × n forman un espacio lineal con respecto a la suma y la resta.
αA = (αA) , (6.33)
en la cual los elementos de αA son αaij ; esto es, cada elemento de la matriz A es multiplicado
por el factor escalar. Esto contrasta con el comportamiento de los determinantes en el cual el
factor α multiplica solamente una columna o una fila y no cada elemento del determinante.
Una consecuencia de esta multiplicación por escalar es que
αA = Aα , conmutación. (6.34)
X
AB = C si y solo si cij = aik bkj . (6.35)
k
Los elementos i y j de C están formados como un producto escalar de la i-ésima fila de A con
el j-ésima columna de B (el cual demanda que A tenga el mismo número de columnas como
B tiene de filas). El ı́ndice mudo k toma los valores 1, 2, . . . , n en sucesión, esto es,
para n = 3. Obviamente, el ı́ndice mudo k pude ser reemplazado por algún otro sı́mbolo
que no esté en uso sin alterar la ecuación (6.35). Quizás la situación puede ser aclarada
afirmando que la ecuación (6.35) defina el método de combinar ciertas matrices. Este método
de combinación, es llamado multiplicación matricial. Para ilustrar, consideremos dos matrices
(matrices de Pauli)
0 1 1 0
σ1 = y . (6.37)
1 0 0 −1
6.2. MATRICES. 117
El elemento 11 del producto, (σ1 σ3 )11 está dado por la suma de productos de elementos de la
primera fila de σ1 con el correspondiente elemento de la primera columna de σ3 : Aquı́
AB 6= BA . (6.40)
Notamos que es posible que el producto de dos matrices sea una matriz nula sin ser ninguna
de ellas una matriz nula. Por ejemplo, si
1 1 1 0
A= y B= .
0 0 −1 0
Producto directo.
con
α = n(i − 1) + k , β = n(j − 1) + l .
Matrices diagonales.
Un tipo especial muy importante de matrices es la matriz cuadrada en la cual todos los
elementos no diagonales son cero. Espacı́ficamente, si una matriz A de 3 × 3 es diagonal,
a11 0 0
A = 0 a22 0 .
0 0 a33
Una interpretación fı́sica de tales matrices diagonales y el método de reducir matrices a esta
forma diagonal son considerados en la sección 6.5. Aquı́ nos limitamos a notar la importante
propiedad de que la multiplicación de matrices es conmutativa, AB = BA, si A y B son cada
una diagonales.
6.2. MATRICES. 119
Traza.
En cualquiera matriz cuadrada la suma de los elementos diagonales es llamada la traza.
Claramente la traza es una operación lineal:
Una de sus interesantes y útiles propiedades es que la traza de un producto de dos matrices
A y B es independiente del orden de la multiplicación:
X XX
traza(AB) = (AB)ii = aij bji
i i j
XX X
= bji aij = (BA)jj (6.46)
i j j
= traza(BA) .
Esto se mantiene aún cuando AB 6= BA. La ecuación (6.46) significa que la traza de cualquier
conmutador, [A, B] = AB − BA, es cero. De la ecuación (6.46) obtenemos
Inversión de matriz.
Al comienzo de esta sección la matriz A fue presentada como la representación de un
operador que (linealmente) transforma los ejes de coordenadas. Una rotación podrı́a ser un
ejemplo de tal transformación lineal. Ahora buscaremos la transformación inversa A−1 que
restablecerá los ejes de coordenadas originales. Esto significa, ya sea como una ecuación
matricial o de operador4 ,
AA−1 = A−1 A = 1 . (6.47)
Podemos probar (ejercicio) que
Cji
a−1
ij = , (6.48)
|A|
4
Aquı́ y a través de todo el capı́tulo nuestras matrices tienen rango finito.
120 CAPÍTULO 6. DETERMINANTES Y MATRICES.
b. una fila reemplazada por la fila original menos un múltiplo de otra fila, o
c. filas intercambiadas.
Otras matrices MR operando sobre la derecha de (AMR ) puede llevar a las mismas ope-
raciones sobre las columnas de A.
Esto significa que las filas y las columnas de la matriz pueden ser alteradas (por multipli-
cación de matrices) como si estuviéramos tratando con determinantes, ası́ podemos aplicar
las técnicas de eliminación de Gauss-Jordan a los elementos de matriz. Por tanto existe una
matriz ML (o MR ) tal que5
ML A = 1 . (6.49)
La ML = A−1 . Determinamos ML realizando las operaciones de eliminación idénticas sobre
la matriz unidad. Luego
ML 1 = ML . (6.50)
Para clarificar ésto consideremos un ejemplo especı́fico.
Deseamos invertir la matriz
3 2 1
A = 2 3 1 . (6.51)
1 1 4
Por conveniencia escribimos A y 1 lado a lado realizando operaciones idénticas sobre cada
una de ellas
3 2 1 1 0 0
2 3 1 0 1 0 . (6.52)
1 1 4 0 0 1
Para ser sistemáticos, multiplicamos cada fila para obtener ak1 = 1,
2 1 1
1 3 3 3
0 0
3 1 1
1 2 2 0 2 0 . (6.53)
1 1 4 0 0 1
Entonces dividimos la segunda fila (de ambas matrices) por 5/6 y sustrayéndola 2/3 veces
de la primera fila, y 1/3 veces de la tercera fila. Los resultados para ambas matrices son
1
3
1 0 5 5
− 25 0
1 2 3
0 1 − 5 0 . (6.55)
5 5
18
0 0 5
− 15 − 15 1
Dividimos la tercera fila (de ambas matrices) por 18/5. Luego como último paso 1/5 veces
la tercera fila es sustraı́da de cada una de las dos primeras filas (de ambas martices). Nuestro
par final es
11 7 1
1 0 0 8
− 18
− 18
7 11 1
0 1 0 − 18 18 − 18 . (6.56)
1 1 5
0 0 1 − 18 − 18 18
El chequeo es multiplicar la original A por la calculada A−1 para ver si realmente obtuvimos
la matriz unidad 1.
Como con la solución de Gauss-Jordan de ecuaciones algebraicas simultáneas, esta técnica
está bien adaptada para computadores.
x3 x’2
x’3
x2
∧
x1 ∧
x1’
x1
x’1
decir que el sistema de ejes prima ha sido rotado respecto al inicial sistema de coordenadas
sin prima. Ya que esta rotación es una operación lineal, esperamos una ecuación matricial
que relaciones la base con primas con la sin primas.
122 CAPÍTULO 6. DETERMINANTES Y MATRICES.
Cosenos directores.
Un vector unitario a lo largo del eje x01 (x̂1 0 ) puede ser resuelto en sus componentes a lo
largo de los ejes x1 , x2 y x3 por las usuales técnicas de proyección.
x̂1 0 = x̂1 cos(x01 , x1 ) + x̂2 cos(x02 , x2 ) + x̂3 cos(x03 , x3 ) . (6.57)
Por conveniencia estos cosenos, los cuales son los cosenos directores, son etiquetados
cos(x01 , x1 ) = x̂1 0 · x̂1 = a11 ,
cos(x01 , x2 ) = x̂1 0 · x̂2 = a12 , (6.58)
cos(x01 , x3 ) = x̂1 0 · x̂3 = a13 .
Continuando, tenemos
cos(x02 , x1 ) = x̂2 0 · x̂1 = a21 , (a21 6= a12 ) ,
(6.59)
cos(x02 , x2 ) = x̂2 0 · x̂2 = a22 , y ası́ sucesivamente.
Ahora la ecuación (6.57) puede ser reescrita como
x̂1 0 = x̂1 a11 + x̂2 a12 + x̂3 a13
y también
x̂2 0 = x̂1 a21 + x̂2 a22 + x̂3 a23
(6.60)
x̂3 0 = x̂1 a31 + x̂2 a32 + x̂3 a33 .
También podemos ir de la otra manera resolviendo x̂1 , x̂2 y x̂3 en sus componentes en el
sistema con primas. Entonces
x̂1 = x̂1 0 a11 + x̂2 0 a21 + x̂3 0 a31
x̂2 = x̂1 0 a12 + x̂2 0 a22 + x̂3 0 a32 (6.61)
x̂3 = x̂1 0 a13 + x̂2 0 a23 + x̂3 0 a33 .
Aplicaciones a vectores.
Si consideramos un vector cuyas componentes son funciones de la posición, entonces
y similarmente para las coordenadas primas. En esta notación el conjunto de tres ecuaciones
(6.64) pueden ser escritas como
X 3
0
xi = aij xj , (6.65)
j=1
Esto sólo puede ser cierto para todos los puntos si y sólo si
X
aij aik = δjk , j, k = 1, 2, 3 . (6.67)
i
x2
x’2 x2 nϕ
s e
x2
x’1
ϕ ϕ
ϕ c os
x1
ϕ x1
x1
Figura 6.2: Sistemas de coordenadas rotados en dos dimensiones.
Notemos que A se reduce a la matriz unidad para ϕ = 0. La rotación cero significa que nada
ha cambiado. Es claro a partir de la figura 6.2 que
sen2 ϕ + cos2 ϕ = 1 ,
(6.72)
sen ϕ cos ϕ − sen ϕ cos ϕ = 0 .
la extensión a tres dimensiones ( rotación de las coordenadas a lo largo del eje z en un ángulo
ϕ en el sentido de los punteros del reloj) es simplemente
cos ϕ sen ϕ 0
A = − sen ϕ cos ϕ 0 . (6.73)
0 0 1
El a33 = 1 expresa el hecho que x03 = x3 , ya que la rotación ha sido en torno al eje x3 Los
ceros garantizan que x01 y x02 no dependen de x3 y que x03 no depende de x1 y x2 . En un
lenguaje más sofisticado, x1 y x2 se extienden sobre un subespacio invariante, mientras que
x3 forma un subespacio invariante por si solo. La forma de A es reducible. La ecuación (6.73)
da una posible descomposición.
6.3. MATRICES ORTOGONALES. 125
AÃ = 1 , (6.81)
o X
aji aki = δjk , (6.82)
i
Cualquiera de estas relaciones es condición necesaria y suficiente para que A sea ortogonal.
Es posible ahora ver y enteder por qué el nombre ortogonal es apropiado para estas
matrices. Tenemos la forma general
a11 a12 a13
A = a21 a22 a23 ,
a31 a32 a33
de una matriz de cosenos directores en la cual aij es el coseno del ángulo entre x0i y xj . Por lo
tanto, a11 , a12 , a13 son los cosenos directores de x01 relativo a x1 , x2 , x3 . Estos tres elementos
de A definen una unidad de longitud a lo largo de x01 , esto es, un vector unitario x̂01 ,
La relación de ortogonalidad (ecuación (6.82)) es simplemente una declaración que los vecto-
res unitarios x̂01 , x̂02 , y x̂03 son mutuamente perpendiculares o ortogonales. Nuestra matriz de
transformación ortogonal A transforma un sistema ortogonal en un segundo sistema ortogonal
de coordenadas por rotación y/o reflexión.
Ángulos de Euler.
Nuestra matriz de trasformación A contiene nueve cosenos directores. Claramente, sólo
tres de ellos son independientes, la ecuación (6.67) proveen seis restricciones. De otra manera,
uno puede decir que necesita dos parámetros (θ y ϕ en coordenadas polares esféricas) para
fijar el eje de rotación, más uno adicional para describir la magnitud de la rotación en torno a
ese eje. En la formulación Lagrangiana de la mecánica es necesario describir A usando algún
conjunto de tres parámetros independientes más que los redundantes cosenos directores. La
elección usual de estos parámetros es la de los ángulos de Euler6
El objetivo de describir la orientación de un sistema final rotado (x000 000 000
1 , x2 , x3 ) relativo a
algun sistema de coordenadas inicial (x1 , x2 , x3 ). El sistema final es desarrollado en tres pasos
cada paso involucra una rotación descrita por un ángulo de Euler (figura 6.3):
1. Los ejes x01 , x02 , y x03 son rotados respecto al eje x3 en un ángulo α en el sentido horario
relativo a x1 , x2 y x3 . (Los ejes x3 y x03 coinciden.)
6
No hay una única manera de definir los ángulos de Euler. Usamos la elección usual en Mecánica Cuántica
de momento angular.
6.3. MATRICES ORTOGONALES. 127
x 3= x’3
x 3= x’3 x’’
3 = x’’’
3 x 3= x’3
x’’ γ
3
β β
x1
x’1 α
α
x2 x’1
x’2 β x’’’
α 2
x’=
2 x’’ x’= x’’
x’’
1 x2
2 x’’
1
2 2
x’’’
1
(a) (b) (c)
Figura 6.3: (a) Rotación respecto al eje x3 en un ángulo α; (b) Rotación respecto a un eje x02
en un ángulo β; (c) Rotación respecto a un eje x003 en un ángulo γ.
2. los ejes x001 , x002 , y x003 son rotados respecto al eje x02 en un ángulo β en el sentido horario
relativo a x01 , x02 y x03 . (Los ejes x02 y x002 coinciden.)
3. la tercera y final rotación es en un ángulo γ en sentido horario respecto al eje x003 produ-
ciendo el sistema (x000 000 000 00 000
1 , x2 , x3 ). (Los ejes x3 y x3 coinciden.)
Comparando A(aij ) con A(α, β, γ) elemento por elemento, nos produce los cosenos directores
en términos de los ángulos de Euler.
Propiedades de simetrı́a.
Nuestra descripción matricial conduce al grupo de rotaciones SO(3) en el espacio tridi-
mensional R3 , y la descripción en términos de ángulos de Euler de las rotaciones forman una
base para desarrollar el grupo de rotaciones. Las rotaciones pueden también ser descritas por
el grupo unitario SU (2) en el espacio bidimensional C2 .
La matriz transpuesta es útil en la discusión de las propiedades de simetrı́a. Si
es llamada antisimétrica. Los elementos de la diagonal son nulos. Es fácil mostrar que cual-
quier matriz cuadrada puede ser escrita como la suma de una matriz simétrica y una anti-
simétrica. Consideremos la identidad
1h i 1h i
A= A + Ã + A − Ã . (6.91)
2 2
A + Ã es claramente simétrica, mientras que A − Ã es claramente antisimétrica.
Hasta ahora hemos interpretado las matrices ortogonales como rotaciones del sistema de
coordenadas. Estas cambian las componentes de un vector fijo. Sin embargo, una matriz orto-
gonal A puede ser interpretada igualmente bien como una rotación del vector en la dirección
opuesta (figura 6.4).
r
y r 1= A r
y’
x’
α
β x
Figura 6.4: Vector fijo con coordenadas rotadas.
Estas dos posibilidades, (1) rotar el vector manteniendo la base fija y (2) rotar la base
(en el sentido opuesto) manteniendo el vector fijo.
6.4. MATRICES HERMÍTICAS, MATRICES UNITARIAS. 129
Supongamos que interpretamos la matriz A como rotar un vector ~r en una nueva posición
~r1 , i.e., en un particular sistema de coordenadas tenemos la relación
Ahora rotemos las coordenadas aplicando una matriz B, la cual rota (x, y, z) en (x0 , y 0 , z 0 ),
B~r1 es justo ~r1 0 en el nuevo sistema de coordenadas con una interpretación similar se mantine
para B~r. Ya que en este nuevo sistema (B~r) es rotado a la posición (B~r1 ) por la matriz BAB−1 .
En el nuevo sistema las coordenadas han sido rotadas por la matriz B, A tiene la forma A0 ,
en la cual
A0 = BAB−1 . (6.94)
A0 opera en el espacio x0 , y 0 , z 0 como A opera en el espacio x, y, z.
La transformación definida por la ecuación (6.94) con B cualquier matriz, no necesaria-
mente ortogonal, es conocida como trasformación de similaridad. Por componentes la ecuación
(6.94) llega a ser X
a0ij = bik akl (B−1 )lj . (6.95)
k,l
Ahora si B es ortogonal,
(B−1 )lj = (B̃)lj = bjl , (6.96)
y tenemos X
a0ij = bik bjl akl . (6.97)
k,l
embargo, en Mecánica Cuántica las variables complejas son inevitables por la forma de las
reglas de conmutación básicas (o la ecuación tiempo dependiente de Schödinger). Con esto
en mente, generalizamos al caso de matrices con elementos complejos. Para manejar estos
elementos, definamos algunas propiedades.
1. Compleja conjugada, A∗ , √
formada por tomar los complejos conjugados (i → −i) de
cada elemento, donde i = −1.
A† = A
f∗ = Ã∗ . (6.98)
A = A† . (6.99)
Si A es real, entonces A† = Ã, y las matrices hermı́ticas reales son matrices reales y
simétricas. En Mecánica Cuántica las matrices son hermı́ticas o unitarias.
U† = U−1 . (6.100)
Si U es real, entonces U−1 = Ũ, tal que las matrices reales unitarias son matrices
ortogonales. Este representa una generalización del concepto de matriz ortogonal.
5. (AB)∗ = B∗ A∗ , (AB)† = B† A† .
Si los elementos son complejos, a la Fı́sica casi siempre le interesan las matrices adjuntas,
hermı́ticas y unitarias. Las matrices unitarias son especialmente importantes en Mecánica
Cuántica porque ellos dejan el largo de un vector (complejo) inalterado, análoga a la operación
de una matriz ortogonal sobre un vector real. Una importante excepción a este interés en las
matrices unitarias es el grupo de matrices de Lorentz.
En un espacio n-dimensional complejo el cuadrado del largo de P un punto x̃ P
= (x1 , x2 , . . . , xn ),
o el cuadrado de su distancia al origen, es definido como x x = i xi xi = i | xi |2 . Si una
† ∗
A0 = UAU† ,
~ · ~σ ,
M = m0 1 + m1 σ1 + m2 σ2 + m3 σ3 = m0 1 + m (6.106)
donde los mi son constantes. Usando σi2 = 1 y tr(σi ) = 0 nosotros obtenemos a partir de la
ecuación (6.106) los coeficientes mi de la expansión formando las trazas,
En 1927 P.A.M. Dirac extendió este formalismo para partı́culas de spin 21 moviéndose a
velocidades cercana a la de la luz tales como electrones Para incluı́r la relatividad especial
su punto de partida es la ecuación de Einstein para la energı́a E 2 = p~ 2 c2 + m2 c4 en vez de
la energı́a cinética y potencial no relativista E = p~ 2 /2m + V . La clave para la ecuación de
Dirac es factorizar
(γ0 E − γc~σ · p~)2 = γ02 E 2 + γ 2 c2 (~σ · p~)2 − Ec~σ · p~(γ0 γ + γγ0 ) = E 2 − p~ 2 c2 = m2 c4 . (6.110)
Si reconocemos
γ0 E − γc~σ · p~ = γ · p = (γ0 , γ~σ ) · (E, c~p) , (6.111)
132 CAPÍTULO 6. DETERMINANTES Y MATRICES.
debe satisfacerse que las cuatro matrices γ µ anticonmuten, justo como las tres matrices de
Pauli. Ya que estas últimas son un conjunto completo de matrices anticonmutantes de 2 × 2,
la condición (6.112) no puede ser satisfacerse para matrices de 2 × 2, pero ella puede ser
satisfecha para matrices de 4 × 4
1 0 0 0
0
0 1 0 0 12 0
γ0 = γ = = ,
0 0 −1 0 0 −12
0 0 0 −1
(6.113)
0 0 0 1
0 0 1 0 0 12
γ= 0 −1 0 0 = −12 0 .
−1 0 0 0
puede obtenerse como el producto directo en el mismo sentido de la sección 6.2 de las matrices
de 2 × 2 de Pauli. De la misma manera, γ0 = σ3 × 12 y 14 = 12 × 12 .
Resumiendo el tratamiento relativista de una partı́cula de spin 21 , produce matrices de
4 × 4, mientras que las partı́culas no relativistas de spin 12 son descritas por las matrices de
Pauli σ de 2 × 2.
donde ω
~ viene a ser la velocidad angular. La matriz de inercia I tiene elementos diagonales
X
Ixx = mi (ri2 − x2i ) , y ası́ sucesivamante, (6.116)
i
6.5. DIAGONALIZACIÓN DE MATRICES. 133
n3
n’3
n’1 n2
n1
n’2
y tomando R̃ = (~v1 , ~v2 , ~v3 ) compuesto de tres vectores columnas, entonces la ecuación (6.124)
se separa en tres ecuaciones de autovalores
con autovalores Ii0 y autovectores ~vi . Como estas ecuaciones son lineales y homogéneas (para
un i fijo), por la sección 6.1 los determinantes tienen que anularse:
I11 − I10 I12 I13
0
I21
I22 − I2 I23 = 0 . (6.126)
0
I31 I32 I33 − I3
Reemplazando los autovalores Ii0 por una variable λ veces la matriz unidad 1, podriamos
reescribir la ecuación (6.125) como
(I − λ1)|vi = 0 , (6.127)
cuyo determinante
|I − λ1| = 0 , (6.128)
es un polinomio cúbico en λ; sus tres raices, por supuesto, son los Ii0 . Sustituyendo una raı́z
de regreso en la ecuación (6.125), podemos encontrar los correspondientes autovectores. La
ecuación (6.126) (o la (6.128)) es conocida como la ecuación secular. El mismo tratamiento
se aplica a una matriz simétrica real I, excepto que sus autovalores no necesitan ser todos po-
sitivos. También, la condición de ortogonalidad en la ecuación (6.83a-6.83d) para R dice que,
en términos geométricos, los autovectores ~vi son vectores mutuamente ortogonales unitarios.
Por cierto ellos forman las nuevas coordenadas del sistema. El hecho que cualquier par de
6.5. DIAGONALIZACIÓN DE MATRICES. 135
autovectores ~vi , ~vj son ortogonales si Ii0 6= Ij0 se deduce de la ecuación (6.125) en conjunción
con la simetrı́a de I multiplicando con ~vi y ~vj , respectivamente,
hvj |I|vi i = Ii0 hvj |vi i = hvi |I|vj i = Ij0 hvj |vi i . (6.129)
Ya que Ii0 6= Ij0 y la ecuación (6.129) implica que (Ii0 − Ij0 ) ~vi · ~vj = 0, por lo tanto ~vi · ~vj = 0.
Matrices hermı́ticas.
Para espacios vectoriales complejos las matrices unitarias y hermı́ticas juegan el mismo
rol como las matrices ortogonales y simétricas sobre los espacios vectoriales reales, respecti-
vamente. Primero, generalicemos el importante teorema acerca de los elementos diagonales
y los ejes principales para la ecuación de autovalores
Ahora mostramos que si A es una matriz hermı́tica, sus autovalores son reales y sus
autovectores ortogonales.
Sean λi y λj dos autovalores y |ri i y |rj i, los correspondientes autovectores de A, una
matriz hermı́tica. Entonces
o
hrj |A|ri i = λ∗j hrj |ri i , (6.136)
ya que A es hermı́tica. Sustrayendo la ecuación (6.136) de la ecuación (6.133), obtenemos
Este es un resultado general para todas las combinaciones posibles de i y j. Primero, sea
j = i. Luego la ecuación (6.137) se convierte en
Ya que hri |ri i = 0 serı́a una solución trivial de la ecuación (6.138), concluimos que
λi = λ∗i , (6.139)
136 CAPÍTULO 6. DETERMINANTES Y MATRICES.
o
hri |rj i = 0 (6.141)
lo cual significa que los autovectores de distintos autovalores son ortogonales, la ecuación
(6.141) siendo la generalización de ortogonalidad en este espacio complejo.
Si λi = λj (caso degenerado), hri | no es automáticamente ortogonal a |rj i, pero podrı́a
hacerse ortogonal. Consideremos el problema fı́sico de la matriz del momento de inercia
nuevamente. Si xi es un eje de simetrı́a rotacional, entonces encontraremos que λ2 = λ3 . Los
autovectores |r2 i y |r3 i son cada uno perpendiculares al eje de simetrı́a, |r1 i, pero ellos yacen
en alguna parte en el plano perpendicular a |r1 i; esto es, alguna combinación lineal de |r2 i y
|r3 i es también un autovector. Considere (a2 |r2 i + a3 |r3 i) con a2 y a3 constantes. Entonces
como es esperado, para x1 un eje de simetrı́a rotacional. Por lo tanto, si |r1 i y |r2 i son
fijos, |r3 i, puede simplemente escogerse yaciendo en el plano perpendicular a |r1 i y también
perpendicular a |r2 i. Un método general para ortogonalizar soluciones conocido como proceso
de Gram-Schmidt, es aplicado a funciones más adelante.
El conjunto de n autovectores ortogonales de nuestra matriz hermı́tica de n × n forma un
conjunto completo, generando el espacio de n dimensiones complejo. Este hecho es útil en un
cálculo variacional de los autovalores. Los autovalores y los autovectores no están limitados
a las matrices hermı́ticas. Todas las matrices tienen autovalores y autovectores. Por ejemplo,
la matriz T de población estocástica satisface una ecuación de autovalores
TP~equilibrio = λP~equilibrio ,
con λ = 1. Sin embargo, solamente las matrices hermı́ticas tienen todos los autovectores
ortogonales y todos sus autovalores reales.
Matrices antihermı́ticas.
Ocasionalmente, en Mecánica Cuántica encontramos matrices antihermı́ticas:
A† = −A .
o
1 1
hr3 | = r~3 = √ , √ , 0 . (6.151)
2 2
La ortogonalidad de ~r1 , ~r2 y ~r3 , correspondientes a los tres autovalores distintos, puede ser
fácilmente verificada.
Consideremos
1 0 0
A = 0 0 1 . (6.152)
0 1 0
La ecuación secular es
1 − λ 0 0
0
−λ 1 = 0 , (6.153)
0 1 −λ
o
(1 − λ)(λ2 − 1) = 0 , λ = −1, 1, 1 , (6.154)
un caso degenerado. Si λ = −1, la ecuación de autovalores (6.130) produce
2x = 0 , y+z =0 . (6.155)
Un autovector normalizado adecuado es
1 1
hr1 | = r~1 = 0, √ , − √ . (6.156)
2 2
para λ = 1, tenemos
−y+z =0 . (6.157)
Cualquier autovector que satisface la ecuación (6.157) es perpendicular a ~r1 . Tenemos infinito
número de opciones. Tomemos una elección posible tomando
1 1
hr2 | = r~2 = 0, √ , √ , (6.158)
2 2
la cual claramente satisface la ecuación (6.157). Entonces ~r3 debe ser perpendicular a ~r1 y
puede ser escogido perpendicular a ~r2 por7
~r3 = ~r1 × ~r2 = (1, 0, 0) . (6.159)
Funciones de matrices.
Polinomios con uno o más argumentos matriciales están bien definidos y ocurren a menu-
do. Series de potencias de una matriz también pueden estar definidas para dar la convergencia
de la serie para cada uno de los elementos de matriz. Por ejemplo, si A es cualquiera matriz
de n × n entonces la serie de potencia
∞
X Ai
exp(A) = , (6.160a)
i=0
i!
∞
X A2i+1
sen(A) = (−1)i , (6.160b)
i=0
(2i + 1)!
∞
X A2i
cos(A) = (−1)i , (6.160c)
i=0
(2i)!
7
El uso del producto cruz es limitado a tres dimensiones.
6.6. MATRICES NORMALES. 139
son matrices de n × n bien definidas. Para todas las matrices de Pauli σk la identidad de
Euler para θ real y k =1, 2 o 3
sale a partir de colectar las potencias pares e impares en series separadas usando σk2 = 1.
Para las matrices de Dirac σ ij de 4 × 4 con (σ ij )2 = 1, si j 6= k = 1, 2 o 3, obtenemos de
manera similar (sin escribir las obvias matrices 14 nunca más)
mientras
exp(iσ 0k ζ) = cosh(ζ) + iσ 0k senh(ζ) , (6.163)
manteniendo ζ real porque (iσ 0k )2 = 1 para k = 1, 2 o 3.
Para una matriz hermı́tica A hay una matriz unitaria U que la diagonaliza, es decir,
UAU† = [a1 , a2 , . . . , an ]. Entonces la fórmula de la traza
[G, H] = GH − HG
[A, A† ] = 0 .
Ejemplos obvios e importante son las matrices hermı́ticas y unitarias. Mostraremos que
las matrices normales tienen autovectores (ver tabla 6.1)
I. Sea |xi un autovector de A con correspondiente autovalor λ. Entonces
Autovectores
Matriz Autovalores (para diferentes autovalores)
Hermı́tica Real Ortogonal
Antihermı́tica Imaginaria puro (o cero) Ortogonal
Unitaria Magnitud uno Ortogonal
Normal Si A tiene autovalor λ Ortogonal
† ∗ †
A tiene autovalor λ A y A tienen los mismos autovectores
Cuadro 6.1:
o
(A − λ1)|xi = 0 . (6.167)
Por conveniencia la combinación A − λ1 la etiquetamos B. Tomando la adjunta de la ecuación
(6.167), obtenemos
hx|(A − λ1)† = 0 = hx|B† . (6.168)
Porque
[(A − λ1), (A − λ1)† ] = [A, A† ] = 0 ,
tenemos
[B, B† ] = 0 . (6.169)
La matriz B es también normal.
A partir de las ecuaciones (6.167) y (6.168) formamos
Usando (6.169)
hx|BB† |xi = 0 . (6.171)
Ahora la ecuación (6.171) puede ser rescrita como
Asi
B† |xi = (A† − λ∗ 1)|xi = 0 . (6.173)
Vemos que para matrices normales, A† tiene los mismos autovectores que A pero los autova-
lores son los complejos conjugados.
II. Ahora, consideremos más que uno autovector-autovalor, tenemos
A partir de la ecuación (6.173) sabemos que A† tiene los mismos autovectores que A pero con
los complejos conjugados de los autovalores
o
(λi − λj )hxi |xj i = 0 . (6.180)
Esta es la misma que la ecuación (6.140).
Para λi 6= λj
hxi |xj i = 0 .
Los autovectores correspondientes a diferentes autovalores de una matriz normal son ortogo-
nales. Esto significa que una matriz normal puede ser diagonalizada por una transformación
unitaria. La matriz unitaria requerida puede ser construida a partir de los vectores ortonor-
males como se mostró en la sección anterior.
El converso también es válido. Si A puede ser diagonalizada por una transformación
unitaria, entonces A es normal.
k
ẍ1 = − (x1 − x2 )
M
k k
ẍ2 = − (x2 − x1 ) − (x2 − x3 ) (6.181)
M m
k
ẍ3 = − (x3 − x2 ) .
M
142 CAPÍTULO 6. DETERMINANTES Y MATRICES.
k k
M m M
x1 x2 x3
El sistema de masa está vibrando. Buscamos las frecuencias comunes, ω tal que todas las
masas vibren en esta misma frecuencia. Estos son los modos normales. Sea
xi = xi0 eiωt , i = 1, 2, 3.
dividiendo por el factor común eiωt . Tenemos una ecuación matricial de autovalores con la
matriz asimétrica. La ecuación secular es
k k
− ω2 − 0
M M
k 2k k
− 2 =0. (6.183)
−ω −
m m m
k k
2
− −ω
0
M M
Esto conduce a
2 k 2k k
ω − ω2 2
ω − − =0
M m M
Los autovalores son
k k 2k
ω2 = 0 , , y + ,
M M m
todas reales.
6.6. MATRICES NORMALES. 143
x1 − x2 = 0
−x1 + 2x2 − x3 = 0
−x2 + x3 = 0 .
Entonces, tenemos
x1 = x2 = x3 .
Esto describe una translación pura sin movimiento relativo de las masas y sin vibración.
k
Para ω 2 = , la ecuación (6.182) produce
M
x1 = −x3 , x2 = 0 . (6.184)
Las masas exteriores se mueven en direcciones opuestas. El masa del centro está estacionaria.
k 2k
Para ω 2 = + , las componentes de los autovectores son
M M
2M
x1 = x3 , x2 = − x1 .
m
Las dos masas exteriores se están moviendo juntas. La masa del centro se está moviendo
opuesta a las otras dos. El momentum neto es cero.
Cualquier desplazamiento de estas tres masas a lo largo del eje x puede ser descrito como
una combinación lineal de estos tres tipos de movimiento: translación más dos formas de
vibración.
con A y |yi conocido y |xi desconocido. Podemos encontrar ejemplos en los cuales un pequeño
error en |yi resulta en un gran error en |xi. En este caso la matriz A es llamada de condición
patológica. Si |δxi es el error en |xi y |δyi es el error en |yi, entonces los errores relativos
pueden ser escritos como
1/2 1/2
hδx|δxi hδy|δyi
≤ K(A) . (6.186)
hx|xi hy|yi
| λ |max
K(A) = . (6.187)
| λ |min
144 CAPÍTULO 6. DETERMINANTES Y MATRICES.
1 1 1
1
2 3 4
1 1 1 1
H4 = 2 3 4 5 . (6.189)
1 1 1 1
3 4 5 6
1 1 1 1
4 5 6 7
Los elementos de la matriz inversa (orden n) son dados por
Para n = 4
16 −120 240 −140
−120 1200 −2700 1680
H−1
4 =
240 −2700
. (6.191)
6480 −4200
−140 1680 −4200 2800
A partir de la ecuación (6.188) la estimación de Turing de la condición de número para H4
llega a ser
KTuring = 4 × 1 × 6480
2.59 × 104 .
Esto es una advertencia de que un error en la entrada puede ser multiplicado por 26000
en el cálculo del resultado de salida. Esto sentencia que H4 tiene condición patológica. Si
usted encuentra un sistema altamente patológico tiene un par de alternativas (además de
abandonar el problema).
b. Hacer arreglos para llevar más cifras significativas y a costa de fuerza bruta empujar de
principio a fin.
Capı́tulo 7
Teorı́a de grupo.
versión final 1.2-0905021
7.1. Introducción.
En mecánica clásica la simetrı́a de un sistema fı́sico conduce a una ley de conservación. La
conservación del momentum angular es una consecuencia directa de la simetrı́a rotacional, lo
cual significa invariancia bajo rotaciones espaciales. A principios del siglo pasado, Wigner y
otros comprendieron que la invariancia era el concepto clave en el entendimiento de los nuevos
fenómenos y en el desarrollo de teorı́as apropiadas. Ası́, en mecánica cuántica los conceptos de
momento angular y spin han llegado a ser aún más centrales. Sus generalizaciones, el isospin
en fı́sica nuclear y la simetrı́a de sabor en fı́sica de partı́culas, son herramientas indispensables
en la construcción teórica y en sus soluciones. Las generalizaciones del concepto de invariacia
de gauge de la electrodinámica clásica para la simetrı́a del isospin conduce a la teorı́a de
gauge electrodébil.
En cada caso el conjunto de estas operaciones de simetrı́a forman un grupo. La teorı́a
de grupo es la herramienta matemática para tratar las invariancias y las simetrı́as. Ella trae
consigo unificación y formalización de principios tales como reflexión espacial, o paridad,
momento angular, y geometrı́a que son ampliamente usados por los fı́sicos.
En geometrı́a el rol fundamental de la teorı́a de grupo fue reconocido hace mucho tiempo
por los matemáticos. En geometrı́a euclideana la distancia entre dos puntos, el producto
escalar de dos vectores o métrica, no cambia bajo rotaciones o translaciones. Estas simetrı́as
son caracterı́sticas de esta geometrı́a. En relatividad especial la métrica, o producto escalar
de cuadrivectores, difiere del de la geometrı́a euclideana en que ya no es más positivo definido
y es invariante ante transformaciones de Lorentz.
1
Este capı́tulo está basado en el cuarto capı́tulo del libro: Mathematical Methods for Physicists, fourth
edition de George B. Arfken & Hans J. Weber, editorial Academic Press.
145
146 CAPÍTULO 7. TEORÍA DE GRUPO.
Para un cristal el grupo de simetrı́a contiene sólo un número finito de rotaciones en valores
discretos del ángulo y reflexiones. La teorı́a de tales grupos discretos o finitos, desarrollada
inicialmente como una rama de las matemáticas pura, ahora es una útil herramienta para
el desarrollo de la cristalografı́a y la fı́sica de la materia condensada. Haremos una breve
introducción a ellos. Cuando las rotaciones dependen de un ángulo continuo el grupo de
rotaciones tiene un número infinito de elementos. Estudiaremos tales grupos continuos o de
Lie.
Definición de grupo.
Un grupo G puede ser definido como un conjunto de objetos u operaciones, llamados los
elementos de G, que pueden ser combinados o “multiplicados” para formar un producto bien
definido en G el cual satisface las siguientes cuatro condiciones.
4. Debe haber un inverso o reciproco de cada elemento a de G, etiquetado a−1 , tal que
aa−1 = a−1 a = I.
] −1 −1 −1
O 1 O2 = Õ2 Õ1 = O1 O2 = (O1 O2 )
tal que el producto es unitario y un elemento de SU(n). Cada matriz unitaria tiene una
inversa la cual es también unitaria.
Homomorfismo, isomorfismo.
Puede haber una correspondencia entre los elementos de dos grupos (o entre dos repre-
sentaciones), uno a uno, dos a uno, o muchos a uno. Si esta correspondencia preserva la
multiplicación del grupo, diremos que los dos grupos son homomórficos. Una de las más im-
portantes correspondencias homomórficas entre el grupo de rotaciones SO(3) y el grupo de
matrices unitarias SU(2) será desarrollado en la próxima sección. Si la correspondencia es
uno a uno, y aún preserva la multiplicación del grupo,3 entonces los grupos son isomórficos.
Un ejemplo es las rotaciones de coordenadas a través de un ángulo finito ϕ en el sentido
horario respecto al eje z en el espacio tridimensional descrito por
cos ϕ sen ϕ 0
Rz (ϕ) = − sen ϕ cos ϕ 0 . (7.3)
0 0 1
Para ilustrar como las representaciones matriciales surgen a partir de una simetrı́a, con-
sideremos la ecuación estacionaria de Schrödinger (o algún otra ecuación de autovalores tal
como I vi = Ii vi para los momentos principales de inercia de un cuerpo rı́gido en mecánica
clásica)
Hψ = Eψ . (7.4)
HR = RHR−1 = H . (7.5)
En otras palabras, todas las soluciones rotadas Rψ son degeneradas en energı́a o forman lo
que los fı́sicos llaman un multiplete. Supongamos que este espacio vectorial Vψ de soluciones
transformadas tiene una dimensión finita n. Sean ψ1 , ψ2 , . . . , ψn una base. Ya que Rψj es un
miembro del multiplete, podemos expandirlo en términos de esta base
X
Rψj = rjk ψk . (7.7)
k
Ası́, cada R en G puede ser asociado a una matriz (rjk ), y este mapeo R → (rjk ) es llamada
una representación de G. Si podemos tomar cualquier elemento de Vψ y por rotaciones con
todos los elementos de R de G transforman en todos los otros elementos de Vψ entonces la
representación es irreducible. Si todos los elementos de Vψ no son alcanzados, entonces Vψ se
separa en una suma directa de dos o más subespación vectoriales, Vψ = V1 + V2 + . . ., los
cuales son mapeados dentro de ellos mismos por rotación de sus elementos. En este caso la
representación es llamada reducible. Entonces podemos encontrar una base en Vψ (i.e., hay
una matriz unitaria U) tal que
r1 0 . . .
U(rjk )U† = 0 r2 . . . (7.8)
.. .. . .
. . .
para todos los R de G y todas las matrices (rjk ). Aqui r1 , r2 , . . ., son matrices de menor
dimensiones que (rjk ) que están alineadas a lo largo de la diagonal y los 0 son matrices de
ceros. podemos decir que R ha sido descompuestas en r1 + r2 + . . . en paralelo con Vψ =
V1 ⊕ V2 ⊕ . . ..
Las representaciones irreducibles juegan un rol en teorı́a de grupo que es aproximadamente
análogo a los vectores unitarios en el análisis vectorial. Ellas son las representaciones más
simples, toda otra puede ser construida desde ellas.
7.2. GENERADORES DE GRUPOS CONTINUOS. 149
tr(S) = 0 . (7.11)
Este es el caso para el grupo de rotaciones SO(n) y el grupo unitario SU(n), como veremos
más adelante.
Si R de G en la ecuación (7.1) es unitario, entonces S† = S es hermı́tica, lo cual también
es el caso para SO(n) y SU(n). Ya que hay un i extra en la ecuación (7.10).
Expandamos los elementos del grupo
1
Ri = exp(iεi Si ) = 1 + iεi Si − ε2i S2i + . . . ,
2 (7.12)
1 2 2
R−1
i = exp(−iεi Si ) = 1 − iεi Si − εi Si + . . . ,
2
a segundo orden en el pequeño parámetro del grupo εi porque los términos lineales y varios
términos cuadráticos se cancelan en el producto (figura 7.1)
150 CAPÍTULO 7. TEORÍA DE GRUPO.
−1
Rj
Ri
−1
Ri
Rj
R ij
R−1 −1
i Rj Ri Rj = 1 + εi εj [Sj , Si ] + . . . ,
X (7.13)
= 1 + εi εj ckji Sk + . . . ,
k
cuando las ecuaciones (7.12) son sustituidas dentro de la ecuación (7.13). La última lı́nea
es debido a que el producto en la ecuación (7.13) es nuevamente un elemento, Rij cercano
a la unidad en el grupo G. Por tanto su exponente debe ser una combinación lineal de los
generadores Sk y sus parámetros infinitesimales del grupo tienen que ser proporcionales al
producto εi εj . Comparando ambas lı́neas (7.13) encontramos la relación de clausura de los
generadores del grupo de Lie G,
X
[Si , Sj ] = ckij Sk (7.14)
k
Los coeficientes ckij son las constantes de estructura del grupo G. Ya que el conmutador en la
ecuación (7.14) es antisimétrico en i y en j, también lo son las constantes de estructura en
los ı́ndices inferiores,
ckij = −ckji . (7.15)
Si el conmutador en la ecuación (7.14) es tomado como la regla de multiplicación de los
generadores, vemos que el espacio vectorial de los generadores llega a ser un álgebra, el álgebra
de Lie G del grupo G. Para SU(l + 1) el álgebra de Lie es llamada Al , para SO(2l + 1) es Bl
y para SO(2l) es Dl , donde l = 1, 2, . . . es un entero positivo, esto será llamado el rango de
grupo de Lie G o de su álgebra G.
Finalmente, la identidad de Jacobi se satisface para los doblas conmutadores
donde el factor común Sn (y la suma sobre n) pueden eliminarse por que los generadores son
linealmente independientes. Por tanto
X
cm n m n m n
ij cmk + cjk cmi + cki cmj = 0 . (7.19)
m
Las relaciones (7.14), (7.15) y (7.19) forman la base de las álgebras de Lie desde la cual los
elementos finitos del grupo de Lie cerca de su unidad puede ser reconstruı́do.
Volviendo a la ecuación (7.5), el inverso de R es exactamente R−1 = exp(−iεS). expandi-
mos HR de acuerdo a la fórmula de Baker-Haudorff, ecuación (6.17),
[S, [iS, H]]
H = HR = exp(iεS)H exp(−iεS) = H + iε[S, H] − ε2 + ··· . (7.20)
2!
Al simplificar H de la ecuación (7.20), dividiendo por ε y haciendo ε → 0. Entonces la
ecuación (7.20) implica que para cualquier rotación cercana a 1 en G el conmutador
[S, H] = 0 . (7.21)
Si S y H son matrices hermı́ticas, la ecuación (7.21) dice que S y H pueden ser simultaneamen-
te diagonalizados. Si S y H son operadores diferenciales como el Hamiltoniano y el momento
angular orbital en mecánica cuántica, entoces la ecuación (7.21) dice que S y H tienen auto-
funciones en común y que los autovalores degenerados de H pueden ser distinguidos por los
autovalores de los generadores S. Esta es con mucho la más importante aplicación de teorı́a
de grupos a mecánica cuántica.
A continuación, estudiaremos los grupos ortogonales y unitarios como ejemplos.
Para las rotaciones Rz (ϕ) sobre el eje z descritas por la ecuación (7.3), el generador es
dado por
0 −i 0
dR(ϕ)
−i = Sz = i 0 0 , (7.23)
dϕ ϕ=0
0 0 0
donde el factor extra i es insertado para hacer Sz hermı́tica. La rotación Rz (δϕ) en un ángulo
infinitesimal δϕ puede ser escrita como
Rz (δϕ) = 13 + iδϕSz , (7.24)
152 CAPÍTULO 7. TEORÍA DE GRUPO.
Esta forma identifica Sz como el generador del grupo Rz , un subgrupo abeliano de SO(3), el
grupo de rotaciones en tres dimensiones con determinante +1. Cada matriz de 3 × 3 Rz (ϕ)
es ortogonal, por lo tanto unitaria, y la tr(Sz ) = 0 de acuerdo con la ecuación (7.11).
Por diferenciación de las rotaciones de coordenadas
1 0 0 cos θ 0 − sen θ
Rx (ψ) = 0 cos ψ sen ψ , Ry (θ) = 0 1 0 , (7.27)
0 − sen ψ cos ψ) sen θ 0 cos θ
El lado derecho puede ser expandido como una serie de Taylor de primer orden en δϕ para
dar
∂ψ ∂ψ
Rz (δϕ)ψ(x, y, z) = ψ(x, y, z) − δϕ x −y + O(δϕ)2
∂y ∂x (7.32)
= (1 − iδϕLz )ψ(x, y, z) ,
Rz (ϕ + δϕ) − Rz (ϕ)
= −iLz Rz (ϕ) . (7.34)
δϕ
El lado izquierdo es justo dRz (ϕ)/δϕ (para δϕ → 0). En esta forma la ecuación (7.34) se
integra inmediatamente a
Rz (ϕ) = exp(−iϕLz ) . (7.35)
Note cuidadosamente que Rz (ϕ) rota funciones (en el sentido horario) relativa a las coorde-
nadas fijadas y que Lz es la componente z del momento angular orbital L.~ La constante de
integración está fijada por la condición de borde Rz (0) = 1.
Si reconocemos que los elementos de matriz
∂
∂x
∂
Lz = (x, y, z)Sz
∂y ,
(7.36)
∂
∂z
claramente Lx , Ly , Lz satisface la misma relación de conmutación
Homomorfismo SU(2)-SO(3).
El grupo unitario especial SU(2) de matrices unitarias de 2 × 2 con determinante +1 tiene
las tres matrices de Pauli σi como generadores (mientras que las rotaciones de la ecuación
(7.3) forman un subgrupo abeliano unidimensional). Por lo tanto SU(2) es de orden 3 y
depende de tres parámetros continuos reales ξ, η y ζ los cuales a menudo son llamados los
parámetros de Caley-Klein. Sus elementos generales tienen la forma
eiξ cos η eiζ sen η a b
U2 (ξ, η, ζ) = = . (7.38)
−e−iζ sen η e−iξ cos η −b∗ a∗
154 CAPÍTULO 7. TEORÍA DE GRUPO.
Por supuesto, las matrices de Pauli son todas de traza nula y hermı́ticas.
Con las matrices de Pauli como generadores de los elementos (U1 , U2 , U3 ) de SU(2) pueden
ser generados por
U1 = exp(ia1 σ1 /2) , U2 = exp(ia2 σ2 /2) , U3 = exp(ia3 σ3 /2) . (7.40)
Los tres parámetros ai son reales. El factor extra 1/2 está presente en los exponentes ya que
si = σi /2 satisface las mismas relaciones de conmutación 4
[si , sj ] = iεijk sk (7.41)
como el momento angular en la ecuación (7.37).
La ecuación (7.3) da un operador de rotación para rotar las coordenadas cartesianas en el
espacio tridimensional. Usando la matriz de momento angular s3 , tenemos el correspondiente
operador de rotación en el espacio de dos dimensiones (complejo) Rz (ϕ) = exp(iϕσ3 /2).
Para rotar una función de onda vectorial de dos componentes (spinor) o una partı́cula de
spin 1/2 relativa a coordenadas fijas, el operador de rotación es Rz (ϕ) = exp(−iϕσ3 /2) de
acuerdo a la ecuación (7.35).
Usando la ecuación (7.40) la identidad de Euler, la ecuación (6.161), obtenemos
a a
j j
Uj = cos + iσj sen .
2 2
Aquı́ el parámetro aj aparece como un ángulo, el coeficiente de una matriz tipo momento
angular ϕ en la ecuación (7.26). Con esta identificación de los exponenciales, la forma general
de la matriz SU(2) (para rotar funciones más que las coordenadas) podrı́a ser escrita como
U(α, β, γ) = exp(−iγσ3 /2) exp(−iβσ2 /2) exp(−iασ1 /2) .
Como vimos, los elementos de SU(2) describen rotaciones en un espacio complejo bidi-
mensional que deja invariante a |z1 |2 + |z2 |2 . El determinante es +1. Hay tres parámetros
independientes. Nuestro grupo ortogonal real SO(3) de determinante +1, claramente descri-
be rotaciones comunes en el espacio tridimensional con la importante caracterı́stica de dejar
invariante a x2 + y 2 + z 2 . También hay tres parámetros independientes. Las interpretaciones
de rotación y la igualdad de números de parámetros sugiere la existencia de alguna clase de
correspondencia entre los grupos SU(2) y SO(3). Aquı́ desarrollamos esta correspondencia.
4
Las constantes de estructuras (iεijk ) conducen a las representaciones de SU(2) de dimensión 2J = 1
para generadores de dimensión 2j + 1, con J = 0, 1/2, 1, . . .. Los casos con J entero también conducen a las
representaciones de SO(3).
7.2. GENERADORES DE GRUPOS CONTINUOS. 155
M
M’
U
Figura 7.2: Ilustración de M0 = UMU† ecuación (7.42).
La operación SU(2) sobre una matriz está dada por una transformación unitaria, la ecua-
ción (7.5), con R = U y la figura (7.2)
M0 = UMU† . (7.42)
Tomando M como una matriz de 2 × 2, notemos que cualquier matriz de 2 × 2 puede ser
escrita como una combinación lineal de la matriz unidad y las tres matrices de Pauli. Sea M
la matriz de traza cero,
z x − iy
M = xσ1 + yσ2 + zσ3 = , (7.43)
x + iy −z
z0 x0 − iy 0
0 0 0
M = x σ1 + y σ2 + z σ3 = . (7.44)
x0 + iy 0 −z 0
o (x2 + y 2 + z 2 ) es invariante bajo esta operación de SU(2), como con SO(3). SU(2) debe,
por lo tanto, describir una rotación. Esto sugiere que SU(2) y SO(3) pueden ser isomórficos
o homomórficos.
Aproximemos el problema de qué rotación describe SU(2) considerando casos especiales.
Retomando la ecuación (7.38) sea a = eiξ y b = 0, o
eiξ 0
Uz = . (7.46)
0 e−iξ
Realizando una transformación unitaria sobre cada una de las tres matrices de Pauli,
tenemos
iξ −iξ
† e 0 0 1 e 0
Uz σ1 Uz =
0 e−iξ 1 0 0 eiξ
(7.47)
0 e2iξ
= −2iξ .
e 0
Reexpresamos este resultado en términos de las matrices de Pauli para obtener
Uz xσ1 U†z = x cos 2ξσ1 − x sen 2ξσ2 . (7.48)
Similarmente,
Uz yσ2 U†z = y sen 2ξσ1 − y cos 2ξσ2 ,
(7.49)
Uz zσ3 U†z = zσ3 .
A partir de esta expresión de doble ángulo vemos que podrı́amos comenzar con el ángulo
medio: ξ = α/2. Entonces, de las ecuaciones (7.42)–(7.44), (7.48) y (7.49),
x0 = x cos α + y sen α
y 0 = −x sen α + y cos α (7.50)
z0 = z .
La transformación unitaria de 2 × 2 usando Uz (α/2) es equivalente al operador de rotación
R(α) de la ecuación (7.3).
El establecimiento de la correspondencia de
cos β/2 sen β/2
Uy (β/2) = (7.51)
− sen β/2 cos β/2
y Ry (β) y de
cos ϕ/2 i sen ϕ/2
Ux (ϕ/2) = (7.52)
i sen ϕ/2 cos ϕ/2
y Rx (ϕ) pueden calcularse como ejercicio. Podemos notar que Uk (ψ/2) tiene la forma general
Uk (ψ/2) = 1 cos ψ/2 + iσk sen ψ/2 , (7.53)
donde k = x, y, z.
La correspondencia
α iα/2
cos α sen α 0
e 0
Uz = −iα/2 ↔ − sin α cos α 0 = Rz (α) , (7.54)
2 0 e
0 0 1
no es una simple correspondencia uno a uno. Especı́ficamente, como α en Rz recorre desde 0
a 2π, el parámetro Uz , α/2, recorre desde 0 a π . Encontramos que
Rz (α + 2π) = Rz (α)
(7.55)
iα/2
−e 0
Uz (α/2 + π) = = −Uz (α/2) .
0 −e−iα/2
7.2. GENERADORES DE GRUPOS CONTINUOS. 157
Por lo tanto ambos Uz (α/2) y Uz (α/2+π) = −Uz (α/2) corresponde a Rz (α). La corresponden-
cia es de 2 a 1, o SU(2) y SO(3) son homomórficos. Este establecimiento de la correspondencia
entre las representaciones de SU(2) y de aquella SO(3) significa que las representaciones cono-
cidas de SU(2) automáticamente nos proporciona de las representaciones de SO(3).
Combinando las rotaciones, encontramos que una transformación unitaria usada
corresponde a la rotación general de Euler Rz (γ)Ry (β)Rz (α). Por multiplicación directa,
iγ/2 iα/2
e 0 cos β/2 sen β/2 e 0
U(α, β, γ) =
0 e−iγ/2 − sen β/2 cos β/2 0 e−iα/2
(7.57)
ei(γ+α)/2 cos β/2 ei(γ−α)/2 sen β/2
= .
−e−i(γ−α)/2 sen β/2 e−i(γ+α)/2 cos β/2
(γ + α) β (γ − α)
ε= , η= , ζ= . (7.58)
2 2 2
De la ecuación (7.57) podemos identificar los parámetros de la ecuación (7.38) como
Como una consecuencia de la simetrı́a esférica del potencial V (r), el momento angular
~ es conservado. En la sección 7.2 las componentes cartesianas de L
orbital L ~ están indentifi-
cadas como los generadores del grupo de rotación SO(3). En vez de representar Lx , Ly , Lz
por operadores, usaremos matrices. Las matrices Li son matrices (2l + 1) × (2l + 1) con la
5
Para un potencial de Coulomb puro la energı́a depende sólo de n.
158 CAPÍTULO 7. TEORÍA DE GRUPO.
Masa [MeV] Y I I3
Ξ− 1321.32 − 12
1
Ξ -1 2
Ξ 0
1314.9 + 12
Σ− 1197.43 -1
Σ Σ0 1192.55 0 1 0
Σ+ 1189.37 +1
Λ Λ 1115.63 0 0 0
n 939.566 − 12
1
N 1 2
p 938.272 + 12
1
Cuadro 7.1: Bariones con spin 2
y paridad par
n p
1
Σ
−
Σ0 Λ Σ+
I3
−1 −½ 0 +½ 1
Ξ− Ξ0
−1
τi 0
λi = 0 , i = 1, 2, 3 . (7.60)
0 0 0
160 CAPÍTULO 7. TEORÍA DE GRUPO.
De este modo, el grupo del isospin SU(2) es un subgrupo de SU(3) con I3 = λ3 /2. Otros
cuatro generadores tienen los no diagonales 1 de τ1 e i, −i de τ2 en todas las otras posibles
ubicaciones para formar las matrices hermı́ticas 3 × 3 de traza nula.
0 0 1 0 0 −i
λ4 = 0 0 0 , λ5 = 0 0 0 ,
1 0 0 i 0 0
(7.61)
0 0 0 0 0 0
λ6 = 0 0 1 , λ7 = 0 0 −i .
0 1 0 0 i 0
Generalmente hay 32 − 1 = 8 generadores para SU(3) el cual tiene orden 8. De los con-
mutadores de esos generadores pueden obtenerse fácilmente las constantes de estructura de
SU(3).
Volviendo a la simetrı́a de sabor SU(3) imaginemos que el Hamiltoniano para nuestro
octeto de bariones están compuesto de tres partes
Ξ
−
Ξ
masa Ξ0
Σ
−
Σ
Σ0
Σ+
Λ Λ
n
N
p
H fuerte H fuerte + H medio H fuerte + H medio+ H electromagnética
(a) Y (b) Y
_
s 2/3
d 1/3 u
−½ +½ I3
−½ +½ I3
_ −1 / 3 _
−2 / 3 u d
s
fundamental en la figura 7.5 (a) contiene los quark u (arriba) y d (abajo) y el s (extrañeza),
y figura 7.5 (b) los correspondientes antiquarks. Ya que los octetos de mesones pueden ser
obtenidos a partir de la representación de quark como pares q q̄, 32 = 8 + 1, esto sugiere que
los mesones contienen quarks (y antiquarks) como sus constituyentes. El modelo de quarks
resultante dan una exitosa descripción de la espectroscopı́a hadrónica. La solución de sus
problemas con el principio de exclusión de Pauli eventualmente conduce a la teorı́a de gauge
de SU(3)-color de las interacciones fuertes llamada cromodinámica cuántica o QCD.
Para mantener la teorı́a de grupo en su real perspectiva, podrı́amos enfatizar que la teorı́a
de grupo identifica y formaliza las simetrı́as. Ella clasifica partı́culas (y algunas veces predice).
Pero a parte de decir que una parte del hamiltoniano tiene simetrı́a SU(2) y otra parte tiene
162 CAPÍTULO 7. TEORÍA DE GRUPO.
simetrı́a SU(3), la teorı́a de grupo no dice nada a cerca de la interacción de las partı́culas.
Recuerde que la afirmación de que el potencial atómico es esféricamente simétrico no nos dice
nada a cerca de la dependencia radial del portencial o de su función de onda. En contraste, en
una teorı́a de gauge la interacción es mediada por bosones vectoriales (como el fotón media en
la electrodinámica cuántica) y determinado únicamente por la derivada covariante de gauge.
~ QM = −i~r × ∇
L ~ . (7.64)
~2=L
L ~ ·L
~ = L2x + L2y + L2z , (7.66)
~ ·L
L ~ = (~r × p~) · (~r × p~) , (7.67)
Mostraremos ahora que λ = J(J + 1). Este tratamiento ilustrará la generalidad y potencia
de las técnicas de operadores particularmente el uso de operadores de subida y bajada.
Un operador de subida o bajada se defina como
Jz J+ = J+ (Jz + 1) , (7.74)
o
Jz (J+ |λM i) = J+ (Jz + 1)|λM i = (M + 1)(J+ |λM i) . (7.75)
Por lo tanto, J+ |λM i todavı́a es una autofunción de Jz con autovalores M +1. J+ ha elevado el
autovalor en 1 y por eso es llamado operador de subida. Similarmente, J− baja los autovalores
en 1 y a menudo es llamado operador de bajada.
Tomando los valores esperados y usando Jx† = Jx , Jy† = Jy ,
hλM |J~ 2 − Jz2 |λM i = hλM |Jx2 + Jy2 |λM i = | Jx |λM i |2 + | Jy |λM i |2 ,
vemos que λ − M 2 ≥ 0, tal que M es ligado. Sea J el más grande valor de M . Luego
J+ |λJi = 0, lo cual implica que J− J+ |λJi = 0. Luego combinando las ecuaciones (7.71) y
(7.72) obtenemos
J~ 2 = J− J+ + Jz (Jz + 1) , (7.76)
encontramos que a partir de la ecuación (7.76)
Por lo tanto
λ = J(J + 1) ≥ 0; (7.77)
164 CAPÍTULO 7. TEORÍA DE GRUPO.
con un J no negativo. Ahora reetiquetaremos los estados |λM i = |JM i. Similarmente, sea
J 0 el más pequeño de los M . Entonces J− |JJ 0 i = 0. A partir de
J~ 2 = J+ J− − Jz (Jz + 1) , (7.78)
vemos que
2
0 = J+ J− |JJ 0 i = (J~ 2 + Jz − Jz2 )|JJ 0 i = (λ + J 0 − J 0 )|JJ 0 i . (7.79)
De manera que
λ = J(J + 1) = J 0 (J 0 − 1) = (−J)(−J − 1) .
Ası́ J 0 = −J, y M corre en pasos enteros desde −J a +J,
− J ≤ M ≤ +J . (7.80)
Comenzando desde |JJi y aplicando J− repetidas veces, alcanzaremos todos los otros estados
|JM i. De manera que |JM i forma una representación irreductible; M varı́a y J está fijo.
Entonces usando las ecuaciones (7.68), (7.76) y (7.78) obtenemos
los autovalores o valores esperados en la ecuación (7.81) deberı́an ser positivos o cero.
Ya que J+ aumenta el autovalor de M a M + 1, reetiquetaremos la autofunción resultante
|JM + 1i. La normalización está dada por la ecuación (7.81) como
p
J+ |JM i = (J − M )(J + M + 1)|JM + 1i , (7.83)
tomando la raı́z cuadrada positiva y no introduciendo ningún factor de fase. Por los mismos
argumentos p
J− |JM i = (J + M )(J − M + 1)|JM − 1i . (7.84)
Finalmente, ya que M va desde −J a +J en pasos unitarios, 2J deberı́a ser un número
entero. J es por lo tanto un entero o la mitad de un entero impar. Como hemos visto, el
momento angular orbital está descrito con J entero. A partir de los spin de algunas partı́culas
fundamentales y de algunos núcleos, tenemos que J = 1/2, 3/2, 5/2, . . . Nuestro momento
angular está cuántizado esencialmente como un resultado de relaciones de conmutaciones.
En coordenadas polares esféricas θ, ϕ las funciones hθ, ϕ|lmi = Ylm (θ, ϕ) son armónicos
esféricos.
Álgebra de Lie Al Bl Dl
Grupo de Lie SU(l+1) SO(2l+1) SO(2l)
rango l l l
orden l(l+2) l(2l+1) l(2l-1)
[Hi , Eα ] = αi Eα . (7.86)
Ahora podemos mostrar que Eα |(c1 , c2 , . . . , cl )m1 , m2 , . . . , ml i tiene los vector peso (m1 +
α1 , m2 +α2 , . . . , ml +αl ) usando las relaciones de conmutación, la ecuación (7.86), en conjunto
con las ecuaciones (7.89a) y (7.89b),
Por lo tanto
estas son las generalizaciones de las ecuaciones (7.83) y (7.84) a partir de SO(3). Esos cambios
de autovalores por el operador Eα son llamados sus reglas de selección en mecánica cuántica.
los sistemas (inercial) que se mueven con velocidad v ≤ c en cualquier dirección relativa
al sistema xi y que tengan el mismo origen a tiempo t = 0, se mantenga también que
c2 t0 2 − x01 2 − x02 2 − x03 2 = 0. El espacio cuadridimensional con la métrica x20 − x21 − x22 − x23 es
llamado espacio de Minkowski con el producto escalar de dos cuadrivectores definido como
a · b = a0 b0 − ~a · ~b. Usando el tensor métrico
1 0 0 0
0 −1 0 0
(gµν ) = (g µν ) =
0 0 −1 0 ,
(7.91)
0 0 0 −1
8
Ser covariante significa que tienen la misma forma en diferentes sistemas de coordenadas tal que no hay
un sistema de referencia privilegiado.
7.4. GRUPO HOMOGÉNEO DE LORENTZ. 167
podemos subir y bajar ı́ndices de un cuadrivector tal como de las coordenadas xµ = (x0 , ~x)
es decir xµ = gµν xν = (x0 , −~x) y xµ gµν xν = x20 − ~x 2 , la conveción de suma de Einstein se
dan por entendida. Para el gradiente ∂ µ = (∂/∂x0 , −∇) ~ = ∂/∂xµ y ∂µ = (∂/∂x0 , ∇) ~ tal que
2 2 2 2 2 2
∂ = ∂ /∂x0 − ∇ es un escalar de Lorentz, al igual que la métrica x0 − ~x .
Para v c, en el lı́mite no relativista, las transformaciones de Lorentz deben ser trans-
formaciones de Galileo. Por lo tanto, para derivar la forma de una transformación de Lorentz
a lo largo del eje x1 , partimos con una transformación Galileana para una velocidad relativa
infinitesimal δv:
x01 = x1 − δvt = x1 − x0 δβ . (7.92)
v
Como es usual β = . Por simetrı́a también podemos escribir
c
x00 = x0 − ax1 δβ , (7.93)
donde a es un parámetro a fijar una vez que se imponga que x20 − x21 deba ser invariante,
2 2
x00 − x01 = x20 − x21 . (7.94)
(ρσ1 )2 (ρσ1 )3
exp(−ρσ1 ) = 1 − ρσ1 + − + ··· . (7.98)
2! 3!
Notando que σ 2 = 1,
exp(−ρσ1 ) = 1 cosh ρ + σ1 senh ρ . (7.99)
Por lo tanto nuestra transformación de Lorentz finita es
0
x0 cosh ρ − senh ρ x0
0 = . (7.100)
x1 − senh ρ cosh ρ x1
168 CAPÍTULO 7. TEORÍA DE GRUPO.
Con x1 = vt y x0 = ct.
v
tanh ρ = β = .
c
v
Note que la rapidez ρ 6= excepto en el lı́mite v → 0.
c
Usando 1 − tanh2 ρ = (cosh2 ρ)−1 ,
El anterior caso especial en que la velocidad es paralela a uno de los ejes espaciales es
simple, pero ilustra la velocidad infinitesimal, la técnica de la exponenciación y el generador.
Ahora esta técnica puede ser aplicada para derivar las transformaciones de Lorentz para una
velocidad relativa ~v no paralela a ningún eje. Las matrices dadas por la ecuación (7.100) para
el caso ~v = x̂vx forman un subgrupo. Las matrices en el caso general no lo hacen. El producto
de dos matrices de transformaciones de Lorentz, L(~v1 ) y L(~v2 ), producen una tercera matriz
de transformación L(~v3 ), si las dos velocidades ~v1 y ~v2 son paralelas. La velocidad resultante
v3 está relacionada con v1 y con v2 mediante la regla de adición de velociades de Einstein. Si
~v1 y ~v2 no son paralelas, no existe entonces una relación simple.
y las relaciones
~ = ε0 E
D ~ , ~ = µ0 H
B ~ . (7.104)
Todos los sı́mbolos tienen sus significados usuales y hemos supuesto el vacio por simplicidad.
Supongamos que las ecuaciones de Maxwell se mantienen en todos los sistemas inerciales;
esto es , las ecuaciones de Maxwell son consistentes con la relatividad especial. (La covarian-
cia de las ecuaciones de Maxwell bajo transformaciones de Lorentz fue realmente mostrada
por Lorentz y Poincaré antes de que Einstein propusiera su teorı́a de la relatividad espe-
cial). Nuestro objetivo inmediato es reescribir las ecuaciones de Maxwell como ecuaciones
tensoriales en el espacio de Minkowski. Esto hará la covariancia de Lorentz explı́cita.
En términos de los potenciales escalar y vectorial, podemos escribir
~ =∇
B ~ ×A ~,
~ (7.105)
~ = − ∂ A − ∇ϕ
E ~ .
∂t
~ la divergencia de A
La ecuación anterior especifica el rotor de A; ~ no está definida. Po-
demos, y por futuras conveniencias lo hacemos, imponer la siguiente relación sobre el vector
potencial
~ ·A
∇ ~ + ε0 µ0 ∂ϕ = 0 . (7.106)
∂t
Este es conocido como el gauge de Lorentz. Servirá a nuestros propósitos de desacoplar las
~ y para ϕ .
ecuaciones diferenciales para A
Ahora reescribimos las ecuaciones de Maxwell en términos de los potenciales. A partir de
~ ·D
la ecuación (7.103c) para ∇ ~ y (7.105)
~
~ · ∂A = − ρ ,
∇2 ϕ + ∇ (7.107)
∂t ε0
~ ×H
considerando que la ecuación (7.103b) para ∇ ~ y (7.105) y la identidad vectorial para el
rotor del rotor produce
~
∂2A ∂ϕ 1 h~ ~ ~ i ρ~v
~
+ +∇ + 2~
∇∇ · A − ∇ A = . (7.108)
∂t2 ∂t ε 0 µ0 ε0
1 ∂2 ~
2
∇ − 2 2 A = −µ0 ρ~v ,
c ∂t
(7.109)
1 ∂2
2 ρ
∇ − 2 2 ϕ=− .
c ∂t ε0
1 ∂2
∇2 − 2 2
= ∂ 2 = −∂ µ ∂µ ,
c ∂t
170 CAPÍTULO 7. TEORÍA DE GRUPO.
∂ 2 Aµ = iµ . (7.112)
La ecuación anterior parece una ecuación tensorial, pero eso no basta. Para probar que es una
ecuación tensorial, partimos investigando las propiedades de transformación de la corriente
generalizada iµ .
Ya que un elemento de carga de es una cantidad invariante, tenemos
Vimos que el elemento de volumen cuadridimensional es también un invariante, dx1 dx2 dx3 dx0 ,
comparando estos resultados vemos que la densidad de carga ρ debe transformar de la misma
manera que x0 . Ponemos ρ = i0 con i0 establecida como la componente cero de un cuadri-
vector. Las otras partes de la ecuación (7.111) pueden ser expandidas como
ρvx ρ dx1
i1 = =
c c dt (7.114)
dx 1
= i0 .
dt
Ya que justo mostramos que i0 transforma como dx0 , esto significa que i1 transforma como
dx1 . Con resultados similares para i2 e i3 . tenemos que iλ transforma como dxλ , probando
de esta manera que iλ es un vector, un vector del espacio cuadridimensional de Minkowski.
La ecuación (7.112), la cual deriva directamente de las ecuaciones de Maxwell, suponemos
que se mantiene en todos los sistemas cartesianos. Entonces, por la regla del cuociente Aµ es
también un vector y (7.112) es una legitima ecuación tensorial.
Ahora, devolviendonos, la ecuación (7.105) puede ser escrita
∂Aj ∂A0
ε0 Ej = − + , j = 1, 2, 3,
∂x0 ∂xj
(7.115)
1 ∂Ak ∂Aj
Bi = − , (i, j, k) = (1, 2, 3) ,
µc ∂xj ∂xk
y permutaciones cı́clicas.
7.5. COVARIANZA DE LORENTZ DE LAS ECUACIONES DE MAXWELL. 171
∂Fµν
= iµ . (7.117)
∂xν
para (7.103a). Una segunda ecuación permutando 120 y una tercera permutando 130.
Ya que
∂F µν
∂ λ F µν = ≡ tλµν ,
∂xλ
es un tensor de tercer rango, las ecuaciones (7.117) y (7.119) pueden ser expresadas por la
ecuación tensorial
tλµν + tνλµ + tµνλ = 0 . (7.120)
En todos los casos anteriores los ı́ndices µ, ν y λ se suponen diferentes.
~ y B.
Transformaciones de Lorentz de E ~
Para las transformaciones de Lorentz que correspoonden a movimientos a lo largo del eje
z(x3 ) con velocidad v, los “cosenos directores” están dados por
donde
v
β=
c
y
−1/2
γ = 1 − β2 . (7.122)
Usando las propiedades de transformación tensorial, podemos calcular los campos eléctrico y
magnético en el sistema en movimiento en términos de los valores en el marco de referencias
original. A partir de las ecuaciones (7.116) y (7.121) obtenemos
1 v
Ex0 = p Ex −
By ,
1 − β2 c2
0 1 v (7.123)
Ey = p Ey + 2 Bx ,
1 − β2 c
0
Ez = Ez ,
y
1 v
Bx0 = p Bx +Ey ,
1 − β2 c2
1 v (7.124)
By0 = p By − 2 Ex ,
1 − β2 c
Bz0 = Bz .
Este acoplamiento de E ~ y B
~ es esperado. Consideremos, por ejemplo, el caso de campo
eléctrico nulo en el sistema sin prima
Ex = Ey = Ez = 0 .
Claramente, no habrá fuerza sobre una partı́cula carga estacionaria. Cuando la partı́cula
está en movimiento con una velocidad pequeña ~v a lo largo del eje z un observador sobre la
partı́cula ve campos (ejerciendo una fuerza sobre la partı́cula cargada) dados por
Ex0 = −vBy ,
Ey0 = vBx ,
donde B~ es un campo magnético en el sistema sin primas. Estas ecuaciones pueden ser puestas
en forma vectorial
~ 0 = ~v × B
E ~ , o bien, F~ = q~v × B
~ , (7.125)
~
la cual es usualmente tomada como la definición operacional del campo magnético B.
7.5. COVARIANZA DE LORENTZ DE LAS ECUACIONES DE MAXWELL. 173
Invariantes electromagnéticas.
Finalmente, las propiedades tensoriales (o vectorioles) nos permiten construir una multi-
tud de cantidades invariantes. Una de las importantes es el producto escalar de los cuadri-
vectores Aλ y iλ . Tenemos
ρvx ρvy ρvz
Aλ iλ = −cε0 Ax − cε0 Ay − cε0 Az + ε0 ϕρ
c c c (7.126)
~ · J)
= ε0 (ρϕ − A ~ , invariante,
Series infinitas.
versión final corregida 2.31, 6 de Mayo del 20031
Esta es una suma finita y no ofrece dificultades. Si las sumas parciales si convergen a un
lı́mite (finito) cuando i → ∞,
lı́m si = S , (8.2)
i→∞
La serie infinita ∞
P
n=1 un se dice que es convergente y tiene el valor S. Note cuidadosamente
que nosotros razonablemente y plausiblemente, pero aún arbitrariamente definimos que la
serie infinita es igual a S. Podemos notar que una condición necesaria para esta convergencia
a un lı́mite es que el lı́mn→∞ un = 0. Esta condición, sin embargo, no es suficiente para
garantizar la convergencia. La ecuación (8.2) usualmente está escrita en notación matemática
formal:
La condición para la existencia de un lı́mite S es que para cada ε > 0, haya un
N fijo tal que
| S − si | < ε , para todo i > N .
1
Este capı́tulo está basado en el quinto capı́tulo del libro: Mathematical Methods for Physicists, fourth
edition de George B. Arfken & Hans J. Weber, editorial Academic Press.
175
176 CAPÍTULO 8. SERIES INFINITAS.
Esta condición a menudo derivada del criterio de Cauchy aplicado a las sumas parciales
si . El criterio de Cauchy es:
Una condición necesaria y suficiente para que una sucesión (si ) converja es que
para cada ε > 0 exista un número fijo N tal que
Cada vez que las sumas parciales diverjan (tienden a ±∞ ), la serie infinita se dice que
diverge. A menudo el término divergente es extendido para incluir series oscilatorias.
Ya que evaluamos las sumas parciales por aritmética ordinaria, la serie convergente, de-
finida en términos del lı́mite de las sumas parciales, asume una posición de importancia
suprema. Dos ejemplos pueden clarificar la naturaleza de convergencia o divergencia de una
serie y servirá como una base para una investigación más detallada en la próxima sección.
Tenemos que el lı́mn→∞ un = lı́mn→∞ 1/n = 0, pero esto no es suficiente para garantizar la
convergencia. Si agrupamos los términos (no cambiando el orden) como
1 1 1 1 1 1 1 1 1
1+ + + + + + + + + ··· + + ··· , (8.7)
2 3 4 5 6 7 8 9 16
1 − 1 + 1 − 1 + 1 − 1 + ..., (8.11)
178 CAPÍTULO 8. SERIES INFINITAS.
una serie que etiquetamos como oscilatoria anteriormente. Aunque no converge en el sentido
usual, significa que puede ser ligada a su serie. Euler, por ejemplo, asignado un valor de 1/2 a
esta sucesión oscilatoria sobre la base de la correspondencia entre esta serie y la bien definida
función (1 + x)−1 . Desafortunadamente, tal correspondencia entre la serie y la función no es
única y esta aproximación deberá ser redefinida. Otros métodos de asignar un significado a
una serie oscilatoria o divergente, métodos de definir una suma, han sido desarrollados. Otro
ejemplo de generalizar la convergencia lo vemos en las serie asintótica o semi-convergente,
consideradas más adelante.
Razón de D’Alembert
Raabe
Cauchy
(También por comparación
an= n ln n
con la series geométricas)
Gauss
Todos las pruebas desarrolladas en esta sección son esencialmente pruebas de comparación.
La figura 8.1 muestra estas pruebas y sus relaciones.
Probamos n n−p , p = 0.999, por convergencia. Ya que n−0.999 >P n−1 , y bn = n−1 forman
P
la serie armónicaPdivergente, la prueba de comparación muestra que n n−0.999 es divergente.
Generalizando, n n−p se ve como divergente para todo p ≤ 1.
an ≤ r n < 1 .
Ya que
an+1
lı́m =1, (8.14)
n→∞ an
no existe una razón fija r < 1 y la prueba de la razón falla.
Ya que
an+1 3
≤ para n ≥ 2, (8.16)
an 4
tenemos convergencia. Alternativamente,
an+1 1
lı́m = , (8.17)
n→∞ an 2
y de nuevo converge.
8.2. PRUEBAS DE CONVERGENCIA 181
Pero Z i+1
si > f (x) dx , (8.19)
1
por la figura 8.2a, f (x) es monótonamente decreciente. Por otra parte, de la figura 8.2b,
Z i
si − a1 < f (x) dx , (8.20)
1
en la cual la serie está representada por los rectángulos inscritos. Tomando el lı́mite como
i → ∞, tenemos
Z ∞ ∞
X Z ∞
f (x) dx < an < f (x) dx + a1 . (8.21)
1 n=1 1
De modo que la serie infinita converge o diverge cuando la integral correspondiente converge
o diverge respectivamente.
(a) (b)
f(1)=a1 f(1)=a1
f(x) f(x)
f(2)=a2
x x
1 2 3 4 1 2 3 4 5
Figura 8.2: (a) Comparación de la integral y la suma de bloques sobresalientes. (b) Compa-
ración de la integral y la suma de bloques envueltos.
Esto es,
∞
X N
X ∞
X
an = an + an ,
n=1 n=1 n=N +1
donde ∞
Z ∞ X Z ∞
f (x) dx < an < f (x) dx + aN +1 .
N +1 n=N +1 N +1
Aquı́ [x] denota el entero mayor por debajo de x, tal que x − [x] varı́a como diente de sierra
entre 0 y 1.
un
an − an+1 ≤ 0 (8.28)
un+1
P∞
a−1 diverge, luego ∞
P
y i=1 i i=1 ui diverge.
La prueba de este poderoso test es simple y queda como ejercicio.
Si las constantes positivas an de la prueba de Kummer son elegidas como an = n, tenemos
la prueba de Raabe.
Tenemos convergencia para P > 1, y divergencia para P < 1, y no hay prueba para P = 1
exactamente como con el test de Kummer. Esta indeterminancia está expresada en que
podemos encontrar ejemplos de una serie convergente y una divergente en que ambas series
tienden a P = 1 en la ecuación (8.31).
P∞ −1
El test de Raabe es más sensible
P∞ que la prueba de la razón de D’Alembert ya que n=1 n
diverge más lentamente que n=1 1. Obtenemos una prueba aún más sensible (y una relati-
vamente fácil de aplicar) si escogemos an = n ln n. Esto es la prueba de Gauss.
184 CAPÍTULO 8. SERIES INFINITAS.
Por la ecuación (8.33) la serie es divergente. Más adelante exigiremos que las series de Legen-
dre sean finitas (se corten) para x = 1. Eliminaremos la divergencia ajustando los parámetros
n = 2j0 , un entero par. Esto truncará la serie, convirtiendo la serie infinita en un polinomio.
es particularmente útil. Las series están combinadas término a término y los coeficientes en
combinación lineal son escogidos para cancelar los términos que convergen lentamente.
α1 no está incluida ya que converge más lentamente que ζ(3). Combinando términos, obte-
nemos sobre la mano izquierda
∞ ∞
n2 (1 + a2 ) + 3n + 2
X
X 1 a2
3
+ = 3 (n + 1)(n + 2)
.
n=1
n n(n + 1)(n + 2) n=1
n
La serie resultante no es muy bonita pero converge como n−4 , apreciablemente más rápido
que n−3 .
El método puede ser extendido incluyendo a3 α3 para obtener la convergencia como n−5 ,
a4 α4 para obtener la convergencia como n−6 , etc. Eventualmente, usted tiene que alcanzar
un compromiso entre cuánta álgebra usted hace y cuánta aritmética la computadora hace.
Como las computadoras lo hacen más rápido, el balance está seguramente sustituyendo menos
álgebra hecha por usted, por más aritmética realizada por el computador.
Ejemplo
Para 0 < x < π la serie de Fourier
∞
X cos(nx) x
= − ln 2 sen , (8.47)
n=1
n 2
converge teniendo coeficientes que cambian de signo frecuentemente, pero no tanto para que
el criterio de convergencia de Leibniz se aplique fácilmente. Apliquemos el test de la integral
de la ecuación (8.22). Usando integración por partes vemos de inmediato que
Z ∞ ∞
1 ∞ sen(nx)
Z
cos(nx) sen(nx)
dn = − dn
1 n nx 1 x 1 n2
converge para n → ∞, y la integral del lado derecho incluso converge absolutamente. El
término derivado en la ecuación (8.22) tiene la forma
Z ∞
x cos(nx)
(n − [n]) − sen(nx) − dn ,
1 n n2
donde el segundo término converge
R N absolutamente y no necesita ser considerado. Lo próxi-
mo es observar que g(N ) = 1 (n − [n]) sen(nx) dn es acotado para N → ∞, tal como
RN
sen(nx) dn es acotado debido a la naturaleza periódica de sen(nx) y a su regular cambio
de signo. Usando integración por partes nuevamente
Z ∞ 0 ∞ Z ∞
g (n) g(n) g(n)
dn = + dn ,
1 n n 1 1 n2
vemos que el segundo término es absolutamente convergente, y el primero va a cero en el
lı́mite superior. Por lo tanto la serie en la ecuación (8.47) converge, lo cual es duro de ver
usando otro test de convergencia.
188 CAPÍTULO 8. SERIES INFINITAS.
1.5
1.4
1.3
2 4 6 8 10
Figura 8.3: Serie armónica alternada, rearreglo de términos para dar convergencia a 1.5.
converge muy suavemente cuando x se aproxima a +1. La razón de convergencia podrı́a ser
mejorada sustancialmente multiplicando ambos lados de la ecuación (8.51) por un polinomio
y ajustando los coeficientes del polinomio para cancelar las porciones que convergen más
lentamente en la serie. Consideremos la posibilidad más simple: Multiplicar ln(1 + x) por
1 + a1 x.
∞ ∞
X xn X xn+1
(1 + a1 x) ln(1 + x) = (−1)n−1 + a1 (−1)n−1 .
n=1
n n=1
n
∞
X
n−1 1 a1
(1 + a1 x) ln(1 + x) = x + (−1) − xn
n=2
n n−1
∞
X n(1 − a1 ) − 1 n
=x+ (−1)n−1 x .
n=2
n(n − 1)
m= 0 1 2 3
n= 0 a00 a01 a02 a03
Figura 8.4: Series dobles, la suma sobre n es indicada por lı́neas segmentadas verticales.
∞ X
X ∞
an,m .
m=0 n=0
sustituyamos
n=q≥0,
m=p−q ≥0 ,
(q ≤ p) .
p= 0 1 2 3
q= 0 a00 a01 a02 a03
2 a20 a21
3 a30
Figura 8.5: Series dobles nuevamente, la primera suma es representada por lı́neas segmentadas
verticales pero estas lı́neas verticales corresponden a las diagonales en la figura 8.4.
tiende a
∞ X
∞ [r/2]
∞ X
X X
an,m = as,r−2s . (8.53)
m=0 n=0 r=0 s=0
con [r/2] = r/2 para r par, (r − 1)/2 para r impar. La suma sobre r y s de la ecuación
(8.53) está mostrada en la figura 8.6. Las ecuaciones (8.52) y (8.53) son claramente reordena-
mientos del arreglo de coeficientes an,m , reordenamientos que son válidos en tanto tengamos
convergencia absoluta. La combinación de las ecuaciones (8.52) y (8.53),
r= 0 1 2 3 4
s= 0 a00 a01 a02 a03 a04
2 a20
Figura 8.6: Series dobles. La suma sobre s corresponde a la suma a lo largo de la lı́neas
segmentadas inclinadas, en la figura 8.4.
p
∞ X [r/2]
∞ X
X X
aq,p−q = as,r−2s . (8.54)
p=0 q=0 r=0 s=0
192 CAPÍTULO 8. SERIES INFINITAS.
tal como lo hacemos para la suma de serie, definimos el lı́mite como el lı́mite de las sumas
parciales
X∞
un (x) = S(x) = lı́m sn (x) . (8.56)
n→∞
n=1
Hasta ahora nos hemos ocupado del comportamiento de las sumas parciales como una función
de n. Ahora consideremos cómo las cantidades anteriores dependen de x. Aquı́ el concepto
clave es la convergencia uniforme.
se dice que la serie converge uniformemente en el intervalo [a, b]. Esto dice que para que
nuestra serie sea uniformementeP∞ convergente, debe ser posible encontrar un N finito tal que
la cola de la serie infinita, | i=N +1 ui (x)|, sea menor que un ε arbitrariamente pequeño para
todo x en el intervalo dado.
Esta condición, ecuación (8.57), la cual define la convergencia uniforme, es ilustrada en
la figura 8.7. El punto es que no importa cuan pequeño sea ε podemos siempre tomar un n
suficientemente grande tal que la magnitud absoluta de la diferencia entre S(x) P y sn (x) sea
menor que ε para todo x, a ≤ x ≤ b. Si esto no puede ser hecho, entonces un (x) no es
uniformemente convergente en el intervalo [a, b].
Ejemplo
∞ ∞
X X x
un (x) = . (8.58)
n=1 n=1
[(n − 1)x + 1][nx + 1]
La suma parcial sn (x) = nx(nx + 1)−1 puede ser verificada por inducción matemática. Por
inspección esta expresión para sn (x) es válida para n = 1, 2. Suponemos que se mantiene
8.5. SERIES DE FUNCIONES. 193
S(x) + ε
S(x)
S(x) − ε
ε sn (x)
ε
x
x=a x=b
Figura 8.7: Convergencia uniforme.
Esto a partir de nuestra definición de convergencia. Entonces, con |ui (x)| ≤ Mi para todo x
en el intervalo a ≤ x ≤ b,
X∞
|ui (x)| < ε . (8.60)
i=n+1
De modo que
X∞
|S(x) − sn (x)| = ui (x) < ε , (8.61)
i=n+1
P∞
y por definición 1 ui (x) es uniformemente convergente en [a, b]. Ya que tenemos especifica-
dos valores absolutos en el planteamiento de la prueba M de Weierstrass, la serie ∞
P
1 ui (x)
también es vista como serie absolutamente convergente.
Podemos notar que la convergencia uniforme y convergencia absoluta son propiedades
independientes. Una no implica la otra. Para ejemplos especı́ficos,
∞
X (−1)n
, −∞ < x < ∞ (8.62)
n=1
n + x2
y
∞
X xn
(−1)n−1 = ln(1 + x) , 0≤x≤1, (8.63)
n=1
n
converge uniformemente en los intervalos indicados pero no converge absolutamente. Por otra
parte,
∞
(
X 1, 0≤x<1
(1 − x)xn = , (8.64)
n=1
0 , x = 1
un (x) = an fn (x) ,
X
an = A , convergente,
es también continua.
2. Si los términos individuales un (x) son continuos, las series pueden ser integradas término
a término. La suma de las integrales es igual a la integral de la suma.
Z b ∞ Z
X b
f (x) dx = un (x)dx . (8.67)
a n=1 a
3. Las derivadas de la suma de la serie f (x) es igual a la suma de los términos individuales
derivados,
∞
df (x) X dun (x)
= , (8.68)
dx n=1
dx
dun (x)
un (x) y son continuas en [a, b].
dx
∞
X dun (x)
es uniformemente convergente en [a, b].
n=1
dx
Continuando, obtenemos
Z Z Z x
(x − a)2 (n−1)
f (n) (x)(dx)3 = f (n−3) (x) − f (n−3) (a) − (x − a)f (n−2) (a) − f (a) . (8.70)
a 2
Note que esta expresión es exacta. No hay términos que hayan sido excluidos, ni aproxima-
ciones hechas. Ahora, resolviendo para f (x), tenemos
Este remanente, ecuación (8.73), puede ser puesto en una forma más inteligible usando la
forma integral del teorema del valor medio
Z x
g(x) dx = (x − a)g(ξ) , (8.74)
a
(x − a)n (n)
Rn = f (ξ) . (8.75)
n!
8.6. EXPANSIÓN DE TAYLOR. 197
lı́m Rn = 0 , (8.76)
n→∞
Nuestra serie de Taylor especifica el valor de una función en un punto, x, en términos del
valor de la función y sus derivadas en un punto de referencia, a. Esta es una expansión en
potencias de un cambio en la variable, ∆x = x−a en este caso. La notación puede ser variada
según la conveniencia del usuario. Con la sustitución x → x + h y a → x tenemos una forma
alterna ∞
X hn (n)
f (x + h) = f (x) .
n=0
n!
Cuando usamos el operador D = d/dx la expansión de Taylor se convierte en
∞
X hn Dn
f (x + h) = f (x) = ehD f (x) .
n=0
n!
Ejemplo
Sea f (x) = ex . Diferenciando, tenemos
Esta es la expansión en serie de la función exponencial. Algunos autores usan esta serie para
definir la función exponencial.
Aunque esta serie es claramente convergente para todo x, podrı́amos chequear el término
remanente, Rn . Por la ecuación (8.75) tenemos
xn (n)
Rn = f (ξ)
n! (8.81)
xn ξ
= e , 0 ≤ |ξ| ≤ x .
n!
Por lo tanto
xn x
| Rn | ≤ e (8.82)
n!
y
lı́m Rn = 0 (8.83)
n→∞
para todo los valores finitos de x, el cual indica que esta expansión de Maclaurin de ex es
válida sobre el intervalo −∞ < x < ∞.
Ejemplo
Sea f (x) = ln(1 + x). Diferenciando, obtenemos
1
f 0 (x) = ,
(1 + x)
(8.84)
(n) n−1 1
f (x) = (−1) (n − 1)! .
(1 + x)n
x2 x3 x4
ln(1 + x) = x − + − + · · · + Rn
2 3 4
Xn
xp (8.85)
= (−1)p−1 + Rn .
p=1
p
xn (n)
Rn = f (ξ) , 0 ≤ ξ ≤ x
n! (8.86)
xn
≤ , 0≤ξ≤x≤1.
n
8.6. EXPANSIÓN DE TAYLOR. 199
Cuando la cantidad m
n
es igual a m!/(n!(m−n)!), es llamado el coeficiente binomial. Aunque
hemos mostrado solamente que el remanente se anula,
lı́m Rn = 0 ,
n→∞
para 0 ≤ x < 1, realmente puede mostrarse que la serie en la ecuación (8.92) converge en el
intervalo extendido −1 < x < 1. Para m un entero, (m − n)! = ±∞ si n > m y las series
automáticamente terminan en n = m.
1 2
Comparemos esta ecuación con la energı́a cinética clásica, mv .
2
v2 1
Por la ecuación (8.92) con x = − 2 y m = − tenemos
c 2
" 2 2 2
2 1 v (−1/2)(−3/2) v
E = mc 1 − − 2 + − 2 +
2 c 2! c
2 3 #
(−1/2)(−3/2)(−5/2) v
+ − 2 + ··· .
3! c
o 2
v2 v2
1 3 5
2
E = mc + mv 2 + mv 2 2 + mv 2 + ··· . (8.95)
2 8 c 16 c2
El primer término, mc2 , lo identificamos como la masa en reposo. Entonces
" 2 #
1 2 3 v2 5 v2
Ecinética = mv 1 + 2 + + ··· . (8.96)
2 4c 8 c2
donde
Pmla suma anterior incluye todas las combinaciones diferentes de los n1 , n2 , . . . , nm tal
que i=1 ni = n. Aquı́ ni y n son enteros. Esta generalización encuentra considerables usos
en Mecánica Estadı́stica.
8.7. SERIES DE POTENCIAS. 201
Las series de Maclaurin pueden aparecer algunas veces indirectamente más que el uso di-
recto de la ecuación (8.78). Por ejemplo, la manera más conveniente para obtener la expansión
en serie ∞
−1
X (2n − 1)!! x2n+1 x3 3x5
sen x = =x+ + + ··· , (8.97)
n=0
(2n)!! 2n + 1 6 40
es hacer uso de la relación Z x
−1 dt
sen x= .
0 (1 − t2 )1/2
2 −1/2
Expandimos (1 − t ) (teorema binomial) y luego integramos término a término. Esta
integración término a término es discutida en la sección 8.7. El resultado es la ecuación
(8.97). Finalmente, podemos tomar el lı́mite cuando x → 1. La serie converge por la prueba
de Gauss.
8.7.1. Convergencia.
La ecuación (8.101) puede testearse rápidamente para la convergencia ya sea por la prueba
de la raı́z de Cauchy o por la prueba de la razón de D’ Alembert. Si
an+1
lı́m = R−1 , (8.102)
n→∞ an
la serie converge para −R < x < R. Este es el intervalo o radio de convergencia. Ya que las
pruebas de la raı́z y la razón fallan cuando el lı́mite es la unidad, el punto final del intervalo
requiere atención especial.
Por ejemplo, si an = n−1 , entonces R = 1 y, la serie converge para x = −1, pero diverge
para x = +1. Si an = n!, entonces R = 0 y la serie diverge para todo x 6= 0.
8.8.1. Continuidad.
Ya que cada término un (x) = an xn es una función continua de x y f (x) = an xn con-
P
verge uniformemente para −S ≤ x ≤ S, f (x) deberı́a ser una función continua en el intervalo
de convergencia uniforme. Este comportamiento es contradictorio con el comportamiento
impresionantemente diferente de las series de Fourier. Las series de Fourier son usadas fre-
cuentemente para representar funciones discontinuas tales como ondas cuadradas y ondas
dientes de sierra.
donde R es el más pequeño entre Ra , Rb . Haciendo x = 0 para eliminar todo salvo el término
constante, obtenemos
a0 = b0 . (8.106)
Ahora, aprovechándose de la diferenciabilidad de nuestra serie de potencia, diferenciamos la
ecuación (8.105), obteniendo
∞
X ∞
X
n−1
nan x = nbn xn−1 . (8.107)
n=1 n=1
Ejemplo
Evaluemos
1 − cos x
lı́m . (8.110)
x→0 x2
Remplazando cos x por su expansión en serie de Maclaurin, obtenemos
tenemos
1 (n)
an = f (0) .
n!
y − y0 = a1 (x − x0 ) + a2 (x − x0 )2 + · · ·
∞
X (8.112)
= an (x − x0 )n ,
n=1
en la cual está dada (y − y0 ) en términos de (x − x0 ). Sin embargo, podrı́a ser deseable tener
una expresión explı́cita para (x−x0 ) en términos de (y −y0 ). Necesitamos resolver la ecuación
(8.112) para (x − x0 ) por inversión de nuestra serie. Supongamos que
∞
X
x − x0 = bn (y − y0 )n , (8.113)
n=0
La masa oscilante m tiene una energı́a cinética de ml2 (dθ/dt)2 /2 y una energı́a potencial
de −mgl cos θ (θ = π/2 como la elección del cero de la energı́a potencial). Ya que dθ/dt = 0
en θ = θM , el principio de la conservación de la energı́a da
2
1 2 dθ
ml − mgl cos θ = −mgl cos θM . (8.115)
2 dt
206 CAPÍTULO 8. SERIES INFINITAS.
8.9.1. Definiciones.
Generalizando el ejemplo anterior para incluir el lı́mite superior como una variable, la
integral elı́ptica del primer tipo está definida como
Z ϕ
dθ
F (ϕ\α) = √ (8.121)
0 1 − sen2 α sen2 θ
o Z x
dt
F (x\m) = p , 0≤m<1. (8.122)
0 (1 − t2 )(1 − mt2 )
Para ϕ = π/2, x = 1, tenemos la integral elı́ptica completa de primer tipo,
Z π/2
dθ
K(m) = √
0 1 − m sen2 θ
Z 1 (8.123)
dt
= p ,
0 (1 − t )(1 − mt2 )
2
o r
x
1 − mt2
Z
E(x\m) = dt , 0≤m<1 (8.125)
0 1 − t2
Nuevamente, para el caso ϕ = π/2, x = 1,tenemos la integral elı́ptica completa de segundo
tipo:
Z π/2 √
E(m) = 1 − m sen2 θ dθ
0
1
r (8.126)
1 − mt2
Z
= dt , 0≤m<1.
0 1 − t2
La figura 8.9 muestra el comportamiento de K(m) y E(m). Los valores de ambas funciones
pueden encontrarse en tablas o evaluar en software como Mathematica.
K(m)
2
π/2
1 E(m)
Para cualquier intervalo cerrado [0, mmax ], con mmax < 1, esta serie es uniformemente con-
vergente y puede ser integrada término a término.
Z π/2
(2n − 1)!! π
sen2n θ dθ = . (8.128)
0 (2n)!! 2
De modo que
" 2 2 2 #
π 1 1·3 2 1·3·5 3
K(m) = 1+ m+ m + m + ··· . (8.129)
2 2 2·4 2·4·6
Similarmente,
" 2 2 2 #
1 · 3 m2 1 · 3 · 5 m3
π 1 m
E(m) = 1− − − − ··· . (8.130)
2 2 1 2·4 3 2·4·6 5
Más adelante estas series son identificadas como funciones hipergeométricas, y tenemos
π 1 1
K(m) = 2 F1 , , 1; m (8.131)
2 2 2
π 1 1
E(m) = 2 F1 − , , 1; m (8.132)
2 2 2
diverge logarı́tmicamente, y por otra parte, la integral para E(m) tiene un lı́mite finito
lı́m E(m) = 1 . (8.136)
m→1
Las integrales elı́pticas han sido usadas ampliamente en el pasado para evaluar integrales.
Por ejemplo, integrales de la forma
Z x p
I= R(t, a4 t4 + a3 t3 + a2 t2 + a1 t + a0 ) dt ,
0
donde R es una función racional de t y del radical, pueden ser expresadas en términos de
integrales elı́pticas. Con los computadores actuales disponibles para una evaluación numérica
rápida y directa, el interés en estas técnicas de integrales elı́pticas ha declinado. Sin embargo,
las integrales elı́pticas mantienen su interés a causa de su apariencia en problemas en Fı́sica.
8.10. NÚMEROS DE BERNOULLI. 209
la cual es equivalente a
N
1 X 2N + 1
N− = B2n ,
2 n=1 2n
N −1 (8.143)
X 2N
N −1= B2n .
n=1
2n
5 x
La función puede ser considerada una función generatriz ya que genera los números de Bernoulli.
ex −1
210 CAPÍTULO 8. SERIES INFINITAS.
n Bn Bn
0 1 1.0000 00000
1 − 21 -0.5000 00000
1
2 6
0.1666 66667
1
3 − 30 -0.0333 33333
1
4 42
0.0238 09524
1
5 − 30 -0.0333 33333
5
6 66
0.0757 57576
A partir de la ecuación (8.143) los números de Bernoulli en la tabla 8.1 se obtienen rápida-
mente. Si la variable x en la ecuación (8.137) es remplazada por 2xi (y B1 elegido igual a
-1/2), obtenemos una definición alternativa (y equivalente) de B2n , la expresión
∞
X (2x)2n
x cot x = (−1)n B2n , −π < x < π . (8.144)
n=0
(2n)!
Esta representación de los números de Bernoulli fue descubierta por Euler. Es fácil ver a
partir de la ecuación (8.145) que |B2n | aumenta sin lı́mite cuando n → ∞. Ilustrando el
comportamiento divergente de los números de Bernoulli, tenemos
B20 = −5.291 × 102
B200 = −3.647 × 10215 .
Algunos autores prefieren definir los números de Bernoulli con una versión modificada de la
ecuación (8.145) usando
∞
2(2n)! X 1
B2n = , (8.146)
(2π)2n p=1 p2n
el subı́ndice es justo la mitad de nuestro subı́ndice original y todos los signos son positivos.
Nuevamente, se debe chequear cuidadosamente la definición que se está usando de los números
de Bernoulli.
Los números de Bernoulli aparecen frecuentemente en teorı́a de números. El teorema de
von Standt-Clausen establece que
1 1 1 1
B2n = An − − − − ··· − , (8.147)
p1 p2 p3 pk
8.10. NÚMEROS DE BERNOULLI. 211
definiendo las funciones de Bernoulli, Bn (s). Las primeras siete funciones de Bernoulli están
dadas en la tabla 8.2.
De la función generadora, ecuación (8.151),
Bn (0) = Bn , n = 1, 2, . . . . (8.152)
la función de Bernoulli evaluadas en cero es igual al correspondiente número de Bernoulli. Dos
propiedades particularmente importantes de las funciones de Bernoulli se deducen a partir
de la definición: una relación de diferenciación
Bn0 (s) = nBn−1 (s) , n = 1, 2, . . . . (8.153)
y una relación de simetrı́a
Bn (1) = (−1)n Bn (0) , n = 1, 2, . . . . (8.154)
Estas relaciones son usadas en el desarrollo de la fórmula de integración de Euler-Maclaurin.
212 CAPÍTULO 8. SERIES INFINITAS.
B0 = 1
B1 = x − 12
B2 = x2 − x + 16
B3 = x3 − 23 x2 + 21 x
1
B4 = x4 − 2x3 + x2 − 30
B5 = x5 − 25 x4 + 35 x2 − 61 x
B6 = x6 − 3x5 + 52 x4 − 21 x2 + 1
42
s ζ(s)
2 1.64493 40668
3 1.20205 69032
4 1.08232 32337
5 1.03692 77551
6 1.01734 30620
7 1.00834 92774
8 1.00407 73562
9 1.00200 83928
10 1.00099 45751
0.1 −s
2
ζ (s)−1
0.01
0.001
0.0001
0 2 4 6 8 10 12 14
s
Figura 8.10: Función zeta de Riemann, ζ(s) − 1, versus s.
∞
X (−1)n−1
η(s) = = (1 − 21−s )ζ(s) ,
n=1
ns
∞
X 1 1
λ(s) = = 1− s ζ(s) ,
n=0
(2n + 1)s 2
y
∞
X 1
β(s) = (−1)n .
n=0
(2n + 1)s
A partir de los números de Bernoulli o de las series de Fourier podemos determinar algunos
valores especiales
1 1 π2
ζ(2) = 1 + + + · · · =
22 32 6
1 1 π4
ζ(4) = 1 + + + ··· =
24 34 90
1 1 π2
η(2) = 1 − + − · · · =
22 32 12
1 1 7π 4
η(4) = 1 − + − ··· =
24 34 720
1 1 π2
λ(2) = 1 + + + ··· =
32 52 8
1 1 π4
λ(4) = 1 + + + ··· =
34 54 96
1 1 π
β(1) = 1 − + − ··· =
3 5 4
1 1 π3
β(3) = 1 − + − · · · =
33 53 32
La constante de Catalán
1 1
β(2) = 1 − 2
+ 2 − · · · = 0.9159 6559 . . . ,
3 5
6
Este es el punto de partida para la vasta aplicación de la función zeta de Riemann a la teorı́a de números.
216 CAPÍTULO 8. SERIES INFINITAS.
n−6
1 1 1 1
= 2 1− 2 + 4 −
1 + n2 n n n 1 + n−2
1 1 1 1
= 2− 4+ 6− 8 .
n n n n + n6
Por lo tanto
∞ ∞
X 1 X 1
= ζ(2) − ζ(4) + ζ(6) − .
n=1
1 + n2 n=1
n 8 + n6
Las funciones ζ son conocidas y el remanente de la series converge como n−6 . Claramente, el
proceso puede ser continuado hasta cuando uno desee. Usted puede hacer una elección entre
cuánta álgebra hará y cuánta aritmética hará el computador.
Otros métodos para mejorar la efectividad computacional están dadas al final de la sección
8.2 y 8.4.
donde la variable x aparece como el lı́mite inferior de una integral. Segundo, consideremos la
forma Z ∞ u
I2 (x) = e−u f du ,
0 x
con la función f expandible en serie de Taylor. Las series asintóticas a menudo ocurren como
solución de ecuaciones diferenciales. Un ejemplo de este tipo de series aparece como una de
las soluciones de la ecuación de Bessel.
8.12. SERIES ASINTÓTICAS O SEMI-CONVERGENTES. 217
o ∞
e−u
Z
− Ei(−x) = du = E1 (x) , (8.169)
x u
para ser evaluada para grandes valores de x. Mejor todavı́a, tomemos una generalización de
la función factorial incompleta (función gama incompleta),
Z ∞
I(x, p) = e−u u−p du = Γ(1 − p, x) , (8.170)
x
Esta es una serie notable. Chequeando la convergencia por la prueba de D’ Alembert, encon-
tramos
|un+1 | (p + n)! 1
lı́m = lı́m
n→∞ |un | n→∞ (p + n − 1)! x
(p + n) (8.173)
= lı́m
n→∞ x
=∞
para todos los valores finitos de x. Por lo tanto nuestras series son series infinitas que divergen
en todas partes!. Antes de descartar la ecuación (8.172) como inútil, veamos cuan bien una
suma parcial dada se aproxima a la función factorial incompleta, I(x, p).
Z ∞
n+1 (p + n)!
= (−1) e−u u−p−n−1 du = Rn (x, p) . (8.174)
(p − 1)! x
7
Esta función ocurre con frecuencia en problemas astrofı́sicos que involucran gases con una distribución
de energı́a de Maxwell-Boltzmann.
218 CAPÍTULO 8. SERIES INFINITAS.
En valor absoluto
Z ∞
(p + n)!
| I(x, p) − sn (x, p) | ≤ e−u u−p−n−1 du .
(p − 1)! x
0.19
sn (x=5)
0.1741
0.1704
0.17
0.1664
0.15
2 4 6 8 10
n
x
Figura 8.11: Sumas parciales de e E1 (x) .
x=5
∞
e−u
Z
x x
e E1 (x) = e du
x u (8.176)
1 1! 2! 3! n!
= sn (x) ≈ − 2 + 3 − 4 + · · · + (−1)n n+1 ,
x x x x x
8.12. SERIES ASINTÓTICAS O SEMI-CONVERGENTES. 219
la cual es evaluada en x = 5. Para un valor dado de x las sucesivas cotas superiores e inferiores
dadas por las sumas parciales primero convergen y luego divergen. La determinación óptima
de ex E1 (x) está dada por la aproximación más cercana de las cotas superiores e inferiores,
esto es, entre s4 = s6 = 0.1664 y s5 = 0.1741 para x = 5. Por lo tanto
x
0.1664 ≤ e E1 (x) ≤ 0.1741 . (8.177)
x=5
dentro de los lı́mites establecidos por nuestra expansión asintótica. Note cuidadosamente
que la inclusión de términos adicionales en la serie de expansión más allá del punto óptimo,
literalmente reduce la precisión de la representación.
Cuando aumentamos x, la diferencia entre la cota superior más baja y la cota inferior
más alta disminuirá. Tomando x suficientemente grande, uno podrı́a calcular ex E1 (x) para
cualquier grado de precisión deseado.
en el cual u = −iy/x. Los lı́mites de integración, 0 a ∞, a más que de 0 a −i∞, puede ser
justificado por el teorema de Cauchy. Racionalizando el denominador e igualando la parte
220 CAPÍTULO 8. SERIES INFINITAS.
1 ∞ −v X v 2n
Z
1 X (2n)!
f (x) ≈ e (−1)n 2n dv = (−1)n 2n
x 0 0≤n≤N
x x 0≤n≤N x
Z ∞ 2n+1
(8.184)
1 −v
X
nv 1 X n (2n + 1)!
g(x) ≈ 2 e (−1) 2n
dv = 2 (−1) 2n
.
x 0 0≤n≤N
x x 0≤n≤N
x
donde
a1 a2 an
+ 2 + ··· + n .
sn (x) = a0 + (8.187)
x x x
La expansión asintótica de f (x) tiene las propiedades que
8
La parte real.
9
No es necesario que las series asintóticas sean series de potencia.
8.13. PRODUCTOS INFINITOS. 221
y
lı́m xn Rn (x) = ∞ , para x fijo, (8.189)
n→∞
Vemos la ecuaciones (8.172) y (8.173) como un ejemplo de estas propiedades. Para series de
potencias, como las supuestas en la forma de sn (x), Rn (x) ∼ x−n−1 . Con condiciones (8.188)
y (8.189) satisfechas, escribimos
∞
X 1
f (x) ≈ an n . (8.190)
n=0
x
Notemos el uso de ≈ en lugar de =. La función f (x) es igual a la serie solamente en el lı́mite
cuando x → ∞.
Las expansiones asintóticas de dos funciones pueden ser multiplicadas entre sı́ y el resul-
tado será una expansión asintótica de un producto de dos funciones.
La expansión asintótica de una función dada f (t) puede ser integrada término a término
(justo como en una serie uniformemente convergente de una Rfunción continua) a partir de
∞
x ≤ t < ∞ y el resultado será una expansión asintótica de x f (t)dt. Una diferenciación
término a término, sin embargo, es válida solamente bajo condiciones muy especiales.
Algunas funciones no poseen una expansión asintótica; ex es un ejemplo de tales fun-
ciones. Sin embargo, si una función tiene una expansión asintótica, tiene solamente una.
La correspondencia no es uno a uno; muchas funciones pueden tener la misma expansión
asintótica.
Uno de los métodos más poderoso y útil de generar expansiones asintóticas, es el método
de steepest descents, será desarrollado más adelante. Las aplicaciones incluyen la derivación
de la fórmula de Stirling para la función factorial (completa) y las formas asintóticas de las
varias funciones de Bessel.
o a cero para
0 < lı́m fn < 1 , (8.195)
n→∞
1 + an ≤ ean . (8.197)
De la misma manera podemos esperar que una función con un número infinito de raı́ces
pueda ser escrito como un producto infinito, un factor para cada raı́z. Esto es por cierto el
caso de las funciones trigonométricas. Tenemos dos representaciones muy útiles en productos
infinitos,
∞
x2
Y
sen(x) = x 1− 2 2 , (8.204)
n=1
nπ
∞
4x2
Y
cos(x) = 1− . (8.205)
n=1
(2n − 1)2 π 2
La más conveniente y quizás la más elegante derivación de estas dos expresiones es usando
variable compleja. Por nuestro teorema de convergencia, las ecuaciones (8.204) y (8.205) son
convergentes para todos los valores finitos de x. Especı́ficamente, para el producto infinito
para el sen(x), an = x2 /n2 π 2 ,
∞ ∞
X x2 X 1 x2
an = 2 = ζ(2)
π n=1 n2 π2
n=1 (8.206)
x2
= .
6
La serie correspondiente a la ecuación (8.205) se comporta en una manera similar.
La ecuación (8.204) conduce a dos resultados interesantes. Primero, si fijamos x = π/2,
obtenemos ∞ ∞
π Y (2n)2 − 1
πY 1
1= 1− = . (8.207)
2 n=1 (2n)2 2 n=1 (2n)2
224 CAPÍTULO 8. SERIES INFINITAS.
Ecuaciones diferenciales.
versión final 2.1 7 de Julio del 20031
L(ψ) = F ,
donde F es una función conocida de una (para ODE) o más variables (para PDE), L es una
combinación lineal de derivadas, ψ es una función o solución desconocida. Cualquier combi-
nación lineal de soluciones es de nuevo una solución; esto es el principio de superposición.
1
Este capı́tulo está basado en el octavo capı́tulo del libro: Mathematical Methods for Physicists, fourth
edition de George B. Arfken & Hans J. Weber, editorial Academic Press.
2
Estamos especialmente interesados en operadores lineales porque en mecánica cuántica las cantidades
fı́sicas están representadas por operadores lineales operando en un espacio complejo de Hilbert de dimensión
infinita.
225
226 CAPÍTULO 9. ECUACIONES DIFERENCIALES.
Ya que la dinámica de muchos sistemas fı́sicos involucran sólo dos derivadas, e.g., la ace-
leración en mecánica clásica y el operador de energı́a cinética, ∼ ∇2 , en mecánica cuántica,
las ecuaciones diferenciales de segundo orden ocurren más frecuentemente en Fı́sica. [Las
ecuaciones de Maxwell y de Dirac son de primer orden pero involucran dos funciones des-
conocidas. Eliminando una incógnita conducen a una ecuación diferencial de segundo orden
por la otra.]
6. La ecuación del potencial escalar, ∂ 2 ψ = 4πρ. Como la ecuación de Poisson esta ecuación
es no homogénea con un término de fuente 4πρ.
10. Ecuaciones diferenciales parciales acopladas de Maxwell para los campos eléctricos y
magnéticos son aquellas de Dirac para funciones de ondas relativistas del electrón.
Algunas técnicas generales para resolver PDE de segundo orden son discutidas en esta
sección:
1. Separación de variables, donde el PDE es separada en ODEs que están relacionadas
por constantes comunes las cuales aparecen como autovalores de operadores lineales,
Lψ = lψ, usualmente en una variable. La ecuación de Helmholtz dada como ejemplo
3 anteriormente tiene esta forma, donde el autovalor k 2 puede surgir por la separación
del tiempo t respecto de las variables espaciales. Como en el ejemplo 8, la energı́a E es
el autovalor que surge en la separación de t respecto de ~r en la ecuación de Schrödinger.
2. Conversión de una PDE en una ecuación integral usando funciones de Green que se
aplica a PDE no homogéneas tales como los ejemplos 2 y 6 dados más arriba.
3. Otros métodos analı́ticos tales como el uso de transformadas integrales que serán desa-
rrolladas en el próximo curso.
(∇2 )2 ψ = 0 .
Afortunadamente, estas ecuaciones diferenciales de orden más altos son relativamente raras
y no son discutidas en una etapa introductoria como esta.
228 CAPÍTULO 9. ECUACIONES DIFERENCIALES.
Aunque no son tan frecuentemente encontrados y quizás no son tan importantes como
las ecuaciones diferenciales de segundo orden, las ecuaciones diferenciales de primer orden
aparecen en Fı́sica teórica y algunas veces son pasos intermedios para ecuaciones diferenciales
de segundo orden. Las soluciones de algunos de los tipos más importantes de ODE de primer
orden son desarrollados en la sección 9.2. Las PDEs de primer orden siempre pueden ser
reducidas a ODEs. Este es un proceso directo pero lento e involucra una búsqueda para las
caracterı́sticas que son presentadas brevemente más adelante.
∂2 ∂2 ∂2 ∂ ∂
L=a 2
+ 2b + c 2
+d +e +f , (9.2)
∂x ∂x∂y ∂y ∂x ∂y
la cual puede ser reducida a las formas canónicas (i), (ii), (iii) de acuerdo a si el discriminante
D = ac − b2 > 0, = 0 o < 0. Si ξ(x, y) es determinada a partir de la ecuación de primer
orden, pero no lineal, PDE
2 2
∂ξ ∂ξ ∂ξ ∂ξ
a + 2b +c =0, (9.3)
∂x ∂x ∂y ∂y
donde los términos de más bajo orden en L son ignorados, entonces los coeficientes de ∂ 2 /∂ξ 2
en L es cero (i.e., ecuación (9.3)). Si η es una solución independiente de la misma ecuación
(9.3), entonces el coeficiente de ∂ 2 /∂η 2 también es cero. El operador remanente ∂ 2 /∂ξ∂η en L
es caracterı́stico del caso hiperbólico (iii) con D < 0, donde la forma cuadrática aλ2 + 2bλ + c
es factorizable y, por lo tanto, la ecuación (9.3) tiene dos soluciones independientes ξ(x, y),
η(x, y). En el caso elı́ptico (i) con D > 0 las dos soluciones ξ, η son complejos conjugados los
cuales, cuando se sustituyeron en la ecuación (9.2), remueven la derivada de segundo orden
mezclada en vez de los otros términos de segundo orden produciendo la forma canónica (i).
En el caso parabólico (ii) con D = 0, solamente ∂ 2 /∂ξ 2 permanece en L, mientras que los
coeficientes de las otras dos derivadas de segundo orden se anulan.
Si los coeficientes a, b, c en L son funciones de las coordenadas, entonces esta clasificación
es solamente local, i.e., su tipo podrı́a cambiar cuando las coordenadas varı́an.
Ilustremos la fı́sica implı́cita en el caso hiperbólico mirando la ecuación de onda (en 1 +
1 dimensiones por simplicidad)
1 ∂2 ∂2
− ψ=0. (9.4)
c2 ∂t2 ∂x2
9.1. ECUACIONES DIFERENCIALES PARCIALES 229
∂ψ ∂ψ
+c =0,
∂t ∂x
como la PDE de primer orden a partir de la caracterı́stica de la ecuación de onda. La ecuación
de onda no lineal más simple
∂ψ ∂ψ
+ c(ψ) =0, (9.10)
∂t ∂x
resulta si la velocidad local de propagación, c, no es constante sino que depende de la onda ψ.
Cuando una ecuación no lineal tiene una solución de la forma ψ(x, t) = A cos(kx − ωt), donde
ω(k) varı́a con k tal que ω 00 (k) 6= 0, entonces ella es llamada dispersiva. Quizás la ecuación
dispersiva no lineal más conocida de segundo orden es la ecuación de Korteweg-de Vries
∂ψ ∂ψ ∂ 3 ψ
+ψ + =0, (9.11)
∂t ∂x ∂x3
la cual modela la propagación sin pérdidas de las ondas de agua superficiales y otros fenóme-
nos. Esta es ampliamente conocida por sus soluciones solitón. Un solitón es una onda viajera
con la propiedad de persistir a través de una interacción con otro solitón: después de que
ellos pasan uno a través del otro, ellos emergen en la misma forma y con la misma velocidad
y no adquieren más que un cambio de fase. Sea ψ(ξ = x − ct) tal onda viajera. Cuando es
sustituida en la ecuación (9.11) esta produce la ODE no lineal
dψ d3 ψ
(ψ − c) + 3 =0, (9.12)
dξ dξ
d2 ψ ψ2
= cψ − . (9.13)
dξ 2 2
No hay constantes de integración aditivas en la ecuación (9.13) para asegurar que se satisfaga
la condición d2 ψ/dξ 2 → 0 con ψ → 0 para ξ grande, tal que ψ está localizado en la carac-
terı́stica ξ = 0, o x = ct. Multiplicando la ecuación (9.13) por dψ/dξ e integrando nuevamente
tenemos 2
dψ ψ3
= cψ 2 − , (9.14)
dξ 3
donde dψ/dξ → 0 para ξ grande. Tomando la raı́z de la ecuación (9.14) e integrando una vez
más encontramos la solución solitónica
3c
ψ(x − ct) = . (9.15)
√ x − ct
2
cosh c
2
9.2. ECUACIONES DIFERENCIALES DE PRIMER ORDEN. 231
Un resumen de las relaciones de estos tres tipos de condiciones de borde con los tres tipos
de ecuaciones diferenciales parciales bidimensionales están dadas en la tabla 9.1. Para discu-
siones más extensas de estas ecuaciones diferenciales parciales puede consultar Sommerfeld,
capı́tulo 2, o Morse y Feshbach, capı́tulo 6.
Partes de la tabla 9.1 son simplemente un asunto de mantener la consistencia interna, o
sentido común. Por ejemplo, para la ecuación de Poisson con una superficie cerrada, las con-
diciones de Dirichlet conducen a una solución única y estable. Las condiciones de Neumann,
independiente de las condiciones de Dirichlet, del mismo modo conducen a una solución única
y estable independiente de la solución de Dirichlet. Por lo tanto las condiciones de borde de
Cauchy (lo que significa la de Dirichlet más la de Neumann) conducen a una inconsistencia.
El término de condiciones de borde incluye como un caso especial el concepto de condi-
ciones iniciales. Por ejemplo, especificando la posición inicial x0 y la velocidad inicial v0 en
algunos problemas de dinámica corresponderı́a a condiciones de borde de Cauchy. La única
diferencia en el presente uso de las condiciones de borde en estos problemas unidimensionales
es que estamos aplicando las condiciones en ambos extremos del intervalo permitido de la
variable.
dy P (x, y)
= f (x, y) = − . (9.16)
dx Q(x, y)
232 CAPÍTULO 9. ECUACIONES DIFERENCIALES.
Cuadro 9.1:
La ecuación (9.16) es claramente una ecuación de primer orden ordinaria. Es de primer orden
ya que contiene la primera derivada y no mayores. Es Ordinaria ya que la derivada dy/dx
es una derivada ordinaria o total. La ecuación (9.16) puede o no puede ser lineal, aunque
trataremos el caso lineal explı́citamente más adelante.
Ya que los lı́mites inferiores x0 e y0 contribuyen en unas constantes, podrı́amos ignorar los
lı́mites inferiores de integración y simplemente añadir una constante de integración al final.
9.2. ECUACIONES DIFERENCIALES DE PRIMER ORDEN. 233
Note que esta técnica de separación de variables no requiere que la ecuación diferencial sea
lineal.
dV V
=− ,
dP P
para el volumen V de una cantidad fija de gas a presión P (y temperatura constante). Sepa-
rando variables, tenemos
dV dP
=−
V P
o
ln V = − ln P + C .
Con dos logaritmos presentes, es más conveniente reescribir la constante de integración C
como ln k. Entonces
ln V + ln P = ln P V = ln k
y
PV = k .
Esta ecuación se dice que es exacta si podemos calzar el lado izquierdo de ella a un diferencial
dϕ,
∂ϕ ∂ϕ
dϕ = dx + dy . (9.20)
∂x ∂y
Ya que la ecuación (9.19) tiene un cero a la derecha, buscamos una función desconocida
ϕ(x, y) = constante, tal que dϕ = 0. Tenemos (si tal función ϕ(x, y) existe)
∂ϕ ∂ϕ
P (x, y)dx + Q(x, y)dy = dx + dy (9.21)
∂x ∂y
y
∂ϕ ∂ϕ
= P (x, y) , = Q(x, y) . (9.22)
∂x ∂y
La condición necesaria y suficiente para que la ecuación sea exacta es que la segunda derivada
parcial mezclada de ϕ(x, y) (supuesta continua) es independiente del orden de diferenciación:
Si la ecuación (9.19) corresponde a un rotor (igual cero), entonces un potencial, ϕ(x, y),
debiera existir.
Si ϕ(x, y) existe entonces a partir de las ecuaciones (9.19) y (9.21) nuestra solución es
ϕ(x, y) = C . (9.24)
Podemos construir ϕ(x, y) a partir de sus derivadas parciales de la misma manera que cons-
truimos un potencial magnético vectorial en el capı́tulo de vectores a partir de su rotor.
Podemos volver a la ecuación (9.19) y ver qué pasa si no es exacta: la ecuación (9.23) no
es satisfecha. Sin embargo, siempre existe al menos una o quizás una infinidad de factores de
integración, α(x, y), tales que
Las constantes a partir del lı́mite inferior de integración constante son reunidas en la constante
C. Dividiendo por α(x), obtenemos
Z x
1 0 0 0
y(x) = α(x )q(x ) dx + C .
α(x)
Finalmente, sustituyendo en la ecuación (9.29) por α conduce
Z x Z x Z s
y(x) = exp − p(t) dt exp p(t) dt q(s) ds + C . (9.30)
Aquı́ las variables mudas de integración han sido reescritas para hacerlas inambiguas. La
ecuación (9.30) es la solución general completa de la ecuación diferencial lineal, de primer
orden, la ecuación (9.25). La porción
Z x
y1 (x) = C exp − p(t) dt (9.31)
dI(t)
L + RI(t) = V (t) ,
dt
con la constante C es determinada por una condición inicial (una condición de borde).
Para el caso especial V (t) = V0 , una constante,
−Rt/L V0 L Rt/L
I(t) = e e +C
LR
V0
= + Ce−Rt/L .
R
V0
1 − e−Rt/L .
I(t) =
R
Como una ecuación integral hay una posibilidad de una solución en serie de Neumann (se
verá en el próximo curso) con la aproximación inicial y(x) ≈ y(x0 ). En la literatura de
ecuaciones diferenciales esto es llamado el “método de Picard de aproximaciones sucesivas”.
Ecuaciones diferenciales de primer orden las encontraremos de nuevo en conexión con las
transformadas de Laplace y de Fourier.
9.3. SEPARACIÓN DE VARIABLES. 237
usando la forma cartesiana para el Laplaciano. Por el momento, k 2 será una constante. Quizás
la manera más simple de tratar una ecuación diferencial parcial tal como la ecuación (9.34)
es dividirla en un conjunto de ecuaciones diferenciales ordinarias. Esto puede ser hecho como
sigue. Sea
ψ(x, y, z) = X(x)Y (y)Z(z) , (9.35)
y sustituir de vuelta en la ecuación (9.34). ¿Cómo sabemos que la ecuación (9.35) es válida?.
La respuesta es muy simple: ¡No sabemos si es válida!. Mejor dicho, estamos procediendo en
este espı́ritu y tratando de ver si trabaja. Si nuestro intento es exitoso, entonces la ecuación
(9.35) será justificada. Si no es exitoso, lo descubriremos pronto y luego trataremos otro
ataque tal como las funciones de Green, transformadas integral, o análisis numérico a la
fuerza bruta. Con ψ supuestamente dada por la ecuación (9.35), la ecuación (9.34) llega a ser
d2 X d2 Y d2 Z
YZ + XZ + XY + k 2 XY Z = 0 . (9.36)
dx2 dy 2 dz 2
1 d2 X 2 1 d2 Y 1 d2 Z
= −k − − . (9.37)
X dx2 Y dy 2 Z dz 2
La ecuación (9.37) exhibe una separación de variables. El lado izquierdo es sólo función de x,
mientras que el lado derecho depende solamente de y y z. Ası́ la ecuación (9.37) es una clase
de paradoja. Una función de x es igualada a una función de y y z, pero x, y y z son todas
coordenadas independientes. Esta independencia significa que el comportamiento de x como
una variable independiente no está determinada ni por y ni por z. La paradoja está resuelta
fijando cada lado igual a una constante, una constante de separación. Escogemos3
1 d2 X
= −l2 , (9.38)
X dx2
3
La elección de signo es completamente arbitraria, será fijada en un problema especı́fico por la necesidad
de satisfacer las condiciones de borde.
238 CAPÍTULO 9. ECUACIONES DIFERENCIALES.
1 d2 Y 1 d2 Z
− k2 − 2
− 2
= −l2 . (9.39)
Y dy Z dz
Ahora, volviendo nuestra atención a la ecuación (9.39), obtenemos
1 d2 Y 2 2 1 d2 Z
= −k + l − , (9.40)
Y dy 2 Z dz 2
y una segunda separación ha sido realizada. Aquı́ tenemos una función de y igualada a una
función de z y aparece la misma paradoja. La resolvemos como antes igualando cada lado a
otra constante de separación, −m2 ,
1 d2 Y
= −m2 , (9.41)
Y dy 2
1 d2 Z
= −k 2 + l2 + m2 = −n2 , (9.42)
Z dz 2
introduciendo una constante n2 por k 2 = l2 + m2 + n2 para producir un conjunto simétrico de
ecuaciones. Ahora tenemos tres ecuaciones diferenciales ordinarias ((9.38), (9.41), y (9.42))
para reemplazar en la ecuación (9.34). Nuestra suposición (ecuación (9.35)) ha sido exitosa
y es por lo tanto justificada.
Nuestra solución serı́a etiquetada de acuerdo a la elección de nuestras constantes l, m, n,
esto es,
ψlmn (x, y, z) = Xl (x)Ym (y)Zn (z) . (9.43)
Sujeto a las condiciones del problema que se resuelve y a la condición k 2 = l2 + m2 + n2 ,
podemos escoger l, m, n como queramos, y la ecuación (9.43) será todavı́a una solución de la
ecuación (9.34), dado que Xl (x) es una solución de la ecuación (9.38) y ası́ seguimos. Podemos
desarrollar la solución más general de la ecuación (9.34) tomando una combinación lineal de
soluciones ψlmn , X
Ψ= almn ψlmn . (9.44)
l,m,n
Los coeficientes constantes almn finalmente son escogidos para permitir que Ψ satisfaga las
condiciones de borde del problema.
o
1 ∂2ψ ∂2ψ
1 ∂ ∂ψ
ρ + + 2 + k2ψ = 0 . (9.46)
ρ ∂ρ ∂ρ ρ2 ∂ϕ2 ∂z
Como antes, suponemos una forma factorizada para ψ,
4
La elección del signo de la constante de separación es arbitraria. Sin embargo, elegimos un signo menos
para la coordenada axial z en espera de una posible dependencia exponencial en z. Un signo positivo es
elegido para la coordenada azimutal ϕ en espera de una dependencia periódica en ϕ.
240 CAPÍTULO 9. ECUACIONES DIFERENCIALES.
Una vez más hemos reemplazado una ecuación diferencial parcial de tres variables por tres
ecuaciones diferenciales ordinarias. Las soluciones de estas tres ecuaciones diferenciales or-
dinarias son discutidas en el próximo curso. Por ejemplo, la ecuación (9.64) es identificada
como la ecuación de asociada de Legendre en la cual la constante Q llega a ser l(l + 1); con l
entero. Si k 2 es una constante (positiva), la ecuación (9.65) llega a ser la ecuación de Bessel
esférica.
Nuevamente, nuestra solución más general puede ser escrita
X
ψQm (r, θ, ϕ) = RQ (r)ΘQm (θ)Φm (ϕ) . (9.66)
q,m
d2 y dy
x 2
+ (1 + k − x) + αy = 0 . (9.71)
dx dx
De la teorı́a de la mecánica cuántica del oscilador armónico lineal tenemos la ecuación de
Hermite,
d2 y dy
2
− 2x + 2αy = 0 . (9.72)
dx dx
Finalmente, de vez en vez encontramos la ecuación diferencial de Chebyshev
d2 y dy
(1 − x2 ) 2
− x + n2 y = 0 . (9.73)
dx dx
Para una referencia conveniente, las formas de la solución de la ecuación de Laplace, la ecua-
ción de Helmholtz y la ecuación de difusión en coordenadas polares esféricas son resumidas
en la tabla 9.2. Las soluciones de la ecuación de Laplace en coordenadas circulares cilı́ndricas
son representadas en la tabla 9.3.
X
ψ= alm ψlm
l,m
2 rl Plm (cos θ) cos mϕ
1. ∇ ψ=0 ψlm =
r−l−1 Qm
l (cos θ) sen mϕ
2 2 jl (kr) Plm (cos θ) cos mϕ
2. ∇ ψ+k ψ =0 ψlm =
nl (kr) Qm
l (cos θ) sen mϕ
il (kr) Plm (cos θ) cos mϕ
3. ∇2 ψ − k 2 ψ = 0 ψlm =
kl (kr) Qm
l (cos θ) sen mϕ
X
ψ= amα ψmα , ∇2 ψ = 0
m,α
e−αz
Jm (αρ) cos mϕ
a. ψmα =
Nm (αρ) sen mϕ eαz
Im (αρ) cos mϕ cos αz
b. ψmα =
Km (αρ) sin mϕ sen αz
α = 0 (no hay ρm cos mϕ
c. ψm =
dependencia en z) ρ−m sen mϕ