01 - (33pags) Nociones Basicas Calculo Tensorial (Apéndice)
01 - (33pags) Nociones Basicas Calculo Tensorial (Apéndice)
01 - (33pags) Nociones Basicas Calculo Tensorial (Apéndice)
A.1. Introducción
El concepto de tensor tiene su origen en la evolución de la geometría diferencial de Gauss, Rie-
mann y Christoffel. La necesidad del cálculo tensorial, conocido también como cálculo diferencial
absoluto, como rama sistemática de la matemática, se debe a Ricci y a su discípulo Levi-Civita, que
publicaron en colaboración el primer trabajo sobre esta materia: Métodos del cálculo diferencial ab-
soluto y sus aplicaciones, en "Mathematische Annalen", vol.54 (1901).
El objeto principal del cálculo tensorial es la investigación de las relaciones que permanecen
invariantes cuando se cambia de un sistema de coordenadas a otro. Las leyes de la física no pueden
depender del sistema de referencia que elija el físico con fines descriptivos. Por eso, es estéticamente
deseable y muchas veces conveniente, utilizar el cálculo tensorial como fundamento matemático en
que se puedan formular tales leyes. Einstein, en particular, lo consideró un excelente instrumento para
la presentación de su teoría general de la relatividad.
El cálculo tensorial alcanzó gran importancia y es hoy día indispensable en sus aplicaciones en la
mayoría de las ramas de la física teórica.
n
a1 b j c1 + a 2 b j c2 + · · · + a n b j cn = ∑ ai b j ci
i=1
En el cálculo tensorial aparecen con mucha frecuencia sumas del tipo de los dos ejemplos anteriores
en que la suma se verifica respecto de dos subíndices repetidos de su término general. En este caso es
cómodo y abrevia mucho la escritura convenir que, para tales subíndices, se suprimirá el símbolo de
la suma, estableciendo así el siguiente convenio:
Cuando en una expresión monomia figuren dos subíndices repetidos, se entenderá que se trata de
una suma en la que los subíndices repetidos van sumados de 1 a n.
157
158 APÉNDICE A. NOCIONES BÁSICAS SOBRE CÁLCULO TENSORIAL
La letra n hace referencia a la dimensión del espacio y su valor resulta siempre claro del tema que
se está tratando. Es conveniente ser cuidadoso porque cuando no se quiera expresar la suma habrá que
indicarlo explícitamente.
Usando el convenio de Einstein los ejemplos anteriores se escribirían como:
n
∑ ai bi = a i bi
i=1
n
∑ ai b j ci = a i b j ci
i=1
Dicho de otra manera, cuando un sacacorchos girando del primer vector al segundo por el
menor ángulo avanza en la dirección y sentido del tercer vector. Este tipo de sistema también es
llamado en ocasiones diestro o dextrógiro.
Inverso: Se trata del caso opuesto al anterior. Ahora tenemos:
o si un sacacorchos girando del primer vector al segundo por el menor ángulo avanza en la
misma dirección pero sentido opuesto al del tercer vector. Este tipo de sistema también es
conocido con el nombre de levógiro.
Consideremos un sistema de coordenadas cartesianas ortogonales (x, y, z) con el origen en el punto
inicial del vector~v. El sistema se orienta de tal forma que cumpla la condición de sistema de referencia
directo. El vector ~v queda representado por una terna ordenada de números reales
~v = (v1 , v2 , v3 )
donde v1 , v2 y v3 son respectivamente las proyecciones del segmento rectilíneo correspondiente a
~v, sobre los ejes x,y y z, como se puede observar en la figura .
Una descripción alternativa del vector ~v se obtiene introduciendo los vectores unitarios e~1 , e~2 y e~3 ,
a lo largo de los ejes x,y y z. Estos vectores unitarios se conocen como los vectores unidad cartesianos.
También suelen representarse por ~i, ~j y ~k. En función de ellos, el vector ~v queda representado por la
combinación lineal:
~v = v1 e~1 + v2 e~2 + v3 e~3 (A.1)
donde v1 , v2 y v3 se conocen como las componentes cartesianas del vector ~v.
1 Este producto será definido más adelante en la sección A.4 (Algunos productos de vectores)
A.4. ALGUNOS PRODUCTOS DE VECTORES 159
~ei · ~e j = δi j (A.3)
donde δi j se denomina símbolo de kronecker 2 y se define por:
1 si i = j
δi j =
0 si i 6= j
Si expresamos los vectores ~u y ~v en función de sus componentes cartesianas -ver la ecuación
(A.1)- y tenemos en cuenta las relaciones anteriores, obtenemos que
~u ·~v = ui v j (~ei · ~e j ) = ui v j δi j
2 También llamada matriz unidad de dimensión 3x3 (I) o tensor unidad de orden dos.
160 APÉNDICE A. NOCIONES BÁSICAS SOBRE CÁLCULO TENSORIAL
Usando las dos últimas ecuaciones podemos expresar el producto escalar como:
~u ·~v = ui vi (A.4)
Si tenemos en cuenta que los vectores también pueden escribirse como matrices columna:
u1 0 0 u1
~u = 0 ~e1 + u2 ~e2 + 0 ~e3 = u2 (A.5)
0 0 u3 u3
Definición Analítica. Para obtener la expresión del producto vectorial en función de las com-
ponentes debemos proceder de forma análoga a como lo hicimos con el producto escalar. Dado
que los vectores e~1 , e~2 y e~3 son ortogonales y que forman un triedro directo, se cumplen las
siguientes relaciones:
3 Se definirá más adelante.
A.4. ALGUNOS PRODUCTOS DE VECTORES 161
Figura A.2: Vector resultante de hacer el producto vectorial de los vectores ~u y ~v.
Figura A.3: Representación del paralelepípedo construido sobre los vectores ~u, ~v y ~w.
Definición geométrica. En virtud de las definiciones geométricas del producto escalar y del
producto vectorial expresadas en las ecuaciones (A.2) y (A.7) respectivamente, obtenemos que:
donde β es el ángulo formado por los vectores ~v y ~w; y α es el ángulo que forma el vector ~u con
la normal al plano formado por los vectores ~v y ~w (ver figura ).
Gráficamente ~u · (~v ∧ ~w) representa el volumen de un paralelepípedo de lados u,v y w.
Definición analítica. Teniendo en cuenta las definiciones de producto escalar y producto vecto-
rial dadas por las ecuaciones (A.4) y (A.9), podemos expresar el producto mixto como sigue:
Como todos los subíndices que aparecen en la última expresión se contraen debido a la suma
(convenio de Einstein), son simples subíndices mudos, de manera que podemos cambiarles las
letras. Teniendo en cuenta esto, el producto mixto queda como:
De forma análoga a como lo hicimos con el producto vectorial, podemos expresar el producto
mixto de tres vectores ~u, ~v y ~w como el desarrollo del determinante
u1 u2 u3
~u · (~v ∧ ~w) = v1 v2 v3 (A.13)
w1 w2 w3
En virtud de esta manera de expresar el producto mixto de tres vectores como el determinante
formado por las componentes cartesianas de dichos vectores, podemos generalizar y expresar el de-
terminante de una matriz genérica A en función de los elementos de matriz:
Pero esta no es más que una de las posibles formas de expresar el determinante. También se podría
haber escrito:
|A| = εi jk a2i a3 j a1k = εi jk a3i a1 j a2k = −εi jk a1i a3 j a2k = · · · (A.15)
Una expresión general que engloba a todas las posibles combinaciones es:
|A| = εlmn εi jk ali am j ank (sin sumar sobre l,m y n.) (A.16)
Si hacemos la suma sobre l,m y n nos daremos cuenta de que estamos sumando seis veces el
mismo término, de manera que la ecuación general anterior se puede expresar usando el convenio de
Einstein de la siguiente forma:
1
|A| = εi jk εlmn ail a jm akn . (A.17)
6
~u · (~v ∧ ~w) = 0 ⇐⇒ ~u, ~v y ~w son coplanarios (si |~u|, |~v| y |~w| 6= 0).
Al contraer el producto diádico con un vector ~w resulta otro vector que tiene la dirección de ~u si
se contrae por la derecha -ecuación (A.18)- y de ~v si se contrae por la izquierda -ecuación (A.19)-.
A ~ei ⊗~e j se les denomina diadas unitarias. El concepto de diada es una generalización del concepto
de vector. Las componentes de la diada pueden representarse por los nueves coeficientes de una matriz
cuadrada 3 × 3. Una generalización de las diadas dará lugar a las poliadas, de 3 N componentes.
En efecto,
~u ⊗~v = ui v j (~ei ⊗~e j ) 6= vk ul (~ek ⊗~el ) =~v ⊗~u (A.29)
A.5. TRANSFORMACIONES ORTOGONALES DE EJES CARTESIANOS 165
Figura A.4: Dos sistemas de referencia cartesianos girados uno respecto al otro pero con un origen
común.
~v = vi~ei (A.30)
mientras que el sistema 2 (con prima) es el formado por {O,~e 1 0 ,~e2 0 ,~e3 0 }, en el que un vector cualquiera
se expresa como combinación lineal de estos vectores como:
Para poder determinar las coordenadas del sistema 1 a partir de las coordenadas del sistema 2,
necesitamos conocer las componentes de los vectores básicos de un sistema en función de la base del
otro. Por ejemplo, el vector ~ei 0 de la base 2 (con prima) referido a la base 1 (sin prima) se expresa
como:
~ei 0 = λi j ~e j (A.32)
donde λi j son los cosenos directores. Usando la ecuación (A.30) podemos expresar un vector genérico
~v como:
~v = vi~ei
pero haciendo uso de la ecuación (A.31) podemos expresar el mismo vector haciendo referencia
a otra base:
~v = v0j ~e j 0
166 APÉNDICE A. NOCIONES BÁSICAS SOBRE CÁLCULO TENSORIAL
y como se trata del mismo vector, ~v, podemos igualar las dos expresiones anteriores:
vi = v0j λ ji (A.34)
que nos da la relación de las coordenadas de un vector genérico en un sistema con las correspondientes
a otro sistema girado respecto a éste.
La transformación inversa se otiene multiplicando escalarmente por ~e j 0 la expresión A.33, siendo
el resultado
v0j = λ ji vi (A.35)
Como ambas bases son ortonormales, se cumple que:
~ei · ~e j = δi j (A.36)
~ei 0 · ~e j 0 = δi j (A.37)
Sustituyendo la ecuación (A.32) en la ecuación (A.37) obtenemos
δi j = ~ei 0 · ~e j 0 = (λik ~ek ) · (λ jl~el ) = λik λ jl ~ek ·~el = λik λ jl δkl = λik λ jk
que nos recuerda a la expresión en componentes del producto de dos matrices. El resultado, según
corresponde, será una matriz de orden 3 × 3. La delta de Kronecker δ i j puede entenderse como la
expresión en componentes de la matriz unidad de orden 3 × 3, en la que los elementos de la diagonal
(i = j) valen 1 y el resto (i 6= j) vale 0. Por tanto, la ecuación (A.39) se escribe en forma matricial
como:
Λ Λt = I (A.40)
Observando esta última ecuación bajo la perspectiva de las propiedades matriciales, se hace evidente
que la matriz Λt es la inversa de Λ, por tanto se cumple que:
Λt ≡ Λ−1 (A.41)
En componentes
Λ−1
i j = Λ ji (A.42)
En definitiva, podemos concluir que la matriz Λ es ortogonal.
A.6. INVARIANTES 167
~ei 0 = λi j ~e j (A.43)
~ei = λ−1 e j 0 = λ ji ~e j 0
ij ~ (A.44)
Según la transformación sufrida por una magnitud tras una rotación, podemos introducir las sigu-
ientes definiciones: Una magnitud V cuyas componentes, tras una rotación del sistema de coorde-
nadas, se transforman de la forma
0
vi = λ i j v j (A.45)
es un tensor de rango uno.
Una magnitud T cuyas componentes, tras una rotación del sistema de coordenadas, se transforman
de la forma
0
Ti j = λik λ jl Tkl (A.46)
es un tensor de rango dos. El tensor T puede expresarse en función de las diadas unitarias
Por generalización, un tensor T de rango n es una magnitud que tiene 3 n componentes y que bajo
una transformación ortogonal sufre el siguiente cambio:
0
Ti1i2...iN = λi1 j1 λi2 j2 · · · λiN jN T j1 j2... jN (A.48)
Las diadas y poliadas unitarias constituyen la base de los tensores de rango dos y N respectivamente.
A.6. Invariantes
La mayor parte de las condiciones de simetría espacial recaen sobre las magnitudes que aparecen
en las leyes físicas, pues deben poder expresar toda la variedad de sistemas y de leyes que existen.
En esta sección nos centraremos en la invariancia frente a cambios de sistemas de referencia
ortogonales de los tensores y de los productos escalar, vectorial y diádico.
Consideremos dos sistemas de referencia con el mismo origen pero girado uno respecto al otro.
Vamos a realizar una transformación ortogonal para poner de manifiesto que los productos escalar,
vectorial y diádico son invariantes frente a cambios de sistemas de referencia. Vamos a denotar por u i
0 0
y vi a las componentes de los vectores ~u y~v en un sistema de referencia, y por u j y v j a las componentes
en el otro sistema de referencia.
Tensores de orden cero. Los tensores isótropos de orden cero son los escalares.
Tensores de orden dos. Los tensores isótropos de orden dos son de la forma Λ i j = αδi j , siendo
α una constante.
La transformación de δ0i j en una rotación de ejes será:
Tensores de orden tres. Los tensores de orden tres son de la forma Λ i jk = βεi jk , donde β es una
constante.
Un ejemplo de tensor isótropo de orden tres es el símbolo de Levi-Civita, ε i jk , que como ya
hemos visto es usado en la definición del producto vectorial. Basándonos en la invariancia del
producto vectorial, podemos concluir afirmando que dicho símbolo tiene que ser forzosamente
invariante.
Veamos ahora una demostración más detallada. Queremos evidenciar que la forma de ε i jk es la
misma que la de λil λ jm λkn εlmn .
La expresión que relaciona al tensor de Levi-Civita en dos sistemas de referencia distintos es:
que es precisamente la forma que tiene ε i jk . Por tanto, vemos que ε0i jk tiene la misma forma que
εi jk , lo que demuestra la invariancia.
T = Ti j~ei ⊗ ~e j
~u = uk ~ek (A.79)
Se denomina autoanálisis del tensor T al estudio de las soluciones de la ecuación
La condición necesaria y suficiente para que este sistema homogéneo tenga solución distinta de la
trivial (~u = 0) es que el determinante de sus coeficientes sea cero:
I3 − I2 λ + I1 λ2 − λ3 = 0 (A.83)
De esta ecuación extraeremos tres soluciones, λ (1) , λ(2) y λ(3) que podrán ser, en general, una real y las
otras dos complejas conjugadas. A partir de estos autovalores podremos calcular las direcciones prin-
cipales o autovectores ~u. Esto se entenderá mejor viendo el ejemplo del final de la sección Invariantes
del tensor de segundo orden.
En el caso real y simétrico los tres autovalores serán reales y los autovectores correspondientes a
autovalores distintos serán ortogonales.
Los autovectores los podemos elegir de forma que constituyan una base ortonormal, {~v (1) ,~v(2) ,~v(3) }.
Si se cumple
~v(1) · (~v(2) ∧~v(3) ) = 1
entonces {~v(1) ,~v(2) ,~v(3) } forman una base ortonormal directa y son el sistema de ejes principales del
tensor T . En el sistema de ejes principales el tensor es diagonal. Cuando nos refiramos al tensor T en
el sistema de ejes principales lo denotaremos por T ∗ .
Lo que hemos conseguido es una nueva base donde el tensor es diagonal. Vamos a demostrarlo:
Si se tiene
T = Ti j~ei ⊗~e j (A.84)
entonces la componente Ti j puede obtenerse como
Ti j =~ei · T ·~e j =~ei · (Tkl~ek ⊗~el ) ·~e j = Tkl (~ei ·~ek ) (~el ·~e j ) = Tkl δik δl j = Ti j (A.85)
λ(1) 0 0
T ∗ = 0 λ(2) 0 (A.90)
0 0 λ(3)
Invariante cuadrático. Mediante un argumento análogo al anterior vemos que esta cantidad es
un invariante.
T11 T12 T T T T
I2 = + 11 13 + 22 23 =
T21 T22 T31 T33 T32 T33
1
= (Tii T j j − Ti j T ji ) =
2
= λ(1) λ(2) + λ(1) λ(3) + λ(2) λ(3) (A.92)
Invariante cúbico. Esta cantidad es un invariante ya que coincide con el valor de la traza de T ,
que es un escalar verdadero.
Queremos reducirlo a la forma diagonal por una transformación ortogonal. La ecuación característica
o secular es
1−σ −4 6
−4 −3 − σ −2 = −σ3 + 63σ + 162 = 0 (A.95)
6 −2 2−σ
cuyas raices son
σ1 = −3
σ2 = 9
σ3 = −6
Por tanto, la forma diagonal buscada es
−3 0 0
Ai j = 0 9 0 (A.96)
0 0 −6
La transformación ortogonal que nos permite pasar de una base a otra se obtiene resolviendo los
sistemas:
Para σ1 = −3:
4α − 4β + 6γ = 0
−4α − 2γ = 0
6α − 2β + 5γ = 0
cuya solución en función de α es
γ = −2α
β = −2α
De donde se obtiene el autovector (ya normalizado):
1
~u1 = (−1 , 2 , 2)
3
Para σ2 = 9:
−8α − 4β + 6γ = 0
−4α − 12β − 2γ = 0
6α − 2β − 7γ = 0
cuya solución en función de β es
α = −2β
γ = −2β
De donde se obtiene el autovector (ya normalizado):
1
~u2 = (2 , −1 , 2)
3
Para σ3 = −6:
7α − 4β + 6γ = 0
−4α + 3β − 2γ = 0
6α − 2β + 8γ = 0
174 APÉNDICE A. NOCIONES BÁSICAS SOBRE CÁLCULO TENSORIAL
Ahora bien, para que esta transformación esté definida correctamente es necesario que sea invert-
ible. Es decir, debe ser posible escribir tanto la relación (A.97) como:
0
xi ≡ xi (x j ) (A.98)
Para que esto ocurra es necesario y suficiente que el jacobiano de la transformación sea diferente
de cero en todos los puntos.Se llama jacobiano al determinante de la matriz jacobiana. Por su parte,
la matriz jacobiana no era más que la matriz que relacionaba unas variables con otras a través de
las derivadas parciales. Por tanto, la condición necesaria y suficiente para que la transformación sea
invertible es:
0
∂xi
J= 6= 0 (A.99)
∂x j
De forma más explícita podemos escribir la expresión (A.99) como:
∂x1 ∂x1 ∂x1
0 0 ··· ∂x0n
∂x1 ∂x2
∂x2 ∂x2 ∂x2
0 0 ··· ∂x0n
∂x1 ∂x2
J= .. .. .. .. 6= 0
. . . .
∂xn ∂xn ∂xn
0 0 ··· ∂x0n
∂x1 ∂x2
Visto esto, cabe cuestionarse la manera de expresar de forma más genérica los escalares, los vec-
tores, los tensores, etc.
En primer lugar construyamos la magnitud que vamos a usar como referencia para definir un
vector: 0
0 ∂x
dxi = i dx j (A.100)
∂x j
Cualesquiera tres magnitudes que en la transformación dada por (A.97) se transforman como la
cantidad dx0i se dice que forman un vector contracovariante. Pues bien, a las componentes de este tipo
A.11. TENSORES EN COORDENADAS CURVILÍNEAS 175
de vectores se les colocan superíndices. Por tanto, debemos introducir una nueva notación. Así pues,
la transformación general dada por (A.100) la escribimos ahora como:
0 0
xi ≡ xi (x j ) (A.101)
∂A ∂A ∂xi
B0j = 0j = · (A.104)
∂x ∂xi ∂x0 j
y, si cambiamos el orden, nos queda:
0 ∂A ∂x j ∂A ∂x j
Bi = = · = Bj (A.105)
∂xi 0
∂xi ∂x j
0
∂xi0
Pues bien, cualquier magnitud A que se transforma según la relación (A.105) es un vector covari-
ante. En este caso, para nombrar las componentes de dicho vector se emplean subíndices.
Ahora bien, podemos pensar que los vectores contravariantes y covariantes están relacionados ya
que cualquier vector puede ser expresado tanto en componentes contravariantes como en componentes
covariantes. El tensor que relaciona ambos "tipos"de componentes es el llamado tensor métrico.
El tensor métrico no es más que el conjunto de funciones que definen la métrica del espacio, es
decir, la distancia entre dos puntos del espacio. En el caso del espacio tridimensional se tendrán seis
funciones independientes.Podemos hacernos las preguntas ¿Cómo definimos la métrica de un espacio
cualquiera? ¿Cómo medimos distancias en cualquier sistema de referencia? Si tenemos dos puntos
infinitamente próximos, la distancia entre ellos viene dada por la ecuación:
gi j = gi j (xk ) (A.107)
donde:
g11 = 1
176 APÉNDICE A. NOCIONES BÁSICAS SOBRE CÁLCULO TENSORIAL
g22 = 1
g12 = 0
y este tipo de métrica se puede resumir en:
gi j = δ i j (A.108)
Todas las métricas cuyo tensor métrico se hace cero cuando los subíndices son distintos entre sí
reciben el nombre de métricas ortogonales.
donde
grr = 1
gθθ = r2
grθ = 0
La distancia entre dos puntos no viene dada por el teorema de Pitágoras.
Volvamos al concepto de tensor métrico. Siempre debemos tener presente que el tensor métrico
nos informa de cómo se mide en el espacio en el que se trabaje. Por otra parte recordemos que hemos
introducido el tensor métrico para encontrar la relación existente entre los vectores covariantes y
contravariantes. Veamos, pues, tal relación:
Ai = g i j A j (A.110)
Observando la expresión anterior se ve que cuando se contrae un tensor contravariante con un tensor
métrico, se obtiene un tensor covariante. Nótese que el tensor métrico tiene subíndices en lugar de
superíndices. Esto es debido a que es covariante. Volvamos a la primera forma fundamental. Según lo
que acabamos de ver:
ds2 = gi j dxi dx j = dxi (gi j dx j ) = dxi dxi (A.111)
Según esta última ecuación, la distancia entre dos puntos no varía; es decir, es un escalar verdadero.
En general tenemos que:
Ahora bien, según todo lo que hemos visto hasta ahora, la operación inversa de (A.110) resulta ser:
A j = g ji Ai (A.112)
Es evidente que gi j son las componentes contravariantes del tensor métrico (de ahí que se usen su-
períndices en lugar de subíndices).Por definición:
Consecuentemente:
gi j g jk = δki (A.114)
Como vemos, la expresión anterior no es más que una nueva definición de la delta de Krönecker.
¿Qué ocurre si estamos en coordenadas cartesianas? Como las "g"son la "δ", las componentes covari-
antes coinciden con las componentes contravariantes (es decir, son las mismas). Esto es lo que hace
que empleemos siempre subíndices para nombrar a las componentes de los vectores sin preocuparnos
de si son contravariantes o covariantes.
Llegados a este punto debemos preguntarnos por las transformaciones entre tensores. ¿Cómo
definimos un tensor de segundo orden dos veces covariante? ¿Cómo lo definimos si es dos veces
contravariante? ¿Cómo lo definimos si es mixto: una vez contravariante y otra covariante? De acuerdo
a la transformación de coordenadas que hemos visto, se definen como sigue:
Ahora bien, ¿cómo pasamos de contravariante a covariante, es decir, cómo se suben y se bajan
índices? Con el tensor métrico. Por tanto:
Ti j = gik g jl T kl (A.118)
∂x j
λi j = (A.123)
∂xi
0
entonces
∂x0i ∂x j
λi j = = 0 (A.124)
∂x j ∂xi
y, por tanto
0 0
ij
Ti j = λik λ jl Tkl = T (A.125)
de aquí que no haya que hacer diferenciación entre componentes covariantes y contravariantes en un
sistema cartesiano: ¡Se transforman de la misma manera! Así pues, de aquí se deduce también el que
no se usen unas veces superíndices y otras subíndices. No obstante, hay materias de la física en la
que esto no se puede obviar. Es el caso de la relatividad, en la que sí es importante diferenciar entre
vectores covariantes y contravariantes, siempre que las coordenadas sean curvilíneas.
∂Ai j
(A.126)
∂xk
Vamos a ver la actuación del operador nabla, ~∇, en coordenadas cartesianas sobre un tensor de se-
gundo orden. La actuación de nabla sobre un tensor sin contraer se denomina gradiente. La actuación
de nabla sobre un tensor contrayendo se denomina divergencia.
Para referirnos al gradiente en varias dimensiones se usa el operador nabla: ~∇. Por su parte, el
gradiente se puede representar también por ~∇⊗ o por ~∇. El que detrás de nabla no aparezca nada o
aparezca el símbolo ⊗ significa que "no se contrae".
Veamos cómo se transforma la siguiente ecuación en un cambio de coordenadas ortogonales:
∂Ai j
Bi jk = (A.127)
∂xk
Podemos escribir
0
∂Ai j ∂(λil λ jm Alm ) ∂xn ∂Alm
B0i jk = = 0 = λil λ jm λkn =
∂xk
0
∂x n ∂xk ∂xn
λil λ jm λkn Blmn (A.128)
∂Ai j
= A i j ,k (A.129)
∂xk
como vemos, cuando tengamos uno o más subíndices separados del resto de subíndices por una coma,
tendremos que derivar la expresión respecto a la componente que tenga esos subíndices. En definitiva,
una coma dentro de un subíndice implica una derivada.
Volvamos al operador nabla. El operador nabla 5 se define como:
~∇ = ∂ (A.130)
∂xi
¿Cuáles son las operaciones que se pueden realizar con este operador sobre cualquier magnitud?
Estas operaciones dependen del tipo de magnitud sobre la que actúen. Así pues, tenemos:
~∇A = ∂A (A.131)
∂xi
∂Bi
Gradiente de ~B ≡ ~∇~B = (A.132)
∂x j
donde vemos que no se contrae sobre ningún índice puesto que no hay índices repetidos. Consecuente-
mente, el gradiente de un vector es un tensor de segundo orden.
∂Bi
Divergencia de ~B ≡ ~∇ · ~B = (A.133)
∂xi
∂Bk
Rotacional de ~B ≡ ~∇ ∧ ~B = εi jk (A.134)
∂x j
donde vemos que para obtener un vector hemos tenido que introducir un tensor de tercer orden.
Bi = εi jk ( f Ak ), j = εi jk ( f Ak , j + f , j Ak ) = f εi jk Ak , j +εi jk f , j Ak (A.136)
Si comparamos (A.137) con (A.135) vemos que son idénticas salvo en el orden de los sumandos del
segundo miembro. Como el orden de la suma (en este caso) no afecta al resultado, queda demostrada
la identidad (A.135) que es lo que se nos pedía.
Al igual que en los casos anteriores vamos a trabajar con componentes pero antes multiplicamos
el rotacional del producto vectorial de los vectores ~A y ~B por ~ε p :
Observando la ecuación anterior vemos que es igual a la ecuación (A.140) salvo en el orden de los
términos. Dicho orden, en este caso, no afecta el resultado. Así pues, queda demostrada la expresión
(A.140).
~ 2~A
~∇ ∧ (~∇ ∧ ~A) = ~∇(~∇ · ~A) − ∇ (A.144)
A.13. TEOREMA DE HAMILTON-CAYLEY 181
por lo tanto:
donde A es la matriz cuadrada dada, I es la matriz identidad y x es un número que permite que se
satisfaga la ecuación.
El teorema de Hamilton-Cayley dice que si sustituimos el número x por la matriz cuadrada A, se
sigue satisfaciendo la ecuación característica, esto es:
f (A) = 0N (A.150)
1−x 3
|A − xI| = = (1 − x)(5 − x) − 12 = 0 (A.153)
4 5−x
x2 − 6x − 7 = 0 (A.154)
Es evidente que hay varios valores de x que satisfacen esta ecuación. Dichos valores se obtienen sin
más que resolver la ecuación. Ahora bien, el teorema de Hamilton-Cayley dice que la matriz cuadrada
A satisface dicha ecuación, es decir, que se cumple:
2
1 3 1 3 1 0 0 0
−6 −7 = (A.155)
4 5 4 5 0 1 0 0
Veamos si es cierto:
2
1 3 1 3 1 0
−6 −7 =
4 5 4 5 0 1
13 18 6 18 7 0
= − − =0 (A.156)
24 37 24 30 0 7
A3 = I3 I − I2 A + I1 A2 (A.157)
La pregunta que se nos viene a la cabeza es ¿qué significado tiene esta expresión? Pues bien, lo que
tenemos que hacer es remitirnos al desarrollo en serie de potencias de Taylor del seno. Es decir:
x3 x5 x7
sin x = x − + − + ··· (A.161)
3! 5! 7!
Una vez conocido el desarrollo oportuno, para definir el seno de la matriz basta con sustituir en el
desarrollo de Taylor la x por la matriz correspondiente:
A3 A5 A7
sin A = A − + − + ··· (A.162)
3! 5! 7!
Una propiedad interesante es que, a pesar de que el desarrollo en serie de potencias de Taylor del
seno de x tiene infinitos términos, el desarrollo del seno de la matriz A no tiene infinitos términos
puesto que, en virtud del corolario del teorema de Hamilton-Cayley, podemos expresar cualquier
potencia de A como combinación lineal de matrices, siendo A m−1 la matriz de mayor potencia si la
matriz A es de dimensión m × m. Para el caso m = 3, se tiene:
sin A = c3 I + c2 A + c1 A2 (A.163)
Los coeficientes que acompañan a las potencias de la matriz en la combinación lineal, aunque son
un número finito, pueden estar formados por una suma infinita de términos; es decir c 1 , c2 y c3 (en
nuestro caso) pueden ser una suma de infinitos términos, funciones de los invariantes de A.
AE tiene una componente independiente, mientras que A D tiene, por tanto, ocho componentes
independientes. La relación que cumplen las componentes del desviador es que su traza es nula, es
decir:
Tr(AD ) = 0 (A.166)
Esta propiedad se demuestra de forma trivial a partir de las propias definiciones:
1
Tr(AD ) = Tr(A) − Tr(A) Tr(I) = Tr(A) − Tr(A) = 0
3
~A · (~B ∧ C)
~
~A ∧ (~B ∧ C)
~
~B(~A · C)
~
~B(~A · C)
~ − C(
~ ~A · ~B)
Ejercicio 2. Escriba cada una de las expresiones siguientes teniendo en cuenta el convenio de sumación
de los índices repetidos:
∂φ 1 ∂φ 2 ∂φ N
dφ = ∂x 1 dx + ∂x2 dx + · · · + ∂xN dx .
2 2 2 2
x1 + x2 + x3 + · · · + xN .
ds2 = g11 (dx1 )2 + g22 (dx2 )2 + g33 (dx3 )2 .
∑3p=1 ∑3q=1 g pq dx p dxq .
Ejercicio 3. Escriba todos los términos de cada una de las siguientes sumas indicadas:
a jk xk
A pq Aqr
ḡrs
Ejercicio 4. Halle el ángulo formado por los vectores ~A = (2, 2, −1) y ~B = (6, −3, 2).
Ejercicio 5. Halle los ángulos que forma el vector ~A = (3, −6, 2) con los ejes coordenados.
Ejercicio 6. Halle la proyección del vector ~A = (1, −2, 1) según la dirección de ~B = (4, −4, 7).
Ejercicio 7. Halle la ecuación del plano perpendicular al vector ~A = (2, 3, 6) y que pasa por el extremo
del vector ~B = (1, 5, 3).
(~A ∧ ~B) ∧ C.
~
Ejercicio 10. Determine el vector unitario perpendicular al plano formado por ~A = (2, −6, −3) y
~B = (4, 3, −1).
Ejercicio 11. Siendo ~A = a1~i + a2~j + a3~k y ~B = b1~i + b2~j + b3~k, demuestre que
~i ~j ~k
~A ∧ ~B = a1 a2 a3
b1 b2 b3
~A · (~B ∧ C)
~
Ejercicio 14. Halle la ecuación del plano formado por los puntos P1 (2, −1, 1), P2 (3, 2, −1) y P3 (−1, 3, 2).
Ejercicio 15. Siendo φ(x, y, z) = 3x2 y − y3 z, halle ~∇φ (gradiente) en el punto (1, −2, −1).
Ejercicio 16. Siendo ~A = x2 z~i − 2y3 z2~j + xy2 z~k, halle ~∇ · A (divergencia) en el punto (1, −1, 1).
Ejercicio 17. Siendo ~A = xz3~i − 2x2 yz~j + 2yz4~k halle ~∇ ∧ A (rotacional) en el punto (1, −1, 1).
Ejercicio 18. Demuestre que el producto exterior de dos vectores contravariantes A i y Bi , resulta un
tensor de segundo orden contravariante.
Ejercicio 19. Sean Ai j y Ai j las componentes de un tensor de segundo orden. Pruebe que λ = A i j Ai j
es un escalar.
ij
Ejercicio 20. Sea Ak un tensor de tercer orden.
ij
Demuestre que la contracción Ai es un tensor de primer orden contravariante.
A.15. EJERCICIOS PROPUESTOS 187
Demuestre que la contracción de los índices i y j produce A iik , el cual no es un tensor. Esto
muestra que, en general, el proceso de contracción se aplica a índices de distinto nivel.
la velocidad.
la aceleración de una partícula en movimiento.
[1] Luis A. Santaló: Vectores y tensores con sus aplicaciones, Editorial universitaria de Buenos Aires
(1970).
[3] Murray R. Spiegel: Teoría y problemas de análisis vectorial y una introducción al análisis ten-
sorial, Editorial McGraw-Hill (1974).
189