Sesion 2

Descargar como pdf o txt
Descargar como pdf o txt
Está en la página 1de 24

Universidad Nacional Pedro Ruiz Gallo

Facultad de Ciencias Fı́sicas y Matemáticas

Sesión 02: Ánalisis Tensorial

Dr.Mat. Raúl E. Reupo Vallejos


[email protected]

MAESTRÍA EN MATEMÁTICA APLICADA

Raúl Reupo Vallejos UNPRG [email protected] 1 / 23


Diferenciación de funciones de un escalar

Dado un escalar, vector, posición, o una función tensorial ϕ(t) de una


variable escalar t, se escribirá

dϕ(t) ϕ(t + h) − ϕ(t)


ϕ̇(t) = = lı́m
dt h→0 h
Entonces para x(t) una función posición,

x(t + h) − x(t)
ẋ(t) = lı́m
h→0 h

Raúl Reupo Vallejos UNPRG [email protected] 2 / 23


Diferenciación de funciones de un escalar

Para una función vectorial v(t)

v̇(t) = v̇i (t)ei

y para una función tensorial T(t)

Ṫ(t) = Ṫij (t)ei ⊗ ej

donde {ei } es una base ortonormal fija.

Raúl Reupo Vallejos UNPRG [email protected] 3 / 23


Propiedades

u ˙· v = u̇ · v + u · v̇
˙ = ϕ̇v + ϕv̇
ϕv
˙ = Ṫv + Tv̇
Tv
˙ v = u̇ × v + u × v̇

Raúl Reupo Vallejos UNPRG [email protected] 4 / 23


Propiedades

u⊗˙ v = u̇ ⊗ v + u ⊗ v̇
˙ = ϕ̇T + ϕṪ
ϕT
˙ = ṪS + TṠ
TS

Raúl Reupo Vallejos UNPRG [email protected] 5 / 23


Propiedades Importantes

Si A(t) es una función tensorial no nula, entonces

˙ A
|A| = : Ȧ
|A|

Raúl Reupo Vallejos UNPRG [email protected] 6 / 23


Propiedades Importantes

Si F(t) es una función tensorial invertible, con inversa F−1 (t),


entonces
1
˙ = (detF)tr(ḞF−1 )
detF
˙
2 F−1 = −F−1 ḞF−1

Raúl Reupo Vallejos UNPRG [email protected] 7 / 23


Propiedades Importantes

Si Q(t) es una función tensorial ortogonal, entonces

QT (t)Q̇(t) y Q̇(t)QT (t)

son tensores antisimétricos

Raúl Reupo Vallejos UNPRG [email protected] 8 / 23


Diferenciación de Campos. Gradiente

Sea Φ(h) una función escalar, vectorial o tensorial de un vector h.


Entonces diremos que
Φ(h) = o(h)
si,
Φ(h)
lı́m =0
h→0 |h|

Raúl Reupo Vallejos UNPRG [email protected] 9 / 23


Diferenciación de Campos. Gradiente

Dado una región R, un campo escalar ϕ con dominio R, es un mapeo


que asigna a cada punto x en R, un escalar ϕ(x) llamado el valor de ϕ
en x.
De esta manera se define el campo vectorial v(x)

Raúl Reupo Vallejos UNPRG [email protected] 10 / 23


Diferenciación de Campos. Gradiente

Diremos que ϕ y v son diferenciables en un punto x en R, si existen un


vector g y un tensor G tales que

ϕ(x + h) − ϕ(x) = g · h + o(|h|)

cuando |h| → 0,

v(x + h) − v(x) = Gh + o(|h|)

cuando |h| → 0

Raúl Reupo Vallejos UNPRG [email protected] 11 / 23


Diferenciación de Campos. Gradiente

Si ϕ y v son diferenciables en x, entonces

grad ϕ(x) = g

grad v(x) = G

Raúl Reupo Vallejos UNPRG [email protected] 12 / 23


Diferenciación de Campos. Gradiente

En forma de componentes

∂ϕ(x)
[grad ϕ(x)]i =
∂xi

∂vi (x)
[grad v(x)]ij =
∂xj

Raúl Reupo Vallejos UNPRG [email protected] 13 / 23


Diferenciación de Campos. Gradiente

Si x = x(t) es una función de posición, entonces

˙ ˙ ∂ϕ(x)
ϕ(x) = grad ϕ(x) · ẋ, ϕ(x) = ẋi
∂xi
,

˙ ˙ = ∂vi (x)
v(x) = [grad v(x)]ẋ, vi (x) ẋj
∂xj

Raúl Reupo Vallejos UNPRG [email protected] 14 / 23


Divergencia y Rotacional

La divergencia y rotacional de un campo vectorial v y un campo


tensorial T, pueden ser definidos de la siguiente manera:
∂vi
div v =
∂xi
∂vk
(rot v)i = ǫijk
∂xj
∂Tij
(div T)i =
∂xj
∂Tjq
(rot T)ij = ǫipq
∂xp

Raúl Reupo Vallejos UNPRG [email protected] 15 / 23


Divergencia y Rotacional

La div v es un campo escalar, el rot v y div T son campos vectoriales,


y el rot T es un campo tensorial. Estos campos pueden también ser
definidos como:
div v = tr(grad v)
a · rot v = (a×) : grad v, para cada vector constante a
a · div T = div(TT a), para cada vector constante a
(rot T)a = rot(TT a), para cada vector constante a

Raúl Reupo Vallejos UNPRG [email protected] 16 / 23


Divergencia y Rotacional: Identidades

grad(ϕv) = ϕgradv + v ⊗ gradϕ


grad(u · v) = (gradu)T v + (gradv)T u
grad(u × v) = (u×)gradv − (v×)gradu
div(ϕv) = ϕdivv + v · gradϕ
div(u × v) = vrotu − urotv
div(u ⊗ v) = (divv)u + (gradu)v

Raúl Reupo Vallejos UNPRG [email protected] 17 / 23


Divergencia y Rotacional: Identidades

div(TT v) = T : gradv + v · divT


div(ϕT) = ϕdivT + Tgradϕ
rot(ϕv) = ϕrotv + (gradϕ) × v
rot(u × v) = div(u ⊗ v − v ⊗ u)
rot(u ⊗ v) = [(gradu)v×]T + (rotv) ⊗ u
rot(ϕT) = ϕrotT + [(gradϕ)×]T
div rotv = 0

Raúl Reupo Vallejos UNPRG [email protected] 18 / 23


Operador de Laplace ∆

Sean ϕ, v y T campos escalar, vectorial y tensorial respectivamente,


entonces definimos el operador de Laplace como:

∂2ϕ
∆ϕ = div gradϕ, ∆ϕ =
∂xi ∂xi
∂ 2 vi
∆v = div gradv, ∆vi =
∂xj ∂xj
(∆T)a = ∆(Ta)
para cada vector constante a. Usando componentes,
∂Tij
∆Tij =
∂xk ∂xk

Raúl Reupo Vallejos UNPRG [email protected] 19 / 23


Diferenciación de una función escalar de un tensor

Para una función escalar Ψ(T) de un tensor variable T, la derivada


∂Ψ(T)
∂T es la función tensor definida por:
 
∂Ψ(T) ∂Ψ(T)
=
∂T ij ∂Tij

Raúl Reupo Vallejos UNPRG [email protected] 20 / 23


Diferenciación de una función escalar de un tensor

Para una función escalar Ψ(T) de un tensor variable T, la derivada


∂Ψ(T)
∂T es la función tensor definida por:
 
∂Ψ(T) ∂Ψ(T)
=
∂T ij ∂Tij

Raúl Reupo Vallejos UNPRG [email protected] 21 / 23


Diferenciación de una función escalar de un tensor

La regla de la cadena

˙ ∂Ψ(T)
Ψ(T) = Ṫij
∂Tij
∂Ψ(T)
= Ṫ
∂T
∂Ψ(T)
es un método sencillo para calcular la derivada ∂T

Raúl Reupo Vallejos UNPRG [email protected] 22 / 23


Ejercicio

Sea Ψ definida sobre el espacio de los tensores simétricos, y


consideremos la función Λ(F) definida sobre el espacio de todos los
tensores tal que

Λ(F) = Ψ(C), con C = FT F

Demostrar que:  
∂Λ(F) ∂Ψ(C)
− 2F : Ḟ = 0
∂F ∂C
para cualquier elección de la función F(t)

Raúl Reupo Vallejos UNPRG [email protected] 23 / 23


Universidad Nacional Pedro Ruiz Gallo
Facultad de Ciencias Fı́sicas y Matemáticas

Sesión 02: Ánalisis Tensorial

Dr.Mat. Raúl E. Reupo Vallejos


[email protected]

MAESTRÍA EN MATEMÁTICA APLICADA

Raúl Reupo Vallejos UNPRG [email protected] 24 / 23

También podría gustarte