11517
11517
11517
DE LA MIXTECA
TESIS
PARA OBTENER EL TITULO DE:
LICENCIADO EN MATEMATICAS
APLICADAS
PRESENTA:
JATZIRY AMBROSIO DELGADO
DIRECTOR:
JUAN CARLOS MENDOZA SANTOS
OAXACA, ABRIL DE 2012
HUAJUAPAN DE LEON,
Aproximaci
on de las nuevas soluciones
de las EDPs de segundo orden por el
m
etodo de Descomposici
on de Adomian.
Jatziry Ambrosio Delgado
Abril 2012
Captulo
Captulo
Agradecimientos
Esta tesis representa un parteaguas entre una etapa muy enriquecedora y el camino
que el tiempo obliga. En toda la experiencia universitaria y la conclusion del trabajo de
tesis, han habido personas que merecen las gracias porque sin su valiosa aportacion no
hubiera sido posible este trabajo y tambien hay quienes las merecen por haber plasmado
su huella en mi camino y que para no olvidar alguna de estas personas no hare mencion
de sus nombres. A todas ellas les doy mis mas sinceros agradecimientos.
II
Agradecimientos
Contenido
Introducci
on
1
VII
Introducci
on a las EDPs
1.1
EDPs
1.1.1
1.1.2
1.1.3
1.1.4
1.1.5
de primer orden . . . . . . . . . . . . . . . . . . . .
Clasificaci
on de las EDPs de primer orden . . . .
Construcci
on de la ecuacion de primer orden . . .
El metodo de las caractersticas y solucion general
Formas can
onicas de las EDPs de primer orden .
Metodo de separacion de variables . . . . . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
1
1
2
3
5
7
1.2
EDPs
1.2.1
1.2.2
1.2.3
1.2.4
de segundo orden . . . . . . . . . . . . . . . . . . . . . . . . . .
Ecuaciones de segundo orden con dos variables independientes
Formas can
onicas . . . . . . . . . . . . . . . . . . . . . . . . . .
Ecuaciones con coeficientes constantes . . . . . . . . . . . . . .
Soluciones de la ecuacion de Euler . . . . . . . . . . . . . . . .
.
.
.
.
.
8
8
10
13
14
2 M
etodo de Harper y
el M
etodo de Stephenson- Radmore
23
2.1
23
2.2
30
33
37
41
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
3 El m
etodo de Descomposici
on de Adomian
47
3.1
47
3.2
Evaluaci
on del operador inverso L1 . . . . . . . . . . . . . . . . . . . .
3.2.1 Condiciones de frontera homogeneas . . . . . . . . . . . . . . . .
48
49
III
IV
CONTENIDO
3.2.2
3.2.3
3.2.4
3.2.5
3.2.6
Condiciones
Condiciones
Condiciones
Condiciones
Condiciones
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
50
51
52
53
54
3.3
Soluci
on de la ecuaci
on diferencial . . . . . . . . . . . . . . . . . . . . .
55
3.4
56
3.5
An
alisis del metodo Homotopico . . . . . . . . . . . . . . . . . . . . . .
57
3.6
Derivaci
on del metodo de descomposicion de Adomian . . . . . . . . . .
59
4 M
etodos de Aproximaci
on de Soluciones
63
4.1
63
66
4.2
68
70
77
5 Aplicaci
on del M
etodo de Harper para la Ecuaci
on de Euler
5.1
Caso I . . . . . . . . . .
5.1.1 Caso hiperb
olico
5.1.2 Caso parab
olico .
5.1.3 Caso elptico . .
5.2
Caso II
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
78
83
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
83
87
92
94
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
98
5.3
Caso III . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
99
5.4
Caso IV . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 100
5.5
Caso V
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 100
101
6.1
Ecuaci
on hiperb
olica . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 101
6.2
Ecuaci
on parab
olica . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 108
6.3
Ecuaci
on elptica . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 115
CONTENIDO
Conclusiones
119
Ap
endice A
121
Ap
endice B
123
Ap
endice C
125
VI
CONTENIDO
Captulo
Introduccion
La teora de las Ecuaciones Diferenciales Parciales (EDP), es una materia que forma parte esencial en la formaci
on de ingenieros y matematicos y u
ltimamente, no han
existido avances en la investigacion de nuevos metodos de solucion para las EDPs de
segundo orden. El metodo m
as com
un de resolver una EDP de segundo orden consiste
en transformar dicha ecuaci
on a una EDP mas sencilla, llamada com
unmente forma
canonica. Adem
as, de que el c
alculo de estas formas canonicas es muy laborioso y tedioso, la principal desventaja de este metodo, consiste en que la ecuacion de la forma
canonica en general no puede ser resuelta por los metodos ya conocidos, excepto para
aquellas formas can
onicas, a partir de las cuales se obtienen las ecuaciones de onda,
calor y de Laplace.
En 1990 Stephenson-Radmore [34] crearon un metodo, el cual permite encontrar
soluciones de una EDP de segundo orden sin calcular su forma canonica, pero dicho
metodo es difcil de aplicarlo, y solo se aplica para las EDPs de tipo hiperbolico.
Por otro lado, en 1994 J. Harper [21] desarrolla un metodo, el cual resuelve la
ecuaci
on de Black-Scholes en matematicas financieras, esto permite encontrar nuevas
soluciones para las EDPs de tipo parabolico. Este metodo ha resultado ser efectivo
para resolver algunos problemas particulares de valores iniciales y de frontera [27, 29],
pero no ha sido aplicado a otro tipo de EDPs.
Cabe mencionar que en el a
no 2006 J. Biazar y Z. Ayati [9] resuelven una EDP
de segundo orden para el caso en que esta sea una EDP del tipo parabolico no lineal
y utilizaron el metodo de descomposicion de Adomian para aproximar sus soluciones,
haciendo una comparaci
on de sus resultados con el metodo de diferencias finitas, debido
VII
VIII
Introducci
on
a que la forma de las soluciones de una EDP de segundo orden nos permite aplicar el
metodo de descomposici
on de Adomian.
En a
nos recientes se han estado utilizando metodos numericos para la solucion de
las EDPs, los cuales proporcionan frecuentemente informacion u
til acerca del comportamiento de la soluci
on. Uno de los metodos mas conocidos es el de diferencias finitas
y otro es el de algoritmos geneticos, este u
ltimo con muy buenos resultados en la aproximacion de las soluciones.
La presenta tesis est
a organizada en seis captulos distribuidos como sigue:
En el primer captulo se da una introduccion de las EDPs de primer y segundo
orden, considerando su clasificaci
on y proporcionando las soluciones generales para dichas ecuaciones. Adem
as, se introduce las soluciones para el caso de la EDP de Euler
cuando sus coeficientes son constantes.
En el segundo captulo se presenta el metodo propuesto por J. F. Harper [21] y el
metodo de Sthepenson-Radmore [34], el primero de ellos nos conducira a una ecuacion
ya conocida y el segundo se propondra una nueva solucion general de una EDP para
el caso cuando esta sea del tipo hiperbolico, parabolico y elptico, la cual estara en
terminos de funciones que son soluciones de alguna EDP conocida.
En el tercer captulo se presenta el metodo de descomposicion de Adomian propuesto por G. Adomian [3, 4, 5, 6], con la finalidad de resolver de forma analtica e iterativa
la EDP de Euler de tipo hiperb
olico, parabolico y elptico.
Para el cuarto captulo, se expondran dos metodos numericos, uno de ellos es el
metodo de diferencias finitas y el segundo, el de algoritmos geneticos. Las implementaciones numericas de los metodos de este captulo es llevada a cabo en MATLAB. No
obstante, los c
odigos no son dados explcitamente en este trabajo de tesis.
Dedicamos el quinto captulo para presentar una aplicacion del metodo de Harper
a la ecuaci
on de Euler, el cual nos ha permitido dar un nuevo m
etodo para resolver
la EDP de Euler con coeficientes constantes del tipo hiperbolico, parabolico y elptico.
Una vez obtenidas las nuevas soluciones de la EDP de segundo orden en el caso en
que los coeficientes son constantes, en el sexto captulo presentamos las comparaciones
Introducci
on
IX
Captulo 1
a las EDPs
Introduccion
Las EDPs son de gran interes a causa de su conexion con los fenomenos naturales
del mundo. Los fen
omenos m
as interesantes implican cambios y se pueden describir por
medio de la construcci
on de modelos matematicos, los cuales se han destacado como
uno de los aspectos m
as importantes en el desarrollo teorico en las diferentes ramas de
la ciencia.
A menudo estos modelos implican una ecuacion en la que una funcion y sus derivadas
desempe
nan papeles decisivos. Tales ecuaciones son llamadas ecuaciones diferenciales
parciales, las cuales surgen en relacion con varios problemas fsicos y geometricos, cuando las funciones que intervienen dependen de dos o mas variables independientes.
El prop
osito de este captulo introductorio es presentar las EDPs de primer y
segundo orden, considerando su clasificacion y sus soluciones generales. Ademas, se introducen las soluciones para el caso de la EDP de Euler.
1.1.
1.1.1.
Introducci
on a las EDPs
siguiente forma
Aux + Buy = C,
(1.2)
(1.3)
1.1.2.
Construcci
on de la ecuaci
on de primer orden
Para la construcci
on de la ecuacion de primer orden [27], consideremos un sistema
de ecuaciones que describe una superficie geometrica dada por la ecuacion
f (x, y, u, a, b) = 0,
(1.4)
(1.5)
donde p = ux y q = uy . La ecuaci
on (1.5) relaciona los dos parametros arbitrarios a
y b. En general, las ecuaciones (1.4) y (1.5) forman un sistema de ecuaciones, donde
estos dos par
ametros pueden ser eliminados, obteniendo una ecuacion de primer orden
de la forma F (x, y, u, p, q) = 0.
Una ecuaci
on de la forma (1.4) que contiene dos parametros arbitrarios es llamada
soluci
on completa o integral completa de la ecuacion (1.1).
Es importante notar que las soluciones de la EDP pueden ser representadas por
funciones suaves.
Mas a
un, quiza no todas las soluciones sean suaves. Una solucion que no es diferenciable en todas partes es llamada soluci
on debil. Las soluciones debiles mas comunes, son
las que tienen discontinuidades en las primeras derivadas parciales, esto es, la solucion
puede ser representada por superficies de discontinuidad. Este tipo de discontinuidades
es usualmente llamada onda de choque.
Una caracterstica importante de las EDPs casi-lineales y no lineales es que sus
soluciones pueden desarrollar discontinuidades.
(, )
(, )
(, )
+q
=
,
(y, u)
(u, x)
(x, y)
(1.6)
donde
(, ) x y
=
.
x y
(x, y)
Demostraci
on.
Derivando parcialmente f (, ) = 0 con respecto de x y y, respectivamente, obtenemos las siguientes ecuaciones
f
+p
+
x
u
f
+q
+
y
u
f
+p
= 0,
x
u
f
+q
= 0.
y
u
f
f
Las soluciones no triviales para
y
pueden ser definidas si el determinante de
este sistema de ecuaciones es igual a cero, esto es
x + pu x + pu
y + qu y + qu
= 0.
1.1.3.
El m
etodo de las caractersticas y soluci
on general
(1.7)
(1.8)
Introducci
on a las EDPs
(1.9)
ax + by + cu = 0.
Al resolver las ecuaciones (1.9) para a, b y c, obtenemos que
a
(,)
(y,u)
b
(,)
(u,x)
c
(,)
(x,y)
(, )
(, )
(, )
+q
=
,
(y, u)
(u, x)
(x, y)
1.1.4.
Formas can
onicas de las EDPs de primer orden
(1.10)
(1.11)
Introducci
on a las EDPs
B = Ax + By .
(1.12)
(1.14)
donde (, ) = C
y (, ) = D
.
A
A
La ecuaci
on u +(, )u = (, ) representa una ecuacion diferencial ordinaria con
variable independiente y a la variable como un parametro, la cual puede ser tratada
como constante. La ecuaci
on (1.14) es llamada la forma canonica de la ecuacion (1.3)
en terminos de y . Generalmente, la ecuacion canonica (1.14) puede ser integrada
facilmente y la soluci
on general de (1.3) puede ser obtenida reemplazando y por las
variables originales x y y.
En la pr
actica, es conveniente hacer el cambio = (x, y) y (x, y) = y o (x, y) = x
y = (x, y), tal que J(, ) 6= 0.
Ejemplo 1.1.1. Reducir la ecuaci
on ux uy = u, a su forma can
onica.
Soluci
on. Para este caso tenemos que A = 1, B = 1, C = 1 y D = 0, entonces
las ecuaciones caractersticas est
an dadas por
dx
dy
du
=
=
.
1
1
u
As, las curvas caractersticas son = x + y = c1 y = y = c2 , donde c1 y c2 son
constantes. Derivando parcialmente obtenemos que
ux = u x + u x = u ,
uy = u y + u y = u + u ,
sustituyendo en la ecuaci
on ux uy = u, llegamos a la ecuacion u + u = 0, la cual es
su forma can
onica.
1.1.5.
M
etodo de separaci
on de variables
Durante los u
ltimos dos siglos, varios metodos han sido desarrollados para solucionar
EDPs. Entre estos, una tecnica conocida como el metodo de separacion de variables es
quiza el metodo sistem
atico mas viejo para resolver EDPs. Su caracterstica esencial es
transformar la EDP en un conjunto de ecuaciones diferenciales ordinarias. La solucion
requerida de las EDPs es entonces escrita como un producto u(x, y) = X(x)Y (y) 6=
0, o una suma u(x, y) = X(x) + Y (y), donde X(x) y Y (y) son funciones de x y y,
respectivamente. Muchos problemas significativos en EDPs pueden ser resueltos por
el metodo de separaci
on de variables. Este metodo ha sido refinado y generalizado
considerablemente sobre los ultimos dos siglos y es una de las tecnicas clasicas de la
fsica matem
atica, las matem
aticas aplicadas, y las ingenieras.
Consideremos la EDP (1.3) homogenea, proponiendo la solucion general como un
producto que tiene la siguiente forma
u(x, y) = X(x)Y (y) 6= 0.
(1.15)
X
Y
= B
C,
X
Y
esta ecuaci
on puede ser separada en dos ecuaciones, si se introduce una constante , la
cual es llamada constante de separacion, de donde obtenemos el siguiente sistema de
ecuaciones diferenciales ordinarias
0
AX X = 0,
0
BY + (C + )Y = 0.
Luego, las funciones X y Y estan determinadas por este sistema de ecuaciones
diferenciales ordinarias. Generalmente, las EDPs de primer orden pueden ser resueltas
por el metodo de separaci
on de variables, sin utilizar para este caso series de Fourier
[20, 27].
Ejemplo 1.1.2. Resolver la ecuaci
on diferencial parcial ux + 2uy = 0.
Soluci
on. Proponemos una solucion de la forma u(x, y) = X(x)Y (y), derivando
esta soluci
on y sustituyendo en la ecuacion dada, obtenemos que
X 0 (x)Y (y) + 2X(x)Y 0 (y) = 0,
tambien podemos expresar esta ecuacion de la siguiente forma
Y 0 (y)
X 0 (x)
=
= ,
2X(x)
Y (y)
Introducci
on a las EDPs
Y 0 (y) + Y (y) = 0.
1.2.
1.2.1.
La EDP general lineal de segundo orden con una variable dependiente u se escribe
como
n
n
X
X
Aij uxi xj +
Bi uxi + F u = G,
(1.16)
i,j=1
i=1
en la cual asumimos que Aij = Aji y Aij , Bi , F y G son funciones de valores reales
definidas en alguna regi
on del espacio . La ecuacion (1.16) con dos variables independientes puede ser escrita en la forma
Auxx + Buxy + Cuyy + Dux + Euy + F u = G,
(1.17)
donde los coeficientes son funciones de x y y y ambas no pueden ser cero al mismo
tiempo. La clasificaci
on de las EDPs tiene su origen en la clasificacion de la ecuacion
cuadratica de las secciones c
onicas que se hace en geometra analtica [27]. La ecuacion
cuadratica
Ax2 + Bxy + Cy 2 + Dx + Ey + F = 0,
representa una hiperbola, par
abola o elpse en consecuencia de que si la cantidad
B 2 4AC,
es positiva, cero o negativa.
La clasificaci
on de las ecuaciones de segundo orden se basa en la posibilidad de
reducir la ecuaci
on (1.17), mediante una transformacion a su forma canonica o estandar
[13, 27]. Una ecuaci
on se dice que es hiperbolica, parabolica o elptica dependiendo de
2
como es B 4AC.
Para el caso de dos variables independientes, una transformacion siempre puede
ser encontrada para reducir la ecuacion dada a su forma canonica [27]. Sin embargo,
en el caso de varias variables independientes, no es en general posible encontrar dicha
transformaci
on [27].
(1.18)
(1.19)
uxy = u x y + u (x y + y x ) + u x y + u xy + u xy ,
uyy = u y2 + 2u y y + u y2 + u yy + u yy ,
sustituyendo estos valores en la ecuacion (1.17) obtenemos
A u + B u + C u + D u + E u + F u = G ,
(1.20)
donde
A = Ax2 + Bx y + Cy2 ,
B = 2Ax x + B(x y + y x ) + 2Cy y ,
C = Ax2 + Bx y + Cy2 ,
D = Axx + Bxy + Cyy + Dx + Ey ,
(1.21)
(1.22)
(1.23)
10
Introducci
on a las EDPs
1.2.2.
Formas can
onicas
Consideremos la ecuaci
on reducida (1.22) a transformar a su forma canonica, en
donde A, B, C son distintos de cero. Sean los coeficientes A y B de la ecuacion (1.23)
iguales a cero. As, por (1.21), obtenemos
A = Ax2 + Bx y + Cy2 = 0,
C = Ax2 + Bx y + Cy2 = 0.
Estas dos ecuaciones son del mismo tipo y por tanto podemos escribirlas en una
sola ecuaci
on de la forma
Ax2 + Bx y + Cy2 = 0,
(1.24)
en la cual es una funci
on que puede ser o . Dividiendo por y2 a la ecuacion (1.24)
obtenemos
2
x
x
+B
+ C = 0.
(1.25)
A
y
y
A lo largo de la curva = const., obtenemos
d = x dx + y dy = 0.
As
dy
x
= ,
dx
y
dy
dx
2
B
dy
dx
+ C = 0,
(1.26)
B 2 4AC
2A
(1.27)
11
Discriminante
B 2 4AC > 0
B 2 4AC = 0
B 2 4AC < 0
Tipo de EDP
Hiperbolica
Parabolica
Elptica
Forma
=0
=0
, 6= 0
=0
=0
Comentario
u especificado
u~n especificada
se especifica al menos de forma homogenea
dos ecuaciones:
u y u~n especificados
(1.28)
H
B
12
Introducci
on a las EDPs
Tipo parab
olico
En este caso, tenemos que B 2 4AC = 0, y la ecuacion (1.26) tiene una solucion.
As, existe una familia real de caractersticas, y obtenemos solo una integral = const.
(o = const.). La otra variable = const. (o = const.) se elige de tal manera que
J(, ) 6= 0. Luego B 2 = 4AC y A = 0, hallando
2
A = Ax2 + Bx y + Cy2 =
Ax + Cy = 0.
De esta ecuaci
on se sigue que
B = 2Ax x + B(x y + y x ) + 2Cy y
=2
Ax + Cy
Ax + Cy = 0.
De aqu A = B = 0 y C 6= 0. Luego, dividiendo la ecuacion (1.23) por C ,
obtenemos
u = H3 (, , u, u , u ),
(1.30)
donde H3 = H
on (1.30) es llamada forma canonica de las ecuaciones paC . La ecuaci
rabolicas. Adem
as, la ecuaci
on (1.23), tambien se puede asumir de la siguiente forma
u = H3 (, , u, u , u ),
para este caso, se tiene que C = B = 0 y A 6= 0, donde H3 =
H
A .
Tipo Elptico
Para una ecuaci
on de tipo elptico tenemos B 2 4AC < 0. Consecuentemente, la
ecuacion cuadr
atica (1.26) no tiene soluciones reales, pero tiene soluciones complejas
conjugadas, las cuales son funciones continuas de valores complejos de las variables
reales x y y. As, en este caso, las curvas caractersticas no son reales. Sin embargo, si
los coeficientes A, B y C son funciones analticas de x y y, entonces se puede considerar la ecuaci
on (1.26) para variables complejas x y y. Entonces y son complejas,
introduciendo nuevas variables reales, tenemos que
1
= ( + ),
2
1
( ),
2i
tal que
= + i,
= i.
(1.31)
(1.32)
donde suponemos que los coeficientes tienen la misma forma que los coeficientes de la
ecuacion (1.23). Con el uso de (1.31) y de la ecuacion A = C = 0, se sigue que
(A C ) iB = 0,
13
de esta u
ltima ecuaci
on, obtenemos que A = C y B = 0, luego la ecuacion (1.32)
se transforma en
A u + A u = H4 (, , u, u , u ),
dividiendo por A , se obtiene
u + u = H5 (, , u, u , u ),
(1.33)
1.2.3.
(1.34)
dy
B
=
dx
B 2 4AC
,
2A
B 2 4AC
x + ci ,
2A
= y 2 x,
B 2 4AC
.
2A
(1.35)
(1.36)
(1.37)
14
1.2.4.
Introducci
on a las EDPs
Soluciones de la ecuaci
on de Euler
Ecuaci
on de Euler para el caso hiperb
olico
Si B 2 4AC > 0, la ecuaci
on (1.37) es de tipo hiperbolico, en cuyo caso las caractersticas forman dos familias bien definidas dadas por la ecuacion (1.27). Usando
(1.35), la ecuaci
on (1.34) se transforma en
u = D1 u + E1 u + F1 u + G1 ,
(1.38)
dy
dx
= xy , como
y = x
dx
,
dy
se sigue que
2
dx
dx
B
+C
= 0,
dy
dy
dx
dx
B + C
= 0,
dy
dy
de esta u
ltima ecuaci
on se obtiene
dx
=0 y
dy
B+C
dx
dy
= 0,
x=
B
C
y + c2 ,
(1.39)
(1.40)
15
y=
x
+ c2 ,
2
y = x + c2 ,
16
Introducci
on a las EDPs
Con esta tranformaci
on, la ecuacion dada tiene la siguiente forma canonica
u = 0.
Integrando esta ecuaci
on, obtenemos que la solucion de la ecuacion dada es
u = (y 3x) + (y + x).
Aplicando las condiciones iniciales, obtenemos el siguiente sistema de ecuaciones
30 (3x) + 0 (x) = 6x,
0 (3x) + 0 (x) = 0,
(1.42)
17
(1.45)
uy (x, 0) = cos x.
Esto es equivalente a elegir = y, de tal forma que J(, ) 6= 0 [15, 27, 33, 35].
18
Introducci
on a las EDPs
Soluci
on. Tenemos que A = 1, B = 2, C = 1, y B 2 4AC = 0, por lo que la
ecuacion es de tipo parab
olico. As, la familia de caractersticas toma la siguiente forma
y = x + c1 ,
en consecuencia, tomamos la siguiente transformacion
= y x,
= y.
Con esta tranformaci
on, la ecuacion dada tiene la siguiente forma canonica
u = 0.
Al integrar esta ecuaci
on, obtenemos que la solucion de la ecuacion dada resulta ser
u = (y x) + y(y x),
aplicando las condiciones iniciales, obtenemos el siguiente sistema de ecuaciones
(x) = 0,
(x) = cos x,
sustituyendo en la soluci
on de la ecuacion dada, llegamos a que
u(x, y) = y cos(y x),
o
u(x, y) = y cos(x y).
Ecuaci
on de Euler para el caso elptico
Cuando B 2 4AC < 0, la ecuacion (1.37) es de tipo elptico. En este caso, las
caractersticas son complejas conjugadas.
Las ecuaciones caractersticas son
y = 1 x + c1 ,
y = 2 x + c2 ,
donde 1 y 2 son n
umeros complejos. En consecuencia, c1 y c2 pueden tomar valores
complejos. As
= y (a + ib)x, = y (a ib)x,
donde i = a ib con a y b constantes reales, y
a=
B
2A
b=
1 p
4AC B 2 .
2A
19
1
( ) = bx.
2i
La aplicaci
on de esta transformacion reduce la ecuacion (1.37) a la forma canonica
u + u = D3 u + E3 u + F3 u + G3 ,
donde D3 , E3 , F3 y G3 son constantes. Notemos que B 2 4AC < 0, donde A y C son
distintos de cero. Luego, para el caso elptico, las caractersticas de la ecuacion de Euler
resultan ser complejas y est
an dadas por
= (y ax) ibx,
= (y ax) + ibx.
(1.46)
dy
1
dy
1
3
3
= +i
,
= i
,
dx
2
2
dx
2
2
integrando, obtenemos que
!
1
3
y=
+i
x + c1 ,
2
2
!
1
3
i
x + c2 ,
y=
2
2
en consecuencia, las variables canonicas estan dadas por
!
1
3
+i
x,
=y
2
2
!
1
3
=y
i
x,
2
2
20
Introducci
on a las EDPs
x
3
= y
+i
x,
2
2
x
3
= y
i
x,
2
2
uy (x, 0) = 4e2x .
Soluci
on. Tenemos que A = 1, B = 2, C = 2, y B 2 4AC = 4, por lo que la
ecuacion es de tipo elptico. As, las ecuaciones caractersticas toman la siguiente forma
dy
= 1 + i,
dx
dy
= 1 i,
dx
21
22
Introducci
on a las EDPs
Captulo 2
Metodo de Harper y
el Metodo de StephensonRadmore
En el captulo anterior, se mostraron algunos metodos para la solucion de las EDPs
de primer y segundo orden, como fue el metodo de separacion de variables y el metodo
de las caractersticas. Tambien se dedujeron las soluciones generales para la ecuacion
de Euler homogenea con coeficientes constantes.
En este captulo se presentan dos metodos analticos no convencionales, uno de ellos
es propuesto por J. Harper [21], el cual nos permitira reducir una EDP de segundo orden
del tipo parab
olico a una ecuaci
on de calor.
El otro metodo, propuesto por Stephenson y Radmore [34], consiste en transformar
una EDP de segundo orden a una ya conocida, sin necesidad de calcular su forma
canonica.
Ambos metodos dan soluci
on matematica a muchos problemas fsicos en que aparecen dichas EDPs.
2.1.
(2.1)
donde los coeficientes A, B, C, D y E son funciones de las variables x, y. Observemos que la ecuaci
on (2.1) corresponde a la forma canonica de las EDPs de segundo
orden el tipo parab
olico. El metodo propone ignorar la segunda derivada, por lo que
consideramos la siguiente ecuaci
on diferencial parcial auxiliar
Bvx + Cvy + Dv = E,
23
(2.2)
M
etodo de Harper y
el M
etodo de Stephenson- Radmore
24
dy
dv
cuyo sistema de ecuaciones caractersticas asociado esta dado por dx
B = C = EDv .
dy
Tomando, el primer par de ecuaciones dx
B = C , el cual se puede escribir como
dy
dx
on, obtenemos la primera curva caracterstica,
B C = 0, integrando esta ecuaci
Z
Z
dx
dy
(x, y) =
= c0 = const.
(2.3)
B
C
Adem
as, de la ecuaci
on (2.3), esta curva caracterstica cumple con la siguiente EDP,
Bx + Cy = 0.
(2.4)
(2.5)
y = 1 (x, c0 ).
(2.6)
Para obtener la segunda curva caracterstica, tomemos el otro par de ecuaciones cadv
on diferencial
ractersticas, dx
B = EDv , el cual puede escribirse como la siguiente ecuaci
ordinaria
dv
D
E
+ v= .
dx B
B
Utilizando la ecuaci
on (2.6), esta u
ltima ecuacion se escribe como
dv(x, 1 (x, c0 )) D(x, 1 (x, c0 ))
E(x, 1 (x, c0 ))
+
v=
.
dx
B(x, 1 (x, c0 ))
B(x, 1 (x, c0 ))
(2.7)
(x) = e
D(x,1 (x,c0 ))
dx
B(x,1 (x,c0 ))
(2.8)
D
.
B
Multiplicando la ecuaci
on (2.7) por este factor integrante, se sigue que
e
D
dx
B
R
dv
+ ve
dx
D
dx
B
D
E R
= e
B
B
D
dx
B
esta ecuaci
on se puede escribir como
d R
(e
dx
D
dx
B
v) =
integrando esta u
ltima ecuaci
on, tenemos
Z
R D
E R
dx
B
e
v=
e
B
E R
e
B
D
dx
B
D
dx
B
dx + c1 ,
25
donde c1 es una constante de integracion. Luego, la solucion de la ecuacion (2.2) esta dada por,
Z
R
R D
E R D dx
D
dx
B
v=e
e B dx + e B dx c1 .
B
Esta soluci
on tambien se puede escribir como
Z
R
R D
E R D dx
D
dx
B
v=e
e B dx + e B dx (c0 ),
B
donde, para este caso, c1 = (c0 ). Por lo tanto, de la ecuacion anterior se sigue que la
solucion dada para la ecuaci
on (2.2), esta dada por
Z
R D
R D
E R D dx
e B dx + e B dx ((x, y)).
v(x, y) = e B dx
B
En terminos del factor integrante, dado por la ecuacion (2.8) y considerando a
R D(x,y)
R dy
R
dx
B(x,y)
y
a
(x,
y)
=
e
, obtenemos
= dx
B
C
Z
R D
E R D dx
v(x, y) = e B dx
e B dx + 1 (0 (y, c0 ), y)().
(2.9)
B
Harper propuso el siguiente procedimiento, el cual consiste en representar la solucion
de la ecuaci
on (2.1), an
aloga a la ecuacion (2.9), de la siguiente forma
u(x, y) = f (x) + g(y)F (X, Y ),
y las nuevas variables X y Y , estan dadas por
R dy
R
X = dx
B
C,
Y = Y (y),
(2.10)
(2.11)
(2.12)
Derivando parcialmente la nueva solucion, dada por la ecuacion (2.10) se tiene que
ux = fx + gx F + g(FX Xx + FY Yx ),
uy = fy + gy F + g(FX Xy + FY Yy ),
uxx = g(Xx2 FXX + Xxx FX + Yx2 FY Y + Yxx FY ) + 2gx (FX Xx + FY Yx ) + gxx F + fxx ,
aplicando la ecuaci
on (2.11), estas derivadas se escriben como
ux = fx + gFX Xx ,
uy = gy F + g(FX Xy + FY Yy ),
uxx = g(Xx2 FXX + Xxx FX ) + fxx .
M
etodo de Harper y
el M
etodo de Stephenson- Radmore
26
(2.13)
Ahora, supongamos que las funciones f y g cumplen con las siguientes ecuaciones
diferenciales ordinarias
Cgy + Dg = 0,
(2.14)
Afxx + Bfx + Df = E.
(2.15)
Entonces, la ecuaci
on (2.13) se escribe como
AXx2 FXX + (AXxx + BXx + CXy )FX + CYy FY = 0.
(2.16)
Utilizando la ecuaci
on (2.12), esta u
ltima ecuacion se escribe como
AXx2 FXX + AXxx FX + CYy FY = 0.
(2.17)
(2.18)
(2.19)
Adem
as, de la ecuaci
on Yy = 1, obtenemos que
Y = y.
(2.20)
por
(2.21)
Para este caso, tenemos que las ecuaciones caractersticas estan dadas por dX
B1 =
dv
dX
dY
= 0 , tomando, el primer par de ecuaciones B1 = C1 , el cual se puede escribir como
dY
stica, la cual esta dada
C1 = 0, integrando, obtenemos la primera curva caracter
Z
1 (X, Y ) =
dX
B1
dY
= c2 = const.
C1
(2.22)
27
Adem
as, en forma an
aloga a la ecuacion (2.4), esta curva caracterstica cumple con
la siguiente EDP
B1 1X + C1 1Y = 0.
(2.23)
dv
Tomemos, ahora el otro par de ecuaciones caractersticas dX
B1 = 0 , para obtener la
otra curva caracterstica, la cual esta dada por v(X, Y ) = c3 = const.
Esta soluci
on tambien se puede escribir como v(X,
1 (c2 ), donde para este
R Y ) =R dY
caso, se tiene que c3 = 1 (1 (X, Y )) y haciendo = dX
on toma la
B1
C1 , la soluci
forma
v(X, Y ) = 1 ().
Ahora, proponemos la siguiente solucion para la ecuacion (2.19), la cual es analoga
a la ecuaci
on (2.10) con f = 0 y g = 1, es decir
F (X, Y ) = G(Z, W ).
Para este caso, las nuevas variables Z y W , las definimos como
R
R dY
Z = dX
B1
C1 = c4 .
W = W (Y ).
(2.24)
(2.25)
En este paso, suponemos, ahora, que la nueva variable Z, cumple con la siguiente
ecuaci
on
ZXX = 0.
(2.26)
Derivando parcialmente esta nueva solucion, dada por la ecuacion (2.24), se tiene
que
FX = GZ ZX + GW WX ,
FY = GZ ZY + GW WY .
Aplicando la ecuaci
on (2.25), estas derivadas se escriben como
FX = GZ ZX ,
FY = GZ ZY + GW WY ,
derivando parcialmente obtenemos,
2
FXX = GZZ ZX
+ GZ ZXX ,
(2.27)
M
etodo de Harper y
el M
etodo de Stephenson- Radmore
28
esta ecuaci
on se puede escribir como,
2
A1 Z X
GZZ = C1 WY GW ,
es decir,
GZZ =
C1 WY
2 GW .
A1 ZX
Haciendo
WY =
2
A1 ZX
,
C1
(2.28)
obtenemos la ecuaci
on de calor (ve
ase apendice C),
GZZ = GW .
(2.29)
(2.31)
donde la funci
on F es la soluci
on de la ecuacion de calor GXX = GY , y las funciones
f (x) y g(y) son soluciones de las siguientes ecuaciones diferenciales ordinarias respectivamente dadas por
Afxx + Bfx + Df = E,
Cgy + Dg = 0.
Ejemplo 2.1.1. Resolver la ecuaci
on de Black-Scholes
1 2 2
v x uxx + rxux + ut ru = 0.
2
Soluci
on. De la ecuaci
on anterior tenemos que
1
A = v 2 x2 ,
2
B = rx,
29
C = 1,
D = r,
E = 0.
Proponemos la soluci
on
w = g(t)F (X, T ),
donde las variables X y T est
an dadas por
Z
Z
dx
dt
1
X=
= ln x t,
rx
1
r
T = t,
y la funci
on g, dada por la ecuacion diferencial gt rg = 0, cuya solucion es
g = ert .
Sustituyendo estas variables llegamos a la siguiente ecuacion
1 v2
1 v2
F
FX + FT = 0.
XX
2 r2
2 r
Repetimos el procedimiento, de la ecuacion anterior tenemos que
1 v2
,
2 r2
1 v2
,
B1 =
2 r
C1 = C = 1.
A1 =
2r
X T,
v2
v2
T,
2r
M
etodo de Harper y
el M
etodo de Stephenson- Radmore
30
2.2.
El m
etodo de Stephenson- Radmore
(2.32)
(2.33)
donde los coeficientes A, B y C son constantes diferentes de cero. Notemos que esta
ecuacion se obtiene de la ecuaci
on (2.33) haciendo D = E = F = G = 0. Luego, las
formas can
onicas de la ecuaci
on (2.33) para los casos hiperbolico, parabolico y elptico,
estan dadas respectivamente por
u = 0,
u = 0,
u + u = 0.
(2.34)
2.2 El m
etodo de Stephenson- Radmore
31
(2.37)
(2.38)
Ar + Brs + Cs = 0.
(2.39)
(2.40)
Entonces, las ecuaciones (2.37) y (2.39) se escriben como una sola ecuacion, dada
por
C2 + B + A = 0,
(2.41)
y elegimos a los otros coeficientes b y s como las races de esta ecuacion. Es decir,
B
1 p 2
B B 2 4AC
=
B 4AC, i = 1, 2.
i =
2C
2C
2C
luego,
B
1
2
b = 1 = 2C
+ 2C
B 4AC,
B
1
s = 2 = 2C 2C B 2 4AC,
(2.42)
(2.43)
Ahora, sustituyendo las ecuaciones (2.40) y (2.42) en la ecuacion (2.38) se sigue que
2Aar + B(as + br) + 2Cbs =
1 2
(B 4AC) 6= 0.
C
= x + 2 y,
donde 1 y 2 est
an dadas por la ecuacion (2.42), las cuales resultan ser las ecuaciones
caractersticas de la ecuacion (2.33).
M
etodo de Harper y
el M
etodo de Stephenson- Radmore
32
Ejemplo 2.2.1. Resolver la ecuaci
on
1
u = y = ,
4
o
u = .
Esta ecuaci
on puede ser f
acilmente integrada. Su primera integral es
1
u = 2 + + h(),
2
donde h es una funci
on arbitraria, y la segunda integral es
1
1
u = 2 + 2 + () + (),
2
2
donde y son funciones arbitrarias. Expresando esta solucion en terminos de x y y
tenemos, que la soluci
on de la ecuacion dada es
1
u = y(x + y)(x + 2y) + (x + 2y) + (x + y).
2
El metodo anterior solo determina la solucion para el caso hiperbolico y cuando las
constantes a y r que aparecen en la ecuacion (2.35) toman el valor de uno, es decir
a = r = 1. En la siguiente secci
on, generalizaremos dicho metodo para los otros dos
tipos de ecuaciones, es decir, cuando la ecuacion de Euler es del tipo parabolico y
elptico, y adem
as para cualquier valor de los coeficientes de la ecuacion (2.35).
2.2 El m
etodo de Stephenson- Radmore
2.2.1.
33
Para este tipo de ecuaciones, sus coeficientes cumplen con B 2 4AC > 0.
Primero, observemos que la aplicacion de las ecuaciones (2.37), (2.38) y (2.39) a la
ecuaci
on (2.36) nos lleva a la siguiente ecuacion
(2Aar + B(as + br) + 2Cbs)u = 0.
(2.44)
(2.46)
las cuales se pueden escribir en terminos de los coeficientes i , dados por la ecuacion
(2.42), como
i = Ci .
(2.47)
1 2 = B 2 4AC.
(2.48)
Utilizando la ecuaci
on (2.46), tenemos que la ecuacion (2.45) se escribe como
(Aa 1 b)(Aa 2 b) = 0,
(Ar 1 s)(Ar 2 s) = 0.
De la primera ecuaci
on, tenemos el siguiente sistema de ecuaciones
Aa 1 b = 0,
Aa 2 b = 0,
y de la segunda ecuaci
on, obtenemos tambien el siguiente sistema de ecuaciones
Ar 1 s = 0,
Ar 2 s = 0,
para resolver estos sistemas de ecuaciones, consideremos los siguientes casos para obtener as, las nuevas variables y , tales que 6= .
M
etodo de Harper y
el M
etodo de Stephenson- Radmore
34
Caso I.
(2.49)
A
1 a,
A
2 r.
(2.50)
Sustituyendo la ecuaci
on (2.50) en la ecuacion (2.44) se sigue que,
1 2
(B 4AC)aru = 0.
(2.51)
C
Finalmente, de la ecuaci
on (2.51) obtenemos la siguiente ecuacion
1
.
(2.52)
ar = 2
B 4AC
Sin perdida de generalidad, podemos suponer que a = r, entonces tenemos que la
ecuacion (2.52) se escribe como:
1
a2 = 2
.
B 4AC
Luego, utilizando la ecuaci
on (2.48), se obtiene
1
1
.
a=r=
=
2
1 2
B 4AC
Por lo tanto, tenemos que
A
A
a=
,
1
1 (1 2 )
A
A
s=
r=
.
2
2 (1 2 )
b=
1
A
1 2 x + 1 (1 2 ) y,
1
A
1 2 x + 2 (1 2 ) y,
(2.53)
donde 1 y 2 est
an dadas por la ecuacion (2.46). En terminos de 1 y 2 , la ecuacion
(2.53) se escribe como
=
=
1
A
C(1 2 ) x + C 2 1 (1 2 ) y,
1
A
C(1 2 ) x + C 2 2 (1 2 ) y.
2.2 El m
etodo de Stephenson- Radmore
35
Caso II.
Como segundo caso, consideremos el siguiente sistema,
Aa 2 b = 0,
Ar 1 s = 0,
(2.54)
de aqu obtenemos
b=
s=
A
2 a,
A
1 r.
(2.55)
Sustituyendo la ecuaci
on (2.55) en la ecuacion (2.44) se sigue que,
1 2
(B 4AC)aru = 0.
C
(2.56)
1
1
=
.
1 2
4AC B 2
b=
Finalmente, para el caso hiperbolico las nuevas variables y ahora estan definidas
por
=
=
1
A
1 2 x + 2 (2 1 ) y,
1
A
1 2 x + 1 (2 1 ) y,
(2.57)
donde 1 y 2 est
an dadas por la ecuacion (2.46). Por lo tanto, tenemos que la ecuacion
(2.57) es equivalente a la ecuaci
on (2.53), ya que solo las variables y intercambian
su valor, luego, solo se tiene una transformacion de variables.
De aqu, obtenemos u = 0, cuya solucion esta dada por
u(x, y) =
1
A
1
A
x+
y +
x+
y ,
1 2
2 (2 1 )
1 2
1 (2 1 )
M
etodo de Harper y
el M
etodo de Stephenson- Radmore
36
Caso III.
Aa 2 b = 0
Ar 2 s = 0
Aa (1 + 2 )b = 0
Ar (1 + 2 )s = 0,
(2.58)
B B 2 4AC
,
2
por
i =
1 4(2)(1)
1 9
1 3
=
=
.
2
2
2
Luego, la ecuaci
on es de tipo hiperbolico. Para el caso hiperbolico, las caractersticas
de la ecuaci
on dada son
1
= (x + 2y),
3
1
= (x y).
3
Por lo que, la forma can
onica de la ecuacion es
u = 0,
cuya soluci
on es
u(x, y) =
1
1
(x + y) +
(2x y) .
3
6
uy (x, 0) = 0.
Soluci
on. Consideremos la ecuacion i =
B B 2 4AC
,
2
por
i =
4 4(1)(3)
2 16
2 4
=
=
.
2
2
2
2.2 El m
etodo de Stephenson- Radmore
37
La ecuaci
on es de tipo hiperbolico. Sus caractersticas son
1
= (x + y),
4
1
= (3x y).
12
Por lo que, la forma can
onica de la ecuacion dada es
u = 0,
cuya soluci
on es
u(x, y) =
1
1
(x + y) +
(3x y) .
4
12
2.2.2.
(2.59)
(2.60)
M
etodo de Harper y
el M
etodo de Stephenson- Radmore
38
(2.61)
(2.62)
Analicemos primero el sistema de ecuaciones dado por la ecuacion (2.59). Para este
caso, la ecuaci
on Ar2 + Brs + Cs2 = 0, la multiplicamos por 4A y usando la ecuacion
B 2 = 4AC, se sigue que
4A2 r2 + 4ABrs + 4ACs2 = 0,
4A2 r2 + 4ABrs + B 2 s2 = 0,
(2Ar + Bs)2 = 0,
de aqu, obtenemos la siguiente ecuacion,
2Ar + Bs = 0.
(2.63)
(2.64)
(2.66)
2.2 El m
etodo de Stephenson- Radmore
39
Finalmente, para el caso parabolico, las nuevas variables y ahora estan definidas
por
1
= 2C
y,
B
= 2A x + y.
(2.67)
(2.68)
(2.69)
(2.71)
M
etodo de Harper y
el M
etodo de Stephenson- Radmore
40
(2.72)
B B 2 4AC
,
2
2
= 1,
2
luego, la ecuaci
on es de tipo parab
olico. Luego, para el caso parabolico, las caractersticas de la ecuaci
on dada son
= x + y,
1
= y,
2
por lo que, la forma can
onica de la ecuacion dada es
u = 0,
cuya soluci
on es
1
u(x, y) = (x + y) + y(x + y).
2
Ejemplo 2.2.5. Resolver la siguiente ecuaci
on diferencial parcial
uxx + 2uxy + uyy = 0,
con las siguientes condiciones iniciales
u(x, 0) = 0,
uy (x, 0) = cos x.
Soluci
on. Consideremos la ecuacion i =
B B 2 4AC
,
2
por
=
2
= 1,
2
2.2 El m
etodo de Stephenson- Radmore
41
luego, la ecuaci
on es de tipo parabolico. Luego, para el caso parabolico, las caractersticas de la ecuaci
on dada son
1
= y,
2
= y x,
por lo que, la forma can
onica de la ecuacion dada es
u = 0,
cuya soluci
on es
1
u(x, y) = (y x) + y(y x).
2
Aplicando las condiciones iniciales, obtenemos el siguiente sistema de ecuaciones
(x) = 0,
1
0 (x) + (x) = cos x,
2
resolviendo este sistema, llegamos a que
(x) = 0,
(x) = 2 cos x,
sustituyendo en la ecuaci
on original, obtenemos la siguiente solucion
u(x, y) = y cos (x y).
2.2.3.
Para el caso elptico, los coeficientes de la ecuacion (2.33) cumplen con B 2 4AC <
0. De la ecuaci
on (2.36), obtenemos el siguiente sistema de ecuaciones
Aa2 + Bab + Cb2 6= 0,
(2.73)
(2.74)
(2.75)
(2.76)
(2.77)
M
etodo de Harper y
el M
etodo de Stephenson- Radmore
42
Introduciendo las siguientes cantidades
2 = 2C,
= B2 (a + r),
2 = 2Aar,
(2.79)
(2.80)
Utilizando la ecuaci
on (2.79), tenemos que la ecuacion (2.80) se escribe como
2 = 2 b2 ,
2Aar = 2 b2 ,
2Aar = 2Cb2 ,
de donde
ar =
C 2
b .
A
(2.81)
(2.82)
Desarrollando la ecuaci
on (2.82) se sigue que
A2 a2 A2 ab A1 ab + 1 2 b2 = A2 r2 A2 rs A1 rs + 1 2 s2 ,
haciendo s = b en esta u
ltima ecuacion, obtenemos
A2 a2 A(1 + 2 )ab = A2 r2 A(1 + 2 )rb,
A2 (a2 r2 ) A(1 + 2 )(a r)b = 0,
A(a + r) (1 + 2 )b = 0,
A(a + r) = (1 + 2 )b,
pero 1 + 2 = B, luego esta u
ltima ecuacion se escribe como
A(a + r) = Bb.
(2.83)
2.2 El m
etodo de Stephenson- Radmore
43
B2
ar + r2 = 0,
a2 + 2ar
AC
2AC B 2
2
ar + r2 = 0,
a +
AC
2ACB 2
AC
a=
r
2ACB 2
AC
2
r2 4r2
,
luego,
a = i r,
(2.84)
donde,
B 2 2AC B B 2 4AC
i =
.
2AC
Sustituyendo la ecuaci
on (2.84) en la ecuacion (2.83) obtenemos
(2.85)
B
b,
A(i + 1)
(2.86)
B
de donde i + 1 = AC
i y i esta dada por la ecuacion (2.46), por lo que la ecuacion
(2.86) resulta ser
C
r = b.
(2.87)
i
De donde,
B
1
+
b,
a = C
AC
i
b = b,
C
r = b,
i
s = b.
Finalmente, tenemos que para el caso elptico las nuevas variables y estan
definidas por
1
B
=yC
+
x,
(2.88)
AC
i
C
= y + x,
(2.89)
i
M
etodo de Harper y
el M
etodo de Stephenson- Radmore
44
donde i est
a definida por la ecuaci
on (2.46). Observemos que
C
B
1 p 2
=
B 4AC,
i
2A 2A
(2.90)
(2.91)
(2.92)
(2.93)
B B 2 4AC
,
2
por
i =
1 4(1)(1)
1 3
1 i 3
=
=
,
2
2
2
luego, la ecuaci
on es de tipo elptico. As, para el caso elptico, las caractersticas de la
ecuacion dada son
x
3
= y
i
x,
2
2
x
3
= y
+i
x,
2
2
por lo que la forma can
onica de la ecuacion dada es
u = u = 0,
cuya soluci
on es
u(x, y) =
!
!
x
3
x
3
y
i
x +
y
+i
x
2
2
2
2
2.2 El m
etodo de Stephenson- Radmore
45
Soluci
on. Consideremos la ecuacion i = 21 (B B 2 4AC) cuya solucion
esta dada por
p
2 4 4(1)(2)
2 4
2 i2
i =
=
=
,
2
2
2
u(x, 0) = 0,
luego, la ecuaci
on es de tipo elptico. Para, el caso elptico, las caractersticas de la
ecuaci
on dada son
= (y x) ix,
= (y x) + ix,
por lo que la forma can
onica de la ecuacion dada es
u = 0,
cuya soluci
on es
u(x, y) = ((y x) ix) + ((y x) + ix),
aplicando las condiciones iniciales, obtenemos el siguiente sistema de ecuaciones
(i + 1)0 (x(i + 1)) + (i 1) 0 (x(i 1)) = 0,
0 (x(i + 1)) + 0 (x(i 1)) = 4e2x ,
resolviendo este sistema de ecuaciones, llegamos a que
(x) = 2ie2x(i1) ,
(x) = 2iex(i+1) ,
sustituyendo en la soluci
on de la ecuacion dada, obtenemos que
u(x, y) = 4ey2x sin(y).
46
M
etodo de Harper y
el M
etodo de Stephenson- Radmore
Captulo 3
El metodo de
de Adomian
Descomposicion
El metodo de descomposici
on de Adomian no cambia la naturaleza del problema, en
particular no efect
ua ninguna linealizacion ni discretizacion. Esta basado en la b
usqueda de una soluci
on en forma de serie y en la descomposicion de un operador lineal en
serie en los que los terminos se calculan de forma recurrente utilizando unos polinomios
llamados los polinomios de Adomian. Bajo ciertas condiciones de convergencia, la suma
de la serie dar
a la soluci
on exacta, pero en general la serie se truncara para dar una
buena aproximaci
on. El error de truncamiento puede ser estimado la mayora de las
veces.
Esta tecnica permite resolver una extensa gama de ecuaciones lineales y no lineales
(algebraicas, diferenciales, integrales, en derivadas parciales, . . . , etc). En este metodo
la soluci
on est
a dada por una serie, en la que cada termino se obtiene sin dificultad
puesto que los polinomios de Adomian se adaptan a la no linealidad.
En este captulo se expondr
a el metodo de descomposicion de Adomian, el cual es
usado para introducir algunos metodos iterativos definidos en las referencias [1, 11, 36].
3.1.
El m
etodo de descomposici
on de Adomian
El metodo de descomposici
on de Adomian [4, 5, 6] considera, la ecuacion no lineal
F u = g, donde g es una funci
on arbitraria y F representa el operador diferencial. F u
puede tener parte lineal y no lineal, el cual lo escribimos de la siguiente forma
Lu + N u = g,
donde el termino lineal L se descompone por L + R, mientras que los terminos no
lineales son representados por N , el operador L es invertible, R es el resto del operador
47
48
El m
etodo de Descomposici
on de Adomian
(3.1)
donde L, R, N y g son como los anteriores. Ahora podemos escribir la ecuacion (3.1)
como
Lu = g Ru N u,
y aplicando el operador invertible L1 a ambos lados de la ecuacion anterior obtenemos
la siguiente ecuaci
on
L1 Lu = L1 g L1 Ru L1 N u.
(3.2)
3.2.
Evaluaci
on del operador inverso L1
2
d
Consideremos la ecuaci
on diferencial lineal Lu = h [3], con L = dt
2 . Definamos el
R
t
operador inverso como L1 () = 0 G(t, )()d , donde G es la funcion de Green la cual
satisface
d2 G(t, )
= (t ),
(3.3)
dt2
donde , es la funci
on delta de Dirac. Una razon para definir la funcion de Green por
medio de la ecuaci
on diferencial es que esto nos proporciona una forma alternativa (y
con frecuencia m
as f
acil) de calcularla. Integrando (3.3) resulta
dG
= H(t ) + ( ),
(3.4)
dt
donde H es la funci
on Heaviside o mejor conocida como funci
on escal
on y es una
funcion arbitraria. Integrando nuevamente la ecuacion (3.4), tenemos que
G(t, ) = (t )H(t ) + t( ) + ( ),
donde es una funci
on arbitraria, entonces
Z
1
u(x, t) = L h(t) = G(t, )h( )d
Z
Z
Z
= (t )H(t )h( )d + t ( )h( )d + ( )h( )d,
(3.5)
(3.6)
3.2 Evaluaci
on del operador inverso L1
49
las funciones arbitrarias y deben ser evaluadas usando las condiciones iniciales o
condiciones de frontera sobre la solucion obtenida (3.6). Ahora consideremos algunas
posibilidades para evaluarlas.
3.2.1.
Tomando las condiciones homogeneas acotadas, las cuales estan dadas por u(x, 0) =
u(x, 1) = 0, sustituimos estas condiciones en la ecuacion (3.6) de la cual obtenemos el
siguiente sistema de ecuaciones
Z
Z
H( )h( )d + ( )h( )d = 0,
Z
Z
Z
(1 )H(1 )h( )d + t ( )h( )d + ( )h( )d = 0,
de donde
( ) = H( ),
(1 )H(1 ) + ( ) + H( ) = 0,
( ) = ( 1)H(1 ) H( ),
de modo que
G(t, ) = (t )H(1 ) + t( 1)H(1 ) + (1 t)H( ).
(3.7)
t( 1) para t < .
Tambien podemos aplicar las condiciones de frontera directamente a la funcion G
como una funci
on de t. As
G(0, ) = H( ) + ( ) = 0,
G(1, ) = (1 )H(1 ) + ( ) + ( ) = 0,
(3.9)
la cual produce los mismos resultados. Aplicando las condiciones de frontera a la ecuacion (3.8), tenemos G(0, ) = 0, lo que implica = 0. De modo similar, G(1, ) = 0,
implica que = 1, obteniendo con esto
para t <
t,
G(t, ) =
(3.10)
1 t para t > .
50
El m
etodo de Descomposici
on de Adomian
(1 t) para t > .
Por lo que la soluci
on la podemos escribir de la siguiente forma
G(t, ) = t(1 )H(t ) + (1 t)H(t ),
(3.12)
se resuelve la ecuaci
on Lu = h.
3.2.2.
Tomando las condiciones de frontera en el intervalo [0, a], las cuales estan dadas
por u(x, 0) = u(x, a) = 0, G debe satisfacer las condiciones de frontera, es decir,
G(0, ) = G(a, ) = 0 para el cual y pueden ser evaludas como antes. Tenemos que
la funcion G satisface la ecuaci
on homogenea Lu = 0 para t 6= . En consecuencia, la
d2 G
funcion G satisface dt2 = 0 excepto en t = . Por lo que, G debe ser lineal
G(t, ) =
+ B,
para t <
At
(3.13)
para t >
Ct + D,
B,
C y D.
Aplicando la condicion de contorno en t = 0 para
para ciertas constantes A,
t < , tenemos G(0, ) = 0, lo que implica A = 0. De modo similar, G(a, ) = 0 implica
+D
= 0. As
que Ca
para t <
At,
G(t, ) =
(3.14)
C(t a) para t > .
Las dos constantes restantes se determinan por medio de otras dos condiciones en
t = . La funci
on G debe ser una funcion continua en t = ,
G( 0, ) = G( + 0, ),
(3.15)
= 1,
dt
dt
(3.16)
3.2 Evaluaci
on del operador inverso L1
51
de la ecuaci
on (3.15) implica que
= C(
a),
A
mientras que de la ecuaci
on (3.16) se convierte en
A C = 1.
Resolviendo este sistema de dos ecuaciones, obtenemos
C = ,
a
a
A =
,
a
y por tanto,
(
G(t, ) =
t( a)
a ,
(ta)
a ,
cuando 0 t <
cuando < t a
equivalentemente,
G(t, ) =
3.2.3.
t( a)
(t a)
H( t) +
H(t ).
a
a
(3.17)
Condiciones iniciales
52
El m
etodo de Descomposici
on de Adomian
el u
ltimo termino de esta u
ltima ecuacion es u(x, t) ya que G00 esta dada por la ecuacion
(3.3), de donde
L1 Lu = G(t, t)u0 (x, t)G(t, 0)u0 (x, 0)G0 (t, t)u(x, t)+G0 (t, 0)u(x, 0)+u(x, t), (3.18)
de aqu se sigue que
G(t, t) = 0,
G0 (t, t) = 0,
G0 (t, 0) = 1,
sustituyendo estos valores en la ecuacion (3.18), obtenemos la siguiente ecuacion
L1 Lu = u(x, t).
(3.19)
3.2.4.
De la ecuaci
on (3.2) tomemos solo la parte izquierda (L1 Lu) y consideremos las
condiciones iniciales diferentes de cero para su evaluacion, si el operador diferencial es
d2
1 Lu se va a integrar dos veces de
de segundo orden, es decir, L = dt
2 , tenemos que L
0 a t. La primera integral est
a dada por
Z 2
d u
dt = ut (x, t) ut (x, 0),
dt2
y por u
ltimo la segunda integral est
a dada por
Z
Z
Z
(ut (x, t) ut (x, 0))dt = ut (x, t)dt ut (x, 0)dt
Z
Z
= ut (x, t)dt ut (x, 0) dt
= u(x, t) u(x, 0) tut (x, 0).
As
L1 Lu = u(x, t) u(x, 0) tut (x, 0).
(3.20)
3.2 Evaluaci
on del operador inverso L1
53
con u1 (x, 0) = u01 (x, 0) = 0 y u2 satisface Lu2 = 0 con u2 (x, 0) = a y u02 (x, 0) = b. Para
las condiciones homogeneas (es decir para u1 ), claramente G1 (0, ) y G01 (0, ) son cero,
as
H( ) + ( ) = 0,
H( ) + ( ) = 0,
y
G(t, ) = (t )H(t ) tH( ) + H( ),
G0 (t, ) = H(t ) H( ).
2
+ B.
Entonces u0 (x, 0) = b, u2 (x, 0) = a
Para u2 tenemos que ddtu22 = 0, as, u2 = At
2
y u2 = bt + a. Con esto tenemos que
u = u1 + u2 ,
Z t
=
[(t )H(t ) tH( ) + H( )]x( )d + bt + a,
0
Z t
=
(t )H(t )x( )d + bt + a,
0
pero este u
ltimo lo podemos escribir como
u = u(x, 0) + tu0 (x, 0) + L1 g,
Rt
donde L1 g = 0 (t )H(t )g( )d para t > . Los primeros terminos son exactamente los que usamos anteriormente. El termino L1 , como se puede observar, es una
integral simple.
3.2.5.
Para este caso las condiciones de frontera no homogeneas estan dadas por u(x, 0) =
a, u(x, 1) = b, tomando el mismo procedimiento que se utilizo en las condiciones de
frontera homogeneas consideremos la siguiente ecuacion u = u1 + u2 , tal que
Lu1 = h,
Lu2 = 0,
donde
Z
u1 =
u2 (x, 1) = b.
54
El m
etodo de Descomposici
on de Adomian
Tomando estas condiciones y sustituyendo en la ecuacion (3.5), obtenemos las siguientes ecuaciones
G1 (0, ) = H( ) + ( ) = 0,
G1 (1, ) = (1 )H(1 ) + ( ) + ( ) = 0.
As
( ) = H( ),
( ) = (1 )H(1 ) H( ),
sustituyendo estos valores en la ecuacion (3.5), se sigue que
G1 = (t )H(t ).
2
A + B = b o A + a = b o A = b a. Por lo que,
u2 = a + (b a)t = u(x, 0) + t(u(x, 1) u(x, 0)),
de donde, la soluci
on est
a dada por
Z
u(x, t) =
0
3.2.6.
Condiciones mixtas
(3.21)
3.3 Soluci
on de la ecuaci
on diferencial
3.3.
55
Soluci
on de la ecuaci
on diferencial
De la ecuaci
on (3.2) y la ecuacion (3.20), tenemos que
u = u(x, 0) + tut (x, 0) + L1 g L1 Ru L1 N u.
(3.22)
X
u(x, t) =
un (x, t),
n=0
An ,
n=0
donde los terminos An son los polinomios de Adomian, sustituyendo estas dos u
ltimas
ecuaciones en (3.3), tenemos que
un (x, t) = u0 L1 R
n=0
un L1
n=0
An ,
n=0
donde
u0 = u(x, 0) + tut (x, 0) + L1 g.
Teniendo en cuenta lo anterior, podemos observar que el metodo de descomposicion
resuelve ecuaciones
diferenciales de la forma F u = g, escribiendo a u como una suma
P
de la forma
u
on de la parte lineal.
n=0 n y tomando a u0 como la soluci
En consecuencia, podemos reescribir como
u1 = L1 Ru0 L1 A0 ,
u2 = L1 Ru1 L1 A1 ,
..
.
un+1 = L1 Run L1 An ,
n0
56
El m
etodo de Descomposici
on de Adomian
Los polinomios de Adomian son generados por cada componente no lineal y estan
dados por
A0 = f (u0 ),
A1 = u1 f 0 (u0 ),
A2 = u2 f 0 (u0 ) +
u21 00
f (u0 ),
2
A3 = u3 f 0 (u0 ) + u1 u2 f 0 (u0 ) +
u31 00
f (u0 ),
3!
..
.
donde f (u) est
a dado por
f (u()) =
An n .
n=0
donde
n =
n1
X
uk (x, t),
n 0,
k=0
este u
ltimo puede ser usado para la aproximacion de la solucion.
3.4.
Convergencia del m
etodo de Adomian
Lu = g N u,
u = u0 L1 N u = u0 L1
An ,
n=0
3.5 An
alisis del m
etodo Homot
opico
57
Por lo tanto
u = F 1 g = u0 L1 A0 L1 A0 . . . .
Operando con F , tenemos que
F u = F (F 1 g),
= F (u0 L1
An ),
n=0
= L(u0 L1
An ) + N (u0 L1
n=0
= L(u0 )
An ),
n=0
An +
n=0
Bn ,
n=0
n = u0 L
n+1 = u0 L1
n1
X
i=0
n
X
Ai ,
Ai = u0 L1
i=0
n1
X
Ai L1 An ,
i=0
3.5.
An
alisis del m
etodo Homot
opico
A continuaci
on daremos una descripcion del metodo de analisis homotopico [4].
Consideremos el operador diferencial no lineal N . Sea h 6= 0 y un n
umero complejo.
Sean adem
as A y B dos funciones analticas complejas en la region || 1, tales que
A(0) = B(0) = 0,
A(1) = B(1) = 1.
Adem
as, sean
A() =
1,k k ,
k=1
B() =
X
k=1
1,k k ,
(3.24)
58
El m
etodo de Descomposici
on de Adomian
X
k=1
1,k = 1,
1,k = 1.
k=1
(3.26)
(3.27)
yh=
6 0 es un par
ametro auxiliar, u0 (x) es una condicion inicial. Usando el hecho de
que A(0) = 0 y que B(0) = 0, y sustituyendo en la ecuacion (3.26), tenemos que
L(u(x, 0) u0 (x)) = 0,
(3.28)
u(x, 0) = u0 (x).
(3.29)
esto es
De forma similar, cuando = 1, la ecuacion (3.26) es igual a esta u
ltima, teniendo
u(x, 1) = u(x).
(3.30)
Tenemos que u(x, ) converge en el intervalo 0 1, esto es, por como se han
definido h, A y B. M
as aun, sup
ongase que
u0 (x) =
k u(x, )
|=0 ,
k
k = 0, 1, 2, . . . .
(3.31)
k
X
u(x, )
k=1
|=0
k
.
k!
(3.32)
3.6 Derivaci
on del m
etodo de descomposici
on de Adomian
59
X
u(x) = u0 (x) +
um (x),
(3.33)
m=1
donde
m u(x,)
|=0
um (x)
m
um (x) = 0
=
,
m 1.
(3.34)
m!
m!
Derivemos um (x), mveces con respecto a , para obtener
m k
m k
X
X
m d (1 B()) dmk
m d A() dmk N u(x, )
(Lu(x,
)
Lu
(x))
=
h
,
0
k
k
dk
dmk
dk
dmk
k=0
k=0
(3.35)
dividiendo la ecuaci
on anterior por m! y haciendo = 0, obtenemos la siguiente ecuacion, conocida como ecuaci
on de deformaci
on de orden m, esto es
!
m1
X
1,k umk (x) = Rm (x),
(3.36)
L um (x)
k=1
donde Rm (x) depende de los valores u0 (x), u( x),. . ., y esta dada por
Rm (x) = h
m
X
(3.37)
1 dk N u(x, )
|=0 ,
k!
dk
(3.38)
k=1
3.6.
Derivaci
on del m
etodo de descomposici
on de Adomian
El metodo de descomposici
on de Adomian puede ser derivado por el analisis homotopico usando el siguiente teorema [8].
Teorema 3.6.1. Sean los operadores A y B dados por A() = y B() = y sea
un par
ametro auxiliar h = 1. Entonces
An (x) = hn (x).
Demostraci
on.
Asumimos que la soluci
on de la ecuacion (3.1) depende del parametro , (0 1),
es mas, supongamos tambien que la solucion esta dada por w(x, ) y esta solucion es
analtica en = 0, tal que
60
El m
etodo de Descomposici
on de Adomian
w(x, ) =
X
k k w(x, )
k=0
k!
|=0 .
(3.39)
(3.40)
donde la condici
on inicial u0 es la solucion del operador lineal
L(w(x, 0)) = 0.
(3.41)
L(w(x, ))
F (w(x, ))
) (L(w(x, )) L(u0 )) = F (w(x, ))
,
(w(x, ))
|=0 ) + L(u0 ) = F (w(x, )),
(w(x, ))
|=0 ) = L(u0 ) F (w(x, )),
L(
(w(x, ))
L(
|=0 ) = L(u1 ),
= F (u0 ) = A0 ,
o
u1 (x) = L1 (A0 ).
(3.42)
Derivando la ecuaci
on (3.41) n-veces con respecto de tenemos
n k
n k
X
X
n (1 ) nk
n () nk F (w(x, ))
(L(w(x,
))
L(u
))
=
.
0
k
k k
k
nk
nk
k=0
k=0
(3.43)
Simplificando la ecuaci
on anterior y dividiento por m!, con = 0, obtenemos la
siguiente ecuaci
on lineal para un
L(un ) = An1 ,
un = L1 (An1 ),
de donde
An =
1 n F (w(x, ))
|=0 = hn (x).
n!
n
(3.44)
3.6 Derivaci
on del m
etodo de descomposici
on de Adomian
61
u0 (x) +
um (x),
(3.45)
m=1
Rm (x) =
m=1
L um
m1
X
m=1
=L
=L
=L
!
1,k umk (x) ,
k=1
m=1
m1
X
X
um (x)
um (x)
!
1,k umk (x) ,
m=1 k=1
m1
X
X
m=1
k=1 m=k+1
um (x)
m=1
=L
1,k
!
1,k
m1
X
!
umk (x) ,
m=1
k=1
!
um (x) .
m=1
k=1
0 cuando k = 0
1 cuando k = 1 ,
1,k =
0 cuando k6=1
estan dadas por la ecuaci
on anterior, luego
Rm (x) = 0.
m=1
De otra manera
X
m=1
Rm (x) =
m
X
m=1 k=1
=h
=h
=h
1,k
m=1
X
m=1
X
m=1
1,k
1,k
X
m=k
X
m=0
X
m=0
hmk (x),
hm (x),
1 n N (u(x, ))
|=0 .
m!
n
(3.46)
62
El m
etodo de Descomposici
on de Adomian
Ahora, recordemos que A() = . As
0 cuando
1 cuando
1,k =
0 cuando
P
Luego
la expresion toma la
k=1 1,k = 1. As
Rm (x) = h
m=1
hm (x) = h
m=1
k=0
k=1 .
k6=1
forma
X
1 m F u(x, )
|=0 .
m!
m
(3.47)
m=1
X
1 m F u(x, )
|=0 = 0.
m!
m
(3.48)
m=1
X
X
m F (x, )
m (x, )
1
1
|
=
|=0 .
=0
m
m!
m
m!
(3.49)
m=1
m=1
De acuerdo a la ecuaci
on (3.45), la serie de Maclaurin converge a = 1, se dice que
(x, 1) = F u(x, 1) =
X
1 m (x, )
|=0 ,
m!
m
(3.50)
m=1
tal que
u(x) = u(x, 1) = u0 (x) +
um (x),
(3.51)
m=1
es solucion de la ecuaci
on F (x, u).
Captulo 4
de
Metodos de Aproximacion
Soluciones
Los metodos de aproximaci
on analtica a la solucion de EDPs, proporcionan frecuentemente informaci
on u
til acerca del comportamiento de la solucion en valores crticos de la variable dependiente, pero tienden a ser mas difciles de aplicar que los metodos
numericos. Entre las consideraciones que justifican el uso de metodos numericos para
solucionar ciertos tipos de EDPs se encuentran
Los datos de los problemas reales presentan siempre errores de medicion, y el
trabajo aritmetico para la solucion esta limitado a un n
umero finito de cifras
significativas que resultan en errores de redondeo.
La evaluaci
on numerica de las soluciones analticas es a menudo una tarea laboriosa y computacionalmente ineficiente, mientras que los metodos numericos
generalmente proporcionan soluciones numericas adecuadas, de manera mas simple y eficiente.
En a
nos recientes las tecnicas mas populares para resolver EDPs de forma numerica
son el metodo de diferencias finitas y los Algoritmos Geneticos. Ambos metodos pueden
ser usados para m
as problemas, incluyendo ecuaciones con coeficientes constantes o
no constantes, ecuaciones no lineales, entre otros. En este captulo nos limitaremos a
introducir las ideas b
asicas de estos dos metodos tan populares.
4.1.
M
etodo de diferencias finitas
64
M
etodos de Aproximaci
on de Soluciones
(4.1)
k2
k3
(uyy )i,j (uyyy )i,j + . . . ,
2!
3!
(4.2)
h2
k2
(uxx )i,j hk(uxy )i,j + (uyy )i,j + . . . ,
2!
2
(4.3)
h2
k2
(uxx )i,j hk(uxy )i,j + (uyy )i,j + . . . ,
2!
2
(4.4)
donde,
ui,j = u(x, y),
ui1,j = u(x h, y),
ui,j1 = u(x, y k),
ui+1,j1 = u(x + h, y 1),
ui1,j1 = u(x h, y 1).
La combinaci
on de estas f
ormulas de diferencia nos pueden conducir a muy diferentes formas de aproximar las derivadas parciales (de primer y segundo orden) de
la funcion u(x, y). Pero no todas las formas posibles de combinar distintas formulas
nos conducir
a a esquemas de c
alculo que tengan un buen comportamiento, es decir, la
aproximaci
on de la soluci
on de la EDP es cercana a la de la solucion analtica.
Ahora, elijamos un conjunto de rectangulos con vertices espaciados uniformemente
en Pi,j con coordenadas (ih, jk), donde i, j son enteros positivos, negativos o cero, h,
4.1 M
etodo de diferencias finitas
65
k es el tama
no del espaciado que hay entre cada i y j, como se muestra en la Figura
(4.1).
Ahora, denotemos a u(ih, jk) por ui,j . Con la anterior expansion en series de Taylor,
podemos expresar de forma aproximada a ux en el vertice Pi,j en terminos de ui,j , ui1,j
1
1
[u(x + h, y) u(x, y)] (ui+1,j ui,j ) + O(h),
h
h
1
1
ux = [u(x, y) u(x h, y)] (ui,j ui1,j ) + O(h),
h
h
1
[u(x + h, y) u(x h, y)]
ux =
2h
1
ux =
(4.5)
Estas expresiones son llamadas diferencias hacia adelante, diferencias hacia atras y
diferencia central de ux , respectivamente. Las cantidades O(h) o O(h2 ) son conocidas
como el error de truncamiento en este proceso de discretizacion (vease apendice A).
Un resultado de aproximaci
on similar, tomado de la expansion en series de Taylor
dadas por la ecuaci
on (4.1) para uxx en el vertice Pi,j , es
1
[u(x + h, y) 2u(x, y) + u(x h, y)]
h2
1
2 [ui+1,j 2ui,j + ui1,j ] + O(h2 ).
h
uxx =
(4.6)
De forma similar las aproximaciones para uy , uyy y uxy en Pi,j tomadas de las
66
M
etodos de Aproximaci
on de Soluciones
2k
1
uyy = 2 [u(x, y + k) 2u(x, y) + u(x, y k)]
k
1
2 (ui,j+1 2ui,j + ui,j1 ) + O(k 2 ),
k
1
uxy = [u(x + h, y k) u(x + h, y) u(x, y k) + u(x, y)]
hk
1
(ui+1,j1 ui+1,j ui,j1 + ui,j ).
hk
uy =
(4.7)
(4.8)
(4.9)
Todas estas f
ormulas de diferencia son extremadamente u
tiles en la b
usqueda de
soluciones numericas de EDPs de primer o segundo orden.
Representemos a U (x, y) como la solucion exacta de la EDP dada por L(U ) = 0,
donde L(U ) es un operador diferencial con variables independientes x y y, y ui,j es
la solucion exacta de la correspondiente ecuacion en diferencias finitas F (ui,j ) = 0.
Entonces, el esquema de diferencias finitas se dice que es convergente si ui,j tiende a U
cuando h y k tienden a cero. La diferencia di,j (Ui,j ui,j ), es llamada el error de
truncamiento acumulativo (o discretizaci
on) [27].
4.1.1.
Consideremos la ecuaci
on de Euler introducida en el captulo 1 con coeficientes
constantes, la cual est
a dada por
(4.10)
4.1 M
etodo de diferencias finitas
67
1
A
(u(x h, y) 2u(x, y) + u(x + h, y)) +
h2
1
B 2 (u(x + h, y h) u(x + h, y) u(x, y h) + u(x, y)) +
h
1
C
(u(x,
y
h)
2u(x,
y)
+
u(x,
y
+
h))
= 0,
h2
A(u(x h, y) 2u(x, y) + u(x + h, y))+
B(u(x + h, y h) u(x + h, y) u(x, y h) + u(x, y))+
C(u(x, y h) 2u(x, y) + u(x, y + h)) = 0,
Au(x h, y) (2A + B + 2C)u(x, y) + (A + B)u(x + h, y)
Bu(x + h, y h) + (B + C)u(x, y h) + Cu(x, y + h) = 0,
(4.11)
1
(Au(x h, y) + (2A + B + 2C)u(x, y)
C
(A + B)u(x + h, y) + Bu(x + h, y h) (B + C)u(x, y h)),
(4.12)
1
(Aui1,j + (2A + B + 2C)ui,j (A + B)ui+1,j +
C
Bui+1,j1 (B + C)ui,j1 ).
(4.13)
o bien
ui,j+1 =
1
(Aui1,j + (2A + 2C)ui,j Aui+1,j Cui,j1 ).
C
(4.14)
1
(Aui1,j+2 + (2A + B)ui,j+2 (A + B)ui+1,j+2 + Bui+1,j+1 .
B
(4.15)
1
((B + 2C)ui,j Bui+1,j + Bui+1,j1 (B + C)ui,j1 ).
C
(4.16)
En particular para las siguientes ecuaciones, sus esquemas estan dados de la siguiente forma [10, 25]
68
M
etodos de Aproximaci
on de Soluciones
Ecuaci
on hiperb
olica (ecuaci
on de onda): la cual esta dada por la siguiente ecuacion
utt = c2 uxx ,
(4.17)
cuya soluci
on en diferencias finitas esta dada por
ui+1,j 2ui,j + ui1,j
ui,j+1 2ui,j + ui,j1
= c2
.
k2
h2
Ecuaci
on parab
olica (ecuaci
on de calor): cuya ecuacion es la siguiente
ut = c2 uxx ,
(4.18)
ui,j+1 ui,j =
donde =
c2 k
.
h2
Ecuaci
on elptica (ecuaci
on de Laplace): la cual esta dada por
uxx = uyy ,
(4.19)
4.2.
M
etodo de algoritmos gen
eticos
Los algoritmos geneticos son metodos evolutivos que pueden usarse para resolver
problemas de b
usqueda y optimizacion que consisten basicamente en encontrar un grupo de valores x1 , x2 , . . . , xn tales que la funcion F (x1 , x2 , . . . , xn ) sea maxima o mnima,
la cual depende de la naturaleza del problema, pudiendo ser esta funcion, lineal o no
lineal, continua o discontinua con respecto a cada una de sus variables independientes.
Estan basados en el proceso evolutivo de los organismos vivos, los cuales son: seleccion natural de los mejores individuos de una poblacion, reproduccion de los individuos
mas fuertes y herencia a nivel genetico de las mejores caractersticas de estos individuos.
En un algoritmo genetico cada solucion potencial constituye un individuo de la
poblacion, a cada individuo se le asigna un valor de aptitud, para que los mejores
individuos tengan mayor probabilidad de reproducirse, transmitiendo parte de su informacion a sus descendientes.
4.2 M
etodo de algoritmos gen
eticos
69
En un algoritmo genetico, se llama cromosoma a la agrupacion de todas las variables xi1 , xi2 , . . . , xin de la soluci
on de un problema, donde i es el ndice de la solucion
y n es el tama
no del cromosoma, es decir, es el n
umero de variables de la solucion i.
La codificaci
on numerica de una solucion al problema, se le conoce como genotipo. Un
genotipo representa una soluci
on al problema en forma codificada y puede verse como
un arreglo de valores numericos. Cada genotipo constituye el material genetico de un
individuo de la poblaci
on.
A la funci
on F (x1 , x2 , . . . , xn ) se le conoce como funci
on aptitud y el valor que
esta funci
on devuelve se llama fenotipo del individuo; el fenotipo consiste en un valor numerico que indica que tan buena es esa solucion al problema. Para resolver un
problema mediante un algoritmo genetico, primero se debe determinar de que parametros depende el problema y asignar una variable a cada parametro, estas variables
x1 , x2 , . . . , xn constituyen el cromosoma del algoritmo genetico; despues debe construirse la funci
on de aptitud F (x1 , x2 , . . . , xn ) que permita evaluar que tan buena es
una soluci
on.
La poblaci
on inicial consiste en un grupo de soluciones al problema (individuos)
codificadas en genotipos; estos genotipos pueden especificarse o ser generados aleatoriamente entre un intervalo determinado de valores para cada variable del cromosoma.
Cuando se tiene la poblaci
on inicial, se eval
uan todos los genotipos de los individuos,
por medio de la funci
on aptitud, para determinar el fenotipo de cada individuo; luego
se asigna un valor de probabilidad a cada individuo, seg
un su fenotipo, de forma que
los mejores individuos de la poblacion tengan mayor valor de probabilidad.
Despues de que cada individuo tiene asignado un valor de probabilidad, se crea un
determinado n
umero de parejas de individuos al azar, seg
un la probabilidad de cada
uno y pudiendo participar, en la creacion de cada pareja, todos los individuos de la
poblaci
on, sin importar si ya fue seleccionado en otra pareja. Luego cada pareja se reproduce, produciendo un determinado n
umero de hijos, que constituyen un intercambio
de la informaci
on de los padres.
Los hijos de todas las parejas, luego de su creacion, pueden sufrir mutaciones, esto
es, cambios en los valores de su genotipo; para un funcionamiento adecuado de un algoritmo genetico, la probabilidad de mutacion de un individuo debe ser baja. Los hijos
de todas las parejas de individuos formaran parte de la segunda generacion, estos nuevos individuos pueden sustituir a todos los de la generacion anterior o solamente a los
que tengan menor valor de probabilidad; tambien puede calcularse el fenotipo de estos
nuevos individuos, para que s
olo los mejores sustituyan a otros de la generacion anterior.
Cuando los nuevos individuos han sustituido a otros de la generacion anterior, se
habra formado una nueva poblacion o generacion de individuos; despues se vuelve a
realizar el mismo proceso de emparejamiento, reproduccion y sustitucion de individuos
de la poblaci
on, hasta que aparezca el individuo que constituya la solucion al problema.
70
M
etodos de Aproximaci
on de Soluciones
De lo anterior, puede verse que los individuos de cada generacion compiten para ver
cual constituye la mejor soluci
on al problema, de forma que solo los mejores sobrevivan
o lleven parte de su material genetico (genotipo) a las siguientes generaciones.
Algunas de las ventajas que tienen los algoritmos geneticos son:
Trabajan con un conjunto de puntos, no con un unico punto y su entorno.
No necesitan conocimientos especficos sobre el problema a resolver.
4.2.1.
entera
3
2
binaria
1 1
1 0
4.2 M
etodo de algoritmos gen
eticos
71
Tama
no de la poblaci
on
La poblaci
on es el conjunto de individuos con los que se trabaja en el algoritmo
genetico, estos individuos constituyen posibles soluciones al problema. Los individuos
que constituyen la poblaci
on van cambiando durante el funcionamiento del algoritmo
genetico, pero el tama
no de la poblacion puede permanecer constante.
Una de las inquietudes mas importantes en algoritmos geneticos es el tama
no de
la poblaci
on ya que al parecer las poblaciones que son peque
nas corren el riesgo de no
cubrir adecuadamente el espacio de b
usqueda, mientras que las poblaciones de gran
tama
no nos pueden llevar a problemas relacionados con el costo excesivo. Por lo que el
tama
no de la poblaci
on se determina seg
un el criterio del dise
nador, tomando en cuenta
la cantidad de genes del cromosoma y el intervalo de valores que estos pueden adquirir.
Poblaci
on inicial
La poblaci
on inicial generalmente es creada asignando valores aleatorios a los genes
de cada individuo, dentro de un intervalo determinado y con la misma probabilidad de
ocurrencia.
La poblaci
on inicial de un algoritmo genetico puede ser creada de muy diversas
formas, desde generar aleatoriamente el valor de cada gen para cada individuo, utilizar
una funci
on, generar alguna parte de cada individuo, o partir de la solucion de otro
algoritmo heurstico y luego aplicar una b
usqueda local.
Funci
on aptitud
La funci
on aptitud es la herramienta que permite medir que tan buena es una
solucion. Al construir una funci
on aptitud nos interesara que este verifique que para
dos individuos que se encuentren cercanos en el espacio de b
usqueda, sus respectivos
valores en las funciones aptitud sean similares.
Una buena funci
on aptitud debe reflejar el valor del individuo de una manera real,
pero en muchos problemas de optimizacion combinatoria, donde existe gran cantidad
de restricciones, buena parte de los puntos del espacio de b
usqueda representan individuos no validos [18].
Un problema habitual en las ejecuciones de los algoritmos geneticos surge debido
a la velocidad con la que el algoritmo converge. En algunos casos la convergencia es
muy rapida, lo que suele denominarse convergencia prematura, en la cual el algoritmo
converge hacia
optimos locales, mientras que en otros casos el problema es justo lo contrario, es decir se produce una convergencia lenta del algoritmo. Una posible solucion a
estos problemas pasa por efectuar transformaciones en la funcion aptitud. El problema
de la convergencia prematura, surge a menudo cuando la seleccion de individuos se
realiza de manera proporcional a su funcion aptitud. En tal caso, pueden existir individuos con una adaptaci
on al problema muy superior al resto, que a medida que avanza
72
M
etodos de Aproximaci
on de Soluciones
f=
Aptitud
25
81
36
144
P
= 286
286
,
4
Valor e
0. 35
1. 13
0. 51
2. 01
P
= 4.00
V alor ei =
T =
fi
,
f
V alor e.
4.2 M
etodo de algoritmos gen
eticos
73
Aptitud
254
47
457
194
85
310
de forma aleatoria escoger r (0, 1), luego podemos obtener los siguientes resultados
Ganador
Selecciona
Selecciona
t1 = r
t2 = r
t1 = r
t2 = r
= (3)
= (6)
= (1)
= (4)
(3)
(1)
74
M
etodos de Aproximaci
on de Soluciones
Ejemplo 4.2.3. Consideremos los siguientes cromosomas progenitores
P1 =
P2 =
1
1
0
1
1
1
0
0
1
1
1
1
0
1
1
0
considerando a la posici
on 4 como el punto de cruce, los hijos resultantes son
H1 =
H2 =
1
1
0
1
1
1
0
0
1
1
1
1
1
0
0
1
1
1
0
1
1
1
1
0
0
1
1
1
0
1
1
0
considerando a las posiciones 2 y 6 como los puntos de cruce, los hijos resultantes
son
H1 =
H2 =
1
1
0
1
1
1
0
1
1
0
1
1
0
1
1
0
Cruce Uniforme. Se realiza un test aleatorio para decidir de cual de los progenitores se toma cada posicion de la cadena.
Ejemplo 4.2.5. Consideremos los siguientes cromosomas progenitores
P1 =
P2 =
1
1
0
1
1
1
0
0
1
1
1
1
0
1
1
0
1
1
0
1
1
1
0
0
1
1
1
1
0
1
0
0
4.2 M
etodo de algoritmos gen
eticos
75
76
M
etodos de Aproximaci
on de Soluciones
Cruce de ciclo (CX). Tomamos el primer gen del genoma del padre,
poniendolo en la primera posicion del hijo, y el primer gen del genoma de la
madre, poniendolo dentro del cromosoma del hijo en la posicion que ocupe
en el genoma del padre. La variable que este en la posicion que ocupa el gen
del genoma del padre igual al primer gen del genoma de la madre se va a
colocar en la posici
on que ocupe en el genoma del padre, y asi hasta rellenar
el genoma del hijo.
4.2 M
etodo de algoritmos gen
eticos
77
El operador mutaci
on se aplica, con muy baja probabilidad, a los individuos recien
creados por el operador cruce; la probabilidad de mutacion se establece seg
un el criterio del dise
nador, pero esta debe ser bastante baja, ya que puede reducir el algoritmo
genetico a una b
usqueda local; generalmente la probabilidad de mutacion es de 0.1.
El objetivo del operador de mutacion es producir nuevas soluciones a partir de la
modificaci
on de un cierto n
umero de genes de una solucion existente, con la intencion
de fomentar la variabilidad dentro de la poblacion.
Existen diferentes formas de realizar la mutacion, desde la mas sencilla (Puntual),
donde cada gen muta aleatoriamente con independencia del resto de los genes, hasta
configuraciones m
as complejas donde se tienen en cuenta la estructura del problema y
la relaci
on entre los distintos genes [12, 18].
4.2.2.
Reemplazo de la poblaci
on y condici
on de paro
78
M
etodos de Aproximaci
on de Soluciones
individuo, luego de aplicar las operaciones de cruce y mutacion; este ajuste consiste en
alterar los genes del individuo, de forma que sea valida la solucion que este represente.
En algunas aplicaciones, todos los individuos que se producen, luego de la operacion de
cruce y mutaci
on, contienen soluciones validas al problema; en estas aplicaciones no es
necesario ajustar los genotipos de los individuos, aunque en algunos casos sus valores se
ajustan para evitar que la poblaci
on se aleje de la solucion. El ajuste que debe realizarse
al genotipo de cada individuo, vara con el tipo de problema que se intenta resolver; el
objetivo de este ajuste es hacer que la solucion, que el individuo representa, sea valida.
4.2.3.
Dise
no del algoritmo gen
etico para la soluci
on de EDPs de
segundo orden
4.2 M
etodo de algoritmos gen
eticos
79
representaci
on binaria x
Posicion y
representacion binaria y
0.0001
00000000000001
0.0010
00000000001010
Para este caso presentado en la Tabla (4.2), la precision es a 4 decimales por lo que,
se tiene que hacer una multiplicacion del n
umero real por 10, 000 para la conversion a
su n
umero binario.
Generaci
on de la poblaci
on inicial
El tama
no de la poblaci
on debe establecerse cuidadosamente, ya que la b
usqueda
de la soluci
on no mejorar
a al aumentar demasiado el tama
no de la poblacion y si la
poblaci
on es peque
na, el algoritmo genetico no podra encontrar la solucion al problema,
esto es consecuencia de que no existe un metodo para establecer el tama
no optimo de
la poblaci
on en un algoritmo genetico. Al establecer el tama
no de la poblacion, debe
tomarse en cuenta el tama
no del cromosoma, ya que al aumentar la cantidad de genes,
tambien debe aumentarse el tama
no de la poblacion. En la resolucion de EDPs de
segundo orden, la cantidad de genes depende de la precision de los puntos x y y, por lo
que para resolver una EDP, con una buena precision, se necesita una poblacion mayor
que la necesaria para resolver un problema con una menor precision, y como consecuencia al tener una poblaci
on grande, el tiempo requerido por el algoritmo genetico para
encontrar la soluci
on ser
a mayor. Se han realizado diversos experimentos con la finalidad de obtener un tama
no adecuado para la poblacion, llegando a la conclusion que
para la mayora de los problemas considerados, un tama
no entre 50 y 100 individuos
proporciona buenos resultados. La poblacion inicial se genera en forma aleatoria en el
intervalo [a, b], este intervalo depende de las condiciones iniciales del problema
Funci
on aptitud
La funci
on aptitud debe asignar un valor numerico a cada individuo, de acuerdo a su
cercana con la soluci
on del problema, este valor nos permitira comparar dos individuos
y determinar que tan bueno es uno de ellos con respecto al otro, en su capacidad de
resolver el problema.
Para determinar si un individuo soluciona la EDP de segundo orden, se deben calcular los valores aproximados de la EDP de segundo orden en las posiciones (x, y),
para este c
alculo se utilizan los esquemas en diferencias finitas adaptadas para la forma
cuadratica de la EDP de segundo orden, es decir, se emplea la ecuacion Ax2 +Bxy+Cy 2 ,
si el esquema calculado en la posicion (x, y) son iguales a los especificados por la solucion analtica, entonces solucionan la EDPs de segundo orden.
80
M
etodos de Aproximaci
on de Soluciones
Con el fin de poder tener una buena aproximacion se ha definido una funcion aptitud
que depende del error relativo, esto es
FAptitud = er =
(4.20)
FAptitudi
N
X
(4.21)
FAptitudj
j=1
4.2 M
etodo de algoritmos gen
eticos
81
intercambiar o promediar los valores de sus genes, los cuales representan la posici
on (x, y). El operador de cruce puede ser uniforme o realizarse en uno o varios
puntos y adem
as de intercambiar los valores de los genes de los padres. Tambien
se deben promediar estos valores, para que el algoritmo genetico pueda acercarse
a la soluci
on de la EDP.
El operador de cruce utilizado para resolver EDPs de segundo orden puede
variar seg
un el criterio del dise
nador, pero dependera de un cruce adecuado, que
obtenga la soluci
on del problema, el operador de cruce que se ocupa es el cruce
uniforme el cual lo dividimos en tres puntos, los cuales se encuentran en las
posiciones 4, 7, 10, 19, 21 y 25. Esto es debido a que el tama
no del cromosoma
es de 30, obteniendo de este operador de cruce, dos nuevos individuos.
Operador de mutaci
on. La operacion de mutacion se aplica a los nuevos individuos, luego de su creaci
on. Esta operacion debe alterar, en una peque
na cantidad,
el valor de un gen escogido al azar, es decir, la probabilidad de mutacion.
El operador de mutacion para resolver una EDP de segundo orden, alterar
a dos genes que correspondan a la parte binaria, el cual su valor va a variar
entre 0 y 1, la posici
on que va alterarse se escogera de forma aleatoria entre 1 y
14 y la otra posici
on entre 16 y 30, las cuales corresponden a las partes binarias
de cada posici
on. De no ser as, el valor de aptitud de ese indviduo podra decrecer grandemente y esto provocara que el individuo desapareciera sin legar su
material genetico.
82
M
etodos de Aproximaci
on de Soluciones
Captulo 5
del Metodo de
Aplicacion
de
Harper para la Ecuacion
Euler
En este captulo presentaremos una aplicacion del metodo de Harper a la ecuacion
de Euler dada en el capitulo 1, el cual nos permitira dar un nuevo metodo para resolver
las EDPs de tipo hiperb
olico, parabolico y elptico .
Para la aplicaci
on del metodo a la ecuacion de Euler se consideran 5 casos, es decir,
los coeficientes de la ecuaci
on son de la siguiente forma
Caso I. A 6= 0, B 6= 0 y C 6= 0.
Caso II. A 6= 0, B 6= 0 y C = 0.
Caso III. A = 0, B 6= 0 y C 6= 0.
Caso IV. A = 0, B 6= 0 y C = 0.
Caso V. A 6= 0, B = 0 y C 6= 0.
Teniendo en cuenta los casos anteriores, y sabiendo que el factor mas importante en
el metodo de Harper es no considerar alguna de las segundas derivadas, a continuacion
daremos el procedimiento que se realizo para la obtencion de las nuevas soluciones para
cada caso mencionado anteriormente.
5.1.
Caso I
84
Aplicaci
on del M
etodo de Harper para la Ecuaci
on de Euler
(5.1)
(5.2)
se escribe como
(5.3)
(5.4)
2
(5.5)
5.1 Caso I
85
1
GX + Yx GY ,
A
1
uy = GX Xy + GY Yy = GX + Yy GY ,
B
1
1 1
uxx =
GXX + GXY Yx + Yx
G Y X + G Y Y Yx
A A
A
1
2
= 2 GXX + Yx GXY + Yx2 GY Y + Yxx GY ,
A
A
1
1
1
GXX +
Yy Yx GXY + Yx Yy GY Y
uxy = Yxy GY
AB
A
B
1
1
1
=
GXX +
Yy Yx GXY + Yx Yy GY Y + Yxy GY ,
AB
A
B
1
1
1
GXX + GXY Yy + Yy GY X + GY Y Yy
uyy =
B
B
B
1
2
= 2 GXX Yy GXY + Yy2 GY Y + Yyy GY .
B
B
ux = GX Xx + GY Yx =
Aplicando la ecuaci
on (5.5), estas derivadas resultan ser
ux = A1 GX + Yx GY ,
uy = B1 GX + Yy GY ,
uxx = A12 GXX + A2 Yx GY X + Yx2 GY Y ,
1
uxy = AB
GXX + ( A1 Yy B1 Yx )GXY + Yx Yy GY Y ,
uyy = B12 GXX B2 Yy GXY + Yy2 GY Y ,
(5.6)
(5.8)
86
Aplicaci
on del M
etodo de Harper para la Ecuaci
on de Euler
(5.9)
(5.10)
Por otro lado, para poder determinar la variable Y , debemos encontrar la solucion
de la ecuaci
on diferencial parcial no lineal (5.9). Para utilizar el Metodo de Charpit(
vease apendice B ), consideremos la siguiente funcion
F (p, q) = Ap2 + Bpq + Cq 2 = 0,
(5.11)
Ba
B 2 a2 4ACa2
B B 2 4AC
=
a.
2A
2A
B B 2 4AC
dY =
adx + ady,
2A
integrando esta ecuaci
on y tomando a = 1, tenemos que la variable Y esta dada por
B B 2 4AC
Y =
x + y.
(5.12)
2A
Introduciendo las siguientes cantidades
B B 2 4AC
,
i =
2A
(5.13)
(5.14)
donde i = 1, 2. A continuaci
on, analicemos los casos que corresponden a las ecuaciones
del tipo hiperb
olico, parab
olico y elptico para la ecuacion (5.14).
5.1 Caso I
5.1.1.
87
Caso hiperb
olico
Para este caso, tenemos que B 2 4AC > 0 y las cantidades i son distintas y reales.
Luego, con estos valores, las cantidades i , estan dadas por la siguiente ecuacion
i = ABYx + (B 2 2AC)Yy = ABi + B 2 2AC.
(5.15)
(5.17)
(5.18)
En forma an
aloga a la ecuaci
on (5.5), la nueva variable W cumple con la condicion
WXX = WXY = WY Y = 0.
(5.19)
AC
B
B
HZ + WX HW ,
AC
1
GY = HZ + WY HW ,
i
B 2
2B
GXX =
HZZ +
WX HZW + WX2 HW W ,
AC
AC
B
B
1
GXY =
HZZ +
WY HZW WX HW Z + WX WY HW W ,
ACi
AC
i
y i ),
GX =
(5.20)
B
AC
2
HZZ
2B
+
WX HZW + WX2 HW W
AC
!
+
B
B
1
i
HZZ +
WY HZW WX HW Z + WX WY HW W = 0,
ACi
AC
i
3
.
Para
obtener
una
soluci
on explcita es necesario tener una condici
on
AC
i
inicial dada.
88
Aplicaci
on del M
etodo de Harper para la Ecuaci
on de Euler
W Y W X HW Z
AC
AC
AC
AC 2
+
W + i WX WY HW W = 0,
B X
Bi
AC 2
WX +
WY HW Z +
W + i WX WY HW W = 0.
AC
B X
(5.21)
(5.22)
(5.23)
La soluci
on de la ecuaci
on (5.22) esta dada por HZ = c1 (Z), integrando esta ecuacion, tenemos que
Z
H(Z, W ) = c1 (Z)dZ + (W ) = (Z) + (W ),
(5.24)
R
donde (Z) = c1 (Z)dZ. Luego, utilizando las ecuaciones (5.3) y (5.17), obtenemos la
solucion de la ecuaci
on de Euler para el caso hiperbolico, la cual esta dada por
u(x, y) = (Z(X(x, y), Y (x, y))) + (W (X(x, y), Y (x, y))),
(5.25)
donde la nueva variable W (X, Y ) esta definida por la ecuacion (5.23). Para obtener la
variable W resolvemos la ecuaci
on (5.23), dicha ecuacion la podemos escribir como
B AC
(
WX + i WY ) = 1,
AC B
AC
WX (
WX + i WY ) = 0,
B
de estas ecuaciones concluimos que WX = 0. Luego, obtenemos la nueva solucion
Bi
AC WY = 1. Finalmente, se obtiene que la variable W esta dada por
W =
AC
Y.
Bi
(5.26)
5.1 Caso I
89
1 4(1)2
1 9
1 3
=
=
.
2(2)
4
4
Luego, la ecuaci
on dada es de tipo hiperbolico. Por lo tanto, proponemos la solucion
u = H(Z, W ), donde las nuevas variables Z y W estan dadas por
1
1
Z = X + Y,
2
i
2
W = Y,
i
donde i esta dada por
i = 2(1)i + 12 2(2)(1) = 2i + 5,
con esta nueva soluci
on obtenemos la ecuacion HZW = 0, cuya solucion esta dada por
u = H(Z(X, Y ), W (X, Y )) = (Z(X, Y )) + (W (X, Y )),
donde,
1
X = x y,
2
Y = i x + y.
Luego, la soluci
on para 1 = 1, resulta ser (1 = 2 + 5 = 3)
1
1
1 1
1
x y + (x + y)
Z= X+ Y =
2
i
2 2
3
1 1
1 1
1
1
=
x+
y = x y,
4 3
3 2
12
6
2
2
2
W = (x + y) = x y,
3
3
3
1
1
2
2
u1 (x, y) = 1 x y + 1
x y .
12
6
3
3
90
Aplicaci
on del M
etodo de Harper para la Ecuaci
on de Euler
1
2
+ 5 = 1 + 5 = 6)
1
1 1
1
1
1
1 1
x+y =
x+
y
xy +
+
Z=
2 2
6
2
4 12
3 2
4
2
2
1
= x y = x y,
12
6
3
3
2
2 1
1
1
W = Y =
x + y = x y,
6
6 2
6
3
1
1
1
2
x y + 2 x y .
u2 (x, y) = 2
3
3
6
3
Ejemplo 5.1.2. Resolver la siguiente EDP
uxx + 2uxy 3uyy = 0
que satisface las siguientes condiciones iniciales
u(x, 0) = 3x2 ,
uy (x, 0) = 0.
Soluci
on. Para este caso, la ecuacion caudratica asociada a esta ecuacion es i2 +
2i 3 = 0, cuyas races est
an dadas por
i =
4 + 12
= 1 2.
Luego, la ecuaci
on dada es de tipo hiperbolico. Por lo tanto, proponemos la solucion
u = H(Z, W ), donde las nuevas variables Z y W estan dadas por
2
1
Z = X Y,
3
i
3
W =
Y,
2i
donde i est
a dada por i = (1)(2)i + 4 (2)(1)(3) = 2i + 10. Con esta nueva
solucion obtenemos la ecuaci
on HZW = 0, cuya solucion esta dada por
u(x, y) = H(Z(X, Y ), W (X, Y )) = (Z(X, Y )) + (W (X, Y )),
donde,
1
X = x y,
2
Y = i x + y.
5.1 Caso I
91
Luego, la soluci
on para 1 = 1, 1 = 12, resulta ser
1
Z = (3x y),
4
1
W = (x + y),
8
1
1
u1 (x, y) = ( (3x y)) + ( (x + y)).
4
8
La soluci
on para 2 = 3, 2 = 4, esta dada por
1
(x + y),
12
3
W = (3x y),
8
3
1
u2 (x, y) = ( (x + y)) + ( (3x y)).
12
8
Z=
1
12 x,
(z) =
92
Aplicaci
on del M
etodo de Harper para la Ecuaci
on de Euler
5.1.2.
Caso parab
olico
Para este caso se cumple que B 2 4AC = 0 y los valores de i son iguales y distintos
de cero, dados por
B B 2 4AC
B
=
= .
2A
2A
Siguiendo con el procedimiento de Harper, proponemos la solucion de la forma
u = G(X, Y ); donde las nuevas variables X y Y estan dadas por la ecuacion (5.4) y
(5.14), es decir
X = A1 x B1 y,
B
x + y.
Y = 2A
(5.27)
As, la ecuaci
on (2.33) se escribe como
AC
GXX + GXY = 0.
B
Para este caso, tenemos que
= ABYx + (B 2 2AC)Yy
B
= AB( ) + B 2 2AC
2A
B2
=
+ B 2 2AC
2
B2
=
2AC = 0,
2
en esta ecuaci
on se uso el hecho de que B 2 = 4AC. As que, para el caso parabolico,
tenemos la siguiente ecuaci
on diferencial parcial
GXX = 0.
(5.28)
Cuya soluci
on est
a dada por
Z
G=
(Y )dX.
(5.29)
)
Por otro lado, de la ecuaci
on (5.27) se sigue que x = 2A(yY
; sustituyendo este
B
valor en la ecuaci
on de (5.27), obtenemos
x
y
1 2A(y Y )
y
X=
=
A B
A
B
B
2
2
y
1
2
= Y + y
= y Y,
B
B
B
B
B
5.1 Caso I
93
2 (2)2 4(1)(1)
2 44
=
= 1,
i =
2
2
luego, la ecuaci
on es de tipo parabolico. Proponemos, entonces la solucion de la forma
u = G(X, Y ), donde las nuevas variables estan dadas por
1
X = x + y, Y = x + y,
2
con esta soluci
on, la ecuaci
on original se escribe como GXX = 0, cuya solucion esta
dada por GX = (Y ), integrando esta ecuacion se sigue que
Z
1
1
G = (Y )dY = (Y )d Y y + y = (Y )d Y
2
2
Z
Z
Z
Z
1
1
= (Y )dY
(Y )dy = (Y )dY (Y ) dy.
2
2
Z
Finalmente, la soluci
on de la ecuacion dada, resulta ser
y
u(x, y) = (x + y) (x + y),
2
R
donde (x + y) = (x + y)d(x + y).
Ejemplo 5.1.4. Resolver la siguiente ecuaci
on diferencial parcial
uxx + 2uxy + uyy = 0,
con condiciones iniciales
u(x, 0) = 0,
uy (x, 0) = cos x.
94
Aplicaci
on del M
etodo de Harper para la Ecuaci
on de Euler
Soluci
on. Para este caso, consideremos la ecuacion i2 + 2i + 1 = 0, cuyas raices
estan dadas por
p
2 4 4(1)(1)
i =
= 1,
2
luego, la ecuaci
on es de tipo parab
olico. Proponemos, entonces la solucion de la forma
u = G(X, Y ), donde las nuevas variables estan dadas por
1
X = x y,
2
Y = x + y,
con esta soluci
on, la ecuaci
on original se escribe como GXX = 0, cuya solucion esta dada
por
Z
Z
1
G = (Y )dX = (Y )d y Y
2
Z
Z
1
= (Y )dY + (Y ) dy
2
y
= (Y ) (Y )
2
y
= (x + y) (x + y).
2
Aplicando las condiciones iniciales, obtenemos que
(x) = 0,
(x) = 2 cos x,
sustituyendo en (x + y) 21 (x + y), obtenemos que la solucion es
u(x, y) = y cos(x y).
5.1.3.
Caso elptico
Finalmente, para este caso se cumple que B 2 4AC < 0. Esto implica que los
coeficientes i son n
umeros complejos, los cuales estan dados por
B i 4AC B 2
.
i =
2A
Con estos valores y utilizando la ecuacion (5.14), la variable Y esta dada por
B
4AC B 2
Yi = x + y i
x,
2A
2A
5.1 Caso I
95
(5.31)
donde el coeficiente i esta dado por la ecuacion (5.8), la cual se escribe como
i = ABYx + (B 2 2AC)Yy
p
1
= (B 2 4AC iB 4AC B 2 ).
2
(5.32)
Repetimos el procedimiento nuevamente, y entonces proponemos la siguiente solucion G = H(Z, W ), donde, en forma analoga a la ecuacion (5.18), las variables Z y W
estan dadas por
B
Y
X .
AC
i
W = W (X, Y ).
Z=
(5.33)
(5.34)
(5.35)
de la ecuaci
on (5.34), obtenemos que
AC
Bi
WX +
WY WX = 0,
B
AC
sustituyendo la ecuaci
on (5.35) es esta u
ltima ecuacion, se sigue que
WX = 0,
de donde
1
,
B3 i
integrando esta u
ltima ecuaci
on con respecto de Y , llegamos a que la variable W esta
dada por la siguiente ecuaci
on
1
W = 3 i Y.
(5.36)
B
As, obtenemos la soluci
on de la ecuacion de Euler para el caso elptico, la cual
esta dada por
1
u(x, y) = (Z(X(x, y), Y (x, y))) + 3 i Y (x, y) .
(5.37)
B
WY =
96
Aplicaci
on del M
etodo de Harper para la Ecuaci
on de Euler
1 1 4(1)(1)
1 i 3
i =
=
,
2
2
luego la ecuaci
on es de tipo elptica. Proponemos, entonces la solucion de la forma
u = H(Z, W ), donde las nuevas variables estan dadas por
Z=X
Yi
,
i
W = i Yi ,
donde i est
a dado por i = 12 (3 i 3). Con esta nueva solucion, obtenemos la
ecuacion HZW = 0, cuya soluci
on esta dada por
u(x, y) = (Z(X, Y )) + (W (X, Y )),
donde
X = x y,
1
3
Yi = x + y i
x.
2
2
Luego, la soluci
on para Y1 = 12 x + y + i
3
2 x
1
Z = (3(x y) + 3i(x + y)),
6
1
W = (3(x y) + 3i(x + y)),
2
1
1
u(x, y)1 =
(3(x y) + 3i(x + y)) +
(3(x y) + 3i(x + y)) .
6
2
Y la soluci
on para Y2 = 12 x + y i
3
2 x
1
Z = (9(x y) + 3i(x + y)),
6
1
W = (3(x y) + 3i(x + y)),
2
1
1
u(x, y)2 =
(9(x y) 3i(x + y)) +
(3(x y) + 3i(x + y)) .
6
2
5.1 Caso I
97
uy (x, 0) = 4e2x .
Soluci
on. Consideremos la ecuacion cuadratica i2 + 2i + 2 = 0, cuyas races estan
dadas por
p
2 4 4(1)(2)
= 1 i,
i =
2
luego la ecuaci
on es de tipo elptica. Proponemos, entonces la solucion de la forma
u = H(Z, W ), donde las nuevas variables estan dadas por
Z=X
Yi
,
i
1
W = i Yi ,
8
donde i est
a dado por i = 2 2i. Con esta nueva solucion, obtenemos la ecuacion
HZW = 0, cuya soluci
on est
a dada por
u(x, y) = (Z(X, Y )) + (W (X, Y )),
donde
1
X = x y,
2
Yi = x + y ix.
Luego, la soluci
on para Y1 = x + y + ix con 1 = 2 + 2i, resulta ser
1
Z = (2x y + iy),
4
1
W = (2x + y + iy),
4
1
1
u1 (x, y) =
(2x y + iy) +
(2x y + ix) .
4
4
Y la soluci
on para Y2 = x + y ix con 2 = 2 2i, esta dada por
1
Z = (2x y iy),
4
1
W = (2x + y iy),
4
1
1
u2 (x, y) =
(2x y iy) +
(2x + y iy) .
4
4
98
Aplicaci
on del M
etodo de Harper para la Ecuaci
on de Euler
x x = 0,
2
2
1
1
(1 i)0
x + (1 + i)0 x = 16e2x ,
2
2
de este sistema de ecuaciones obtenemos que
(x) = 2ie4x ,
(x) = 2ie4x ,
sustituyendo en u1 , llegamos a que la solucion esta dada por
u(x, y) = 4ey2x sin y.
Ahora, aplicando las condiciones iniciales a u2 (x, y), obtenemos el siguiente sistema
de ecuaciones
1
0
0 1
x x = 0,
2
2
1
1
0
(1 + i)
x + (1 i) x = 16e2x ,
2
2
de este sistema de ecuaciones obtenemos que
(x) = 2ie4x ,
(x) = 2ie4x ,
sustituyendo estas cantidades en u2 , llegamos a que la solucion esta dada por
u(x, y) = 4ey2x sin y.
5.2.
Caso II
(5.38)
Esta ecuaci
on es an
aloga a la ecuacion (5.16). Utilizando la ecuacion (5.18) para
este caso, las variables X y Y est
an dadas por
1
1
x y,
A
B
Y = Y (x, y),
X=
99
donde la ecuaci
on cumple con la ecuacion (5.19). Utilizando la ecuacion (5.26), la
ecuaci
on (5.38) se escribe como
B
Yx + Yy HXY + (AYx2 + BYx Yy )HY Y = 0,
A
donde como antes, suponemos que la solucion esta dada por H = H(X, Y ). Esta ecuacion se escribe como HXY = 0, si es que se cumplen las condiciones
B
Yy = 1,
A
AYx2 + BYx Yy = 0.
Yx +
En forma an
aloga a la ecuacion (5.16), la solucion de la ecuacion (5.38) esta dada
por
u(x, y) = (X(x, y)) + (Y (x, y)),
(5.39)
X=
5.3.
(5.40)
Caso III
X=
donde la ecuaci
on cumple con la ecuacion (5.19). Utilizando, la ecuacion (5.26), la
ecuaci
on (5.41) se escribe como
B
Yx + Yy HXY + (AYx2 + BYx Yy )HY Y = 0,
A
donde, como antes, suponemos que la solucion esta dada por H = H(X, Y ). Esta
ecuaci
on se escribe como HXY = 0, si es que se cumplen las condiciones
B
Yy = 1,
A
AYx2 + BYx Wy = 0.
Yx +
100
Aplicaci
on del M
etodo de Harper para la Ecuaci
on de Euler
En forma an
aloga a la ecuaci
on (5.16), la solucion de la ecuacion (5.41) esta dada
por
u(x, y) = (X(x, y)) + (Y (x, y)),
(5.42)
X=
5.4.
(5.43)
Caso IV
(5.44)
5.5.
(5.45)
Caso V
AC
i = i
.
A
Con estos valores y utilizando la ecuacion (5.14), la variable X y Y estan dadas por
AC
X =y+i
x,
A
AC
Y =yi
x.
A
Proponemos la soluci
on de la forma u = G(X, Y ), luego la ecuacion (5.46) se reduce
a la siguiente ecuaci
on
GXY = 0,
(5.47)
integrando dos veces esta ecuaci
on, la solucion esta dada por
u(x, y) = (X) + (Y ).
(5.48)
Captulo 6
Resultados Analticos y
Numericos
En este captulo se presentan los resultados obtenidos mediante los diferentes metodos que se han presentado en los captulos 2 y 3, a fin de comparar con las soluciones
obtenidas en el captulo 5. Ademas se ilustrara el metodo de descomposicion de Adomian con los ejemplos utilizados en el transcurso de este trabajo de tesis.
Para realizar esto, tomaremos en cuenta los diferentes ejemplos de EDPs de segundo grado con condiciones iniciales presentados a lo largo de esta tesis.
6.1.
Ecuaci
on hiperb
olica
Consideremos a continuaci
on la EDP de Euler de segundo orden para el caso hiperbolico, cuyas soluciones analticas mediante el metodo de las variables canonicas,
Stephenson-Radmore y Harper, respectivamente estan dadas por
u(x, y) = (y 1 x) + (y 2 x),
1
A
1
A
u(x, y) =
x+
y +
x+
y ,
1 2
1 (1 2 )
1 2
2 (1 2 )
u(x, y) = (Z) + (W ),
donde i para la ecuaci
on (6.1) esta dada por i =
B B 2 4AC
,
2
B B 2 4AC
,
2A
(6.1)
(6.2)
(6.3)
y para la ecuacion
(6.2) est
a dada por i =
para la ecuacion (6.3), las variables Z y W ,
estan dadas por las ecuaciones (5.18) y (5.26).
Ahora, tomemos el ejemplo (1.2.2) de la pagina 15 y resolvamos por medio del
metodo de descomposici
on de Adomian, el cual es un metodo analtico. De acuerdo
a las condiciones iniciales, podemos reescribir a la ecuacion del ejemplo (1.2.2) de la
101
102
siguiente forma
1
uyy = (uxx + 2uxy ).
3
Usando el operador Lyy =
2
,
y 2
(6.4)
1
Lyy u = (uxx + 2uxy ).
(6.5)
3
RyRy
Aplicando el operador inverso L1
on
yy = 0 0 (.)dydy a ambos lados de la ecuaci
(6.5), obtenemos
Z Z
1 y y
(uxx + 2uxy )dydy,
u = u(x, 0) + uy (x, 0)y +
3 0 0
y la soluci
on por el metodo de descomposicion de Adomian consiste en el siguiente
esquema
u0 = 3x2 ,
Z Z
1 y y
un+1 =
((un )xx + 2(un )xy )dydy,
3 0 0
es decir,
u0 = 3x2 ,
u1 = y 2 ,
u2 = 0,
..
.
un = 0,
por lo que la soluci
on del ejemplo (1.2.2) por medio de este metodo resulta ser
u(x, y) = 3x2 + y 2 .
(6.6)
Esta soluci
on coincide con la aplicacion de las ecuaciones (6.1), (6.2) y (6.3).
Por lo anterior, podemos observar que las soluciones mediante los distintos metodos
analticos para el caso hiperb
olico son las mismas, para verificar esto, haremos una
comparaci
on para algunos valores dados de los resultados obtenidos, las cuales se pueden
observar en la Tabla 6.1
Ahora, veamos los resultados que se obtuvieron mediante los metodos numericos
presentados en el captulo 4.
Para esto, tomemos valores dados, los cuales se presentan en las tablas (6.2) y
(6.3), los resultados obtenidos del ejemplo (1.2.2) por el metodo de diferencias finitas y
algoritmos geneticos, as como la comparacion con los resultados analticos obtenidos.
6.1 Ecuaci
on hiperb
olica
x
0.1
0.3
0.5
0.7
0.9
y
0.00
0.01
0.02
0.03
0.04
Metodo Adomian
0.0300
0.2701
0.7504
1.4709
2.4316
103
Stephenson- Radmore
0.0300
0.2701
0.7504
1.4709
2.4316
Aplicacion de Harper
0.0300
0.2701
0.7504
1.4709
2.4316
x
0.3
0.3
0.4
0.4
0.5
y
0.1
0.3
0.2
0.5
0.6
Aplicaci
on de Harper
0.2800
0.3600
0.5200
0.7300
1.1100
Diferencias finitas
0.2800
0.3556
0.5200
0.7244
1.1078
Error relativo
0.0000
0.0122
0.0000
0.0076
0.0019
Se puede observar de la tabla anterior, que los resultados obtenidos mediante este
metodo son aceptables, ya que el error relativo para los puntos dados es peque
no.
Tambien se puede decir que, al elegir otros valores se sigue conservando un error
relativamente peque
no, como tambien si se escogiera una gran variedad de puntos, por
lo que la eficiencia del algoritmo empleado para el ejemplo dado es bueno.
En la siguiente tabla, veamos ahora el resultado obtenido mediante algoritmos
geneticos con los mismos datos usados para el de diferencias finitas.
x
0.3
0.3
0.4
0.4
0.5
y
0.1
0.3
0.2
0.5
0.6
Aplicaci
on de Harper
0.2800
0.3600
0.5200
0.7300
1.1100
Algoritmo genetico
0.2820
0.3601
0.5203
0.7199
1.0339
Error relativo
0.0007
0.0002
0.0005
0.0138
0.0685
De la tabla anterior, ahora podemos ver que el error relativo obtenido mediante
el metodo de algoritmos geneticos es aceptable, con esto tenemos que para los valores
tomados el algoritmo empleado nos da resultados favorables.
Cabe mencionar que, al tomar otros valores el algoritmo sigue manteniendo un error
peque
no teniendo as un algoritmo eficiente para el ejemplo.
104
ux (0, y) = y 2 .
Soluci
on. De acuerdo a las condiciones iniciales, podemos reescribir a la ecuacion
dada de la siguiente forma
1
uxx = (10uxy + 3uyy ).
3
Usando el operador Lxx =
2
,
x2
(6.7)
1
Lxx u = (10uxy + 3uyy ).
3
(6.8)
6.1 Ecuaci
on hiperb
olica
105
RxRx
Aplicando el operador inverso L1
on,
xx = 0 0 (.)dxdx a ambos lados de la ecuaci
obtenemos
Z Z
1 x x
u = u(x, 0) + ux (x, 0)x
(10uxx + 3uxy )dxdx,
3 0 0
y la soluci
on por el metodo de descomposicion de Adomian consiste en el siguiente
esquema
u0 = ey + xy 2 ,
Z Z
1 x x
un+1 =
(10(un )xx + 3(un )xy )dxdx,
3 0 0
es decir,
u0 = ey + xy 2 ,
u1 = x2 y,
x2 (x + 10y)
,
3
20x2 (x + 5y)
u3 =
,
9
100x2 (3x + 10y)
u4 =
,
27
u2 =
u5 =
+
.
x2 y
81
27
243
9
3
Ahora, para el ejemplo anterior veamos los resultados obtenidos mediante los metodos numericos presentados en el captulo 4.
Considerando valores dados, en las tablas (6.4) y (6.5), se presentan los resultados
obtenidos del ejemplo (6.1.1) por el metodo de diferencias finitas y algoritmos geneticos,
as como la comparaci
on con los resultados analticos obtenidos.
Para este ejemplo, se puede apreciar que para los valores dados, el error relativo
se sigue conservando peque
no, al igual que cualquier otro valor que se le sea asignado
el error ser
a nuevamente peque
no, con esto el algoritmo para este ejemplo tambien es
favorable.
106
y
0.0
0.1
0.1
0.5
0.6
Aplicaci
on de Harper
1.0000
1.1029
1.1328
1.6102
1.7857
Diferencias finitas
1.0000
1.1988
1.2895
1.6944
1.6078
Error relativo
0.0000
0.0869
0.1383
0.0522
0.0996
x
0.0
0.2
0.3
0.4
0.5
y
0.0
0.1
0.1
0.5
0.6
Aplicaci
on de Harper
1.0000
1.1029
1.1328
1.6102
1.7857
Algoritmo genetico
1.0000
1.1075
1.1086
1.7497
1.8205
Error relativo
0.0000
0.0041
0.0213
0.0866
0.0194
Ahora veamos en la siguiente tabla el resultado obtenido mediante algoritmos geneticos con los mismos datos usados para el de diferencias finitas.
De los datos obtenidos, mediante el metodo de algoritmos geneticos podemos ver
que el algoritmo empleado es eficiente ya que esto lo podemos observar a partir del
error relativo obtenido y este error como se puede apreciar, es peque
no. Ademas, al
ocupar valores distintos a los empleados el algoritmo arroja resultados aceptables, pues
el error sigue siendo mnimo.
Ahora, visualicemos los resultados obtenidos presentados en las graficas obtenidas
por los diferentes metodos numericos as como la del metodo analtico.
6.1 Ecuaci
on hiperb
olica
107
u(0, y) = 0,
u(1, y) = 1.
Soluci
on. De acuerdo a las condiciones iniciales, podemos reescribir a la ecuacion
dada de la siguiente forma
1
uxy = (uxx + 2uyy ).
(6.9)
3
Usando el operador Lxy =
2
xy ,
1
Lxy u = (uxx + 2uyy ).
(6.10)
3
RyRx
on,
Aplicando el operador inverso L1
xy = 0 0 (.)dxdy a ambos lados de la ecuaci
obtenemos
Z Z
1 y x
u = u(x, 0) + u(0, y) u(0, 0) +
(uxx + 2uyy )dxdy,
3 0 0
y la soluci
on por el metodo de descomposicion de Adomian consiste en el siguiente
esquema
u0 = x2 ,
Z Z
1 y x
un+1 =
((un )xx + 2(un )yy )dxdy,
3 0 0
es decir,
u0 = x2 ,
2xy
u1 =
,
3
u2 = 0,
..
.
un = 0,
108
u(x, y) = x2 +
(6.11)
6.2.
Ecuaci
on parab
olica
(6.12)
u(x, y) = () + (),
2
1
u(x, y) = y(Y ) (Y ),
B
B
(6.13)
(6.14)
2
,
y 2
(6.15)
RyRy
0
(6.16)
y la soluci
on por el metodo de descomposicion de Adomian consiste en el siguiente
esquema
u0 = y cos x,
Z yZ y
un+1 =
((un )xx + 2(un )xy )dydy,
0
6.2 Ecuaci
on parab
olica
109
es decir,
u0 = y cos x,
y 3 cos x
+ y 2 sin x,
6
2y 3 cos x
y cos x
4 sin x
=y
+
,
6
120
3
cosx
y 4 sin x
sin x y cos x
= y 5
y
+
,
10
5!
7!
3
2y 5 cos x
cos x
sin x y cos x
6 2 sin x
,
=
y
+y
y
+
15
45
210
7!
9!
sin x
cos x
sin x y cos x
2y 6 sin x
7 cos x
=y
y
+y
y
+
+
,
63
504
9072
9!
11!
45
cos x
sin x
cos x
sin x y cos x
4y 7 cos x
8 sin x
=y
+y
y
+y
y
+
,
210
1512
22680
665280
11!
13!
315
u1 =
u2
u3
u4
u5
u6
..
.
10
5!
7!
2
15
315
4
6
y sin x 2y sin x
cos x
sin x y cos x
2
6 2 sin x
+ y sin x
+
y
+y
y
+
3
45
45
210
7!
9!
sin
x
y
cos
x
+ y4
+
+ y cos x
6
120
cos x
sin x
cos x
sin x y cos x
8 sin x
+y
+y
y
+y
y
+
.
210
1512
22680
665280
11!
13!
Esta soluci
on no coincide con la aplicacion de las ecuaciones (6.12), (6.13) y (6.14).
De lo anterior, podemos observar que las soluciones mediante los distintos metodos
analticos para el caso parab
olico varan, por lo que compararemos las soluciones para
algunos valores dados. Esto se puede observar en la Tabla 6.4.
Ahora, veamos los resultados que se obtuvieron mediante los metodos numericos
del captulo 4.
En las tablas (6.5) y (6.6), se presentan soluciones de valores dados, los resultados
obtenidos del ejemplo (1.2.4) por el metodo de diferencias finitas y el de algoritmos
geneticos, se comparar
an con los resultados analticos obtenidos.
De la tabla anterior, los resultados obtenidos mediante el metodo de diferencias
finitas es aceptable, aunque el error relativo para los puntos dados ya no es tan peque
no
para el ejemplo.
110
y
0.0
0.1
0.2
0.3
0.4
Metodo Adomian
0.0000
0.0980
0.1911
0.2763
0.3510
Stephenson- Radmore
0.0000
0.0999
0.1999
0.2999
0.3999
Aplicacion de Harper
0.0000
0.0999
0.1999
0.2999
0.3999
x
0.3
0.3
0.4
0.4
0.5
y
0.1
0.2
0.2
0.3
0.4
Aplicaci
on de Harper
0.0999
0.1999
0.1999
0.2999
0.3999
Diferencias finitas
0.0985
0.2029
0.1998
0.3090
0.4182
Error relativo
0.0140
0.0150
0.0005
0.0303
0.0457
Se puede decir que, al elegir otros valores este error se comporta de la misma forma,
esto tambien sucede si se escogen mas puntos, por lo que la eficiencia del algoritmo
empleado para el ejemplo del caso parabolico es bueno.
Ahora, veamos los resultados obtenidos para los mismos valores de la Tabla 6.5 con
el algoritmo genetico.
x
0.3
0.3
0.4
0.4
0.5
y
0.1
0.2
0.2
0.3
0.4
Aplicaci
on de Harper
0.0999
0.1999
0.1999
0.2999
0.3999
Algoritmos geneticos
0.1008
0.2011
0.2014
0.3017
0.4025
Error relativo
0.0096
0.0060
0.0075
0.0063
0.0065
De la tabla anterior, ahora podemos ver que el error relativo obtenido mediante
el metodo de algoritmos geneticos es peque
no, con esto tenemos que para los valores
tomados el algoritmo empleado nos da resultados favorables.
Cabe mencionar que, al tomar otros valores el algoritmo sigue teniendo un error
relativo significativamente peque
no teniendo as un algoritmo eficiente para el caso parabolico.
6.2 Ecuaci
on parab
olica
111
A continuaci
on, se presentan mas ejemplos del metodo de descomposicion de Adomian aplicando diferentes condiciones iniciales y de frontera.
Ejemplo 6.2.1. Resolver la ecuaci
on diferencial parcial
uxx 6uxy + 9uyy = 0,
con las condiciones iniciales dadas por
u(0, y) = 1 y 2 ,
ux (0, y) = 0,
u(1, y) = 0.
Soluci
on. De acuerdo a las condiciones iniciales, podemos reescribir a la ecuacion
dada de la siguiente forma
uxx = 6uxy 9uyy .
(6.17)
Usando el operador Lxx =
2
,
x2
112
y la soluci
on por el metodo de descomposicion de Adomian consiste en el siguiente
esquema
u0 = 1 y 2 ,
Z xZ x
un+1 =
(6(un )xy 9(un )yy )dxdx,
0
es decir,
u0 = 1 y 2 ,
u1 = 9x2 ,
u2 = 0,
u3 = 0,
..
.
un = 0,
por lo que la soluci
on de la ecuaci
on dada resulta ser
u(x, y) = 9x2 y 2 + 1.
(6.19)
Ahora, veamos los resultados que se obtuvieron mediante los metodos numericos
presentados en el captulo 4.
Para esto, tomemos valores dados, los cuales se presentan en las tablas (6.2) y
(6.3), los resultados obtenidos del ejemplo (6.2.2) por el metodo de diferencias finitas y
algoritmos geneticos, as como la comparacion con los resultados analticos obtenidos.
x
0.2
0.3
0.4
0.6
0.8
y
0.1
0.1
0.5
0.5
0.9
Aplicaci
on de Harper
1.3500
1.8000
2.1900
3.9900
5.9500
Diferencias finitas
0.2800
0.3556
0.5200
0.7244
1.1078
Error relativo
0.0000
0.0000
0.0000
0.0000
0.0000
Para este ejemplo, se puede apreciar que para los valores dados, el error relativo se
sigue conservando peque
no, al igual que cualquier otro valor que se le sea asignado el
error sera nuevamente peque
no, con esto el algoritmo para este ejemplo es favorable.
Ahora veamos en la siguiente tabla el resultado obtenido mediante algoritmos geneticos con los mismos datos usados para el de diferencias finitas.
De los datos obtenidos, mediante el metodo de algoritmos geneticos podemos ver
que el algoritmo empleado es eficiente ya que esto lo podemos observar a partir del
6.2 Ecuaci
on parab
olica
x
0.2
0.3
0.4
0.6
0.8
y
0.1
0.1
0.5
0.5
0.9
113
Aplicaci
on de Harper
1.3500
1.8000
2.1900
3.9900
5.9500
Algoritmo genetico
1.3510
1.9600
2.1600
4.0051
5.8910
Error relativo
0.0007
0.0888
0.0136
0.0037
0.0099
uy (x, 0) = x,
u(1, y) = 1.
114
Soluci
on. De acuerdo a las condiciones iniciales, podemos reescribir a la ecuacion
dada de la siguiente forma
1
uyy = (uxx + 4uxy ).
4
Usando el operador Lyy =
2
,
y 2
(6.20)
1
Lyy u = (uxx + 4uxy ).
4
Aplicando el operador inverso L1
yy =
obtenemos
RyRy
1
u = u(x, 0) + uy (x, 0)y +
4
(6.21)
y la soluci
on por el metodo de descomposicion de Adomian consiste en el siguiente
esquema
u0 = 2 ln x + xy,
Z Z
1 y y
((un )xx + 4(un )xy )dydy,
un+1 =
4 0 0
es decir,
u0 = 2 ln x + xy,
1
u1 = y 2 ( 2 + 2),
x
y 3 (16x + 3y)
u2 =
,
6x4
y 4 (120x2 + 48xy + 5y 2 )
u3 =
,
15x6
2
3
3
y 5 ( 128x
+ 16x2 y + 24xy
+ y4 )
5
7
u4 =
,
x8
3y
3
4
4
y 6 ( 256x
+ 512x
+ 24x2 y 2 + 32xy
+ y5 )
3
7
9
u5 =
,
x10
3
2
5
y
y 7 ( 2048x
+ 320x4 y + 1280x
+ 32x2 y 3 +
7
9
u6 =
x12
..
.
40xy 4
11
y5
6 )
6.3 Ecuaci
on elptica
115
x2
6x4
3
24xy 2
128x
5
y 4 (120x2 + 48xy + 5y 2 ) y ( 5 + 16x2 y + 7 +
+
15x6
x8
3
3
4
y
y 6 ( 256x
+ 512x
+ 24x2 y 2 + 32xy
+ y 4 /5)
3
7
9
+
x10
3 y2
4
5
y5
y 7 ( 2048x
+ 320x4 y + 1280x
+ 32x2 y 3 + 40xy
7
9
11 + 6 )
.
x12
u(x, y) = 2 ln x + xy + y 2 (
y3
4 )
6.3.
Ecuaci
on elptica
(6.22)
u(x, y) = () + (),
(6.23)
u(x, y) = (Z) + (W ),
(6.24)
2
,
y 2
(6.25)
1
Lyy u = (uxx + 2uxy ).
(6.26)
2
RyRy
Aplicando el operador inverso L1
on
yy = 0 0 (.)dydy a ambos lados de la ecuaci
(6.26), obtenemos
Z Z
1 y y
u = u(x, 0) + uy (x, 0)y
(uxx + 2uxy )dydy,
2 0 0
116
y la soluci
on por el metodo de descomposicion de Adomian consiste en el siguiente
esquema
u0 = 4ye2x ,
Z Z
1 y y
un+1 =
((un )xx + 2(un )xy )dydy,
2 0 0
es decir,
u0 = 4ye2x ,
8y 2 (y 3)
,
3e2x
8y 3 (y 2 10y + 20)
,
=
15e2x
16y 4 (y 3 21y 2 + 126y 210)
,
=
315e2x
8y 5 (y 4 36y 3 + 432y 2 2016y + 3024)
=
,
2835e2x
16y 6 (y 5 55y 4 + 1100y 3 9900y 2 + 39600y 55440)
=
,
155925e2x
16y 7 (y 6 78y 5 + 2340y 4 34320y 3 + 257400y 2 926640y + 1235520)
,
=
6081075e2x
u1 =
u2
u3
u4
u5
u6
..
.
155925e2x
3e2x
7
6
5
4
3
2
16y (y 78y + 2340y 34320y + 257400y 926640y + 1235520)
+
+
6081075e2x
8y 3 (y 2 10y + 20) 16y 4 (y 3 21y 2 + 126y 210)
15e2x
315e2x
5
4
3
2
8y (y 36y + 432y 2016y + 3024)
+
.
2835e2x
u(x, y) = 4ye2x
Esta soluci
on no coincide con la aplicacion de las ecuaciones (6.23), (6.24) y (6.25).
Tomemos algunos n
umeros en especfico para comparar las soluciones obtenidas en los
metodos analticos con las obtenidas a partir de los metodos numericos
Ahora, veamos los resultados que se obtuvieron mediante los metodos numericos
presentados en el captulo 4.
En las tablas (6.7) y (6.8), se presentan los resultados obtenidos del ejemplo (1.2.6)
por el metodo de diferencias finitas y algoritmos geneticos
6.3 Ecuaci
on elptica
x
0.1
0.3
0.5
0.7
0.9
y
0.0
0.1
0.2
0.3
0.4
Metodo Adomian
0.0000
0.2681
0.4390
0.5392
0.5885
117
Stephenson- Radmore
0.0000
0.2422
0.3571
0.3935
0.3841
Aplicacion de Harper
0.0000
0.2422
0.3571
0.3935
0.3841
x
0.3
0.3
0.4
0.4
0.5
y
0.1
0.2
0.2
0.3
0.4
Aplicaci
on de Harper
0.2422
0.5327
0.4361
0.7170
0.8549
Diferencias finitas
0.2416
0.5222
0.4275
0.6903
0.8080
Error relativo
0.0024
0.0197
0.0197
0.0372
0.0548
Se puede observar de la tabla anterior, que los resultados obtenidos mediante este
metodo son aceptables, ya que el error relativo para los puntos dados es peque
no.
Al elegir otros valores el error obtenido se considera aceptable, como tambien si se
escogen m
as puntos, por lo que la eficiencia del algoritmo empleado para el ejemplo en
el caso elptico es bueno.
En la siguiente tabla, veamos ahora el resultado obtenido mediante algoritmos
geneticos con los mismos datos usados para el de diferencias finitas.
x
0.3
0.3
0.4
0.4
0.5
y
0.1
0.2
0.2
0.3
0.4
Aplicaci
on de Harper
0.2422
0.5327
0.4361
0.7170
0.8549
Algoritmos geneticos
0.2420
0.5321
0.4364
0.6089
0.8440
Error relativo
0.0008
0.0011
0.0006
0.1507
0.0127
De la tabla anterior, ahora podemos ver que el error relativo obtenido mediante
el metodo de algoritmos geneticos es peque
no, con esto tenemos que para los valores
tomados el algoritmo empleado nos da resultados favorables.
Cabe mencionar que, al tomar otros valores el algoritmo sigue teniendo un error
relativo significativamente peque
no teniendo as un algoritmo eficiente para el caso hi-
118
perbolico.
Para una mejor visualizaci
on de los resultados obtenidos, a continuacion se presentan las gr
aficas obtenidas por los diferentes metodos numericos as como la del metodo
analtico.
Captulo
Captulo
Conclusiones
A pesar de no contar con mucha literatura acerca de los metodos mencionados en
los captulos 2 y 3, por ser metodos no convencionales, se pudo lograr el desarrollo de
soluciones para las EDPs de Euler de segundo orden con coeficientes constantes, de
tipo hiperb
olico, parab
olico y elptico. Siendo esto, una aportacion de este trabajo de
tesis consistiendo en presentar con detalle cada uno de estos metodos, y que posteriormente son aplicados para la obtencion de soluciones.
Las EDPs resulta ser en muchas ocasiones difciles de resolver, por lo que el proponer nuevos metodos para resolverlas y que sean de facil implementacion, nos abre un
amplio panorama para la aplicacion de las EDPs en diversos problemas de ingenierias
y ciencias, adquiriendo con esto un interes peculiar por ellos.
Una de las principales contribuciones de este trabajo de tesis, y que no se puede
encontrar en la literatura, es la obtencion de soluciones de la ecuacion de Euler con
coeficientes constantes del tipo hiperbolico, parabolico y elptico, sin hacer uso de los
metodos cl
asicos y tampoco de los metodos sofisticados que generalmente suelen ser tan
complicados. Es necesario hacer mencion que las soluciones fueron obtenidas mediante
la aplicaci
on del metodo de J. Harper, las cuales son detalladas en el captulo 5.
Podemos mencionar que, al aplicar las condiciones iniciales y de frontrera a las soluciones obtenidas mediante el metodo propuesto, se llega a que el resultado es el mismo
que el que proponen otros autores. Esto prueba la efectividad del metodo, aunado con
la comparaci
on de resultados mediante los metodos de aproximacion.
119
120
Conclusiones
Captulo
Apendice A
Definiciones y tipos de soluciones
Definici
on 1. Una funci
on en el conjunto de las funciones continuas C 2 que satisface
una EDP de orden dos, le llamaremos soluci
on cl
asica.
Definici
on 2. Llamaremos soluci
on completa o integral de la EDP de primer orden
F (x, y, u, ux , uy ) = 0,
(1)
f (x, y, u, a, b) = 0,
(2)
a toda relaci
on con la ecuaci
on
entre las variables x, y, u que contenga dos constantes arbitrarias a, b y que sea una
solucion de la EDP (1).
Definici
on 3. Una funci
on se dice que es suave si todas sus derivadas existen y son
continuas.
Definici
on 4. Una soluci
on que no es diferenciable en todas partes se llama soluci
on
d
ebil.
Definici
on 5. Se dice que f (h) es de orden g(h) cuando h 0 y h 6= 0, se denotara por
f (h) = O(g(h)), si existen n
umeros reales M > 0 y k > 0 tales que,
|f (h)| M |g(h)|, siempre que |h| < k.
El error de truncamiento suele asociarse tambien con la convergencia (o la velocidad de convergencia), que suele representarse como O(n) (generalmente, como O(hn )),
siendo n el par
ametro que determina la velocidad o la convergencia.
121
122
Ap
endice A
Definici
on 6. Se llama derivada direccional de la funcion u = f (x, y) en el punto
P (x, y) en el sentido del vector ~n = cos i + sin j al siguiente lmite, si existe y es finito
f (P + t~n) f (P )
,
t0
t
u~n = lm
(3)
Captulo
Apendice B
M
etodo de Charpit [16]
Sea la EDP de primer orden de dos variables independientes x y y dada por
F (x, y, u, p, q) = 0,
(4)
Fx + pFu + Fp
q
x
p
y ,
p
p
Fx + pFu + Fp x
+ Fq y
= 0,
q
q
Fy + qFu + Fp x + Fq y = 0.
(5)
(6)
(7)
124
entonces
o bien
Ap
endice B
du
dx
dy
=p
+q
= pFp + qFq ,
dt
dt
dt
du
= dt,
pFp + qFq
(8)
lo cual nos da la posibilidad de aumentar el sistema (6) con una ecuacion mas.
De esta manera, bajo la hip
otesis de que u = u(x, y) es solucion de la ecuacion (4),
se llega al siguiente sistema de ecuaciones
dy
dp
dq
du
dx
=
=
=
=
= dt.
Fp
Fq
Fx + pFu
Fy + qFu
pFp + qFq
(9)
De las ecuaciones (7) y (9) se puede hallar las funciones x = x(t), y = y(t), u = u(t),
p = p(t) y q = q(t), es decir, se puede hallar las curvas x = x(t), y = y(t), u = u(t)
llamadas caractersticas, y determinar en cada punto de la caracterstica los n
umeros
p = p(t) y q = q(t) que proporcionan la direccion de plano
U u = p(X x) + q(Y y).
Con lo anterior podemos observar que las variables p = ux y q = uy verifican
cierta ecuaci
on cuasilineal, y por tanto, (4) puede resolverse por el metodo de las
caractersticas.
Captulo
Apendice C
Soluciones fundamentales de la ecuaci
on de calor
Consideremos los siguientes problemas de frontera y valor inicial para la ecuacion
de calor
1. Problema de valor inicial en (, )
ut = kuxx ,
u(x, 0) = g(x).
La soluci
on de este problema esta dada por
Z
1
(x y)2
exp
u(x, t) =
g(y)dy.
4kt
4kt
2. Problema de valor inicial en (0, ) con condiciones homogeneas de lmite de
Dirichlet
ut = kuxx ,
u(x, 0) = g(x),
u(0, t) = 0,
La soluci
on para este caso, es
Z
1
(x y)2
(x + y)2
u(x, t) =
exp
exp
g(y)dy.
4kt
4kt
4kt 0
125
126
Ap
endice C
u(x, 0) = g(x),
ux (0, t) = 0,
Su soluci
on, est
a dada por
Z
1
(x y)2
(x + y)2
u(x, t) =
exp
exp
g(y)dy.
4kt
4kt
4kt 0
4. Problema en (0, ) con condiciones iniciales homogeneas y no homogeneas de las
condiciones de lmite de Dirichlet
ut = kuxx ,
u(x, 0) = 0,
u(0, t) = h(t).
Tiene por soluci
on la siguiente funcion
Z
u(x, t) =
0
x2
p
exp
h(s)ds.
4k(t s)
4k(t s)3
x
x > 0
Bibliografa
[1] S. Abbasbandy. Improving newton-raphson method for nonlinear equations by
modified adomian decomposition method. Applied Mathematics and Computation,
145(2-3):887893, 2003.
[2] C. Abdoulkadri. Numerical implementation of adomian decomposition method for
volterra integral equations of the second kind with weakly singular kernels. African
Institute for Mathematical Sciences, 1975.
[3] G. Adomian. Nonlinear stochastic operator equations. Academic Press San Diego,
CA, 1986.
[4] G. Adomian. A review of the decomposition method in applied mathematics.
Journal of Mathematical Analysis and Applications, 135(2):501544, 1988.
[5] G. Adomian. Solving Frontier Problems of Physics: The Decomposition Method.
Kluwer Academic Publishers, 1994.
[6] G. Adomian. Solution of the thomas-fermi equation. Applied Mathematics Letters,
11(3):131133, 1998.
[7] M. Affenzeller, S. Winkler, S. Wagner, and A. Beham. Genetic algorithms and
genetic programming: Modern concepts and practical applications. 2009.
[8] F.M. Allan. Derivation of the adomian decomposition method using the homotopy
analysis method. Applied Mathematics and Computation, 190(1):614, 2007.
[9] J. Biazar and Z. Ayati. An approximation to the solution of parabolic equation
by adomian decomposition method and comparing the result with crank-nicolson
method. In International Mathematical Forum, volume 1, pages 19251933, 2006.
[10] R.L. Burden and J.D. Faires. An
alisis numerico. Cengage Learning Latin America,
2001.
[11] C. Chun. A new iterative method for solving nonlinear equations. Applied mathematics and computation, 178(2):415422, 2006.
127
128
BIBLIOGRAF
IA
BIBLIOGRAF
IA
129
[28] S.R. Otto and J.P. Denier. An introduction to programming and numerical methods
in MATLAB. Springer Verlag, 2005.
[29] Y. Pinchover and J. Rubinstein. An introduction to partial differential equations,
volume 10. Cambridge Univ Pr, 2005.
[30] M.A. Pinsky and J.H.P. Castellanos. Introducci
on al an
alisis de Fourier y las
ondoletas. International Thomson, 2003.
[31] E.C. Rentera. Introducci
on a las ecuaciones en derivadas parciales. Ed. Universidad de Cantabria, 1992.
[32] W. Sengupta. A novel analytical operator method to solve linear ordinary differential equations with variable coefficients. Arxiv preprint arXiv:0902.0910, 2009.
[33] M. M. Smirnov. Ejercicios sobre las Ecuaciones Diferenciales Parciales de la fsica
matem
atica. Ed. Mir, 1996.
[34] G. Stephenson and P.M. Radmore. Advanced mathematical methods for engineering and science students. Cambridge Univ Pr, 1990.
[35] A. Tijonov and A. Samarsky. Ecuaciones de la fsica matematica, ed, 1983.
[36] N. Ujevic. A method for solving nonlinear equations. Applied mathematics and
computation, 174(2):14161426, 2006.