11517

Descargar como pdf o txt
Descargar como pdf o txt
Está en la página 1de 145

UNIVERSIDAD TECNOLOGICA

DE LA MIXTECA

DE LAS NUEVAS SOLUCIONES DE LAS EDPS DE


APROXIMACION

SEGUNDO ORDEN POR EL METODO


DE DESCOMPOSICION DE
ADOMIAN

TESIS
PARA OBTENER EL TITULO DE:

LICENCIADO EN MATEMATICAS
APLICADAS

PRESENTA:
JATZIRY AMBROSIO DELGADO

DIRECTOR:
JUAN CARLOS MENDOZA SANTOS
OAXACA, ABRIL DE 2012
HUAJUAPAN DE LEON,

Aproximaci
on de las nuevas soluciones
de las EDPs de segundo orden por el
m
etodo de Descomposici
on de Adomian.
Jatziry Ambrosio Delgado
Abril 2012

A mis padres Lidia y Jose


A mis hermanos Tere, Liz, Lalo y Rosa
A mis sobrinos Susa, Ita, Juan, Miky y Hannia
J. A. D

Captulo
Captulo

Agradecimientos
Esta tesis representa un parteaguas entre una etapa muy enriquecedora y el camino
que el tiempo obliga. En toda la experiencia universitaria y la conclusion del trabajo de
tesis, han habido personas que merecen las gracias porque sin su valiosa aportacion no
hubiera sido posible este trabajo y tambien hay quienes las merecen por haber plasmado
su huella en mi camino y que para no olvidar alguna de estas personas no hare mencion
de sus nombres. A todas ellas les doy mis mas sinceros agradecimientos.

II

Agradecimientos

Contenido
Introducci
on
1

VII

Introducci
on a las EDPs

1.1

EDPs
1.1.1
1.1.2
1.1.3
1.1.4
1.1.5

de primer orden . . . . . . . . . . . . . . . . . . . .
Clasificaci
on de las EDPs de primer orden . . . .
Construcci
on de la ecuacion de primer orden . . .
El metodo de las caractersticas y solucion general
Formas can
onicas de las EDPs de primer orden .
Metodo de separacion de variables . . . . . . . . .

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

1
1
2
3
5
7

1.2

EDPs
1.2.1
1.2.2
1.2.3
1.2.4

de segundo orden . . . . . . . . . . . . . . . . . . . . . . . . . .
Ecuaciones de segundo orden con dos variables independientes
Formas can
onicas . . . . . . . . . . . . . . . . . . . . . . . . . .
Ecuaciones con coeficientes constantes . . . . . . . . . . . . . .
Soluciones de la ecuacion de Euler . . . . . . . . . . . . . . . .

.
.
.
.
.

8
8
10
13
14

2 M
etodo de Harper y
el M
etodo de Stephenson- Radmore

23

2.1

Forma general del Metodo de Harper . . . . . . . . . . . . . . . . . . . .

23

2.2

El metodo de Stephenson- Radmore .


2.2.1 Ecuaciones del tipo hiperbolico
2.2.2 Ecuaciones del tipo parabolico.
2.2.3 Ecuaciones del tipo elptico. . .

30
33
37
41

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

3 El m
etodo de Descomposici
on de Adomian

47

3.1

El metodo de descomposicion de Adomian . . . . . . . . . . . . . . . . .

47

3.2

Evaluaci
on del operador inverso L1 . . . . . . . . . . . . . . . . . . . .
3.2.1 Condiciones de frontera homogeneas . . . . . . . . . . . . . . . .

48
49

III

IV

CONTENIDO

3.2.2
3.2.3
3.2.4
3.2.5
3.2.6

Condiciones
Condiciones
Condiciones
Condiciones
Condiciones

de frontera sobre el intervalo [0, a]


iniciales . . . . . . . . . . . . . . .
iniciales diferentes de cero . . . . .
de frontera no homogeneas . . . .
mixtas . . . . . . . . . . . . . . . .

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

50
51
52
53
54

3.3

Soluci
on de la ecuaci
on diferencial . . . . . . . . . . . . . . . . . . . . .

55

3.4

Convergencia del metodo de Adomian . . . . . . . . . . . . . . . . . . .

56

3.5

An
alisis del metodo Homotopico . . . . . . . . . . . . . . . . . . . . . .

57

3.6

Derivaci
on del metodo de descomposicion de Adomian . . . . . . . . . .

59

4 M
etodos de Aproximaci
on de Soluciones

63

4.1

Metodo de diferencias finitas . . . . . . . . . . . . . . . . . . . . . . . .


4.1.1 Esquemas para EDPs . . . . . . . . . . . . . . . . . . . . . . . .

63
66

4.2

Metodo de algoritmos geneticos . . . . . . . . . . . . . . . . . . . . . . .


4.2.1 Estructura de un algoritmo genetico . . . . . . . . . . . . . . . .
4.2.2 Reemplazo de la poblacion y condicion de paro . . . . . . . . . .
4.2.3 Dise
no del algoritmo genetico para la solucion de EDPs de segundo orden . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

68
70
77

5 Aplicaci
on del M
etodo de Harper para la Ecuaci
on de Euler
5.1

Caso I . . . . . . . . . .
5.1.1 Caso hiperb
olico
5.1.2 Caso parab
olico .
5.1.3 Caso elptico . .

5.2

Caso II

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

78
83

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

83
87
92
94

. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

98

5.3

Caso III . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

99

5.4

Caso IV . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 100

5.5

Caso V

. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 100

6 Resultados Analticos y Num


ericos

101

6.1

Ecuaci
on hiperb
olica . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 101

6.2

Ecuaci
on parab
olica . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 108

6.3

Ecuaci
on elptica . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 115

CONTENIDO

Conclusiones

119

Ap
endice A

121

Ap
endice B

123

Ap
endice C

125

VI

CONTENIDO

Captulo

Introduccion
La teora de las Ecuaciones Diferenciales Parciales (EDP), es una materia que forma parte esencial en la formaci
on de ingenieros y matematicos y u
ltimamente, no han
existido avances en la investigacion de nuevos metodos de solucion para las EDPs de
segundo orden. El metodo m
as com
un de resolver una EDP de segundo orden consiste
en transformar dicha ecuaci
on a una EDP mas sencilla, llamada com
unmente forma
canonica. Adem
as, de que el c
alculo de estas formas canonicas es muy laborioso y tedioso, la principal desventaja de este metodo, consiste en que la ecuacion de la forma
canonica en general no puede ser resuelta por los metodos ya conocidos, excepto para
aquellas formas can
onicas, a partir de las cuales se obtienen las ecuaciones de onda,
calor y de Laplace.
En 1990 Stephenson-Radmore [34] crearon un metodo, el cual permite encontrar
soluciones de una EDP de segundo orden sin calcular su forma canonica, pero dicho
metodo es difcil de aplicarlo, y solo se aplica para las EDPs de tipo hiperbolico.
Por otro lado, en 1994 J. Harper [21] desarrolla un metodo, el cual resuelve la
ecuaci
on de Black-Scholes en matematicas financieras, esto permite encontrar nuevas
soluciones para las EDPs de tipo parabolico. Este metodo ha resultado ser efectivo
para resolver algunos problemas particulares de valores iniciales y de frontera [27, 29],
pero no ha sido aplicado a otro tipo de EDPs.
Cabe mencionar que en el a
no 2006 J. Biazar y Z. Ayati [9] resuelven una EDP
de segundo orden para el caso en que esta sea una EDP del tipo parabolico no lineal
y utilizaron el metodo de descomposicion de Adomian para aproximar sus soluciones,
haciendo una comparaci
on de sus resultados con el metodo de diferencias finitas, debido
VII

VIII

Introducci
on

a que la forma de las soluciones de una EDP de segundo orden nos permite aplicar el
metodo de descomposici
on de Adomian.
En a
nos recientes se han estado utilizando metodos numericos para la solucion de
las EDPs, los cuales proporcionan frecuentemente informacion u
til acerca del comportamiento de la soluci
on. Uno de los metodos mas conocidos es el de diferencias finitas
y otro es el de algoritmos geneticos, este u
ltimo con muy buenos resultados en la aproximacion de las soluciones.
La presenta tesis est
a organizada en seis captulos distribuidos como sigue:
En el primer captulo se da una introduccion de las EDPs de primer y segundo
orden, considerando su clasificaci
on y proporcionando las soluciones generales para dichas ecuaciones. Adem
as, se introduce las soluciones para el caso de la EDP de Euler
cuando sus coeficientes son constantes.
En el segundo captulo se presenta el metodo propuesto por J. F. Harper [21] y el
metodo de Sthepenson-Radmore [34], el primero de ellos nos conducira a una ecuacion
ya conocida y el segundo se propondra una nueva solucion general de una EDP para
el caso cuando esta sea del tipo hiperbolico, parabolico y elptico, la cual estara en
terminos de funciones que son soluciones de alguna EDP conocida.
En el tercer captulo se presenta el metodo de descomposicion de Adomian propuesto por G. Adomian [3, 4, 5, 6], con la finalidad de resolver de forma analtica e iterativa
la EDP de Euler de tipo hiperb
olico, parabolico y elptico.
Para el cuarto captulo, se expondran dos metodos numericos, uno de ellos es el
metodo de diferencias finitas y el segundo, el de algoritmos geneticos. Las implementaciones numericas de los metodos de este captulo es llevada a cabo en MATLAB. No
obstante, los c
odigos no son dados explcitamente en este trabajo de tesis.
Dedicamos el quinto captulo para presentar una aplicacion del metodo de Harper
a la ecuaci
on de Euler, el cual nos ha permitido dar un nuevo m
etodo para resolver
la EDP de Euler con coeficientes constantes del tipo hiperbolico, parabolico y elptico.
Una vez obtenidas las nuevas soluciones de la EDP de segundo orden en el caso en
que los coeficientes son constantes, en el sexto captulo presentamos las comparaciones

Introducci
on

IX

de los dos metodos de aproximacion (diferencias finitas y algoritmos geneticos) y de


los resultados analticos obtenidos en los captulos anteriores, haciendo comparaciones
entre los diferentes metodos que se describen, con la finalidad de demostrar que estas
soluciones son equivalentes a las soluciones que se obtienen transformando la ecuacion
de Euler a su forma can
onica.
Finalmente, en el apendice, se proporciona informacion basica para la comprension
de terminos que se ocupan en este documento, y que puede ser de gran ayuda para otras
lecturas. Adem
as, en el anexo se agregan los pseudocodigos que se emplearon para la
aproximaci
on numerica de los ejemplos resueltos a lo largo de esta tesis.

Captulo 1

a las EDPs
Introduccion
Las EDPs son de gran interes a causa de su conexion con los fenomenos naturales
del mundo. Los fen
omenos m
as interesantes implican cambios y se pueden describir por
medio de la construcci
on de modelos matematicos, los cuales se han destacado como
uno de los aspectos m
as importantes en el desarrollo teorico en las diferentes ramas de
la ciencia.
A menudo estos modelos implican una ecuacion en la que una funcion y sus derivadas
desempe
nan papeles decisivos. Tales ecuaciones son llamadas ecuaciones diferenciales
parciales, las cuales surgen en relacion con varios problemas fsicos y geometricos, cuando las funciones que intervienen dependen de dos o mas variables independientes.
El prop
osito de este captulo introductorio es presentar las EDPs de primer y
segundo orden, considerando su clasificacion y sus soluciones generales. Ademas, se introducen las soluciones para el caso de la EDP de Euler.

1.1.
1.1.1.

EDPs de primer orden


Clasificaci
on de las EDPs de primer orden

En general, las EDPs de primer orden de dos variables independientes x y y son


de la forma
F (x, y, u, ux , uy ) = 0, (x, y) C 1 (R)
(1.1)
donde F es una funci
on arbitraria, y u = u(x, y) es una funcion desconocida con
variables independientes x y y. De manera similar, la forma general de las EDPs de
primer grado con tres variables independientes x, y, z puede escribirse como:
F (x, y, z, u, ux , uy , uz ) = 0.
La ecuaci
on (1.1) es una EDP casi-lineal si esta es lineal en las primeras derivadas parciales de la funci
on desconocida u(x, y). Luego, la ecuacion casi-lineal es de la
1

Introducci
on a las EDPs

siguiente forma
Aux + Buy = C,

(1.2)

donde los coeficientes A, B y C son funciones de x, y y u. La ecuacion (1.2) es llamada


EDP semilineal si A y B son independientes de u.
La ecuaci
on (1.1) se dice que es lineal si F es lineal en la funcion desconocida u,
y sus derivadas ux y uy , y los coeficientes de estas variables son funciones solo de las
variables independientes x y y. As, la EDP lineal de primer orden tiene la forma:
Aux + Buy + Cu = D,

(1.3)

donde D es una funci


on dada. Se dice que la ecuacion de la forma (1.3) es homogenea
si D = 0 y no homogenea si D 6= 0. La ecuacion lineal es un caso particular de la
ecuacion casi-lineal (1.2) si A, B son independientes de u y C es una funcion lineal en
la variable u. De forma similar, la ecuacion semilineal se reduce a una ecuacion lineal
si C es lineal.
Una ecuaci
on que no es lineal es llamada ecuacion no lineal.

1.1.2.

Construcci
on de la ecuaci
on de primer orden

Para la construcci
on de la ecuacion de primer orden [27], consideremos un sistema
de ecuaciones que describe una superficie geometrica dada por la ecuacion
f (x, y, u, a, b) = 0,

(1.4)

donde a y b son par


ametros arbitrarios. Al derivar parcialmente la ecuacion (1.4) con
respecto de x y y, obtenemos
fx + pfu = 0, fy + qfu = 0,

(1.5)

donde p = ux y q = uy . La ecuaci
on (1.5) relaciona los dos parametros arbitrarios a
y b. En general, las ecuaciones (1.4) y (1.5) forman un sistema de ecuaciones, donde
estos dos par
ametros pueden ser eliminados, obteniendo una ecuacion de primer orden
de la forma F (x, y, u, p, q) = 0.
Una ecuaci
on de la forma (1.4) que contiene dos parametros arbitrarios es llamada
soluci
on completa o integral completa de la ecuacion (1.1).
Es importante notar que las soluciones de la EDP pueden ser representadas por
funciones suaves.
Mas a
un, quiza no todas las soluciones sean suaves. Una solucion que no es diferenciable en todas partes es llamada soluci
on debil. Las soluciones debiles mas comunes, son
las que tienen discontinuidades en las primeras derivadas parciales, esto es, la solucion
puede ser representada por superficies de discontinuidad. Este tipo de discontinuidades
es usualmente llamada onda de choque.
Una caracterstica importante de las EDPs casi-lineales y no lineales es que sus
soluciones pueden desarrollar discontinuidades.

1.1 EDPs de primer orden

Teorema 1.1.1. Si = (x, y, u) y = (x, y, u) son funciones de x, y, u y si


f (, ) = 0, donde f es una funci
on arbitraria de y , entonces u = u(x, y) satisface
la EDP de primer orden
p

(, )
(, )
(, )
+q
=
,
(y, u)
(u, x)
(x, y)

(1.6)

donde


(, ) x y
=
.
x y
(x, y)
Demostraci
on.
Derivando parcialmente f (, ) = 0 con respecto de x y y, respectivamente, obtenemos las siguientes ecuaciones



f
+p
+
x
u


f

+q
+
y
u



f

+p
= 0,
x
u


f

+q
= 0.
y
u

f
f
Las soluciones no triviales para
y
pueden ser definidas si el determinante de
este sistema de ecuaciones es igual a cero, esto es


x + pu x + pu

y + qu y + qu



= 0.

Al realizar este determinante, obtenemos la ecuacion casi-lineal de primer orden


(1.6).


1.1.3.

El m
etodo de las caractersticas y soluci
on general

Este metodo de soluci


on de las ecuaciones casi-lineales [13, 20, 27] se puede describir
por el siguiente resultado.
Teorema 1.1.2. La soluci
on general de una EDP casi-lineal de primer orden, de la
forma dada por la ecuaci
on (1.2), es
f (, ) = 0,

(1.7)

donde f es una funci


on arbitraria de y , y adem
as = const. = c1 y = const. = c2
son soluciones del sistema de ecuaciones caractersticas asociadas a la ecuaci
on (1.2)
dx
dy
du
=
=
.
A
B
C

(1.8)

Introducci
on a las EDPs

Las soluciones de las ecuaciones caractersticas = c1 y = c2 = c2 (c1 ) = (c1 )


son llamadas curvas caractersticas de la ecuacion (1.2).
Demostraci
on.
Puesto que = const. = c1 y = const. = c2 satisfacen las ecuaciones (1.8) y
tambien satisfacen las ecuaciones
d = x dx + y dy + u du = 0,
d = x dx + y dy + u du = 0.
Estas u
ltimas ecuaciones son equivalentes a las siguientes ecuaciones
ax + by + cu = 0,

(1.9)

ax + by + cu = 0.
Al resolver las ecuaciones (1.9) para a, b y c, obtenemos que
a
(,)
(y,u)

b
(,)
(u,x)

c
(,)
(x,y)

Sustituyendo estas ecuaciones en la ecuacion


p

(, )
(, )
(, )
+q
=
,
(y, u)
(u, x)
(x, y)

obtenemos que f (, ) = 0 es una solucion de (1.2).



En el caso de las EDPs de primer orden, podemos determinar una solucion especfica del problema de valores iniciales o problema de Cauchy. Una manera simple de
seleccionar una funci
on u(x, y) en el conjunto infinito de soluciones de la ecuacion (1.2)
consiste en prescribir una curva en el espacio tridimensional que debe estar contenida
en la superficie integral z = u(x, y). Sea una curva dada parametricamente mediante
x = f (t), y = g(t), u = h(t). Entonces, se elige una solucion u(x, y) de la ecuacion
(1.2), tal que la relaci
on
h(t) = u(f (t), g(t)),
sea una identidad.
Definici
on 1.1.1. (Problema de Cauchy). Sea dada la ecuacion casi-lineal de primer
orden (1.2). Un problema de Cauchy asociado a la ecuacion (1.2) consiste en encontrar
la funcion u(x, y) asociada a los datos f (t), g(t), h(t) mediante x = f (t), y = g(t),
u = h(t).
El problema de Cauchy determina una u
nica solucion de la ecuacion (1.2) en una
vecindad de , esta soluci
on u = u(x, y) toma valores u0 (t) en . La curva es llamada
curva inicial del problema, y u0 (t) es llamada condicion inicial.

1.1 EDPs de primer orden

Teorema 1.1.3. (Problema de Cauchy para EDPs casi-lineales) Sea la ecuaci


on (1.2)
y sea
: x = x0 (t), y = y0 (t), u = u0 (t),
0

una curva inicial, donde 0 t 1 , con la condici


on (x0 )2 + (y0 )2 6= 0 (es decir x y
0
y no ambas nulas simult
aneamente). Sea, adem
as
0

J = y0 (t)A(x0 (t), y0 (t), u0 (t)) x0 (t)B(x0 (t), y0 (t), u0 (t)),


el determinante jacobiano. Se tiene entonces
a) Si J 6= 0 en toda , entonces existe una u
nica soluci
on del problema de Cauchy.
b) Si J = 0 en toda y es una curva caracterstica, entonces existen infinitas
soluciones del problema de Cauchy.
c) Si J = 0 en toda y no es una curva caracterstica, entonces no existe soluci
on
del problema de Cauchy.
Lo anterior se puede interpretar de la siguiente forma: si el problema de Cauchy
tiene soluci
on y J = 0 a lo largo de , entonces la curva es ella misma una curva
caracterstica de la EDP. Pero si es una curva caracterstica, entonces infinitas superficies integrales pasan a traves de . Observemos, que si la funcion u no es de clase
C 1 entonces no es posible deducir, a partir de J = 0, que la curva es caracterstica,
ya que pueden existir soluciones de la EDP que pasen por una curva no caracterstica
y para los cuales J = 0.

1.1.4.

Formas can
onicas de las EDPs de primer orden

A menudo es conveniente transformar la EDP de primer orden mas general (1.3),


dada por la ecuaci
on
Aux + Buy + Cu = D,
a otra mas sencilla llamada forma canonica (o estandar), la cual puede ser mas facil
de integrar al hallar la soluci
on general de (1.3). Introduciendo las siguientes variables,
que en algunas ocasiones son llamadas variables canonicas [27],
= (x, y), = (x, y),

(1.10)

donde y son funciones continuas diferenciables, tales que su Jacobiano J(, )


x y y x es diferente de cero en el dominio donde x y y estan definidas, las cuales
pueden ser deteminadas de manera u
nica para el sistema de ecuaciones (1.10). As, por
la regla de la cadena, se sigue que
ux = u x + u x , uy = u y + u y ,
sustituyendo estas derivadas parciales en (1.3) obtenemos la ecuacion
Au + Bu + Cu = D,

(1.11)

Introducci
on a las EDPs

donde, para este caso los coeficientes A, B estan dados por:


A = Ax + By ,

B = Ax + By .

(1.12)

De (1.12) podemos observar que B = 0 si es una solucion de la ecuacion de primer


orden
Ax + By = 0.
(1.13)
Esta ecuaci
on tiene infinitas soluciones. Puesto que (x, y) satisface la ecuacion
(1.13), entonces (x, y) = const., es una curva caracterstica de dicha ecuacion.
Por otro lado, tenemos que (x, y) = const., es tambien una curva caracterstica
de la ecuaci
on (1.3). As A 6= 0 en donde (x, y) esta definida y J(, ) 6= 0, ya que si
A = 0 y B = 0 los coeficientes de la ecuacion (1.12) tienen que ser cero. Esto significa,
que si la variable = (x, y) cumple con la ecuacion (1.13) entonces podemos elegir a
la variable = (x, y) de tal manera que J(, ) 6= 0, y viceversa. Finalmente, si B = 0
y A 6= 0, podemos dividir (1.11) por A obteniendo la forma canonica
u + (, )u = (, ),

(1.14)

donde (, ) = C
y (, ) = D
.
A
A
La ecuaci
on u +(, )u = (, ) representa una ecuacion diferencial ordinaria con
variable independiente y a la variable como un parametro, la cual puede ser tratada
como constante. La ecuaci
on (1.14) es llamada la forma canonica de la ecuacion (1.3)
en terminos de y . Generalmente, la ecuacion canonica (1.14) puede ser integrada
facilmente y la soluci
on general de (1.3) puede ser obtenida reemplazando y por las
variables originales x y y.
En la pr
actica, es conveniente hacer el cambio = (x, y) y (x, y) = y o (x, y) = x
y = (x, y), tal que J(, ) 6= 0.
Ejemplo 1.1.1. Reducir la ecuaci
on ux uy = u, a su forma can
onica.
Soluci
on. Para este caso tenemos que A = 1, B = 1, C = 1 y D = 0, entonces
las ecuaciones caractersticas est
an dadas por
dx
dy
du
=
=
.
1
1
u
As, las curvas caractersticas son = x + y = c1 y = y = c2 , donde c1 y c2 son
constantes. Derivando parcialmente obtenemos que
ux = u x + u x = u ,
uy = u y + u y = u + u ,
sustituyendo en la ecuaci
on ux uy = u, llegamos a la ecuacion u + u = 0, la cual es
su forma can
onica.


1.1 EDPs de primer orden

1.1.5.

M
etodo de separaci
on de variables

Durante los u
ltimos dos siglos, varios metodos han sido desarrollados para solucionar
EDPs. Entre estos, una tecnica conocida como el metodo de separacion de variables es
quiza el metodo sistem
atico mas viejo para resolver EDPs. Su caracterstica esencial es
transformar la EDP en un conjunto de ecuaciones diferenciales ordinarias. La solucion
requerida de las EDPs es entonces escrita como un producto u(x, y) = X(x)Y (y) 6=
0, o una suma u(x, y) = X(x) + Y (y), donde X(x) y Y (y) son funciones de x y y,
respectivamente. Muchos problemas significativos en EDPs pueden ser resueltos por
el metodo de separaci
on de variables. Este metodo ha sido refinado y generalizado
considerablemente sobre los ultimos dos siglos y es una de las tecnicas clasicas de la
fsica matem
atica, las matem
aticas aplicadas, y las ingenieras.
Consideremos la EDP (1.3) homogenea, proponiendo la solucion general como un
producto que tiene la siguiente forma
u(x, y) = X(x)Y (y) 6= 0.

(1.15)

Sustituyendo (1.15) en la ecuacion (1.3), obtenemos la siguiente ecuacion diferencial


ordinaria
0
0
AX Y + BXY + CXY = 0,
dividiendo esta ecuaci
on por XY tenemos
0

X
Y
= B
C,
X
Y

esta ecuaci
on puede ser separada en dos ecuaciones, si se introduce una constante , la
cual es llamada constante de separacion, de donde obtenemos el siguiente sistema de
ecuaciones diferenciales ordinarias
0

AX X = 0,
0

BY + (C + )Y = 0.
Luego, las funciones X y Y estan determinadas por este sistema de ecuaciones
diferenciales ordinarias. Generalmente, las EDPs de primer orden pueden ser resueltas
por el metodo de separaci
on de variables, sin utilizar para este caso series de Fourier
[20, 27].
Ejemplo 1.1.2. Resolver la ecuaci
on diferencial parcial ux + 2uy = 0.
Soluci
on. Proponemos una solucion de la forma u(x, y) = X(x)Y (y), derivando
esta soluci
on y sustituyendo en la ecuacion dada, obtenemos que
X 0 (x)Y (y) + 2X(x)Y 0 (y) = 0,
tambien podemos expresar esta ecuacion de la siguiente forma
Y 0 (y)
X 0 (x)
=
= ,
2X(x)
Y (y)

Introducci
on a las EDPs

obteniendo dos ecuaciones diferenciales ordinarias


X 0 (x) 2X(x) = 0,

Y 0 (y) + Y (y) = 0.

Integrando ambas ecuaciones, llegamos a que X(x) = a1 e2x y Y (y) = a2 ey


son soluciones de estas ecuaciones respectivamente, donde a1 y a2 son constantes de
integracion. Por lo que la soluci
on pedida esta dada por
u(x, y) = a1 a2 e2xy = a3 e(2xy) ,
donde a3 = a1 a2 es una constante arbitraria.

1.2.
1.2.1.

EDPs de segundo orden


Ecuaciones de segundo orden con dos variables independientes

La EDP general lineal de segundo orden con una variable dependiente u se escribe
como
n
n
X
X
Aij uxi xj +
Bi uxi + F u = G,
(1.16)
i,j=1

i=1

en la cual asumimos que Aij = Aji y Aij , Bi , F y G son funciones de valores reales
definidas en alguna regi
on del espacio . La ecuacion (1.16) con dos variables independientes puede ser escrita en la forma
Auxx + Buxy + Cuyy + Dux + Euy + F u = G,

(1.17)

donde los coeficientes son funciones de x y y y ambas no pueden ser cero al mismo
tiempo. La clasificaci
on de las EDPs tiene su origen en la clasificacion de la ecuacion
cuadratica de las secciones c
onicas que se hace en geometra analtica [27]. La ecuacion
cuadratica
Ax2 + Bxy + Cy 2 + Dx + Ey + F = 0,
representa una hiperbola, par
abola o elpse en consecuencia de que si la cantidad
B 2 4AC,
es positiva, cero o negativa.
La clasificaci
on de las ecuaciones de segundo orden se basa en la posibilidad de
reducir la ecuaci
on (1.17), mediante una transformacion a su forma canonica o estandar
[13, 27]. Una ecuaci
on se dice que es hiperbolica, parabolica o elptica dependiendo de
2
como es B 4AC.
Para el caso de dos variables independientes, una transformacion siempre puede
ser encontrada para reducir la ecuacion dada a su forma canonica [27]. Sin embargo,
en el caso de varias variables independientes, no es en general posible encontrar dicha
transformaci
on [27].

1.2 EDPs de segundo orden

Para transformar la ecuaci


on (1.17) a su forma canonica, introducimos las siguientes
variables independientes, que en algunas ocasiones se les llama variables canonicas [27].
Esto es
= (x, y), = (x, y).

(1.18)

Asumimos que y son dos veces diferenciables y que J(, ) 6= 0. Entonces x


y y pueden ser consideradas u
nicas para el sistema de ecuaciones (1.18). Derivando
parcialmente, tenemos que
ux = u x + u x ,
uy = u y + u y ,
uxx = u x2 + 2u x x + u x2 + u xx + u xx ,

(1.19)

uxy = u x y + u (x y + y x ) + u x y + u xy + u xy ,
uyy = u y2 + 2u y y + u y2 + u yy + u yy ,
sustituyendo estos valores en la ecuacion (1.17) obtenemos
A u + B u + C u + D u + E u + F u = G ,

(1.20)

donde
A = Ax2 + Bx y + Cy2 ,
B = 2Ax x + B(x y + y x ) + 2Cy y ,
C = Ax2 + Bx y + Cy2 ,
D = Axx + Bxy + Cyy + Dx + Ey ,

(1.21)

E = Axx + Bxy + Cyy + Dx + Ey ,


F = F,
G = G.
La ecuaci
on resultante (1.20) es de la misma forma que la ecuacion original (1.17)
bajo la transformaci
on general (1.18). As, la naturaleza de la ecuacion permanece
invariante bajo una transformacion semejante si J(, ) 6= 0. Esto puede verse del
hecho que el signo del discriminante es invariante bajo la transformacion
B 2 4A C = J 2 (B 2 4AC).
La clasificaci
on de la ecuaci
on (1.17) depende de los coeficientes A, B y C, por
consiguiente, la ecuaci
on (1.17) podemos reescribirla como
Auxx + Buxy + Cuyy = H(x, y, u, ux , uy ),

(1.22)

y la ecuacion (1.20) como


A u + B u + C u = H (, , u, u , u ).

(1.23)

10

Introducci
on a las EDPs

1.2.2.

Formas can
onicas

Consideremos la ecuaci
on reducida (1.22) a transformar a su forma canonica, en
donde A, B, C son distintos de cero. Sean los coeficientes A y B de la ecuacion (1.23)
iguales a cero. As, por (1.21), obtenemos
A = Ax2 + Bx y + Cy2 = 0,
C = Ax2 + Bx y + Cy2 = 0.
Estas dos ecuaciones son del mismo tipo y por tanto podemos escribirlas en una
sola ecuaci
on de la forma
Ax2 + Bx y + Cy2 = 0,
(1.24)
en la cual es una funci
on que puede ser o . Dividiendo por y2 a la ecuacion (1.24)
obtenemos
 
 2
x
x
+B
+ C = 0.
(1.25)
A
y
y
A lo largo de la curva = const., obtenemos
d = x dx + y dy = 0.
As

dy
x
= ,
dx
y

y por consiguiente, la ecuaci


on (1.25) puede escribirse de la forma

A

dy
dx

2


B

dy
dx


+ C = 0,

(1.26)

cuyas races est


an dadas por

dy
=
dx

B 2 4AC

2A

(1.27)

Estas ecuaciones son conocidas como las ecuaciones caractersticas asociadas a la


ecuacion (1.22), y son ecuaciones diferenciales ordinarias para familias de curvas a lo
largo del plano xy, en el cual = const. y = const. Las integrales de las ecuaciones
(1.26) son llamadas curvas caractersticas. Luego, las soluciones de las EDPs de primer
orden dadas por la ecuaci
on (1.24), se pueden escribir como
1 (x, y) = c1 = const.,
2 (x, y) = c2 = const.
Tomando la transformaci
on = 1 (x, y) y = 2 (x, y), obtenemos la forma canonica de la ecuaci
on (1.22). La tabla (1.1) nos indica los diferentes tipos de formas canonicas
que existen.

1.2 EDPs de segundo orden

11

Discriminante
B 2 4AC > 0
B 2 4AC = 0
B 2 4AC < 0

Tipo de EDP
Hiperbolica
Parabolica
Elptica

Tabla 1.1: Formas canonicas

Ahora, para resolver la EDP es necesario especificar las condiciones de frontera y en


algunos casos las condiciones iniciales [20, 29, 30]. En terminos generales, las condiciones
de frontera tienen la siguiente forma
u + u~n = ,
donde , , u y u~n 1 son funciones de x y y. Si = 0, la condicion se denomina
homogenea, de otra manera, es no homogenea. En la tabla (1.2) se muestran las formas
y nombres de los distintos tipos de condiciones de frontera.
Nombre
Dirichlet
Neumann
Robin
Cauchy

Forma
=0
=0
, 6= 0
=0
=0

Comentario
u especificado
u~n especificada
se especifica al menos de forma homogenea
dos ecuaciones:
u y u~n especificados

Tabla 1.2: Condiciones de frontera


Ahora, obtengamos la forma canonica para cada uno de los diferentes tipos de EDPs
de segundo orden.
Tipo hip
erbolico
Si B 2 4AC > 0, entonces integrando la ecuacion (1.27) obtenemos dos familias de
caractersticas, las cuales son reales y distintas. Puede demostrarse que para este caso
A = C = 0 y B 6= 0. Luego la ecuacion (1.23) se reduce a
u = H1 ,

(1.28)

H
B

. Esta forma, dada por la ecuacion (1.28), es llamada la primera forma


donde H1 =
canonica de las ecuaciones hiperbolicas. Si introducimos ahora las nuevas variables
independientes como
= + , = ,
(1.29)
obtenemos entonces que la ecuacion (1.28) es transformada en
u u = H2 (, , u, u , u ).
Esta forma es llamada la segunda forma canonica de las ecuaciones hiperbolicas.
1

u~n es la derivada direccional en direcci


on del vector ~n.

12

Introducci
on a las EDPs

Tipo parab
olico
En este caso, tenemos que B 2 4AC = 0, y la ecuacion (1.26) tiene una solucion.
As, existe una familia real de caractersticas, y obtenemos solo una integral = const.
(o = const.). La otra variable = const. (o = const.) se elige de tal manera que
J(, ) 6= 0. Luego B 2 = 4AC y A = 0, hallando

2

A = Ax2 + Bx y + Cy2 =
Ax + Cy = 0.
De esta ecuaci
on se sigue que
B = 2Ax x + B(x y + y x ) + 2Cy y

 


=2
Ax + Cy
Ax + Cy = 0.
De aqu A = B = 0 y C 6= 0. Luego, dividiendo la ecuacion (1.23) por C ,
obtenemos
u = H3 (, , u, u , u ),
(1.30)

donde H3 = H
on (1.30) es llamada forma canonica de las ecuaciones paC . La ecuaci
rabolicas. Adem
as, la ecuaci
on (1.23), tambien se puede asumir de la siguiente forma
u = H3 (, , u, u , u ),
para este caso, se tiene que C = B = 0 y A 6= 0, donde H3 =

H
A .

Tipo Elptico
Para una ecuaci
on de tipo elptico tenemos B 2 4AC < 0. Consecuentemente, la
ecuacion cuadr
atica (1.26) no tiene soluciones reales, pero tiene soluciones complejas
conjugadas, las cuales son funciones continuas de valores complejos de las variables
reales x y y. As, en este caso, las curvas caractersticas no son reales. Sin embargo, si
los coeficientes A, B y C son funciones analticas de x y y, entonces se puede considerar la ecuaci
on (1.26) para variables complejas x y y. Entonces y son complejas,
introduciendo nuevas variables reales, tenemos que
1
= ( + ),
2

1
( ),
2i

tal que
= + i,

= i.

(1.31)

Primero, transformemos la ecuacion (1.22). Obtenemos


A (, )u + B (, )u + C (, )u = H4 (, , u, u , u ),

(1.32)

donde suponemos que los coeficientes tienen la misma forma que los coeficientes de la
ecuacion (1.23). Con el uso de (1.31) y de la ecuacion A = C = 0, se sigue que
(A C ) iB = 0,

1.2 EDPs de segundo orden

13

de esta u
ltima ecuaci
on, obtenemos que A = C y B = 0, luego la ecuacion (1.32)
se transforma en
A u + A u = H4 (, , u, u , u ),
dividiendo por A , se obtiene
u + u = H5 (, , u, u , u ),

(1.33)

donde H5 = AH4 . La ecuaci


on (1.33) es llamada forma canonica para las ecuaciones del
tipo elptico.

1.2.3.

Ecuaciones con coeficientes constantes

La EDP lineal de segundo orden con coeficientes constantes se puede escribir en su


forma general como
Auxx + Buxy + Cuyy + Dux + Euy + F u = G.

(1.34)

En este caso, el determinante de la ecuacion (1.34) es una constante. Luego, sus


ecuaciones caractersticas, las podemos escribir como

dy
B
=
dx

B 2 4AC
,
2A

integrando, obtenemos que


y=

B 2 4AC
x + ci ,
2A

donde ci son constantes con i = 1, 2. En consecuencia, tomamos la transformacion de


la siguiente forma
= y 1 x,
donde
i =

= y 2 x,

B 2 4AC
.
2A

(1.35)

(1.36)

Un caso particular, de la ecuacion (1.34) es la ecuacion


Auxx + Buxy + Cuyy = G,

(1.37)

la cual es llamada la ecuaci


on de Euler no homogenea. Esta ecuacion es la forma general
de una EDP lineal de segundo orden.

14

1.2.4.

Introducci
on a las EDPs

Soluciones de la ecuaci
on de Euler

Ecuaci
on de Euler para el caso hiperb
olico
Si B 2 4AC > 0, la ecuaci
on (1.37) es de tipo hiperbolico, en cuyo caso las caractersticas forman dos familias bien definidas dadas por la ecuacion (1.27). Usando
(1.35), la ecuaci
on (1.34) se transforma en
u = D1 u + E1 u + F1 u + G1 ,

(1.38)

donde D1 , E1 , F1 y G1 son constantes, y los terminos de orden inferior son expresados


explcitamente. Para el caso, cuando A = 0, la ecuacion caracterstica (1.24) se escribe
como
Bx y + Cy2 = 0,
y reescribiendo la ecuaci
on

dy
dx

= xy , como
y = x

dx
,
dy

se sigue que

 2
dx
dx
B
+C
= 0,
dy
dy
 
 
dx
dx
B + C
= 0,
dy
dy


de esta u
ltima ecuaci
on se obtiene
dx
=0 y
dy


B+C

dx
dy


= 0,

integrando ambas ecuaciones, se sigue que



x = c1 ,

x=

B
C


y + c2 ,

donde c1 y c2 son constantes de integracion. As


 
B
= x, = x
y,
C
bajo esta transformaci
on, la ecuaci
on (1.34) se reduce a la forma canonica
u = D1 u + E1 u + F1 u + G1 ,

(1.39)

donde D1 , E1 , F1 y G1 son constantes cuando A = 0 y la forma canonica de la ecuacion


de Euler (1.37) para el caso homogeneo esta dada por
u = 0,
integrando esta ecuaci
on, obtenemos que su solucion esta dada por
u = () + () = (y 1 x) + (y 2 x),
donde y son funciones arbitrarias, y 1 y 2 estan dadas por (1.36).

(1.40)

1.2 EDPs de segundo orden

15

Ejemplo 1.2.1. Resolver la ecuaci


on diferencial parcial
2uxx + uxy uyy = 0.
Soluci
on. Tenemos que A = 2, B = 1, C = 1, y B 2 4AC = 9, por lo que la
ecuaci
on es de tipo hiperb
olico. As, las ecuaciones caractersticas toman la siguiente
forma
dy
dy
1
= 1,
= ,
dx
dx
2
integrando, obtenemos que
y = x + c1 ,

y=

x
+ c2 ,
2

en consecuencia, las variables canonicas estan dadas por


= y x,
x
=y+ .
2
Con esta tranformaci
on, la ecuacion dada tiene la siguiente forma canonica
u = 0,
integrando esta ecuaci
on, obtenemos que la solucion de la ecuacion dada resulta ser

x
u = (y x) + y +
.
2

Ejemplo 1.2.2. Resolver la ecuaci
on diferencial parcial
uxx + 2uxy 3uyy = 0,
con las condiciones iniciales dadas por
u(x, 0) = 3x2 , uy (x, 0) = 0.
Soluci
on. Tenemos que A = 1, B = 2, C = 3, y B 2 4AC = 16, por lo que la
ecuaci
on es de tipo hiperb
olico. As, las ecuaciones caractersticas toman la siguiente
forma
dy
dy
= 3,
= 1,
dx
dx
integrando, obtenemos que
y = 3x + c1 ,

y = x + c2 ,

en consecuencia, las variables canonicas estan dadas por


= y 3x,
= y + x.

16

Introducci
on a las EDPs
Con esta tranformaci
on, la ecuacion dada tiene la siguiente forma canonica
u = 0.
Integrando esta ecuaci
on, obtenemos que la solucion de la ecuacion dada es
u = (y 3x) + (y + x).
Aplicando las condiciones iniciales, obtenemos el siguiente sistema de ecuaciones
30 (3x) + 0 (x) = 6x,
0 (3x) + 0 (x) = 0,

resolviendo este sistema de ecuaciones e integrando, llegamos a que


3
(x) = x2 ,
4
1
(x) = x2 ,
4
sustituyendo en la ecuaci
on original, finalmente la solucion pedida es
u(x, y) = 3x2 + y 2 .

Ecuaci
on de Euler para el caso parab
olico
Cuando B 2 4AC = 0, la ecuacion (1.37) es de tipo parabolico, como se vio en
la seccion [1.2.2] solo existe una familia real de caractersticas. Por la ecuacion (1.36),
encontramos que
 
B
.
(1.41)
= 1 = 2 =
2A
Luego, la familia de las caractersticas esta dada por
 
B
y=
x + c1 ,
2A
donde c1 es una constante de integracion. As, tenemos
 
B
=y
x, = hy + kx,
2A

(1.42)

donde es parecido al Jacobiano, y h y k son constantes arbitrarias. Con la eleccion


correcta de las constantes h y k en la transformacion (1.42), la ecuacion (1.34) se reduce
a
u = D2 u + E2 u + F2 u + G2 ,
(1.43)

1.2 EDPs de segundo orden

17

donde D2 , E2 , F2 y G2 son constantes. Si B = 0, podemos ver de inmediato de la


relacion
B 2 4AC = 0,
que C o A son diferentes de cero. Luego, la ecuacion de Euler esta ya en la forma
canonica. Similarmente, en los otros casos cuando A o C son diferentes de cero, B es
cero. La ecuaci
on de Euler tambien ya esta en forma canonica.
As, la forma can
onica de la ecuacion de Euler es
u = 0,
integrando dos veces esta ecuaci
on, obtenemos que la solucion de esta ecuacion esta dada
por
u = () + (),
(1.44)
donde y est
an dadas por (1.42). Tomando h = 1 y k = 0 2 de acuerdo a las secciones
[1.1.2] y [1.1.4], la soluci
on de la ecuacion de Euler, en el caso parabolico es
u = (y x) + y(y x).

(1.45)

Ejemplo 1.2.3. Resolver la ecuaci


on diferencial parcial
uxx 2uxy + uyy = 0.
Soluci
on. Tenemos que A = 1, B = 2, C = 1, y B 2 4AC = 0, por lo que la
ecuaci
on es de tipo parab
olico. As, la familia de caractersticas toma la siguiente forma
y = x + c1 ,
en consecuencia, tomamos la siguiente transformacion
= y + x,
= y,
con esta tranformaci
on, la ecuacion dada tiene la siguiente forma canonica
u = 0,
integrando esta ecuaci
on, obtenemos que la solucion de la ecuacion dada resulta ser
u = (y + x) + y(y + x).

Ejemplo 1.2.4. Resolver la ecuaci
on diferencial parcial
uxx + 2uxy + uyy = 0,
con las condiciones iniciales dadas por
u(x, 0) = 0,
2

uy (x, 0) = cos x.

Esto es equivalente a elegir = y, de tal forma que J(, ) 6= 0 [15, 27, 33, 35].

18

Introducci
on a las EDPs

Soluci
on. Tenemos que A = 1, B = 2, C = 1, y B 2 4AC = 0, por lo que la
ecuacion es de tipo parab
olico. As, la familia de caractersticas toma la siguiente forma
y = x + c1 ,
en consecuencia, tomamos la siguiente transformacion
= y x,
= y.
Con esta tranformaci
on, la ecuacion dada tiene la siguiente forma canonica
u = 0.
Al integrar esta ecuaci
on, obtenemos que la solucion de la ecuacion dada resulta ser
u = (y x) + y(y x),
aplicando las condiciones iniciales, obtenemos el siguiente sistema de ecuaciones
(x) = 0,
(x) = cos x,
sustituyendo en la soluci
on de la ecuacion dada, llegamos a que
u(x, y) = y cos(y x),
o
u(x, y) = y cos(x y).

Ecuaci
on de Euler para el caso elptico
Cuando B 2 4AC < 0, la ecuacion (1.37) es de tipo elptico. En este caso, las
caractersticas son complejas conjugadas.
Las ecuaciones caractersticas son
y = 1 x + c1 ,

y = 2 x + c2 ,

donde 1 y 2 son n
umeros complejos. En consecuencia, c1 y c2 pueden tomar valores
complejos. As
= y (a + ib)x, = y (a ib)x,
donde i = a ib con a y b constantes reales, y
a=

B
2A

b=

1 p
4AC B 2 .
2A

1.2 EDPs de segundo orden

19

Introduciendo las nuevas variables


1
= ( + ) = y ax,
2

1
( ) = bx.
2i

La aplicaci
on de esta transformacion reduce la ecuacion (1.37) a la forma canonica
u + u = D3 u + E3 u + F3 u + G3 ,
donde D3 , E3 , F3 y G3 son constantes. Notemos que B 2 4AC < 0, donde A y C son
distintos de cero. Luego, para el caso elptico, las caractersticas de la ecuacion de Euler
resultan ser complejas y est
an dadas por
= (y ax) ibx,

= (y ax) + ibx.

Por lo que, la forma can


onica de la ecuacion de Euler resulta ser
u = 0.
Integrando dos veces, obtenemos que su solucion esta dada por
u = () + ().

(1.46)

Observemos, que la apariencia de los argumentos complejos en la solucion (1.46) es


una caracterstica general de las ecuaciones elpticas.
Ejemplo 1.2.5. Resolver la ecuaci
on diferencial parcial
uxx + uxy + uyy = 0.
Soluci
on. Tenemos que A = 1, B = 1, C = 1, y B 2 4AC = 3, por lo que
la ecuaci
on es de tipo elptico. As, las ecuaciones caractersticas, toman la siguiente
forma

dy
1
dy
1
3
3
= +i
,
= i
,
dx
2
2
dx
2
2
integrando, obtenemos que
!
1
3
y=
+i
x + c1 ,
2
2
!
1
3
i
x + c2 ,
y=
2
2
en consecuencia, las variables canonicas estan dadas por
!
1
3
+i
x,
=y
2
2
!
1
3
=y
i
x,
2
2

20

Introducci
on a las EDPs

x
3
= y
+i
x,
2
2


x
3
= y
i
x,
2
2


de donde, se puede observar que es el conjugado de . Con esta tranformacion, la


ecuacion dada tiene la siguiente forma canonica
u = 0.
Integrando dos veces esta ecuaci
on, obtenemos que la solucion de la ecuacion dada
resulta ser
!
!


x
3
x
3
y
+i
x +
y
i
x .
u=
2
2
2
2

Ejemplo 1.2.6. Resolver la ecuaci
on diferencial parcial
uxx + 2uxy + 2uyy = 0,
con las condiciones iniciales dadas por
u(x, 0) = 0,

uy (x, 0) = 4e2x .

Soluci
on. Tenemos que A = 1, B = 2, C = 2, y B 2 4AC = 4, por lo que la
ecuacion es de tipo elptico. As, las ecuaciones caractersticas toman la siguiente forma
dy
= 1 + i,
dx

dy
= 1 i,
dx

integrando, obtenemos que


y = (1 + i)x + c1 ,
y = (1 i)x + c2 ,
en consecuencia, las variables can
onicas estan dadas por
= y (1 + i)x,
= y (1 i)x,
o
= (y x) + ix,
= (y x) ix,

1.2 EDPs de segundo orden

21

con esta transformaci


on, la ecuacion dada tiene la siguiente forma canonica
u = 0,
integrando esta ecuaci
on, obtenemos que la solucion de la ecuacion dada resulta ser
u = ((y x) + ix) + ((y x) ix).
Aplicando las condiciones iniciales, obtenemos el siguiente sistema de ecuaciones
(i 1)0 (x(i 1)) (i + 1) 0 (x(i + 1)) = 0,
0 (x(i 1)) + 0 (x(i + 1)) = 4e2x .
Resolviendo este sistema de ecuaciones e integrando, llegamos a que
(x) = 2iex(i+1) ,
(x) = 2ie2x(i1) .
Sustituyendo en la soluci
on de la ecuacion dada, obtenemos que
u(x, y) = 4ey2x sin (y).


22

Introducci
on a las EDPs

Captulo 2

Metodo de Harper y
el Metodo de StephensonRadmore
En el captulo anterior, se mostraron algunos metodos para la solucion de las EDPs
de primer y segundo orden, como fue el metodo de separacion de variables y el metodo
de las caractersticas. Tambien se dedujeron las soluciones generales para la ecuacion
de Euler homogenea con coeficientes constantes.
En este captulo se presentan dos metodos analticos no convencionales, uno de ellos
es propuesto por J. Harper [21], el cual nos permitira reducir una EDP de segundo orden
del tipo parab
olico a una ecuaci
on de calor.
El otro metodo, propuesto por Stephenson y Radmore [34], consiste en transformar
una EDP de segundo orden a una ya conocida, sin necesidad de calcular su forma
canonica.
Ambos metodos dan soluci
on matematica a muchos problemas fsicos en que aparecen dichas EDPs.

2.1.

Forma general del M


etodo de Harper

El metodo de J. Harper [21], permite resolver EDPs lineales de la forma


Auxx + Bux + Cuy + Du = E,

(2.1)

donde los coeficientes A, B, C, D y E son funciones de las variables x, y. Observemos que la ecuaci
on (2.1) corresponde a la forma canonica de las EDPs de segundo
orden el tipo parab
olico. El metodo propone ignorar la segunda derivada, por lo que
consideramos la siguiente ecuaci
on diferencial parcial auxiliar
Bvx + Cvy + Dv = E,
23

(2.2)

M
etodo de Harper y
el M
etodo de Stephenson- Radmore

24

dy
dv
cuyo sistema de ecuaciones caractersticas asociado esta dado por dx
B = C = EDv .
dy
Tomando, el primer par de ecuaciones dx
B = C , el cual se puede escribir como
dy
dx
on, obtenemos la primera curva caracterstica,
B C = 0, integrando esta ecuaci
Z
Z
dx
dy
(x, y) =

= c0 = const.
(2.3)
B
C

Adem
as, de la ecuaci
on (2.3), esta curva caracterstica cumple con la siguiente EDP,
Bx + Cy = 0.

(2.4)

Supongamos ahora, que se pueden obtener las variables x y y de la ecuacion (2.3),


de tal forma que
x = 0 (y, c0 ),

(2.5)

y = 1 (x, c0 ).

(2.6)

Para obtener la segunda curva caracterstica, tomemos el otro par de ecuaciones cadv
on diferencial
ractersticas, dx
B = EDv , el cual puede escribirse como la siguiente ecuaci
ordinaria
dv
D
E
+ v= .
dx B
B
Utilizando la ecuaci
on (2.6), esta u
ltima ecuacion se escribe como
dv(x, 1 (x, c0 )) D(x, 1 (x, c0 ))
E(x, 1 (x, c0 ))
+
v=
.
dx
B(x, 1 (x, c0 ))
B(x, 1 (x, c0 ))

(2.7)

El factor integrante de esta ecuacion esta dado por,


R

(x) = e

D(x,1 (x,c0 ))
dx
B(x,1 (x,c0 ))

(2.8)

Observemos, que este factor integrante cumple con la siguiente ecuacion


x =

D
.
B

Multiplicando la ecuaci
on (2.7) por este factor integrante, se sigue que
e

D
dx
B

R
dv
+ ve
dx

D
dx
B

D
E R
= e
B
B

D
dx
B

esta ecuaci
on se puede escribir como
d R
(e
dx

D
dx
B

v) =

integrando esta u
ltima ecuaci
on, tenemos
Z
R D
E R
dx
B
e
v=
e
B

E R
e
B

D
dx
B

D
dx
B

dx + c1 ,

2.1 Forma general del M


etodo de Harper

25

donde c1 es una constante de integracion. Luego, la solucion de la ecuacion (2.2) esta dada por,
Z
R
R D
E R D dx
D
dx
B
v=e
e B dx + e B dx c1 .
B
Esta soluci
on tambien se puede escribir como
Z
R
R D
E R D dx
D
dx
B
v=e
e B dx + e B dx (c0 ),
B
donde, para este caso, c1 = (c0 ). Por lo tanto, de la ecuacion anterior se sigue que la
solucion dada para la ecuaci
on (2.2), esta dada por
Z
R D
R D
E R D dx
e B dx + e B dx ((x, y)).
v(x, y) = e B dx
B
En terminos del factor integrante, dado por la ecuacion (2.8) y considerando a
R D(x,y)
R dy
R
dx
B(x,y)

y
a
(x,
y)
=
e
, obtenemos
= dx
B
C
Z
R D
E R D dx
v(x, y) = e B dx
e B dx + 1 (0 (y, c0 ), y)().
(2.9)
B
Harper propuso el siguiente procedimiento, el cual consiste en representar la solucion
de la ecuaci
on (2.1), an
aloga a la ecuacion (2.9), de la siguiente forma
u(x, y) = f (x) + g(y)F (X, Y ),
y las nuevas variables X y Y , estan dadas por
R dy
R
X = dx
B
C,
Y = Y (y),

(2.10)

(2.11)

donde las funciones f (x) y g(y) son arbitrarias.


La funci
on f se introduce para eliminar el termino no homogeneo en la ecuacion
(2.1), esto significa que, si E 0, implica que f = 0. Ademas, la nueva variable X, en
forma an
aloga a la ecuaci
on (2.4), cumple con la siguiente ecuacion
BXx + CXy = 0.

(2.12)

Derivando parcialmente la nueva solucion, dada por la ecuacion (2.10) se tiene que
ux = fx + gx F + g(FX Xx + FY Yx ),
uy = fy + gy F + g(FX Xy + FY Yy ),
uxx = g(Xx2 FXX + Xxx FX + Yx2 FY Y + Yxx FY ) + 2gx (FX Xx + FY Yx ) + gxx F + fxx ,
aplicando la ecuaci
on (2.11), estas derivadas se escriben como
ux = fx + gFX Xx ,
uy = gy F + g(FX Xy + FY Yy ),
uxx = g(Xx2 FXX + Xxx FX ) + fxx .

M
etodo de Harper y
el M
etodo de Stephenson- Radmore

26

Sustituyendo estas derivadas en la ecuacion (2.1), obtenemos


A(g(Xx2 FXX + Xxx FX ) + fxx ) + B(fx + gFX Xx ) +
C(gy F + g(FX Xy + FY Yy )) + D(f + gF ) = E,
factorizando terminos semejantes, se tiene que
gAXx2 FXX + (gAXxx + gBXx + gCXy )FX +
gCYy FY + (Cgy + Dg)F + Afxx + Bfx + Df = E.

(2.13)

Ahora, supongamos que las funciones f y g cumplen con las siguientes ecuaciones
diferenciales ordinarias
Cgy + Dg = 0,

(2.14)

Afxx + Bfx + Df = E.

(2.15)

Entonces, la ecuaci
on (2.13) se escribe como
AXx2 FXX + (AXxx + BXx + CXy )FX + CYy FY = 0.

(2.16)

Utilizando la ecuaci
on (2.12), esta u
ltima ecuacion se escribe como
AXx2 FXX + AXxx FX + CYy FY = 0.

(2.17)

Introduciendo las siguiente cantidades


A1 = AXx2 ,
B1 = AXxx ,
C1 = C,

(2.18)

y haciendo Yy = 1, se tiene que la ecuacion (2.17) se escribe como


A1 FXX + B1 FX + C1 FY = 0.

(2.19)

Adem
as, de la ecuaci
on Yy = 1, obtenemos que
Y = y.

(2.20)

Repitiendo el mismo procedimiento para la ecuacion (2.19), ahora la ecuaci


on diferencial parcial auxiliar toma la forma
B1 vX + C1 vY = 0.
dY
C1
dX
B1

por

(2.21)

Para este caso, tenemos que las ecuaciones caractersticas estan dadas por dX
B1 =
dv
dX
dY
= 0 , tomando, el primer par de ecuaciones B1 = C1 , el cual se puede escribir como
dY
stica, la cual esta dada
C1 = 0, integrando, obtenemos la primera curva caracter
Z
1 (X, Y ) =

dX

B1

dY
= c2 = const.
C1

(2.22)

2.1 Forma general del M


etodo de Harper

27

Adem
as, en forma an
aloga a la ecuacion (2.4), esta curva caracterstica cumple con
la siguiente EDP
B1 1X + C1 1Y = 0.
(2.23)
dv
Tomemos, ahora el otro par de ecuaciones caractersticas dX
B1 = 0 , para obtener la
otra curva caracterstica, la cual esta dada por v(X, Y ) = c3 = const.

Esta soluci
on tambien se puede escribir como v(X,
1 (c2 ), donde para este
R Y ) =R dY
caso, se tiene que c3 = 1 (1 (X, Y )) y haciendo = dX

on toma la
B1
C1 , la soluci
forma
v(X, Y ) = 1 ().
Ahora, proponemos la siguiente solucion para la ecuacion (2.19), la cual es analoga
a la ecuaci
on (2.10) con f = 0 y g = 1, es decir
F (X, Y ) = G(Z, W ).
Para este caso, las nuevas variables Z y W , las definimos como
R
R dY
Z = dX
B1
C1 = c4 .
W = W (Y ).

(2.24)

(2.25)

En este paso, suponemos, ahora, que la nueva variable Z, cumple con la siguiente
ecuaci
on
ZXX = 0.
(2.26)
Derivando parcialmente esta nueva solucion, dada por la ecuacion (2.24), se tiene
que
FX = GZ ZX + GW WX ,
FY = GZ ZY + GW WY .
Aplicando la ecuaci
on (2.25), estas derivadas se escriben como
FX = GZ ZX ,
FY = GZ ZY + GW WY ,
derivando parcialmente obtenemos,
2
FXX = GZZ ZX
+ GZ ZXX ,

sustituyendo estas derivadas en la ecuacion (2.19) y aplicando las ecuaciones (2.25) y


(2.26) se sigue que
2
A1 (GZZ ZX
) + B1 (GZ ZX ) + C1 (GZ ZY + GW WY ) = 0.

Factorizando terminos semejantes, se tiene que


2
GZZ + (B1 ZX + C1 ZY )GZ + C1 WY GW = 0.
A1 Z X

(2.27)

M
etodo de Harper y
el M
etodo de Stephenson- Radmore

28

Por otro lado, de la ecuaci


on (2.23) con Z = 1 (X, Y ), se escribe como
B1 ZX + C1 ZY = 0,
luego la ecuaci
on (2.27), resulta ser
2
A1 Z X
GZZ + C1 WY GW = 0,

esta ecuaci
on se puede escribir como,
2
A1 Z X
GZZ = C1 WY GW ,

es decir,
GZZ =

C1 WY
2 GW .
A1 ZX

Haciendo
WY =

2
A1 ZX
,
C1

(2.28)

obtenemos la ecuaci
on de calor (ve
ase apendice C),
GZZ = GW .

(2.29)

La nueva variable W se obtiene de la ecuacion (2.28), es decir, esta dada por


Z
2
A1 Z X
W =
dY.
(2.30)
C1
Finalmente, utilizando las ecuaciones (2.10) y (2.24) la solucion de la ecuacion (2.1),
se escribe como
u(x, y) = f (x) + g(y)G(Z(X(x, y), Y (y)), W (Y (y))),

(2.31)

donde la funci
on F es la soluci
on de la ecuacion de calor GXX = GY , y las funciones
f (x) y g(y) son soluciones de las siguientes ecuaciones diferenciales ordinarias respectivamente dadas por
Afxx + Bfx + Df = E,
Cgy + Dg = 0.
Ejemplo 2.1.1. Resolver la ecuaci
on de Black-Scholes
1 2 2
v x uxx + rxux + ut ru = 0.
2
Soluci
on. De la ecuaci
on anterior tenemos que
1
A = v 2 x2 ,
2
B = rx,

2.1 Forma general del M


etodo de Harper

29

C = 1,
D = r,
E = 0.
Proponemos la soluci
on
w = g(t)F (X, T ),
donde las variables X y T est
an dadas por
Z
Z
dx
dt
1
X=

= ln x t,
rx
1
r
T = t,
y la funci
on g, dada por la ecuacion diferencial gt rg = 0, cuya solucion es
g = ert .
Sustituyendo estas variables llegamos a la siguiente ecuacion
1 v2
1 v2
F

FX + FT = 0.
XX
2 r2
2 r
Repetimos el procedimiento, de la ecuacion anterior tenemos que
1 v2
,
2 r2
1 v2
,
B1 =
2 r
C1 = C = 1.
A1 =

Ahora, proponemos la siguiente solucion


F (X, T ) = G(Z, W ),
donde las variables Z y W est
an dadas por
Z=
W =

2r
X T,
v2

v2
T,
2r

sustituyendo estas variables, llegamos a que la solucion de la ecuacion de Black-Scholes


esta dada por la siguiente ecuaci
on
u(x, y) = ert G(Z, W ),
donde G es la soluci
on de la ecuacion de calor GZZ = GW .

M
etodo de Harper y
el M
etodo de Stephenson- Radmore

30

2.2.

El m
etodo de Stephenson- Radmore

En el captulo anterior, se vio que la EDP de segundo orden no homogenea, en


general se escribe como
Auxx + Buxy + Cuyy + Dux + Euy + F u = G,

(2.32)

donde, para esta secci


on, consideramos que los coeficientes A, B, C, D, E, F y G son
todos constantes. Tambien en la seccion [1.2.1], la ecuacion (2.32) fue reducida a su
forma can
onica, y que esta forma se clasifica en hiperbolica, parabolica y elptica.
Consideremos la EDP de Euler homogenea, dada por la ecuacion
Auxx + Buxy + Cuyy = 0,

(2.33)

donde los coeficientes A, B y C son constantes diferentes de cero. Notemos que esta
ecuacion se obtiene de la ecuaci
on (2.33) haciendo D = E = F = G = 0. Luego, las
formas can
onicas de la ecuaci
on (2.33) para los casos hiperbolico, parabolico y elptico,
estan dadas respectivamente por
u = 0,
u = 0,
u + u = 0.

(2.34)

Por otro lado, para encontrar la solucion de la ecuacion (2.33), Stephenson-Radmore


[34] sin necesidad de realizar el procedimiento normal para calcular las formas canonicas de la ecuaci
on (2.33), crearon el siguiente metodo para encontrar las soluciones
cuando la ecuaci
on de Euler es del tipo hiperbolico. Se introducen las nuevas variables
independientes
= ax + by,
= rx + sy,
(2.35)
donde a, b, r y s son constantes. Aplicando la regla de la cadena, se sigue que las
derivadas parciales de u con respecto a estas nuevas variables, son
ux = u x + u x = au + ru ,
uy = u y + u y = bu + su ,
uxx = a2 u + 2rau + r2 u ,
uxy = abu + (as + br)u + rsu ,
uyy = b2 u + 2bsu + s2 u .
Sustituyendo estas derivadas en la ecuacion (2.33) se tiene
A(a2 u + 2aru + r2 u ) + B(abu + (as + br)u + rsu ) +
C(b2 u + 2bsu + s2 u ) = 0,
la cual se puede escribir como
(Aa2 +Bab+Cb2 )u +(2Aar+B(as+br)+2Cbs)u +(Ar2 +Brs+Cs2 )u = 0. (2.36)

2.2 El m
etodo de Stephenson- Radmore

31

Para obtener la forma can


onica de la ecuacion de Euler para el caso hiperbolico u = 0, de la ecuaci
on (2.36), suponemos que se cumple el siguiente sistema de
ecuaciones
Aa2 + Bab + Cb2 = 0,

(2.37)

2Aar + B(as + br) + 2Cbs 6= 0,

(2.38)

Ar + Brs + Cs = 0.

(2.39)

Y con el objetivo de simplificar los calculos, Stephenson-Radmore propusieron que


a = r = 1.

(2.40)

Entonces, las ecuaciones (2.37) y (2.39) se escriben como una sola ecuacion, dada
por
C2 + B + A = 0,

(2.41)

y elegimos a los otros coeficientes b y s como las races de esta ecuacion. Es decir,

B
1 p 2
B B 2 4AC
=

B 4AC, i = 1, 2.
i =
2C
2C
2C
luego,

B
1
2
b = 1 = 2C
+ 2C
B 4AC,
B
1
s = 2 = 2C 2C B 2 4AC,

(2.42)

estas races cumplen con las siguientes condiciones,


1 + 2 = B
C ,
A
1 2 = C
, p
1 2 = C1 (B 2 4AC)

(2.43)

Ahora, sustituyendo las ecuaciones (2.40) y (2.42) en la ecuacion (2.38) se sigue que
2Aar + B(as + br) + 2Cbs =

1 2
(B 4AC) 6= 0.
C

Luego, obtenemos que u = 0, cuya solucion esta dada por


u = () + (),
donde las variables y resultan ser,
= x + 1 y,

= x + 2 y,

donde 1 y 2 est
an dadas por la ecuacion (2.42), las cuales resultan ser las ecuaciones
caractersticas de la ecuacion (2.33).

M
etodo de Harper y
el M
etodo de Stephenson- Radmore

32
Ejemplo 2.2.1. Resolver la ecuaci
on

2uxx 3uxy + uyy = y.


Soluci
on. Para este caso, la ecuacion cuadratica asociada a esta ecuacion es 2
2
3 + = 0, cuyas races est
an dadas por
1 = 1,
2 = 2.
Por lo que las curvas caractersticas son
= x + 2y = const.
= x + y = const.
Luego, la ecuaci
on dada se reduce a la siguiente forma
4
1

 
1
u = y = ,
4

o
u = .
Esta ecuaci
on puede ser f
acilmente integrada. Su primera integral es
1
u = 2 + + h(),
2
donde h es una funci
on arbitraria, y la segunda integral es
1
1
u = 2 + 2 + () + (),
2
2
donde y son funciones arbitrarias. Expresando esta solucion en terminos de x y y
tenemos, que la soluci
on de la ecuacion dada es
1
u = y(x + y)(x + 2y) + (x + 2y) + (x + y).
2

El metodo anterior solo determina la solucion para el caso hiperbolico y cuando las
constantes a y r que aparecen en la ecuacion (2.35) toman el valor de uno, es decir
a = r = 1. En la siguiente secci
on, generalizaremos dicho metodo para los otros dos
tipos de ecuaciones, es decir, cuando la ecuacion de Euler es del tipo parabolico y
elptico, y adem
as para cualquier valor de los coeficientes de la ecuacion (2.35).

2.2 El m
etodo de Stephenson- Radmore

2.2.1.

33

Ecuaciones del tipo hiperb


olico

Para este tipo de ecuaciones, sus coeficientes cumplen con B 2 4AC > 0.
Primero, observemos que la aplicacion de las ecuaciones (2.37), (2.38) y (2.39) a la
ecuaci
on (2.36) nos lleva a la siguiente ecuacion
(2Aar + B(as + br) + 2Cbs)u = 0.

(2.44)

Observese, que el coeficiente que esta entre el parentesis de la ecuacion (2.44) no lo


podemos eliminar debido a que no conocemos aun los valores de las constantes a, b, r
y s. Aunque, de esta ecuaci
on podemos suponer que (2Aar + B(as + br) + 2Cbs) 6= 0.
Para obtener estas constantes, observemos que las ecuaciones (2.37) y (2.39) se pueden
factorizar como

(Aa 21 (B B 2 4AC)b)(Aa 21 (B + B 2 4AC)b) = 0,


(2.45)
(Ar 21 (B B 2 4AC)s)(Ar 21 (B + B 2 4AC)s) = 0.
Introduciendo las siguientes cantidades,
p
1
i = (B B 2 4AC),
2

(2.46)

las cuales se pueden escribir en terminos de los coeficientes i , dados por la ecuacion
(2.42), como
i = Ci .

(2.47)

Observemos que, la ecuaci


on (2.46) cumple con las siguientes condiciones
1 + 2 = B,
1 2 = AC,

1 2 = B 2 4AC.

(2.48)

Utilizando la ecuaci
on (2.46), tenemos que la ecuacion (2.45) se escribe como
(Aa 1 b)(Aa 2 b) = 0,
(Ar 1 s)(Ar 2 s) = 0.
De la primera ecuaci
on, tenemos el siguiente sistema de ecuaciones
Aa 1 b = 0,
Aa 2 b = 0,
y de la segunda ecuaci
on, obtenemos tambien el siguiente sistema de ecuaciones
Ar 1 s = 0,
Ar 2 s = 0,
para resolver estos sistemas de ecuaciones, consideremos los siguientes casos para obtener as, las nuevas variables y , tales que 6= .

M
etodo de Harper y
el M
etodo de Stephenson- Radmore

34
Caso I.

Primero consideremos el siguiente sistema


Aa 1 b = 0,
Ar 2 s = 0,

(2.49)

de aqu se sigue que


b=
s=

A
1 a,
A
2 r.

(2.50)

Sustituyendo la ecuaci
on (2.50) en la ecuacion (2.44) se sigue que,
1 2
(B 4AC)aru = 0.
(2.51)
C
Finalmente, de la ecuaci
on (2.51) obtenemos la siguiente ecuacion
1
.
(2.52)
ar = 2
B 4AC
Sin perdida de generalidad, podemos suponer que a = r, entonces tenemos que la
ecuacion (2.52) se escribe como:
1
a2 = 2
.
B 4AC
Luego, utilizando la ecuaci
on (2.48), se obtiene
1
1
.
a=r=
=
2
1 2
B 4AC
Por lo tanto, tenemos que
A
A
a=
,
1
1 (1 2 )
A
A
s=
r=
.
2
2 (1 2 )

b=

Finalmente, para el caso hiperb


olico las nuevas variables y ahora estan definidas
por
=
=

1
A
1 2 x + 1 (1 2 ) y,
1
A
1 2 x + 2 (1 2 ) y,

(2.53)

donde 1 y 2 est
an dadas por la ecuacion (2.46). En terminos de 1 y 2 , la ecuacion
(2.53) se escribe como
=
=

1
A
C(1 2 ) x + C 2 1 (1 2 ) y,
1
A
C(1 2 ) x + C 2 2 (1 2 ) y.

De aqu, obtenemos u = 0, cuya solucion esta dada por






1
A
1
A
u(x, y) =
x+
y +
x+
y ,
1 2
1 (1 2 )
1 2
2 (1 2 )
donde y son funciones arbitrarias, i esta dada por la ecuacion (2.46).

2.2 El m
etodo de Stephenson- Radmore

35

Caso II.
Como segundo caso, consideremos el siguiente sistema,
Aa 2 b = 0,
Ar 1 s = 0,

(2.54)

de aqu obtenemos
b=
s=

A
2 a,
A
1 r.

(2.55)

Sustituyendo la ecuaci
on (2.55) en la ecuacion (2.44) se sigue que,
1 2
(B 4AC)aru = 0.
C

(2.56)

Luego, podemos suponer que a = r, as se obtiene la siguiente ecuacion


a=r=

1
1
=
.
1 2
4AC B 2

Por lo tanto, tenemos que


A
A
a=
,
2
2 (2 1 )
A
A
s=
r=
.
1
1 (2 1 )

b=

Finalmente, para el caso hiperbolico las nuevas variables y ahora estan definidas
por
=
=

1
A
1 2 x + 2 (2 1 ) y,
1
A
1 2 x + 1 (2 1 ) y,

(2.57)

donde 1 y 2 est
an dadas por la ecuacion (2.46). Por lo tanto, tenemos que la ecuacion
(2.57) es equivalente a la ecuaci
on (2.53), ya que solo las variables y intercambian
su valor, luego, solo se tiene una transformacion de variables.
De aqu, obtenemos u = 0, cuya solucion esta dada por

u(x, y) =




1
A
1
A
x+
y +
x+
y ,
1 2
2 (2 1 )
1 2
1 (2 1 )

donde y son funciones arbitrarias, i esta dada por la ecuacion (2.46).

M
etodo de Harper y
el M
etodo de Stephenson- Radmore

36
Caso III.

Se puede demostrar que para los siguientes sistemas de ecuaciones


Aa 1 b = 0
Ar 1 s = 0

Aa 2 b = 0
Ar 2 s = 0

Aa (1 + 2 )b = 0
Ar (1 + 2 )s = 0,

(2.58)

junto con la ecuaci


on (2.44) conducen a que las variables y satisfacen la ecuacion
= . Lo cual no es posible ya que para el caso hiperbolico, estas variables deben ser
reales y distintas.
Ejemplo 2.2.2. Resolver la siguiente ecuaci
on diferencial parcial
2uxx + uxy uyy = 0.
Soluci
on. Consideremos la ecuacion i =

B B 2 4AC
,
2

cuya solucion esta dada

por
i =

1 4(2)(1)
1 9
1 3
=
=
.
2
2
2

Luego, la ecuaci
on es de tipo hiperbolico. Para el caso hiperbolico, las caractersticas
de la ecuaci
on dada son
1
= (x + 2y),
3
1
= (x y).
3
Por lo que, la forma can
onica de la ecuacion es
u = 0,
cuya soluci
on es

u(x, y) =




1
1
(x + y) +
(2x y) .
3
6


Ejemplo 2.2.3. Resolver la siguiente ecuaci


on diferencial parcial
uxx + 2uxy 3uyy = 0,
con las siguientes condiciones iniciales
u(x, 0) = 3x2 ,

uy (x, 0) = 0.

Soluci
on. Consideremos la ecuacion i =

B B 2 4AC
,
2

cuya solucion esta dada

por
i =

4 4(1)(3)
2 16
2 4
=
=
.
2
2
2

2.2 El m
etodo de Stephenson- Radmore

37

La ecuaci
on es de tipo hiperbolico. Sus caractersticas son
1
= (x + y),
4
1
= (3x y).
12
Por lo que, la forma can
onica de la ecuacion dada es
u = 0,
cuya soluci
on es

u(x, y) =




1
1
(x + y) +
(3x y) .
4
12

Aplicando las condiciones iniciales, obtenemos el siguiente sistema de ecuaciones


0 (z) + 0 (z) = 96z,
30 (z) 0 (z) = 0,
donde z = 41 x, resolviendo este sistema de ecuaciones, llegamos a que
(z) = 12z 2 ,
(z) = 36z 2 ,
sustituyendo en la soluci
on de la ecuacion dada, finalmente se sigue que
u(x, y) = 3x2 + y 2 .


2.2.2.

Ecuaciones del tipo parab


olico.

Para el caso parab


olico, los coeficientes de la ecuacion (2.33) cumplen con B 2
4AC = 0. Para este caso, tenemos que la ecuacion (2.46) se reduce a la ecuacion
onica de la ecuacion (2.33), la
= 1 = 2 = B
2 . Entonces, para escribir la forma can
cual puede estar dada por u = 0 o u = 0.
Para obtener la ecuaci
on u = 0, consideremos el siguiente sistema de ecuaciones
Aa2 + Bab + Cb2 6= 0,
2Aar + B(as + br) + 2Cbs = 0,
Ar2 + Brs + Cs2 = 0.

(2.59)

Y para obtener la forma can


onica u = 0, se tiene el sistema de ecuaciones
Aa2 + Bab + Cb2 = 0,
2Aar + B(as + br) + 2Cbs = 0,
Ar2 + Brs + Cs2 6= 0.

(2.60)

M
etodo de Harper y
el M
etodo de Stephenson- Radmore

38

Entonces, para el sistema dado por la ecuacion (2.59) obtenemos la ecuacion


(Aa2 + Bab + Cb2 )u = 0,

(2.61)

y para el sistema dado por la ecuacion (2.60) obtenemos la siguiente ecuacion


(Ar2 + Brs + Cs2 )u = 0.

(2.62)

Analicemos primero el sistema de ecuaciones dado por la ecuacion (2.59). Para este
caso, la ecuaci
on Ar2 + Brs + Cs2 = 0, la multiplicamos por 4A y usando la ecuacion
B 2 = 4AC, se sigue que
4A2 r2 + 4ABrs + 4ACs2 = 0,
4A2 r2 + 4ABrs + B 2 s2 = 0,
(2Ar + Bs)2 = 0,
de aqu, obtenemos la siguiente ecuacion,
2Ar + Bs = 0.

(2.63)

Ahora, multiplicando la ecuaci


on (2.61) por 4C
(4ACa2 + 4BCab + 4C 2 b2 )u = 0,
(B 2 a2 + 4BCab + 4C 2 b2 )u = 0.
Esta ecuaci
on se puede escribir como,
(Ba + 2Cb)2 u = 0.
Entonces, podemos elegir las constantes a y b de tal manera que
Ba + 2Cb = 1,

(2.64)

con esto obtenemos la ecuaci


on u = 0. Por lo tanto tenemos el siguiente sistema de
ecuaciones
2Ar + Bs = 0,
(2.65)
Ba + 2Cb = 1.
Sin perdida de generalidad, podemos suponer que a, b, r y s estan dadas por
a = 0,
1
b = 2C
,
B
r = 2A
,
s = 1.

(2.66)

As, a, b, r y s cumplen con la ecuacion (2.65). Se puede demostrar que la ecuacion


(2.63) cumple con la ecuaci
on (2.59).

2.2 El m
etodo de Stephenson- Radmore

39

Finalmente, para el caso parabolico, las nuevas variables y ahora estan definidas
por
1
= 2C
y,
B
= 2A x + y.

(2.67)

De aqu, obtenemos u = 0, cuya solucion esta dada por


u(, ) = () + ().
Por u
ltimo, analicemos el sistema de ecuaciones dado por la ecuacion (2.60). Para
este caso, a la ecuaci
on Aa2 + Bab + Cb2 = 0, la multiplicamos por 4A y usando la
ecuaci
on B 2 = 4AC, se sigue que
4A2 a2 + 4ABab + 4ACb2 = 0,
4A2 a2 + 4ABab + B 2 b2 = 0,
(2Aa + Bb)2 = 0,
de aqu obtenemos la siguiente ecuacion,
2Aa + Bb = 0.

(2.68)

Ahora, multiplicando la ecuacion (2.62) por 4C


(4ACr2 + 4BCrs + 4C 2 s2 )u = 0,
(B 2 r2 + 4BCrs + 4C 2 s2 )u = 0.
Esta ecuaci
on se puede escribir como,
(Br + 2Cs)2 u = 0.
Entonces, podemos elegir las constantes r y s de tal manera que
Br + 2Cs = 1,

(2.69)

con esto obtenemos la ecuaci


on u = 0. Por lo tanto tenemos el siguiente sistema de
ecuaciones
2Aa + Bb = 0,
(2.70)
Br + 2Cs = 1.
Sin perdida de generalidad, podemos suponer que a, b, r y s estan dadas por
B
a = 2A
,
b = 1,
r = 0,
1
s = 2C
.

(2.71)

As, a, b, r y s cumplen con la ecuacion (2.70). Se puede demostrar que la ecuacion


(2.68) cumple con la ecuaci
on (2.60).

M
etodo de Harper y
el M
etodo de Stephenson- Radmore

40

Finalmente, para el caso parab


olico las nuevas variables y ahora estan definidas
por
1
= 2C
y,
B
= 2A
x + y.

(2.72)

De aqu, obtenemos u = 0, cuya solucion esta dada por


u(, ) = () + ().
Ejemplo 2.2.4. Resolver la siguiente ecuaci
on diferencial parcial
uxx 2uxy + uyy = 0.
Soluci
on. Consideremos la ecuacion i =
=

B B 2 4AC
,
2

cuyo valor esta dado por

2
= 1,
2

luego, la ecuaci
on es de tipo parab
olico. Luego, para el caso parabolico, las caractersticas de la ecuaci
on dada son
= x + y,
1
= y,
2
por lo que, la forma can
onica de la ecuacion dada es
u = 0,
cuya soluci
on es
1
u(x, y) = (x + y) + y(x + y).
2

Ejemplo 2.2.5. Resolver la siguiente ecuaci
on diferencial parcial
uxx + 2uxy + uyy = 0,
con las siguientes condiciones iniciales
u(x, 0) = 0,

uy (x, 0) = cos x.

Soluci
on. Consideremos la ecuacion i =

B B 2 4AC
,
2

por
=

2
= 1,
2

cuya solucion esta dada

2.2 El m
etodo de Stephenson- Radmore

41

luego, la ecuaci
on es de tipo parabolico. Luego, para el caso parabolico, las caractersticas de la ecuaci
on dada son
1
= y,
2
= y x,
por lo que, la forma can
onica de la ecuacion dada es
u = 0,
cuya soluci
on es
1
u(x, y) = (y x) + y(y x).
2
Aplicando las condiciones iniciales, obtenemos el siguiente sistema de ecuaciones
(x) = 0,
1
0 (x) + (x) = cos x,
2
resolviendo este sistema, llegamos a que
(x) = 0,
(x) = 2 cos x,
sustituyendo en la ecuaci
on original, obtenemos la siguiente solucion
u(x, y) = y cos (x y).


2.2.3.

Ecuaciones del tipo elptico.

Para el caso elptico, los coeficientes de la ecuacion (2.33) cumplen con B 2 4AC <
0. De la ecuaci
on (2.36), obtenemos el siguiente sistema de ecuaciones
Aa2 + Bab + Cb2 6= 0,

(2.73)

2Aar + B(as + br) + 2Cbs = 0,

(2.74)

Ar2 + Brs + Cs2 6= 0.

(2.75)

Para obtener la ecuaci


on can
onica de la forma u + u = 0, podemos igualar las
ecuaciones (2.73) y (2.75). As, obtenemos las siguientes ecuaciones
2Aar + B(as + br) + 2Cbs = 0,
Aa2 + Bab + Cb2 = Ar2 + Brs + Cs2 .

(2.76)
(2.77)

Sin perdida de generalidad, podemos hacer s = b en la ecuacion (2.76). Luego, se


sigue que
2Cb2 + B(a + r)b + 2Aar = 0.
(2.78)

M
etodo de Harper y
el M
etodo de Stephenson- Radmore

42
Introduciendo las siguientes cantidades

2 = 2C,
= B2 (a + r),
2 = 2Aar,

(2.79)

tenemos que la ecuaci


on (2.78) se escribe como
2 b2 + 2b + 2 = 0,
(b + )2 = 0,
b + = 0,
por lo que
= b.

(2.80)

Utilizando la ecuaci
on (2.79), tenemos que la ecuacion (2.80) se escribe como
2 = 2 b2 ,
2Aar = 2 b2 ,
2Aar = 2Cb2 ,
de donde
ar =

C 2
b .
A

(2.81)

Por otro lado, la ecuaci


on (2.77) en terminos de 1 y 2 dadas por la ecuacion (2.46)
se puede escribir como
(Aa 1 b)(Aa 2 b) = (Ar 1 s)(Ar 2 s).

(2.82)

Desarrollando la ecuaci
on (2.82) se sigue que
A2 a2 A2 ab A1 ab + 1 2 b2 = A2 r2 A2 rs A1 rs + 1 2 s2 ,
haciendo s = b en esta u
ltima ecuacion, obtenemos
A2 a2 A(1 + 2 )ab = A2 r2 A(1 + 2 )rb,
A2 (a2 r2 ) A(1 + 2 )(a r)b = 0,
A(a + r) (1 + 2 )b = 0,
A(a + r) = (1 + 2 )b,
pero 1 + 2 = B, luego esta u
ltima ecuacion se escribe como
A(a + r) = Bb.

(2.83)

2.2 El m
etodo de Stephenson- Radmore

43

Ahora, usando la ecuaci


on (2.81), la ecuacion (2.83) se escribe como
A2 (a + r)2 = B 2 b2 ,
AB 2
ar,
C
AC(a2 + 2ar + r2 ) = B 2 ar,
A2 (a + r)2 =

B2
ar + r2 = 0,
a2 + 2ar
AC


2AC B 2
2
ar + r2 = 0,
a +
AC

2ACB 2
AC

a=

r

2ACB 2
AC

2

r2 4r2
,

luego,
a = i r,

(2.84)

donde,

B 2 2AC B B 2 4AC
i =
.
2AC
Sustituyendo la ecuaci
on (2.84) en la ecuacion (2.83) obtenemos

(2.85)

A(i + 1)r = Bb,


luego
r=

B
b,
A(i + 1)

(2.86)

B
de donde i + 1 = AC
i y i esta dada por la ecuacion (2.46), por lo que la ecuacion
(2.86) resulta ser
C
r = b.
(2.87)
i
De donde,


B
1
+
b,
a = C
AC
i
b = b,
C
r = b,
i
s = b.

Finalmente, tenemos que para el caso elptico las nuevas variables y estan
definidas por


1
B
=yC
+
x,
(2.88)
AC
i
C
= y + x,
(2.89)
i

M
etodo de Harper y
el M
etodo de Stephenson- Radmore

44

donde i est
a definida por la ecuaci
on (2.46). Observemos que
C
B
1 p 2
=
B 4AC,

i
2A 2A

(2.90)

haciendo este cambio en las nuevas variables y llegamos a que




B
1 p 2
B 4ACx,
= y
x
2A
2A


B
1 p 2
= y
x
B 4ACx,
2A
2A

(2.91)
(2.92)

de donde se puede observar que es el conjugado de , por lo que ahora la forma


canonica de la ecuaci
on elptica est
a dada por u = 0, cuya solucion es
u(, ) = () + (),

(2.93)

donde y son funciones arbitrarias.


Ejemplo 2.2.6. Resolver la siguiente ecuaci
on diferencial parcial
uxx + uxy + uyy = 0.
Soluci
on. Consideremos la ecuacion i =

B B 2 4AC
,
2

cuyas solucion esta dada

por
i =

1 4(1)(1)
1 3
1 i 3
=
=
,
2
2
2

luego, la ecuaci
on es de tipo elptico. As, para el caso elptico, las caractersticas de la
ecuacion dada son


x
3
= y
i
x,
2
2


x
3
= y
+i
x,
2
2
por lo que la forma can
onica de la ecuacion dada es
u = u = 0,
cuya soluci
on es
u(x, y) =

!
!

x
3
x
3
y
i
x +
y
+i
x
2
2
2
2


2.2 El m
etodo de Stephenson- Radmore

45

Ejemplo 2.2.7. Resolver la siguiente ecuaci


on diferencial parcial
uxx + 2uxy + 2uyy = 0.
con las siguientes condiciones iniciales
uy (x, 0) = 4e2x .

Soluci
on. Consideremos la ecuacion i = 21 (B B 2 4AC) cuya solucion
esta dada por
p

2 4 4(1)(2)
2 4
2 i2
i =
=
=
,
2
2
2
u(x, 0) = 0,

luego, la ecuaci
on es de tipo elptico. Para, el caso elptico, las caractersticas de la
ecuaci
on dada son
= (y x) ix,
= (y x) + ix,
por lo que la forma can
onica de la ecuacion dada es
u = 0,
cuya soluci
on es
u(x, y) = ((y x) ix) + ((y x) + ix),
aplicando las condiciones iniciales, obtenemos el siguiente sistema de ecuaciones
(i + 1)0 (x(i + 1)) + (i 1) 0 (x(i 1)) = 0,
0 (x(i + 1)) + 0 (x(i 1)) = 4e2x ,
resolviendo este sistema de ecuaciones, llegamos a que
(x) = 2ie2x(i1) ,
(x) = 2iex(i+1) ,
sustituyendo en la soluci
on de la ecuacion dada, obtenemos que
u(x, y) = 4ey2x sin(y).


46

M
etodo de Harper y
el M
etodo de Stephenson- Radmore

Captulo 3

El metodo de
de Adomian
Descomposicion
El metodo de descomposici
on de Adomian no cambia la naturaleza del problema, en
particular no efect
ua ninguna linealizacion ni discretizacion. Esta basado en la b
usqueda de una soluci
on en forma de serie y en la descomposicion de un operador lineal en
serie en los que los terminos se calculan de forma recurrente utilizando unos polinomios
llamados los polinomios de Adomian. Bajo ciertas condiciones de convergencia, la suma
de la serie dar
a la soluci
on exacta, pero en general la serie se truncara para dar una
buena aproximaci
on. El error de truncamiento puede ser estimado la mayora de las
veces.
Esta tecnica permite resolver una extensa gama de ecuaciones lineales y no lineales
(algebraicas, diferenciales, integrales, en derivadas parciales, . . . , etc). En este metodo
la soluci
on est
a dada por una serie, en la que cada termino se obtiene sin dificultad
puesto que los polinomios de Adomian se adaptan a la no linealidad.
En este captulo se expondr
a el metodo de descomposicion de Adomian, el cual es
usado para introducir algunos metodos iterativos definidos en las referencias [1, 11, 36].

3.1.

El m
etodo de descomposici
on de Adomian

El metodo de descomposici
on de Adomian [4, 5, 6] considera, la ecuacion no lineal
F u = g, donde g es una funci
on arbitraria y F representa el operador diferencial. F u
puede tener parte lineal y no lineal, el cual lo escribimos de la siguiente forma
Lu + N u = g,
donde el termino lineal L se descompone por L + R, mientras que los terminos no
lineales son representados por N , el operador L es invertible, R es el resto del operador
47

48

El m
etodo de Descomposici
on de Adomian

lineal L y g una funci


on arbitraria.
A continuaci
on daremos una descripcion a grandes rasgos del metodo de Adomian
[4, 5, 6].
Primero se resuelve la ecuaci
on para el operador Lu. En segundo lugar, escribimos
el operador lineal en terminos
de los polinomios conocidos como los polinomios de
P
Adomian An . As, N u =
A
n=0 n es un conjunto especial de polinomios generados por
la no linealidad N u = f (u). Estos c
alculos son tan simples como escribir los polinomios
de Hermite o de Legendre.
Como
tercer
punto, asumimos la descomposicion de u en
P
u
.
Cabe
mencionar
que
la solucion no es la serie completa
terminos de una suma,
n=0 n
Pn1
de u, pero es la aproximaci
on del n-termino n = t=0 , para un n conveniente.
Para iniciar con el procedimiento que el metodo de descomposicion de Adomian [3]
propone, consideremos la ecuaci
on F u = g de la siguiente forma
Lu + Ru + N u = g,

(3.1)

donde L, R, N y g son como los anteriores. Ahora podemos escribir la ecuacion (3.1)
como
Lu = g Ru N u,
y aplicando el operador invertible L1 a ambos lados de la ecuacion anterior obtenemos
la siguiente ecuaci
on
L1 Lu = L1 g L1 Ru L1 N u.
(3.2)

3.2.

Evaluaci
on del operador inverso L1
2

d
Consideremos la ecuaci
on diferencial lineal Lu = h [3], con L = dt
2 . Definamos el
R
t
operador inverso como L1 () = 0 G(t, )()d , donde G es la funcion de Green la cual
satisface
d2 G(t, )
= (t ),
(3.3)
dt2
donde , es la funci
on delta de Dirac. Una razon para definir la funcion de Green por
medio de la ecuaci
on diferencial es que esto nos proporciona una forma alternativa (y
con frecuencia m
as f
acil) de calcularla. Integrando (3.3) resulta

dG
= H(t ) + ( ),
(3.4)
dt
donde H es la funci
on Heaviside o mejor conocida como funci
on escal
on y es una
funcion arbitraria. Integrando nuevamente la ecuacion (3.4), tenemos que
G(t, ) = (t )H(t ) + t( ) + ( ),
donde es una funci
on arbitraria, entonces
Z
1
u(x, t) = L h(t) = G(t, )h( )d
Z
Z
Z
= (t )H(t )h( )d + t ( )h( )d + ( )h( )d,

(3.5)

(3.6)

3.2 Evaluaci
on del operador inverso L1

49

las funciones arbitrarias y deben ser evaluadas usando las condiciones iniciales o
condiciones de frontera sobre la solucion obtenida (3.6). Ahora consideremos algunas
posibilidades para evaluarlas.

3.2.1.

Condiciones de frontera homog


eneas

Tomando las condiciones homogeneas acotadas, las cuales estan dadas por u(x, 0) =
u(x, 1) = 0, sustituimos estas condiciones en la ecuacion (3.6) de la cual obtenemos el
siguiente sistema de ecuaciones
Z
Z
H( )h( )d + ( )h( )d = 0,
Z
Z
Z
(1 )H(1 )h( )d + t ( )h( )d + ( )h( )d = 0,
de donde
( ) = H( ),
(1 )H(1 ) + ( ) + H( ) = 0,
( ) = ( 1)H(1 ) H( ),
de modo que
G(t, ) = (t )H(1 ) + t( 1)H(1 ) + (1 t)H( ).

(3.7)

Podemos observar que H(1 ) es positivo en el intervalo [0, 1] si < 1, en este


caso el u
ltimo termino de la ecuacion (3.7) desaparece ya que no puede ser negativo
en el intervalo [0, 1] y para el primer termino este desaparece excepto cuando t > , es
decir, en el intervalo < t < 1. Obtenemos la siguiente ecuacion

(t 1), para t >


G(t, ) =
(3.8)

t( 1) para t < .
Tambien podemos aplicar las condiciones de frontera directamente a la funcion G
como una funci
on de t. As
G(0, ) = H( ) + ( ) = 0,
G(1, ) = (1 )H(1 ) + ( ) + ( ) = 0,

(3.9)

la cual produce los mismos resultados. Aplicando las condiciones de frontera a la ecuacion (3.8), tenemos G(0, ) = 0, lo que implica = 0. De modo similar, G(1, ) = 0,
implica que = 1, obteniendo con esto

para t <
t,
G(t, ) =
(3.10)

1 t para t > .

50

El m
etodo de Descomposici
on de Adomian

Para hacer que la funci


on de Green sea continua en t = , simplemente multiplicamos la primera expresion por el valor de la segunda expresion con t = y viceversa
[20], esto es

t(1 ), para t <


G(t, ) =
(3.11)

(1 t) para t > .
Por lo que la soluci
on la podemos escribir de la siguiente forma
G(t, ) = t(1 )H(t ) + (1 t)H(t ),

(3.12)

y con esta funci


on de Green
Z
u(x, t) =

G(t, )h( )d,


0

se resuelve la ecuaci
on Lu = h.

3.2.2.

Condiciones de frontera sobre el intervalo [0, a]

Tomando las condiciones de frontera en el intervalo [0, a], las cuales estan dadas
por u(x, 0) = u(x, a) = 0, G debe satisfacer las condiciones de frontera, es decir,
G(0, ) = G(a, ) = 0 para el cual y pueden ser evaludas como antes. Tenemos que
la funcion G satisface la ecuaci
on homogenea Lu = 0 para t 6= . En consecuencia, la
d2 G
funcion G satisface dt2 = 0 excepto en t = . Por lo que, G debe ser lineal
G(t, ) =

+ B,
para t <
At

(3.13)


para t >
Ct + D,
B,
C y D.
Aplicando la condicion de contorno en t = 0 para
para ciertas constantes A,
t < , tenemos G(0, ) = 0, lo que implica A = 0. De modo similar, G(a, ) = 0 implica
+D
= 0. As
que Ca

para t <
At,
G(t, ) =
(3.14)

C(t a) para t > .
Las dos constantes restantes se determinan por medio de otras dos condiciones en
t = . La funci
on G debe ser una funcion continua en t = ,
G( 0, ) = G( + 0, ),

(3.15)

y existe un salto en la derivada de G,


dG( + 0, ) dG( 0, )

= 1,
dt
dt

(3.16)

3.2 Evaluaci
on del operador inverso L1

51

de la ecuaci
on (3.15) implica que
= C(
a),
A
mientras que de la ecuaci
on (3.16) se convierte en
A C = 1.
Resolviendo este sistema de dos ecuaciones, obtenemos

C = ,
a

a
A =
,
a
y por tanto,
(
G(t, ) =

t( a)
a ,
(ta)
a ,

cuando 0 t <
cuando < t a

equivalentemente,
G(t, ) =

3.2.3.

t( a)
(t a)
H( t) +
H(t ).
a
a

(3.17)

Condiciones iniciales

Las condiciones iniciales est


an dadas por u(x, 0) = u0 (x, 0) = 0. Tenemos que
d2 G(t, )
= 0,
dt2
G(0, ) = 0,
G0 (0, ) = 0.
La funci
on de Green es la solucion de la ecuacion homogenea excepto en t = . En
el punto t = , la funci
on G debe ser continua y tener una discontinuidad de 1 en esta
derivada. La condici
on inicial, implica que para t < , G = 0. Para t > , asumimos
+ B.
La condici
G = At
on sobre la derivada requiere que A = 1. Luego, G es continua

en t = , B = . Por lo que, G = (t ) para t > o


G(t, ) = (t )H(t ),
para toda t.
2
Ahora, consideremos L1 Lu o L1 ddt2u , de donde obtenemos
Z
d2 u
1
L Lu = G(t, ) 2 d,
dt
integrando por partes dos veces, llegamos a la siguiente ecuacion
Z
1
0
t
0
t
L Lu = G(t, )u (x, )|0 G (t, )u(x, )|0 + G00 u(x, )d,

52

El m
etodo de Descomposici
on de Adomian

el u
ltimo termino de esta u
ltima ecuacion es u(x, t) ya que G00 esta dada por la ecuacion
(3.3), de donde
L1 Lu = G(t, t)u0 (x, t)G(t, 0)u0 (x, 0)G0 (t, t)u(x, t)+G0 (t, 0)u(x, 0)+u(x, t), (3.18)
de aqu se sigue que
G(t, t) = 0,
G0 (t, t) = 0,
G0 (t, 0) = 1,
sustituyendo estos valores en la ecuacion (3.18), obtenemos la siguiente ecuacion
L1 Lu = u(x, t).

(3.19)

Ahora, consideremos las condiciones no homogeneas.

3.2.4.

Condiciones iniciales diferentes de cero

De la ecuaci
on (3.2) tomemos solo la parte izquierda (L1 Lu) y consideremos las
condiciones iniciales diferentes de cero para su evaluacion, si el operador diferencial es
d2
1 Lu se va a integrar dos veces de
de segundo orden, es decir, L = dt
2 , tenemos que L
0 a t. La primera integral est
a dada por
Z 2
d u
dt = ut (x, t) ut (x, 0),
dt2
y por u
ltimo la segunda integral est
a dada por
Z
Z
Z
(ut (x, t) ut (x, 0))dt = ut (x, t)dt ut (x, 0)dt
Z
Z
= ut (x, t)dt ut (x, 0) dt
= u(x, t) u(x, 0) tut (x, 0).
As
L1 Lu = u(x, t) u(x, 0) tut (x, 0).

(3.20)

Otra forma de resolver la ecuaci


on (3.2) es tomando la forma general de la funcion
d2
de Green G, para L = dt2 , es decir
G(t, ) = (t )H(t ) + t( ) + ( ),
G0 (t, ) = H(t ) + ( ),
donde H es la funci
on Heaviside, y son funciones arbitrarias y determinemos
0
y si u(x, 0) y u (x, 0) son constantes distintos de cero. Por conveniencia, escribimos
u(x, 0) = a, u0 (x, 0) = b. Ahora escribamos u = u1 + u2 , donde u1 satisface Lu1 = g

3.2 Evaluaci
on del operador inverso L1

53

con u1 (x, 0) = u01 (x, 0) = 0 y u2 satisface Lu2 = 0 con u2 (x, 0) = a y u02 (x, 0) = b. Para
las condiciones homogeneas (es decir para u1 ), claramente G1 (0, ) y G01 (0, ) son cero,
as
H( ) + ( ) = 0,
H( ) + ( ) = 0,
y
G(t, ) = (t )H(t ) tH( ) + H( ),
G0 (t, ) = H(t ) H( ).
2

+ B.
Entonces u0 (x, 0) = b, u2 (x, 0) = a
Para u2 tenemos que ddtu22 = 0, as, u2 = At
2
y u2 = bt + a. Con esto tenemos que
u = u1 + u2 ,
Z t
=
[(t )H(t ) tH( ) + H( )]x( )d + bt + a,
0
Z t
=
(t )H(t )x( )d + bt + a,
0

pero este u
ltimo lo podemos escribir como
u = u(x, 0) + tu0 (x, 0) + L1 g,
Rt
donde L1 g = 0 (t )H(t )g( )d para t > . Los primeros terminos son exactamente los que usamos anteriormente. El termino L1 , como se puede observar, es una
integral simple.

3.2.5.

Condiciones de frontera no homog


eneas

Para este caso las condiciones de frontera no homogeneas estan dadas por u(x, 0) =
a, u(x, 1) = b, tomando el mismo procedimiento que se utilizo en las condiciones de
frontera homogeneas consideremos la siguiente ecuacion u = u1 + u2 , tal que
Lu1 = h,
Lu2 = 0,
donde
Z
u1 =

G1 (t, )h( )d,


0

las cuales satisfacen las siguientes condiciones


u1 (x, 0) = u1 (x, 1) = 0,
u2 (x, 0) = a,

u2 (x, 1) = b.

54

El m
etodo de Descomposici
on de Adomian

Tomando estas condiciones y sustituyendo en la ecuacion (3.5), obtenemos las siguientes ecuaciones
G1 (0, ) = H( ) + ( ) = 0,
G1 (1, ) = (1 )H(1 ) + ( ) + ( ) = 0.
As
( ) = H( ),
( ) = (1 )H(1 ) H( ),
sustituyendo estos valores en la ecuacion (3.5), se sigue que
G1 = (t )H(t ).
2

Ahora, consideremos las condiciones de u2 la cual satisface Lu2 = 0 o ddtu22 = 0,


+ B.
Para la primera condicion de u2 , B
= a. Para la segunda condicion,
u2 = At

A + B = b o A + a = b o A = b a. Por lo que,
u2 = a + (b a)t = u(x, 0) + t(u(x, 1) u(x, 0)),
de donde, la soluci
on est
a dada por
Z

G1 (t, )h( ) + u(x, 0) + t(u(x, 1) u(x, 0)).

u(x, t) =
0

3.2.6.

Condiciones mixtas

Estas condiciones est


an dadas por u(x, 0) = a, u0 (x, 1) = b. Consideremos a u de
la siguiente forma u = u1 + u2 con Lu1 = h, u1 (x, 0) = 0, u01 (x, 1) = 0 y Lu2 = 0,
2
+ B,
de donde
u2 (x, 0) = a, u02 (x, 1) = b. Para Lu2 = 0 o ddtu22 = 0, u2 = At
u2 = a + t(b a) = u(x, 0) + t(u0 (x, 1) u(x, 0)).
As
u = u(x, 0) + t(u0 (x, 1) u(x, 0)) + L1 h,
donde la funci
on de Green para L1 h satisface las siguientes condiciones
G(0, ) = 0,
G0 (1, ) = 0.

(3.21)

3.3 Soluci
on de la ecuaci
on diferencial

3.3.

55

Soluci
on de la ecuaci
on diferencial

De la ecuaci
on (3.2) y la ecuacion (3.20), tenemos que
u = u(x, 0) + tut (x, 0) + L1 g L1 Ru L1 N u.

(3.22)

Ahora, si se toma la ecuaci


on (3.2) y la ecuacion (3.19), tenemos que
u = L1 g L1 Ru L1 N u.
Por otro lado, el metodo de Adomian descompone a u(x, t) como una serie de la
siguiente forma

X
u(x, t) =
un (x, t),
n=0

y al operador no lineal N u lo descompone como


Nu =

An ,

n=0

donde los terminos An son los polinomios de Adomian, sustituyendo estas dos u
ltimas
ecuaciones en (3.3), tenemos que

un (x, t) = u0 L1 R

n=0

un L1

n=0

An ,

n=0

donde
u0 = u(x, 0) + tut (x, 0) + L1 g.
Teniendo en cuenta lo anterior, podemos observar que el metodo de descomposicion
resuelve ecuaciones
diferenciales de la forma F u = g, escribiendo a u como una suma
P
de la forma
u
on de la parte lineal.
n=0 n y tomando a u0 como la soluci
En consecuencia, podemos reescribir como
u1 = L1 Ru0 L1 A0 ,
u2 = L1 Ru1 L1 A1 ,
..
.
un+1 = L1 Run L1 An ,

n0

donde An son los polinomios de Adomian [4, 5, 6] de u0 , u1 , . . ., un y son obtenidos


por la f
ormula
n
X
1 dn
An =
N(
k uk )= 0 ,
n = 0, 1, 2 . . .
(3.23)
n! dn
k=0

56

El m
etodo de Descomposici
on de Adomian

Los polinomios de Adomian son generados por cada componente no lineal y estan
dados por
A0 = f (u0 ),
A1 = u1 f 0 (u0 ),
A2 = u2 f 0 (u0 ) +

u21 00
f (u0 ),
2

A3 = u3 f 0 (u0 ) + u1 u2 f 0 (u0 ) +

u31 00
f (u0 ),
3!

..
.
donde f (u) est
a dado por
f (u()) =

An n .

n=0

Podemos observar que la aproximacion de u(x, t) aumenta rapidamente, por lo que


la aproximaci
on del n-termino es aproximadamente
lm n = u(x, t),

donde
n =

n1
X

uk (x, t),

n 0,

k=0

este u
ltimo puede ser usado para la aproximacion de la solucion.

3.4.

Convergencia del m
etodo de Adomian

Para esto asumiremos que {g N u} es continua, y u es regi


on convexa [15] y que
existe y es acotada.
Consideremos la ecuaci
on F u = g, que se escribe como Lu + N u = g, donde L es
un operador lineal. Nosotros escribiremos
N u
u

Lu = g N u,
u = u0 L1 N u = u0 L1

An ,

n=0

donde An son los polinomios de Adomian, definidos anteriormente, y tenemos ademas


que
u1 = L1 A0 ,
u2 = L1 A1 ,
..
.

3.5 An
alisis del m
etodo Homot
opico

57

Por lo tanto
u = F 1 g = u0 L1 A0 L1 A0 . . . .
Operando con F , tenemos que
F u = F (F 1 g),
= F (u0 L1

An ),

n=0

= L(u0 L1

An ) + N (u0 L1

n=0

= L(u0 )

An ),

n=0

An +

n=0

Bn ,

n=0

donde los Bn son los polinomios


para la operacion no lineal representada por N sobre
P
1
la funci
on {u0 L
n=0 An }, definida como u. Estos son una suma de polinomios
donde cada termino despues de u0 representa una integracion L1 de uno de los polinomios originales An .
Claramente, un metodo simple seria sustituir n para alg
un n relativamente peque
no
y verificar que cuando n , la solucion satisface la ecuacion original. El ntermino
de la aproximaci
on de n est
a dado por
1

n = u0 L

n+1 = u0 L1

n1
X
i=0
n
X

Ai ,
Ai = u0 L1

i=0

n1
X

Ai L1 An ,

i=0

|n+1 n | = |L1 An | = |un+1 | 0.

3.5.

An
alisis del m
etodo Homot
opico

A continuaci
on daremos una descripcion del metodo de analisis homotopico [4].
Consideremos el operador diferencial no lineal N . Sea h 6= 0 y un n
umero complejo.
Sean adem
as A y B dos funciones analticas complejas en la region || 1, tales que
A(0) = B(0) = 0,

A(1) = B(1) = 1.

Adem
as, sean
A() =

1,k k ,

k=1

B() =

X
k=1

1,k k ,

(3.24)

58

El m
etodo de Descomposici
on de Adomian

las series de Maclaurin de A y B respectivamente. Como A y B son analticas en


la region || 1, tenemos que
A(1) =
B(1) =

X
k=1

1,k = 1,
1,k = 1.

k=1

Las funciones complejas antes definidas, son llamadas funciones incrustadas y


es el par
ametro incrustado. Consideremos la ecuacion diferencial parcial no lineal
en su forma general
N u = 0,
(3.25)
donde N es un operador diferencial, y u es solucion de la ecuacion (3.1). Resolviendo
la ecuacion anterior y usando el metodo homotopico, construimos la siguiente ecuacion
(1 ())L(u(x, ) u0 (x)) = hA()N (u(x, )),

(3.26)

donde L es un operador lineal auxiliar, que satisface


L(0) = 0,

(3.27)

yh=
6 0 es un par
ametro auxiliar, u0 (x) es una condicion inicial. Usando el hecho de
que A(0) = 0 y que B(0) = 0, y sustituyendo en la ecuacion (3.26), tenemos que
L(u(x, 0) u0 (x)) = 0,

(3.28)

u(x, 0) = u0 (x).

(3.29)

esto es
De forma similar, cuando = 1, la ecuacion (3.26) es igual a esta u
ltima, teniendo
u(x, 1) = u(x).

(3.30)

Tenemos que u(x, ) converge en el intervalo 0 1, esto es, por como se han
definido h, A y B. M
as aun, sup
ongase que
u0 (x) =

k u(x, )
|=0 ,
k

k = 0, 1, 2, . . . .

(3.31)

Podemos observar que se incrementa de 0 a 1. La solucion u(x, ) de la ecuacion


varia continuamente hacia u0 (x) de la solucion u(x) de la ecuacion (3.1). Claramente
se da una relaci
on entre u0 (x) y u(x). El analisis homotopico debe de encontrar una
relacion directa entre estas dos soluciones, la cual se describe a continuacion.
Consideremos la serie de Maclaurin de u(x, ) sobre = 0, esto es
u(x, ) = u(x, 0) +

 k
X
u(x, )
k=1


|=0

k
.
k!

(3.32)

3.6 Derivaci
on del m
etodo de descomposici
on de Adomian

59

Asumiendo, que la serie converge cuando = 1, obtenemos de (3.29) y (3.30) la


siguiente relaci
on

X
u(x) = u0 (x) +
um (x),
(3.33)
m=1

donde

m u(x,)

|=0
um (x)
m
um (x) = 0
=
,
m 1.
(3.34)
m!
m!
Derivemos um (x), mveces con respecto a , para obtener
m   k
m   k
X
X
m d (1 B()) dmk
m d A() dmk N u(x, )
(Lu(x,
)

Lu
(x))
=
h
,
0
k
k
dk
dmk
dk
dmk
k=0
k=0
(3.35)
dividiendo la ecuaci
on anterior por m! y haciendo = 0, obtenemos la siguiente ecuacion, conocida como ecuaci
on de deformaci
on de orden m, esto es
!
m1
X
1,k umk (x) = Rm (x),
(3.36)
L um (x)
k=1

donde Rm (x) depende de los valores u0 (x), u( x),. . ., y esta dada por
Rm (x) = h

m
X

1,k hmk (x).

(3.37)

1 dk N u(x, )
|=0 ,
k!
dk

(3.38)

k=1

Ademas, hk (x) est


a dada por
hk (x) =

estas funciones hk (x) son conocidas como polinomios homot


opicos [8].

3.6.

Derivaci
on del m
etodo de descomposici
on de Adomian

El metodo de descomposici
on de Adomian puede ser derivado por el analisis homotopico usando el siguiente teorema [8].
Teorema 3.6.1. Sean los operadores A y B dados por A() = y B() = y sea
un par
ametro auxiliar h = 1. Entonces
An (x) = hn (x).
Demostraci
on.
Asumimos que la soluci
on de la ecuacion (3.1) depende del parametro , (0 1),
es mas, supongamos tambien que la solucion esta dada por w(x, ) y esta solucion es
analtica en = 0, tal que

60

El m
etodo de Descomposici
on de Adomian

w(x, ) =

X
k k w(x, )
k=0

k!

|=0 .

(3.39)

Luego, sustituyendo los valores en (3.26), tenemos que


(1 )L(w(x, ) u0 (x)) = F w(x, ),
(1 )(L(w(x, )) L(u0 )) = F w(x, ),

(3.40)

donde la condici
on inicial u0 es la solucion del operador lineal
L(w(x, 0)) = 0.

(3.41)

Podemos ver, que cuando = 0, la solucion es u0 y cuando = 1, la solucion es


u(x), que es la soluci
on de la ecuaci
on no lineal original F (w(x, )).
Derivando la ecuaci
on (3.40) a ambos lados con respecto de obtenemos
(1 )(

L(w(x, ))
F (w(x, ))
) (L(w(x, )) L(u0 )) = F (w(x, ))
,

y cuando = 0 obtenemos la ecuacion para u1 , esto es


L(

(w(x, ))
|=0 ) + L(u0 ) = F (w(x, )),

(w(x, ))
|=0 ) = L(u0 ) F (w(x, )),
L(

(w(x, ))
L(
|=0 ) = L(u1 ),

= F (u0 ) = A0 ,

o
u1 (x) = L1 (A0 ).

(3.42)

Derivando la ecuaci
on (3.41) n-veces con respecto de tenemos
n   k
n   k
X
X
n (1 ) nk
n () nk F (w(x, ))
(L(w(x,
))

L(u
))
=

.
0
k
k k
k
nk
nk
k=0
k=0
(3.43)
Simplificando la ecuaci
on anterior y dividiento por m!, con = 0, obtenemos la
siguiente ecuaci
on lineal para un

L(un ) = An1 ,
un = L1 (An1 ),
de donde
An =

1 n F (w(x, ))
|=0 = hn (x).
n!
n

(3.44)


3.6 Derivaci
on del m
etodo de descomposici
on de Adomian

61

En el siguiente teorema [8] se vera la convergencia del metodo de descomposicion


de Adomian.
Teorema 3.6.2. Si la serie

u0 (x) +

um (x),

(3.45)

m=1

es convergente, entonces es soluci


on de la ecuaci
on F (x, u) = 0.
Demostraci
on.
Tenemos que

Rm (x) =

m=1

L um

m1
X

m=1

=L

=L

=L

!
1,k umk (x) ,

k=1

m=1

m1
X
X

um (x)
um (x)

!
1,k umk (x) ,

m=1 k=1
m1
X
X

m=1

k=1 m=k+1

um (x)

m=1

=L

1,k

!
1,k

1,k umk (x) ,

m1
X

!
umk (x) ,

m=1

k=1

!
um (x) .

m=1

k=1

Recordemos que B() = . As

0 cuando k = 0
1 cuando k = 1 ,
1,k =

0 cuando k6=1
estan dadas por la ecuaci
on anterior, luego

Rm (x) = 0.

m=1

De otra manera

X
m=1

Rm (x) =

m
X

1,k hmk (x),

m=1 k=1

=h
=h

=h

1,k

m=1

X
m=1

X
m=1

1,k
1,k

X
m=k

X
m=0

X
m=0

hmk (x),
hm (x),
1 n N (u(x, ))
|=0 .
m!
n

(3.46)

62

El m
etodo de Descomposici
on de Adomian
Ahora, recordemos que A() = . As

0 cuando
1 cuando
1,k =

0 cuando
P
Luego
la expresion toma la
k=1 1,k = 1. As

Rm (x) = h

m=1

hm (x) = h

m=1

k=0
k=1 .
k6=1
forma

X
1 m F u(x, )
|=0 .
m!
m

(3.47)

m=1

Notese que h = 1, luego tenemos que

X
1 m F u(x, )
|=0 = 0.
m!
m

(3.48)

m=1

En consecuencia, u(x, ) no es solucion de F (x, u) en general cuando 6= 1.


Ahora definamos (x, ) = F u(x, ) F u(x) = F u(x, ) como el error de la ecuacion F (x, u). La serie de Maclaurin de este error alrededor de = 0 esta dada por

X
X
m F (x, )
m (x, )
1
1
|
=
|=0 .
=0
m
m!
m
m!

(3.49)

m=1

m=1

De acuerdo a la ecuaci
on (3.45), la serie de Maclaurin converge a = 1, se dice que
(x, 1) = F u(x, 1) =

X
1 m (x, )
|=0 ,
m!
m

(3.50)

m=1

tal que
u(x) = u(x, 1) = u0 (x) +

um (x),

(3.51)

m=1

es solucion de la ecuaci
on F (x, u).


Captulo 4

de
Metodos de Aproximacion
Soluciones
Los metodos de aproximaci
on analtica a la solucion de EDPs, proporcionan frecuentemente informaci
on u
til acerca del comportamiento de la solucion en valores crticos de la variable dependiente, pero tienden a ser mas difciles de aplicar que los metodos
numericos. Entre las consideraciones que justifican el uso de metodos numericos para
solucionar ciertos tipos de EDPs se encuentran
Los datos de los problemas reales presentan siempre errores de medicion, y el
trabajo aritmetico para la solucion esta limitado a un n
umero finito de cifras
significativas que resultan en errores de redondeo.
La evaluaci
on numerica de las soluciones analticas es a menudo una tarea laboriosa y computacionalmente ineficiente, mientras que los metodos numericos
generalmente proporcionan soluciones numericas adecuadas, de manera mas simple y eficiente.
En a
nos recientes las tecnicas mas populares para resolver EDPs de forma numerica
son el metodo de diferencias finitas y los Algoritmos Geneticos. Ambos metodos pueden
ser usados para m
as problemas, incluyendo ecuaciones con coeficientes constantes o
no constantes, ecuaciones no lineales, entre otros. En este captulo nos limitaremos a
introducir las ideas b
asicas de estos dos metodos tan populares.

4.1.

M
etodo de diferencias finitas

El metodo de diferencias finitas consiste en que la region de variacion continua de los


argumentos se sustituye por un conjunto finito (discreto) de puntos (nodos), llamado
malla; en lugar de las funciones de argumento continuo, se consideran las de argumento
discreto, definidas en los nodos de la malla y llamadas funciones de malla. Las
63

64

M
etodos de Aproximaci
on de Soluciones

derivadas que figuran en la ecuaci


on diferencial se sustituyen (se aproximan) mediante
los cocientes respectivos de diferencias, es decir, combinaciones lineales de valores de la
funcion de malla en varios nodos de la red; entonces, la ecuacion diferencial se sustituye
por un sistema de ecuaciones algebraicas (ecuacion en diferencias). Las condiciones
iniciales y de frontera tambien se sustituyen por condiciones iniciales y de contorno en
diferencias, para la funci
on de malla.
Los metodos numericos no persiguen determinar la expresion analtica de la solucion, simplemente persiguen determinar los valores nodales de la solucion, es decir, una
aproximaci
on de los valores que la solucion toma en los nudos del mallado realizado.
Consideremos la expansi
on en series de Taylor [10] de la funcion u(x, y) de dos
variables independientes x y y esto es
u(xi h, yj ) = ui1,j
h2
h3
(uxx )i,j (uxxx )i,j + . . . ,
2!
3!

(4.1)

k2
k3
(uyy )i,j (uyyy )i,j + . . . ,
2!
3!

(4.2)

h2
k2
(uxx )i,j hk(uxy )i,j + (uyy )i,j + . . . ,
2!
2

(4.3)

= ui,j h(ux )i,j +


u(xi , yj k) = ui,j1
= ui,j k(uy )i,j +
u(xi + h, yj k) = ui+1,j1
= ui,j + h(ux )i,j
k(uy )i,j +
u(xi h, yj k) = ui1,j1
= ui,j h(ux )i,j
k(uy )i,j +

h2
k2
(uxx )i,j hk(uxy )i,j + (uyy )i,j + . . . ,
2!
2

(4.4)

donde,
ui,j = u(x, y),
ui1,j = u(x h, y),
ui,j1 = u(x, y k),
ui+1,j1 = u(x + h, y 1),
ui1,j1 = u(x h, y 1).
La combinaci
on de estas f
ormulas de diferencia nos pueden conducir a muy diferentes formas de aproximar las derivadas parciales (de primer y segundo orden) de
la funcion u(x, y). Pero no todas las formas posibles de combinar distintas formulas
nos conducir
a a esquemas de c
alculo que tengan un buen comportamiento, es decir, la
aproximaci
on de la soluci
on de la EDP es cercana a la de la solucion analtica.
Ahora, elijamos un conjunto de rectangulos con vertices espaciados uniformemente
en Pi,j con coordenadas (ih, jk), donde i, j son enteros positivos, negativos o cero, h,

4.1 M
etodo de diferencias finitas

65

k es el tama
no del espaciado que hay entre cada i y j, como se muestra en la Figura
(4.1).

Figura 4.1: Rectangulos con espaciado uniforme.

Ahora, denotemos a u(ih, jk) por ui,j . Con la anterior expansion en series de Taylor,
podemos expresar de forma aproximada a ux en el vertice Pi,j en terminos de ui,j , ui1,j
1
1
[u(x + h, y) u(x, y)] (ui+1,j ui,j ) + O(h),
h
h
1
1
ux = [u(x, y) u(x h, y)] (ui,j ui1,j ) + O(h),
h
h
1
[u(x + h, y) u(x h, y)]
ux =
2h
1

(ui+1,j ui1,j ) + O(h2 ).


2h

ux =

(4.5)

Estas expresiones son llamadas diferencias hacia adelante, diferencias hacia atras y
diferencia central de ux , respectivamente. Las cantidades O(h) o O(h2 ) son conocidas
como el error de truncamiento en este proceso de discretizacion (vease apendice A).
Un resultado de aproximaci
on similar, tomado de la expansion en series de Taylor
dadas por la ecuaci
on (4.1) para uxx en el vertice Pi,j , es
1
[u(x + h, y) 2u(x, y) + u(x h, y)]
h2
1
2 [ui+1,j 2ui,j + ui1,j ] + O(h2 ).
h

uxx =

(4.6)

De forma similar las aproximaciones para uy , uyy y uxy en Pi,j tomadas de las

66

M
etodos de Aproximaci
on de Soluciones

ecuaciones (4.2), (4.3) y (4.4), son


1
1
[u(x, y + k) u(x, y)] (ui,j+1 ui,j ) + O(k),
k
k
1
1
uy = [u(x, y) u(x, y k)] (ui,j ui,j1 ) + O(k),
k
k
1
uy =
[u(x, y + k) u(x, y k)]
2k
1
(ui,j+1 ui,j1 ) + O(k 2 ),

2k
1
uyy = 2 [u(x, y + k) 2u(x, y) + u(x, y k)]
k
1
2 (ui,j+1 2ui,j + ui,j1 ) + O(k 2 ),
k
1
uxy = [u(x + h, y k) u(x + h, y) u(x, y k) + u(x, y)]
hk
1
(ui+1,j1 ui+1,j ui,j1 + ui,j ).
hk
uy =

(4.7)

(4.8)

(4.9)

Todas estas f
ormulas de diferencia son extremadamente u
tiles en la b
usqueda de
soluciones numericas de EDPs de primer o segundo orden.
Representemos a U (x, y) como la solucion exacta de la EDP dada por L(U ) = 0,
donde L(U ) es un operador diferencial con variables independientes x y y, y ui,j es
la solucion exacta de la correspondiente ecuacion en diferencias finitas F (ui,j ) = 0.
Entonces, el esquema de diferencias finitas se dice que es convergente si ui,j tiende a U
cuando h y k tienden a cero. La diferencia di,j (Ui,j ui,j ), es llamada el error de
truncamiento acumulativo (o discretizaci
on) [27].

4.1.1.

Esquemas para EDPs

Consideremos la ecuaci
on de Euler introducida en el captulo 1 con coeficientes
constantes, la cual est
a dada por

Auxx + Buxy + Cuyy = 0,

(4.10)

donde A, B y C son constantes diferentes de cero. Tomando las ecuaciones en diferencias


dadas por las ecuaciones (4.6), (4.8) y (4.9), sustituimos en la ecuacion (4.10) y por
simplicidad, tomemos un mismo espaciado h en las dos direcciones, esto es, haciendo

4.1 M
etodo de diferencias finitas

67

k = h. As, tenemos que





1
A
(u(x h, y) 2u(x, y) + u(x + h, y)) +
h2


1
B 2 (u(x + h, y h) u(x + h, y) u(x, y h) + u(x, y)) +
h


1
C
(u(x,
y

h)

2u(x,
y)
+
u(x,
y
+
h))
= 0,
h2
A(u(x h, y) 2u(x, y) + u(x + h, y))+
B(u(x + h, y h) u(x + h, y) u(x, y h) + u(x, y))+
C(u(x, y h) 2u(x, y) + u(x, y + h)) = 0,
Au(x h, y) (2A + B + 2C)u(x, y) + (A + B)u(x + h, y)
Bu(x + h, y h) + (B + C)u(x, y h) + Cu(x, y + h) = 0,

(4.11)

despejando a u(x, y+h) podemos escribir la ecuacion (4.10) en diferencias de la siguiente


forma
u(x, y + h) =

1
(Au(x h, y) + (2A + B + 2C)u(x, y)
C
(A + B)u(x + h, y) + Bu(x + h, y h) (B + C)u(x, y h)),

(4.12)

1
(Aui1,j + (2A + B + 2C)ui,j (A + B)ui+1,j +
C
Bui+1,j1 (B + C)ui,j1 ).

(4.13)

o bien
ui,j+1 =

Para el caso cuando A 6= 0, B = 0 y C 6= 0, la ecuacion en diferencias queda de la


siguiente forma
ui,j+1 =

1
(Aui1,j + (2A + 2C)ui,j Aui+1,j Cui,j1 ).
C

(4.14)

Para el caso cuando A 6= 0 , B 6= 0 y C = 0,


ui,j+1 =

1
(Aui1,j+2 + (2A + B)ui,j+2 (A + B)ui+1,j+2 + Bui+1,j+1 .
B

(4.15)

Y finalmente tenemos que para el caso cuando A = 0, B 6= 0 y C 6= 0,


ui,j+1 =

1
((B + 2C)ui,j Bui+1,j + Bui+1,j1 (B + C)ui,j1 ).
C

(4.16)

En particular para las siguientes ecuaciones, sus esquemas estan dados de la siguiente forma [10, 25]

68

M
etodos de Aproximaci
on de Soluciones
Ecuaci
on hiperb
olica (ecuaci
on de onda): la cual esta dada por la siguiente ecuacion
utt = c2 uxx ,
(4.17)
cuya soluci
on en diferencias finitas esta dada por
ui+1,j 2ui,j + ui1,j
ui,j+1 2ui,j + ui,j1
= c2
.
k2
h2
Ecuaci
on parab
olica (ecuaci
on de calor): cuya ecuacion es la siguiente
ut = c2 uxx ,

(4.18)

la cual tiene por soluci


on en diferencias finitas la siguiente ecuacion
ui,j+1 ui,j
ui+1,j 2ui,j + ui1,j
=c
.
k
h2
Crank Nicolson: c
alculo de las medias de las diferencias centrales

ui,j+1 ui,j =
donde =

[(ui+1,j+1 2ui,j + ui1,j1 ) + (ui+1,j 2ui,j + ui1,j )]


,
2

c2 k
.
h2

Ecuaci
on elptica (ecuaci
on de Laplace): la cual esta dada por
uxx = uyy ,

(4.19)

y que tiene por soluci


on en forma de diferencias finitas la siguiente ecuacion
ui,j+1 2ui,j + ui,j1 ui+1,j 2ui,j + ui1,j
+
= 0.
k2
h2

4.2.

M
etodo de algoritmos gen
eticos

Los algoritmos geneticos son metodos evolutivos que pueden usarse para resolver
problemas de b
usqueda y optimizacion que consisten basicamente en encontrar un grupo de valores x1 , x2 , . . . , xn tales que la funcion F (x1 , x2 , . . . , xn ) sea maxima o mnima,
la cual depende de la naturaleza del problema, pudiendo ser esta funcion, lineal o no
lineal, continua o discontinua con respecto a cada una de sus variables independientes.
Estan basados en el proceso evolutivo de los organismos vivos, los cuales son: seleccion natural de los mejores individuos de una poblacion, reproduccion de los individuos
mas fuertes y herencia a nivel genetico de las mejores caractersticas de estos individuos.
En un algoritmo genetico cada solucion potencial constituye un individuo de la
poblacion, a cada individuo se le asigna un valor de aptitud, para que los mejores
individuos tengan mayor probabilidad de reproducirse, transmitiendo parte de su informacion a sus descendientes.

4.2 M
etodo de algoritmos gen
eticos

69

En un algoritmo genetico, se llama cromosoma a la agrupacion de todas las variables xi1 , xi2 , . . . , xin de la soluci
on de un problema, donde i es el ndice de la solucion
y n es el tama
no del cromosoma, es decir, es el n
umero de variables de la solucion i.
La codificaci
on numerica de una solucion al problema, se le conoce como genotipo. Un
genotipo representa una soluci
on al problema en forma codificada y puede verse como
un arreglo de valores numericos. Cada genotipo constituye el material genetico de un
individuo de la poblaci
on.
A la funci
on F (x1 , x2 , . . . , xn ) se le conoce como funci
on aptitud y el valor que
esta funci
on devuelve se llama fenotipo del individuo; el fenotipo consiste en un valor numerico que indica que tan buena es esa solucion al problema. Para resolver un
problema mediante un algoritmo genetico, primero se debe determinar de que parametros depende el problema y asignar una variable a cada parametro, estas variables
x1 , x2 , . . . , xn constituyen el cromosoma del algoritmo genetico; despues debe construirse la funci
on de aptitud F (x1 , x2 , . . . , xn ) que permita evaluar que tan buena es
una soluci
on.
La poblaci
on inicial consiste en un grupo de soluciones al problema (individuos)
codificadas en genotipos; estos genotipos pueden especificarse o ser generados aleatoriamente entre un intervalo determinado de valores para cada variable del cromosoma.
Cuando se tiene la poblaci
on inicial, se eval
uan todos los genotipos de los individuos,
por medio de la funci
on aptitud, para determinar el fenotipo de cada individuo; luego
se asigna un valor de probabilidad a cada individuo, seg
un su fenotipo, de forma que
los mejores individuos de la poblacion tengan mayor valor de probabilidad.
Despues de que cada individuo tiene asignado un valor de probabilidad, se crea un
determinado n
umero de parejas de individuos al azar, seg
un la probabilidad de cada
uno y pudiendo participar, en la creacion de cada pareja, todos los individuos de la
poblaci
on, sin importar si ya fue seleccionado en otra pareja. Luego cada pareja se reproduce, produciendo un determinado n
umero de hijos, que constituyen un intercambio
de la informaci
on de los padres.
Los hijos de todas las parejas, luego de su creacion, pueden sufrir mutaciones, esto
es, cambios en los valores de su genotipo; para un funcionamiento adecuado de un algoritmo genetico, la probabilidad de mutacion de un individuo debe ser baja. Los hijos
de todas las parejas de individuos formaran parte de la segunda generacion, estos nuevos individuos pueden sustituir a todos los de la generacion anterior o solamente a los
que tengan menor valor de probabilidad; tambien puede calcularse el fenotipo de estos
nuevos individuos, para que s
olo los mejores sustituyan a otros de la generacion anterior.
Cuando los nuevos individuos han sustituido a otros de la generacion anterior, se
habra formado una nueva poblacion o generacion de individuos; despues se vuelve a
realizar el mismo proceso de emparejamiento, reproduccion y sustitucion de individuos
de la poblaci
on, hasta que aparezca el individuo que constituya la solucion al problema.

70

M
etodos de Aproximaci
on de Soluciones

De lo anterior, puede verse que los individuos de cada generacion compiten para ver
cual constituye la mejor soluci
on al problema, de forma que solo los mejores sobrevivan
o lleven parte de su material genetico (genotipo) a las siguientes generaciones.
Algunas de las ventajas que tienen los algoritmos geneticos son:
Trabajan con un conjunto de puntos, no con un unico punto y su entorno.
No necesitan conocimientos especficos sobre el problema a resolver.

4.2.1.

Estructura de un algoritmo gen


etico

Un algoritmo genetico contiene una serie de procesos, similares a los observados en


la evoluci
on biol
ogica de las especies, que permiten solucionar un problema; estos se
describen a continuaci
on.
Codificaci
on de datos en un cromosoma
El cromosoma es la estructura que nos permite representar las posibles soluciones
al problema dentro del algoritmo genetico; a cada posible solucion representada en un
cromosoma se le conoce como genotipo. Para dise
nar la estructura del cromosoma deben considerarse todas las variables de las que depende la solucion del problema; estas
variables pueden ser discretas o continuas y sus valores deben estar dentro de un intervalo determinado para cada variable. Se llaman genes a los componentes individuales
del cromosoma; cuando las variables de las que depende el problema son discretas, los
genes pueden ser de tipo entero o binario; cuando estas variables son continuas, los
genes son de tipo real.
El dise
no correcto de la estructura del cromosoma puede ser la clave para resolver
adecuadamente el problema; un criterio usado para dise
nar la estructura del cromosoma, es que las variables relacionadas entre s, deben de estar cercanas en el cromosoma.
El tama
no del cromosoma n vara con cada problema a resolver, ya que este es proporcional a la cantidad de variables de las cuales depende la solucion del problema.
Representaci
on
Una representaci
on debe ser capaz de identificar las caractersticas constituyentes de
un conjunto de soluciones. Pero la representacion binaria no es la u
nica tambien existen
otros tipos de representaciones b
asicas como representacion entera y la representacion
real. Para el caso de la representaci
on entera el gen es un valor entero y para el real es
un valor real, ve
ase tabla (4.1)
real
3.00
2.00

entera
3
2

binaria
1 1
1 0

Tabla 4.1: Representacion.

4.2 M
etodo de algoritmos gen
eticos

71

Tama
no de la poblaci
on
La poblaci
on es el conjunto de individuos con los que se trabaja en el algoritmo
genetico, estos individuos constituyen posibles soluciones al problema. Los individuos
que constituyen la poblaci
on van cambiando durante el funcionamiento del algoritmo
genetico, pero el tama
no de la poblacion puede permanecer constante.
Una de las inquietudes mas importantes en algoritmos geneticos es el tama
no de
la poblaci
on ya que al parecer las poblaciones que son peque
nas corren el riesgo de no
cubrir adecuadamente el espacio de b
usqueda, mientras que las poblaciones de gran
tama
no nos pueden llevar a problemas relacionados con el costo excesivo. Por lo que el
tama
no de la poblaci
on se determina seg
un el criterio del dise
nador, tomando en cuenta
la cantidad de genes del cromosoma y el intervalo de valores que estos pueden adquirir.
Poblaci
on inicial
La poblaci
on inicial generalmente es creada asignando valores aleatorios a los genes
de cada individuo, dentro de un intervalo determinado y con la misma probabilidad de
ocurrencia.
La poblaci
on inicial de un algoritmo genetico puede ser creada de muy diversas
formas, desde generar aleatoriamente el valor de cada gen para cada individuo, utilizar
una funci
on, generar alguna parte de cada individuo, o partir de la solucion de otro
algoritmo heurstico y luego aplicar una b
usqueda local.
Funci
on aptitud
La funci
on aptitud es la herramienta que permite medir que tan buena es una
solucion. Al construir una funci
on aptitud nos interesara que este verifique que para
dos individuos que se encuentren cercanos en el espacio de b
usqueda, sus respectivos
valores en las funciones aptitud sean similares.
Una buena funci
on aptitud debe reflejar el valor del individuo de una manera real,
pero en muchos problemas de optimizacion combinatoria, donde existe gran cantidad
de restricciones, buena parte de los puntos del espacio de b
usqueda representan individuos no validos [18].
Un problema habitual en las ejecuciones de los algoritmos geneticos surge debido
a la velocidad con la que el algoritmo converge. En algunos casos la convergencia es
muy rapida, lo que suele denominarse convergencia prematura, en la cual el algoritmo
converge hacia
optimos locales, mientras que en otros casos el problema es justo lo contrario, es decir se produce una convergencia lenta del algoritmo. Una posible solucion a
estos problemas pasa por efectuar transformaciones en la funcion aptitud. El problema
de la convergencia prematura, surge a menudo cuando la seleccion de individuos se
realiza de manera proporcional a su funcion aptitud. En tal caso, pueden existir individuos con una adaptaci
on al problema muy superior al resto, que a medida que avanza

72

M
etodos de Aproximaci
on de Soluciones

el algoritmo dominan a la poblaci


on. Por medio de una transformacion de la funcion
aptitud, en este caso una comprension del rango de variacion de la funcion aptitud, se
pretende que dichos superindividuos no lleguen a dominar a la poblacion. El problema
de la lenta convergencia del algoritmo, se resolvera de manera analoga, pero en este
caso efectuando una expansi
on del rango de la funcion aptitud.
Selecci
on de individuos
La selecci
on es el proceso en el cual, se escogen los individuos que integraran las
parejas que van a reproducirse. El operador de seleccion es el encargado de transmitir y
conservar aquellas caractersticas de la soluciones que se consideran valiosas a lo largo
de las generaciones. El principal medio para que la informacion u
til se transmita es
que aquellos individuos mejor adaptados (mejor valor de funcion aptitud) tengan mas
probabilidades de reproducirse. Sin embargo, es necesario tambien incluir un factor
aleatorio que permita reproducirse a individuos que aunque no esten muy bien adaptados, puedan contener alguna informacion u
til para posteriores generaciones. Esto con
el objeto de mantener as tambien una cierta diversidad en cada poblacion. Algunas de
las tecnicas de las cuales se dispone son las siguientes[19]:
Ruleta o selecci
on proporcional. Con este metodo la probabilidad que tiene
un individuo de reproducirse es proporcional a su valor de funcion adaptacion. En
este metodo se define un rango con las caractersticas de la seleccion por sorteo. El
n
umero al azar ser
a un n
umero aleatorio forzosamente menor que el tama
no del
rango. El elemento escogido sera aquel en cuyo rango este el n
umero resultante
de sumar el numero aleatorio con el resultado total que sirvio para escoger el
elemento anterior. El comportamiento es similar al de una ruleta, donde se define
un avance cada tirada a partir de la posicion actual.
Ejemplo 4.2.1. Consideremos los siguientes datos
Individuo
(1)
(2)
(3)
(4)

f=

Aptitud
25
81
36
144
P
= 286

286
,
4

Valor e
0. 35
1. 13
0. 51
2. 01
P
= 4.00

V alor ei =

T =

fi
,
f

V alor e.

Generar r [0.0, 4.0], tomemos r = 1.3. Luego


(1)
(2)

suma= 0.35 < r,


suma= 1.48 > r,

4.2 M
etodo de algoritmos gen
eticos

73

de donde se selecciona al individuo (2).



Selecci
on por Ranking. Consiste en calcular las probabilidades de reproduccion
atendiendo a la ordenaci
on de la poblacion por el valor de adaptacion, esto es, los
cromosomas se ordenan de acuerdo a sus valores para la funcion de adaptacion.
Luego, se seleccionan para la reproduccion a los primeros n cromosomas.
Selecci
on por Torneo. Reporta un valor computacional muy bajo debido a su
sencillez. Se selecciona un grupo de t individuos y se genera un n
umero aleatorio
entre 0 y 1. Si este n
umero es menor que un cierto umbral K, se selecciona para
reproducirse al individuo con mejor adaptacion, y si este n
umero es mayor que
K, se selecciona, por el contrario, al individuo con peor adaptacion.
Ejemplo 4.2.2. Considere los siguientes datos
Orden
(1)
(2)
(3)
(4)
(5)
(6)

Aptitud
254
47
457
194
85
310

de forma aleatoria escoger r (0, 1), luego podemos obtener los siguientes resultados
Ganador
Selecciona
Selecciona

t1 = r
t2 = r
t1 = r
t2 = r

= (3)
= (6)
= (1)
= (4)

(3)
(1)

y se continua este proceso.



Operador de cruce
El operador cruce realiza la reproduccion de cada pareja de individuos. Este operador nos permite crear individuos nuevos, combinando el material genetico de los padres.
Dentro de los metodos habituales destacamos los siguientes:
Cruce de un punto. Se selecciona una posicion en las cadenas de los progenitores, y se intercambian los genes a la izquierda de esta posicion.

74

M
etodos de Aproximaci
on de Soluciones
Ejemplo 4.2.3. Consideremos los siguientes cromosomas progenitores
P1 =
P2 =

1
1

0
1

1
1

0
0

1
1

1
1

0
1

1
0

considerando a la posici
on 4 como el punto de cruce, los hijos resultantes son
H1 =
H2 =

1
1

0
1

1
1

0
0

1
1

1
1

1
0

0
1


Cruce de 2 puntos. Es una generalizacion del metodo anterior. Se seleccionan


dos posiciones en las cadenas de los progenitores y se intercambian los genes a
ambos lados de estas posiciones.
Ejemplo 4.2.4. Consideremos los siguientes cromosomas
P1 =
P2 =

1
1

0
1

1
1

1
0

0
1

1
1

0
1

1
0

considerando a las posiciones 2 y 6 como los puntos de cruce, los hijos resultantes
son
H1 =
H2 =

1
1

0
1

1
1

0
1

1
0

1
1

0
1

1
0


Cruce Uniforme. Se realiza un test aleatorio para decidir de cual de los progenitores se toma cada posicion de la cadena.
Ejemplo 4.2.5. Consideremos los siguientes cromosomas progenitores
P1 =
P2 =

1
1

0
1

1
1

0
0

1
1

1
1

0
1

1
0

considerando a las posiciones 1, 2, 4 y 7 como los puntos de cruce, los hijos


resultantes son
H1 =
H2 =

1
1

0
1

1
1

0
0

1
1

1
1

0
1

0
0


Cruces para permutaci


on: Existe una familia de cruces especficos para los
problemas de permutaci
on, la cual es usada frecuentemente en problemas de optimizaci
on combinatoria [12], como el del viajero frecuente, siendo algunas tecnicas
las siguientes:

4.2 M
etodo de algoritmos gen
eticos

75

Cruce de mapeamiento parcial (PMX). Toma una subsecuencia del


gen del padre y procura preservar el orden absoluto de las variables, es
decir, orden y posici
on en el gen- del resto del cromosoma lo mas parecido
posible de la madre.

Ejemplo 4.2.6. Los padres son:


P 1 = 9 8 4 | 5 6 7 | 1 3 2 10
P 2 = 8 7 1 | 2 3 10 | 9 5 4 6
Los hijos son:
H1 = X X X | 2 3 10 | X X X
H2 = X X X | 5 6 7 | X X X
Para completar H1 y H2, copiamos primero los valores que no est
an en el
segmento intercambiando:
H1 = 9 8 4 | 2 3 10 | 1 X X X
H2 = 8 X 1 | 5 6 7 | 9 X 4 X
Por u
ltimo mapeamos los valores restantes
H1 = 9 8 4 2 3 10 1 6 5 7
H2 = 8 10 1 5 6 7 9 2 4 3

Cruce de orden (OX). Toma una subsecuencia del gen del padre y procura
preservar el orden relativo de las variables del resto del gen lo mas parecido
posible de la madre.

Ejemplo 4.2.7. Los padres


P 1 = 9 8 4 5 6 7 1 3 2 10
P 2 = 8 7 1 2 3 10 9 5 4 6
Sub-cadena elegida: 5 6 7 1 de P 1.
Primer hijo
H1 = X X X 5 6 7 1 X X X
Borrar de P 2 la sub-cadena tomada de P 1
P 20 = 8 X X 2 3 10 9 X 4 X
Determinar los valores faltantes de H1 sustituyendo de izquierda a derecha
los valores que aparecen en P 20
H1 = 8 2 3 5 6 7 1 10 9 4
Para obtener H2, el procedimiento es similar, aunque ahora la sub-cadena
se tomar
a de P 2 y la sustituci
on de har
a a partir de P 10 .


76

M
etodos de Aproximaci
on de Soluciones
Cruce de ciclo (CX). Tomamos el primer gen del genoma del padre,
poniendolo en la primera posicion del hijo, y el primer gen del genoma de la
madre, poniendolo dentro del cromosoma del hijo en la posicion que ocupe
en el genoma del padre. La variable que este en la posicion que ocupa el gen
del genoma del padre igual al primer gen del genoma de la madre se va a
colocar en la posici
on que ocupe en el genoma del padre, y asi hasta rellenar
el genoma del hijo.

Ejemplo 4.2.8. Los padres


P 1 = 8 11 3 5 6 4 2 12 1 9 7 10
P 2 = 1 2 3 4 5 6 7 8 9 10 11 12
Posiciones 1 2 3 4 5 6 7 8 9 10 11 12.
Tomemos las posici
on 1 para iniciar el ciclo: Los elementos del ciclo ser
an
entonces (1, 8). Pro 1 y 8 tambien aparecen en las posiciones 9 y 8. Por lo
tanto, el ciclo ahora incluye los elementos (1, 8, 12). Pero 12 aparece tambien
en la posici
on 12. Por lo tanto, el ciclo ahora incluye los elementos (1, 8,
12, 10). Pero 10 aparece tambien en la posici
on 10. Por lo tanto, el ciclo
ahora incluye los elementos (1, 8, 12, 10, 9). Ya no hay nuevos elementos
que agregar, por lo que se concluye el ciclo.
Para general al primer hijo, tomamos a P 1, removiendole los elementos que
no sean parte del ciclo
H1 = 8 X X X X X X 12 1 9 X 10
Remover de P 2 los valores del ciclo
P 20 = X 2 3 4 5 6 7 X X X 11 X
Rellenar H1 usando los valores restantes de P 20 .
H1 = 8 2 3 4 5 6 7 12 1 9 11 10

Es una buena idea que, tanto la codificacion como la tecnica de cruce, se hagan de
manera que las caractersticas buenas se hereden; o, al menos, no sea mucho peor que
el peor de los padres. En problemas en los que, por ejemplo, la adaptacion es funcion
de los pares de genes colaterales, el resultante del cruce uniforme tiene una adaptacion
completamente aleatoria [18].
Operador de mutaci
on
La mutaci
on se considera un operador basico, que proporciona un peque
no elemento
de aleatoriedad en la vecindad (entorno) de los individuos de la poblacion. El operador
mutacion cambia el valor de uno o varios genes de un individuo, alterando su material
genetico.

4.2 M
etodo de algoritmos gen
eticos

77

El operador mutaci
on se aplica, con muy baja probabilidad, a los individuos recien
creados por el operador cruce; la probabilidad de mutacion se establece seg
un el criterio del dise
nador, pero esta debe ser bastante baja, ya que puede reducir el algoritmo
genetico a una b
usqueda local; generalmente la probabilidad de mutacion es de 0.1.
El objetivo del operador de mutacion es producir nuevas soluciones a partir de la
modificaci
on de un cierto n
umero de genes de una solucion existente, con la intencion
de fomentar la variabilidad dentro de la poblacion.
Existen diferentes formas de realizar la mutacion, desde la mas sencilla (Puntual),
donde cada gen muta aleatoriamente con independencia del resto de los genes, hasta
configuraciones m
as complejas donde se tienen en cuenta la estructura del problema y
la relaci
on entre los distintos genes [12, 18].

4.2.2.

Reemplazo de la poblaci
on y condici
on de paro

Cada vez que se aplica el operador de cruce, nos encontramos con un n


umero de
nuevos individuos (la descendencia) que se han de integrar en la poblacion para formar
la siguiente generaci
on. Esta operacion se puede hacer de diversas formas, pero en
general existen tres metodos fundamentales para realizar el reemplazo:
Cuando el n
umero de individuos llega a un cierto n
umero, se elimina un subconjunto de la poblaci
on conteniendo a los individuos peor adaptados.
Cada vez que se crea un nuevo individuo, en la poblacion se elimina el peor
adaptado para dejar su lugar a este nuevo individuo.
Cada vez que se crea un nuevo individuo, en la poblacion se elimina aleatoriamente
una soluci
on, independientemente de su adaptacion.
En cuanto a la condici
on de paro, por lo general viene determinado por criterios
a priori sencillos, como un n
umero maximo de generaciones o un tiempo maximo de
resoluci
on, o m
as eficientemente por estrategias relacionadas con indicadores del estado
de evoluci
on de la poblaci
on, como por la perdida de diversidad dentro de la poblacion
o por no haber mejora en un cierto n
umero de iteraciones. Siendo por lo general una
condici
on mixta lo m
as utilizado, es decir, limitar el tiempo de ejecucion a un n
umero de
iteraciones y tener en cuenta alg
un indicador del estado de la poblacion para considerar
la convergencia antes de alcanzar tal limitacion.
Funcionamiento de un algoritmo gen
etico
El funcionamiento de un algoritmo genetico se resume en el diagrama de flujo mostrado en la figura (4.2)
En muchas aplicaciones se presenta el caso, que los individuos creados mediante la
operaci
on de cruce o alterados por la operacion de mutacion, no representan soluciones
validas al problema; para resolver este inconveniente, debe ajustarse el genotipo de cada

78

M
etodos de Aproximaci
on de Soluciones

Figura 4.2: Diagrama de flujo

individuo, luego de aplicar las operaciones de cruce y mutacion; este ajuste consiste en
alterar los genes del individuo, de forma que sea valida la solucion que este represente.
En algunas aplicaciones, todos los individuos que se producen, luego de la operacion de
cruce y mutaci
on, contienen soluciones validas al problema; en estas aplicaciones no es
necesario ajustar los genotipos de los individuos, aunque en algunos casos sus valores se
ajustan para evitar que la poblaci
on se aleje de la solucion. El ajuste que debe realizarse
al genotipo de cada individuo, vara con el tipo de problema que se intenta resolver; el
objetivo de este ajuste es hacer que la solucion, que el individuo representa, sea valida.

4.2.3.

Dise
no del algoritmo gen
etico para la soluci
on de EDPs de
segundo orden

Teniendo en cuenta lo anterior, ahora nos enfocaremos en la solucion de la EDP de


segundo orden dada por la ecuaci
on (4.10) mediante algoritmos geneticos, para esto, se
presentan los principales t
opicos que se utilizaron para la realizacion de este trabajo.
Codificaci
on de datos
En un algoritmo genetico orientado a resolver EDPs de segundo orden, los datos
que se codificar
an, utilizando la estructura del cromosona, son la posicion (x, y). Cada
gen del cromosoma contendr
a un valor binario de las posiciones, ya que la posicion se
calculara en forma real y se tendr
a que hacer una conversion a su forma binaria, por
lo que los genes del cromosoma ser
an de tipo binario. El orden en que se colocan los
valores de las posiciones (x, y), dependeran de la precision decimal que se desee. La

4.2 M
etodo de algoritmos gen
eticos

79

estructura del cromosoma de un algoritmo genetico orientado a solucionar una EDP se


muestra en la Tabla (4.2)
Posici
on x

representaci
on binaria x

Posicion y

representacion binaria y

0.0001

00000000000001

0.0010

00000000001010

Tabla 4.2: Estructura de cromosoma

Para este caso presentado en la Tabla (4.2), la precision es a 4 decimales por lo que,
se tiene que hacer una multiplicacion del n
umero real por 10, 000 para la conversion a
su n
umero binario.
Generaci
on de la poblaci
on inicial
El tama
no de la poblaci
on debe establecerse cuidadosamente, ya que la b
usqueda
de la soluci
on no mejorar
a al aumentar demasiado el tama
no de la poblacion y si la
poblaci
on es peque
na, el algoritmo genetico no podra encontrar la solucion al problema,
esto es consecuencia de que no existe un metodo para establecer el tama
no optimo de
la poblaci
on en un algoritmo genetico. Al establecer el tama
no de la poblacion, debe
tomarse en cuenta el tama
no del cromosoma, ya que al aumentar la cantidad de genes,
tambien debe aumentarse el tama
no de la poblacion. En la resolucion de EDPs de
segundo orden, la cantidad de genes depende de la precision de los puntos x y y, por lo
que para resolver una EDP, con una buena precision, se necesita una poblacion mayor
que la necesaria para resolver un problema con una menor precision, y como consecuencia al tener una poblaci
on grande, el tiempo requerido por el algoritmo genetico para
encontrar la soluci
on ser
a mayor. Se han realizado diversos experimentos con la finalidad de obtener un tama
no adecuado para la poblacion, llegando a la conclusion que
para la mayora de los problemas considerados, un tama
no entre 50 y 100 individuos
proporciona buenos resultados. La poblacion inicial se genera en forma aleatoria en el
intervalo [a, b], este intervalo depende de las condiciones iniciales del problema
Funci
on aptitud
La funci
on aptitud debe asignar un valor numerico a cada individuo, de acuerdo a su
cercana con la soluci
on del problema, este valor nos permitira comparar dos individuos
y determinar que tan bueno es uno de ellos con respecto al otro, en su capacidad de
resolver el problema.
Para determinar si un individuo soluciona la EDP de segundo orden, se deben calcular los valores aproximados de la EDP de segundo orden en las posiciones (x, y),
para este c
alculo se utilizan los esquemas en diferencias finitas adaptadas para la forma
cuadratica de la EDP de segundo orden, es decir, se emplea la ecuacion Ax2 +Bxy+Cy 2 ,
si el esquema calculado en la posicion (x, y) son iguales a los especificados por la solucion analtica, entonces solucionan la EDPs de segundo orden.

80

M
etodos de Aproximaci
on de Soluciones

Con el fin de poder tener una buena aproximacion se ha definido una funcion aptitud
que depende del error relativo, esto es
FAptitud = er =

|ut (i) unum (i)|


,
|ut (i)|

(4.20)

donde ut (i) y unum (i) es la soluci


on analtica y numerica en el punto i.
Selecci
on de individuos
En la soluci
on de EDPs de segundo orden por medio de algoritmos geneticos, se
puede utilizar cualquier metodo de seleccion para escoger a los individuos que integraran
las parejas que van a reproducirse, es preferible utilizar el metodo de seleccion por
ruleta, ya que este asigna a cada individuo una probabilidad de seleccion de acuerdo
con su valor de aptitud. En el metodo de seleccion por ruleta, a cada individuo se le
asigna una probabilidad de selecci
on por medio de la siguiente ecuacion
P robabilidadi =

FAptitudi
N
X

(4.21)

FAptitudj

j=1

donde P robabilidadi es la probabilidad de seleccion del i-esimo individuo, Aptitudi es


el valor de aptitud del i-esimo individuo, Aptitudj es el valor de aptitud del j-esimo
individuo y N es el n
umero de individuos en la poblacion. El resultado de la suma de
las probabilidades de selecci
on de todos los individuos de la poblacion debe ser uno.
Operadores de Reproducci
on
La reproducci
on tiene por objeto la obtencion de nuevos individuos mediante la
utilizacion de los denominados operadores geneticos. Todo algoritmo genetico hace uso
de, al menos, dos operadores geneticos en la fase de reproduccion : cruce y mutacion
[19].
Los operadores geneticos deben ser capaces de acercar el algoritmo genetico a la
solucion del problema, el m
as importante de estos es el operador de cruce, ya que este
puede crear nuevos individuos, con buenas capacidades para solucionar el problema,
a partir de dos individuos existentes. El operador de mutacion debe tener una baja
probabilidad de aplicaci
on, este operador debe alterar un gen de un individuo de forma
que este o su descendencia, mejore su aptitud para resolver el problema. Se consideran
los siguientes operadores geneticos,
Operador de cruce. El operador de cruce debe ser capaz de crear, a partir
de dos individuos, otros individuos mejores que los anteriores. En un algoritmo
genetico orientado a resolver EDPs de segundo orden, los genes de los individuos poseen valores de tipo binario. En la solucion de una EDP, para acercar
el algoritmo genetico a la solucion, a partir de dos buenos individuos, se pueden

4.2 M
etodo de algoritmos gen
eticos

81

intercambiar o promediar los valores de sus genes, los cuales representan la posici
on (x, y). El operador de cruce puede ser uniforme o realizarse en uno o varios
puntos y adem
as de intercambiar los valores de los genes de los padres. Tambien
se deben promediar estos valores, para que el algoritmo genetico pueda acercarse
a la soluci
on de la EDP.
El operador de cruce utilizado para resolver EDPs de segundo orden puede
variar seg
un el criterio del dise
nador, pero dependera de un cruce adecuado, que
obtenga la soluci
on del problema, el operador de cruce que se ocupa es el cruce
uniforme el cual lo dividimos en tres puntos, los cuales se encuentran en las
posiciones 4, 7, 10, 19, 21 y 25. Esto es debido a que el tama
no del cromosoma
es de 30, obteniendo de este operador de cruce, dos nuevos individuos.
Operador de mutaci
on. La operacion de mutacion se aplica a los nuevos individuos, luego de su creaci
on. Esta operacion debe alterar, en una peque
na cantidad,
el valor de un gen escogido al azar, es decir, la probabilidad de mutacion.
El operador de mutacion para resolver una EDP de segundo orden, alterar
a dos genes que correspondan a la parte binaria, el cual su valor va a variar
entre 0 y 1, la posici
on que va alterarse se escogera de forma aleatoria entre 1 y
14 y la otra posici
on entre 16 y 30, las cuales corresponden a las partes binarias
de cada posici
on. De no ser as, el valor de aptitud de ese indviduo podra decrecer grandemente y esto provocara que el individuo desapareciera sin legar su
material genetico.

82

M
etodos de Aproximaci
on de Soluciones

Captulo 5

del Metodo de
Aplicacion
de
Harper para la Ecuacion
Euler
En este captulo presentaremos una aplicacion del metodo de Harper a la ecuacion
de Euler dada en el capitulo 1, el cual nos permitira dar un nuevo metodo para resolver
las EDPs de tipo hiperb
olico, parabolico y elptico .
Para la aplicaci
on del metodo a la ecuacion de Euler se consideran 5 casos, es decir,
los coeficientes de la ecuaci
on son de la siguiente forma
Caso I. A 6= 0, B 6= 0 y C 6= 0.
Caso II. A 6= 0, B 6= 0 y C = 0.
Caso III. A = 0, B 6= 0 y C 6= 0.
Caso IV. A = 0, B 6= 0 y C = 0.
Caso V. A 6= 0, B = 0 y C 6= 0.
Teniendo en cuenta los casos anteriores, y sabiendo que el factor mas importante en
el metodo de Harper es no considerar alguna de las segundas derivadas, a continuacion
daremos el procedimiento que se realizo para la obtencion de las nuevas soluciones para
cada caso mencionado anteriormente.

5.1.

Caso I

Como primer caso, supongamos que los coeficientes A, B y C de la ecuacion de


Euler (2.33) son de la forma A 6= 0, B 6= 0 y C 6= 0. Para poder aplicar el metodo de
83

84

Aplicaci
on del M
etodo de Harper para la Ecuaci
on de Euler

Harper, consideremos la siguiente EDP auxiliar de segundo orden


Avxx + Bvxy = 0,

(5.1)

haciendo el cambio de variable w = vx esta ecuacion se escribe como


Awx + Bwy = 0.

(5.2)

Las ecuaciones caractersticas asociadas a la ecuacion (5.2), estan dadas por


dx
dy
dw
=
=
.
A
B
0
dy
x
stica A
By =
El primer par de ecuaciones dx
A = B tiene como curva caracter
dw
c0 = const., y a partir del otro par de ecuaciones dx
A = 0 obtenemos la otra curva
caracterstica, dada por w = c1 = const. Por lo tanto, la solucion de la ecuacion (5.2)
resulta ser
x
y
w = c1 = 1 (c0 ) = 1 ( ),
A B
integrando esta ecuaci
on, obtenemos la solucion de la ecuacion (5.1),
Z
x
y
v = 1 ( )dx + c0 (y),
A B
x
introduciendo la nueva variable X = A
By , esta solucion
Z
1
1 (X)dX + c0 (y).
v=
A

se escribe como

Ahora, siguiendo el procedimiento de Harper [21], proponemos la siguiente solucion


de la ecuaci
on diferencial parcial de Euler con c0 (y) = 0,
u = G(X, Y ),

(5.3)

donde las nuevas variables X y Y estan dada por


x
X=A
By ,
Y = Y (x, y).

Ademas la variable Y cumple con la siguiente ecuacion


Yxx = Yxy = Yyy = 0.

(5.4)
2

(5.5)

Derivando parcialmente la nueva solucion y usando la ecuacion (5.4) se sigue que,


1

Para el caso en que se tome la ecuaci


on Bvxy + Cvyy = 0, se puede demostrar que la soluci
on a
R
esta ecuaci
on esta dada por v = c 1 (Y )dY + c0 (x), donde, ahora la variable Y esta definida por
x
Y = B
Cy , y la variable X = X(x, y) esta por determinarse.
2
Esta ecuaci
on se cumple ya que las ecuaciones de las caractersticas de la ecuaci
on (2.49) son
lineales en las variables independientes x y y.

5.1 Caso I

85

1
GX + Yx GY ,
A
1
uy = GX Xy + GY Yy = GX + Yy GY ,
B



1
1 1
uxx =
GXX + GXY Yx + Yx
G Y X + G Y Y Yx
A A
A
1
2
= 2 GXX + Yx GXY + Yx2 GY Y + Yxx GY ,
A
A


1
1
1
GXX +
Yy Yx GXY + Yx Yy GY Y
uxy = Yxy GY
AB
A
B


1
1
1
=
GXX +
Yy Yx GXY + Yx Yy GY Y + Yxy GY ,
AB
A
B




1
1
1
GXX + GXY Yy + Yy GY X + GY Y Yy
uyy =
B
B
B
1
2
= 2 GXX Yy GXY + Yy2 GY Y + Yyy GY .
B
B
ux = GX Xx + GY Yx =

Aplicando la ecuaci
on (5.5), estas derivadas resultan ser
ux = A1 GX + Yx GY ,
uy = B1 GX + Yy GY ,
uxx = A12 GXX + A2 Yx GY X + Yx2 GY Y ,
1
uxy = AB
GXX + ( A1 Yy B1 Yx )GXY + Yx Yy GY Y ,
uyy = B12 GXX B2 Yy GXY + Yy2 GY Y ,

(5.6)

sustituyendo las ecuaciones (5.6) en la ecuacion (2.33), se sigue que,




1
2
2
A
GXX + Yx GXY + Yx GY Y
A2
A




1
1
1
+B
GXX +
Yy Yx GXY + Yx Yy GY Y
AB
A
B


1
2
2
+C
GXX Yy GXY + Yy GY Y = 0.
B2
B
Agrupando terminos semejantes, obtenemos:


ABYx + (B 2 2AC)Yy
C
GXX +
GXY + (AYx2 + BYx Yy + CYy2 )GY Y = 0,
B2
AB
AC
GXX + (ABYx + (B 2 2AC)Yy )GXY + AB(AYx2 + BYx Yy + CYy2 )GY Y = 0.
B
(5.7)
Introduciendo la siguientes cantidades
= ABYx + (B 2 2AC)Yy ,

(5.8)

86

Aplicaci
on del M
etodo de Harper para la Ecuaci
on de Euler

y suponiendo que la variable Y cumple con la EDP,


AYx2 + BYx Yy + CYy2 = 0,

(5.9)

tenemos que la ecuaci


on (5.7) se escribe como
AC
GXX + GXY = 0.
B

(5.10)

Por otro lado, para poder determinar la variable Y , debemos encontrar la solucion
de la ecuaci
on diferencial parcial no lineal (5.9). Para utilizar el Metodo de Charpit(
vease apendice B ), consideremos la siguiente funcion
F (p, q) = Ap2 + Bpq + Cq 2 = 0,

(5.11)

donde p = Yx , q = Yy . Las ecuaciones caractersticas asociadas con esta ecuacion estan


dadas por
dy
dp
dq
dY
dx
=
=
=
=
.
2Ap + Bq
2Cq + Bp
0
0
p(2Ap + Bq) + q(2Cq + Bp)
De esta ecuaci
on se sigue que dq = 0, de aqu resulta que q = a = const. y utilizando
la ecuacion (5.11), obtenemos
p=

Ba

B 2 a2 4ACa2
B B 2 4AC
=
a.
2A
2A

Ahora, utilizando la ecuaci


on dY = pdx + qdy, se sigue que

B B 2 4AC
dY =
adx + ady,
2A
integrando esta ecuaci
on y tomando a = 1, tenemos que la variable Y esta dada por

B B 2 4AC
Y =
x + y.
(5.12)
2A
Introduciendo las siguientes cantidades

B B 2 4AC
,
i =
2A

(5.13)

la ecuacion (5.12) se escribe como


Y = i x + y,

(5.14)

donde i = 1, 2. A continuaci
on, analicemos los casos que corresponden a las ecuaciones
del tipo hiperb
olico, parab
olico y elptico para la ecuacion (5.14).

5.1 Caso I

5.1.1.

87

Caso hiperb
olico

Para este caso, tenemos que B 2 4AC > 0 y las cantidades i son distintas y reales.
Luego, con estos valores, las cantidades i , estan dadas por la siguiente ecuacion
i = ABYx + (B 2 2AC)Yy = ABi + B 2 2AC.

(5.15)

As que, para el caso hiperb


olico, a partir de la ecuacion (5.10) obtenemos la si3
guiente EDP
AC
GXX + i GXY = 0.
(5.16)
B
Ahora, repetimos el procedimiento una vez mas. Entonces, proponemos la solucion
de la ecuaci
on (5.16) de la forma
G = H(Z, W ),

(5.17)

donde las nuevas variables Z, W estan definidas de la siguiente forma


BX
Y
,
AC
i
W = W (X, Y ).
Z=

(5.18)

En forma an
aloga a la ecuaci
on (5.5), la nueva variable W cumple con la condicion
WXX = WXY = WY Y = 0.

(5.19)

Utilizando las ecuaciones (5.6) y la ecuacion (5.19) (con los coeficientes


tenemos que las derivadas parciales de la nueva solucion son

AC
B

B
HZ + WX HW ,
AC
1
GY = HZ + WY HW ,
i


B 2
2B
GXX =
HZZ +
WX HZW + WX2 HW W ,
AC
AC
B
B
1
GXY =
HZZ +
WY HZW WX HW Z + WX WY HW W ,
ACi
AC
i

y i ),

GX =

(5.20)

sustituyendo las ecuaciones (5.20) en la ecuacion (5.16), se sigue que


AC
B

B
AC

2
HZZ

2B
+
WX HZW + WX2 HW W
AC

!
+



B
B
1
i
HZZ +
WY HZW WX HW Z + WX WY HW W = 0,
ACi
AC
i
3

Para esta ecuaci


o
n se puede tener una soluci
on haciendo el cambio de variable w = GX , la cual
Y
esta dada por w = 2 BX

.
Para
obtener
una
soluci
on explcita es necesario tener una condici
on
AC
i
inicial dada.

88

Aplicaci
on del M
etodo de Harper para la Ecuaci
on de Euler

reduciendo terminos semejantes, se tiene






B
Bi
B
HZZ + 2WX +

W Y W X HW Z
AC
AC
AC


AC 2
+
W + i WX WY HW W = 0,
B X




Bi
AC 2
WX +
WY HW Z +
W + i WX WY HW W = 0.
AC
B X

(5.21)

Observemos que la ecuaci


on (5.21) se puede escribir de una manera mas sencilla
HZW = 0,

(5.22)

si es que se cumplen las siguientes condiciones,


AC 2
W + i WX WY = 0,
B X
Bi
WX +
WY = 1.
AC

(5.23)

La soluci
on de la ecuaci
on (5.22) esta dada por HZ = c1 (Z), integrando esta ecuacion, tenemos que
Z
H(Z, W ) = c1 (Z)dZ + (W ) = (Z) + (W ),
(5.24)
R
donde (Z) = c1 (Z)dZ. Luego, utilizando las ecuaciones (5.3) y (5.17), obtenemos la
solucion de la ecuaci
on de Euler para el caso hiperbolico, la cual esta dada por
u(x, y) = (Z(X(x, y), Y (x, y))) + (W (X(x, y), Y (x, y))),

(5.25)

donde la nueva variable W (X, Y ) esta definida por la ecuacion (5.23). Para obtener la
variable W resolvemos la ecuaci
on (5.23), dicha ecuacion la podemos escribir como
B AC
(
WX + i WY ) = 1,
AC B
AC
WX (
WX + i WY ) = 0,
B
de estas ecuaciones concluimos que WX = 0. Luego, obtenemos la nueva solucion
Bi
AC WY = 1. Finalmente, se obtiene que la variable W esta dada por
W =

AC
Y.
Bi

(5.26)

Esta nueva soluci


on nos permite dar un nuevo metodo para encontrar una solucion
de la ecuaci
on de Euler sin necesidad de reducirla a su forma canonica. Este nuevo
metodo se muestra en los siguientes ejemplos.

5.1 Caso I

89

Ejemplo 5.1.1. Resolver la siguiente ecuaci


on diferencial parcial
2uxx + uxy uyy = 0.
Soluci
on. Para este caso, la ecuacion cuadratica asociada a esta ecuacion es 2i2 +
i 1 = 0, cuyas raices est
an dadas por
i =

1 4(1)2
1 9
1 3
=
=
.
2(2)
4
4

Luego, la ecuaci
on dada es de tipo hiperbolico. Por lo tanto, proponemos la solucion
u = H(Z, W ), donde las nuevas variables Z y W estan dadas por
1
1
Z = X + Y,
2
i
2
W = Y,
i
donde i esta dada por
i = 2(1)i + 12 2(2)(1) = 2i + 5,
con esta nueva soluci
on obtenemos la ecuacion HZW = 0, cuya solucion esta dada por
u = H(Z(X, Y ), W (X, Y )) = (Z(X, Y )) + (W (X, Y )),
donde,
1
X = x y,
2
Y = i x + y.
Luego, la soluci
on para 1 = 1, resulta ser (1 = 2 + 5 = 3)


1
1
1 1
1
x y + (x + y)
Z= X+ Y =
2
i
2 2
3




1 1
1 1
1
1
=

x+

y = x y,
4 3
3 2
12
6
2
2
2
W = (x + y) = x y,
3
3
3

1
1
2
2
u1 (x, y) = 1 x y + 1
x y .
12
6
3
3

90

Aplicaci
on del M
etodo de Harper para la Ecuaci
on de Euler

La solucion para 2 = 12 , esta dada por (2 = 2

1
2

+ 5 = 1 + 5 = 6)







 
1
1 1
1
1
1
1 1
x+y =
x+
y
xy +
+

Z=
2 2
6
2
4 12
3 2
4
2
2
1
= x y = x y,
12
6
3
3
2
2 1
1
1
W = Y =
x + y = x y,
6
6 2
6
3




1
1
1
2
x y + 2 x y .
u2 (x, y) = 2
3
3
6
3

Ejemplo 5.1.2. Resolver la siguiente EDP
uxx + 2uxy 3uyy = 0
que satisface las siguientes condiciones iniciales
u(x, 0) = 3x2 ,

uy (x, 0) = 0.

Soluci
on. Para este caso, la ecuacion caudratica asociada a esta ecuacion es i2 +
2i 3 = 0, cuyas races est
an dadas por
i =

4 + 12

= 1 2.

Luego, la ecuaci
on dada es de tipo hiperbolico. Por lo tanto, proponemos la solucion
u = H(Z, W ), donde las nuevas variables Z y W estan dadas por
2
1
Z = X Y,
3
i
3
W =
Y,
2i
donde i est
a dada por i = (1)(2)i + 4 (2)(1)(3) = 2i + 10. Con esta nueva
solucion obtenemos la ecuaci
on HZW = 0, cuya solucion esta dada por
u(x, y) = H(Z(X, Y ), W (X, Y )) = (Z(X, Y )) + (W (X, Y )),
donde,
1
X = x y,
2
Y = i x + y.

5.1 Caso I

91

Luego, la soluci
on para 1 = 1, 1 = 12, resulta ser
1
Z = (3x y),
4
1
W = (x + y),
8
1
1
u1 (x, y) = ( (3x y)) + ( (x + y)).
4
8
La soluci
on para 2 = 3, 2 = 4, esta dada por
1
(x + y),
12
3
W = (3x y),
8
3
1
u2 (x, y) = ( (x + y)) + ( (3x y)).
12
8
Z=

Aplicando las condiciones iniciales a u1 (x, y), obtenemos el siguiente sistema de


ecuaciones
60 (6z) + 0 (z) = 384z,
20 (6z) 0 (z) = 0,
donde z = 81 x, de este sistema de ecuaciones obtenemos que
(z) = 4z 2 ,
(z) = 48z 2 ,
sustituyendo en u1 , llegamos a que la solucion esta dada por
u1 (x, y) = 3x2 + y 2 .
Aplicando las condiciones iniciales a u2 (x, y), obtenemos el siguiente sistema de
ecuaciones
27 0 27
( z) + 0 (z) = 864z,
2
2
3 0 27
1
( z) + 0 (z) = 0,
8
2
12
donde z =

1
12 x,

al resolver este sistema de ecuaciones, obtenemos que


16 2
z ,
9
(z) = 108z 2 ,

(z) =

sustituyendo en u2 , llegamos a que la solucion esta dada por


u2 (x, y) = 3x2 + y 2 .


92

Aplicaci
on del M
etodo de Harper para la Ecuaci
on de Euler

5.1.2.

Caso parab
olico

Para este caso se cumple que B 2 4AC = 0 y los valores de i son iguales y distintos
de cero, dados por

B B 2 4AC
B
=
= .
2A
2A
Siguiendo con el procedimiento de Harper, proponemos la solucion de la forma
u = G(X, Y ); donde las nuevas variables X y Y estan dadas por la ecuacion (5.4) y
(5.14), es decir
X = A1 x B1 y,
B
x + y.
Y = 2A

(5.27)

As, la ecuaci
on (2.33) se escribe como
AC
GXX + GXY = 0.
B
Para este caso, tenemos que
= ABYx + (B 2 2AC)Yy
B
= AB( ) + B 2 2AC
2A
B2
=
+ B 2 2AC
2
B2
=
2AC = 0,
2
en esta ecuaci
on se uso el hecho de que B 2 = 4AC. As que, para el caso parabolico,
tenemos la siguiente ecuaci
on diferencial parcial
GXX = 0.

(5.28)

Cuya soluci
on est
a dada por
Z
G=

(Y )dX.

(5.29)

)
Por otro lado, de la ecuaci
on (5.27) se sigue que x = 2A(yY
; sustituyendo este
B
valor en la ecuaci
on de (5.27), obtenemos


x
y
1 2A(y Y )
y
X=
=

A B
A
B
B
2
2
y
1
2
= Y + y
= y Y,
B
B
B
B
B

5.1 Caso I

93

con esta ecuaci


on, la ecuaci
on (5.29) se escribe como


Z
1
2
G = (Y )d
y Y
B
B
Z
Z
1
2
=
(Y )dy
(Y )dY
B
B
Z
Z
1
2
= (Y ) dy
(Y )dY.
B
B
Finalmente, obtenemos la solucion de la ecuacion de Euler para el caso parabolico,
la cual est
a dada por
1
2
u = y(Y ) (Y ),
(5.30)
B
B
R
donde, para este caso (Y ) = (Y )dY .
Ejemplo 5.1.3. Resolver la siguiente ecuaci
on diferencial parcial
uxx 2uxy + uyy = 0
Soluci
on. Para este caso, consideremos la ecuacion i2 2i + 1 = 0, cuyas raices
estan dadas por
p

2 (2)2 4(1)(1)
2 44
=
= 1,
i =
2
2
luego, la ecuaci
on es de tipo parabolico. Proponemos, entonces la solucion de la forma
u = G(X, Y ), donde las nuevas variables estan dadas por
1
X = x + y, Y = x + y,
2
con esta soluci
on, la ecuaci
on original se escribe como GXX = 0, cuya solucion esta
dada por GX = (Y ), integrando esta ecuacion se sigue que

 Z


1
1
G = (Y )dY = (Y )d Y y + y = (Y )d Y
2
2
Z
Z
Z
Z
1
1
= (Y )dY
(Y )dy = (Y )dY (Y ) dy.
2
2
Z

Finalmente, la soluci
on de la ecuacion dada, resulta ser
y
u(x, y) = (x + y) (x + y),
2
R
donde (x + y) = (x + y)d(x + y).
Ejemplo 5.1.4. Resolver la siguiente ecuaci
on diferencial parcial
uxx + 2uxy + uyy = 0,
con condiciones iniciales
u(x, 0) = 0,

uy (x, 0) = cos x.

94

Aplicaci
on del M
etodo de Harper para la Ecuaci
on de Euler

Soluci
on. Para este caso, consideremos la ecuacion i2 + 2i + 1 = 0, cuyas raices
estan dadas por
p
2 4 4(1)(1)
i =
= 1,
2
luego, la ecuaci
on es de tipo parab
olico. Proponemos, entonces la solucion de la forma
u = G(X, Y ), donde las nuevas variables estan dadas por
1
X = x y,
2
Y = x + y,
con esta soluci
on, la ecuaci
on original se escribe como GXX = 0, cuya solucion esta dada
por


Z
Z
1
G = (Y )dX = (Y )d y Y
2
Z
Z
1
= (Y )dY + (Y ) dy
2
y
= (Y ) (Y )
2
y
= (x + y) (x + y).
2
Aplicando las condiciones iniciales, obtenemos que
(x) = 0,
(x) = 2 cos x,
sustituyendo en (x + y) 21 (x + y), obtenemos que la solucion es
u(x, y) = y cos(x y).


5.1.3.

Caso elptico

Finalmente, para este caso se cumple que B 2 4AC < 0. Esto implica que los
coeficientes i son n
umeros complejos, los cuales estan dados por

B i 4AC B 2
.
i =
2A
Con estos valores y utilizando la ecuacion (5.14), la variable Y esta dada por



B
4AC B 2
Yi = x + y i
x,
2A
2A

5.1 Caso I

95

y la variable X, como antes, esta dada por X = A1 x B1 y. En forma analoga, proponemos


la soluci
on de la forma u = G(X, Y ), luego la ecuacion (2.33) se reduce a la ecuacion
(5.16), es decir, obtenemos la ecuacion
AC
GXX + i GXY = 0,
B

(5.31)

donde el coeficiente i esta dado por la ecuacion (5.8), la cual se escribe como
i = ABYx + (B 2 2AC)Yy
p
1
= (B 2 4AC iB 4AC B 2 ).
2

(5.32)

Repetimos el procedimiento nuevamente, y entonces proponemos la siguiente solucion G = H(Z, W ), donde, en forma analoga a la ecuacion (5.18), las variables Z y W
estan dadas por
B
Y
X .
AC
i
W = W (X, Y ).
Z=

(5.33)

As, con esta soluci


on se obtiene la ecuacion HZW = 0, cuya solucion esta dada por
la ecuaci
on (5.24) y la variable W esta dada por la ecuacion (5.23)
AC 2
W + i WX WY = 0,
B X
Bi
WX +
WY = 1,
AC

(5.34)
(5.35)

de la ecuaci
on (5.34), obtenemos que


AC
Bi
WX +
WY WX = 0,
B
AC
sustituyendo la ecuaci
on (5.35) es esta u
ltima ecuacion, se sigue que
WX = 0,
de donde

1
,
B3 i
integrando esta u
ltima ecuaci
on con respecto de Y , llegamos a que la variable W esta
dada por la siguiente ecuaci
on
1
W = 3 i Y.
(5.36)
B
As, obtenemos la soluci
on de la ecuacion de Euler para el caso elptico, la cual
esta dada por


1
u(x, y) = (Z(X(x, y), Y (x, y))) + 3 i Y (x, y) .
(5.37)
B
WY =

96

Aplicaci
on del M
etodo de Harper para la Ecuaci
on de Euler

Ejemplo 5.1.5. Resolver la siguiente ecuaci


on diferencial parcial
uxx + uxy + uyy = 0.
Soluci
on. Para este caso, consideremos la ecuacion cuadratica i2 + i + 1 = 0,
cuyas races est
an dadas por
p

1 1 4(1)(1)
1 i 3
i =
=
,
2
2
luego la ecuaci
on es de tipo elptica. Proponemos, entonces la solucion de la forma
u = H(Z, W ), donde las nuevas variables estan dadas por
Z=X

Yi
,
i

W = i Yi ,

donde i est
a dado por i = 12 (3 i 3). Con esta nueva solucion, obtenemos la
ecuacion HZW = 0, cuya soluci
on esta dada por
u(x, y) = (Z(X, Y )) + (W (X, Y )),
donde
X = x y,

1
3
Yi = x + y i
x.
2
2

Luego, la soluci
on para Y1 = 12 x + y + i

3
2 x

con 1 = 12 (3 i 3), resulta ser

1
Z = (3(x y) + 3i(x + y)),
6

1
W = (3(x y) + 3i(x + y)),
2




1
1
u(x, y)1 =
(3(x y) + 3i(x + y)) +
(3(x y) + 3i(x + y)) .
6
2
Y la soluci
on para Y2 = 12 x + y i

3
2 x

con 2 = 12 (3 + i 3), esta dado por

1
Z = (9(x y) + 3i(x + y)),
6

1
W = (3(x y) + 3i(x + y)),
2




1
1
u(x, y)2 =
(9(x y) 3i(x + y)) +
(3(x y) + 3i(x + y)) .
6
2


5.1 Caso I

97

Ejemplo 5.1.6. Resolver la ecuaci


on diferencial parcial
uxx + 2uxy + 2uyy = 0,
con las condiciones iniciales dadas por
u(x, 0) = 0,

uy (x, 0) = 4e2x .

Soluci
on. Consideremos la ecuacion cuadratica i2 + 2i + 2 = 0, cuyas races estan
dadas por
p
2 4 4(1)(2)
= 1 i,
i =
2
luego la ecuaci
on es de tipo elptica. Proponemos, entonces la solucion de la forma
u = H(Z, W ), donde las nuevas variables estan dadas por
Z=X

Yi
,
i

1
W = i Yi ,
8
donde i est
a dado por i = 2 2i. Con esta nueva solucion, obtenemos la ecuacion
HZW = 0, cuya soluci
on est
a dada por
u(x, y) = (Z(X, Y )) + (W (X, Y )),
donde
1
X = x y,
2
Yi = x + y ix.
Luego, la soluci
on para Y1 = x + y + ix con 1 = 2 + 2i, resulta ser
1
Z = (2x y + iy),
4
1
W = (2x + y + iy),
4



1
1
u1 (x, y) =
(2x y + iy) +
(2x y + ix) .
4
4
Y la soluci
on para Y2 = x + y ix con 2 = 2 2i, esta dada por
1
Z = (2x y iy),
4
1
W = (2x + y iy),
4



1
1
u2 (x, y) =
(2x y iy) +
(2x + y iy) .
4
4

98

Aplicaci
on del M
etodo de Harper para la Ecuaci
on de Euler

Aplicando las condiciones iniciales a u1 (x, y), obtenemos el siguiente sistema de


ecuaciones
 


1
0 1
0

x x = 0,
2
2
 


1
1
(1 i)0
x + (1 + i)0 x = 16e2x ,
2
2
de este sistema de ecuaciones obtenemos que
(x) = 2ie4x ,
(x) = 2ie4x ,
sustituyendo en u1 , llegamos a que la solucion esta dada por
u(x, y) = 4ey2x sin y.
Ahora, aplicando las condiciones iniciales a u2 (x, y), obtenemos el siguiente sistema
de ecuaciones


 
1
0
0 1
x x = 0,

2
2
 


1
1
0
(1 + i)
x + (1 i) x = 16e2x ,
2
2
de este sistema de ecuaciones obtenemos que
(x) = 2ie4x ,
(x) = 2ie4x ,
sustituyendo estas cantidades en u2 , llegamos a que la solucion esta dada por
u(x, y) = 4ey2x sin y.


5.2.

Caso II

Ahora, consideremos el caso cuando A 6= 0, B 6= 0 y C = 0. Luego, la ecuacion


(2.33) dada por Auxx + Buxy + Cuyy = 0 se escribe como
Auxx + Buxy = 0.

(5.38)

Esta ecuaci
on es an
aloga a la ecuacion (5.16). Utilizando la ecuacion (5.18) para
este caso, las variables X y Y est
an dadas por
1
1
x y,
A
B
Y = Y (x, y),

X=

5.3 Caso III

99

donde la ecuaci
on cumple con la ecuacion (5.19). Utilizando la ecuacion (5.26), la
ecuaci
on (5.38) se escribe como


B
Yx + Yy HXY + (AYx2 + BYx Yy )HY Y = 0,
A
donde como antes, suponemos que la solucion esta dada por H = H(X, Y ). Esta ecuacion se escribe como HXY = 0, si es que se cumplen las condiciones
B
Yy = 1,
A
AYx2 + BYx Yy = 0.
Yx +

En forma an
aloga a la ecuacion (5.16), la solucion de la ecuacion (5.38) esta dada
por
u(x, y) = (X(x, y)) + (Y (x, y)),

(5.39)

donde las variables X , Y est


an dadas por
1
1
x y,
A
B
A
Y = y.
B

X=

5.3.

(5.40)

Caso III

Ahora, supongamos que se cumple que A = 0, B 6= 0 y C 6= 0. Con esto la ecuacion


(2.33) se escribe como
Buxy + Cuyy = 0.
(5.41)
Esta ecuaci
on es an
aloga a la ecuacion (5.16). Utilizando la ecuacion (5.18), para
este caso las variables X y Y est
an dadas por
1
1
x y,
B
C
Y = Y (x, y),

X=

donde la ecuaci
on cumple con la ecuacion (5.19). Utilizando, la ecuacion (5.26), la
ecuaci
on (5.41) se escribe como


B
Yx + Yy HXY + (AYx2 + BYx Yy )HY Y = 0,
A
donde, como antes, suponemos que la solucion esta dada por H = H(X, Y ). Esta
ecuaci
on se escribe como HXY = 0, si es que se cumplen las condiciones
B
Yy = 1,
A
AYx2 + BYx Wy = 0.
Yx +

100

Aplicaci
on del M
etodo de Harper para la Ecuaci
on de Euler

En forma an
aloga a la ecuaci
on (5.16), la solucion de la ecuacion (5.41) esta dada
por
u(x, y) = (X(x, y)) + (Y (x, y)),

(5.42)

donde las variables X , Y est


an dadas por
1
1
x y,
B
C
B
Y = y.
C

X=

5.4.

(5.43)

Caso IV

Supongamos que se cumple que A = 0, B 6= 0 y C = 0, la ecuacion (2.33) ya esta en


forma can
onica y para el caso hiperbolico se escribe como
uxy = 0.

(5.44)

Esta coincide con la ecuaci


on (5.22) con A = 0 y C = 0, cuya solucion esta dada
por
u(x, y) = (x) + (y).

5.5.

(5.45)

Caso V

Ahora, supongamos que se cumple que A 6= 0, B = 0 y C 6= 0. Con esto la ecuacion


(2.33) se escribe como
Auxx + Cuyy = 0,
(5.46)
mejor conocida como la ecuaci
on de Laplace. Para este caso los coeficientes i son
n
umeros complejos, los cuales est
an dados por

AC
i = i
.
A
Con estos valores y utilizando la ecuacion (5.14), la variable X y Y estan dadas por

AC
X =y+i
x,
A
AC
Y =yi
x.
A
Proponemos la soluci
on de la forma u = G(X, Y ), luego la ecuacion (5.46) se reduce
a la siguiente ecuaci
on
GXY = 0,
(5.47)
integrando dos veces esta ecuaci
on, la solucion esta dada por
u(x, y) = (X) + (Y ).

(5.48)

Captulo 6

Resultados Analticos y
Numericos
En este captulo se presentan los resultados obtenidos mediante los diferentes metodos que se han presentado en los captulos 2 y 3, a fin de comparar con las soluciones
obtenidas en el captulo 5. Ademas se ilustrara el metodo de descomposicion de Adomian con los ejemplos utilizados en el transcurso de este trabajo de tesis.
Para realizar esto, tomaremos en cuenta los diferentes ejemplos de EDPs de segundo grado con condiciones iniciales presentados a lo largo de esta tesis.

6.1.

Ecuaci
on hiperb
olica

Consideremos a continuaci
on la EDP de Euler de segundo orden para el caso hiperbolico, cuyas soluciones analticas mediante el metodo de las variables canonicas,
Stephenson-Radmore y Harper, respectivamente estan dadas por
u(x, y) = (y 1 x) + (y 2 x),




1
A
1
A
u(x, y) =
x+
y +
x+
y ,
1 2
1 (1 2 )
1 2
2 (1 2 )
u(x, y) = (Z) + (W ),
donde i para la ecuaci
on (6.1) esta dada por i =

B B 2 4AC
,
2

B B 2 4AC
,
2A

(6.1)
(6.2)
(6.3)

y para la ecuacion

(6.2) est
a dada por i =
para la ecuacion (6.3), las variables Z y W ,
estan dadas por las ecuaciones (5.18) y (5.26).
Ahora, tomemos el ejemplo (1.2.2) de la pagina 15 y resolvamos por medio del
metodo de descomposici
on de Adomian, el cual es un metodo analtico. De acuerdo
a las condiciones iniciales, podemos reescribir a la ecuacion del ejemplo (1.2.2) de la
101

102

Resultados Analticos y Num


ericos

siguiente forma
1
uyy = (uxx + 2uxy ).
3
Usando el operador Lyy =

2
,
y 2

(6.4)

podemos escribir la ecuacion anterior como

1
Lyy u = (uxx + 2uxy ).
(6.5)
3
RyRy
Aplicando el operador inverso L1
on
yy = 0 0 (.)dydy a ambos lados de la ecuaci
(6.5), obtenemos
Z Z
1 y y
(uxx + 2uxy )dydy,
u = u(x, 0) + uy (x, 0)y +
3 0 0
y la soluci
on por el metodo de descomposicion de Adomian consiste en el siguiente
esquema
u0 = 3x2 ,
Z Z
1 y y
un+1 =
((un )xx + 2(un )xy )dydy,
3 0 0
es decir,
u0 = 3x2 ,
u1 = y 2 ,
u2 = 0,
..
.
un = 0,
por lo que la soluci
on del ejemplo (1.2.2) por medio de este metodo resulta ser
u(x, y) = 3x2 + y 2 .

(6.6)


Esta soluci
on coincide con la aplicacion de las ecuaciones (6.1), (6.2) y (6.3).
Por lo anterior, podemos observar que las soluciones mediante los distintos metodos
analticos para el caso hiperb
olico son las mismas, para verificar esto, haremos una
comparaci
on para algunos valores dados de los resultados obtenidos, las cuales se pueden
observar en la Tabla 6.1
Ahora, veamos los resultados que se obtuvieron mediante los metodos numericos
presentados en el captulo 4.
Para esto, tomemos valores dados, los cuales se presentan en las tablas (6.2) y
(6.3), los resultados obtenidos del ejemplo (1.2.2) por el metodo de diferencias finitas y
algoritmos geneticos, as como la comparacion con los resultados analticos obtenidos.

6.1 Ecuaci
on hiperb
olica
x
0.1
0.3
0.5
0.7
0.9

y
0.00
0.01
0.02
0.03
0.04

Metodo Adomian
0.0300
0.2701
0.7504
1.4709
2.4316

103
Stephenson- Radmore
0.0300
0.2701
0.7504
1.4709
2.4316

Aplicacion de Harper
0.0300
0.2701
0.7504
1.4709
2.4316

Tabla 6.1: Soluci


on de u(x, y) para diferentes valores de x y y.

x
0.3
0.3
0.4
0.4
0.5

y
0.1
0.3
0.2
0.5
0.6

Aplicaci
on de Harper
0.2800
0.3600
0.5200
0.7300
1.1100

Diferencias finitas
0.2800
0.3556
0.5200
0.7244
1.1078

Error relativo
0.0000
0.0122
0.0000
0.0076
0.0019

Tabla 6.2: Soluci


on de u(x, y) para diferentes valores de x y y.

Se puede observar de la tabla anterior, que los resultados obtenidos mediante este
metodo son aceptables, ya que el error relativo para los puntos dados es peque
no.
Tambien se puede decir que, al elegir otros valores se sigue conservando un error
relativamente peque
no, como tambien si se escogiera una gran variedad de puntos, por
lo que la eficiencia del algoritmo empleado para el ejemplo dado es bueno.
En la siguiente tabla, veamos ahora el resultado obtenido mediante algoritmos
geneticos con los mismos datos usados para el de diferencias finitas.
x
0.3
0.3
0.4
0.4
0.5

y
0.1
0.3
0.2
0.5
0.6

Aplicaci
on de Harper
0.2800
0.3600
0.5200
0.7300
1.1100

Algoritmo genetico
0.2820
0.3601
0.5203
0.7199
1.0339

Error relativo
0.0007
0.0002
0.0005
0.0138
0.0685

Tabla 6.3: Soluci


on de u(x, y) para diferentes valores de x y y.

De la tabla anterior, ahora podemos ver que el error relativo obtenido mediante
el metodo de algoritmos geneticos es aceptable, con esto tenemos que para los valores
tomados el algoritmo empleado nos da resultados favorables.
Cabe mencionar que, al tomar otros valores el algoritmo sigue manteniendo un error
peque
no teniendo as un algoritmo eficiente para el ejemplo.

104

Resultados Analticos y Num


ericos

Para una mejor visualizaci


on de los resultados obtenidos, a continuacion se presentan las gr
aficas obtenidas por los diferentes metodos numericos as como la del metodo
analtico.

Figura 6.1: Soluci


on de la ecuacion hiperbolica metodo tradicional.

Figura 6.2: Soluci


on de la ecuacion hiperbolica metodo algoritmos geneticos.

Tenemos que tomar en cuenta que el metodo de descomposicion de Adomian no


solo obtiene la aproximaci
on de la solucion considerando una u
nica condicion, por lo
que a continuaci
on se presentan algunos ejemplos con diferentes condiciones iniciales y
de frontera.
Ejemplo 6.1.1. Resolver la ecuaci
on diferencial parcial
3uxx + 10uxy + 3uyy = 0,
con las condiciones iniciales dadas por
u(0, y) = ey ,

ux (0, y) = y 2 .

Soluci
on. De acuerdo a las condiciones iniciales, podemos reescribir a la ecuacion
dada de la siguiente forma
1
uxx = (10uxy + 3uyy ).
3
Usando el operador Lxx =

2
,
x2

(6.7)

podemos escribir la ecuacion anterior como

1
Lxx u = (10uxy + 3uyy ).
3

(6.8)

6.1 Ecuaci
on hiperb
olica

105

RxRx
Aplicando el operador inverso L1
on,
xx = 0 0 (.)dxdx a ambos lados de la ecuaci
obtenemos
Z Z
1 x x
u = u(x, 0) + ux (x, 0)x
(10uxx + 3uxy )dxdx,
3 0 0
y la soluci
on por el metodo de descomposicion de Adomian consiste en el siguiente
esquema
u0 = ey + xy 2 ,
Z Z
1 x x
un+1 =
(10(un )xx + 3(un )xy )dxdx,
3 0 0
es decir,
u0 = ey + xy 2 ,
u1 = x2 y,
x2 (x + 10y)
,
3
20x2 (x + 5y)
u3 =
,
9
100x2 (3x + 10y)
u4 =
,
27
u2 =

2000x2 (2x + 5y)


,
81
50000x2 (x + 2y)
u6 =
,
243
..
.

u5 =

por lo que la aproximaci


on sexta de la ecuacion dada resulta ser
u(x, y) = ey + xy 2 +


2000(2x + 5y) 100(3x + 10y) 50000(x + 2y) 20(x + 5y) x + 10y
+
+

+
.
x2 y
81
27
243
9
3

Ahora, para el ejemplo anterior veamos los resultados obtenidos mediante los metodos numericos presentados en el captulo 4.
Considerando valores dados, en las tablas (6.4) y (6.5), se presentan los resultados
obtenidos del ejemplo (6.1.1) por el metodo de diferencias finitas y algoritmos geneticos,
as como la comparaci
on con los resultados analticos obtenidos.
Para este ejemplo, se puede apreciar que para los valores dados, el error relativo
se sigue conservando peque
no, al igual que cualquier otro valor que se le sea asignado
el error ser
a nuevamente peque
no, con esto el algoritmo para este ejemplo tambien es
favorable.

106

Resultados Analticos y Num


ericos
x
0.0
0.2
0.3
0.4
0.5

y
0.0
0.1
0.1
0.5
0.6

Aplicaci
on de Harper
1.0000
1.1029
1.1328
1.6102
1.7857

Diferencias finitas
1.0000
1.1988
1.2895
1.6944
1.6078

Error relativo
0.0000
0.0869
0.1383
0.0522
0.0996

Tabla 6.4: Soluci


on de u(x, y) para diferentes valores de x y y.

x
0.0
0.2
0.3
0.4
0.5

y
0.0
0.1
0.1
0.5
0.6

Aplicaci
on de Harper
1.0000
1.1029
1.1328
1.6102
1.7857

Algoritmo genetico
1.0000
1.1075
1.1086
1.7497
1.8205

Error relativo
0.0000
0.0041
0.0213
0.0866
0.0194

Tabla 6.5: Soluci


on de u(x, y) para diferentes valores de x y y.

Ahora veamos en la siguiente tabla el resultado obtenido mediante algoritmos geneticos con los mismos datos usados para el de diferencias finitas.
De los datos obtenidos, mediante el metodo de algoritmos geneticos podemos ver
que el algoritmo empleado es eficiente ya que esto lo podemos observar a partir del
error relativo obtenido y este error como se puede apreciar, es peque
no. Ademas, al
ocupar valores distintos a los empleados el algoritmo arroja resultados aceptables, pues
el error sigue siendo mnimo.
Ahora, visualicemos los resultados obtenidos presentados en las graficas obtenidas
por los diferentes metodos numericos as como la del metodo analtico.

Figura 6.3: Soluci


on de la ecuacion hiperbolica metodo tradicional.

6.1 Ecuaci
on hiperb
olica

107

Figura 6.4: Soluci


on de la ecuacion hiperbolica metodo algoritmos geneticos.

Ejemplo 6.1.2. Resolver la ecuaci


on diferencial parcial
uxx 3uxy + 2uyy = 0,
con las condiciones iniciales dadas por
u(x, 0) = x2 ,

u(0, y) = 0,

u(1, y) = 1.

Soluci
on. De acuerdo a las condiciones iniciales, podemos reescribir a la ecuacion
dada de la siguiente forma
1
uxy = (uxx + 2uyy ).
(6.9)
3
Usando el operador Lxy =

2
xy ,

podemos escribir la ecuacion anterior como

1
Lxy u = (uxx + 2uyy ).
(6.10)
3
RyRx
on,
Aplicando el operador inverso L1
xy = 0 0 (.)dxdy a ambos lados de la ecuaci
obtenemos
Z Z
1 y x
u = u(x, 0) + u(0, y) u(0, 0) +
(uxx + 2uyy )dxdy,
3 0 0
y la soluci
on por el metodo de descomposicion de Adomian consiste en el siguiente
esquema
u0 = x2 ,
Z Z
1 y x
un+1 =
((un )xx + 2(un )yy )dxdy,
3 0 0
es decir,
u0 = x2 ,
2xy
u1 =
,
3
u2 = 0,
..
.
un = 0,

108

Resultados Analticos y Num


ericos

por lo que la soluci


on de la ecuaci
on esta dada por
2yx
.
3

u(x, y) = x2 +

(6.11)


6.2.

Ecuaci
on parab
olica

Para el caso parab


olico, consideremos la EDP de Euler de segundo orden, cuyas soluciones analticas mediante el metodo de las variables canonicas, Stephenson-Radmore
y Harper, respectivamente est
an dadas por
u(x, y) = (y x) + y(y x),

(6.12)

u(x, y) = () + (),
2
1
u(x, y) = y(Y ) (Y ),
B
B

(6.13)
(6.14)

donde para la ecuaci


on (6.13) la variable esta dado por la ecuacion (2.67) y para la
ecuacion (6.14) la variable Y est
a definida por la ecuacion (5.27).
Tomemos ahora, el ejemplo (1.2.4) de la pagina 18 y resolvamoslo por medio del
metodo de descomposici
on de Adomian. De acuerdo a las condiciones iniciales, podemos
reescribir a la ecuaci
on del ejemplo (1.2.4) de la siguiente forma
uyy = (uxx + 2uxy ).
Usando el operador Lyy =

2
,
y 2

(6.15)

podemos escribir la ecuacion anterior como

Lyy u = (uxx + 2uxy ).


Aplicando el operador inverso L1
yy =
(6.16), obtenemos

RyRy
0

(6.16)

(.)dydy a ambos lados de la ecuacion

u = u(x, 0) + uy (x, 0)y

(uxx + 2uxy )dydy,


0

y la soluci
on por el metodo de descomposicion de Adomian consiste en el siguiente
esquema
u0 = y cos x,
Z yZ y
un+1 =
((un )xx + 2(un )xy )dydy,
0

6.2 Ecuaci
on parab
olica

109

es decir,
u0 = y cos x,
y 3 cos x
+ y 2 sin x,
6


2y 3 cos x
y cos x
4 sin x

=y
+
,
6
120
3



cosx
y 4 sin x
sin x y cos x
= y 5

y
+
,
10
5!
7!
3




2y 5 cos x
cos x
sin x y cos x
6 2 sin x
,
=
y
+y
y
+
15
45
210
7!
9!





sin x
cos x
sin x y cos x
2y 6 sin x
7 cos x
=y
y
+y
y
+
+
,
63
504
9072
9!
11!
45






cos x
sin x
cos x
sin x y cos x
4y 7 cos x
8 sin x
=y
+y
y
+y
y
+

,
210
1512
22680
665280
11!
13!
315

u1 =
u2
u3
u4
u5
u6
..
.

por lo que la aproximaci


on sexta del ejemplo (1.2.4) resulta ser





sin x
cos x
sin x y cos x
7 cos x
y
+y
y
+
u(x, y) = y
63
504
9072
9!
11!



3
cos x
sin x y cos x
y cos x 2y 5 cos x 4y 7 cos x
y5
y
+

10
5!
7!
2
15
315




4
6
y sin x 2y sin x
cos x
sin x y cos x
2
6 2 sin x
+ y sin x
+
y
+y
y
+
3
45
45
210
7!
9!


sin
x
y
cos
x
+ y4
+
+ y cos x
6
120






cos x
sin x
cos x
sin x y cos x
8 sin x
+y
+y
y
+y
y
+
.
210
1512
22680
665280
11!
13!

Esta soluci
on no coincide con la aplicacion de las ecuaciones (6.12), (6.13) y (6.14).
De lo anterior, podemos observar que las soluciones mediante los distintos metodos
analticos para el caso parab
olico varan, por lo que compararemos las soluciones para
algunos valores dados. Esto se puede observar en la Tabla 6.4.
Ahora, veamos los resultados que se obtuvieron mediante los metodos numericos
del captulo 4.
En las tablas (6.5) y (6.6), se presentan soluciones de valores dados, los resultados
obtenidos del ejemplo (1.2.4) por el metodo de diferencias finitas y el de algoritmos
geneticos, se comparar
an con los resultados analticos obtenidos.
De la tabla anterior, los resultados obtenidos mediante el metodo de diferencias
finitas es aceptable, aunque el error relativo para los puntos dados ya no es tan peque
no
para el ejemplo.

110

Resultados Analticos y Num


ericos
x
0.1
0.3
0.5
0.7
0.9

y
0.0
0.1
0.2
0.3
0.4

Metodo Adomian
0.0000
0.0980
0.1911
0.2763
0.3510

Stephenson- Radmore
0.0000
0.0999
0.1999
0.2999
0.3999

Aplicacion de Harper
0.0000
0.0999
0.1999
0.2999
0.3999

Tabla 6.6: Soluci


on de u(x, y) para diferentes valores de x y y.

x
0.3
0.3
0.4
0.4
0.5

y
0.1
0.2
0.2
0.3
0.4

Aplicaci
on de Harper
0.0999
0.1999
0.1999
0.2999
0.3999

Diferencias finitas
0.0985
0.2029
0.1998
0.3090
0.4182

Error relativo
0.0140
0.0150
0.0005
0.0303
0.0457

Tabla 6.7: Soluci


on de u(x, y) para diferentes valores de x y y.

Se puede decir que, al elegir otros valores este error se comporta de la misma forma,
esto tambien sucede si se escogen mas puntos, por lo que la eficiencia del algoritmo
empleado para el ejemplo del caso parabolico es bueno.
Ahora, veamos los resultados obtenidos para los mismos valores de la Tabla 6.5 con
el algoritmo genetico.
x
0.3
0.3
0.4
0.4
0.5

y
0.1
0.2
0.2
0.3
0.4

Aplicaci
on de Harper
0.0999
0.1999
0.1999
0.2999
0.3999

Algoritmos geneticos
0.1008
0.2011
0.2014
0.3017
0.4025

Error relativo
0.0096
0.0060
0.0075
0.0063
0.0065

Tabla 6.8: Soluci


on de u(x, y) para diferentes valores de x y y.

De la tabla anterior, ahora podemos ver que el error relativo obtenido mediante
el metodo de algoritmos geneticos es peque
no, con esto tenemos que para los valores
tomados el algoritmo empleado nos da resultados favorables.
Cabe mencionar que, al tomar otros valores el algoritmo sigue teniendo un error
relativo significativamente peque
no teniendo as un algoritmo eficiente para el caso parabolico.

6.2 Ecuaci
on parab
olica

111

Para una mejor visualizaci


on de los resultados obtenidos, a continuacion se presentan las gr
aficas obtenidas por los diferentes metodos numericos as como la del metodo
analtico.

Figura 6.5: Soluci


on de la ecuacion parabolica metodo tradicional.

Figura 6.6: Soluci


on de la ecuacion parabolica metodo algoritmos geneticos.

A continuaci
on, se presentan mas ejemplos del metodo de descomposicion de Adomian aplicando diferentes condiciones iniciales y de frontera.
Ejemplo 6.2.1. Resolver la ecuaci
on diferencial parcial
uxx 6uxy + 9uyy = 0,
con las condiciones iniciales dadas por
u(0, y) = 1 y 2 ,

ux (0, y) = 0,

u(1, y) = 0.

Soluci
on. De acuerdo a las condiciones iniciales, podemos reescribir a la ecuacion
dada de la siguiente forma
uxx = 6uxy 9uyy .
(6.17)
Usando el operador Lxx =

2
,
x2

podemos escribir la ecuacion anterior como

Lxx u = 6uxy 9uyy .


(6.18)
R
R
x x
Aplicando el operador inverso L1
on,
xx = 0 0 (.)dxdx a ambos lados de la ecuaci
obtenemos
Z xZ x
u = u(x, 0) + ux (x, 0)x +
(6uxy 9uyy )dxdx,
0

112

Resultados Analticos y Num


ericos

y la soluci
on por el metodo de descomposicion de Adomian consiste en el siguiente
esquema
u0 = 1 y 2 ,
Z xZ x
un+1 =
(6(un )xy 9(un )yy )dxdx,
0

es decir,
u0 = 1 y 2 ,
u1 = 9x2 ,
u2 = 0,
u3 = 0,
..
.
un = 0,
por lo que la soluci
on de la ecuaci
on dada resulta ser
u(x, y) = 9x2 y 2 + 1.

(6.19)


Ahora, veamos los resultados que se obtuvieron mediante los metodos numericos
presentados en el captulo 4.
Para esto, tomemos valores dados, los cuales se presentan en las tablas (6.2) y
(6.3), los resultados obtenidos del ejemplo (6.2.2) por el metodo de diferencias finitas y
algoritmos geneticos, as como la comparacion con los resultados analticos obtenidos.
x
0.2
0.3
0.4
0.6
0.8

y
0.1
0.1
0.5
0.5
0.9

Aplicaci
on de Harper
1.3500
1.8000
2.1900
3.9900
5.9500

Diferencias finitas
0.2800
0.3556
0.5200
0.7244
1.1078

Error relativo
0.0000
0.0000
0.0000
0.0000
0.0000

Tabla 6.9: Soluci


on de u(x, y) para diferentes valores de x y y.

Para este ejemplo, se puede apreciar que para los valores dados, el error relativo se
sigue conservando peque
no, al igual que cualquier otro valor que se le sea asignado el
error sera nuevamente peque
no, con esto el algoritmo para este ejemplo es favorable.
Ahora veamos en la siguiente tabla el resultado obtenido mediante algoritmos geneticos con los mismos datos usados para el de diferencias finitas.
De los datos obtenidos, mediante el metodo de algoritmos geneticos podemos ver
que el algoritmo empleado es eficiente ya que esto lo podemos observar a partir del

6.2 Ecuaci
on parab
olica
x
0.2
0.3
0.4
0.6
0.8

y
0.1
0.1
0.5
0.5
0.9

113

Aplicaci
on de Harper
1.3500
1.8000
2.1900
3.9900
5.9500

Algoritmo genetico
1.3510
1.9600
2.1600
4.0051
5.8910

Error relativo
0.0007
0.0888
0.0136
0.0037
0.0099

Tabla 6.10: Soluci


on de u(x, y) para diferentes valores de x y y.

error relativo obtenido y este error como se puede ver, es peque


no. Ademas, al ocupar
valores distintos a los empleados el algoritmo arroja resultados aceptables, pues el error
sigue siendo mnimo.
Ahora, visualicemos los resultados obtenidos presentados en las graficas obtenidas
por los diferentes metodos numericos as como la del metodo analtico.

Figura 6.7: Soluci


on de la ecuacion parabolica metodo tradicional.

Figura 6.8: Soluci


on de la ecuacion parabolica metodo algoritmos geneticos.

Ejemplo 6.2.2. Resolver la ecuaci


on diferencial parcial
uxx 4uxy + 4uyy = 0,
con las condiciones iniciales dadas por
u(x, 0) = 2 ln x,

uy (x, 0) = x,

u(1, y) = 1.

114

Resultados Analticos y Num


ericos

Soluci
on. De acuerdo a las condiciones iniciales, podemos reescribir a la ecuacion
dada de la siguiente forma
1
uyy = (uxx + 4uxy ).
4
Usando el operador Lyy =

2
,
y 2

(6.20)

podemos escribir la ecuacion anterior como

1
Lyy u = (uxx + 4uxy ).
4
Aplicando el operador inverso L1
yy =
obtenemos

RyRy

1
u = u(x, 0) + uy (x, 0)y +
4

(6.21)

(.)dydy a ambos lados de la ecuacion,

(uxx + 4uxy )dydy,


0

y la soluci
on por el metodo de descomposicion de Adomian consiste en el siguiente
esquema
u0 = 2 ln x + xy,
Z Z
1 y y
((un )xx + 4(un )xy )dydy,
un+1 =
4 0 0
es decir,
u0 = 2 ln x + xy,
1
u1 = y 2 ( 2 + 2),
x
y 3 (16x + 3y)
u2 =
,
6x4
y 4 (120x2 + 48xy + 5y 2 )
u3 =
,
15x6
2
3
3
y 5 ( 128x
+ 16x2 y + 24xy
+ y4 )
5
7
u4 =
,
x8
3y
3
4
4
y 6 ( 256x
+ 512x
+ 24x2 y 2 + 32xy
+ y5 )
3
7
9
u5 =
,
x10
3
2
5
y
y 7 ( 2048x
+ 320x4 y + 1280x
+ 32x2 y 3 +
7
9
u6 =
x12
..
.

40xy 4
11

y5
6 )

6.3 Ecuaci
on elptica

115

por lo que la soluci


on aproximada de la ecuacion dada resulta ser
1
y 3 (16x + 3y)
+
2)

x2
6x4
3
24xy 2
128x
5
y 4 (120x2 + 48xy + 5y 2 ) y ( 5 + 16x2 y + 7 +

+
15x6
x8
3
3
4
y
y 6 ( 256x
+ 512x
+ 24x2 y 2 + 32xy
+ y 4 /5)
3
7
9
+
x10
3 y2
4
5
y5
y 7 ( 2048x
+ 320x4 y + 1280x
+ 32x2 y 3 + 40xy
7
9
11 + 6 )

.
x12

u(x, y) = 2 ln x + xy + y 2 (

y3
4 )

6.3.

Ecuaci
on elptica

Finalmente, para el caso elptico consideremos la EDP de Euler de segundo orden


con coeficientes constantes, cuyas soluciones analticas mediante el metodo de las variables can
onicas, Stephenson-Radmore y Harper, estan dadas respectivamente por las
siguientes ecuaciones
u(x, y) = () + (),

(6.22)

u(x, y) = () + (),

(6.23)

u(x, y) = (Z) + (W ),

(6.24)

donde, para la ecuaci


on (6.22) la variable esta dada por la ecuacion = (y ax)+ibx,
para la ecuaci
on (6.23) la variable esta dada por la ecuacion (2.88), y finalmente para
la ecuaci
on (6.24), las variables Z y W estan dadas por las ecuaciones (5.33) y (5.36)
respectivamente.
Tomemos el ejemplo (1.2.6) de la pagina 20 y resolvamoslo por medio del metodo de
descomposici
on de Adomian. De acuerdo a las condiciones iniciales, podemos reescribir
a la ecuaci
on del ejemplo (1.2.6) de la siguiente forma
1
uyy = (uxx + 2uxy ).
2
Usando el operador Lyy =

2
,
y 2

(6.25)

podemos escribir la ecuacion anterior como

1
Lyy u = (uxx + 2uxy ).
(6.26)
2
RyRy
Aplicando el operador inverso L1
on
yy = 0 0 (.)dydy a ambos lados de la ecuaci
(6.26), obtenemos
Z Z
1 y y
u = u(x, 0) + uy (x, 0)y
(uxx + 2uxy )dydy,
2 0 0

116

Resultados Analticos y Num


ericos

y la soluci
on por el metodo de descomposicion de Adomian consiste en el siguiente
esquema
u0 = 4ye2x ,
Z Z
1 y y
un+1 =
((un )xx + 2(un )xy )dydy,
2 0 0
es decir,
u0 = 4ye2x ,
8y 2 (y 3)
,
3e2x
8y 3 (y 2 10y + 20)
,
=
15e2x
16y 4 (y 3 21y 2 + 126y 210)
,
=
315e2x
8y 5 (y 4 36y 3 + 432y 2 2016y + 3024)
=
,
2835e2x
16y 6 (y 5 55y 4 + 1100y 3 9900y 2 + 39600y 55440)
=
,
155925e2x
16y 7 (y 6 78y 5 + 2340y 4 34320y 3 + 257400y 2 926640y + 1235520)
,
=
6081075e2x

u1 =
u2
u3
u4
u5
u6
..
.

por lo que la aproximaci


on sexta del ejemplo (1.2.6) resulta ser
16y 6 (y 5 55y 4 + 1100y 3 9900y 2 + 39600y 55440) 8y 2 (y 3)

155925e2x
3e2x
7
6
5
4
3
2
16y (y 78y + 2340y 34320y + 257400y 926640y + 1235520)
+
+
6081075e2x
8y 3 (y 2 10y + 20) 16y 4 (y 3 21y 2 + 126y 210)

15e2x
315e2x
5
4
3
2
8y (y 36y + 432y 2016y + 3024)
+
.
2835e2x

u(x, y) = 4ye2x


Esta soluci
on no coincide con la aplicacion de las ecuaciones (6.23), (6.24) y (6.25).
Tomemos algunos n
umeros en especfico para comparar las soluciones obtenidas en los
metodos analticos con las obtenidas a partir de los metodos numericos
Ahora, veamos los resultados que se obtuvieron mediante los metodos numericos
presentados en el captulo 4.
En las tablas (6.7) y (6.8), se presentan los resultados obtenidos del ejemplo (1.2.6)
por el metodo de diferencias finitas y algoritmos geneticos

6.3 Ecuaci
on elptica
x
0.1
0.3
0.5
0.7
0.9

y
0.0
0.1
0.2
0.3
0.4

Metodo Adomian
0.0000
0.2681
0.4390
0.5392
0.5885

117
Stephenson- Radmore
0.0000
0.2422
0.3571
0.3935
0.3841

Aplicacion de Harper
0.0000
0.2422
0.3571
0.3935
0.3841

Tabla 6.11: Soluci


on de u(x, y) para diferentes valores de x y y.

x
0.3
0.3
0.4
0.4
0.5

y
0.1
0.2
0.2
0.3
0.4

Aplicaci
on de Harper
0.2422
0.5327
0.4361
0.7170
0.8549

Diferencias finitas
0.2416
0.5222
0.4275
0.6903
0.8080

Error relativo
0.0024
0.0197
0.0197
0.0372
0.0548

Tabla 6.12: Soluci


on de u(x, y) para diferentes valores de x y y.

Se puede observar de la tabla anterior, que los resultados obtenidos mediante este
metodo son aceptables, ya que el error relativo para los puntos dados es peque
no.
Al elegir otros valores el error obtenido se considera aceptable, como tambien si se
escogen m
as puntos, por lo que la eficiencia del algoritmo empleado para el ejemplo en
el caso elptico es bueno.
En la siguiente tabla, veamos ahora el resultado obtenido mediante algoritmos
geneticos con los mismos datos usados para el de diferencias finitas.
x
0.3
0.3
0.4
0.4
0.5

y
0.1
0.2
0.2
0.3
0.4

Aplicaci
on de Harper
0.2422
0.5327
0.4361
0.7170
0.8549

Algoritmos geneticos
0.2420
0.5321
0.4364
0.6089
0.8440

Error relativo
0.0008
0.0011
0.0006
0.1507
0.0127

Tabla 6.13: Soluci


on de u(x, y) para diferentes valores de x y y.

De la tabla anterior, ahora podemos ver que el error relativo obtenido mediante
el metodo de algoritmos geneticos es peque
no, con esto tenemos que para los valores
tomados el algoritmo empleado nos da resultados favorables.
Cabe mencionar que, al tomar otros valores el algoritmo sigue teniendo un error
relativo significativamente peque
no teniendo as un algoritmo eficiente para el caso hi-

118

Resultados Analticos y Num


ericos

perbolico.
Para una mejor visualizaci
on de los resultados obtenidos, a continuacion se presentan las gr
aficas obtenidas por los diferentes metodos numericos as como la del metodo
analtico.

Figura 6.9: Soluci


on de la ecuacion elptica metodo tradicional.

Figura 6.10: Soluci


on de la ecuacion elptica metodo algoritmos geneticos.

Captulo
Captulo

Conclusiones
A pesar de no contar con mucha literatura acerca de los metodos mencionados en
los captulos 2 y 3, por ser metodos no convencionales, se pudo lograr el desarrollo de
soluciones para las EDPs de Euler de segundo orden con coeficientes constantes, de
tipo hiperb
olico, parab
olico y elptico. Siendo esto, una aportacion de este trabajo de
tesis consistiendo en presentar con detalle cada uno de estos metodos, y que posteriormente son aplicados para la obtencion de soluciones.
Las EDPs resulta ser en muchas ocasiones difciles de resolver, por lo que el proponer nuevos metodos para resolverlas y que sean de facil implementacion, nos abre un
amplio panorama para la aplicacion de las EDPs en diversos problemas de ingenierias
y ciencias, adquiriendo con esto un interes peculiar por ellos.
Una de las principales contribuciones de este trabajo de tesis, y que no se puede
encontrar en la literatura, es la obtencion de soluciones de la ecuacion de Euler con
coeficientes constantes del tipo hiperbolico, parabolico y elptico, sin hacer uso de los
metodos cl
asicos y tampoco de los metodos sofisticados que generalmente suelen ser tan
complicados. Es necesario hacer mencion que las soluciones fueron obtenidas mediante
la aplicaci
on del metodo de J. Harper, las cuales son detalladas en el captulo 5.
Podemos mencionar que, al aplicar las condiciones iniciales y de frontrera a las soluciones obtenidas mediante el metodo propuesto, se llega a que el resultado es el mismo
que el que proponen otros autores. Esto prueba la efectividad del metodo, aunado con
la comparaci
on de resultados mediante los metodos de aproximacion.

119

120

Conclusiones

Al aplicar los metodos numericos a la ecuacion de Euler con coeficientes constantes,


pudimos observar que de los resultados obtenidos las dos tecnicas empleadas son capaces
de obtener valores adecuados, es decir, ambos metodos acercan a la solucion analtica
propuesta por los metodos tradicionales y las soluciones propuestas por StephensonRadmore, sin embargo la m
as eficiente para resolver el problema planteado es el de
diferencias finitas puesto que el tiempo del calculo es mucho menor. Esto es debido a la
forma que presenta la funci
on de error, la cual hace que el algoritmo genetico presente
problemas de convergencia prematura.
Por otro lado, el metodo de descomposicion de Adomian resulta ser complicado si
las condiciones iniciales y de frontera son diferentes a las ocupadas en el desarrollo de
este trabajo de tesis, ya que estas condiciones dependen de la funcion de Green, y en
la mayora de los casos no es f
acil aplicarlo.
Podemos decir, que este trabajo de tesis se puede considerar como una base para
abordar nuevos metodos de soluci
on para las EDPs. Por ejemplo, ahora estamos en
condiciones de empezar a analizar la ecuacion de Euler para coeficientes no constantes,
siendo esto una posible continuaci
on de este trabajo.

Captulo

Apendice A
Definiciones y tipos de soluciones
Definici
on 1. Una funci
on en el conjunto de las funciones continuas C 2 que satisface
una EDP de orden dos, le llamaremos soluci
on cl
asica.
Definici
on 2. Llamaremos soluci
on completa o integral de la EDP de primer orden
F (x, y, u, ux , uy ) = 0,

(1)

f (x, y, u, a, b) = 0,

(2)

a toda relaci
on con la ecuaci
on

entre las variables x, y, u que contenga dos constantes arbitrarias a, b y que sea una
solucion de la EDP (1).
Definici
on 3. Una funci
on se dice que es suave si todas sus derivadas existen y son
continuas.
Definici
on 4. Una soluci
on que no es diferenciable en todas partes se llama soluci
on
d
ebil.
Definici
on 5. Se dice que f (h) es de orden g(h) cuando h 0 y h 6= 0, se denotara por
f (h) = O(g(h)), si existen n
umeros reales M > 0 y k > 0 tales que,
|f (h)| M |g(h)|, siempre que |h| < k.
El error de truncamiento suele asociarse tambien con la convergencia (o la velocidad de convergencia), que suele representarse como O(n) (generalmente, como O(hn )),
siendo n el par
ametro que determina la velocidad o la convergencia.
121

122

Ap
endice A

Definici
on 6. Se llama derivada direccional de la funcion u = f (x, y) en el punto
P (x, y) en el sentido del vector ~n = cos i + sin j al siguiente lmite, si existe y es finito
f (P + t~n) f (P )
,
t0
t

u~n = lm

(3)

donde t es la magnitud del vector ~n.


Definici
on 7. Una onda de choque es una curva en la cual, la solucion u(x, y)
presenta una discontinuidad.
Definici
on 8. Se dice que es una region S es convexa si toda lnea recta que une
cualquier par de puntos de la regi
on esta completamente contenida en S.

Captulo

Apendice B
M
etodo de Charpit [16]
Sea la EDP de primer orden de dos variables independientes x y y dada por
F (x, y, u, p, q) = 0,

(4)

donde p = ux y q = uy . Sea u = u(x, y) la superficie integral de la ecuacion (4),


derivando la identidad (4) con respecto a x y a y, obtenemos
p
q
+ Fq
= 0,
x
x
q
p
+ Fq
= 0,
Fy + qFu + Fp
y
y

Fx + pFu + Fp

donde p = ux y q = uy , o bien, como

q
x

p
y ,

p
p
Fx + pFu + Fp x
+ Fq y
= 0,
q
q
Fy + qFu + Fp x + Fq y = 0.

(5)

Las ecuaciones caractersticas para el sistema de ecuaciones (5), tiene la forma de


la ecuaci
on (1.8) (vease la p
ag. 3)
dx
dy
dp
dq
=
=
=
= dt
Fp
Fq
Fx + pFu
Fy + qFu

(6)

Por otro lado, como u est


a relacionada con p y q mediante la ecuacion
du = pdx + qdy,
123

(7)

124
entonces

o bien

Ap
endice B

du
dx
dy
=p
+q
= pFp + qFq ,
dt
dt
dt
du
= dt,
pFp + qFq

(8)

lo cual nos da la posibilidad de aumentar el sistema (6) con una ecuacion mas.
De esta manera, bajo la hip
otesis de que u = u(x, y) es solucion de la ecuacion (4),
se llega al siguiente sistema de ecuaciones
dy
dp
dq
du
dx
=
=
=
=
= dt.
Fp
Fq
Fx + pFu
Fy + qFu
pFp + qFq

(9)

De las ecuaciones (7) y (9) se puede hallar las funciones x = x(t), y = y(t), u = u(t),
p = p(t) y q = q(t), es decir, se puede hallar las curvas x = x(t), y = y(t), u = u(t)
llamadas caractersticas, y determinar en cada punto de la caracterstica los n
umeros
p = p(t) y q = q(t) que proporcionan la direccion de plano
U u = p(X x) + q(Y y).
Con lo anterior podemos observar que las variables p = ux y q = uy verifican
cierta ecuaci
on cuasilineal, y por tanto, (4) puede resolverse por el metodo de las
caractersticas.

Captulo

Apendice C
Soluciones fundamentales de la ecuaci
on de calor
Consideremos los siguientes problemas de frontera y valor inicial para la ecuacion
de calor
1. Problema de valor inicial en (, )
ut = kuxx ,

< x < , 0 < t <

u(x, 0) = g(x).
La soluci
on de este problema esta dada por


Z
1
(x y)2
exp
u(x, t) =
g(y)dy.
4kt
4kt
2. Problema de valor inicial en (0, ) con condiciones homogeneas de lmite de
Dirichlet
ut = kuxx ,

x < , 0 < t <

u(x, 0) = g(x),
u(0, t) = 0,
La soluci
on para este caso, es




Z 
1
(x y)2
(x + y)2
u(x, t) =
exp
exp
g(y)dy.
4kt
4kt
4kt 0

125

126

Ap
endice C

3. Problema de valor inicial en (0, ) con condiciones homogeneas de lmite de


Neumann
ut = kuxx ,

0 x < , 0 < t <

u(x, 0) = g(x),
ux (0, t) = 0,
Su soluci
on, est
a dada por




Z 
1
(x y)2
(x + y)2
u(x, t) =
exp
exp
g(y)dy.
4kt
4kt
4kt 0
4. Problema en (0, ) con condiciones iniciales homogeneas y no homogeneas de las
condiciones de lmite de Dirichlet
ut = kuxx ,

0 x < , 0 < t <

u(x, 0) = 0,
u(0, t) = h(t).
Tiene por soluci
on la siguiente funcion
Z
u(x, t) =
0


x2
p
exp
h(s)ds.
4k(t s)
4k(t s)3
x

x > 0

Bibliografa
[1] S. Abbasbandy. Improving newton-raphson method for nonlinear equations by
modified adomian decomposition method. Applied Mathematics and Computation,
145(2-3):887893, 2003.
[2] C. Abdoulkadri. Numerical implementation of adomian decomposition method for
volterra integral equations of the second kind with weakly singular kernels. African
Institute for Mathematical Sciences, 1975.
[3] G. Adomian. Nonlinear stochastic operator equations. Academic Press San Diego,
CA, 1986.
[4] G. Adomian. A review of the decomposition method in applied mathematics.
Journal of Mathematical Analysis and Applications, 135(2):501544, 1988.
[5] G. Adomian. Solving Frontier Problems of Physics: The Decomposition Method.
Kluwer Academic Publishers, 1994.
[6] G. Adomian. Solution of the thomas-fermi equation. Applied Mathematics Letters,
11(3):131133, 1998.
[7] M. Affenzeller, S. Winkler, S. Wagner, and A. Beham. Genetic algorithms and
genetic programming: Modern concepts and practical applications. 2009.
[8] F.M. Allan. Derivation of the adomian decomposition method using the homotopy
analysis method. Applied Mathematics and Computation, 190(1):614, 2007.
[9] J. Biazar and Z. Ayati. An approximation to the solution of parabolic equation
by adomian decomposition method and comparing the result with crank-nicolson
method. In International Mathematical Forum, volume 1, pages 19251933, 2006.
[10] R.L. Burden and J.D. Faires. An
alisis numerico. Cengage Learning Latin America,
2001.
[11] C. Chun. A new iterative method for solving nonlinear equations. Applied mathematics and computation, 178(2):415422, 2006.
127

128

BIBLIOGRAF
IA

[12] C. Coello Coello. Introducci


on a la computacion evolutiva (notas del curso), 2009.
[13] L. Debnath. Nonlinear partial differential equations for scientists and engineers.
Birkhauser, 2005.
[14] P. Dita and N. Grama. On adomians decomposition method for solving differential
equations. Arxiv preprint solv-int/9705008, 1997.
[15] A. Dou. Ecuaciones en derivadas parciales de primer orden e introducci
on a las
de segundo orden. Dossat, 1970.
[16] E. Elsgoltz. Ecuaciones diferenciales y calculo variacional. Ed. Mir Moscu, 1975.
[17] D.J. Evans and K.R. Raslan. The adomian decomposition method for solving delay
differential equation. International Journal of Computer Mathematics, 82(1):49
54, 2005.
[18] N. Gil. Algoritmos geneticos, 2006.
[19] D.E. Goldberg. Genetic algorithms in search, optimization, and machine learning.
Addison-wesley, 1989.
[20] R. Haberman, A. de Pablo Martnez, D.P. Galvan, and E.R. Colmenarejo. Ecuaciones en derivadas parciales: Con series de Fourier y problemas de contorno.
Prentice-Hall, 2003.
[21] J.F. Harper. Reducing parabolic partial differential equations to canonical form.
European Journal of Applied Mathematics, 5(02):159164, 1994.
[22] M. Inc. On numerical solutions of partial differential equations by the decomposition method. Kragujevac Journal of Mathematics, (26):153164, 2004.
[23] P.K. Kythe. Partial differential equations and boundary value problems with Mathematica. CRC press, 2010.
[24] A. Marrero, L. Pedroso, and J. Barrios. Algoritmos evolutivos en la solucion de
problemas de estimaci
on de parametros. Revista de Matem
atica: Teora y Aplicaciones, 13(2):139150, 2006.
[25] J.H. Mathews and K.D. Fink. Numerical methods using MATLAB, volume 3.
Prentice Hall Upper Saddle River, 1999.
[26] M. Mitchell. An introduction to genetic algorithms. The MIT press, 1998.
[27] T. Myint-U and L. Debnath. Linear partial differential equations for scientists and
engineers. Birkh
auser, 2007.

BIBLIOGRAF
IA

129

[28] S.R. Otto and J.P. Denier. An introduction to programming and numerical methods
in MATLAB. Springer Verlag, 2005.
[29] Y. Pinchover and J. Rubinstein. An introduction to partial differential equations,
volume 10. Cambridge Univ Pr, 2005.
[30] M.A. Pinsky and J.H.P. Castellanos. Introducci
on al an
alisis de Fourier y las
ondoletas. International Thomson, 2003.
[31] E.C. Rentera. Introducci
on a las ecuaciones en derivadas parciales. Ed. Universidad de Cantabria, 1992.
[32] W. Sengupta. A novel analytical operator method to solve linear ordinary differential equations with variable coefficients. Arxiv preprint arXiv:0902.0910, 2009.
[33] M. M. Smirnov. Ejercicios sobre las Ecuaciones Diferenciales Parciales de la fsica
matem
atica. Ed. Mir, 1996.
[34] G. Stephenson and P.M. Radmore. Advanced mathematical methods for engineering and science students. Cambridge Univ Pr, 1990.
[35] A. Tijonov and A. Samarsky. Ecuaciones de la fsica matematica, ed, 1983.
[36] N. Ujevic. A method for solving nonlinear equations. Applied mathematics and
computation, 174(2):14161426, 2006.

También podría gustarte