Integral Estocastica de Ito

Descargar como pdf o txt
Descargar como pdf o txt
Está en la página 1de 23

Versión preliminar

Construyendo la integral estocástica de Itô


Luis Rincón
Departamento de Matemáticas
Facultad de Ciencias UNAM
Circuito Exterior de CU
04510 México DF

[email protected]

Resumen
Se presenta de una forma sencilla y breve el concepto de integral es-
tocástica de Itô respecto del movimiento Browniano. Con ello se ilustra
además la noción de ecuación diferencial estocástica mediante algunos
ejemplos.

El presente documento es una versión modificada de las notas del curso


corto de ecuaciones diferenciales estocásticas impartido por el autor durante
el congreso nacional de matemáticas de la SMM celebrado en la ciudad de
Ensenada en 2004.

Es cada vez más común hablar de modelos basados en ecuaciones diferen-


ciales estocásticas en los últimos cursos de algunas carreras de ciencias y
nuestro objetivo en este trabajo es el de presentar de una forma sencilla y
compacta el concepto de integral de Itô respecto del movimiento Browniano
y con ello ilustrar el concepto de ecuación estocástica. Nuestra intención es
proveer de un panorama introductorio y global al tema sin buscar el contexto
general o condiciones mı́nimas para obtener los resultados enunciados.

El plan de trabajo es el siguiente. Empezaremos recordando algunas ideas


básicas de probabilidad y procesos estocásticos, particularmente mencionare-
mos algunas propiedades del movimiento Browniano. Definiremos después la

1
integral de Itô respecto de este proceso en una serie de extensiones sucesivas,
y finalmente mostraremos el concepto de ecuación estocástica.

1. Probabilidad y procesos estocásticos

El modelo matemático básico de la teorı́a de la probabilidad es el espacio


de probabilidad, que consta de una terna ordenada (Ω, F, P ) en donde Ω es
un conjunto arbitrario que convenientemente puede ser interpretado como
el conjunto de todos los posibles resultados de un experimento aleatorio. Al
conjunto Ω se le llama espacio muestral, y a un elemento tı́pico de Ω se le
denota por ω. El segundo elemento es una colección no vacı́a F de subcon-
juntos de Ω, llamada σ-álgebra, que es cerrada bajo las operaciones de tomar
complementos y uniones numerables. A los elementos de F, subconjuntos de
Ω, se les llama eventos o conjuntos medibles. Finalmente el tercer elemento
es una función P : F → [0, 1], llamada medida de probabilidad, que cumple
los siguientes axiomas (Kolmogorov, 1933): P (Ω) = 1 y es σ-aditiva, es decir,
si A1 , A2 , . . . es una sucesión de eventos, disjuntos dos a dos, entonces

[ ∞
X
P( An ) = P (An ).
n=1 n=1

Las leyes del azar están representadas por las distintas medidas de probabil-
idad existentes. El número P (A) es una medida de la frecuencia con la que
se observa el evento A cuando se realiza el experimento aleatorio. Todo lo
que se mencione en el resto del curso tiene como estructura base un espacio
de probabilidad (Ω, F, P ). A la pareja (Ω, F) se le llama espacio medible. En
particular, si B(R) denota la σ-álgebra más pequeña que contiene a todos
los intervalos abiertos de R, entonces se tiene el espacio medible (R, B(R)).
A los elementos de la σ-álgebra B(R) se les llama Borelianos o conjuntos
Borel medibles.

Ahora podemos recordar el concepto ubicuo de variable aleatoria. Una v.a.


es una función X : Ω → R que transforma a los elementos de Ω en números
reales y es tal que para cualquier B ∈ B(R), el conjunto

X −1 B = {ω ∈ Ω : X(ω) ∈ B}

es un elemento de F. En este caso también se dice que X es una función


medible entre los espacios medibles (Ω, F) y (R, B(R)), o simplemente que

2
Figura 1: Andrey Nikolaevich Kolmogorov (Rusia, 1903-1987).

es F-medible. Mediante una de estas funciones uno puede pensar que el


azar no escoge elementos de Ω como resultados del experimento aleatorio,
sino números reales. Las operaciones básicas de suma, diferencia, producto
y cociente (cuando existe) de v.a.s producen v.a.s. Procesos lı́mite de v.a.s
(cuando existen) resultan también ser v.a.s.

El espacio medible (R, B(R)) puede convertirse en un espacio de probabili-


dad con la ayuda de una variable aleatoria X de la siguiente manera. Para
cada B ∈ B(R) se define PX (B) = P (X −1 B). La función PX resulta ser
una medida de probabilidad sobre B(R). Se le llama la distribución de X, y
encierra en ella toda la información probabilı́stica de X. Equivalentemente
se estudia la función F (x) : R → [0, 1] dada por F (x) = P (X ≤ x) lla-
mada función de distribución de X. Por ejemplo, la variable X tiene una
distribución normal o gausiana con parámetros µ y σ 2 > 0 si su función de
distribución es Z x
1 2 2
F (x) = √ e−(u−µ) /2σ du.
−∞ 2πσ 2
En este caso se dice que X tiene distribución N(µ, σ 2 ). De particular impor-
tancia es el concepto de esperanza de una variable aleatoria o más general-
mente de una función de una variable aleatoria. Si g es una función real de
variable real tal que la composición g(X) es una variable aleatoria, entonces

3
se define la esperanza de g(X) como sigue
Z ∞
E(g(X)) = g(x)dF (x),
−∞

en donde F (x) es la función de distribución de X y la integral involucrada


es una integral de Riemann-Stieltjes sobre la cual se asume su existencia.
En particular, cuando g(x) = x se obtiene la esperanza de X denotada por
E(X) y cuando g(x) = (x − E(X))2 entonces se obtiene la varianza de X
denotada por Var(X). Para la distribución normal mencionada antes puede
demostrarse que E(X) = µ y Var(X) = σ 2 .

Más generalmente, la esperanza condicional de una variable aleatoria inte-


grable X, dada una sub-σ-álgebra G ⊆ F, es una variable aleatoria, denotada
usualmente por E(X|G), que es integrable, G-medible y satisface la igualdad
Z Z
E(X|G)dP = XdP
G G

para cualquier G ∈ G. Estas tres propiedades caracterizan de manera única


(en el sentido casi seguro) a la esperanza condicional. Particularmente hare-
mos uso de las siguientes propiedades. Si X es G-medible entonces X mismo
cumple con la definición de esperanza condicional y por lo tanto E(X|G) =
X. Por otro lado también usaremos el hecho de que si X es independiente
de G entonces la esperanza condicional E(X|G) es la constante E(X).

El siguiente concepto de nuestro interés es el de proceso estocástico. Un


proceso estocástico es una colección de variables aleatorias {Xt : t ∈ T}
parametrizada por un conjunto T, usualmente interpretado como un con-
junto de tiempos y llamado naturalmente espacio parametral. Se dice que
el proceso es a tiempo discreto en caso de que el conjunto de ı́ndices T sea
un conjunto discreto, por ejemplo T = {0, 1, 2, . . .}. En este caso el proceso
consiste de una sucesión de variables aleatorias. En cambio se dice que el
proceso es a tiempo continuo cuando T consiste de un subintervalo de R,
por ejemplo T = (a, b). En lo sucesivo consideraremos procesos en donde las
v.a.s toman valores en R y el espacio parametral T es el intervalo [0, ∞). Un
proceso estocástico es entonces una función de dos variables

X : [0, ∞) × Ω → R

tal que para cada t ≥ 0, la función ω 7→ Xt (ω) es una variable aleatoria,


mientras que para cada ω en Ω, la función t 7→ Xt (ω) es una trayectoria

4
del proceso. En principio no hay ninguna condición sobre estas trayectorias,
pueden ser continuas o no serlo, aunque una hipótesis común es supon-
er trayectorias càdlàg, es decir, continuas por la derecha con lı́mite por la
izquierda. Por simplicidad denotaremos un proceso por Xt anteponiendo tal
adjetivo para evitar confusiones. Revisamos a continuación algunos concep-
tos técnicos generales relativos a procesos estocásticos.

Una familia (Ft )t≥0 de σ-álgebras es una filtración si para 0 ≤ s ≤ t, se


cumple Fs ⊆ Ft ⊆ F. Al espacio (Ω, F, P, (Ft )t≥0 ) se le llama espacio de
probabilidad filtrado. Cuando Xt es Ft -medible para cada t ≥ 0 entonces
se dice que el proceso es adaptado a la filtración. Todo proceso estocástico
Xt determina una filtración natural dada por Ft = σ{Xs : 0 ≤ s ≤ t}.
Claramente todo proceso es adaptado a su filtración natural. En este caso a
la σ-álgebra Ft se le interpreta como la “historia” del proceso al tiempo t,
pues en ella se encuentran todos los posibles eventos o sucesos que el proceso
haya tenido hasta el tiempo t. Adicionalmente
T se dice que una filtración es
continua por la derecha cuando Ft+ = s>t Fs coincide con Ft .

Es de utilidad también conocer alguna noción de igualdad entre procesos


estocásticos. Dos procesos Xt y Yt son equivalentes, o también se dice que
uno es una versión (o modificación) del otro, si para cada t ≥ 0 se cumple
P (Xt = Yt ) = 1. Un tipo de igualdad más fuerte establece que los procesos
son indistinguibles si
P (Xt = Yt para cada t ≥ 0) = 1.
Esto significa que con probabilidad uno las trayectorias de los dos procesos
son idénticas. Claramente la indistinguibilidad es más fuerte que la equiv-
alencia. Sin embargo, cuando los procesos son continuos, es decir, cuando
sus trayectorias son funciones continuas del parámetro, ambas nociones de
igualdad coinciden.

Una caracterı́stica importante que cumplen algunos procesos es la de tener


incrementos independientes. Esta propiedad, que usaremos más adelante,
puede escribirse de la siguiente forma. Para cualesquiera tiempos t0 < t1 <
· · · < tn , las variables incremento Xt1 − Xt0 , . . . , Xtn − Xtn−1 son indepen-
dientes, es decir, la función de distribución conjunta de todas ellas coincide
con el producto de las funciones de distribución individuales. Finalmente,
para concluir esta breve sección mencionaremos a continuación dos tipos de
procesos de conocida relevancia.

Un proceso estocástico Xt es de Markov (Markov, 1906) si para cada 0 ≤

5
s ≤ t y A ∈ B(R), con probabilidad uno se cumple

P (Xt ∈ A|Fs ) = P (Xt ∈ A|Xs ).

Esta igualdad establece que el estado del proceso al tiempo futuro t > s es
independiente del pasado (tiempos antes de s) dado el estado del proceso
al tiempo presente s ≥ 0. Esta propiedad es equivalente a la que exhiben
los sistemas dinámicos deterministas, cuya evolución queda perfectamente
determinada una vez que se establece la ley de movimiento y un estado inicial
del sistema, no influyendo lo sucedido antes del estado inicial. Un proceso
de Markov determina por tanto una función de probabilidad de transición
dada por
p(s, x, t, A) = P (Xt ∈ A|Xs = x)
en donde 0 ≤ s ≤ t, x ∈ R y A ∈ B(R). Esta función de cuatro variables
proporciona la probabilidad de que el proceso se encuentre en A al tiempo t
dado que se encontró en el estado x en un tiempo anterior s. Inversamente,
dada una función de transición de esta forma (junto con algunas hipótesis
adicionales) y una distribución de probabilidad inicial, es posible construir
un proceso de Markov cuya función de transición es la dada.

Otro ejemplo de proceso estocástico de interés es aquel conocido con el nom-


bre de martingala. Un proceso Xt es una martingala (Lévy) si es adaptado,
integrable y para 0 ≤ s ≤ t, con probabilidad uno se cumple

E(Xt |Fs ) = Xs . (1)

Las martingalas son procesos que estan relacionados con los juegos justos. Si
Xt representa la fortuna de un jugador que apuesta continuamente entonces
la igualdad anterior se interpreta del siguiente modo. En promedio la fortuna
del jugador al tiempo t dada toda la historia del juego hasta el tiempo
s ≤ t es la fortuna del jugador al tiempo s, es decir, el juego es justo
pues el jugador en promedio no pierde ni gana. Cuando en lugar de (1) se
cumple E(Xt |Fs ) ≤ Xs se dice el proceso es una supermartingala (juego
desfavorable al jugador pues en promedio su fortuna disminuye). En caso de
la desigualdad contraria el proceso es una submartingala (juego favorable al
jugador).

El clásico libro de Karlin y Taylor [8] constituye una excelente referencia


general sobre el tema de los procesos estocásticos. En la siguiente sección
estudiaremos muy brevemente el proceso estocástico de trayectorias conti-
nuas que posiblemente pueda considerarse de mayor importancia.

6
2. Movimiento Browniano

El fenómeno natural conocido ahora como movimiento Browniano tiene una


larga e interesante historia. El primer registro, aunque no ası́ la primera ob-
servación del fenómeno, data de 1828 (véase [1]) cuando el botánico Robert
Brown reportó en una revista cientı́fica que granos de polen suspendidos
en una cierta substancia y vistos a través de un microscopio, realizaban un
movimiento irregular e inexplicable. Este extraño movimiento fue objeto de
muchas discusiones, y muy diversas hipótesis fueron formuladas en ese en-
tonces con la intención de dar una explicación al fenómeno observado. Hoy
en dı́a este movimiento es entendido y explicado a través de las múltiples
colisiones aleatorias de las moléculas del lı́quido con los granos de polen.
Llegar a tal aseveración tomó muchos años pues debió aceptarse la teorı́a
cinético molecular de la materia, y el seminal trabajo de Einstein de 1905 so-
bre el movimiento Browniano [4] contribuyó decididamente a tal tarea. Las
observaciones reales y directas del movimiento de los granos de polen u otras
partı́culas sugieren que el fenómeno satisface las siguientes propiedades: (a)
El movimiento es continuo. (b) Parece tener desplazamientos independientes
en intervalos de tiempo disjuntos. (c) Debido al gran número de colisiones
del grano de polen con las moléculas circundantes en longitudes de tiempo no
pequeños, y teniendo en cuenta el teorema del lı́mite central, los incrementos
pueden modelarse como variables aleatorias gausianas.

La estructura matemática de un proceso estocástico, es decir una colección


de variables aleatorias {Bt : t ≥ 0}, ha resultado exitosa para modelar este
tipo de fenómenos. La variable Bt puede entonces interpretarse como la
posición de una partı́cula Browniana al tiempo t. La definición matemática,
en el caso unidimensional, es la siguiente.

Definición 1 Un movimiento Browniano estándar unidimensional es un


proceso estocástico {Bt : t ≥ 0} tal que

1. B0 = 0 casi seguramente.

2. Las trayectorias t 7→ Bt son continuas.

3. El proceso tiene incrementos independientes.

4. La variable Bt − Bs tiene distribución N (0, t − s) para 0 ≤ s < t.

7
Las condiciones que aparecen en esta definición son consecuencia directa de
las observaciones del fenómeno fı́sico, pero ello no garantiza que tal objeto
matemático exista. En 1923 el matemático norteamericano Norbert Wiener
demostró la existencia de un proceso con tales condiciones. Es por esta razón
que a menudo a este proceso también se le llama proceso de Wiener y se
le denota también por {Wt : t ≥ 0}. En sentido estricto el movimiento
Browniano es el fenómeno fı́sico mientras que su modelo matemático es el
proceso de Wiener, aunque es común llamar a ambas cosas por el mismo
nombre: movimiento Browniano.

Figura 2: Norbert Wiener (Estados Unidos, 1894-1964). Fuente: Archivo MacTutor,


St. Andrews.

Se tiene entonces que cada variable aleatoria Bt tiene distribución N (0, t) y


por lo tanto E(Bt ) = 0 y Var(Bt ) = E(Bt2 ) = t. En particular para 0 ≤ s < t
se cumple E|Bt − Bs |2 = t − s.

El movimiento Browniano fı́sico se presenta en tres dimensiones y es com-


pletamente errático. En la Figura 3 puede apreciarse una posible trayec-
toria Browniana cuando ésta se proyecta sobre una de sus coordenadas.
Este movimiento tiene muchas propiedades y conexiones con otras ramas de
las matemáticas, por ejemplo es un proceso de Markov y es también una
martingala continua. Es interesante también mencionar que casi todas sus

8
Figura 3: Una trayectoria Browniana.

trayectorias son no diferenciables en ningún punto, las trayectorias Brow-


nianas son entonces ejemplos de funciones, otrora consideradas extrañas,
que son continuas pero no diferenciables en ningún punto. También puede
demostrarse que sobre un intervalo de tiempo finito [a, b], casi todas las
trayectorias tienen variación no acotada. Esto es,

n−1
X
sup |Bti+1 − Bti | = ∞,
∆ i=1

en donde ∆ es una partición a = t0 < t1 < · · · < tn = b del intervalo [a, b].
Esta propiedad es particularmente importante en el presente trabajo pues
tiene como consecuencia el hecho de que no se pueden usar las trayectorias
Brownianas como integradores en el sentido de Riemann-Stieltjes. Por otro
lado puede demostrarse que la variación cuadrática sobre [a, b] es

n−1
X
sup |Bti+1 − Bti |2 = b − a.
∆ i=1

Otro de los muchos resultados interesantes del movimiento Browniano es


el teorema de caracterización de Paul Lévy que establece que un proceso
cualquiera {Xt : t ≥ 0} es un movimiento Browniano si y sólo si tiene
trayectorias continuas, empieza en cero, y tanto {Xt : t ≥ 0} como {Xt2 − t :

9
t ≥ 0} son martingalas. A través de este resultado o directamente de la
definición, puede demostrarse que los siguientes procesos son versiones del
movimiento Browniano: a) Xt = 1c Bc2 t con c > 0 constante, b) Xt = tX1/t
para t > 0, con X0 = 0, c) Xt = Bt+s − Bs con s ≥ 0 fijo.

El lector interesado puede encontrar una muy interesante y motivadora ex-


posición histórica sobre el descubrimiento del movimiento Browniano en el
excelente libro de Edward Nelson [12], ahora disponible en la red en formato
electrónico en la página web del autor. Para una primera introducción a
algunos aspectos matemáticos del movimiento Browniano puede consultarse
por ejemplo [8].

3. Integración estocástica

Esta sección es la parte central de nuestro trabajo y la intención es definir


la integral de Itô de un proceso estocástico {Xt : 0 ≤ t ≤ T } respecto del
movimiento Browniano, es decir, una integral de la forma
Z T
Xt dBt . (2)
0

Llevar a cabo tal tarea nos conducirá a enunciar sin demostración algunos
resultados técnicos pero los esfuerzos tendrán su recompensa hacia el fi-
nal del curso donde haremos necesariamente uso de este tipo de integrales.
Igualmente la justificación para desear definir integrales de la forma (2)
se volverá evidente más adelante. Se define (2) en varios pasos. Primero
para procesos simples y después, por aproximación, para procesos más gen-
erales. Consideraremos entonces como elementos iniciales un espacio de
probabilidad (Ω, F, P ) y un movimiento Browniano estándar unidimension-
al {Bt : t ≥ 0} junto con su filtración natural (Ft )t≥0 . Asumiremos que
el proceso {Xt : 0 ≤ t ≤ T } visto como función X : Ω × [0, T ] → R es
FT ⊗ B[0, T ]-medible, y es además adaptado, es decir, para cada t en [0, T ],
la función Xt : Ω → R es Ft -medible.

Denotaremos por L2 (P ) al espacio vectorial de variables aleatorias X que


son cuadrado integrables, es decir, que cumplen la condición

||X||L2 (P ) = (E|X|2 )1/2 < ∞.

10
La función X 7→ ||X||L2 (P ) define una norma1 en L2 (P ) y este espacio es
completo respecto de esta norma, es decir, es una espacio de Banach. Esto
quiere decir que toda sucesión de Cauchy en este espacio tiene lı́mite en él.

En lo que resta del curso consideraremos procesos con espacio parametral


el intervalo [0, T ] con T > 0 fijo. También denotaremos por L2 (P × dt) al
espacio de Banach de procesos {Xt : 0 ≤ t ≤ T } que cumplen la condición
Z T
||X||L2 (P ×dt) = (E |Xt |2 dt)1/2 < ∞.
0

Paso 1: Integral para procesos simples. Sea 0 = t0 < t1 < · · · < tn−1 <
tn = T una partición finita del intervalo [0, T ]. Un proceso estocástico simple
es un proceso de la forma
n−1
X
Xt = X k · 1[tk ,tk+1 ) (t),
k=0

en donde X k es una variable aleatoria Ftk -medible y cuadrado integrable. La


expresión 1[a,b) (t) corresponde a la función indicadora del intervalo [a, b). Un
proceso simple es entonces un proceso “constante” por pedazos con trayecto-
rias càdlàg, y las condiciones solicitadas garantizan que el proceso es adapta-
do y tiene trayectorias cuadrado integrables. Denotaremos por H02 al espacio
vectorial de todos los procesos estocásticos simples. La integral estocástica
de Itô de un proceso simple X respecto del movimiento Browniano, denotada
por I(X), se define entonces naturalmente como la variable aleatoria
n−1
X Z T
k
I(X) = X (Btk+1 − Btk ) = Xs dBs .
k=0 0

Observe que esta integral es una variable aleatoria integrable pues es evi-
dente que su esperanza es cero. Además es cuadrado integrable y cumple la
siguiente igualdad fundamental llamada isometrı́a de Itô,

||I(X)||L2 (P ) = ||X||L2 (P ×dt) . (3)


1
Una norma es una función real denotada regularmente por || · || y definida sobre
un espacio lineal que cumple: ||x|| ≥ 0, ||x|| = 0 ⇔ x = 0, ||x + y|| ≤ ||x|| + ||y|| y
||αx|| = |α|||x||.

11
En efecto, si ∆Bk denota la diferencia Btk+1 −Btk , y ∆tk = tk+1 −tk entonces
n−1
X
||I(X)||2L2 (P ) = E(| X k (Btk+1 − Btk )|2 )
k=0
n−1
X
= E( X j X k ∆Bj ∆Bk )
j,k=0
n−1
X
= E( (X k )2 (∆Bk )2 )
k=0
n−1
X
= E(X k )2 ∆tk
k=0
Z T
= E( |Xt |2 dt)
0
= ||X||2L2 (P ×dt) .

Hemos usado el hecho de que Xk es Ftk -medible y teniendo el movimiento


Browniano incrementos independientes, las variables Xk y ∆Bk resultan ser
independientes. Esta igualdad juega un papel primordial en la definición de
integral estocástica como se verá más adelante. La integral estocástica asigna
entonces a cada elemento del espacio H02 una variable aleatoria dentro del
espacio L2 (P ). De esta forma se tiene el mapeo lineal I : H02 → L2 (P ), que
resulta ser continuo por la isometrı́a de Itô.

Paso 2: Extensión por aproximación. Ahora extendemos la integral


estocástica a procesos un poco más generales. Sea H2 el espacio de todos los
procesos {Xt : 0 ≤ t ≤ T } medibles y adaptados tales que
Z T
E( |Xt |2 dt) < ∞.
0

El espacio H2 resulta ser un subespacio lineal cerrado de L2 (P ×dt). Observe


que la única diferencia entre estos dos espacios es que a los elementos de
H2 se les pide que sean medibles y adaptados. Claramente todo proceso
simple es un elemento de H2 . Tenemos entonces la contención de espacios
H02 ⊂ H2 ⊂ L2 (P × dt), en donde puede probarse que H02 es denso en H2
respecto de la norma en L2 (P ×dt). Esto significa que para cualquier proceso
X en H2 existe un sucesión de procesos X k en H02 tales que

lı́m ||X − X k ||L2 (P ×dt) = 0. (4)


k→∞

12
Este procedimiento de aproximación puede llevarse a cabo de la siguiente
forma. Mediante la técnica de truncación todo proceso en H2 puede ser
aproximado por un proceso acotado. A su vez todo proceso en H2 que es
acotado se puede aproximar por procesos acotados y continuos. Y éstos a su
vez se aproximan por procesos simples de la forma
n
X
Xtj · 1[tj ,ttj+1 ) (t),
j=0

en donde 0 = t0 < t1 < · · · < tn−1 < tn = T una partición finita de


[0, T ]. Los detalles completos de esta sucesión de aproximaciones pueden
encontrarse en [13]. Por la isometrı́a de Itô, la sucesión I(X k ) es una sucesión
de Cauchy en el espacio L2 (P ). En efecto,

||I(X k ) − I(X l )||L2 (P ) = ||I(X k − X l )||L2 (P )


= ||X k − X l ||L2 (P ×dt)
≤ ||X − X k ||L2 (P ×dt) + ||X − X l ||L2 (P ×dt) .

Debido a (4) la última expresión puede hacerse tan pequeña como se desee
tomando ı́ndices k y l suficientemente grandes. Entonces de manera natural
se define, para cada X en H2 ,

I(X) = lı́m I(X k )


k→∞

en donde el lı́mite debe entenderse dentro del espacio L2 (P ). Esto signifi-


ca que la variable aleatoria I(X) es un elemento de L2 (P ) y es tal que
lı́mn→∞ ||I(X) − I(X k )||L2 (P ) = 0. No es difı́cil verificar que tal definición
es correcta en el sentido de que el lı́mite no depende de la sucesión apro-
ximante. La isometrı́a de Itô y la propiedad de esperanza nula se cumplen
también para procesos en H2 . De esta forma tenemos ahora el mapeo lineal
y continuo I : H2 → L2 (P ).

Paso 3: La integral como un proceso. Hagamos ahora una pequeña


extensión. Para cada t en [0, T ] y para X en H2 se define
Z T Z t
It (X) = Xs · 1[0,t] (s)dBs = Xs dBs .
0 0

Esto permite ver a la integral estocástica no como una variable aleatoria sino
como un proceso. Es claro que tal proceso no es necesariamente continuo sin
embargo puede demostrarse que existe una versión continua de él, y que esa

13
versión es una martingala respecto de la filtración natural del movimiento
Browniano. Denotaremos por el mismo sı́mbolo a tal martingala continua.

Paso 4: Extensión por localización. Mediante un procedimiento llamado


de localización es posible extender la definición de integral de Itô a procesos
medibles y adaptados que cumplen la condición más relajada
Z T
P( |Xt |2 dt < ∞) = 1.
0

Denotaremos por L2loc el espacio de todos estos procesos. Este procedimiento


de localización hace uso de tiempos de paro. Los tiempos de paro relativos
a una filtración (Ft )t≥0 son variables aleatorias τ : Ω → [0, ∞] tales que
para cada t ≥ 0, el evento (τ ≤ t) pertenece a Ft . Cuando la filtración es
continua por la derecha, la condición anterior es equivalente a (τ ≥ t) ∈ Ft .
El nuevo espacio L2loc contiene a H2 y es tal que para cada proceso X en
L2loc existe una sucesión creciente de tiempos de paro {τn : n ≥ 1} tal que
Xt · 1(τn ≥t) ∈ H2 en donde τn % T cuando n crece a infinito. Se define
entonces la integral estocástica
Z t Z T
Xs dBs = lı́m Xs · 1[0,t] (s) · 1(τn ≥t) (ω)dBs .
0 n→∞ 0

Nuevamente es posible demostrar que tal lı́mite existe, que existe una versión
continua de tal lı́mite, y que es independiente de la sucesión de tiempos
de paro localizante. En este caso la integral ya no es una martingala sino
una martingala local, es decir, el proceso It∧τn (X) es una martingala para
cada natural n. En particular, para cualquier función continua f el proceso
{f (Bt ) : 0 ≤ t ≤ T } tiene trayectorias continuas y acotadas, por lo tanto es
un elemento de L2loc y tiene sentido la expresión
Z t
f (Bs )dBs .
0

Finalmente mencionaremos que es posible demostrar la integral anterior


puede ser calculada mediante el siguiente lı́mite cuya convergencia es en
probabilidad
Z t n−1
X
f (Bs )dBs = lı́m f (Bti )(Bti+1 − Bti ). (5)
0 n→∞
i=0

Con esto concluimos la serie de ideas generales bajo las cuales puede con-
struirse la integral de Itô. Las demostraciones de algunos detalles técnicos

14
I / L2 (P )
H02
Aproximación
² I
H2 / L2 (P )

Localización
²
I / L2 (P )
L2loc

Figura 4: Diagrama para la definición de la integral estocástica.

que hemos simplemente mencionado se pueden encontrar en [14]. El esquema


simplificado del procedimiento seguido para definir la integral estocástica se
ilustra en la Figura 4.

Ejemplo. Con la ayuda de (5) calcularemos la integral estocástica


Z t
Bs dBs .
0
Sea 0 = t0 < t1 < · · · < tn = t una partición uniforme de [0, t], es decir
ti+1 − ti = 1/n. Usando la identidad
1 1
a(b − a) = (b2 − a2 ) − (a − b)2
2 2
se obtiene
Z t n−1
X
Bs dBs = lı́m Btj (Btj+1 − Btj )
0 n→∞
j=0
n−1
X 1 1
= lı́m [ (Bt2j+1 − Bt2j ) − (Btj+1 − Btj )2 ]
n→∞ 2 2
j=0
1 2 1
= B − t.
2 t 2
Observe que el primer término del lado derecho corresponde a las reglas de
integración usual. El término adicional se conoce como la corrección de Itô.

Ahora veamos el cambio en la solución cuando modificamos ligeramente la


forma de calcular la integral, al hacer la evalución del integrando en el ex-
tremo derecho de cada subintervalo. Observe que en este caso el proceso a

15
integrar ya no es adaptado y por lo tanto queda fuera de la teorı́a desarro-
llada antes. Usando la identidad
1 1
b(b − a) = (b2 − a2 ) + (a − b)2
2 2
se obtiene
Z t n−1
X
Bs dBs = lı́m Btj+1 (Btj+1 − Btj )
0 n→∞
j=0
n−1
X 1 1
= lı́m [ (Bt2j+1 − Bt2j ) + (Btj+1 − Btj )2 ]
n→∞ 2 2
j=0
1 2 1
= B + t.
2 t 2
El signo del segundo término cambió de negativo a positivo. Esto muestra
que, a diferencia de la integral de Riemann, la integral estocástica es sensible
al punto donde se evalúa el integrando. Al considerar en cambio el promedio
de las evaluaciones en los extremos se obtiene la ası́ llamada integral de
Stratonovich, denotada de la forma siguiente
Z t
1
Bs ◦ dBs = Bt2 .
0 2
Observe que el término adicional de la integral de Itô ha desaparecido. La
integral de Stratonovich tiene algunas ventajas operacionales pues sigue al-
gunas reglas usuales del cálculo integral, pero vista como proceso deja de
ser una martingala.

Propiedades de la integral. La integral estocástica de Itô cumple varias


propiedades aunque sólo mencionaremos algunas de ellas aquı́ a manera de
resumen de las caracterı́sticas mencionadas antes. Primeramente debemos
mencionar que la integral It : L2loc → L2 (P ) es lineal, su esperanza es cero y
se cumple la isometrı́a de Itô
Z t Z t
2
E| Xs dBs | = E |Xs |2 ds.
0 0

En particular, para X ∈ H2 la integral It (X) vista como un proceso es una


martingala, es decir, es integrable, adaptado y para 0 ≤ s ≤ t, se cumple
E(It (X)|Fs ) = Is (X). Además existe una versión continua de tal proceso.
En general para X ∈ L2loc , la integral It (X) ya no es una martingala sino
una martingala local.

16
Figura 5: Kiyosi Itô (Japón, 1915–). Fuente: Archivo MacTutor, St. Andrews.

4. Ecuaciones diferenciales estocásticas

Una ecuación diferencial estocástica es una ecuación de la forma

dXt = b(t, Xt )dt + σ(t, Xt )dBt (6)

definida para t en [0, T ] y con condición inicial la variable aleatoria X0 que se


asume F0 -medible e independiente del movimiento Browniano. La incógni-
ta de esta ecuación es el proceso Xt y los coeficientes b(t, x) y σ(t, x) son
funciones de [0, T ] × R en R y se conocen como los coeficientes de tenden-
cia (drift en inglés o deriva en español) y de difusión respectivamente. La
ecuación diferencial (6) se interpreta como la ecuación integral
Z t Z t
Xt = X0 + b(s, Xs )ds + σ(s, Xs )dBs (7)
0 0

en donde la primera es una integral de Riemann mientras que la segunda


es una integral estocástica de Itô. Este proceso puede interpretarse como
un sistema determinista gobernado por la parte no aleatoria de la ecuación
pero perturbado por un ruido aditivo dado por la integral estocástica. A un
proceso estocástico de la forma (7) se le llama proceso de Itô y para que
esta ecuación tenga alguna solución se deben imponer condiciones en los
coeficientes. De manera análoga al caso determinista, los teoremas básicos

17
de existencia y unicidad para ecuaciones diferenciales estocásticas establecen
que bajo ciertas condiciones de regularidad para los coeficientes b y σ, la
ecuación (6) tiene una solución única, por ejemplo, si b y σ satisfacen la
condición de Lipschitz en la variable x,
|b(t, x) − b(t, y)|2 + |σ(t, x) − σ(t, y)|2 ≤ K|x − y|2 ,
y la condición de crecimiento en x,
|b(t, x)|2 + |σ(t, x)|2 ≤ K(1 + |x|2 ),
para alguna constante K > 0, entonces existe proceso estocástico Xt solución
de (6) que es adaptado, continuo, uniformemente acotado en L2 (P ), es decir,
sup0≤t≤T E(Xt2 ) < ∞, y es además único en el sentido de indistinguibilidad.
En este caso a tal solución se le llama solución fuerte de la ecuación. Es-
tos teoremas básicos no establecen la forma de encontrar la solución a una
ecuación estocástica dada. La famosa fórmula de Itô es el resultado clave
para realizar algunos de estos cálculos. Este importante resultado establece
que si Xt un proceso de Itô dado por (6) y f (t, x) es un función de clase
C 1 en t y de clase C 2 en x, entonces el proceso Yt = f (t, Xt ) es también un
proceso de Itô y satisface la ecuación
1
dYt = ft (t, Xt )dt + fx (t, Xt )dXt + fxx (t, Xt )(dXt )2 (8)
2
en donde los subı́ndices indican derivada y (6) se substituye en (8) usando
la siguiente tabla de multiplicación de McKean,
× dt dBt
dt 0 0
dBt 0 dt

Observe que como las derivadas involucradas son funciones continuas las
integrales estocásticas resultantes están bien definidas. Por ejemplo, si se
toma f (t, x) = 12 x2 y el proceso Xt = Bt entonces la fórmula de Itô establece
que Z t
1 1
Bs dBs = Bt2 − t.
0 2 2
Este mismo resultado habı́a sido obtenido antes mediante un procedimiento
lı́mite. Veamos otro ejemplo sencillo. Para la función f (t, x) = 13 x3 y Xt = Bt
se obtiene Z t Z t
2 1 3
Bs dBs = Bt − Bt dt.
0 3 0

18
Un ejemplo mas, Z Z
t t
sdBs = tBt − Bt dt.
0 0
Para verificar esta formula puede tomarse el proceso Xt = Bt y la función
f (t, x) = tx. Entonces
1
d(f (t, Bt )) = ft (t, Bt )dt + fx (t, Bt )dBt + fxx (t, Bt )(dBt )2
2
d(tBt ) = Bt dt + tdBt .

Integrando se obtiene la fórmula enunciada.

5. Dos modelos simples

Estudiamos ahora dos ejemplos importantes de ecuaciones diferenciales es-


tocásticas. El primero de ellos con aplicación en finanzas y el otro en fı́sica.
Estos modelos son sencillos y podremos encontrarles solución explı́cita.

Movimiento Browniano geométrico. Suponga que el proceso Xt sigue


una ley de movimiento dada por la ecuación estocástica

dXt = µXt dt + σXt dBt (9)

con condición inicial X0 = x0 > 0, en donde µ y σ > 0 son constantes. Este


ecuación es de amplio uso en finanzas para modelar el precio de algunos
bienes que fluctúan siguiendo los vaivenes de los mercados financieros.

La ecuación (9) puede interpretarse de la siguiente forma. En ausencia del


término estocástico la ecuación se reduce a dXt = µXt dt con solución Xt =
x0 eµt . Esta solución representa el comportamiento de un capital inicial x0 >
0 que crece de manera continua y determinista a una tasa efectiva del 100·µ %
suponiendo µ > 0 2 .

Por otro lado la parte estocástica corresponde a la volatilidad de una in-


versión con riesgo sujeta a las fluctuaciones de los mercados financieros. El
modelo asume que dicha variabilidad es proporcional al valor de la inversión.
2
Esto es equivalente a una tasa continua o nominal del 100 · ln(1 + µ) %. Por ejemplo si
µ =0.1 entonces al final de una unidad de tiempo, el capital inicial x0 crecerá a x0 · e0.1 =
x0 · 1.10517092= x0 · (1+0.10517092) unidades monetarias.

19
A mayor valor de la inversión mayor variación en el precio. En la Figura 6
puede apreciarse una trayectoria de este proceso con una inversión inicial x0
de una unidad monetaria y con parámetros µ = 1 y σ 2 = 1/2. La curva cre-
ciente corresponde al crecimiento determinista de la inversión cuando no hay
aleatoriedad, es decir cuando σ 2 = 0. Realmente se efectuaron varias simu-
laciones resultando trayectorias a veces por arriba y a veces por abajo de la
curva determinista y eventualmente algún cruce, pero se decidió mostrar la
presente pues en ella se observa que efectivamente la trayectoria estocástica
sigue la curva determinista y oscila alrededor de ella. El lector interesado
en la simulación de ecuaciones estocásticas puede consultar el clásico y muy
completo libro de Kloeden y Platen [9].

Observe que los coeficientes de esta ecuación satisfacen las condiciones para
la existencia y unicidad de la solución. Es posible resolver la ecuación (9)
usando el método de igualación de coeficientes. Para ello se necesita en-
contrar una función f (t, x) tal que al aplicar la fórmula de Itô al proceso
Xt = f (t, Bt ) se obtenga la ecuación (9). Comparando entonces los coefi-
cientes de
1
dXt = ft (t, Xt )dt + fx (t, Xt )dBt + fxx (t, Xt )dt
2
con los de (9) se obtienen las igualdades
1
µf (t, x) = ft (t, x) + fxx (t, x),
2
σf (t, x) = fx (t, x).

De la segunda ecuación se obtiene que f (t, x) = exp[σx + g(t)] para alguna


función g(t). Substituyendo en la primera ecuación se obtiene g 0 (t) = µ− 12 σ 2
cuya solución es g(t) = (µ − 12 σ 2 )t. Por lo tanto la solución de (9) es
1
Xt = x0 exp[(µ − σ 2 )t + σBt ].
2
A este proceso se le llama movimiento Browniano geométrico y también se
le conoce como movimiento Browniano exponencial.

Proceso de Ornstein-Uhlenbeck. Considere ahora la ecuación estocásti-


ca
dXt = −αXt dt + σ dBt (10)
en donde α y σ son constantes positivas. Esta ecuación fue propuesta por
Ornstein y Uhlenbeck para modelar la variación de la velocidad en el movimien-

20
2.4

1.6

1.2

0 200 400 600 800 1000

Figura 6: Simulación del movimiento Browniano geométrico.

to difuso de una partı́cula para tiempos pequeños. La variable Xt se inter-


preta entonces como la velocidad de la partı́cula al tiempo t. La parte de-
terminista −αXt corresponde a la fuerza de fricción y el sumando σ dBt es
una perturbación aleatoria. Encontraremos la solución de (10) suponiendo
la condición inicial X0 = x0 . Considere una solución de la forma
Z t
Xt = a(t)[x0 + b(s)dBs ] (11)
0

en donde a y b son funciones diferenciables. Derivando (11) y usando la


fórmula de Itô se obtiene
Z t
dXt = a0 (t)[x0 + b(s)dBs ]dt + a(t)b(t)dBt
0
a0 (t)
= Xt dt + a(t)b(t)dBt .
a(t)

Comparando con (10) las funciones a y b deben entonces cumplir

a0 (t)
= −α, a(t)b(t) = σ.
a(t)

21
Suponiendo a(0) = 1 se obtiene a(t) = exp(−αt) y b(t) = σ exp(αt). Por lo
tanto el proceso solución de (10), llamado proceso de Ornstein-Uhlenbeck, es
Z t
−αt
Xt = x0 e +σ e−α(t−s) dBs .
0

Otros modelos de ecuaciones estocásticas y una gran variedad de aplicaciones


pueden encontrarse en el libro de Kloeden y Platen [9]. Para un estudio sis-
temático y detallado de estos temas pueden consultarse [3],[5],[7],[13], o [14].

Referencias

[1] Brown R. (1828) A brief account of Microscopical Observations made in


the Months of June, July, and August, 1827, on the Particles contained
in the Pollen of Plants; and on the general Existence of active Molecules
in Organic and Inorganic Bodies, Philosophical Magazine N. S. 4, 161-
173.

[2] Brzeźniak Z. y Zastawniak T. (1999) Basic stochastic processes.


Springer.

[3] Chung K. L. y Williams R. J. (1983) Introduction to stochastic integra-


tion. Birkhäuser.

[4] Einstein A. (1956) Investigations on the theory of the Brownian move-


ment. Dover.

[5] Gard T. C. (1988) Introduction to stochastic differential equations. Mar-


cel Dekker, Inc.

[6] Hernández-Hernández D. (2004) Movimiento Browniano y ecuaciones


de Hamilton-Jacobi. Carta Informativa 42, SMM.

[7] Karatzas I. y Shreve S. E. (1991) Brownian motion and stochastic cal-


culus. Springer.

[8] Karlin S. y Taylor H. M. (1975) A first course in stochastic processes.


Academic Press, Inc.

[9] Kloeden P. E. y Platen E. (1999) Numerical solution of stochastic dif-


ferential equations. Springer–Verlag.

22
[10] Korn R. y Korn E. (2001) Option pricing and portfolio optimization:
modern methods of financial mathematics. Graduate Studies in Math-
ematics 31. AMS.

[11] León J. A. (2001) Una introducción a las ecuaciones diferenciales es-


tocásticas. Carta Informativa, SMM.

[12] Nelson E. (1967) Dynamical theories of Brownian motion. Princeton


University Press.

[13] Øksendal B. (1992) Stochastic differential equations: an introduction


with applications. Springer–Verlag.

[14] Steele J. M. (2001) Stochastic calculus and financial applications.


Springer–Verlag.

23

También podría gustarte