Generacion
Generacion
Generacion
Caso Especial
Distribución Binomial
Para generar una v.a.d. X ~ B(n,p)
n
X Z i ; Z i ~ B(1, p ) independientes
i 1
Algoritmo
P1 : Hacer X = 0
P2 : Efectuar n réplicas
- Generar U ~ U(0,1)
Si U < p , Hacer X = X + 1
Si U p , Hacer X = X + 0
P3 : Generar salida X
Observación: Método propuesto requiere de generar “n”
números aleatorios y n comparaciones
Métodos Específicos
Sea (n i ) p
P( X i 1) P( X i )
(i 1)(1 p)
P P( X i) ; F P( X i)
Métodos Específicos
Algoritmo
P1 : Genera U ~ U(0,1)
P2 : Hacer i = 0 , P = F = (1-p)n
Hasta que U < F
(n i ) p
Hacer P = (i 1)(1 p) P ,F=F+P
i=i+1
P3 : Generar salida X = i
Métodos Específicos
Distribución Poisson
Algoritmo
P1 : Genera U ~ U(0,1)
P2 : Hacer i = 0 F = P = Exp(-)
Hasta que U < F
Hacer P = (i 1) P , F = F + P
i=i+1
P3 : Generar salida X = i
Métodos Específicos
Distribución Geométrica
Para generar una v.a.d. X ~ G(p), es posible discretizar
Y ~ exp(). Sea X = [y]
Distribución Hipergeométrica
Para generar una distribución Hipergeométrica H(m,n,p)
se efectúan n extracciones sin reposición de un conjunto
de m elementos de dos clases {p m C1 y m(1-p) C2 }
Algoritmo
P1 : Hacer X = 0, C1 = mp C2 = m-C1
P2 : Repetir n veces
Generar U ~ U(0,1)
Si U C1/m hacer X = X+1 , C1 = C1 - 1
sino , C2 = C2 - 1
Hacer m = m - 1
P3 : Generar salida X
Métodos Específicos
Distribuciones Multivariadas
Distribuciones Independientes
El caso más simple lo constituye el de distribuciones
marginales independientes
p
F ( x ) Fxi ( xi )
i 1
Distribuciones Dependientes
Distribuciones Dependientes con condicionadas
disponibles. Utilizando la descomposición
F(x) = F1(x1) • F2(x2 / x1)...• F(xp / x1,x2,...,xp-1)
Si disponemos de las distribuciones
Xi / X1, ..., Xi-1 i = 1,2,...,p
Algoritmo
P1 : Desde i=1,2,...,p
Generar Xi ~ Xi / x1, ..., xi-1
P2 : Generar salida x = (x1,x2,...,xp)
Métodos Específicos
Estadísticos de Orden
Para muestrear (X(1), X(2),...,X(p)), el estadístico de orden
asociado a m.a.s. X1,X2,...,Xp de X. La forma obvia de
muestrear es hacerlo de (X1,X2,...,Xp). Alternativamente,
podemos generar la muestra de orden. Por ejemplo, si
conocemos la inversa generalizada F, podemos generar
números aleatorios (U(1), U(2),...,U(p)) y salir X(i) = F(U(i)).
Para ello es necesario generar una muestra ordenada de
números aleatorios (U(1), U(2),...,U(p)) .
Métodos Específicos
Algoritmo
P1 : Generar U(1), U(2),...,U(p) ~ U(0,1)
P2 : Hacer U(p) = (Up)1/p
U(k) = U(k+1) Uk1/k
Métodos Específicos
Distribuciones Discretas
Las distribuciones discretas multivariadas no difieren de las
univariadas. El soporte puede ser grande, pero los
métodos, inversión, alias, etc. funcionan bien.
Ejemplo : Distribución bivariada (X,Y) con soporte
{1,2,...,L}x{1,2,...,M} tenemos
Pxy = P(X x) + P(X=x, Y=y)
indexado en x.
Métodos Específicos
Métodos Específicos
Distribución de Wishart
Para generar una v.a.c. W ~ W(n,,) para = 0, si = LLt
n
Entonces:
W = L V Lt ~ W (n,,0)
Métodos Específicos
Algoritmo
P1 : Generar Zij ~ N(0,1) i = 1,2,...,n j=1,2,...,n
n
P2 : Hacer V = Zi Zit
i 1
P3 : Hacer W = L V Lt
P4 : Salida W
Métodos Específicos
k 1 k p 1
donde se genera W, similar al caso = 0 usando np
normales estándares.
Métodos Específicos
q
i 1
i 1, qi 0 i 1
X i n, i 1,2,..., p
Algoritmo
Hacer t = 0, Xo = io , j = 0
Mientras t < N
Generar tj ~ exp(vxj)
Hacer t = t + tj
Hacer j = j + 1
Generar Xj ~ Pxj-1
Métodos Específicos
Proceso de Poisson
En el Proceso de Poisson P(), el número de eventos NT
en un intervalo (0,T) es P(T) y los NT ~ U(0,T)
Algoritmo
- Generar NT ~ P(T)
- Generar U1, ..., UT ~ U(0,T)
Métodos Específicos
OBS :
1) Para procesos de Poisson no homogéneos, con
t
intensidad (t) y u(t) = (s) ds . Entonces
0
- Generar NT ~ P(u(t))
- Generar T1, T2 ,..., TNT ~ I[ 0,T ]
(t )
El Proceso de Gibbs
El creciente interés en los métodos de cadenas de Markov,
se debe al uso en Inferencia Bayesiana del Muestrador de
Gibbs. [Geman (1984)]
Ejemplo: Sean (X,Y) v.a.d. Bernoulli con distribución
x y P(X,Y)
0 0 p1
1 0 p2 pi = 1
0 1 p3 pi > 0
1 1 p4
Métodos Específicos
P(X=1) = p2 + p4 (Marginal)
p3 x 0
P(X/Y=1) =
p4 x 1
p4
P(X=1/Y=1) =
p3 p 4
Las Distribuciones condicionales
P( y 0 / x 0) p( y 1 / x 0)
Ayx
P( y 0 / x 1) P( y 1 / x 1)
p p1p p3
Ayx 1 3 p1 p3
p2 p4
p2 p4 p2 p4
Métodos Específicos
p1 p2
Axy
p1 p2 p1 p2
p3 p4
p3 p4 p3 p4
Algoritmo
Escoger Y0 = y0 , j =1
Repetir
Generar Xj ~ X/Y = yj-1
Generar Yj ~ Y/X = xj
j=j+1
Entonces {Xn} define una cadena de Markov con matriz de
transición
A = Ayx Axy
Métodos Específicos
(x2/x1) = exp[ x1 x2 ]
2
El muestreador Gibbs
Escoger x20 ; j = 1
Repetir
Generar X1j ~ exp[1+(x2j-1)2]
Generar X2j ~ N(0, 1/2x1j)
OBS: Las secuencias podrían efectuarse en forma
aleatoria en lugar de usar la secuenciación natural
Estudiar el Algoritmo de Metropolis-Hastings.