Esperanza, Varianza y Momentos
Esperanza, Varianza y Momentos
Esperanza, Varianza y Momentos
Esperanza
Empecemos considerando una variable aleatoria discreta X que toma un nmero nito de
valores fx1 ; x2 ; : : : ; xk g : Entonces los eventos [X = xi ] son mutuamente excluyentes y forman
una particin del espaico muestral. Imaginen que repiten un nmero grande N de veces el
experimento, siempre en las mismas condiciones, y se registra el nmero
Pk de veces que ocurre
cada uno de los valores. Sea ni el nmero de veces que ocurri xi ; i=1 ni = N: Entonces,
el promedio de los resultados obtenidos est dado por
k
X
xi ni
i=i
k
X
xi
i=1
ni
N
k
X
xi P (X = xi ) =
i=1
k
X
xi fX (xi ) :
i=1
Es decir, la esperanza es el promedio de los valores que toma una variable cuando se repite
muchas veces el experimento. Tambin se puede ver como un promedio ponderado, donde
a cada posible valor de la variable se le asigna un peso igual a su probabilidad de ocurrir.
Si la variable aleatoria es discreta y toma un nmero numerable de valores fx1 ; x2 ; x3 ; : : : g ;
obtenemos una serie.
1
X
E (X) =
xi fX (xi )
i=1
P
que puede ser convergente o divergente. Si la serie 1
i=1 jxi j fX (xi ) es convergente, entonces
se dice que la variable aleatoria tiene esperanza nita y se dene la esperanza como acabamos
de ver.
1
X
i=1
xi fX (xi )
Ejemplo 2 Se lanzan dos dados bien balanceados y se dene X como la variable aleatoria
que indica la diferencia absoluta de los resultados obtenidos. X toma valores en f0; 1; 2; 3; 4; 5g
y su esperanza es
1
X
E (X) =
xi fX (xi )
i=1
6
10
8
+1 +2
36
36
36
6
4
2
+3 + 4 + 5
36
36
36
70
=
36
= 0
Observen que la esperanza de una variable aleatoria puede no ser uno de los valores que la
variable puede tomar, a pesar de que tambin se le llama "valor esperado". En realidad es
un promedio, es decir, un nmero alrededor del cual estarn la mayora de los resultados que
se obtienen al repetir muchas veces el experimento. En ese sentido es un valor central de
los resultados. Por tal razn, tambin se le conoce como media de la variable aleatoria X:
Resumiendo la terminologa y la notacin, tenemos que la esperanza de X tambin se conoce
como valor esperado de X y como media de X: Las notaciones ms usuales son E (X) y X :
Ejemplo 3 Se hacen lanzamientos de una moneda bien balanceada hasta que se obtenga por
primera vez un sol. Sea X la variable aleatoria discreta que indica el nmero de guilas que
se obtienen antes de obtener el primer sol. X toma valores en f0; 1; 2; : : : g : Para obtener la
densidad de X, calculemos
1
P [X = x] =
2
1
2
1
2
x+1
Por lo que
fX (x) =
1 x+1
2
si x 2 f0; 1; 2; : : : g
en otro caso
1
X
x=1
1
2
1
=0 +1
2
1
22
+2
1
23
+3
1
24
+ :::
Sabiendo que esta serie es absolutamente convergente, podemos hacer un reacomodo para
observar a qu converge
E (X) =
1
X
x=1
1
2
1
+2
22
1
23
1
24
+3
+4
1
25
+ :::
1
1
1
1
1
1
+ 3 + 4 + ::: + 3 + 4 + 5 + :::
2
2
2
2
2
2
2
1
1
1
+ 4 + 5 + 6 + ::: +
2
2
2
2
1=23
1=24
1=2
+
+
+ :::
=
1 1=2 1 1=2 1 1=2
1
1
1
1=2
=
+ 2+ 3+
=1
=
2 2
2
1 1=2
=
Es decir, si repetimos muchas veces el experimento de lanzar monedas hasta que por primera
vez salga un sol, en promedio obtendremos un guila antes de detenernos (lo cul es lgico).
Si la variable aleatoria es absolutamente continua, la forma natural de sacar "promedios" es
usando la integral, demanera que obtendramos
Z 1
E (X) =
xfX (x) dx
1
De nuevo, esta integral (impropia) puede ser convergente o divergente, de donde se desprende
la siguiente denicin
Denicin 4 Esperanza de una variable aleatoria absolutamente Rcontinua. Sea
1
X una variable aleatoria absolutamente continua con densidad fX : Si
jxj fX (x) es
1
convergente, entonces se dice que la variable aleatoria tiene esperanza nita y se dene la
esperanza como
Z
1
E (X) =
xfX (x)
x) =
x
:
L
1
L
si x 2 (0; L)
:
0 en otro caso
fX (x) =
Vemos primero si esta funcin es realmente una densidad. Es claro que sus imgenes son
no negativas. La otra propiedad dice que debemos obtener 1 en la integral
Z 1
Z 1
Z k
2
fX (x) dx =
x dx = lim
x 2 dx
1
k!1
1
k
lim
K!1
=1
lim
k!1
x x
dx
1
dx = lim ln k = 1
k!1
x
fX (y) dydx:
Se cubre la misma regin cuando para cada x la ordenada corre desde y = x hasta innito,
que cuando para cada y la abscisa corre desde 0 hasta x = y: As obtenem os:
Z 1
Z 1Z y
Z 1
Z 1
Z y
P [X > x] dx =
fX (y) dxdy =
fX (y)
dx dy =
yfX (y) dy:
0
Anlogamente,
Z
P [X
x] dx =
=
=
fX (y) dydx
1
0
1
y
fX (y) dxdy
Z y
fX (y)
dx dy
0
De ah que
E (X) =
=
Z
Z
1
1
1
yfX (y) dy =
P [X > x] dx
yfX (y) dy +
1
P [X
yfX (y) dy
1
x] dx:
Si las dos integrales impropias dadas en la expresin anterior son absolutamente convergentes, se dice que la variable tiene esperanza nita.
5
Proposicin 8 Si X es una variable aleatoria con densidad y g (X) es una variable aleatoria
discreta, entonces
1
X
E (g (X)) =
g (xi ) P [X = xi ]
i=1
Demostracin. Sea Y = g (X) una variable aleatoria que toma los valores y1 ; y2 ; : : : :
Obsrvese que el conjunto de valores que toma X es
fx1 ; x2 ; x3 ; : : : g = fx j g (x) = y1 g [ fx j g (x) = y2 g [ fx j g (x) = y3 g [
As que:
E (g (X)) = E (Y ) =
=
1
X
yi P (Y = yi ) =
i=1
1
X
g (xi ) P [X = xi ]
g (xi ) P [X = xi ]
xi
Demostracin.
P [g (X)
P [g (X) > x] dx
0
0
Z 1Z
Z 1Z
=
fX (y) dydx
0
fy j g(y)>xg
0
fy
!
Z
Z
Z
E (g (X)) =
x] dx
j g(y)
xg
g(y)
=
=
=
g(y)
dx fX (y) dy
fy j g(y)>0g
g (y) fX (y) dy +
fy j g(y)>0g
Z 1
fX (y) dydx
!
Z
dx fX (y) dy
fy j g(y) 0g
g (y) fX (y) dy
fy j g(y) 0g
En el caso de una variable absolutamente continua Y = g (X) con g invertible, se puede usar
el Teorema de cambio de variable: se tiene que g 1 (y) = x y
Z
Z
f (x) dx = f (g (y)) g 0 (y) dy
Entonces, en la esperanza obtenemos:
Z 1
Z
yfY (y) dy =
1
Z
=
Z
=
Z
=
=
1
1
1
dFX (g 1 (y))
dg (x)
dy
1
1
dg 1 (y)
g (x) fX g 1 (y)
dg (x)
dy
1
1
1
g (x) fX (x) dg(x) dg (x)
1
1
g (x)
dx
g (x) fX (x) dx
si
1<x<1
0 en otro caso
fX (x) =
fY (y) =
si 0 < y < 1
en otro caso
yfY (y) dy =
1p
1 3
ydy = y 2
2
3
7
=
0
y
p dy
2 y
1
3
=
1
1 1
1
+ =
6 6
3
E (g2 (X)).
Demostracin. Las demostraciones se harn considernado que X es absolutamente continua. Son anlogas cuando se trata de una variable aleatoria discreta:
1. Si P (X = c) = 1, entonces X es una variable aleatoria discreta que toma nicamente
el valor c: Por lo tanto, su esperanza est dada por E (X) = cP (X = c) = c:
2. Si X es absolutamente continua, entonces
Z 1
Z
E (cg (X)) =
cg (x) fX (x) dx = c
1
3.
E (g1 (X) + g2 (X)) =
=
1
1
1
1
E (g2 (x)
E (g1 (X)) :
i=1
Observacin 12 En realidad, las n variables aleatorias no tienen que obtenrse como funciones de una misma variable X: Slo que la demostracin de este hecho requiere conocer
la funcin de densidad del vector aleatoreo (X1 ; X2 ; : : : ; Xn ) ; cosa que veremos en Proba 2.
Entonces, se tiene que
!
n
n
X
X
E
ci Xi =
ci E (Xi )
i=1
i=1
Xi =
Como cada Xi se reere a una sola extraccin, es fcil calcular su esperanza. La probabilidad
de que en la i sima extraccin se extraiga exctamente la tarjeta i es P (Xi = 1) = N1 y
P (Xi = 0) = 1 N1 1 ; as que E (Xi ) = (1) P (Xi = 1) + (0) P (Xi = 0) = N1 : Como X =
X1 + X2 +
+ XN
N
N
X
X
1
E (X) =
E (Xi ) =
=1
N
i=1
i=1
Es decir, en promedio, el jugador ganar $1, si repite muchas veces el juego, o bien, dicho
de otro modo, en promedio slo habr un "pareamiento" entre el nmero de extraccin y el
nmero de la bola.
1
Para 3 bolas, sea Ai : la primera extraccin sale i; B1 : la segunda extraccin sale la bola i y Ci : la
tercera extraccin sale la bola i: Entonces
1
para toda i
3
P (B2 ) = P (B2 jA1 ) P (A1 ) + P (B2 jA3 ) P (A3 )
1 1
1 1
1
=
+
=
2 3
2 3
3
P (C3 ) = P (C3 jA1 \ B2 ) P (A1 \ B2 ) + P (C3 jA2 \ B1 ) P (A2 \ B1 )
1
1
1
= 1
+1
= :
6
6
3
P (Ai )
Ejemplo 14 Una urna contiene N pares de tarjetas, cada par marcado con un nmero del
1 al N: Se extraen m tarjetas al azar (todas de un jaln). Vamos a encontrar la esperanza del nmero de parejas que quedan dentro de la urna. Sea X la variable aleatoria que
indica el nmero de parejas (completas) que quedaron dentro de la urna despus de la extraccin. Descompongamos X en variables aleatorias que se reeran a una sola pareja. Para
ello,tomemos
Xi =
Para que el par i quede adentro se requiere que las m tarjetas extradas hayan sido elegidas
de las 2N 2 que no tienen ese nmero, de manera que
E (Xi ) = P (Xi = 1) =
2N 2
m
2N
m
(2N 2)!
m!(2N 2 m)!
(2N )!
m!(2N m)!
m! (2N m)!
(2N 2)!
m! (2N 2 m)!
(2N )!
(2N m) (2N m 1)
=
2N (2N 1)
=
N
X
E (Xi ) =
(2N
i=1
m) (2N m
2 (2N 1)
1)
Cuando se trata de una variable aleatoria discreta que toma valores no negativos, hay una
expresin para la esperanza que resulta muy til. Supongamos que X toma valores en
f0; 1; 2; : : : g Entonces
E (X) =
1
X
xP (X = x) =
1
X
xP (X = x)
x=1
x=0
= P (X = 1) + P (X = 2) + P (X = 3) +
+P (X = 2) + P (X = 3) +
+P (X = 3) +
..
= P (X 1) + P (X
1
X
=
P (X n)
2) + P (X
n=1
Por tanto
E (X) =
1
X
n=1
10
P (X
n)
3) +
Ejemplo 15 Una persona intenta cierta tarea hasta que la acaba. En cada intento, p es
la probabilidad de que concluya la tarea y q = 1 p es la probabilidad de que no lo logre. Supongamos que los intentos son independientes. Para calcular el nmero esperado de
intentos hasta que logre concluir la tarea, sea X el nmero de intentos. X toma valores
en f1; 2; 3; : : : g : Ntese que para n
1; P (X n) = q n 1 porque se requiere que hayan
ocurrido n 1 fracasos para que en al menos n intentos logre su objetivo. (En particular,
P (X 1) = 1 porque se requiere al menos un intento para que logre su objetivo). Por lo
tanto
1
X
1
1
= :
E (X) =
qn 1 =
1 q
p
n=1
Es importante tener en cuenta que la E (X) es un nmero, no una variable. De hecho, sin
realizar ni una sola vez el experimento, podemos calcular E (X) : Por ello, antes de realizarlo,
podemos estimar el valor que caer usando E (X) (aunque hay que tener en cuenta que E (X)
puede no ser uno de los valores que toma la variable aleatoria).
Varianza
Como mencionamos antes, la media es el promedio de los resultados que se obtienen al
realizar muchas veces el experimento. Sin embargo los valores que toma X pueden diferir
mucho de su media. Es importante tener tambin una idea de la dispersin de los posibles
resultados. De hecho, como antes de realizar el experimento no tenemos conocimiento de
qu valor obtendremos, podemos pensar en que la E (X) nos brinda una aproximacin o una
estimacin del resultado que se obtendr y, en este contexto, resulta muy importante tener
una idea de qu tan lejos de nuestra estimacin puede estar el resultado real.
Siguiendo el mismo razonamiento que seguimos para denir la esperanza, podemos pensar en
realizar muchas veces el experimento y en cada prueba observar qu tan lejos cae el resultado
obtenido de la media calculando jxi E (X)j : Si el resultadi xi ocurre ni veces en N pruebas,
obtendramos que la desviacin promedio es
n2
nk
n1
+ jx2 E (X)j
+
+ jxk E (X)j
jx1 E (X)j
N
N
N
Al aumentar el nmero N de pruebas realizadas siempre en las mismas condiciones, de
acuerdo a la denicin frecuencial, obtenemos
Desviacin media =
k
X
i=1
jxi
E (X)j P (X = xi ) = E [jX
E (X)j]
Sin embargo, hay un pequeo problema. Supongamos que estimamos el valor de una variable
aleatoria X por E (X) : Para que sea una buena aproximacin, debiera ocurrir que la funcin
h (u) = E (jX uj) alcance su mnimo en u = E (X) : Pero esto no ocurre. de hecho, la
funcin h (u) alcanza su mnimo en la mediana. Si se repite muchas veces un experimento
y se ordenan todos los resultados obtenidos de menor a mayor, la mediana es el valor que
queda extamente en el centro de ese ordenamiento. Se dene, de la siguiente forma. La
mediana M e (X) es un nmero para el que se cumple que
P (X
M e (X))
1
2
y
11
P (X
M e (X))
1
:
2
Podemos entonces adoptar como valor central a la mediana y a la desviacin media como
medida de dispersin. Pero la mediana no necesariamente es nica y su manejo no es
sencillo. Conviene
ms hacer un cambio en la forma de medir la dispersin. Recordemos
p
2
que jxj = x : Usando esta idea, en lugar de tomar jxi E (X)j usaremos (xi E (X))2
y luego veremos cmo agregar la raz cuadrada. Para distancias cortas ambas cantidades
son similares ( jxi E (X)j y (xi E (X))2 ), pero para distancias largas, (xi E (X))2 es
mucho ms grande que jxi E (X)j ; de manera que tomar cuadrados le d mas peso a los
valores alejados, aunque la probabilidad de estos valores deber ser pequea. La ventaja es
que la funcin h (u) = E (X u)2 si alcanza su mnimo en u = E (X) :
Denicin 16 Sea X una variable aleatoria. Denimos la varianza de X como
E (X))2
E (X
Si X es discreta, esta denicin indica que
X
var (X) =
(x
E (X))2 P (X = x)
E (X))2 fX (x)
(x
E (X))2 fX (x) dx
Las dos notaciones usuales para la varianza son var (X) y 2 : Pero la varianza, por obtenerse
elevando al cuadrado, cambia las unidades en las que se mide la variable aletaoria. Si por
ejemplo X mide una distancia en cm la varianza estar dada en cm2 ; de manera que para
tener una idea ms clara de la dispersin en las unidades originales, debemos extraer raz
cuadrada
Denicin 17 La desviacin estndar de una variable aleatoria X es
p
DE = var (X)
0
+ 3
70
36
70
36
6
36
2
6
36
+ 1
+ 4
= 2:05
12
70
36
70
36
10
36
2
4
36
+ 2
2
+ 5
70
36
70
36
8
36
2
2
36
fX (x) =
Su esperanza es
E (X) =
2x2 dx =
Entonces
var (X) =
2
3
2x3
2 3
x
3
=
0
2
3
2xdx
8 2 8
x + x dx
3
9
1 4 8 3
x
x +
2
9
1 8 4
+ =
=
2 9 9
=
4 2
x
9
1
18
1
0
Propiedades de la varianza
1. El siguiente resultado nos brinda otra expresin para la varianza que resulta muy til.
Sea X una variable aleatoria con esperanza y varianza nitas, entonces
var (X) = E X 2
[E (X)]2
E (X))2 = E X 2
= E X2
= E X2
[E (X)]2 :
Ntese que de aqu se desprende que existe varianza nita si X tiene esperanza nita
y X 2 tiene esperanza nita. En realidad, ms adelante veremos que basta pedir que
X 2 tenga esperanza nita para garantizar que tambin X la tenga.
2. Si la variable aleatoria es constante, en realidad no hay dispersin porque siempre que
se realice el experimento se obtendr el mismo valor de X: Para mostrarlo, usemos que
si X = k; E (X) = k; de manera que, de la expresin anterior para la varianza conduce
a
k2 = k2 k2 = 0
var (X) = E k 2
Esto tambin se suele escribir en la forma var (k) = 0:
13
3. Qu efecto tiene en la varianza el producto de una variable aleatoria por una constante?
var (aX) = E a2 X 2
(E (aX))2
= a2 E X 2
(aE (X))2
= a2 E X 2
= a2 var (X) :
(E (X))2
4. Por ltimo, vimos que en el caso de la esperanza, la media de una suma es la suma
de las medias. En el caso de la varianza el resultado no es tan sencillo. Analicemos la
varianza de una suma:
var (X + Y ) = E (X + Y )2
(E (X + Y ))2
(E (X) + E (Y ))2
= E X + 2XY + Y 2
= E (X) + 2E (XY ) + E Y 2
(E (X))2 2E (X) E (Y )
= var (X) + var (Y ) + 2 [E (XY ) E (X) E (Y )]
(E (Y ))2
Para que la varianza de una suma sea igual a la suma de las varianzas, el ltimo
sumando obtenido en la expresin anterior debiera ser cero. Cundo ocurre esto?.
Bueno pues en Proba 2 veremos que si X y Y son independientes, entoces E (XY ) =
E (X) E (Y ) ; de donde se obtiene el siguiente resultado
var (X + Y ) = var (X) + var (Y ) slo cuando X y Y son indepednientes.
Desigualdad de Chebyshev
Vamos a ver ahora una desigualdad, la desigualdad de Chevyshev, que proporciona una cota
para la probabilidad de que los valores de una variable aleatoria caigan en un intervalo alrededor de su esperanza. Esta desigualdad es en realidad un corolario del siguiente teorema, que
es vlido para cualquier variable aleatoria con varianza nita, pero que aqu demostraremos
para una variable aleatoria con densidad. Veamos primero un resultado preliminar.
Teorema 20 Desigualdad de Markov. Sea X una variable aleatoria y g una funcin
no-negativa con dominio en R: Si la E (g (X)) es nita y k es un real positivo, entonces
P (g (X)
k)
E (g (X))
k
14
g (x) fX (x) dx
g (x) fX (x) dx +
fxjg(x) kg
g (x) fX (x) dx
fxjg(x)<kg
g (x) fX (x) dx
fxjg(x) kg
k)
fxjg(x) kg
E (X)j
r )
1
) P (jX
r2
en el teorema anterior.
E (X)j < r )
1
r2
E (X)j
2 )
3
= :75
4
es decir, con probabilidad mayor que 0:75 los valores de X estn entre E (X) 2 y E (X) +
2 : Para r = 3
8
P (jX E (X)j 3 )
= 0:89
9
es decir, con probabilidad mayor que 0:89; los valores de X se encuentran entre E (X) 3
y E (X) + 3: Estas cotas no son muy buenas, en el sentido de que pueden estar lejos del
valor real, pero sirven para darnos una idea de qu tan lejos pueden estar los valores de X
de su esperanza.. La utilidad de la desigualdad de Chebyshev no se restringe a este aspecto
prctico, sino que se puede utilizar para la demostracin de algunos de los teoremas lmite
que veremos en Probabilidad 2.
P (jXj
fxjjxj>1g
1) + E (jXj ) < 1
E (X))n )
=x
t=0
Vamos a usar este hecho para facilitar el clculo de momentos de una variable. Denimos
mX (t) = E etX :
Esta esperanza es nita (y est bien denida la funcin) cuando X toma valores en un
conjunto acotado. Si no es as, puede existir o no.
Derivando y evaluando en cero obtenemos
d
E etX
dt
mX 0 (t) =
=E
t=0
= E XetX
t=0
d tX
e
dt
t=0
= E (X)
00
d2
(t) = 2 E etX
dt
= E X 2 etX
t=0
t=0
= E X2 :
(n)
(t) =
dn
E etX
dtn
= E X n etX
t=0
t=0
= E (X n ) :
fX (x) =
si x > 0
en otro caso
x(
t)
17
t) e
x(
t)
dx
Por tanto,
E (X) =
d
mX (t)
dt
=
t=0
t)
t=0
y
E X
d2
= 2 mX (t)
dt
=
t=0
2
(
t)
2:
t=0
De maenra que
var (X) = E X 2
(E (X))2 =
2:
1
X
E Xk
k=0
tk
k!
= E (X n )
t=0
con n 2 N:
18
Bibliografa
1. Chung K.L. (1978). Elementary Probability Theory with Stochastuc Processes. SpringerVerlag, New York.
2. Garca lvarez M. A. (2006). Introduccin a la teora de probabilidad 1. Fondo de
Cultura Econmica, Cd de Mxico.
3. Hernndez Arellano F.M., Clculo de probabilidades. Aportaciones matemticas, Sociedad Matemtica Mexicana.
4. Ross Sh. (2010). A First Course in Probability. Prentice Hall, New Jersey.
19