P1 TAREA2 Carlos Cuxim Tuz
P1 TAREA2 Carlos Cuxim Tuz
P1 TAREA2 Carlos Cuxim Tuz
ESTIMACIÓN PUNTUAL
Inferencia estadística
Tarea 2, parcial 1
Integrantes:
2 ( θ−x )
f ( x )= ,0≤ x≤θ
θ2
'
Solución. Primeramente, calculemos el valor de μ1=E ( X ), donde X es una variable aleatoria con la
función de probabilidad anterior, entonces por definición de la esperanza:
∞ θ θ
2 x ( θ−x ) 1 2 θ
E ( X ) =∫ xf ( x ) dx=∫
−∞ 0 θ
2
θ[ 3 0 3]
dx= 2 θ x 2− x 3 =
' '
Ahora igualando el primer momento poblacional μ1 con el primer momento muestral M 1 tenemos
que:
θ
=μ'1=M '1= X́ → θ=3 X́
3
De este modo 3 X́ es un estimador del parámetro θ , como queríamos hallar. (Ok! 10)
1
α y α −1
{
f ( y|α )= 3α , 0 ≤ y ≤ 3
0,e.o.c.
3α
Demuestra que E ( Y 1 )= y deduce el estimador de α por el método de los momentos. (10
α +1
puntos)
∞ 0 3 ∞
α y α −1
E ( Y 1 )= ∫ yf ( y ) dy= ∫ 0 dy +∫ y
−∞ −∞ 0
( 3α ) dy +∫ 0 dy
0
3 3
α α yα+ 1 α 3α+ 1 3α
¿ α ∫ y α dy = α
3 0 3 α [ ] ( )
+1 0
= α
3 α +1
=
a+ 1
.
' '
Ahora, por el método de los momentos, sabemos que μ1=E ( Y 1 ) y M 1=Ý , de este modo
3α
∧¿ Ý
α +1
3 α ∧¿ α Ý + Ý
3 α −α Ý ∧¿ Ý
Ý
α ∧¿
3−Ý
Ý
Así tenemos que el estimador de α por el método de momentos es . (Ok! 10)
3−Ý
3. El parámetro de una distribución de Poisson ( λ ) puede tomar uno de los cuatro valores
siguientes: λ={ 4.0 , 4.5, 5.2 , 6 }. Decídase cuál de ellos puede ser considerando una muestra
aleatoria simple de tamaño dos tal que x 1=3 y x 2=7 y basándose en el principio de máxima
verosimilitud. (10 puntos)
2
Solución. Por definición, y recordando que la función de densidad de una variable aleatoria con
e− λ λ x e−λ λx e−2 λ λ x +x
( )( )
1 2 1 2
L ( λ ; x 1 , x 2) = = .
x1 ! x2 ! x1 ! x2 !
Ahora, por hipótesis tenemos que x 1=3 y x 2=7 de este modo tenemos que la función de máxima
verosimilitud queda como
−2 λ
e λ10
L ( λ ; 3,7 )= .
3! 7!
Ahora, comprobemos con los posibles valores de λ para ver cual proporciona la máxima
probabilidad
e−8 ⋅ 410
L ( 4 ; 3,7 )= ≈ 0.0116 ,
3!7!
e−9 ⋅4.510
L ( 4.5 ; 3,7 )= ≈ 0.0139 ,
3!7!
e−10.4 ⋅ 5.210
L (5.2 ; 3,7 ) = ≈ 0.145 ,
3! 7 !
e−12 ⋅6 10
L ( 6 ; 3,7 )= ≈ 0.0.123 .
3!7!
De aquí podemos ver, por el principio de máxima verosimilitud, que el valor de λ debe ser λ=5.2.
(Ok, observen que el EMV X́ es 5, muy próximo a λ=5.2) (10)
4. Supóngase que X 1 , ⋯ , X n constituyen una muestra aleatoria de una distribución normal cuya
media μ y desviación estándar σ son desconocidas. Sean ^μ y σ^ los correspondientes EMV para
estos parámetros. Para un tamaño de muestra n=17, encuéntrese un valor de k tal que
P ( μ^ > μ+k σ^ )=0.95. (12 puntos)
3
Solución. Hemos demostrado que para una m.a. de tamaño n de una distribución normal con media
n
^ = X́ , 1 ∑ ( X i− X́ )2 , así obtenemos que ^μ= X́ y
μ y varianza σ 2, el E.M.V. de θ=( μ , σ 2 ) es Θ
n i=1( )
n
1
√ 2
σ^ = ∑ ( X i− X́ ) .
n i=1
P ( ^μ−μ
σ^
>k )=0.95 (1 )
Sustituyendo en ( 1 )
X́−μ
P
( √ 16 S
√ 17
> k =0.95
)
X́ −μ
P
( S
√ 17
> 4 k =0.95
)
P ( T > 4 k ) =0.95
X́−μ
∼ t 16
Pues S . Utilizando la tabla t de student hallamos que 4 k =1.746, por tanto, k =0.4365.
√ 17
(Error al final, analicen y verán que lo correcto es −4 k =1.746 de donde k =−0.4365 ) (11)
5. Cierto componente eléctrico tiene una vida útil X (expresada en horas) con la siguiente
función de densidad:
4
−x
1
{( ) θ
f ( x ; θ )= θ2 x e , x >0
0 , e .o .c .
Solución. Por hipótesis, tenemos que X 1 , X 2 , X 3 ∼ Gamma ( 2, θ ) , como queremos hallar el E.M.V.,
hacemos lo siguiente
3 −x i
L ( θ ; x1 , x2 , x3 ) 1 θ
¿∏ 2 e I (0 ,∞ ) ( xi )
i=1 θ
3 3
1
¿
θ 6 (
exp
−1
∑x
θ i=1 i )∏ i=1
I (0 , ∞) ( xi )
3 3
1
ln L ( θ )=−6 lnθ− ∑ x i + ∑ ln I (0 , ∞) ( xi )
θ i=1 i=1
Tenemos que
∂ ln L ( θ ) −6 1 3
= + ∑x
∂θ θ θ2 i=1 i
∂ ln L ( θ ) −6 1 3
Si = + ∑ x =0
∂θ θ θ2 i=1 i
3
1 6
⇒ 2∑ i
x=
θ i=1 θ
3
1
⇒ θ= ∑x
6 i=1 i
5
3
1 1 1 1
^
Hemos llegado a que θ= ∑
2 3 i=1 ( 2 )
x i = x́. Por tanto, el E.M.V. de θ es X́ .
2
1 1 120+130+ 128
Finalmente,
2
X́ = [
2 3 ]
=63, corresponde al estimado de las observaciones dadas.
θ
b) Hallar el estimador de máxima verosimilitud de μ= . (6 puntos)
1+θ
θ
Solución. Sea μ=τ ( θ )= . Vamos a verificar que τ es 1-1. Tomemos θ1 , θ2 tales que
1+θ
τ ( θ 1) =τ ( θ2 )
θ1 θ2
⇒ =
1+θ1 1+θ 2
⇒ θ1 +θ 1 θ2=θ 2+θ 2 θ1
⇒ θ1 =θ2 .
1
X́
2 X́
τ (θ)= = .
1
1+ X́ 2+ X́
2
X́
Por tanto, el E.M.V. de μ es . (Ok! 14)
2+ X́
6
X = 1 , sila compra es realizada por una mujer
{
0 , sila compra es realizada por un hombre
70
L ( p ; x 1 , ⋯ , x 70 )∧¿ ∏ f ( x i ; p)
i=1
70
xi 1− xi
¿=∏ p ( 1− p ) I {0,1} ( x i)
i=1
70 70
∑ xi 70− ∑ x i 70
¿=p i=1
( 1− p ) i=1
∏ I {0,1 } ( x i )
i=1
70 70 70
ln L ( p )=
( ) (
∑ xi
i=1
)
ln p+ 70−∑ x i ln ( 1− p ) + ∑ ln [ I { 0,1} ( xi ) ]
i=1 i=1
70 70
∂ ln L ( p )
0=
∂p
∧¿ ∑ x i 1p + 70−∑ x i 1−1 p (−1 ) +0
( ) ( )( )
i =1 i=1
70 70
1 1
¿= (∑ ) (
i=1
x i − 70−∑ x i
p i=1 1− p )( )
entonces el estimador de p es:
70 70 70 70
1
∑ x i− ∑ x i
i=1
( ) i=1
p=70 p− ( )
∑ xi
i=1
p→ ∑ x = ^p
70 i =1 i
70
Como ∑ x i=58, tenemos que el estimado es
i=1
7
58
^p= ≈ 0.83
70
(Ok! 10)
7. Una urna contiene θ bolas negras y N−θ bolas blancas. Una muestra de n bolas se ha de
seleccionar sin restitución. Sea Y el número de bolas negras de la muestra. Demuestra que
Solución. Sea Y la cantidad de bolas negras extraídas en una muestra de tamaño n , la cual fue
tomada de una urna con un total de N bolas negras y blancas. Tenemos que Y ∼hipergeo ( N ,θ ,n ),
entonces
θ N −θ
f ( y ) =P ( Y = y )=
( y )( n− y )
, 0 ≤ x ≤θ
N
(n)
Por otro lado, aplicando el método de los momentos y en vista de que sólo se nos pide calcular un
parámetro, igualaremos el primer momento poblacional al primer momento muestral:
M '1=μ'1
es decir
Ý =E ( Y )
k
1 nθ
∑ Y i=
k i=1 N
donde k es la cantidad de veces que se realizó este experimento, en este caso k =1. Por lo que
nθ ^ NY
Y= ⟹ θ=
N n
(Ok! 12)
8
8. Supóngase que T , el tiempo en horas para fallar de un instrumento electrónico, tiene la
siguiente función de distribución:
−β ( t−t 0 )
f ( t )= β e ,t >t 0> 0
{ 0,e.o.c.
Solución. Por definición la función de verosimilitud de las variables aleatorias T 1 , … , T n está dada
por:
n n
−β ( t i −t 0 )
L ( β ; t 1 , … , t n )=∏ f ( t i , β ) =¿ ∏ β e I [t 0
,∞ ) (t i ) ¿
i =1 i=1
n n n
ln [L(β )]=∑ ln ( β ) −∑ β ( t i−t 0 ) + ∑ ln [I [ t , ∞) ( t i ) ] 0
i=1 i=1 i=1
∂ ln [ L( β)] n 1 n n 1
0= =∑ −∑ ( t i−t 0 )= −n t́ +n t 0 → β=
∂β i=1 β i=1 β t 0 −t́
1 1
Por lo tanto, el estimador de máxima verosimilitud de β es ϴ
^= . (Debe ser ^β= )
t 0−T́ T́ −t 0
9
Solución. Sabemos que la función g ( x )=ln ( 1−xx ) es biyectiva en el intervalo (0, 1), entonces
1
^ )=ln
mientras β ∈( 0,1), por teorema demostrado sabemos que g ( ϴ
( )
t 0 −T́ −1
, es un estimador de
máxima verosimilitud de W .
β
Ahora, si β ∉ ( 0,1 ) notemos entonces que ≤ 0 o no está definido, por lo tanto, en este caso
1−β
W =ln ( 1−ββ ) no existe. Así vemos que solo tiene sentido cuando β ∈( 0,1),
^ =−ln ( T́ −t 0−1 ))
(Ok, pero es W
n n n
ln [L(t 0 )]=∑ ln ( β )−∑ β ( t i−t 0 ) + ∑ ln [I [ t 0
,∞ ) ( ti ) ]
i=1 i=1 i=1
∂ ln [ L( t 0 )] n
0= =∑ β=nβ
∂t 0 i=1
Dado que la ecuación anterior no es posible, entonces no es posible buscar el máximo mediante
este método. Así, debemos buscar otra forma de definir nuestra función de máxima verosimilitud.
n
1
Primero, notemos que L(t 0) , usando las ecuaciones anteriores y considerando a t́= ∑ t i , queda
n i=1
como
n
n
L ( t 0 ) =β exp (−nβ t́ ) exp ( nβ t 0 ) ∏ I [ t , ∞ ) ( t i )
0
i=1
n
( L ( t0 ) = ∏ β e− β (t −t ) I( 0 ,t ) ( t 0 ))
i 0
i
i=1
10
Notemos que dado que t 1 , … , t n y β son valores conocidos, entonces la función es de la forma
n
L ( t 0 ) = A e B t donde A=β n exp (−nβ t́ ) ∏ I [ t , ∞) ( t i ) y B=bβ , como A ≥ 0 y B>0 entonces notemos
0
0
i =1
' '
que si A ≠ 0 entonces t 0< t 0 implica que L ( t 0 ) < L ( t 0 ).
Esto podría parecer que la función nunca alcanza su máximo, dado que siempre podríamos elegir
una t 0 más grande dado que el dominio de L es [ 0 , ∞ ), pero eso solo es válido cuando A ≠ 0. Así
notemos que el valor máximo de L es el valor más grande tal que A ≠ 0, por lo tanto, estudiemos
cómo se comporta este valor.
n
n
Notemos que como lo definimos A=β exp (−nβ t́ ) ∏ I[ t , ∞) ( ti ), notemos que β n exp(−nβ t́)>0 sin
0
i =1
n
importar los valores de t 1 , … , t n, por lo tanto A ≠ 0 si y solo sí ∏ I [ t , ∞) (t i)=1, pero eso pasa si y
0
i=1
solo sí para toda t i se tiene que t i ≥ t 0, de este modo vemos que si t 0> min { t 1 , … , t n } entonces
∏ I [ t , ∞) (t i)=0 y automáticamente L ( t 0 ) =0, así vemos que los valores donde A ≠ 0 es cuando
0
i=1
t 0 ∈ [ 0 , min { t 1 , … , t n } ].
Como se dijo anteriormente el máximo t 0 es el valor máximo tal que A ≠ 0 y podemos ver que ese es
específicamente min { t 1 , … , t n } por lo tanto podemos afirmar que el EMV de r que el EMV de t 0 es
t^ 0=min { t 1 , … , t n } .
(Ok! 19)
CALIFICACIÓN: 96
11