4 Estadística II - Capítulo 4 - v1

Descargar como pdf o txt
Descargar como pdf o txt
Está en la página 1de 6

Capı́tulo 4

Análisis de estimadores

Para la estimación de un parámetro poblacional existen infinitos estadı́sti-


cos o estimadores que podemos utilizar, no solo los que hemos visto en el
X1 + 2X2 − X3
anterior tema. Por ejemplo, el estimador θ̂ = podrı́a usar-
2
µ + 2µ − µ
se para estimar una media poblacional, pues E[θ̂] = = µ. En
2
principio, para seleccionar un estimador, usaremos algún método concreto.
En el capı́tulo anterior ya hemos visto el método de los momentos, y en este
capı́tulo veremos otro método: el método de máxima verosimilitud. No
obstante, cabe preguntarse por qué unos estimadores son mejores que otros,
ya que el método, por sı́ mismo, no nos da directamente esta información.
Para entender esto, vamos a ver qué propiedades interesantes puede tener un
estimador y cómo calcularlas.

4.1. Centrado o insesgado


Supongamos que queremos calcular un parámetro de la población θ a
través del estimador θ̂. Diremos que el estimador es centrado o insesgado si:

E[θ̂] = θ

Cuando un estimador no es centrado definimos el sesgo:

sesgo(θ̂) = E[θ̂] − θ

Existen muchos estimadores centrados de un mismo parámetro. Por ejem-


P todos los estimadores de la media del tipo µ̂ = a1 X1 + · · · + an Xn con
plo,
ai = 1 son centrados.

35
36 CAPÍTULO 4. ANÁLISIS DE ESTIMADORES

Ejercicio 4.1: Demostrar la afirmación anterior.

Ejercicio 4.2: Dados dos estimadores centrados θˆ1 y θˆ2 demostrar que
también lo es θˆ3 = aθˆ1 + (1 − a)θˆ2 .

Ejercicio 4.3: Calcular el sesgo de la varianza muestral.

Si el sesgo tiende a cero cuando n → ∞ se dice que el estimador es


asintóticamente insesgado.

El sesgo no es el único criterio a tener en cuenta. En la figura 4.1 se da un


ejemplo se esto: se preferirá el estadı́stico sesgado al insesgado en este caso,
porque el primero tiene una varianza mucho menor.

Figura 4.1: E[θ̂] se corresponde a un estimador sesgado, pero tiene una va-
rianza mucho menor que la distribución del otro, que es insesgado.

4.2. Eficiencia o precisión


Se define la eficiencia o precisión de un estimador del modo siguiente:
1
Eficiencia(θ̂) = = P [θ̂]
V [θ̂]
De manera que cuanto mayor sea su varianza menos eficiente es.

Si se toman dos muestras independientes y se calcula en cada una un


estimador centrado del parámetro, surge entonces la pregunta de cómo com-
4.3. ERROR CUADRÁTICO MEDIO 37

binarlos para obtener el estimador más eficiente.

Ejercicio 4.4: Dada la combinación de estimadores centrados del ejercicio


4.2 θˆ3 = aθˆ1 + (1 − a)θˆ2 , se pide:

a/ encontrar el valor de a que hace que sea más eficiente.

b/Para estimar la media de una población se toman dos muestras de


tamaño 10. Tomando las dos medias muestrales como estimadores indepen-
dientes, calcular el estimador más eficiente que podemos construir con ellos.

c/Para estimar las ventas medias diarias se han tomado muestras de dos
meses distintos de 20 y 22 dı́as laborables, respectivamente, obteniendo ventas
medias de 200 y 180 y cuasidesviaciones tı́picas de 52 y 46 respectivamente.
Si suponemos que las ventas son estables (no hay tendencia creciente ni de-
creciente), homogéneas en los meses (no hay estacionalidad) y con la misma
variabilidad promedio en todos los meses, estimar la media de ventas diaria
y la desviación tı́pica (suponer que la variable de la población se distribuye
de forma normal).

La eficiencia de un estimador viene limitada por las caracterı́sticas de la


propia distribución sobre la que actúa. Esto quiere decir que, en general, exis-
tirán estimadores de máxima eficiencia o mı́nima varianza (aunque
puede ser difı́cil saber cuáles lo son). A los estimadores que, para
cualquier n tengan varianza mı́nima se los llama eficientes.

4.3. Error cuadrático medio


Sean θˆ1 y θˆ2 dos estimadores de θ que cumplen:

|sesgo(θˆ1 )| < |sesgo(θˆ2 )| pero V (θˆ1 ) > V (θˆ2 )

¿Cuál escojo como estimador de θ?

Respuesta: aquel con menor ECM (error promedio de estimación):

ECM [θ̂] = E[(θ̂ − θ)2 ] = V (θ̂) + sesgo(θ̂)2

Ejercicio 4.5: Comparar los estimadores s2 y ŝ2 en el caso de una v.a.


normal, calculando su ECM.
38 CAPÍTULO 4. ANÁLISIS DE ESTIMADORES

4.4. Consistencia
Si tomamos muestras grandes y no es posible —o sea difı́cil— la obten-
ción de estimadores centrados con gran eficiencia, el requisito mı́nimo que
se exige a un estimador es que sea consistente. Hay distintos criterios para
establecer la consistencia, pero uno común -y que seguiremos nosotros- se
basa en que se cumplan simultáneamente:

lı́mn→∞ E[θ̂] = θ

lı́mn→∞ V [θ̂] = 0

4.5. Estimadores obtenidos por momentos


Ya vimos cómo obtener estimadores o estadı́sticos por el método de los
momentos en el capı́tulo anterior. Vamos a comentar qué propiedades es es-
perable que tengan estos estimadores, pero sin dar una demostración general.
Lo importante es saber que, el método de obtención determina una se-
rie de propiedades comunes para los estimadores. Esto no significa
que todos los obtenidos de esta forma tengan las mismas propiedades; sig-
nifica que hay una serie de cualidades “mı́nimas”que podemos esperar para
ellos. Los estimadores obtenidos por el método de los momentos cumplen,
pues, lo siguiente:

1/ Son consistentes.

2/ No son, en general, ni centrados ni tienen mı́nima varianza


(no son eficientes, en general).

La principal ventaja de los estimadores obtenidos por el método


de los momentos es su simplicidad.

4.6. Método de la máxima verosimilitud


El principal inconveniente, o ventaja, dependiendo de la información de
la que se disponga, del método de los momentos, es que no usa en modo
alguno la información contenida en la distribución de probabilidad de la v.a.
Regresando al punto 3.1 del capı́tulo 3 vimos que, cuando se toma una m.a.s
de tamaño n podemos calcular, bien la función de probabilidad conjunta,
4.6. MÉTODO DE LA MÁXIMA VEROSIMILITUD 39

bien la función de densidad conjunta, según la v.a sea discreta o continua:

Sea X v.a con función de probabilidad P (X) o función densidad f (x).


Construimos el vector aleatorio X = (X1 , X2 , ..., Xn ) cuya función de proba-
bilidad conjunta, o función densidad, será en cada caso:

P (X) = P (X1 )P (X2 ) · · · P (Xn )

f (x) = f (x1 )f (x2 ) · · · f (xn )

Ahora vamos a cambiar un poco la notación. Hay que tener en cuenta que
nuestra intención es estimar algún parámetro desconocido de la población,
parámetro que denotamos como θ. Entonces, estas funciones para la pro-
babilidad conjunta, se pueden entender como funciones, también,
del parámetro desconocido θ:

P (X, θ) = P (X1 , θ)P (X2 , θ) · · · P (Xn , θ)

f (x, θ) = f (x1 , θ)f (x2 , θ) · · · f (xn , θ)

En general cada una de las funciones y las correspondientes a la probabi-


lidad conjunta dependerán de varios parámetros. Tantos como tenga interés
calcular en la distribución original.

En el problema de estimación se conoce un valor particular de X, pero


no θ que lleva la información de los parámetros desconocidos. A las funcio-
nes P (X, θ) y f (x, θ) con X y θ como variable (o variables) se las llama
funciones de verosimilitud y se las denotará como L(X, θ). Como están
directamente ligadas a la probabilidad, si, para un valor de X = X0 se cum-
ple P (X0 , θ1 ) > P (X0 , θ2 ) ( o bien f (X0 , θ1 ) > f (X0 , θ2 )), diremos que θ1 es
más verosı́mil que θ2 . Esto es otra forma de decir que, si se cumple la condi-
ción anterior, será más probable observar los datos muestrales con θ1 que con
θ2 . Por tanto, encontrando el valor de θ que maximiza la función
de verosimilitud para una muestra fija, que podemos no obstante
denotar de un modo simbólico X, podemos encontrar un estima-
dor del/los parámetros desconocidos que llamaremos estimador de
máxima verosimilitud.

Por cuestiones operativas, para resolver el problema de optimización mul-


tivariable tomaremos habitualmente, el ln de la función de verosimilitud, que
se llama función soporte:
40 CAPÍTULO 4. ANÁLISIS DE ESTIMADORES

l(X, θ) = ln(L(X, θ))

A continuación se resuelve el sistema de ecuaciones:

∂l(X, θi )
=0
∂θi
Y se comprueba que la solución se corresponde con un máximo
a través de la matriz Hessiana.

Los estimadores MV tienen, en general, las siguientes propiedades:

1/ Son asintóticamente insesgados.

2/ Asintóticamente eficientes (varianza mı́nima)

3/ Siguen una distribución asintóticamente normal

4/ Son consistentes

También podría gustarte