Tema 1. Estadístico y Reducción
Tema 1. Estadístico y Reducción
Tema 1. Estadístico y Reducción
GRADO MATEMÁTICAS 1
Estadístico y Estimador
Denición 1. Se dene el espacio paramétrico como el conjunto formado por todos los
posibles valores del parámetro desconocido de la f. de distribución. Se denota por Θ.
(Θ ⊆ IR k ).
Nota Importante: Recordamos que dado un vector aleatorio X procedente de
una m.a.s éste hereda una distribución procedente de la variable X que lo genera.
Recordamos que el vector aleatorio será discreto o continuo en función de la naturaleza
de X. Para simplicar la notación, a partir de ahora se denotará por f (x|θ) la función
de densidad -si es continua- o la masa de probabilidad -si es discreta- del vector aleatorio
X.
Como f (x|θ) mide la probabilidad o la densidad de cada realización muestral, jado
un parámetro, es natural preguntarse en qué medida la inferencia que hagamos del
parámetro depende de esta probabilidad -responderemos a esta pregunta más tarde-.
Observamos que f (x|θ) depende de la muestra y del parámetro. Si consideramos la
función:
7 → R+
L(·|x) : Θ −
θ −7 → f (x|θ),
donde jamos una muestra y calculamos el valor de la densidad o masa de probabilidad
de dicha muestra para cada valor del parámetro, estaremos evaluando la verosimilitud
credibilidad de la muestra para un determinado valor. Por dicha razón, la función
L(·|x) se denomina función de verosimilitud. Replanteando la pregunta anterior, ¾en
qué medida la inferencia que hagamos depende de la verosimilitud?
INFERENCIA ESTADÍSTICA. GRADO MATEMÁTICAS 2
1 σ2
V ar(ar,n ) = {α2r − αr2 }. En particular V ar(X) = .
n n
E(br,n ) = µr + o(1/n).
Suciencia
Las propiedades y deniciones de reducción de la dimensión se tratan para cualquier
estadístico.
Sea X1 , X2 , . . . , Xn una m.a.s. procedente de una población X con f. D. F (x, θ) θ ∈
Θ. Nuestro objetivo es poder estimar el parámetro y por tanto especicar completamente
la distribución de la población. Como ya sabemos, la muestra es informativa para el
conocimiento del parámetro, pero ¾cómo cuanticar la información? Debemos recordar
que, desde nuestro punto de vista clásico, la única información que disponemos es la
contenida en la muestra.
La muestra debemos transformarla para obtener información. Por tanto, uno de los
primeros objetivos que nos planteamos es transformar los valores de la muestra en ex-
presiones que sean cómodas para poder obtener conclusiones razonables. Al transformar
la muestra, aparecen de forma natural los estadísticos, funciones T (X) : IR n 7−→ IR k
que condensan la información en uno o varios valores, (k ≥ 1). Obviamente sería intere-
sante que en esa condensación o sintetización no se perdiera ïnformación". Por lo tanto,
cabría hacerse las siguientes preguntas:
¾El resumen que supone T supone pérdida de información relevante que contuviese
la muestra sobre el parámetro?
Suciencia:
Fisher introdujo el concepto de suciencia en 1920, así como otros conceptos y
principios de la Inferencia Estadística. Intuitivamente con el concepto de suciencia
haremos alusión a un resumen de los datos sin ninguna pérdida de la información.
Cualquier estadístico me va a producir una partición en el espacio muestral. Si t0
representa un valor del estadístico, entonces
PT : IR k −7 → P (IR n )
t0 7−→ At0 = {x : T (x) = t0 } ≡ {T (X) = t0 } ⊆ IR n
produce una partición en el espacio muestral. Para cada t0 se forma el conjunto de
elementos muestrales que tienen la misma imagen a través del estadístico. Notemos que
lo importante no van a ser los valores del estadístico, sino la partición que genere en el
espacio muestral.
La idea intuitiva del concepto de suciencia se reere a que la condensación que
supone el estadístico sobre el espacio muestral no lleve consigo pérdida de la información
relevante sobre θ. Formalmente:
f (x|θ)
= k(x, y),
f (y|θ)
no depende de θ. Dicha relación es relación de equivalencia y por tanto produce una par-
tición en el espacio muestral. ¾Cómo comparamos dicha partición con la que produciría
un estadístico suciente?
si Eθ [g(T )] = 0, ∀θ ∈ Θ =⇒ Pθ [g(T ) = 0] = 1, ∀θ ∈ Θ.
La única transformación del estadístico con esperanza igual a cero, para todo parámetro,
es la función nula. En el caso anterior, abusando del lenguaje, diremos que T es un
estadístico completo.
Observación 8. Es fácil de ver que si T es un estadístico completo, entonces g(T ) es
completo para toda función g biyectiva.
La completitud de los estadísticos sucientes en ciertos modelos estadísticos es una
propiedad importante; jugando un papel esencial, como veremos después, en la teoría
de la estimación insesgada de mínima varianza, fundamentalmente en el teorema de
Lehmann-Schee. ¾Cómo la completitud refuerza la idea de suciencia? A partir de los
siguientes resultados -cuya demostración omitimos-.
Ejercicio 5. Consideremos un estadístico T tal que T ∼ B(n, p), con n jo, -familia
de distribuciones binomiales-. Demuestre que T es completo.
Los siguientes resultados, los cuales no demostraremos, me permiten hallar, en de-
termiandas situaciones particulares, un estadístico suciente y completo.