0% encontró este documento útil (0 votos)
17 vistas19 páginas

Estadisticaa

Descargar como pdf o txt
Descargar como pdf o txt
Descargar como pdf o txt
Está en la página 1/ 19

TEST TEMAS 12-13

AMARILLAS: CORRECTAS.

a.La correcta es la opción b) del enunciado

b.La correcta es la opción c) del enunciado

c.La correcta es la opción a) del enunciado

La distribución S-Snedecor se obtiene al dividir dos chi-cuadrados divididas


respectivamente por sus grados de libertad, ambas independientes
La distribución t-Student se obtiene al dividir una normal por la raíz cuadrada de una chi-
cuadrado dividida de sus grados de libertad, ambas independientes

¿Cuál de las siguientes distribuciones es la que tiene su función de densidad más


parecida a la de una normal de media cero y varianza 1.

a. Una Poisson con media cero.

B .Una chi-cuadrado con 5 grados de libertad.

b. Una t de Student con 8 grados de libertad.

Poisson es una variable discreta que toma valores no negativos, y que podría aproximar su
comportamiento a una normal cuando su media creciera considerablemente; nunca con
una media pequeña, ¡y mucho menos con media cero, en cuyo caso ni siquiera sería
propiamente una Poisson, sino una distribución degenerada en un único punto (el cero),
al no ser cero sólo su media (lambda), sino también su varianza (lambda).

3 SI
Si la distribución de probabilidad asociada a una determinada variable aleatoria depende
de un parámetro desconocido, “p”, se llama “estimador del parámetro” a:

a. Un número real que se tomaría como aproximación del parámetro.

b. Cualquier estadístico que proporciona generalmente valores próximos al


verdadero valor del parámetro.

c. Cualquier estadístico función de la muestra.

a. La correcta es la opción b) del enunciado

b.La correcta es la opción c) del enunciado

c.La correcta es la opción a) del enunciado


Este estimador es la varianza poblacional de la muestra, que es un estimador
asintóticamente insesgado, pero no insesgado para cualquier tamaño de la muestra; por lo que
no es un buen estimador para muestras pequeñas.

Si “mu” es desconocido, esta expresión no sería un estimador, ya que no se podría


calcular. Este estadístico sería un buen estimador si la media poblacional “mu” fuera conocida.

Si la distribución de probabilidad asociada a una determinada variable aleatoria


depende de un parámetro desconocido, “p”, una “estimación del parámetro” sería:
a.

Un estimador.

b.

Un número real que se tomaría como aproximación del parámetro.

c.

Un estadístico.
Un estadístico es una función de la muestra, que proporciona valores aletoriamente
dependiendo de la distribución de probabilidad de la misma. Y, de entre todos los estadísticos,
el objetivo de un estimador es proporcionar valores cercanos al valor real de un parámetro
desconocido.

Para reducir la amplitud o longitud de un intervalo de confianza para un parámetro,


obtenido a partir de un determinado estimador, hay que:

a. Los intervalos de confianza de parámetros poblacionales no se


construyen a partir de estimadores del parámetro.

b. Aumentar el nivel de confianza.

c. Aumentar el tamaño de la muestra.


Los intervalos de confianza son instrumentos que permiten considerar cierta información
adicional acerca de los posibles errores de una estimación puntual realizada; por lo que sí se
construyen a partir de buenos estimadores puntuales.

Para la elección de intervalo de confianza, lo más adecuado es:

a. Elegir el intervalo más estrecho posible con mayor grado de confianza.

b. Elegir el intervalo más estrecho posible con menor grado de confianza.


d. Elegir el intervalo más ancho posible con mayor grado de confianza.

En un contraste de hipótesis paramétrico, la talla, o tamaño, del error de tipo I es:

a. La probabilidad de rechazar H0 cuando H0 es cierta.

b. La probabilidad de rechazar H1 cuando H1 es falsa.

c. La probabilidad de aceptar H0 cuando H0 es falsa.


Este sería el tamaño del error de tipo II

En un contraste de hipótesis bilateral, la región crítica:

a. Está a la izquierda de la región de aceptación

b. Está dividida en dos tramos que rodean a la región de aceptación.

c. Está a la derecha de la región de aceptación.

10 (mirar la 24)

En un contraste paramétrico, el error de tipo I se comete cuando:

a. Se acepta H0 siendo H0 falsa.


b. Se rechaza H0 siendo H0 cierta.

c. Se rechaza H1 siendo H1 cierta.


Este será el error de tipo II

11
Si X es una variable aleatoria que se distribuye según una ley t de Student con cinco grados de
libertad, se verifica que P(1<X<2) es igual a:

a. P(X<2)-P(X<1).

b. P(X>1)-P(X<2).

c. P(X<2)-P(X>1).

12

a.
La correcta es la opción c) del enunciado

b.
La correcta es la opción b) del enunciado

c.
La correcta es la opción a) del enunciado

13
Si la distribución de probabilidad asociada a una determinada variable aleatoria depende de un
parámetro desconocido, “p”, se llama “estimador del parámetro” a:

a. Cualquier estadístico que proporciona generalmente valores próximos al verdadero valor del
parámetro.

b Cualquier estadístico función de la muestra.


.
c. Un número real que se tomaría como aproximación del parámetro.

14

Un estadístico es:

a. Es la distribución conjunta o n-dimensional de la muestra aleatoria simple.

b. Es el resultado de aplicar una determinada función a los datos obtenidos en una


realización muestra.

c. Es cualquier función real de las variables aleatorias que integran una muestra.

Este resultado sería un valor numérico, mientras que un estadístico es una variable
aleatoria, resultante de definir una cierta función sobre la muestra

15

Para reducir la amplitud o longitud de un intervalo de confianza para un parámetro,


obtenido a partir de un determinado estimador, hay que:

a. Los intervalos de confianza de parámetros poblacionales no se construyen a partir de


estimadores del parámetro.

b. Aumentar el nivel de confianza.

c. Aumentar el tamaño de la muestra.

Aumentar el nivel de confianza implica aumentar la probabilidad de contener al


verdadero valor del parámetro, para lo que el intervalo de confianza se alarga.

16

Una vez construido el contraste de hipótesis, si el valor del estadístico de prueba está en la
región crítica, se debe

a. Rechazar H0 al nivel de significación establecido

b. Aceptar H0 al nivel de significación establecido


c. No se puede afirmar ninguna de las anteriores hasta que no se establezca la probabilidad
del error de tipo II

Que el estadístico de prueba caiga en la región crítica, de ninguna forma apoyaría la


veracidad de la hipótesis nula; luego ésta no debe aceptarse

17

En un contraste paramétrico el error de tipo I se comete cuando:

a. Se rechaza H1 cuando H1 es falsa.

b. Se aceptar H1 cuando H1 es falsa.

c. Se acepta H0 cuando H0 es falsa.

18

a. La correcta es la opción c) del enunciado

b. La correcta es la opción b) del enunciado

c. La correcta es la opción a) del enunciado

Si esto fuera verdad, los errores serían siempre intolerables y los contrastes no servirían para
nada. Observe que al menos un error sería del orden de 0,5 ¡o mayor!

19

Sean T1 y T2 dos estimadores insesgados de “p”. Si Var(T1) &lt; Var (T2)

a. Para ver cuál de los dos es el mejor, necesitamos conocer su error cuadrático medio.
b. T2 es mejor estimador que T1

c. T1 es mejor estimador que T2

Si son ambos insesgados (es decir, sus medias son el verdadero valor del parámetro) y la
dispersión de uno es menor que la del otro ¿Cuál produce generalmente valores más
próximos al verdadero valor del parámetro?

20

Cuando, al construir un intervalo de confianza, se aumenta el tamaño de la muestra


permaneciendo constantes los demás elementos que intervienen, se tiene que:

a. La longitud del intervalo aumenta.

b. Es más probable que el intervalo contenga el verdadero valor del parámetro.

c. La longitud del intervalo disminuye.

la probabilidad de que un intervalo de confianza contenga al verdadero parámetro a estimar


la da su nivel de confianza; no su tamaño de muestra.

21

En un contraste de hipótesis, el error cometido al aceptar la hipótesis nula siendo falsa se


denomina:

a. Error de tipo I.

b. Potencia del contraste.

c. Error de tipo II.

22

El error cuadrático medio es una medida para comparar estimadores y se puede calcular como
la suma de dos términos:

a. El sesgo y el valor esperado del estimador

b. La varianza del estimador y su sesgo.

c. La varianza del estimador y el parámetro.


a. La correcta es la opción c) del enunciado

b. La correcta es la opción a) del enunciado

c. La correcta es la opción b) del enunciado

a.
La correcta es la opción b) del enunciado

b.
La correcta es la opción c) del enunciado

c.
La correcta es la opción a) del enunciado
24

En un contraste de hipótesis paramétrico, la talla, o tamaño, del error de tipo I es:

a. La probabilidad de rechazar H1 cuando H1 es falsa.

b. La probabilidad de rechazar H0 cuando H0 es cierta.

c. La probabilidad de aceptar H0 cuando H0 es falsa.

En este caso se está actuando correctamente y no se comete ningún tipo de error

25

En un intervalo de confianza, la amplitud aumenta cuando

a. aumenta el nivel de confianza

b. Aumenta el tamaño muestral

c. aumenta el verdadero valor del parámetro

Al aumentar el tamaño de muestra se dispone de más información, por lo que el intervalo se


torna más preciso y reduce su anchura.

26

Si disponemos de dos estimadores de un parámetro “p”, ambos insesgados, entonces:

a. Si los dos son insesgados, los dos tienen que ser iguales.

b. Si son insesgados tienen la misma varianza.

c. Es preferible el estimador que tenga menor varianza.

Entonces, ¿para qué servirían las medidas de dispersión? Posición y dispersión son aspectos
diferentes de las variables. Que sean insesgados significa que sus medias coinciden con el
verdadero parámetro que se quiere estimar; pero la dispersión de ambos estimadores no tiene
que ser la misma.
27

a. La correcta es la opción a) del enunciado

b. La correcta es la opción b) del enunciado

c. La correcta es la opción c) del enunciado

1. Si X es una variable aleatoria que se distribuye según una ley t de Student con cinco
grados de libertad, se verifica que P(1<X<2) es igual a:
a. P(X<2)-P(X<1).

b. P(X>1)-P(X<2).

c. P(X<2)-P(X>1).

Este valor sería igual a F(1)+F(2)-1 y podría ser negativo si F(2)=0; lo que es contradictorio con
ser pretendidamente una probabilidad c)
2. Un estadístico es:
a. Es la distribución conjunta o n-
dimensional de la muestra
aleatoria simple.
b. Es el resultado de aplicar una
determinada función a los
datos obtenidos en una
realización muestra.
c. Es cualquier función real de las
variables aleatorias que
integran una muestra.
3.
Esta distribución también es conocida; pero se corresponde con la t-Student con n
grados de libertad. C)

4.
El sesgo es la diferencia entre el valor esperado del estimador y el parámetro a estimar; y dicha
diferencia no sale eso. B)

c)

5. c)
(Este estimador es insesgado y consistente para la varianza)
6. Para reducir la amplitud o longitud de un intervalo de confianza para un parámetro, obtenido
a partir de un determinado estimador, hay que:
a. Aumentar el tamaño de la
muestra.
b. Aumentar el nivel de confianza.

c. Los intervalos de confianza de


parámetros poblacionales no
se construyen a partir de
estimadores del parámetro.

Aumentar el nivel de confianza implica aumentar la probabilidad de contener al verdadero valor


del parámetro, para lo que el intervalo de confianza se alarga. B)
Al aumentar el tamaño de muestra se dispone de más información, por lo que el intervalo se torna
más preciso y reduce su anchura. A)
7. En un intervalo de confianza, la amplitud aumenta cuando
a. Aumenta el tamaño muestral

b. aumenta el nivel de confianza

c. aumenta el verdadero valor del


parámetro

8.
C)Si aumenta b es porque disminuye a

Si esto fuera verdad, los errores serían siempre intolerables y los contrastes no servirían para
nada. Observe que al menos un error sería del orden de 0,5 ¡o mayor! A)

Esto es lo deseable; que ambos tipos de error tengan tamaños pequeños, pero esto sólo se puede
conseguir introduciendo mayor información en el proceso (es decir, aumentando el tamaño de
muestra, no con un tamaño de muestra fijo) b)

9. La región de aceptación de un contraste de hipótesis viene especificada por:


a. el conjunto de todos los
valores posibles del parámetro.
b. el conjunto de valores del
estadístico de prueba (o
experimental) para los que se
acepta H1.
c. el conjunto de valores del
estadístico de prueba (o
experimental) para los que se
acepta H0.

10. En un contraste paramétrico, el error de tipo I se comete cuando:


a. Se rechaza H0 siendo H0 cierta.

b. Se acepta H0 siendo H0 falsa.

c. Se rechaza H1 siendo H1 cierta.


11.
a)
12. Si disponemos de dos estimadores de un parámetro “p”, ambos insesgados, entonces:
a. Es preferible el estimador que
tenga menor varianza.
b. Si los dos son insesgados, los
dos tienen que ser iguales.
c. Si son insesgados tienen la
misma varianza.
Puede haber más de un estimador insesgado. Por ejemplo, dada una muestra de tamaño 10,
tanto la media muestral de sus 3 primeras observaciones, como la media muestral de las 10
son, ambos, estimadores insesgados; pero será preferible el segundo ya que, al aprovechar
toda la información, proporcionará una menor varianza. B)

13. c)

14.
La normal también lo cumple, pero no en exclusiva b)

a)
15. Para la elección de intervalo de confianza, lo más adecuado es:
a. Elegir el intervalo más estrecho posible con menor grado
de confianza.
b. Elegir el intervalo más ancho posible con mayor grado de
confianza.
c. Elegir el intervalo más estrecho posible con mayor grado
de confianza.
Es esa

Esto daría mucha confianza sobre si el verdadero valor del parámetro está dentro de dicho
intervalo, pero la gama de valores posibles admitidos para el parámetro sería muy grande y, por
tanto, el margen de error posible para la estimación puntual sería grande (lo que se conoce
como baja “acuracidad” del estimador). B)
16. Para reducir la amplitud o longitud de un intervalo de confianza para un parámetro,
obtenido a partir de un determinado estimador, hay que:
a. Aumentar el nivel de confianza.

b. Aumentar el tamaño de la
muestra.
c. Los intervalos de confianza de
parámetros poblacionales no
se construyen a partir de
estimadores del parámetro.

17. En un contraste de hipótesis, el error cometido al aceptar la hipótesis nula siendo falsa se
denomina:
a. Error de tipo II.

b. Potencia del contraste.

c. Error de tipo I.

18. La región de aceptación de un contraste de hipótesis viene especificada por:


a. el conjunto de todos los
valores posibles del parámetro.
b. el conjunto de valores del
estadístico de prueba (o
experimental) para los que se
acepta H0.
c. el conjunto de valores del
estadístico de prueba (o
experimental) para los que se
acepta H1.

19. En un contraste de hipótesis paramétrico, la talla, o tamaño, del error de tipo I es:
a. La probabilidad de rechazar H0
cuando H0 es cierta.
b. La probabilidad de aceptar H0
cuando H0 es falsa.
c. La probabilidad de rechazar H1
cuando H1 es falsa.

20. ¿Cuál de las siguientes distribuciones es la que tiene su función de densidad más parecida
a la de una normal de media cero y varianza 1.
a. Una t de Student con 8 grados
de libertad.
Es esa. b. Una chi-cuadrado con 5 grados
de libertad.
c. Una Poisson con media cero.

La distribución chi-cuadrado sólo toma valores no negativos y es asimétrica a la derecha. Sólo se


aproxima a una normal, cuando aumentan sus grados de libertad considerablemente; pero, en todo
caso, su media sería 2 veces su número de grados de libertad y no cero. B)
21. Si la distribución de probabilidad asociada a una determinada variable aleatoria depende
de un parámetro desconocido, “p”, se llama “estimador del parámetro” a:
a. Cualquier estadístico que
proporciona generalmente
Es esa. valores próximos al verdadero
valor del parámetro.
b. Un número real que se tomaría
como aproximación del
parámetro.
c. Cualquier estadístico función
de la muestra.

22. Una estimación de un parámetro poblacional es:


a. Una función real de la muestra
aleatoria simple que se emplea
para estimar un parámetro.
b. Una característica de interés
obtenida con observaciones de
todos los elementos que
componen la población
investigada.
c. El resultado numérico que
produce un estimador del
parámetro poblacional para
una realización concreta de la
muestra.

23. Cuando, al construir un intervalo de confianza, se aumenta el tamaño de la muestra


permaneciendo constantes los demás elementos que intervienen, se tiene que:
a. La longitud del intervalo disminuye.

b. Es más probable que el intervalo contenga el verdadero valor del parámetro.

c. La longitud del intervalo aumenta.

24. En un contraste de hipótesis bilateral, la región de aceptación:


a. Está a la izquierda de la región crítica.

b. Está rodeada por dos tramos de la región crítica.


c. Está a la derecha de la región crítica.

25. En un contraste de hipótesis bilateral, la región crítica:


a. Está a la izquierda de la región de aceptación

b. Está a la derecha de la región de aceptación.

c. Está dividida en dos tramos que rodean a la región de aceptación.

26. Sean T1 y T2 dos estimadores insesgados de “p”. Si Var(T1) &lt; Var (T2)
a T1 es mejor estimador que T2
.
b T2 es mejor estimador que T1
.
c Para ver cuál de los dos es el mejor, necesitamos conocer su error cuadrático medio.
.
Si los estadísticos son insesgados, sus sesgos de estimación son nulos; por lo que el error
cuadrático medio coincide con la varianza del estimador c)

27. El error cuadrático medio es una medida para comparar estimadores y se puede calcular como
la suma de dos términos:

a. El sesgo y el valor esperado del estimador

b. La varianza del estimador y su sesgo. Esa es

c. La varianza del estimador y el parámetro.

28.

C) Cuando a crece, B decrece.


La relación es que si el tamaño de un error crece, el del otro decrece. C)

29. Un estadístico es:


a Es la distribución conjunta o n-dimensional de la muestra aleatoria simple.
.
b Es el resultado de aplicar una determinada función a los datos obtenidos en una realización
. muestra.
c Es cualquier función real de las variables aleatorias que integran una muestra.
.
Un estadístico es una variable aleatoria y, por tanto, tiene una distribución de probabilidad; pero no
es dicha distribución de probabilidad a)
30. Una vez construido el contraste de hipótesis, si el valor del estadístico de prueba está en la
región crítica, se debe
a Rechazar H0 al nivel de significación establecido
.
b No se puede afirmar ninguna de las anteriores hasta que no se establezca la probabilidad del
. error de tipo II
c Aceptar H0 al nivel de significación establecido
.

31. Si la distribución de probabilidad asociada a una determinada variable aleatoria depende de un


parámetro desconocido, “p”, una “estimación del parámetro” sería:

b. Un número real que se tomaría como aproximación del parámetro.

32. En un contraste de hipótesis paramétrico, la talla, o tamaño, del error de tipo I es:
a. La probabilidad de rechazar H1 cuando H1 es falsa.

b. La probabilidad de rechazar H0 cuando H0 es cierta.

c. La probabilidad de aceptar H0 cuando H0 es falsa.

33. En un contraste paramétrico el error de tipo I se comete cuando:

c. Se acepta H0 cuando H0 es falsa Este será el error de tipo II

Una estimación de un parámetro poblacional es: b. Una función real de la muestra aleatoria simple
que se emplea para estimar un parámetro.

Esta es la definición intuitiva de “estimador”; no estimación.

Si disponemos de dos estimadores de un parámetro “p”, ambos insesgados, entonces:

Respuesta seleccionada: a.
Es preferible el estimador que tenga menor varianza.
Comentarios de la respuesta: Correcto; así producirá valores más cercanos al verdadero con
una mayor probabilidad.

Si la distribución de probabilidad asociada a una determinada variable aleatoria depende de un


parámetro desconocido, “p”, una “estimación del parámetro” sería:

Respuesta c.
seleccionada: Un número real que se tomaría como aproximación del
parámetro.
Correcta

En un contraste de
hipótesis bilateral, la
región de aceptación:

Resp c.
uesta
selec Está rodeada
ciona por dos
tramos de la
da:
región crítica.
Come correcta
ntario
s de
la
respu
esta:

También podría gustarte