Niveles de Significancia

Descargar como pdf o txt
Descargar como pdf o txt
Está en la página 1de 10

UNIVERSIDAD TECNOLÓGICA INDOAMÉRICA

FACULTAD DE CIENCIAS HUMANAS, DE EDUCACIÓN Y

DESARROLLO SOCIAL

CARRERA DE EDUCACIÓN BÁSICA

MODALIDAD A DISTANCIA

NOMBRE: Elicio Marcelo Jiménez García


NIVEL: Séptimo semestre
TEMA DE LA TAREA: Estimación de Intervalos de Confianza

FECHA: 04/12/2019
Niveles de Significancia
El nivel de significación (o nivel de α) es un umbral que permite determinar si el
resultado de un estudio se puede considerar estadísticamente significativo después de
realizar las pruebas estadísticas planificadas. El nivel de significación se suele establecer
en un 5% (o 0,05), aunque se pueden usar otros niveles en función del estudio. Esto
representa la probabilidad de rechazar la hipótesis nula cuando es verdadera. Por ejemplo,
un nivel de significación de 0,05 indica un riesgo del 5% de concluir que existe una
diferencia entre los resultados del estudio y la hipótesis nula cuando en realidad no hay
ninguna diferencia.

Se puede afirmar que las pruebas de significancia estadística son métodos


indirectos para evaluar los resultados de un estudio que no se puede hacer en toda la
población-sujeto sino en una muestra de ella y que, fundamentalmente, buscan responder
a la siguiente pregunta: ¿se hubiera encontrado lo mismo si en mi estudio estuviera toda
la población?

Ejemplo:

Ruth conjetura el uso de un cinturón de seguridad, en los conductores, está


relacionado con el género. Los datos se muestran en la tabla inferior. Ruth realiza la
prueba de conjetura usando chi-cuadrado con nivel de significancia del 1 %.

Entonces se tiene un nivel de significancia del 0.01.

La probabilidad de cometer errores de tipo II se simboliza beta y depende de varias


circunstancias como la distancia que separa el valor asignado al parámetro en la Hipótesis
Nula de su valor real, el tamaño muestra el valor asignado a alfa.

Hipótesis
Cuando se trata de tomar una decisión sobre la población, se hacen suposiciones
sobre la misma. De acuerdo a Spiegel y Stephens (2009), a estas suposiciones, que pueden
ser ciertas o no, se les denomina hipótesis estadísticas. Las dos hipótesis que se plantean
y que se deben verificar son:

Hipótesis nula (𝑯𝟎): esta hipótesis se plantea con la finalidad de anularla. Es una
afirmación que no se rechaza a menos que los datos muestrales proporcionen evidencia
suficiente para decir que es falsa. Como señala Webster (2000) nunca se puede “aceptar”
la hipótesis nula como verdadera; en tal caso se habla de un no rechazo de esta hipótesis.
Por ejemplo, si la hipótesis nula es que no hay diferencia entre dos estimadores, quiere
decir que “cualquier diferencia que se observe se debe sólo a las fluctuaciones del
muestreo de una misma población” (Spiegel y Stephens, 2009: pg. 245).

Hipótesis alternativa (𝑯𝟏): se refiere a cualquier hipótesis que difiera de la nula.


Es una afirmación que se acepta si los datos muestrales proporcionan evidencia suficiente
de que la hipótesis nula es falsa. Se le conoce también como la hipótesis de investigación.

Después de plantear la hipótesis nula y la alternativa, se selecciona un nivel de


significancia, el cual se refiere a la probabilidad de rechazar la hipótesis nula cuando es
verdadera; a lo que se le denomina un

Error de tipo I. Esta probabilidad generalmente se denota como 𝜶 (alfa), que


puede ser por ejemplo del 5%. Esto significa que existen cinco posibilidades en 100 de
rechazar una H0 que debería ser aceptada; es decir que existe un 95% de confianza de
haber tomado la decisión correcta (Spiegel y Stephens, 2009).

Error de tipo II, mediante el cual no se rechaza, es decir, se acepta una hipótesis
nula que debería rechazarse. La probabilidad de este tipo de error se denota como β (beta).
Se debe considerar que no se puede asumir que 𝛼+β=1. Idealmente, deberían minimizarse
los dos tipos de errores, pero para cualquier tamaño de muestra, al tratar de disminuir el
uno, incrementará el otro. Si rechazar una hipótesis verdadera (error tipo I) es más serio
que no rechazar una hipótesis falsa, se debería seleccionar un 𝛼 bajo (1% o 5%); caso
contrario, 𝛼 podría ser más alto (Webster, 2000). La única manera de reducir ambos
errores es agrandando la muestra, lo cual no siempre es posible (Spiegel y Stephens,
2009).
En la práctica, se establece el nivel 𝛼; y para disminuir el error β, se incrementa
el número de observaciones en la muestra, pues así se acortan los límites/intervalos de
confianza respecto a la hipótesis planteada. La figura 1 presenta los dos tipos de error.

Figura 1. Tipos de errores

Fuente: (Levin y Rubin, 2004)

a) Ejemplo 1: Tasa de desempleo en Quito

Para junio del 2017, la estimación puntual de la tasa desempleo7 en Quito fue de
7,84%, mientras que para el mismo mes del 2018, fue de 9,85%. Cada una de estas
estimaciones está asociada a intervalos de confianza.
H0: desempleojun17=desempleojun18→no existe dif.estadísticamente significativa

H1: desempleojun17≠desempleojun18→existe dif.estadísticamente significativa α=0,05

Tabla 1. Errores estándar y Error estándar Varianza


varianzas de las tasas
estimadas de desempleo en
Quito Periodo
jun-17 0,0070 4,9519E-05
jun-18 0,0088 7,7591E-05

Con esta información, se calcula el estadístico de prueba

desempleojun18 − desempleojun17 desempleojun18 − desempleojun17


𝒁= =
ee(desempleojun18 − desempleojun17) √𝑣 (desempleojun17) + v(desempleojun18)

9,85 − 7,84
Z= = 1,7824
√4,9519 x 10−05 + 7,7591 X 10−05

REGRESIÓN LINEAL SIMPLE

La regresión está dirigida a describir como es la relación entre dos variables X e


Y, de tal manera que incluso se pueden hacer predicciones sobre los valores de la variable
Y, a partir de los de X. La regresión es su forma más sencilla se llama regresión lineal
simple. Se trata de una técnica estadística que analiza la relación entre dos variables
cuantitativas, tratando de verificar si dicha relación es lineal.

Si tenemos dos variables hablamos de regresión simple, si hay más de dos


variables regresión múltiple. Su objetivo es explicar el comportamiento de una variable
Y, que denominaremos variable explicada (o dependiente o endógena), a partir de otra
variable X, que llamaremos variable explicativa (o independiente o exógena).
Correlación lineal

La correlación, también conocida como coeficiente de correlación lineal (de


Pearson), es una medida de regresión que pretende cuantificar el grado de variación
conjunta entre dos variables.

Por tanto, es una medida estadística que cuantifica la dependencia lineal entre dos
variables, es decir, si se representan en un diagrama de dispersión los valores que toman
dos variables, el coeficiente de correlación lineal señalará lo bien o lo mal que el conjunto
de puntos representados se aproxima a una recta.

De una forma menos coloquial, la podemos definir como el número que mide el
grado de intensidad y el sentido de la relación entre dos variables.

Propiedades

1. El coeficiente de correlación no varía al hacerlo la escala de medición es decir, si


expresamos la altura en metros o en centímetros el coeficiente de correlación no
varía.

2. El signo del coeficiente de correlación es el mismo que el de la covarianza.

 Si la covarianza es positiva, la correlación es directa.

 Si la covarianza es negativa, la correlación es inversa.

 Si la covarianza es nula, no existe correlación.

3. El coeficiente de correlación lineal es un número real comprendido entre −1 y 1.


−1 ≤ r ≤ 1

4. Si el coeficiente de correlación lineal toma valores cercanos a −1 la correlación es


fuerte e inversa, y será tanto más fuerte cuanto más se aproxime r a −1.

5. Si el coeficiente de correlación lineal toma valores cercanos a 1 la correlación es


fuerte y directa, y será tanto más fuerte cuanto más se aproxime r a 1.

6. Si el coeficiente de correlación lineal toma valores cercanos a 0, la correlación es


débil.
7. Si r = 1 ó −1, los puntos de la nube están sobre la recta creciente o decreciente.
Entre ambas variables hay dependencia funcional.

Correlación perfecta positiva

No hay correlación:

Correlación perfecta negativa:

Sucursal X Y XY X2 Y2
1 2 58 116 4 3364
2 6 105 630 36 11025
3 8 88 704 64 7744
4 8 118 944 64 13924
5 12 117 1404 144 13689
6 16 137 2192 256 18769
7 20 157 3140 400 24649
8 20 168 3380 400 28224
9 22 149 3278 484 22201
10 26 202 5252 676 40804
Σ= 140 1300 21040 2528 184393

𝑛 (∑ 𝑋𝑌) − (∑ 𝑋)(∑ 𝑌)
𝑏= 2
𝑛(∑𝑋 2) − ( ∑ 𝑋)

10 (21040) − (140)(1300)
𝑏=
10(2528) − (140)2

210400 − 182000
𝑏=
25280 − 19600

28400
𝑏=
5680

𝑏=5

∑𝑌 − 𝑏∑𝑋
𝑎=
𝑛

1300 − 5(140)
𝑎=
10

1300 − 700
𝑎=
10

600
𝑎=
10

𝑎=6

Y= a + bx
Y= 5 + 60

Y= 65

Error estándar

∑ 𝑌 2 − 𝑎 ∑ 𝑌 − 𝑏 ∑ 𝑋. 𝑌
𝑠𝑒 = √
𝑛−2

184393 − 60(1300) − 5 (21040)


𝑠𝑒 = √
10 − 2

184393 − 78000 − 105200


𝑠𝑒 = √
8

1198
𝑠𝑒 = √
8

𝑠𝑒 = √149,125

𝑠𝑒 = 12,2116

∑ 𝑌2
𝑠𝑦2 = − 𝑌2
𝑛

184393
𝑠𝑦2 = − (1300)2
10

𝑠𝑦2 = 18,439 − 1690000

𝑠𝑦2 = 1,68998
𝑆𝑒2
𝑅2 = 1 −
𝑆𝑌2

1,689,98
𝑅2 = 1 −
12,2116

𝑅 2 = 1 − 16,77,77

𝑅 2 = 0,07225

También podría gustarte