Capitulo 7 Inferencia Estadistica

Descargar como pptx, pdf o txt
Descargar como pptx, pdf o txt
Está en la página 1de 28

Capitulo 7

INFERENCI
A
ESTADÍSTIC
Inferencia estadística
 “El conjunto de métodos estadísticos que
permiten deducir (inferir) como se distribuye la
población en estudio o las relaciones
estocásticas entre varias variables de interés a
partir de la información que proporciona una
muestra”.
Intervalo de confianza
 En estadística, se llama intervalo de confianza a un par o varios pares de
números entre los cuales se estima que estará cierto valor desconocido con
una determinada probabilidad de acierto.
Intervalos de confianza para la media de una
población

Fórmula
 

Donde
Media
Desviación estándar
n Numero de la muestra
E Error

Fórmula del Error


Ejemplo 2
80%
n= 30 alumnos

= 5.83 Promedio de calificaciones 10% 10%

=1.92 5.38 6.28


IC= 80% =0.8

Formula = 1.28

  𝟏. 𝟗𝟐
𝑬=𝟏. 𝟐𝟖 =𝟎. 𝟒𝟒𝟖𝟕 ≅ 𝟎 . 𝟒𝟓
√𝟑𝟎
Intervalo de confianza es
(5.83-0.45, 5.83+0.45) = (5.38, 6.28)

Significa que el 80% de los alumnos están entre 5.38 y 6.28 de


calificación el resto esta por debajo y superior
7.3 Pruebas de HIPOTESIS

Una HIPOTESIS se define como una proposición


acerca de una o más poblaciones.

El propósito de la prueba de hipótesis es ayudar a el


investigador a tomar una decisión acerca de una
población mediante el examen de una muestra de
ella.
Pruebas paramétricas
Pruebas de hipótesis estadísticas que asumen cierto comportamiento de:

 Muestras obtenidas aleatoriamente

 Distribución normal de las observaciones

 Existe un parámetro de interés que buscamos estimar.

Pruebas no paramétricas
No asumen lo anterior total o parcialmente.
Ho: µ = 50
Ha: µ ≠ 50
Ejemplos: Z < Valor crítico
Paso 7 Conclusiones finales
Esto se realiza con base a la decisión anterior.
7.5 Regresión y correlación lineal
Regresión lineal
Se llama así a la recta que atraviesa la nube de puntos y que mejor se ajusta a
ellos. El análisis de la regresión lineal es útil para averiguar la forma probable
de las relaciones entre las variables y el objetivo final

La variable X (variable independiente


Para determinar la variable
Y (variable dependiente)

La ecuación de una recta es:

y=a+bx
Ejemplo

Y=2.327 + 0.892 X
7.4 Asociación entre variables cuantitativas
(Coeficiente de correlación de Pearson)

Esta prueba se aplica en diseños de investigación en los que a un único


grupo de individuos se les han medido simultáneamente dos variables
cuantitativas continuas que tienen distribución semejante a la de la curva
normal.
 
En esta prueba se calcula una medida de resumen llamada coeficiente de
correlación de Pearson, simbolizado como rp, que permite identificar la
forma en que se asocian las dos variables cuantitativas continuas.
 
Una vez calculado, el coeficiente de correlación de Pearson puede tener
valores que varían entre -1 hasta + 1, pasando por el cero.
Este coeficiente nos informa del grado de relación entre dos variables.
• Si la relación es lineal perfecta, rp será 1 ó -1.

• El coeficiente , rp será positivo si la relación es positiva (al aumentar x aumenta y),

• Y rp será negativo en el caso contrario (si al aumentar x, disminuye y).

Esta prueba de análisis estadístico exige el cumplimiento de la siguiente condición: la


distribución de ambas variables debe ser semejante a la de la curva normal. En el caso de
que no se cumpla la condición o que de entrada una o ambas variables sean discretas, la
prueba alterna de análisis estadístico que se debe utilizarse es la denominada de
Spearman.
Puntuación de 10 individuos en prueba de ansiedad y depresión

el gráfico mostraba una aparente asociación de tipo directo; es


decir, los individuos con puntuaciones bajas en la prueba de
ansiedad también tenían puntuaciones bajas en la prueba de
depresión. Complementariamente, las personas con altas
puntuaciones en la prueba de ansiedad tenían altas puntuaciones en
la prueba de depresión.
Fórmula

Entonces en el ejemplo:

Indica una intensa asociación de tipo directo entre ambas variables; es decir, las más
altas puntuaciones en una de las variables correspondieron a las más altas
puntuaciones en la otra y, complementariamente, las más bajas puntuaciones en una
variable correspondieron a las más bajas puntuaciones de la otra.
A través de la computadora
Determinar el valor crítico
Ahora el propósito de la prueba era evaluar la posibilidad de rechazar a la Ho, se hizo
una comparación del valor calculado con un valor crítico tabular.

Grados de libertad = n-2

Por lo tanto
G.L.=10-2 = 8

Si localizamos en la tabla

El valor critico para el nivel de


significancia de 0.05 fue de 0.632.
DECISIÓN

Como el valor calculado de rp fue de 0.97 y, por ello, superó al valor crítico,
entonces se rechazó la hipótesis estadística nula
Ho: rp = 0; en otras palabras, se rechazó la suposición de que no había
asociación estadísticamente significativa entre ambas variables.
  rp > Valor crítico
ó

0.97 >0.632

Conclusión, Al menos para el grupo en estudio, existe asociación directa entre


las puntuaciones obtenidas por los sujetos en las escalas de ansiedad y de
depresión y que el riesgo de equivocarse al establecer tal conclusión era menor
a 0.05 (equivalente a 5%); lo anterior se simbolizó así: la Ho fue rechazada ( p
< 0.05).
Tipos de correlación

Valor Significado

-1 Correlación negativa grande y perfecta

-0,9 a -0,99 Correlación negativa muy alta


-0,7 a -0,89 Correlación negativa alta
-0,4 a -0,69 Correlación negativa moderada
-0,2 a -0,39 Correlación negativa baja
-0,01 a -0,19 Correlación negativa muy baja
0 Correlación nula
0,01 a 0,19 Correlación positiva muy baja
0,2 a 0,39 Correlación positiva baja
0,4 a 0,69 Correlación positiva moderada
0,7 a 0,89 Correlación positiva alta
0,9 a 0,99 Correlación positiva muy alta

1 Correlación positiva grande y perfecta


Determine si existe correlación entre las variables: Glucosa y Colesterol
de 10 pacientes con un riego de equivocarse del 5%
Solución:
Mediante el programa estadítico
SPSS

Y(colesterol)=75.088 + 1.840 X(Glucosa)

También podría gustarte