Métodos Estadísticos para Investigadores
Métodos Estadísticos para Investigadores
Métodos Estadísticos para Investigadores
Uso en la práctica
El nivel de significación es comúnmente representado por el símbolo griego α (alfa). Son comunes
los niveles de significación del 0.05, 0.01 y 0.001. Si un contraste de hipótesis proporciona
un valor p inferior a α, la hipótesis nula es rechazada, siendo tal resultado denominado
'estadísticamente significativo'. Cuanto menor sea el nivel de significación, más fuerte será la
evidencia de que un hecho no se debe a una mera coincidencia (al azar).
En algunas situaciones es conveniente expresar la significación estadística como 1 − α. En general,
cuando se interpreta una significación dada, se debe tomar en cuenta que, precisamente, está siendo
probada estadísticamente.
Diferentes niveles de α tienen distintas ventajas y desventajas. Valores pequeños de α otorgan
mayor confianza en la determinación de la significación, pero hacen correr mayores riesgos de
equivocarse al aceptar una hipótesis nula falsa (error de tipo II o "falso negativo"), con lo cual se
pierde potencia de estudio. La elección de un nivel de α inevitablemente envuelve un compromiso
entre significación y potencia, y consecuentemente entre errores de tipo I y de tipo II.
En algunos campos, por ejemplo física nuclear y de partículas, es común expresar la significación
estadística en unidades de "σ" (sigma), el desvío estándar de una distribución de Gauss. La
significación estadística de " " puede ser convertida en un valor α por medio de la función
error:
El uso de σ está motivado por la importancia de la distribución gaussiana para medir incertezas.
Por ejemplo, si una teoría predice que un parámetro tendrá un valor de, digamos, 100, y el
parámetro medido resulta de 109 ± 3, luego se puede informar la medición como un "desvío de 3σ"
de la predicción teórica. En términos de α, esta afirmación es equivalente a decir que "asumiendo
que la teoría sea cierta, la posibilidad de obtener el resultado experimental por casualidad es 0,27%
(dado que 1 − erf(3/√2) = 0,0027).
Los niveles fijos de significación tales como los mencionados pueden ser considerados como útiles
en el análisis exploratorio de datos. Sin embargo, la recomendación de la estadística moderna es
que, cuando el resultado de un test es esencialmente el resultado final de un experimento o de otro
estudio, el valor pdebería ser citado explícitamente. Y, sobre todo, debería ser citado si el valor p es
juzgado o no como significativo. Esto es para permitir que el máximo de información sea
transferido de un resumen de estudio al metaanálisis.
La diferencia entre un estadístico de muestra y un valor hipotético es estadísticamente significativa
si una prueba de hipótesis indica que es muy poco probable que la misma haya ocurrido en virtud
de las probabilidades. Para evaluar la significancia estadística, examine el valor p de la prueba. Si
el valor p está por debajo de un nivel de significancia (α) especificado (generalmente 0.10, 0.05 o
0.01), usted puede decir que la diferencia es estadísticamente significativa y rechazar la hipótesis
nula de la prueba.
Por ejemplo, supongamos que usted desea determinar si el grosor de unos parabrisas de vehículo
supera los 4 mm, tal como lo exigen las normas de seguridad. Usted toma una muestra de parabrisas
y realiza una prueba t de 1 muestra con un nivel de significancia (α) de 0.05 y plantea las hipótesis
siguientes:
H0: μ = 4
H1: μ > 4
Si la prueba produce un valor p de 0.001, usted declara significancia estadística y rechaza la
hipótesis nula, porque el valor p es menor que α. Usted concluye a favor de la hipótesis alternativa:
que el grosor de los parabrisas es mayor que 4 mm.
Sin embargo, si el valor p es igual a 0.50, usted no puede declarar significancia estadística. No
tiene suficiente evidencia para afirmar que el grosor promedio de los parabrisas es mayor de 4 mm.
práctico
La significancia estadística por sí sola no implica que los resultados tengan una consecuencia
práctica. Si utiliza una prueba con una potencia muy alta, podría concluir que una pequeña
diferencia con respecto al valor hipotético es estadísticamente significativa. Sin embargo, esa
pequeña diferencia podría ser insignificante para su situación. Debe usar su conocimiento
especializado para determinar si la diferencia es significativa desde el punto de vista práctico.
Por ejemplo, supongamos que usted está evaluando si la media de la población (μ) para las horas
trabajadas en una planta de manufactura es igual a 8. Si μ no es igual a 8, la potencia de la prueba
se acercará a 1 a medida que aumente el tamaño de la muestra y el valor p se acerque a 0.
Con suficientes observaciones, es probable que incluso las diferencias triviales entre los valores
hipotéticos y reales de los parámetros se vuelvan significativas. Por ejemplo, supongamos que el
valor real de mu es 7 horas, 59 minutos y 59 segundos. Con una muestra lo suficientemente grande,
lo más probable es que usted rechace la hipótesis nula de que μ es igual a 8 horas, aunque la
diferencia no tenga importancia práctica.
ERROR TIPO I Y TIPO II (HIPÓTESIS)
Ninguna prueba de hipótesis es 100% cierta. Puesto que la prueba se basa en probabilidades,
siempre existe la posibilidad de llegar a una conclusión incorrecta. Cuando usted realiza una prueba
de hipótesis, puede cometer dos tipos de error: tipo I y tipo II. Los riesgos de estos dos errores están
inversamente relacionados y se determinan según el nivel de significancia y la potencia de la
prueba. Por lo tanto, usted debe determinar qué error tiene consecuencias más graves para su
situación antes de definir los riesgos.
Error de tipo I
Si usted rechaza la hipótesis nula cuando es verdadera, comete un error de tipo I. La
probabilidad de cometer un error de tipo I es α, que es el nivel de significancia que usted
establece para su prueba de hipótesis. Un α de 0.05 indica que usted está dispuesto a aceptar
una probabilidad de 5% de estar equivocado al rechazar la hipótesis nula. Para reducir este
riesgo, debe utilizar un valor menor para α. Sin embargo, usar un valor menor para alfa
significa que usted tendrá menos probabilidad de detectar una diferencia si esta realmente
existe.
Error de tipo II
Cuando la hipótesis nula es falsa y usted no la rechaza, comete un error de tipo II. La
probabilidad de cometer un error de tipo II es β, que depende de la potencia de la prueba.
Puede reducir el riesgo de cometer un error de tipo II al asegurarse de que la prueba tenga
suficiente potencia. Para ello, asegúrese de que el tamaño de la muestra sea lo
suficientemente grande como para detectar una diferencia práctica cuando esta realmente
exista.
La probabilidad de rechazar la hipótesis nula cuando es falsa es igual a 1–β. Este valor es la
potencia de la prueba.
Un error de tipo I se produce si el investigador rechaza la hipótesis nula y concluye que los
dos medicamentos son diferentes cuando, en realidad, no lo son. Si los medicamentos tienen
la misma eficacia, el investigador podría considerar que este error no es muy grave, porque
de todos modos los pacientes se beneficiarían con el mismo nivel de eficacia
independientemente del medicamento que tomen. Sin embargo, si se produce un error de tipo
II, el investigador no rechaza la hipótesis nula cuando debe rechazarla. Es decir, el
investigador concluye que los medicamentos son iguales cuando en realidad son diferentes.
Este error puede poner en riesgo la vida de los pacientes si se pone en venta el medicamento
menos efectivo en lugar del medicamento más efectivo.
Cuando realice las pruebas de hipótesis, considere los riesgos de cometer errores de tipo I y
tipo II. Si las consecuencias de cometer un tipo de error son más graves o costosas que cometer
el otro tipo de error, entonces elija un nivel de significancia y una potencia para la prueba que
reflejen la gravedad relativa de esas consecuencias.
ENSAYOS DE HIPÓTESIS PARA UNA POBLACIÓN
Tenemos que empezar por definir que es una hipótesis y que es prueba de hipótesis.
Hipótesis es una aseveración de una población elaborado con el propósito de poner aprueba, para
verificar si la afirmación es razonable se usan datos.
En el análisis estadístico se hace una aseveración, es decir, se plantea una hipótesis, después se
hacen las pruebas para verificar la aseveración o para determinar que no es verdadera.
Por tanto, la prueba de hipótesis es un procedimiento basado en la evidencia muestral y
la teoría de probabilidad; se emplea para determinar si la hipótesis es una afirmación razonable.
Prueba de una hipótesis: se realiza mediante un procedimiento sistemático de cinco paso:
Las Hipótesis "son tentativas de explicación de los fenómenos a estudiar, que se formulan al
comienzo de una investigación mediante una suposición o conjetura verosímil destinada a ser
probada por la comprobación de los hechos" (María Antonieta Tapia B, 2000). "Es una predicción
científica, una conjetura, la supuesta solución a un problema, a cuya comprobación se dedica la
investigación y como es lógico puede ser comprobada o rechazada" (Dr. C. Carlos A. Córdova
Martínez).
En muchos casos se formula una hipótesis estadística con el solo fin de rechazarla o anularla. Es el
caso de decidir si un procedimiento es mejor que otro, entonces se formula la hipótesis de que no
existe diferencia entre los procedimientos. Esas hipótesis se denominan hipótesis de nulidad y se
denotan por Ho. Cualquiera hipótesis que contradiga a Ho será llamada por hipótesis
alternativa H1. En términos estadísticos, supóngase que se quiere examinar la validez o no, de una
hipótesis referida a un parámetro de la población, digamos que se quiere probar que la media
poblacional ( no es igual a un valor determinado (o; lo expresado se acostumbra a representar
por: Ho : ( = (o vs H1: ( (o
La filosofía detrás del proceso de verificación de la hipótesis estadística en cierto sentido se puede
equiparar con la que rige el método de demostración por reducción al absurdo; es decir, afirmar
algo y para demostrar su veracidad suponer primero que no se cumple, y entonces, por medio de
un proceso lógico llegar a una contradicción con alguna propiedad ya establecida, y de este modo,
arribar a la conclusión de que lo afirmado inicialmente es cierto.
Los procedimientos que nos permiten decidir si se acepta o se rechaza la hipótesis o determinar si
las muestras observadas difieren grandemente de los resultados esperados, son llamados Pruebas
de Hipótesis, Dócimas de Hipótesis o Contraste de Hipótesis.
Al tomar una decisión se corre el riesgo de cometer uno de los dos errores posibles, uno
denominados de tipo I y el otro de tipo II, pero también hay dos posibilidades de tomar una decisión
correcta como se puede apreciar a continuación
Decisión
Es importante medir las magnitudes de eso errores e intentar que sean las menores posibles, es
decir que la probabilidad de cometerlo sea suficientemente pequeña, aunque es imposible reducir
ambas tanto como se quiera, puesto que la disminución en una, en general, es el aumento de la otra.
Como consecuencia de la aleatoriedad de las observaciones muestrales es posible que la estimación
obtenida se desvíe considerablemente de lo esperado por lo que se tome la decisión, siendo cierta
Ho, de rechazarla. Es lógico o conveniente por tanto que la probabilidad de que esto suceda sea
pequeña. Dentro de esta metodología, esta probabilidad, se denota por a y recibe el nombre de Nivel
de Significación.
El nivel de significación, es un valor arbitrario, en el sentido de que es seleccionado a priori por el
investigador de acuerdo a su experiencia y deseo. Siendo una probabilidad, puede asignársele
cualquier valor entre 0 y 1, pero como es importante usar una cifra pequeña, los valores que con
más frecuencia se utilizan son 0.05 y 0.01 o inclusive mas pequeños, aunque poco frecuentes en la
practica usual .
Es conveniente notar que el uso del término, significación, es debido a que la diferencia entre, el
valor hipotético (también llamado, teórico) y el hallado en la muestra (conocido como, práctico),
se considera suficientemente grande, como para que no sea solamente atribuible al azar; es decir,
que el concepto se refiere al estado de ser, estadísticamente significativo, y no es utilizado en el
sentido funcional habitual de la palabra.
El conjunto de valores muéstrales que conducen a rechazar Ho se denomina o conoce como, región
crítica o de rechazo, de la prueba de hipótesis.
Sea H una Hipótesis. Si la distribución muestral de un estadígrafo S es una distribución normal con
media (S y desviación estándar ?s , entonces la distribución de la variable estandarizada (o
puntuación Z) viene dada por Z=(S-(S)/?s , que es la distribución normal estandarizada ( media 0
y varianza 1)(Murray R Spiegel).
Como fue indicado en la anterior figura, se tendrá una confianza de un 95%, si la hipótesis H es
verdadera, de que la puntuación de Z de un estadígrafo muestral S estará entre k1 y k2, ya que el
área bajo la curva normal entre k1 y k2 es 0.95.
Como la distribución normal es simétrica, se distribuye a partes iguales la probabilidad de rechazar
Ho, cuando esta es verdadera, entre las dos colas de la curva, y entonces rechazaremos Ho sólo si
Z < k1 ó Z > k2, donde k1,2 están reflejados en la tabla que se muestra a continuación. La región
crítica o de rechazo, entonces estará constituida por el conjunto de las todas muestras de un tamaño
n, dado tales que el valor observado de Z cumpla con una de las dos siguientes condiciones: Z <
k1 ó Z > k2.
Si, por otra parte, Z no se ubica en alguna de estas zonas, lo que sucede con probabilidad 1 – ?,
entonces en este caso se decide no rechazar Ho, y en consecuencia a esa región central bajo la curva
normal se le llama, región de no rechazo. En muchos textos de estadística se le denomina región
de aceptación.
La siguiente tabla muestra en situaciones diferentes el modo de calcular el estadígrafo de prueba,
según algunos textos:
( desconocida y n ( 30 t-Student
Para muestras grandes las distribuciones muestrales de muchos estadígrafos Z, son distribuciones
normales con media (x y desviación estándar (S.
Los casos siguientes son de interés práctico, pero para poblaciones infinitas o para muestreos con
reemplazo. Para Medias y Proporciones se puede calcular Z según se indica a continuación:
Media. Sea S = la media muestral, (x = ( la media poblacional, (x = (/ donde ( es la desviación
En las unidades anteriores se manejó el uso de la distribución z, la cual se podía utilizar siempre y
cuando los tamaños de las muestras fueran mayores o iguales a 30 ó en muestras más pequeñas si
la distribución o las distribuciones de donde proviene la muestra o las muestras son normales.
En esta unidad se podrán utilizar muestras pequeñas siempre y cuando la distribución de donde
proviene la muestra tenga un comportamiento normal. Esta es una condición para utilizar las tres
distribuciones que se manejarán en esta unidad; t de student, X2 ji-cuadrada y Fisher.
A la teoría de pequeñas muestras también se le llama teoría exacta del muestreo, ya que también la
podemos utilizar con muestras aleatorias de tamaño grande.
En esta unidad se verá un nuevo concepto necesario para poder utilizar a las tres distribuciones
mencionadas. Este concepto es "grados de libertad".
Esta fórmula está basada en n-1 grados de libertad (degrees of freedom). Esta terminología resulta
del hecho de que si bien s2 está basada en n cantidades ..., éstas suman
cero, así que especificar los valores de cualquier n-1 de las cantidades determina el valor restante.
Por ejemplo, si n=4 y
Supóngase que se toma una muestra de una población normal con media y varianza . Si
es el promedio de las n observaciones que contiene la muestra aleatoria, entonces la
Sean X1, X2, . . . , Xn variables aleatorias independientes que son todas normales con media y
Para encontrar los valores de t se utilizará la tabla de valores críticos de la distribución t del libro
Probabilidad y Estadística para Ingenieros de los autores Walpole, Myers y Myers.
Ejemplo:
El valor t con = 14 grados de libertad que deja un área de 0.025 a la izquierda, y por tanto un
área de 0.975 a la derecha, es
t0.975=-t0.025 = -2.145
Si se observa la tabla, el área sombreada de la curva es de la cola derecha, es por esto que se tiene
que hacer la resta de . La manera de encontrar el valor de t es buscar el valor de en el
primer renglón de la tabla y luego buscar los grados de libertad en la primer columna y donde se
intercepten y se obtendrá el valor de t.
Ejemplo:
Solución:
Como t0.05 deja un área de 0.05 a la derecha, y –t0.025 deja un área de 0.025 a la izquierda,
encontramos un área total de 1-0.05-0.025 = 0.925.
P( –t0.025 < t < t0.05) = 0.925
Ejemplo:
Encuentre k tal que P(k < t < -1.761) = 0.045, para una muestra aleatoria de tamaño 15 que se
selecciona de una distribución normal.
Solución:
Si se busca en la tabla el valor de t =1.761 con 14 grados de libertad nos damos cuenta que a este
valor le corresponde un área de 0.05 a la izquierda, por ser negativo el valor. Entonces si se resta
0.05 y 0.045 se tiene un valor de 0.005, que equivale a . Luego se busca el valor de 0.005 en el
primer renglón con 14 grados de libertad y se obtiene un valor de t = 2.977, pero como el valor
de está en el extremo izquierdo de la curva entonces la respuesta es t = -2.977 por lo tanto:
Ejemplo:
Un ingeniero químico afirma que el rendimiento medio de la población de cierto proceso en lotes
es 500 gramos por milímetro de materia prima. Para verificar esta afirmación toma una muestra de
25 lotes cada mes. Si el valor de t calculado cae entre –t0.05 y t0.05, queda satisfecho con su
afirmación. ¿Qué conclusión extraería de una muestra que tiene una media de 518 gramos por
milímetro y una desviación estándar de 40 gramos? Suponga que la distribución de rendimientos
es aproximadamente normal.
Solución:
De la tabla encontramos que t0.05 para 24 grados de libertad es de 1.711. Por tanto, el fabricante
queda satisfecho con esta afirmación si una muestra de 25 lotes rinde un valor t entre –1.711 y
1.711.
Una recta que mejor se ajusta puede ser determinada aproximadamente usando el método visual al
dibujar una línea recta en unagráfica de dispersión para que tanto el número de puntos arriba de la
recta y debajo de la recta sean casi iguales (y la línea pasa a tráves de tantos puntos como sea
posible).
Una forma más precisa de encontrar la recta que mejor se ajusta es el método de mínimos
cuadrados .
Use los pasos siguientes para encontrar la ecuación de la recta que mejor se ajusta para un conjunto
de parejas ordenadas .
donde son las medias de las coordenadas de x y y de los puntos de datos respectivamente.
Paso 6: Use la pendiente y la intercepción en y para formar la ecuación de la recta.
Ejemplo:
Use el método de mínimos cuadrados para determinar la ecuación de la recta que mejor se ajusta
para los datos. Luego grafique la recta.
Solución:
Calcule las medias de los valores de x y los valores de y , la suma de los cuadrados de los valores
de x , y la suma de cada valor de xmultiplicado por su valor correspondiente y .
Calcule la pendiente.
Calcule la intercepción en y .
Use la pendiente y la intercepción en y para formar la ecuación de la recta que mejor se ajusta.
ara poder contar con un indicador que nos permita, por un lado establecer la covariación conjunta
de dos variables , y por otro, que tenga la universalidad suficiente para poder establecer
comparaciones entre distintos casos, se utiliza el coeficiente de correlación (lineal, de Pearson).La
correlación es, pues una medida de covariación conjunta que nos informa del sentido de esta y de
su relevancia, que está acotada y permite la comparación entre distintos casos.
El coeficiente de correlación entre dos variables puede definirse como la covarianza existente entre
sus dos variables tipificadas y tiene por expresión de cálculo:
Interpretación:
**Si r < 0 Hay correlación negativa : las dos variables se correlacionan en sentido inverso.A
valores altos de una de ellas le suelen corresponder valor bajos de la otra y viceversa.Cuánto más
próximo a -1 esté el coeficiente de correlación más patente será esta covariación extrema.Si r= -1
hablaremos de correlación negativa perfecta lo que supone una determinación absoluta entre las
dos variables ( en sentido inverso): Existe una relación funcional perfecta entre ambas(una relación
lineal de pendiente negativa).
** Si r > 0 Hay correlación positiva: las dos variables se correlacionan en sentido directo.A
valores altos de una le corresponden valores altos de la otra e igualmente con los valores
bajos.Cuánto más próximo a +1 esté el coeficiente de correlación más patente será esta
covariación.Si r = 1 hablaremos de correlación positiva perfecta lo que supone una determinación
absoluta entre las dos variables (en sentido directo):Existe una relación lineal perfecta ( con
pendiente positiva).
** Si r = 0 se dice que las variables están incorrelacionadas: no puede establecerse ningún sentido
de covariación.
La correlación estadística es medida por lo que se denomina coeficiente de correlación (r). Su valor
numérico varía de 1,0 a -1,0. Nos indica la fuerza de la relación.
En general, r> 0 indica una relación positiva y r <0 indica una relación negativa, mientras que r =
0 indica que no hay relación (o que las variables son independientes y no están relacionadas). Aquí,
r = 1,0 describe una correlación positiva perfecta y r = -1,0 describe una correlación negativa
perfecta.
Cuanto más cerca estén los coeficientes de +1,0 y -1,0, mayor será la fuerza de la relación entre las
variables.
Como norma general, las siguientes directrices sobre la fuerza de la relación son útiles (aunque
muchos expertos podrían disentir con la elección de los límites).
Desventajas
Si bien 'r' (coeficiente de correlación) es una herramienta poderosa, debe ser utilizada con cuidado.
1. Los coeficientes de correlación más utilizados sólo miden una relación lineal. Por lo tanto, es
perfectamente posible que, si bien existe una fuerte relación no lineal entre las variables, r está
cerca de 0 o igual a 0. En tal caso, un diagrama de dispersión puede indicar aproximadamente la
existencia o no de una relación no lineal.
2. Hay que tener cuidado al interpretar el valor de 'r'. Por ejemplo, se podría calcular 'r' entre el
número de calzado y la inteligencia de las personas, la altura y los ingresos. Cualquiera sea el
valor de 'r', no tiene sentido y por lo tanto es llamado correlación de oportunidad o sin sentido.
3. 'R' no debe ser utilizado para decir algo sobre la relación entre causa y efecto. Dicho de otra
manera, al examinar el valor de 'r' podríamos concluir que las variables X e Y están relacionadas.
Sin embargo, el mismo valor de 'r no nos dice si X ínfluencia a Y o al revés. La correlación
estadística no debe ser la herramienta principal para estudiar la causalidad, por el problema con
las terceras variables.
INTERVALO DE CONFIANZA PARA LOS COEFICIENTES DE
CORRELACIÓN
a) Supuestos:
b) Hipótesis:
c) Estadístico de contraste:
g) Intervalo de confianza:
Ejemplo
En un estudio de la relación entre malestar físico subjetivo y depresión hallan que la correlación
entre las dos variables es igual a 0.6 en una muestra de 35 pacientes de depresión seleccionados
aleatoriamente. Saben que la correlación entre estas variables en la población de individuos sin
depresión es igual a 0.4 (valor ficticio), y quieren saber si la diferencia es estadísticamente
significativa.
a) Supuestos:
Se asume que los supuestos son satisfechos dado que hemos seleccionado aleatoriamente los
individuos de la muestra.
b) Hipótesis:
alfa=0.05
c) Estadístico de contraste:
g) Intervalo de confianza:
Con un nivel de confianza del 95% se concluye que la correlación poblacional toma un valor entre
0.34 y 1