Comparaciones Múltiples o Pruebas de Significancia
Comparaciones Múltiples o Pruebas de Significancia
Comparaciones Múltiples o Pruebas de Significancia
Siempre que el análisis de varianza conduzca a rechazar la hipótesis nula (H0) de no diferencia
entre las medias poblacionales, es decir, aceptar la Ha de diferencia entre las medias
poblacionales, surge la pregunta respecto a qué tratamiento es el mejor en el caso de un modelo
de efectos fijos.
El experimentador debe tener precaución al pretender encontrar diferencias significativas entre
las medias individuales, siempre debe asegurarse que su procedimiento sea válido.
Hay una variedad de procedimientos de comparación múltiple, podemos citar:
Pruebas a priori o planificadas:
- Contrastes lineales ortogonales
- Contrastes lineales no ortogonales
Pruebas a posteriori o no planificadas:
- Mínima Diferencia Significativa (LSD)
- Tukey (1953)
- Duncan (1955)
- SNK (Student-Newman-Keuls). Diseñada por Newman (1939) y estudiada por Keuls
(1952)
- Bonferroni (1961)
- Scheffé (1953)
- Dunnett (1955, 1964)
- Scott Knott (1974)
- MSA, entre otras.
Varianzas desiguales: cuando la prueba de igualdad de varianzas (por ejemplo, Levene) nos
hace sospechar que las varianzas no son similares en todos los grupos, podemos considerar
alguna de estas pruebas:
• T2 de Tamhane
• T3 de Dunnett
• C de Dunnett
• Scheffe
• Games-Howel
Puesto que en el ejemplo se rechazó la Ho, implica que existe diferencia entre los tiempos
de resolución de problemas matemáticos.
Al principio del experimento, pudiéramos haber sospechado que las dosis media y alta
producen los mismos tiempos en la resolución de problemas matemáticos sencillos. Esto
implicaría una hipótesis siguiente:
𝐻𝑜: 𝜇3 = 𝜇4 o 𝐻𝑜: 𝜇4 − 𝜇3 = 0
𝐻𝑎: 𝜇3 ≠ 𝜇4 𝐻𝑎: 𝜇3 − 𝜇4 ≠ 0
Si se hubiera sospechado, que los promedios de los niveles más bajos (sin dosis y alta dosis)
no diferían significativamente de los niveles más altos (dosis media y alta dosis), la hipótesis
sería:
𝐻𝑜: 𝜇1 + 𝜇2 = 𝜇3 + 𝜇4 o 𝐻𝑜: (𝜇1 + 𝜇2 ) − (𝜇3 + 𝜇4 ) = 0
𝐻𝑎: 𝜇1 + 𝜇2 ≠ 𝜇3 + 𝜇4 𝐻𝑎: (𝜇1 + 𝜇2 ) − (𝜇3 + 𝜇4 ) ≠ 0
Las comparaciones o contrastes entre las medias de los tratamientos se pueden construir
de manera que se respondan a las preguntas específicas sobre el experimento. Los
contrastes son formas especiales de las funciones lineales de las observaciones. Un
contraste entre medias en forma general se define como:
𝑡
Γ = ∑ 𝑘𝑖 𝜇𝑖 = 𝑘1 𝜇1 + 𝑘2 𝜇3 + ⋯ + 𝑘𝑡 𝜇𝑡
𝑖=1
Donde las constantes de los contrastes 𝑘1 , 𝑘2 , … , 𝑘𝑡 suman cero; es decir ∑𝑡𝑖=1 𝑘𝑖 = 0, las
dos hipótesis anteriores pueden pueden expresarse en terminos de contrastes:
𝑡
𝐻𝑜: ∑ 𝑘𝑖 𝜇𝑖 = 0
𝑖=1
𝑡
𝐻𝑜: ∑ 𝑘𝑖 𝜇𝑖 ≠ 0
𝑖=1
C = ∑ 𝑘𝑖 𝑦𝑖 .
𝑖=1
Γ = ∑ 𝑘𝑖 𝜇𝑖
𝑖=1
Al sustituir las medias de los tratmientos con los promedios de los tratamientos, queda:
𝑡
C = ∑ 𝑘𝑖 𝑦̅𝑖.
𝑖=1
Y
𝑡
𝜎2
V(C) = ∑ 𝑘𝑖2
𝑛
𝑖=1
Cuando los tamaños muestrales son iguales. Si de usa el CMerror, el intervalo de confianza
para el contraste en término de promedios es:
𝑡 𝑡 𝑡 𝑡 𝑡
𝐶𝑀𝑒𝑟𝑟𝑜𝑟 𝐶𝑀𝑒𝑟𝑟𝑜𝑟
∑ 𝑘𝑖 𝑦̅𝑖. − 𝑡𝛼,𝑁−𝑡 √ ∑ 𝑘𝑖2 ≤ ∑ 𝑘𝑖 𝜇𝑖 ≤ ∑ 𝑘𝑖 𝑦̅𝑖. + 𝑡𝛼,𝑁−𝑡 √ ∑ 𝑘𝑖2
2 𝑛 2 𝑛
𝑖=1 𝑖=1 𝑖=1 𝑖=1 𝑖=1
Contraste estandarizado
Cuando hay interés en más de un contraste, con frecuencia es útil evaluarlos en la misma
escala. Una forma es estandarizando el contraste.
𝑡
∑ 𝑘𝑖∗ 𝑦𝑖 .
𝑖=1
Donde
𝑘𝑖
𝑐𝑖∗ =
√𝑛 ∑𝑡𝑖=1 𝑘𝑖2
∑ 𝑛𝑖 𝑘𝑖 = 0
𝑖=1
2
(∑𝑡𝑖=1 𝑘𝑖 𝑦𝑖. )
𝑆𝐶𝑡𝑟𝑎𝑡 =
∑𝑡𝑖=1 𝑛𝑖 𝑘𝑖2
Contrastes ortogonales
Un caso especial del procedimiento anterior es el de los contrastes ortogonales.
Dos contrastes con coeficientes {𝑐𝑖 } 𝑦 {𝑑𝑖 } 𝑠𝑜𝑛 𝑜𝑟𝑡𝑜𝑔𝑜𝑛𝑎𝑙𝑒𝑠 𝑠𝑖:
𝑡
∑ 𝑘𝑖 𝑑𝑖 = 0
𝑖=1
∑ 𝑟𝑖 𝑘𝑖 𝑑𝑖 = 0
𝑖=1
Observe que el contraste 1 con ci = -2,1,1 compara el efecto promedio del factor con el
control, mientras que el contraste 2 di = 0,-1,-1 compara los dos niveles del factor de
interés.
Ejemplo: considere el siguiente ejemplo. Hay cuatro medias de los tratamientos y tres
g.l. entre estos tratamientos. Suponga que antes de correr el experimento se especificó
la siguiente serie de comparaciones entre las medias de los tratamientos (y sus
contrastes asociados).
Hipótesis contrastes
𝐻𝑜: 𝜇3 = 𝜇4 𝐶1 = −𝑦3. + 𝑦4.
𝐻𝑜: 𝜇1 + 𝜇2 = 𝜇3 + 𝜇4 𝐶2 = 𝑦1. + 𝑦2. − 𝑦3. − 𝑦4.
𝐻𝑜: 𝜇1 = 𝜇3 𝐶3 = 𝑦1. − 𝑦3.
𝐻𝑜: 4𝜇2 = 𝜇1 + 𝜇3 + 𝜇4 𝐶4 = −𝑦1. + 4𝑦2. − 𝑦3. − 𝑦4.
Los valores numéricos de los contrastes y de las sumas de cuadrados son los siguientes
(ANVA):
𝐶1 = −𝑦3. + 𝑦4.
𝐶2 = 𝑦1. + 𝑦2. − 𝑦3. − 𝑦4.
𝐶3 = 𝑦1. − 𝑦3.
𝐶4 = −𝑦1. + 4𝑦2. − 𝑦3. − 𝑦4.
El ANVA inicial era:
ANOVAa
Modelo Suma de cuadrados gl Media cuadrática F Sig.
Total 1292,200 19
(∑𝑎𝑖=1 𝑐𝑖 𝑦𝑖. )2
𝑆𝐶𝑐𝑖 =
𝑛 ∑𝑎𝑖=1 𝑐𝑖2
42
𝐶1 = −1(288) + 1(292) = 4 ; 𝑆𝐶𝐶1 = =2
4(2)
𝐶2 = 1(216) + 1(218) − 1(288) − 1(292) = −146;
−1462
𝑆𝐶𝐶2 = = 1332.25
4(4)
𝐶3 = 1(216) − 1(288) = −72;
−722
𝑆𝐶𝐶3 = 4(2)
=648
tiene la distribución t de Student. Bajo la hipótesis nula Ho: C = 0. Estos valores pueden
ser obtenidos directamente con el programa R.
Hipótesis posibles de pares:
Caso A: cola derecha Caso B: cola Izquierda Caso C: dos colas
Ho: 𝜇𝑖 − 𝜇𝑗 = 𝑘 Ho: 𝜇𝑖 − 𝜇𝑗 = 𝑘 Ho: 𝜇𝑖 − 𝜇𝑗 = 𝑘
Ha: 𝜇𝑖 − 𝜇𝑗 > 𝑘 Ha: 𝜇𝑖 − 𝜇𝑗 < 𝑘 Ha: 𝜇𝑖 − 𝜇𝑗 ≠ 𝑘
Estadístico de prueba:
(𝑦̅𝑖. − 𝑌̅𝑗. ) − 𝑘
𝑡𝑐 = ~𝑡𝑔𝑙(𝑒𝑟𝑟𝑜𝑟)
𝑠𝑑
1 1
Donde 𝑠𝑑 = √𝐶𝑀𝐸 (𝑟 + 𝑟 ) es la desviación estándar de la diferencia de las medias
𝑖 𝑗
muestrales de los dos tratamientos.
Si todos los tratamientos tienen el mismo número de repeticiones, el estadístico de
prueba se planifica a:
(𝑦̅𝑖. − 𝑌̅𝑗. ) − 𝑘
𝑡𝑐 =
√2𝐶𝑀𝐸
𝑟
Regla de decisión:
Caso A: se rechaza la Ho si 𝑡𝑐 > 𝑡𝑡 , 𝑡𝑡 = 𝑡𝛼,𝐺𝐿𝐸
Caso B: se rechaza la Ho si 𝑡𝑐 < 𝑡𝑡 , 𝑡𝑡 = −𝑡𝛼,𝐺𝐿𝐸
Caso C: se rechaza la Ho si 𝑡𝑐 < −𝑡𝑡 , o si 𝑡𝑐 > 𝑡𝑡 , 𝑡𝑡 = 𝑡𝛼/2,𝐺𝐿𝐸
Ejemplo: si se quiere evaluar si el aumento de peso logrado con el compuesto vitamínico
B superaba al logrado con D en más de una libra.
Ho: 𝜇𝐵 − 𝜇𝐷 = 1
Ha: 𝜇𝐵 − 𝜇𝐷 > 1
Es usada una vez rechazada la Ho del ANVA o cuando la prueba ANVA es significativa.
La prueba DLS es una forma abreviada de la prueba t para el caso bilateral. La prueba
consiste en calcular la diferencia limite significativa (DLS) de modo que cualquier
diferencia entre las medias de dos tratamientos mayor a dicho límite sea significativa.
Los supuestos para esta prueba son los mismos que para la prueba t y por supuesto,
también debe ser planeada con anterioridad.
Características
Permite identificar las diferencias significativas pequeñas, cuando su significancia es
real, aunque se tengan pocas observaciones en cada tratamiento.
Esta prueba permite también ser utilizada para tratamientos desigualmente repetidos y
para para la estimación de intervalos.
A medida que el número de tratamientos aumenta, crece la probabilidad del error tipo
I. Es decir, el nivel de significancia (), es en realidad mayor al especificado por el
analista.
Su potencia es aceptable, solo si la significancia del factor se probó por lo menos con un
95% de confianza.
No tiene control sobre el error en el modelo de experimentación.
Esta prueba se emplea para comparaciones no ortogonales.
Se usa cuando se tiene a lo más 4 tratamientos
Método
1) Hipótesis estadística:
𝐻𝑜: 𝜇𝑖 = 𝜇𝑗
𝐻𝑎: 𝜇𝑖 ≠ 𝜇𝑗 ∀𝑖 ≠𝑗
2) Nivel de significancia:
𝛼 = 5% 𝑜 1%
3) Prueba estadística: Diferencia limite significativa
𝐷𝐿𝑆 = 𝑡(𝛼⁄2,𝐺𝐿𝑒𝑟𝑟𝑜𝑟) 𝑠𝑑̅
Donde,
t, es la distribución t de student
𝛼: nivel de significancia
𝐺𝐿𝑒𝑟𝑟𝑜𝑟: Grados de libertad del error
La desviación estándar de la diferencia de las medias muestrales de los dos
tratamientos es:
Para el caso desbalanceado:
1 1
𝑠𝑑̅ = √𝐶𝑀𝐸 ( + )
𝑟𝑖 𝑟𝑗
2𝐶𝑀𝑒𝑟𝑟𝑜𝑟
𝑠𝑑̅ = √
𝑟
4) Regla de decisión:
Se rechaza la hipótesis nula (Ho) con nivel de significancia 𝛼 si, |𝑦̅𝑖. − 𝑦̅𝑗. | > 𝐷𝐿𝑆
1 1 1 1
𝐷𝐿𝑆 = √𝐶𝑀𝐸 ( + ) = √0.1604 ( + ) = 0.4858
𝑟𝐴 𝑟𝐵 6 6
Método
1) Hipótesis estadística:
𝐻𝑜: 𝜇𝑖 = 𝜇𝑘
𝐻𝑎: 𝜇𝑖 ≠ 𝜇𝑘 𝑐𝑜𝑛 𝑖 = 1,2, … , 𝑡 − 1
2) Nivel de significancia:𝛼 = 5%
3) Prueba estadística:
Caso desbalanceado
1 1
𝐴𝐿𝑆(𝐷𝑛 ) = 𝐷𝛼,(𝑡−1.𝑛−𝑡) √𝐶𝑀𝑒𝑟𝑟𝑜𝑟 ( + )
𝑟𝑖 𝑟𝑘
2𝐶𝑀𝑒𝑟𝑟𝑜𝑟
𝐴𝐿𝑆(𝐷𝑛 ) = 𝐷𝛼,(𝑡−1.𝑛−𝑡) √
𝑟
Prueba de Duncan
Esta prueba puede ser aplicada aun sin ser significativa la prueba F.
Es usada cuando las varianzas son homogéneas y un C.V. bajo
La prueba de Duncan (1955), también conocida como la prueba de rango múltiple. Es un
procedimiento muy utilizado para comparar todos los pares de medias. Para realizar
esta prueba no es necesarios realizar previamente la prueba F (cuadro ANVA) y que esta
resulte significativa; sin embargo, es recomendable que la prueba F haya resultado
significativa, a fin de evitar contradicciones entre ambas pruebas.
Método
1) Hipótesis estadística:
𝐻𝑜: 𝜇𝑖 = 𝜇𝑗
𝐻𝑎: 𝜇𝑖 ≠ 𝜇𝑗 ∀𝑖 ≠𝑗
2) Nivel de significancia: 𝛼 = 5% 𝑜 1%
3) Prueba estadística:
Como las t muestras son de igual tamaño, los t promedios se acomodan en orden
descendente y el error estándar de los promedios se estima con:
𝐶𝑀𝑒𝑟𝑟𝑜𝑟
𝑠𝑦̅𝑖. = √
𝑟
A la expresión
𝐶𝑀𝑒𝑟𝑟𝑜𝑟
𝐴𝐿𝑆(𝐷) = 𝑑𝛼,(𝑝,𝑛−𝑡) √
𝑟
Prueba de Tukey
Es un método más riguroso para comparar pares de medias de tratamientos que el
método de Duncan, es conocida como la prueba de la diferencia significativa honesta
HSD (Honestly significant difference). Es procedimiento que proporciona una tasa con
respecto al experimento en el sentido fuerte, para las comparaciones en pares de todas
las medias de tratamiento, que se usa para obtener intervalos de confianza simultáneos
de 100(1 - )%. Los supuestos son:
▪ Varianzas homogéneas
▪ Las muestras son extraídas al azar
▪ CV<10%
▪ Cuando los tamaños de las muestras seleccionadas para cada tratamiento son
iguales de preferencia.
Método
1) Hipótesis estadística:
𝐻𝑜: 𝜇𝑖 = 𝜇𝑗
𝐻𝑎: 𝜇𝑖 ≠ 𝜇𝑗 ∀𝑖 ≠𝑗
1) Nivel de significancia: 𝛼 = 5% 𝑜 1%
2) Prueba estadística:
Desviación estándar de la diferencia de promedios.
𝐶𝑀𝑒𝑟𝑟𝑜𝑟
𝑠𝑥̅ = √
𝑟
𝐶𝑀𝑒𝑟𝑟𝑜𝑟
𝐷𝐻𝑆(𝑇) = 𝑞𝛼,(𝑡,𝑛−𝑡) √ = 𝐴𝐸𝑆(𝑇) ∗ 𝑠𝑥̅
𝑟
𝐶𝑀𝑒𝑟𝑟𝑜𝑟 1 1
𝐷𝐻𝑆(𝑇) = 𝑞𝛼,(𝑡.𝑛−𝑡) √ ( + )
2 𝑟𝑖 𝑟𝑘
Método
1) Hipótesis estadística:
𝐻𝑜: 𝜇𝑖 = 𝜇𝑗
𝐻𝑎: 𝜇𝑖 ≠ 𝜇𝑗 ∀𝑖 ≠𝑗
2) Nivel de significancia: 𝛼 = 5% 𝑜 1%
3) Prueba estadística:
𝐶𝑀𝑒𝑟𝑟𝑜𝑟
𝐴𝐿𝑆(𝑆𝑁𝐾) = 𝑞𝛼,(𝑡,𝑣) √
𝑟
Prueba de Scheffé.
Scheffé (1953) propuso un método para probar todas las comparaciones posibles o
construir intervalos de confianza para todas ellas. Este método proporciona la
protección señalada del error con respecto al experimento, para cualquier número de
comparaciones; en consecuencia, es bastante conservador y, en general, se usa para
comparaciones no planeadas o sugeridas por los datos.
Sirve para probar todos los contrastes de medias que pudieran ser de interés, en
particular aquellos que involucran a más de dos medias. Los datos no necesariamente
deben ajustarse a una distribución normal.
Método
1) Hipótesis estadística:
𝐻𝑜: 𝐶 = 0
𝐻𝑎: 𝐶 ≠ 0
2) Nivel de significancia: 𝛼 = 5% 𝑜 1%
3) Prueba estadística:
t
Considerando cualquier comparación, C = ki yi. , entre t medias de tratamientos
i =1
𝑡
𝑘𝑖2
𝑆𝑐 = √𝐶𝑀𝑒𝑟𝑟𝑜𝑟 [∑ ]
𝑟𝑖
𝑖=1
A la expresión
𝑡−1
𝑆(𝛼) = 𝑆𝑐 √(𝑡 − 1)𝐹𝑣,𝛼