Trabajo de Diferencia Minima
Trabajo de Diferencia Minima
Trabajo de Diferencia Minima
DIFEERENCIAS MINIMA
SIGNIFICATIVA
(FISHER, TUKEY, DUNNETT)
WPS Office
[NOMBRE DE LA EMPRESA] [Dirección de la compañía]
1
Introducción ……………………………………………………………………………………………………………… 2
ANOVA: Análisis de Variación …………………………………………………………………………………………. 3
Métodos para Detectar Diferencias Mínimas Significativas …............................................. 3
La Diferencia Significativa Mínima (DSM..........................................................................................4
Escribir el título del capítulo (nivel 2)............................................................................................5
Escribir el título del capítulo (nivel 3)........................................................................................6
2
Introducción
En este caso explicaremos algunas técnicas para analizar con mayor detalle los datos
de un experimento, con posterioridad a la realización del Análisis de la Varianza (ANOVA).
Si dicho análisis confirma la existencia de diferencias significativas entre los tratamientos, es
conveniente investigar que medias son distintas. Para ello emplearemos diversas técnicas
cuyo objeto es identificar que tratamientos son estadísticamente diferentes y en cuanto
oscila el valor de esas diferencias. Consideraremos su aplicación únicamente al modelo de
efectos fijos.
El uso de estas técnicas, en algunos casos, esta superdotado al resultado del análisis
de la varianza; en otros casos, las técnicas pueden emplearse directamente sin haber
realizado previamente dicho análisis. Este conjunto de técnicas se engloba bajo la
denominación de contraste para comparaciones múltiples ya que su objetivo fundamental es
comprar entre sí; medias de tratamientos o grupos de ellas.
Es una prueba para la diferencia entre dos o más grupo. La variación total se subdivide
en variación que se debe a las diferencias entre los grupos y la variación de obedecer
dentro de grupos. La variación dentro del grupo se considera como error aleatorio.
La Diferencia Significativa Mínima (DSM); se define como la diferencia mínima que podría
existir entre dos medias de muestras significativamente diferentes. Para obtener la fórmula
para la DSM, se usa la prueba t de Student para la diferencia entre dos medias cuando las
varianzas no son diferentes cuyos estadísticos de contraste es:
Si este valor calculado es mayor que el valor teórico (de tablas) decimos que la diferencia
entre m 1 y m 2 es significativa. Así, la DSM puede considerarse como la menor de las
Existen varios procedimientos para determinar cuáles son los pares de medias que son
diferentes.
Los análisis ANOVA requieren datos de poblaciones que sigan una distribución
aproximadamente normal con varianzas iguales entre los niveles de factores. Sin embargo,
los procedimientos de ANOVA funcionan bastante bien incluso cuando se viola el supuesto
de normalidad, a menos que una o más de las distribuciones sean muy asimétricas o si las
varianzas son bastante diferentes.
Utilice el (ANOVA) cuando tenga un factor categórico y una respuesta continua y desee
determinar si las medias de las poblaciones de dos o más grupos son diferentes. Para
utilizar un ANOVA, debe recopilar una muestra de datos en cada nivel de la variable X.
Fisher en 1935 la denominó Prueba protectora de Fisher LSD, en la cual recomendó que
para que la tasa de error juiciosa por comparación sea aproximadamente igual a alpha (α)
se beben realizar dos etapas:
Etapa I: Es probar Ho: U1 = U2 =...= Un; por la prueba F de tamaño alpha, si el valor
F no es significante se termina el análisis. Si el valor F es significante, entonces
sigue la etapa II.
Etapa II: Se prueba cada comparación simple Ho: U1 = U2 por una prueba t al nivel
de significancia del alpha y con los grados de libertad (g.l) del CM_ EE (en un DCA
g.l=r(t-1), en un bloque g.l=(r-1)(t-1).
Esta prueba determina el valor mínimo necesario para considerar diferentes dos
tratamientos y lo utiliza para comparar los diferentes pares de medias que se deseen
evaluar. Los pares de medias que se comparan son los que han sido planeados antes de
ejecutar el experimento, por ello es una prueba para comparaciones planeadas.
5
Supongamos que después de haber rechazado la hipótesis global, con base en una prueba
F de análisis de varianza, se desea probar Ho: U1 = U2, para i = i. Esto puede hacerse
empleando la estadística.
Donde:
t a/2 Percentil de la distribución t-student con grados de libertad dados por los grados de
libertad del error experimental
Scontranste = Desviación estándar del contraste que para el caso de la diferencia de dos
medias muestrales es dado por:
Como vemos el DMS depende del percentil de la distribución t-Student, el cuadrado medio
del error experimental (CME) y el número de réplicas r. Si r es grande entonces el DMS será
pequeño y permitirá detectar diferencias significativas pequeñas, por otro lado, si el CME
aumenta para un r fijo entonces la DMS es grande y se tiende a no detectar diferencias
significativas.
Ventajas
Fácil de realizar
Válida cuando se han planeado las comparaciones que se van a hacer previamente a la
obtención de los resultados.
6
aná1
Desventajas
Experimento 1
La siguiente tabla muestra los niveles de producción por mes según el método aplicado que
se utilizó. Se aplica un ANOVA.
1
7
N²
5184 5329 5329 5929 6724 6724 6889 7056 7225 7921 0 0 0 0
6561 6724 6889 6889 6889 7056 7569 8100 8464 8649 0 0 0 0
5929 6084 6241 7744 7921 8100 8281 9025 9025 9604 0 0 0 0
0 0 0 0 0 0 0 0 0 0 0 0 0 0
∑ N² 216054
1) Fc= T²/N
Fc= 214714,8
2) SCT= ∑ N²-Fc
SCT= 1339,2
4) SCE= 997,6
ANOVA
FACTORES F crítico
Grados de Suma de Cuadrados
DE Razón F (Estadístico de Prueba) (Tabla de
Libertad (GL) Cuadrados (SC) Medios (CM)
VARIACIÓN Fisher)
K-1 SCTr CMTr=SCTr/k-1 GL
F=CMTr/CME
Tratamiento K 3
341,6 CMTr 170,8
(2,27)
1 2
N-K SCE CMTr=SCE/N-K F= 4,62269447 3,35
ERROR N 30
997,6 CME 36,948
3 27
N-1
TOTAL 1339,2 Fcal 4,62 Fcrítico 3,35
29 4,62 > 3,35
Ho: se desprecia ya que el estadístico de prueba es mayor que el F crítico, esto quiere decir
que por lo menos uno de los tratamientos es diferente a los otros en un 95% de confianza.
Usando los valores de nuestro cuadro ANOVA, podemos calcular el estadístico de Fisher.
8
Experimento 2
La industria petrolera posee cuatro plantas compresoras y se sabe que la planta A satisface
los requisitos de producción de pies cúbicos de gas por día impuesto por la industria para el
conteo de quema de gas por día con su % de condensado aceptado. Pero se quisiera
determinar cuál es la situación de los otros tres (3). Para el efecto se toma cinco (5)
muestras de los líquidos (condesado del gas) residuales de cada una de las plantas y se
determina la cantidad de condesado (Contaminante). Los resultados del experimento
aparecen en la siguiente tabla.
9
N²
2,723 2,958 2,25 1,8225 2,56 0 0 0 0 0 0 0 0 0
2,89 3,423 2,1316 4,2025 3,24 0 0 0 0 0 0 0 0 0
1,96 3,063 1,9044 2,7225 2,403 0 0 0 0 0 0 0 0 0
4,41 3,803 2,7225 3,5344 4 0 0 0 0 0 0 0 0 0
∑ N² 58,72
1) Fc= T²/N
Fc= 57,766005
2) SCT= ∑ N²-Fc
SCT= 0,955295
4) SCE= 0,48504
ANOVA
FACTORES Suma de F crítico
Grados de Libertad Cuadrados
DE Cuadrados Razón F (Estadístico de Prueba) (Tabla de
(GL) Medios (CM)
VARIACIÓN (SC) Fisher)
K-1 SCTr CMTr=SCTr/k-1 GL
F=CMTr/CME
Tratamiento K 4
0,470255 CMTr 0,1568
(3,16)
1 3
N-K SCE CMTr=SCE/N-K F= 5,170762549 3,24
ERROR N 20
0,48504 CME 0,0303
4 16
N-1
TOTAL 0,955295 Fcal 5,17 Fcrítico 3,24
19 5,17 > 3,24
Ho: se desprecia ya que el estadístico de prueba es mayor que el F crítico, esto quiere decir
que por lo menos uno de los tratamientos es diferente a los otros en un 95% de confianza.
Usando los valores de nuestro cuadro ANOVA, podemos calcular el estadístico de Fisher.
10
LSD √2CME●(1/ni+1/nk)
El método de Tukey
La prueba de Tukey es similar a una prueba t de Student en cuanto a que se calcula una
única diferencia crítica para realizar todas las comparaciones entre las medias; sin
embargo, es también similar a la prueba de Duncan y de Newman-Keuls en cuanto a que el
valor de esta diferencia crítica depende del número de comparaciones que se haga.
Se utiliza en ANOVA para crear intervalos de confianza para todas las diferencias en parejas
entre las medias de los niveles de los factores mientras controla la tasa de error por familia
en un nivel especificado. Es importante considerar la tasa de error por familia cuando se
hacen comparaciones múltiples, porque la probabilidad de cometer un error de tipo I para
una serie de comparaciones es mayor que la tasa de error para cualquier comparación
individual. Para contrarrestar esta tasa de error más elevada, el método de Tukey ajusta el
nivel de confianza de cada intervalo individual para que el nivel de confianza simultáneo
resultante sea igual al valor que usted especifique.
Para el estudio formó cuatro grupos con seis (6) compresores que hasta ese momento
14
N²
3,61 4 4 9 3,24 4,41 0 0 0 0 0 0 0 0
1,96 2,25 2,56 2,89 2,25 1,96 0 0 0 0 0 0 0 0
3,24 4,41 4 3,61 4,41 4 0 0 0 0 0 0 0 0
2,25 1,96 2,25 2,56 2,56 3,24 0 0 0 0 0 0 0 0
∑ N² 80,62
1) Fc= T²/N
Fc= 77,76
2) SCT= ∑ N²-Fc
SCT= 2,86
4) SCE= 1,183333333
ANOVA
FACTORES F crítico
Grados de Libertad Suma de Cuadrados
DE Razón F (Estadístico de Prueba) (Tabla de
(GL) Cuadrados (SC) Medios (CM)
VARIACIÓN Fisher)
K-1 SCTr CMTr=SCTr/k-1 GL
F=CMTr/CME
Tratamiento K 4
1,676666667 CMTr 0,5589
(3,20)
1 3
N-K SCE CMTr=SCE/N-K F= 9,44600939 3,1
ERROR N 24
1,183333333 CME 0,0592
4 20
N-1
TOTAL 2,86 Fcal 9,45 Fcrítico 3,1
23 9,45 > 3,1
15
Ho: se desprecia ya que el estadístico de prueba es mayor que el F crítico, esto quiere decir
que por lo menos uno de los tratamientos es diferente a los otros en un 95% de confianza.
Usando los valores de nuestro cuadro ANOVA, podemos calcular el estadístico de Tukey.
HSD √CME/n
ni Números de datos (réplicas) los tratramientos.
α 0,05 Crítico de Tukey Tabla según los grados de libertad 3,58
k-1 3 Qα = 3,58
n-k 20 n = 6
CME 0,06 (CME)/n = 0,01
n 6 = 0,1
HSD= 0,36
Experimento 2
En una torre de glicol se aplica tres (3) fórmulas para aumentar los tiempos de secado de un
gas rico. Probar si existe diferencias en los tiempos medios de secados con las tres (3)
formulas, observándose los siguientes datos a un 95% de confianza
N²
169 121 64 121 64 0 0 0 0 0 0 0 0 0
169 121 196 196 100 0 0 0 0 0 0 0 0 0
16 1 9 16 4 0 0 0 0 0 0 0 0 0
∑ N² 1367
1) Fc= T²/N
Fc= 1075,266667
2) SCT= ∑ N²-Fc
SCT= 291,7333333
ANOVA
FACTORES F crítico
Grados de Libertad Suma de Cuadrados
DE Razón F (Estadístico de Prueba) (Tabla de
(GL) Cuadrados (SC) Medios (CM)
VARIACIÓN Fisher)
K-1 SCTr CMTr=SCTr/k-1 GL
F=CMTr/CME
Tratamien to K 3
252,9333333 CMTr 126,467
(2,12)
1 2
N-K SCE CMTr=SCE/N-K F= 39,1134021 3,89
ERROR N 15
38,8 CME 3,23333
3 12
N-1
TOTAL 291,7333333 Fcal 39,1 Fcrítico 3,89
14 39,1 > 3,89
Ho: se desprecia ya que el estadístico de prueba es mayor que el F crítico, esto quiere decir
que por lo menos uno de los tratamientos es diferente a los otros en un 95% de confianza.
Usando los valores de nuestro cuadro ANOVA, podemos calcular el estadístico de Tukey.
HSD √CME/n
17
El método de Dunnett
La prueba debe utilizarse cuando se quiere comparar la media del grupo control (ósea
que grupo al que no se le aplica tratamiento), con las medias de los grupos experimentales
(grupos que reciben tratamiento)
Por lo tanto, el objetivo central de esta prueba es detectar aquellos tratamientos que
difieren de ciertos tratamientos de interés, sin realizar todas las posibles comparaciones
entre los distintos pares de medias de tratamientos.
Se utiliza la fórmula:
Se utiliza en ANOVA para crear intervalos de confianza para las diferencias entre la
media de cada nivel de factor y la media de un grupo de control. Si un intervalo contiene el
cero, no hay diferencia significativa entre las dos medias que están comparándose. Usted
especifica una tasa de error por familia para todas las comparaciones, y el método de
Dunnett determina los niveles de confianza para cada comparación individual según
corresponda.
Experimento 1
N²
610 566,4 480 479,61 432,64 466,56 519,84
615 660,5 666 556,96 519,84
600 670,8 718 696,96 645,16
773 795,2 807 870,25 723,61
∑ N² 13872,68
1) Fc= T²/N
Fc= 13750
2) SCT= ∑ N²-Fc=
19
SCT= 122,68
4) SCE= 24,744
ANOVA
FACTORES Razón F F crítico
Grados de Suma de Cuadrados
DE (Estadístico de (Tabla de
Libertad (GL) Cuadrados (SC) Medios (CM)
VARIACIÓN Prueba) Fisher)
K-1 SCTr CMTr=SCTr/k-1 GL
F=CMTr/CME
Tratamiento K 4
97,936 CMTr 32,645
(3,18)
1 3
N-K SCE CMTr=SCE/N-K F= 23,748 3,16
ERROR N 22
24,744 CME 1,3747
4 18
N-1
TOTAL 122,68 Fcal 23,748 Fcrítico 3,16
21 23,748 > 3,16
Ho: se desprecia ya que el estadístico de prueba es mayor que el F crítico, esto quiere decir
que por lo menos uno de los tratamientos es diferente a los otros en un 95% de confianza.
Experimento 2
N²
49 49 225 121 81 0 0
144 225 289 324 225
196 324 324 361 361
361 625 484 361 529
∑ N² 5658
1) Fc= T²/N
Fc= 5184,2
2) SCT= ∑ N²-Fc
SCT= 473,8
4) SCE= 110,4
21
ANOVA
FACTORES Razón F F crítico
Grados de Suma de Cuadrados
DE (Estadístico de (Tabla de
Libertad (GL) Cuadrados (SC) Medios (CM)
VARIACIÓN Prueba) Fisher)
K-1 SCTr CMTr=SCTr/k-1 GL
F=CMTr/CME
Tratamiento K 4
363,4 CMTr 121,13
(3,16)
1 3
N-K SCE CMTr=SCE/N-K F= 17,556 3,24
ERROR N 20
110,4 CME 6,9
4 16
N-1
TOTAL 473,8 Fcal 17,556 F-crítico 3,24
19 17,556 > 3,24
Ho: se desprecia ya que el estadístico de prueba es mayor que el F crítico, esto quiere decir
que por lo menos uno de los tratamientos es diferente a los otros en un 95% de confianza.
k-1 3 Dα = 2,56
n-k 16 1/ni = 0,2
CME 6,9 1/nk = 0,2
ni 5 (1/ni)+(1/nk) = 0,4
nk 5 CME●(1/ni+1/nk) =2,76
1,6613
DUNNET= 4,253
Anexos
23
24