Actividad 1 Unidad 4 Estadistica 2

Descargar como docx, pdf o txt
Descargar como docx, pdf o txt
Está en la página 1de 29

INGENIERÍA INDUSTRIAL

NOMBRE DE MATERIA:
Estadística Inferencial II

Nombre de actividad:

Actividad 1
Experimentos con un solo factor (Análisis de Varianza).

Objetivo
El objetivo de esta unidad es comprender los diseños al azar y el análisis de varianza,
la importancia de cada uno de los elemento, al igual que conocer sobre el tema del
tamaño de la muestra para conocer ampliamente los rangos múltiples, la comparación
de contrastes verificando los supuestos del modelo.

• Diseño completamente al azar y ANOVA

• Comparaciones o pruebas de rango múltiples

• Verificación de los supuestos del modelo

• Elección del tamaño de la muestra

• Uso de software computacional


• Análisis de varianza

• Contraste

• Contrastes ortogonales

• Cuadrados medios

• Diagramas de cajas

• Diferencia mínima significativa (LSD)

• Diseño balanceado

• Gráfica de probabilidad en papel normal

• Método de Sheffé

• Métodos de comparaciones múltiples

• Modelo de efectos fijos

• Notación de puntos

• Residuos
• Tabla de análisis de varianza

• Tratamiento control

• Varianza constante.

Introducción.

Diseño Completamente al Azar y ANOVA.

Este diseño se llama completamente al azar (DCA) porque es el más simple de los
diseños que se utilizan en la comparación de dos o más tratamientos.

Veremos diseños que consideran la influencia de otras fuentes de variabilidad


(bloques) de esta manera durante el estudio se hacen cantidad de pruebas estas son
al azar ya que se utilizan los posibles efectos ambientales y temporales.

El interés del experimentador está centrado en comparar los tratamientos en cuanto a


sus medias poblacionales, sin olvidar que también es importante compararlos con
respecto a sus varianzas. Así, desde el punto de vista estadístico, la hipótesis
fundamental a probar cuando se comparan varios tratamientos es: Por lo general, el
interés del experimentador está centrado en comparar los tratamientos en cuanto a
sus medias poblacionales, sin olvidar que también es importante compararlos con
respecto a sus varianzas. Así, desde el punto de vista estadístico, la hipótesis
fundamental a probar cuando se comparan varios tratamientos es:

Con la cual se quiere decidir si los tratamientos son iguales estadísticamente en


cuanto a sus medias, frente a la alternativa de que al menos dos de ellos son
diferentes. La estrategia natural para resolver este problema es obtener una muestra
representativa de mediciones en cada uno de los tratamientos, y construir un
estadístico de prueba para decidir el resultado de dicha comparación.
Tabla al azar.

TRATAMIENTOS
METODO DE ENSAMBLE T1 T2 T3 … Tk
A B C D Y11 Y21 Y31 … Yk1
6 7 11 10 Y12 Y22 Y32 … Yk2
8 9 16 12 Y13 Y23 Y33 … Yk3
7 10 11 11


8 8 13 9 Y1n1 Y2n2 Y3n3 … Yknk

Tabla Cuatro Tiempos.

Tipo de Cuero OBSERVACIONES PROMEDIO


A 264 260 258 241 262 255 256.67
B 208 220 216 200 213 206 210.50
C 220 263 219 225 230 228 230.83
D 217 226 215 227 220 222 221.17

A continuación, veremos la teoría general del diseño y análisis de este tipo de


experimentos (DCA), y más adelante se analizarán los datos de los ejemplos
planteados. Supongamos que se tienen k poblaciones o tratamientos, independientes
y con medias desconocidas.

Diseño balanceado

El número de tratamientos k es determinado por el investigador y depende del


problema particular de que se trata. El número de observaciones por tratamiento (n)
debe escogerse con base en la variabilidad que se espera observar en los datos, así
como en la diferencia mínima que el experimentador considera que es importante
detectar. Con este tipo de consideraciones, por lo general se recomiendan entre 5 y 30
mediciones en cada tratamiento. Por ejemplo, se usa n=10 cuando las mediciones
dentro de cada tratamiento tienen un comportamiento consistente (con poca
dispersión). En el otro extremo, se recomienda n=30 cuando las mediciones muestran
bastante dispersión.
ANOVA para el diseño completamente al azar (DCA)

El análisis de varianza (ANOVA) es la técnica central en el análisis de datos


experimentales. La idea general de esta técnica es separar la variación total en las
partes con las que contribuye cada fuente de variación en el experimento. En el caso
del DCA se separan la variabilidad debida a los tratamientos y la debida al error.
Cuando la primera predomina “claramente” sobre la segunda, es cuando se concluye
que los tratamientos tienen efecto o, dicho de otra manera, las medias son diferentes.

Partiendo la variación total en sus componentes en un DCA.

Representación de los efectos de los tratamientos en el DCA


¿Notación de puntos, para qué Sirve?

ANOVA El objetivo del análisis de varianza en el DCA es probar la hipótesis de


igualdad de los tratamientos con respecto a la media de la correspondiente variable de
respuesta.

La cual se puede escribir en forma equivalente como:

Donde ti es el efecto del tratamiento i sobre la variable de respuesta. Si se acepta H0


se confirma que los efectos sobre la respuesta de los k tratamientos son
estadísticamente nulos (iguales a cero), y en caso de rechazar se estaría concluyendo
que al menos un efecto es diferente de cero.
La equivalencia de las hipótesis se deduce directamente del modelo asociado al
diseño pero se observa más fácilmente en la figura que es una manera de representar
el diseño completamente al azar.

Mediante la técnica de ANOVA, lo primero es descomponer la variabilidad total de los


datos en sus dos componentes: la variabilidad debida a tratamientos y la que
corresponde al error aleatorio, como se hace a continuación.

Una medida de la variabilidad total presente en las observaciones de la tabla.

En forma abreviada, esta descomposición de la suma total de cuadrados se puede


escribir como:

Como hay un total de N n i n i i = Σ =1 observaciones, la SCT tiene N – 1 grados de


libertad. Hay k tratamientos o niveles del factor de interés, así que SCTRAT tiene k –
1 grados de libertad, mientras que la SCE tiene N – k.

Las sumas de cuadrados divididas entre sus respectivos grados de libertad se llaman
cuadrados medios. Los dos que más interesan son el cuadrado medio de tratamientos
y el cuadrado medio del error, que se denotan por los valores esperados de los
cuadros medios están dados por:

Con base en este hecho se construye el estadístico de prueba como sigue: se sabe
que SCE y SCTRAT son independientes, por lo que SCE /s2 y SCTRAT /s2 son dos
variables aleatorias independientes con distribución ji-cuadrada con N – k y k – 1
grados de libertad, respectivamente.

La información necesaria para calcular el estadístico F0 hasta llegar al valor-p se


escribe en la llamada tabla de análisis de varianza (ANOVA) que se muestra en la
tabla 3.4. En esta tabla, las abreviaturas significan lo siguiente: FV = fuente de
variabilidad (efecto), SC = suma de cuadrados, GL = grados de libertad, CM =
cuadrado medio, F0 = estadístico de prueba, valor-p = significancia observada.
Debemos señalar que el caso particular de comparar dos tratamientos suponiendo
varianzas desconocidas pero iguales (prueba T de Student presentada en el capítulo
2), también se puede analizar con el ANOVA y se obtiene el mismo valor del valor-p
que con la prueba T. Es fácil comprobar que el estadístico t0 de la prueba T elevado al
cuadrado es igual al estadístico F0.

Análisis del ejemplo (comparación de cuatro tipos de cuero).


Tabla de ANOVA para el DCA.

FV SC GL CM Fo Valor-p
Tratamientos k-1

Error N-k

Total N-1

Comparación de cuatro métodos de ensamble. Consideremos los datos del DCA


dados en el ejemplo 3.1, donde el interés era comparar cuatro métodos de ensamble
en cuanto al tiempo promedio en minutos que requiere cada uno de ellos. Se hicieron
cuatro observaciones del tiempo de ensamble en cada método.

ANOVA para los tipos de cuero.


FV SC GL CM Fo Valor-p
Tipo de Cuero 7072.33 3 2357.44 23.24 0.0000

Error 2029 20 101.45

Total 9101.33 23

ANOVA para los métodos de ensamble.


FV SC GL CM Fo Valor-p
Tipo de Cuero 69.5 3 23.17 9.42 0.0018

Error 29.5 12 2.46

Total 99 15

Cálculos manuales.

Hay personas que, cuando hacen los cálculos de forma manual, complementan el
entendimiento de un análisis con el apoyo de una calculadora de bolsillo, al menos
para los casos más simples. Para el caso del ANOVA, estos cálculos se facilitan si
primero se obtiene la información básica desplegada en la tabla.

Detalles de los cálculos para el ANOVA en el DCA para el tiempo de ensamble.


Diagramas de cajas simultáneos.

En general, cuando los diagramas no se traslapan es probable que los tratamientos


correspondientes sean diferentes entre sí, y la probabilidad es mayor en la medida que
los diagramas están basados en más datos.

Cuando se traslapan un poco puede ser que haya o no diferencias significativas, y en


cualquier caso es conveniente utilizar una prueba estadística para determinar cuáles
diferencias son significativas.

Gráficos de medias.

Cuando se rechaza H0 mediante el ANOVA, y se concluye que no hay igualdad entre


las medias poblacionales de los tratamientos, pero no se tiene información específica.

Diagramas de cajas para los métodos de ensamble.


Así, podemos ver que el método LSD detecta con una confianza de 95% que A π C, A
π D y B = C. De esta forma, la conclusión práctica del experimento es que el mejor
método de ensamble parece ser el A, ya que estadísticamente sus tiempos son
menores que los de los métodos C y D. Le sigue el método B, ya que éste es mejor
que el C. Pero no es posible concluir que el método A sea mejor que el método B, ya
que sus intervalos se traslapan. Si se quisiera decidir en forma estadística sobre la
diferencia entre los métodos A y B, una forma de hacerlo es tomar más datos para
incrementar la potencia de la prueba, o bien, recurrir a otros criterios para tomar la
decisión.

Gráfico de medias con el método LSD

Comparaciones o pruebas de rango múltiples.

A continuación, veremos tres estrategias distintas para ir a ese detalle.

Comparación de parejas de medias de tratamientos

Cuando no se rechaza la hipotesis nula H0 : m1 = m2 = … mk = m, el objetivo del


experimento está cubierto y la conclusión es que los tratamientos no son diferentes. Si
por el contrario se rechaza H0, y por consiguiente se acepta la hipótesis alternativa
HA: mi π mí para algún i π j, es necesario investigar cuáles tratamientos resultaron
diferentes, o cuáles provocan la diferencia.
Método LSD (diferencia mínima significativa).

Una vez que se rechazó H0 en el ANOVA, el problema es probar la igualdad de todos


los posibles pares de medias con la hipótesis:

Para toda i π j. Para k tratamientos se tienen en total k (k – 1)/2 pares de medias. Por
ejemplo, si k = 4 existen 4 × 3/2 = 6 posibles pares de medias. El estadístico de prueba
para cada una de las hipótesis dadas en es la correspondiente diferencia en valor
absoluto entre sus medias muéstrales Y Y i j • • − . Se rechaza la hipótesis H0: mi = mj
si ocurre que

Donde el valor de ta/2, N – k se lee en las tablas de la distribución T de Student con N


– k grados de libertad que corresponden al error, el CME es el cuadrado medio del
error y se obtiene de la tabla de ANOVA, ni y nj son el número de observaciones para
los tratamientos i y j, respectivamente.

La cantidad LSD se llama diferencia mínima Diferencia mínima significativa (LSD) Es


la diferencia mínima que debe haber entre dos medias muéstrales para considerar que
dos tratamientos son diferentes. Gutierrez-03.indd 74 12/10/07 10:08:23 significativa
(least significant difference), ya que es la diferencia mínima que debe existir entre dos
medias muéstrales para considerar que los tratamientos correspondientes son
significativamente diferentes.

En caso de rechazar H0 se acepta la hipótesis alternativa HA: mi π mj , la cual nos


dice que las medias de los tratamientos i y j son diferentes. El método LSD tiene una
potencia importante, por lo que en ocasiones declara significativas aun pequeñas
diferencias.

Aplicación de la prueba LSD a métodos de ensamble.

Diferencia Diferencia muestral


Decision
poblacional en valor absoluto
1.25 < 2.42 No significativa
* 5.50 > 2.42 Significativa
* 3.25 > 2.42 Significativa
* 4.25 > 2.42 Significativa
2.00 < 2.42 No significativa
2.25 < 2.42 No significativa

Específica, los intervalos en la gráfica de medias (means plot) con el método LSD se
obtienen con:

De esta forma, si dos intervalos se traslapan, entonces no habrá diferencias entre las
medias de los tratamientos correspondientes. Note que CM n E / se está considerando
como el error o desviación estándar de la correspondiente media muestral.

METODO DE TUKEY

Un método más conservador para comparar pares de medias de tratamientos es el


método de Tukey, el cual consiste en comparar las diferencias entre medias
muestrales con el valor crítico dado por:

Donde CME es el cuadrado medio del error, n es el número de observaciones por


tratamiento, k es el número de tratamientos, N – k es igual a los grados de libertad
para el error, a es el nivel de significancia prefijado y el estadístico qa(k, N – k) son
puntos porcentuales de la distribución del rango estudentizado, que se obtienen de la
correspondiente tabla en el apéndice. Se declaran significativamente diferentes los
pares de medias cuya diferencia muestral en valor absoluto sea mayor que Ta. A
diferencia de los métodos LSD y Duncan, el método de Tukey trabaja con un error a
muy cercano al declarado por el experimentador.

Método de Duncan

En este método para la comparación de medias, si las k muestras son de igual


tamaño, los k promedios se acomodan en orden ascendente y el error estándar de los
promedios se estima con S CM n Y E i• = / . Si alguno o todos los tratamientos tienen
tamaños diferentes, se reemplaza n por la media armónica de las {ni }, que está dada
por,

Nótese que cuando n1 = n2 = … = nk = n, ocurre que nAR = n. De la tabla de rangos


significantes de Duncan dada en el apéndice, se obtienen los valores críticos ra (p, l),
p = 2, 3, …, k, donde a es el nivel de significancia prefijado y l son los grados de
libertad para el error. Con estos k – 1 valores se obtienen los rangos de significancia
mínima dados por

Las diferencias observadas entre las medias muéstrales se comparan con los rangos
Rp de la siguiente manera: primero se compara la diferencia entre la media más
grande y la más pequeña con el rango Rk. Luego, la diferencia entre la media más
grande y la segunda más pequeña se compara con el rango Rk – 1.

Estas comparaciones continúan hasta que la media mayor se haya comparado con
todas las demás. Enseguida, se compara la diferencia entre la segunda media más
grande y la media menor con el rango Rk – 1. Después, la diferencia entre la segunda
media más grande y la segunda más pequeña se compara con el valor de Rk – 2, y
así sucesivamente hasta que se comparan los k(k – 1)/2 pares de medias posibles con
el rango que les corresponda. En las comparaciones donde la diferencia observada es
mayor que el rango respectivo, se concluye que esas medias son significativamente
diferentes. Si dos medias caen entre otras dos que no son muy diferentes, entonces
esas dos medias poblacionales también se consideran estadísticamente iguales.

Diferencia Diferencia muestral en valor


Decision
poblacional absoluto
12.75 - 7.25 = 5.5* > 2.60 R4 Significativa
12.75 - 8.50 = 3.27* > 2.52 R3 Significativa
12.57 - 10.50 = 2.25 < 2.40 R2 No significativa
10.50 - 7.25 = 3.25* > 2.60 R3 Significativa
10.50 - 8.50 = 2.00 < 2.40 R2 No significativa
8.50 - 7.25 =1.25 < 2.40 R2 No significativa

COMPARACION DE TRATAMIENTOS CON UN CONTROL (Método de Dunnet)

Una vez que se rechaza H0 con el ANOVA, en ocasiones uno de los k tratamientos a
comparar es el llamado tratamiento control y el interés fundamental es comparar los k
– 1 tratamientos restantes con dicho control. En muchos casos el tratamiento control
se refiere a un tratamiento estándar de referencia o también a la ausencia de
tratamiento.

Por facilidad, denotemos como tratamiento control al k-ésimo tratamiento. Hacer


comparaciones con respecto al control implica probar las k – 1 hipótesis dadas por:

Con i = 1, 2, …, k – 1, donde k es el tratamiento control. La hipótesis nula se rechaza


si,
Donde Da (k – 1, l) se encuentra en las tablas del apéndice; l son los grados de
libertad del cuadrado medio del error. Se recomienda que el tamaño de muestra del
tratamiento control sea grande, a fin de estimar su media con mayor precisión.

Comparacion por Contrastes

No siempre interesa probar sólo las k(k – 1)/2 hipótesis dos a dos dadas por H vs 0 i j :
. μ μ = H i j 0 i j : μ μ ≠ ≠ para , y no siempre estas hipótesis dos a dos interesan todas
por igual. En ocasiones, el objetivo del estudio lleva a contrastar hipótesis que
involucran a más de dos medias. En esta sección se presentan este tipo de
alternativas en la comparación de medias, pero antes se definen los conceptos de
contraste y contrastes ortogonales.

Contraste

Una expresión de la forma C c i k = Σ =1 i i μ es una combinación lineal de las medias


poblacionales de interés, donde los coeficientes ci son números reales. La
combinación lineal C se llama contraste si cumple que la suma de los coeficientes es
igual a cero ( )

Σi k i c =1 = 0. Muchas hipótesis estadísticas de interés son contrastes, como por


ejemplo las hipótesis de comparación de medias. En efecto, ya hemos visto que la
hipótesis nula
H i j 0 i j : μ μ = ≠ para se puede escribir de manera equivalente como H0 : mi – mj = 0,
donde se observa que el contraste correspondiente es la combinación lineal ci mi + cj
mj con ci = 1 y cj = –1, e interesa verificar si es estadísticamente igual a cero. En
general, supongamos que interesa probar si el contraste definido por C c i k = Σ =1 i i μ
es igual a cero. Si las poblaciones objeto de estudio son normales ( ( , ); , , , ) N i k μ σi
i 2 = … 1 2 el contraste C sigue una distribución normal con media μ μ C i k i i = c Σ =1
y varianza V c n C i k i i = Σ =1 i 2 2 σ .

Cuando las varianzas de los tratamientos son iguales y el diseño experimental es


balanceado (ni = n para cada i), la varianza del contraste se reduce a V c C n i k = = i
σ2
1 2 Σ . Al usar el CME para estimar a s2 y Y – i• para estimar a la media mí, se puede
ver que un intervalo al 100(1 – a)% de confianza para el contraste C está dado por:

Donde ta /2, N – k es un punto porcentual de la distribución T de Student con N – k


grados de libertad. En caso de que el intervalo contenga al cero se concluye que el
contraste C es estadísticamente igual a cero.

Contrastes Octogonales

En el caso de un diseño balanceado, dos contrastes C cC c i k ii i k 1 11 2 12 = = Σ Σ =

= μ μ y i i son ortogonales si la suma del producto de los coeficientes es igual a cero,


esto es, si Σi ii c c =11 2 = 0; para el diseño desbalanceado son ortogonales si Σi ii i nc
c =1 12 = 0.

Dadas las k medias de interés correspondientes a k tratamientos objeto de estudio, se


pueden construir una infinidad de conjuntos de k – 1 contrastes ortogonales entre sí.
En particular, con el uso de contrastes ortogonales es posible construir un grupo de
hipótesis de interés independientes entre sí.

C1 C2 C3 C4 Contrastes Octogonales
2 -1 -1 0
0 1 -1 0
1 1 1 -3

Método de Sheffe
Este método está diseñado para probar todos los contrastes de medias que pudieran
interesar al experimentador, sin el inconveniente de inflar por ello el error tipo I
(detección de diferencias que no existen).

Supongamos que interesa contrastar las hipótesis

Donde la hipótesis nula se puede escribir alternativamente como, lo cual implica que la
hipótesis está definida por el contraste De manera que el contraste estimado está
dado por

Donde ni es el número de mediciones en el tratamiento i = A, B, C. Intervalos


simultáneos al 100(1 – a) % de confianza para todos los contrastes tienen la forma

Donde Cˆ representa la estimación de cualquier posible contraste y Fa, k – 1, N – k es


el cuantil 100(1 – a) de una distribución F con k – 1 grados de libertad en el
numerador, y N – k grados de libertad en el denominador. Si el intervalo resultante
para un contraste particular, digamos C0, no contiene al cero, se concluye que el
contraste es significativamente diferente de cero, lo cual lleva a rechazar H0. De
manera equivalente, el método de Sheffé rechaza la hipótesis nula si el contraste
asociado es

Supongamos que en el ejemplo de los métodos de ensamble se quieren contrastar las


hipótesis dadas en la ecuación (3.14). Con las medias muestrales (tabla 3.7) se calcula
el estadístico Cˆ 0 = 2(7.25) – 8.50 – 12.75 = –6.75. La varianza del contraste es V(Cˆ
0) = 2.46(6)/4 = 3.69. Como ( )( ˆ) . . . , , k VCF − = 1 α k Nk − − 1 3 3 69 3 49 6 21 ×× =
Cˆ y 0 = 6 75 . , se rechaza la hipótesis H0 2: μμμ A BC = + y se acepta la HA A: 2μ ≠ μ
μBC+.

Verificación de los supuestos del modelo.

La validez de los resultados obtenidos en cualquier análisis de varianza queda


supeditada a que los supuestos del modelo se cumplan. Estos supuestos son:
normalidad, varianza constante (igual varianza de los tratamientos) e independencia.
Esto es, la respuesta (Y) se debe distribuir de manera normal, con la misma varianza
en cada tratamiento y las mediciones deben ser independientes.

Estos supuestos sobre Y se traducen en supuestos sobre el término error (e) en el


modelo [véase expresión]. Es una práctica común utilizar la muestra de residuos para
comprobar los supuestos del modelo, ya que si los supuestos se cumplen, los residuos
o residuales se pueden ver como una muestra aleatoria de una distribución normal con
media cero y varianza constante.

Normalidad

Un procedimiento gráfico para verificar el cumplimiento del supuesto de normalidad de


los residuos consiste en graficar los residuos en papel o en la gráfica de probabilidad
normal que se incluye casi en todos los paquetes estadísticos. Esta gráfica del tipo X-
Y tiene las escalas de tal manera que si los residuos siguen una distribución normal, al
graficarlos tienden a quedar alineados en una línea recta; por lo tanto, si claramente
no se alinean se concluye que el supuesto de normalidad no es correcto. Cabe
enfatizar el hecho de que el ajuste de los puntos a una recta no tiene que ser perfecto,
dado que el análisis de varianza resiste pequeñas y moderadas desviaciones al
supuesto de normalidad.

Grafica de Probabilidad en Papel Normal

Consideremos los N residuos ei que resultan del análisis de una varianza, o cualquier
conjunto de N datos de los cuales se quiere verificar su procedencia de una
distribución normal.

Cálculos para realizar una gráfica de probabilidad normal.

Dato Rango i (i - 0.5) / N


39.9 1 0.05 -1.64
41.7 2 0.15 -1.03
43.9 3 0.25 -0.67
46.5 4 0.35 -0.38
48.6 5 0.5 0
48.6 6 0.5 0
48.8 7 0.65 0.38
50.4 8 0.75 0.67
50.6 9 0.85 1.03
51.5 10 0.95 1.64

Grafica de Probabilidad Normal en Papel Ordinario

A falta de papel de probabilidad normal, la gráfica de probabilidad también se puede


hacer en papel ordinario con escalas equiespaciadas en ambos ejes. Para ello, primero
se obtiene el valor normal estandarizado Zi que cumple la relación:

Gráfica de probabilidad en papel normal y en papel ordinario.


Prueba de Shapiro-Wilks para Normalidad

Consideremos una muestra aleatoria de datos x1, x2, …, xn que proceden de


cierta distribución desconocida denotada por F(x). Se quiere verificar si dichos
datos fueron generados por un proceso normal, mediante las hipótesis
estadísticas: H0: Los datos proceden de una distribución normal (F(x) es
normal). HA: Los datos no proceden de una distribución normal (F(x) no es
normal).

Los pasos para la prueba de Shapiro-Wilks son: 1) Se ordenan los datos de menor a
mayor. Denotemos los datos ordenados por X(1), X(2), …, X(n). 2)

De la tabla dada en el apéndice para este procedimiento se obtienen los coeficientes


a1, a2, …, ak, donde k es aproximadamente n/2. 3) Se calcula el estadístico W
definido como:

1 0.5739 51.5 - 39.9 = 11.6 6.66


2 0.3291 50.6 - 41.7 = 8.9 2.93
3 0.2141 50.4 - 49.9 = 6.5 1.39
4 0.1224 48.8 - 46.5 =2.3 0.28
5 0.0399 48.6 - 48.6 = 0 0
Con el tamaño de muestra n = 10, en la tabla de valores críticos dada en el apéndice se
lee que el cuantil 95 es W1 – 0.05 = 0.987. Como W es menor que W1 – a se acepta
que los datos proceden de una distribución normal, que concuerda con lo que se
observó en las gráficas de probabilidad.

Varianza constante.

Una forma de verificar el supuesto de varianza constante (o que los tratamientos


tienen la misma varianza) es graficando los predichos contra los residuos (Yˆ ij vs. ei ),
por lo general Yˆ ij va en el eje horizontal y los residuos en el eje vertical.

Otra gráfica que ayuda a verificar el supuesto es la gráfica de niveles de factor contra
residuos. En el eje X de esta gráfica se ponen los tratamientos o los niveles de un
factor, y en el eje vertical se agregan los residuos correspondientes a cada tratamiento
o nivel de factor. Si se cumple el supuesto de varianza constante, se espera que la
amplitud de la dispersión de los puntos en cada nivel de factor tenderá a ser similar; y
no se cumplirá el supuesto si hay diferencias fuertes en esta amplitud, como se
muestra en la figura 3.6d. En la interpretación de esta gráfica debe considerarse que,
en estadística, las pequeñas diferencias por lo general no son significativas, y también
debe tomarse en cuenta la cantidad de observaciones hechas en cada nivel del factor,
puesto que este hecho puede impactar la dispersión aparente en cada tratamiento.
Prueba de Bartlett para homogeneidad de varianzas.
Supongamos que se tienen k poblaciones o tratamientos independientes, cada uno
con distribución normal (N( mi , s 2 i ), i = 1, 2, …, k), donde las varianzas son
desconocidas. Se quiere probar la hipótesis de igualdad de varianzas dada por:
Observe que el estadístico q, en el numerador del estadístico c2 0, es grande en la
medida de que las varianzas muéstrales S2 i son diferentes y es igual a cero cuando
éstas son iguales. La prueba de Bartlett que acabamos de describir es sensible a la
falta de normalidad de las poblaciones de interés, por lo que debe comprobarse el
cumplimiento de este supuesto.

Independencia

La suposición de independencia en los residuos puede verificarse si se grafica el


orden en que se colectó un dato contra el residuo correspondiente. De esta manera, si
al graficar en el eje horizontal el tiempo (orden de corrida) y en el eje vertical los
residuos, se detecta una tendencia o patrón no aleatorio claramente definido, esto es
evidencia de que existe una correlación entre los errores y, por lo tanto, el supuesto de
independencia no se cumple.

Si el comportamiento de los puntos es aleatorio dentro de una banda horizontal, el


supuesto se está cumpliendo. La violación de este supuesto generalmente indica
deficiencias en la planeación y ejecución del experimento; asimismo, puede ser un
indicador de que no se aplicó en forma correcta el principio de aleatorización, o de que
conforme se fueron realizando las pruebas experimentales aparecieron factores que
afectaron la respuesta observada.

Residuos para ejemplo 3.2


A 264 256.7 7.33 A 262 256.7 5.33
C 220 230.8 -10.83 D 220 220.7 -0.67
B 208 209.8 -2.5 A 255 256.7 -1.67
B 220 209.8 9.5 B 200 209.8 -10.5
A 260 256.7 3.33 D 222 220.7 1.33
A 258 256.7 1.33 B 213 209.8 2.5
D 217 220.7 -3.67 A 241 256.7 -15.67
C 263 230.8 32.17 C 228 230.8 -2.83
D 229 220.7 5.83 B 206 209.8 -4.5
C 219 230.8 -11.83 C 230 230.8 -0.83
B 216 209.8 5.5 D 215 220.7 -5.67
C 225 230.8 5.83 D 224 220.7 3.33

Elección del Tamaño de la Muestra

Una decisión importante en cualquier diseño de experimentos es decidir el número de


réplicas que se hará por cada tratamiento (tamaño de muestra). Por lo general, si se
esperan diferencias pequeñas entre tratamientos será necesario un mayor tamaño de
muestra. Aunque existen varios métodos para estimar el tamaño muestral, muchas
veces tienen poca aplicabilidad porque requieren cierto conocimiento previo sobre la
varianza del error experimental.
Elección del tamaño de la muestra por intervalo de confianza

Supongamos que el experimentador ya tiene el número de tratamientos que desea


probar, k, y que tomando en cuenta las consideraciones antes citadas tiene una
propuesta inicial del número de réplicas por tratamiento que va a utilizar, n0. También
tiene una idea aproximada del valor de s (la desviación estándar del error aleatorio),
así como una idea de la magnitud de las diferencias, dT, entre tratamientos que le
interesa detectar.

Uso del Software Computacional

Casi cualquier software estadístico incluye procedimientos para realizar análisis de


varianza, comparar tratamientos y hacer análisis relacionados. En términos generales,
en una columna se registra el código para cada tratamiento corrido (se ponen tantos
renglones como pruebas hechas), y en otra columna se registran los valores
correspondientes obtenidos para Y. Con esto, en Statgraphics el análisis de los
diseños comparativos se realiza básicamente en la opción Compare del menú
principal. La secuencia para un diseño completamente al azar es: Compare Æ
Analysis of variance Æ One-way anova. En las opciones del procedimiento aparecen
todas las pruebas y análisis que se han descrito en este capítulo. Otra posibilidad en
Statgraphics es accesar con la siguiente secuencia de opciones: Special Æ
Experimental Design Æ Create Design, después de esto se debe elegir el tipo de
diseño, que en este caso es Single Factor Categorical. Enseguida se define el número
de niveles (tratamientos) y el nombre de estos. También se debe definir el nombre de
la(s) variable(s) de respuesta(s). En la siguiente pantalla se pedirá el número de
réplicas adicionales a la básica (si se pide una, en total se tendrán dos al considerar la
réplica básica) y también aparece la opción de aleatorizar el orden para correr las
pruebas, que siempre debe utilizarse en un diseño completamente aleatorizado. Todo
esto permitirá generar una columna en la que se incluyen todas las pruebas a ser
corridas, y una columna en blanco para cada variable de respuesta, la cual debe ser
llenada en la medida que se vayan obteniendo los resultados del experimento. De la
versión 15 de Statgraphics en adelante, la secuencia para crear diseños es DOE Æ
Design Creation.

En Minitab se registran los datos en dos columnas, como ya se dijo, y al ANOVA se


accesa con la secuencia Stat Æ Anova Æ One way, y se da el nombre de las
columnas que contienen los datos. También se eligen las comparaciones de medias
deseadas y las gráficas.

Uso del Excel

El ANOVA de un diseño con un criterio de clasificación se realiza con la secuencia:


Herramientas Æ Análisis de datos Æ Análisis de varianza con un factor. Si no
estuviera activada la opción de Análisis de datos, se utiliza la opción de
Complementos dentro del mismo menú de Herramientas. Entonces, se declara el
rango de los datos, que pueden estar acomodados por columnas o por renglones. La
salida contiene las estadísticas básicas de cada una de las muestras y el ANOVA
correspondiente.

CONCLUSION:

Podemos aprender demasiado de estos temas ya que nos explica con muchos
ejemplos cada uno de los programas tradicionales y de forma entendible. Los
programas son herramientas que ya en la actualidad son muy primordiales para
realizar la vida cotidiana. Se puede ver la evolución un desarrollo de la programación o
uso de excel ya que ahí todo se hace más rápido y eficiente además que es más
sencillo para entender y poderlo aplicar en la vida laboral y personal si se tiene un
negocio propio.

El análisis de la varianza (Anova) es un método de comparación de dos o más medias.


Es necesario ya que se requiere para comparar más de 2 medias, es incorrecto utilizar
repetidamente el contraste basado en la t de Student.

El análisis de varianza sirve para comparar si los valores de un conjunto de datos son
significativamente distintos a los valores de otro o más conjuntos de datos.
El método para comparar estos valores está basado en la varianza global observada
en los grupos de datos numéricos a comparar. El análisis de varianza se utiliza para
asociar una probabilidad a la conclusión de que la media de un grupo de puntuaciones
es distinta de la media de otro grupo de puntuaciones.

BIBLIOGRAFIA.

Recursos de la materia: unidad 4

http://elestadistico.blogspot.com/2007/07/anlisis-de-la-varianza-anova.html

También podría gustarte