0% encontró este documento útil (0 votos)
76 vistas28 páginas

INV-T3-Pérez Briceño

Este documento presenta información sobre diseños de experimentos de un factor. Describe los diseños completamente al azar y en bloque completamente al azar, así como el análisis de varianza (ANOVA) que se utiliza para comparar tratamientos. También define conceptos como factores, niveles y factoriales en el diseño de experimentos.

Cargado por

Fernando
Derechos de autor
© © All Rights Reserved
Nos tomamos en serio los derechos de los contenidos. Si sospechas que se trata de tu contenido, reclámalo aquí.
Formatos disponibles
Descarga como PDF, TXT o lee en línea desde Scribd
0% encontró este documento útil (0 votos)
76 vistas28 páginas

INV-T3-Pérez Briceño

Este documento presenta información sobre diseños de experimentos de un factor. Describe los diseños completamente al azar y en bloque completamente al azar, así como el análisis de varianza (ANOVA) que se utiliza para comparar tratamientos. También define conceptos como factores, niveles y factoriales en el diseño de experimentos.

Cargado por

Fernando
Derechos de autor
© © All Rights Reserved
Nos tomamos en serio los derechos de los contenidos. Si sospechas que se trata de tu contenido, reclámalo aquí.
Formatos disponibles
Descarga como PDF, TXT o lee en línea desde Scribd
Está en la página 1/ 28

Ingenieria industrial

Estadística inferencial II
Tema 3 Diseño de experimentos de un factor.
Investigación documental
Docente: M.I.P. Natalia Canché Och

Integrantes

INTEGRANTES Matriculas
Andrade Sánchez Herbert 18160006
Rodrigo
Jiménez Noh Darwing Alejandro 18160004

May Castro Abner Joel 18160025

Nahuat Cahuich Jesús Rodrigo 18160029

Pérez Briceño Fernando 18160030


Nazareth

Cuarto semestre
Grupo: A
3.1 Familia de diseños para comparar tratamientos

Se llaman experimentos factoriales a aquellos experimentos en los que se estudia


simultáneamente dos o más factores, y donde los tratamientos se forman por la
combinación de los diferentes niveles de cada uno de los factores.

Los experimentos factoriales en si no constituyen un diseño experimental si no que


ellos deben ser llevados en cualquiera de los diseños tal como DCA, DBCA, DCL,
DCGL

1. Diseño completamente al azar (DCA)

2. Diseño en bloque completamente al azar (DBCA)

3. Diseño en cuadro latino (DCL)

4. Diseño en cuadro grecolatino (DCGL)

Los experimentos factoriales se emplean en todos los campos de la investigación,


son muy útiles en investigaciones exploratorias en las que poco se sabe acerca de
muchos factores.

La diferencia fundamental entre estos diseños es el número de factores de bloque


que incorporan o controlan de forma explícita durante el experimento. La
comparación delos tratamientos en cuanto a la respuesta media que logran, en
cualquiera de estos diseños, se hace mediante la hipótesis que se prueba con la
técnica estadística llamada Análisis de Varianza (ANOVA)con uno, dos, tres o
cuatro criterios de clasificación, dependiendo del número de factores de bloques
incorporados al diseño.

Hipótesis
ANOVA

TIPOS DE FACTORES:

1.- Factores Cuantitativos.

Conceptos generales

Factor: Es un conjunto de tratamientos de una misma clase o característica.


Ejemplo: tipos de riego, dosis de fertilización, variedades de cultivo, manejo de
crianzas, etc.

Factorial: Es una combinación de factores para formar tratamientos.

Niveles de un factor: Son los diferentes tratamientos que pertenecen a un


determinado factor. Se acostumbra simbolizar algún elemento "i" por la letra
minúscula que representa al factor y el valor del respectivo subíndice.

Ejemplo:

A: Tipos de riego: Secano, Goteo, Aspersión

Niveles: a0 a1 a2
Tipos de factores

Factores cuantitativos: Son aquellos factores cuyos niveles son cantidades


numéricas.

Ejemplo:

Factor A: Dosis de fertilización

Niveles: 10 Kg/Ha (ao), 20Kg/Ha (a1), 30Kg/Ha (a2).

Factores cualitativos: Son aquellos factores cuyos niveles son procedimientos o


cualidades.

Ejemplo:

Factor A: Variedades de cultivo

Niveles: Variedad 1, Variedad 2.

Ejemplo de formación de factoriales

Sea los factores A y B con sus respectivos niveles:

Factor A: a0 a1 a2

Factor B: b0 b1

La combinación de los niveles de los factores será:

a0 a1 a2

b0 b1 b0 b1 b0 b1

a0 b0 a0 b1 a1 b0 a1 b1 a2b0 a2 b1} tratamientos


Al combinar ambos factores (A y B) se tiene:

3 x 2 = 6 tratamientos para ser evaluados

Niveles de A x niveles de B

Si cada tratamiento se aplica a 4 unidades experimentales, se requiere 24 unidades


experimentales, para realizar el experimento:

Repeticiones a0 b0 a0 b1 a1 b0 a1 b1 a2b0 a2 b1

Formación de factoriales

En la formación de factoriales, se debe tener presente lo siguiente:

 Que factores deben incluirse.

 Que factores son fijos (modelo I: de efectos fijos) y que factores son al azar
(modelo II: de efectos aleatorios).

 Cuantos niveles se tiene por factor.

 Si son factores cuantitativos, cuál debe ser el espaciamiento entre los niveles
del factor.
Por ejemplo:

0%, 5% y 10% de nitrógeno, significa igual espaciamiento.

Tipos de experimentos factoriales

Los experimentos factoriales para un determinado diseño se diferencian entre si,


por el número de factores y por la cantidad de niveles de estos factores que
intervienen en el experimento.

Para simbolizar se usa la letra del factor:

pA x qB dos factores "A y "B", con "p" niveles para "A" y "q" niveles para "B"

→ Número de factores.

2A 2B = 2A x 2B ⇔ 2 x 2 ⇔ 22 → Número de niveles de c/factor (4 tratamientos).

→ Número de factores.

3A 3B = 3A x 3B ⇔ 3 x 3 ⇔ 32 → Número de niveles (9 tratamientos).

→ Número de factores.

4A 4B = 4A x 4B ⇔ 4 x 4 ⇔ 42 → Número de niveles (16 tratamientos).


3.2. Modelo de Efectos Fijos.

Definición

En estadística, un modelo de efectos fijos es un modelo estadístico que representa


las cantidades observadas en las variables explicativas que son tratadas como si
las cantidades fueran no-aleatorias. Esto está en contraste con el Modelo de efectos
aleatorios y el Modelo mixto en los que todas o algunas de las variables explicativas
son tratadas como si se derivaran de causas aleatorias.

Tenga en cuenta que esto difiere con la definición bioestadística. Los bioestadísticos
se refieren a los efectos "promedio de la población" y "específicos del sujeto" como
efectos "fijo" y "aleatorio" respectivamente. A menudo, la misma estructura del
modelo, que suele ser una regresión lineal, puede ser tratado como cualquiera de
los tres tipos, dependiendo del punto de vista del analista, aunque puede haber una
elección natural en cualquier situación dada.

Función

Los modelos de regresión de datos anidados, realizan distintas hipótesis sobre el


comportamiento de los residuos, el más elemental y el más consistente es el de
Efectos Fijos. Este modelo es el que implica menos suposiciones sobre el
comportamiento de los residuos. Supone que el modelo a estimar es ahora:
Puede resolverse fácilmente por MCO.

Los programas informáticos (i.e. stata) la estiman generalmente con este segundo
método, descomponiendo, además la varianza en dos: intro y entre grupos.

Visto de otra Manera…

Modelo I o de efectos fijos:

Un valor individual se puede escribir en este modelo como

m es la media global, αi es la constante del efecto, o efecto fijo, que diferencia a las
k poblaciones. También se puede escribir:

Representa la desviación de la observación j-ésima de la muestra i-ésima, con


respecto a su media. A este término se le suele llamar error aleatorio y, teniendo en
cuenta las asunciones iniciales del análisis de la varianza son k variables (una para
cada muestra), todas con una distribución normal de media 0 y varianza δ2.
La hipótesis nula en este análisis es que todas las medias son iguales:

Como en H0 se cumplen las condiciones del apartado anterior se tratará de ver


como se modifican las estimaciones de la varianza en H1.

Ejemplo

Supuesto práctico 1:

La contaminación es uno de los problemas ambientales más importantes que


afectan a nuestro mundo. En las grandes ciudades, la contaminación del aire se
debe a los escapes de gases de los motores de explosión, a los aparatos
domésticos de la calefacción, a las industrias, … El aire contaminado nos afecta en
nuestro vivir diario, manifestándose de diferentes formas en nuestro organismo. Con
objeto de comprobar la contaminación del aire en una determinada ciudad, se ha
realizado un estudio en el que se han analizado las concentraciones de monóxido
de carbono (CO) durante cinco días de la semana (lunes, martes, miércoles, jueves
y viernes)
En el ejemplo disponemos de una colección de 40 unidades experimentales y
queremos estudiar el efecto de las concentraciones de monóxido de carbono en 5
días distintos. Es decir, estamos interesados en contrastar el efecto de un solo
factor, que se presenta con cinco niveles, sobre la variable respuesta.

Nos interesa saber si las concentraciones medias de monóxido de carbono son


iguales en los cinco días de la semana, para ello realizamos el siguiente contraste
de hipótesis:

Es decir, contrastamos que no hay diferencia en las medias de los cinco


tratamientos, frente a la alternativa de que al menos una media difiere de otra.

El contraste de hipótesis planteado anteriormente está asociado a la


descomposición de la variabilidad de la variable respuesta. Dicha variabilidad se
descompone de la

siguiente forma:
La tabla de análisis de la varianza (tabla ANOVA) se construye a partir de esta
descomposición y proporciona el valor del estadístico F que permite contrastar la
hipótesis nula planteada.

Resultado del ejemplo

3.3 Diseño completamente aleatorio y ANOVA.

Diseño completamente aleatorio

Definición

El diseño completamente al azar es el más sencillo de los diseños de experimentos


que tratan de comparar dos o más tratamientos, puesto que sólo considera dos
fuentes de variabilidad: los tratamientos y el error aleatorio.

Este diseño es apropiado para situaciones experimentales como de las condiciones


ambientales que rodean el experimento.

Este diseño es el más utilizado en la experimentación con animales, asociándole la


técnica del análisis de covarianza y arreglos de tratamiento de tipo factorial.
ANOVA

Definición

En estadística, el análisis de la varianza es una colección de modelos estadísticos


y sus procedimientos asociados, en el cual la varianza está particionada en ciertos
componentes debidos a diferentes variables explicativas

Supuestos previos

El ANOVA parte de algunos supuestos o hipótesis que han de cumplirse:

 La variable dependiente debe medirse al menos a nivel de intervalo.


 Independencia de las observaciones.
 La distribución de los residuales debe ser normal.
 Homocedasticidad: homogeneidad de las varianzas.

La técnica fundamental consiste en la separación de la suma de cuadrados en


componentes relativos a los factores contemplados en el modelo. Como ejemplo,
mostramos el modelo para un ANOVA simplificado con un tipo de factores en
diferentes niveles. (Si los niveles son cuantitativos y los efectos son lineales, puede
resultar apropiado un análisis de regresión lineal)

Formula

Grados de libertad

El número de grados de libertad (gl) puede separarse de forma similar y


corresponde con la forma en que la distribución chi-cuadrado (χ² o Ji-cuadrada)
describe la suma de cuadrados asociada.
Formula

Los grados de libertad pueden descomponerse al igual que la suma de cuadrados.


Así, GLtotal = GLentre + GLdentro. Los GLentre se calculan como: a - 1, donde
a es el número de tratamientos o niveles del factor. Los GLdentro se calculan como
N - a, donde N es el número total de observaciones o valores de la variable medida
(la variable respuesta).

Tipos de modelo

Modelo I: Efectos fijos

El modelo de efectos fijos de análisis de la varianza se aplica a situaciones en las


que el experimentador ha sometido al grupo o material analizado a varios factores,
cada uno de los cuales le afecta sólo a la media, permaneciendo la "variable
respuesta" con una distribución normal.

Este modelo se supone cuando el investigador se interesa únicamente por los


niveles del factor presentes en el experimento, por lo que cualquier variación
observada en las puntuaciones se deberá al error experimental.

Modelo II: Efectos aleatorios (componentes de varianza)

Los modelos de efectos aleatorios se usan para describir situaciones en que ocurren
diferencias incomparables en el material o grupo experimental. El ejemplo más
simple es el de estimar la media desconocida de una población compuesta de
individuos diferentes y en el que esas diferencias se mezclan con los errores del
instrumento de medición.
Este modelo se supone cuando el investigador está interesado en una población de
niveles, teóricamente infinitos, del factor de estudio, de los que únicamente una
muestra al azar (t niveles) están presentes en el experimento.

Pruebas de significación

El análisis de varianza lleva a la realización de pruebas de significación estadística,


usando la denominada distribución F de Snedecor.

Tablas ANOVA

Una vez que se han calculado las sumas de cuadrados, las medias cuadráticas, los
grados de libertad y la F, se procede a elaborar una tabla que reúna la información,
denominada "Tabla de Análisis de varianza o ANOVA", que adopta la siguiente
forma:

Ejemplo

Para ilustrar el diseño, supongamos que queremos determinar si cuatro


dosificaciones de un hormigón A, B, C y D presentan una misma resistencia
característica a compresión. Para ello se han elaborado 5 probetas para cada tipo
de dosificación y, a los 28 días, se han roto las probetas a compresión simple y los
resultados son los que hemos recogido en la tabla que sigue.

DOSIFICACIONES DE HORMIGÓN
A B C D

Resistencia 42 45 64 56
característica 39 46 61 55
a compresión
48 45 50 62
fck (Mpa)
43 39 55 59

44 43 58 60

Para este caso, la variable de respuesta es la resistencia característica del


hormigón a compresión (MPa), la unidad experimental es la probeta de hormigón
y el factor es la dosificación de hormigón. En este caso se trata de un diseño
balanceado porque hemos realizado el mismo número de repeticiones (5) para
cada uno de los tratamientos (dosificaciones).

Este tipo de diseño se llama completamente al azar porque todas las repeticiones
experimentales se realizan en orden aleatorio completo, pues no se han tenido en
cuenta otros factores de interés. Si durante el estudio se hacen N pruebas, éstas se
deben realizar al azar, de forma que los posibles efectos ambientales y temporales
se vayan repartiendo equitativamente entre los tratamientos.

El número de repeticiones a realizar en cada tratamiento depende de la


variabilidad que se espera observar en los datos, a la diferencia mínima que el
experimentador considera que es importante detectar y al nivel de confianza que se
desea tener en las conclusiones. Normalmente se recomiendan entre 10 y 30
mediciones en cada tratamiento. Con 10 mediciones se podrían detectar diferencias
de medias mayores o iguales a 1.5 sigmas con una probabilidad alta, y con 30
mediciones se podrían detectar diferencias mayores o iguales a 0,7 sigmas.
Se utiliza el análisis de la varianza (ANOVA) para comprobar si existen diferencias
en las medias. Fundamentalmente este análisis consiste en separar la contribución
de cada fuente de variación en la variación total observada. Sin embargo, éste
ANOVA está supeditado a los siguientes supuestos que deben verificarse:

 Normalidad
 Varianza constante (igual varianza en los tratamientos)
 Independencia

El ANOVA dio como resultado el rechazo de la igualdad de medias, es decir, que la


resistencia media se ve afectada por la dosificación. Sin embargo, las cuatro
dosificaciones no son igual de efectivas, pues existen diferencias significativas entre
las resistencias medias de cada una de ellas. De hecho, las dosificaciones A y B no
presentan diferencias significativas entre sí, tampoco entre la C y la D, sin embargo,
entre ambos grupos sí que hay diferencias significativas. Asimismo, se ha podido
comprobar que se cumplieron los supuestos de normalidad, varianza constante e
independencia.

3.4 Comparaciones o pruebas de rangos múltiples

Comparación de parejas de medias de tratamientos

En un experimento el investigador puede estar interesado en comparar todas las


parejas de “a” medias de tratamiento

Ho: µi=µj

H1: µi ≠ µ j

Para toda i ≠ j, para llevar a cabo estas comparaciones existen muchos


métodos.
 Método Tukey

Es el método más conservador para comparar pares de medias de tratamientos, el


cual consiste en comparar las diferencias entre medias muéstrales con el valor
crítico.

 Método LSD

La LSD se llama diferencia mínima significativa de Fisher, ya que es la diferencia


mínima que debe existir entre dos medias muéstrales para considerar que los
tratamientos correspondientes son significativamente diferentes.

 Método de Duncan

Este procedimiento de Duncan también se llama prueba de rango múltiple de


Duncan. Este procedimiento también se basa en la notación general del rango
studentizado. El rango de cualquier subconjunto de p medias muéstrales debe
exceder cierto valor antes de que se encuentre que cualquiera de las p medias es
diferente. Este valor se llama rango de menor significancia para las p medias.

p= muestras

Ejemplo

Se supone que la cantidad de carbón usada en la producción de acero tiene un


efecto en su resistencia a la tensión.

Se desea saber cuáles son las parejas de medias que difieren


Fórmula:

Encontrando el valor del LSD, con la fórmula establecida.


Calculando la diferencia de los promedios.

Se dice que unas parejas de medias difieren significativamente si el valor absoluto


de las diferencias de los promedios de los tratamientos correspondientes es mayor
que LSD = 5.65

Conclusiones.

a) Se observa que la pareja de medias que no difieren significativamente son: la


media tres y la media cuatro, ya que |–2.75|< 5.65, por lo tanto, no existe diferencia
significativa entre el porcentaje de carbón tres y cuatro.
b) En las demás parejas de medias (*) el valor absoluto de las diferencias de los
promedios ha resultado ser mayor que el valor encontrado del LSD; por lo tanto, los
demás porcentajes tomados como parejas difieren significativamente.

3.5 Verificación de los supuestos del modelo

La validez de los resultados obtenidos en cualquier análisis de varianza queda


supeditada a que los supuestos del modelo se cumplan. Estos supuestos son:

A) Normalidad
B) Varianza constante (igual varianza de los tratamientos)
C) Independencia

Esto es, la respuesta (Y) se debe distribuir de manera normal, con la misma varianza
en cada tratamiento y las mediciones deben ser independientes. Estos supuestos
sobre Y se traducen en supuestos sobre el termino error (ε) en el modelo.

Es una práctica común utilizar la muestra de residuos para comprobar los supuestos
del modelo, ya que, si los supuestos se cumplen, los residuos o residuales se
pueden ver como una muestra aleatoria de una distribución normal con media cero
y varianza constante.

Los residuos e i j, se definen como la diferencia entre la respuesta observada


(Yij) y la respuesta predicha por el modelo (Ῡij), lo cual permite hacer un diagnóstico
más directo de la calidad del modelo, ya que su magnitud señala qué tan bien
describe a los datos del modelo. Veamos
Recordemos que el modelo que se espera describa los datos en el DCA está dada
por:

Cuando se realiza el ANOVA, y sólo cuando éste resulta significativo, entonces se


procede a estimar el modelo ajustado o modelo de trabajo dado por:
Ŷij=µ^+

Los gorros indican que son estimadores, es decir, valores calculados a partir de

los datos del experimento. El término del error desaparece del modelo
estimado, por el hecho de que su valor esperado es igual a cero (E(εij) = 0 como la
media global se estima con Ӯ…y el efecto del tratamiento con el modelo ajustado
del DCA se puede escribir como:

Para comprobar cada supuesto existen pruebas analíticas y gráficas que veremos
a continuación. Por sencillez, muchas veces se prefieren las pruebas gráficas.
Éstas tienen el inconveniente de que no son exactas, pero, aun así, en la mayoría
de las situaciones prácticas proporcionan la evidencia suficiente en contra o a favor
de los supuestos.

Normalidad
Un procedimiento gráfico para verificar el cumplimiento del supuesto de normalidad
de los residuos consiste en graficar los residuos en papel o en la gráfica de
probabilidad normal que se incluye casi en todos los paquetes estadísticos. Esta
gráfica del tipo X-Y tiene las escalas de tal manera que, si los residuos siguen una
distribución normal, al graficarlos tienden a quedar alineados en una línea recta; por
lo tanto, si claramente no se alinean se concluye que el supuesto de normalidad no
es correcto. Cabe enfatizar el hecho de que el ajuste de los puntos a una recta no
tiene que ser perfecto, dado que el análisis de varianza resiste pequeñas y
moderadas desviaciones al supuesto de normalidad.

Varianza constante
Una forma de verificar el supuesto de varianza constante (o que los tratamientos

tienen la misma varianza) es graficado los predichos contra residuos , por


lo general va en el eje horizontal y los residuos en el eje vertical. Si los
puntos en esta gráfica se distribuyen de manera aleatoria en una banda horizontal
(sin ningún patrón claro y contundente), entonces es señal d que se cumple el
supuesto de que los tratamientos tienen igual varianza. Por el contrario, si se
distribuyen con algún patrón claro y contundente, como por ejemplo una forma de
corneta o embudo, entonces es señal de que no se está cumpliendo el supuesto de
varianza constante.

Independencia
La suposición de independencia en los residuos puede verificarse si se grafica el
orden en que se colectó un dato contra el residuo correspondiente. De esta manera,
si al graficar en el eje horizontal el tiempo (orden de corrida) y en el eje vertical los
residuos, se detectan una tendencia o patrón no aleatorio claramente definido, esto
es evidencia de que existe una correlación entre los errores y, por lo tanto, el
supuesto de independencia no se cumple. Si el comportamiento de los puntos es
aleatorio dentro de una banda horizontal, el supuesto se está cumpliendo.
La violación de este supuesto generalmente indica diferencias en la planeación y
ejecución del experimento; asimismo, puede ser un indicador de que no se aplicó
en forma correcta el principio de aleatorización, o de conforme se fueron realizando
las pruebas experimentales aparecieron factores que afectaron la respuesta
observada. Por ello, en caso de tener problemas con este supuesto, las
conclusiones que se obtiene del análisis son endebles y por ello es mejor investigar
por qué no se cumplió con ese supuesto de independencia, a fin de reconsiderar la
situación.
Ejemplo
Se desea saber si el material utilizado (factor) en el substrato de unas placas de
circuito impreso influye en la resistencia a la temperatura (variable respuesta). Para
ello se poseen placas de diferentes materiales (niveles):
 Fibra de vidrio: 6 unidades
 Polietafluoretileno: 12 unidades
 Resina epoxídica: 10 unidades

Se someten las placas a diferentes tratamientos a altas temperaturas en un horno


de laboratorio, obteniéndose para cada placa el valor de un índice de resistencia
térmica. A mayor valor del índice mayor es la resistencia térmica de la placa. Los
valores obtenidos se muestran en la Tabla.

Verificación de los supuestos del modelo

Sea Y la variable de interés, por ejemplo, el índice de resistencia a la temperatura


de las placas de circuitos impresos, supongamos un factor principal que puede
afectar al valor de la variable Y. Por ejemplo, el tipo de substrato del circuito impreso.
Para el ejemplo, el factor tiene 3 niveles (I=3) y los tamaños muéstrales son n1 = 6;
n2 = 12; n3 = 10. Su variabilidad depende de muchas causas. Supondremos,
entonces, que el valor medio viene determinado por el nivel del factor principal, es
decir: E (Yij |i) = μi, i = 1, 2, ..., I. Dentro de cada nivel, existe variabilidad en Yij .
Esta variabilidad es debida al resto de los factores que no se controlan y que, en
general, serán muchos. Se supondrá, además que dichos factores no controlados
afectan de forma homogénea, o similar, en todo el experimento y por tanto su efecto
tiene las mismas propiedades estadísticas en cada uno de los niveles del factor
principal. Una hipótesis razonable es que esos conjuntos de factores no controlados
puedan englobarse en una variable aleatoria normal (por aplicación del teorema
central del límite). Por tanto, la variable aleatoria Yij puede modelarse como Yij = μi
+ uij, donde uij engloba el efecto de todos los demás factores y que hacen que, para
un nivel dado, la variable Yij fluctúe alrededor del valor medio.
Entonces, Yij ∼ N (μi, σ2),. i = 1, .., I Supondremos, además, que las variables
aleatorias uij, son independientes. Puesto que un experimento es tanto mejor cuanto
más control se tenga sobre los factores, al efecto de los factores no controlados, uij,
se le suele denominar error experimental o perturbación aleatoria. Cuando no
controlamos el valor que tomará un factor, diremos que su valor depende del azar.
Por eso, al término uij se le dice que es causado por el azar.
Conclusiones
3.1 Familia de diseños para comparar tratamientos

En conclusión, podemos decir que la interacción entre dos factores. Se refiere a que
el efecto de un factor depende del nivel en que se encuentra el otro, al igual que el
diseño en bloques completos al azar. Diseño que completa solo un factor de
bloqueo, donde en cada nivel de este, se prueban todos los tratamientos en orden
aleatorio. Pero el diseño de cuadro latino. Diseño que completa dos factores de
tratamiento los tres factores tienen la misma cantidad de niveles. (Jiménez Noh
Darwing Alejandro)

3.2. Modelo de Efectos Fijos.


En la investigación sobre el modelo de efectos fijos, se mostró en forma breve
algunos conceptos y parámetros en los cuales la estadística inferencial nos explica
cómo trabajar con una hipótesis y situaciones que varían según lo que se plantea y
llevarla a la práctica para hallar resultados, así también se puede comprender la
relación que existe entre una determinada prueba y su validez al momento de
realizar el experimento y mostrando de esa manera todos los posibles factores que
se pueden encontrar a partir de un problema planteado.
Durante esta investigación aprendimos y reforzamos nuestros conocimientos
previos acerca de la estadística inferencial desde el principio del tema.
Como resultado de esta investigación entendemos, que el análisis de varianza tiene
múltiples formas de ser realizada como lo es el modelo de efectos fijo. (May Castro
Abner Joel)

3.3 Diseño completamente aleatorio y ANOVA.

En conclusión, el diseño completamente al azar y el ANOVA son una prueba basada


en el análisis de varianza, en donde la varianza total se descompone en la varianza
de los tratamientos y la varianza del error. El objetivo es determinar si existe una
diferencia significativa entre los tratamientos, para lo cual se compara si la “varianza
del tratamiento contra la varianza del error y se determina si la primera es lo
suficientemente alta según la distribución F. (Pérez Briceño Fernando Nazareth)

3.4 Comparaciones o pruebas de rangos múltiples

En conclusión, el objetivo de estos métodos es detectar las diferencias entre las


medias y de igual manera el método que busque las diferencias más pequeñas es
el que es más potente a utilizar.

A diferencia de los métodos LSD y Duncan, el método Tukey trabaja con un error
muy cercano al declarado por el investigador, sin embargo, los tres métodos tienen
el mismo objetivo solo que tienen diferentes maneras de plantear el problema y de
resolverlo. (Andrade Sánchez Herbert Rodrigo)

3.5 Verificación de los supuestos del modelo

En conclusión, la verificación de los supuestos del modelo nos permite crear


estrategias para comprender, controlar, analizar las diferentes condiciones de un
proceso, así poder hacer más clara y precisa los modelos estadísticos que ya fueron
presentados en esta investigación. (Nahuat Cauich Jesús Rodrigo)

Conclusión general

Como ingenieros industriales es importante el conocer estos temas a profundidad


ya que en ocasiones trabajaremos en con los procesos para la elaboración de
diferentes productos que se elaboran en una fábrica, para eso debemos comprender
como mejorar la calidad, eficiencia y eficacia dentro de dicha empresa, debido a que
nuestra tarea es ser parte importante de cada, proceso o producción y a su vez
buscar mejorarlo, por eso el tema de diseños de experimentos de un factor busca
atravez de los cálculos estadísticos la resolución de un experimento por medio de
operaciones para buscar una solución más adecuada para evitar, demoras y costos
innecesarios.
Referencias bibliográficas
García Leal, J. & Lara Porras, A.M. (1998). “Diseño Estadístico de Experimentos.
Análisis de la Varianza.” Grupo Editorial Universitario”.

Lara Porras, A.M. (2000“Diseño Estadístico de Experimentos, Análisis de la


Varianza y Temas Relacionados: Tratamiento Informático mediante SPSS”
Proyecto Surde Ediciones.

Diseño de experimentos de un factor. Publicado el 13 de agosto del 2015,


recuperado de: http://wpd.ugr.es/~bioestad/wp-content/uploads/Latinos.pdf ,
consultado el 5 de mayo del 2020

Diseño de experimentos de un factor. Publicado el 28 de noviembre del 2013,


recuperado de:

http://halweb.uc3m.es/esp/Personal/personas/jmmarin/esp/Disenno/tema4DE.pdf ,
consultado el 5 de mayo del 2020

ANDERSON, D. SWEENEY D. y Williams, T. (1982, 2005).


Estadística inferencial II. México: Thomson editores.

También podría gustarte